CN116744875A - 导航支持 - Google Patents
导航支持 Download PDFInfo
- Publication number
- CN116744875A CN116744875A CN202180089769.3A CN202180089769A CN116744875A CN 116744875 A CN116744875 A CN 116744875A CN 202180089769 A CN202180089769 A CN 202180089769A CN 116744875 A CN116744875 A CN 116744875A
- Authority
- CN
- China
- Prior art keywords
- volume
- marker
- markers
- image
- ray
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000003550 marker Substances 0.000 claims abstract description 143
- 238000001514 detection method Methods 0.000 claims abstract description 34
- 238000003384 imaging method Methods 0.000 claims description 69
- 230000003287 optical effect Effects 0.000 claims description 35
- 238000000034 method Methods 0.000 claims description 33
- 238000004590 computer program Methods 0.000 claims description 20
- 238000010521 absorption reaction Methods 0.000 claims description 10
- 238000012937 correction Methods 0.000 claims description 6
- 238000012800 visualization Methods 0.000 claims description 3
- 230000006870 function Effects 0.000 description 6
- 238000002604 ultrasonography Methods 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 5
- 210000003484 anatomy Anatomy 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000000747 cardiac effect Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000005855 radiation Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 239000002131 composite material Substances 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000005484 gravity Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 230000003936 working memory Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000002591 computed tomography Methods 0.000 description 1
- 238000013170 computed tomography imaging Methods 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000007340 echolocation Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 239000007943 implant Substances 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000000704 physical effect Effects 0.000 description 1
- 238000012805 post-processing Methods 0.000 description 1
- 238000013515 script Methods 0.000 description 1
- 230000002195 synergetic effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
- A61B2034/2057—Details of tracking cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2063—Acoustic tracking systems, e.g. using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Robotics (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本发明涉及一种医学介入期间的指导。为了利用方便的设置提供改善的导航支持,提供一种用于导航支持的系统(10)。图像数据输入部(12)接收从不同角度采集的对象的身体部分的多幅2D X射线图像。在X射线图像中可见并且能够由导航系统检测的一组标记被分配给对象。标记检测装置(16)被提供为检测被分配给对象的标记的当前空间位置。数据处理器(14)基于多幅2D X射线图像来重建对象的3D体积。标记的至少部分被布置在由重建对象的3D体积覆盖的体积外侧,同时标记在2D X射线图像中可见。数据处理器(14)基于位于3D体积外侧的多幅2D X射线图像的图像数据来识别2D X射线图像中的标记,并且确定标记关于对象的3D体积的空间位置。数据处理器(14)还基于检测到的标记的当前空间位置和确定的标记关于对象的3D体积的空间位置来将重建对象的3D体积配准到对象的当前空间位置。输出接口(18)提供配准的重建3D体积用于导航。
Description
技术领域
本发明涉及医学介入期间的指导,并且尤其涉及用于导航支持的系统、用于对象的医学介入的导航X射线成像装置以及用于导航支持的方法。
背景技术
日益增多的手术过程以最小化非入侵的方式执行。近几年开发了各种方案来改善手术的易用性和可获得的精确度。在一些示例中,患者和设备跟踪与例如术前CT或者MRI图像的配准相组合。作为示例,US 8553839B2提供一种用于生成包括患者的内部和外部二者的信息的图像。所述系统包括用于提供患者内部的X射线图像的X射线设备以及用于提供患者外部的相机图像的对波长做出响应的相机。相机可以由X射线设备支撑以建立相机与X射线设备之间确定的空间关系。所述系统还包括用于将X射线图像与相机图像空间相关的空间参考,其中,所述空间参考在X射线图像和相机图像中可检测。数据处理器被配置用于基于所述空间参考将相机图像和X射线图像呈现为合成图像。用于对例如导航系统中的锥形射束CT采集的3D CT图像的配准的示例是基于对与3D成像体积中的光学标记具有已知关联的X射线可见标记的分析(例如,分割)的图像。然而,已经表明,在例如移动3D能力C臂相机的具有相对小视场的成像系统中,可能不能够同时捕获感兴趣的解剖体和X射线可见标记二者。
发明内容
因而需要提供一种具有方便设置的改善的导航支持。
本发明的目标由独立权利要求的对象解决,进一步的实施例结合在从属权利要求中。应该注意到,下面描述的本发明的方面也应用于用于导航支持的系统,应用于用于医学介入的被导航的X射线成像装置并且应用于用于导航支持的方法。
根据本发明,提供一种用于导航支持的系统,所述系统包括图像数据输入部、数据处理器、标记检测装置和输出接口。所述标记检测装置被配置为检测被分配给对象的标记的当前空间位置。图像数据输入部被配置为接收从不同的角度采集的对象的身体的多幅2DX射线图像。在X射线图像中可见并且能够由导航系统检测的一组标记被分配给对象。数据处理器被配置为基于多幅2D X射线图像来重建对象的3D体积。所述标记的至少部分被布置在由对象的重建3D体积覆盖的体积外侧,而所述标记在2D X射线图像中可见。数据处理器还被配置为基于3D体积外侧的多幅2D X射线图像的图像数据来识别2D X射线图像中的标记,并且确定标记相对于对象的3D体积的空间位置。处理器还被配置为基于由标记检测装置检测的标记的当前空间位置以及所确定的标记关于对象的3D体积的空间位置来将对象的重建3D体积配准到对象的当前空间位置。输出接口被配置为提供配准的重建3D体积用于导航支持。
作为有益效果,标记不需要被布置在由重建3D体积限定为3D视场的感兴趣区域内,而是能够被分配在窄的3D视场外侧,同时仍然位于较宽的2D视场内侧。因而,例如,在开放手术的情况下,能够使用标记的更远距离的布置,为手术提供工作空间作为操作区域。作为另一示例,为了最小化非入侵的脊柱手术,标记可以位于皮肤上面或者上方,同时X射线成像并且尤其是3D体积重建能够集中于脊柱,排除皮肤区域或者上方。
根据第一示例,为了确定标记关于对象的3D体积的空间位置,数据处理器被配置为使用来自3D体积外侧的2D X射线图像的2D图像数据并且检测所述2D图像数据中的标记。
根据第二示例,为了确定所述标记关于所述对象的3D体积的空间位置,所述数据处理器被配置为提供扩展的视场重建,其使位于对象的重建3D体积外侧的高对比度项目(诸如,标记)或者关于其的形状或者X射线吸收属性的先前知识可用的项目可视化。
根据示例,所述标记检测装置包括被配置为检测所述标记的多个光学跟踪器,例如光学相机。这些相机可以例如被提供为被附接到移动基座结构、天花板支撑和/或在某些实施例中集成在C臂X射线系统的X射线检测的壳体中。
备选地或额外地,能够提供非光学导航系统。在另一示例中,提供被附接到移动基座结构的多个电测跟踪器,例如电磁传感器,所述电磁传感器被配置为检测所述标记。在其他示例中,提供被附接到移动基座结构的多个基于超声的跟踪器,例如基于超声的跟踪器,所述电磁传感器被配置为检测所述标记。
根据示例,为了检测来自所述3D体积外侧的2D X射线图像的所述2D图像数据中的标记或者在扩展的视场重建中的标记,提供关于所述标记的形状和X射线吸收属性的一组信息中的至少一个并且用于在检测所述标记之前进行伪影校正。
根据本发明,还提供一种用于对象的医学介入的导航X射线成像装置。所述装置包括根据前述示例之一的用于导航支持的系统。所述装置还包括X射线成像系统,例如,移动系统或者非移动系统。所述X射线成像系统被配置为从多个角度采集2D X射线图像,用于提供对象的身体的多个采集的2D X射线图像。所述导航装置被配置为将所述X射线成像系统的空间坐标系与用于导航支持的所述系统的空间坐标系链接。
根据示例,提供多个至少两个标记,所述标记被配置用于临时分配给所述对象。例如,所述标记可以被分配给位于感兴趣区域外侧的对象,所述感兴趣区域由重建3D体积覆盖。
根据一方面,还提供一种用于导航支持的方法,所述方法包括以下步骤:
从不同角度采集对象的身体的多幅2D X射线图像,其中,在X射线图像中可见并且能够由导航系统检测的一组标记被分配给所述对象;
基于所述多幅2D X射线图像来重建所述对象的3D体积;其中,所述标记的至少部分被布置在由对象的重建3D体积覆盖的体积外侧,同时所述标记在所述2D X射线图像中可见;
基于所述3D体积外侧的所述多幅2D X射线图像的图像数据来识别所述2D X射线图像中的所述标记,并且确定所述标记关于所述对象的3D体积的空间位置;
检测被分配给所述对象的所述标记的当前空间位置;
基于检测到的所述标记的当前空间位置以及所确定的所述标记关于所述对象的3D体积的空间位置来将所述对象的重建3D体积配准到所述对象的当前空间位置;并且
提供配准的重建3D体积用于导航支持。
根据一方面,提供一种包括X射线成像系统的导航X射线成像系统,能够通过组合来自相对于所述对象(即,所述对象的身体)的不同角度的一组2D X射线图像的信息来重建所述对象的内部的3D X射线图像。
另外,提供一种导航系统,包括能够跟踪被分配给对象的身体的标记的光学相机或者电磁跟踪。在另一示例中,提供一种基于超声的导航系统。
导航系统可以包括不同类型的跟踪。例如,利用相机提供光学跟踪。在另一选项中,例如利用光学传感器和用于波束生成的光学发射器来提供光学跟踪。对于另一示例,基于回声定位的原理提供超声跟踪。对于另一示例,提供基于射频的跟踪。还提供其它组合和融合。
作为进一步的示例,提供单个相机光学跟踪。
此外,提供能够由所述X射线成像系统和所述导航系统二者检测的标记。
并且,提供一种能够从所述X射线成像系统接收数据并且计算标记的3D位置的处理器。具体地,使用所述2D X射线图像的子集来计算所述标记在所述2D X射线成像坐标系中的3D位置并且将其链接到所述导航系统的3D坐标系。
在示例中,所述导航系统被提供作为具有多个相机的移动卫星,例如,具有四个相机。所述导航系统通过机械支撑臂被附接到移动观察站。所述X射线系统是能够进行3D成像的移动C臂。在X射线上可见并且通过所述导航相机可见的标记被附接到所述对象。所述标记的位置在3D锥形射束CT体积内,但是不用于3D图像数据生成。所述标记的位置被计算并且传输到所述导航系统。由于所述标记在3D锥形射束CT体积中可见并且通过所述相机系统光学可见,因此能够完成将所述X射线3D数据匹配到所述光学导航系统的配准过程。
在进一步示例中,图像数据输入部接收从不同角度采集的对象的身体的多幅2D X射线图像。在X射线图像中可见并且能够由导航系统检测的一组标记被分配给所述对象。标记检测装置被提供为检测被分配给所述对象的所述标记的当前空间位置。数据处理器基于所述多幅2D X射线图像来重建所述对象的3D体积。所述标记的至少部分被布置在由对象的重建3D体积覆盖的体积外侧,同时所述标记在所述2D X射线图像中可见。所述数据处理器基于所述3D体积外侧的所述多幅2D X射线图像的图像数据来识别所述2D X射线图像中的所述标记并且确定所述标记关于所述对象的3D体积的空间位置。所述数据处理器还基于检测到的所述标记的当前空间位置和所确定的所述标记关于所述对象的3D体积的空间位置将对象的重建3D体积配准到所述对象的当前空间位置。输出接口提供配准的重建3D体积用于导航。
在示例中,组合提供两个选项:检测位于用于3D重建图像部分外侧的所述2D图像数据中的标记,并且提供扩展的视场用于标记位置确定。
通过参数下面描述的实施例,本发明的这些和其它方面将变得显而易见和清晰。
附图说明
下面参照附图来描述本发明的示例性实施例。
图1示意性示出了用于导航支持的系统的示例。
图2示出了用于对象的医学介入的导航X射线成像装置。
图3示出了用于导航支持的方法的示例步骤。
图3a示出了图3的确定步骤的第一变体。
图3b示出了图3的确定步骤的第二变体。
图4示出了被附接到移动基础结构的光学相机的示例。
图5示出了临时分配给对象的一组标记的示例。
图5a示出了图5的标记的另一示例。
图5b示出了标记的其他示例。
图6a示出了导航X射线成像装置的第一示例性成像位置并且图6b示出了导航X射线成像装置的第二示例性成像位置。
图7a示出了第一产生的采集的X射线图像并且图7b示出了第二产生的采集的X射线图像。
图8示出了用于导航的配准的重建3D体积的示例。
图9示出了用于不同的视场重建的示例。
具体实施方式
现在将参照附图来更加详细地描述某些实施例。在下面的描述中,尽管在不同的附图中,对于类似的元素使用类似的附图标记。提供在诸如详细的构造和元素的描述中定义的主题以辅助对示例性实施例的总和理解。并且,没有详细描述意指的功能或者构造,因为它们将以不必要的细节使实施例变得模糊。而且,在元素列表之前的诸如“至少一个”的表示修改要素的整体列表但是不修改列表的单独要素。
图1示意性示出了用于导航支持的系统10的示例。系统10包括图像数据输入部12、数据处理器14、标记检测装置16和输出接口18。标记检测装置16被配置为检测分配给对象的标记的当前空间位置。图像数据输入部12被配置为接收从不同的角度采集的对象的身体的多幅2D X射线图像。在X射线图像中可见并且能够由导航系统检测的一组标记被分配给对象(也参见图2和图5)。数据处理器14被配置为基于多幅2D X射线图像来重建对象的3D体积。标记的至少部分被布置在由对象的重建3D体积覆盖的体积外侧,而标记在2D X射线图像中可见。数据处理器14还被配置为基于3D体积外侧的多幅2D X射线图像的图像数据来识别2D X射线图像中的标记并且确定标记相对于对象的3D体积的空间位置。数据处理器14还被配置为基于检测到的标记的当前空间位置以及所确定的标记相对于对象的3D体积的空间位置将对象的重建3D体积配准到对象的当前空间位置。输出接口18被配置为提供配准的重建3D体积用于导航。
术语“被分配”指代可以在与对象至少临时固定的装置中或者在该装置处提供的可识别对象。
在第一选项中,标记被提供为被附接到对象(例如,对象的皮肤上)的单独的标记。
在第二选项中,标记被提供为解剖标记,即,在X射线和光学跟踪二者中可见的对象的物理属性。
在进一步的选项中,标记被提供为在X射线和电磁跟踪二者中可见的对象的植入体。
虚线框20指示配准的重建3D体积的进一步使用,例如在导航系统中或者在类似图2中示出的导航X射线成像装置的另一系统中。
另外,第一箭头22指示由图像数据输入部12接收采集的多幅2D X射线图像。第二箭头24指示由输出接口18提供配准的重建3D体积用于导航。检测标记的当前空间位置由所指示的检测角度26的两条线来指示。
框28表明在例如共同壳体的共同结构中提供图像数据输入部12、数据处理器14和输出接口18的选项。在示出的示例中,标记检测装置16是分立的,但是提供其中标记检测装置16也以集成方式提供的另一示例。作为进一步的选项,图像数据输入部12、数据处理器14和输出接口18被布置为彼此进行数据连接的分立部件。
用于导航支持的系统10还能够被称为导航支持系统或者用于导航的系统。
注意到,在选项中,用于导航支持的系统10专用于成像系统,即在成像系统的上下文内实现,该系统的输出用于由导航系统使用进行导航支持。
在另一选项中,用于导航支持的系统10专用于导航系统,即,在导航系统的上下文内实现,该系统的输出用于由导航系统使用进行导航支持。
因而,提供了在被提供用于3D重建2D X射线图像的图像部分上执行标记分割,但是在这些图像部分中可见的标记不是产生的重建体积的一部分(因为在标记可见的情况下采集了不充足的2D X射线图像投影)。在选项中,这些标记的3D位置被计算。在另一选项中,提供对扩展的视场重建使用。
作为优点,能够使用不同类型的图像采集系统,这是由于不需要在系统中放置光学标记。成像系统和导航系统能够彼此独立提供。这提供了改善的兼容性。
作为进一步的优点,避免手动执行配准,例如通过使用光学跟踪指针并且在患者上标明几个点,该手动配准会容易发生错误并且耗时。
再一优点是即使在感兴趣的解剖体的位置远离X射线可见标记时也能够进行配准。
简要地说,用于导航支持的系统10即使以较小视场的X射线系统工作也基于X射线可见标记在X射线成像系统和光学导航系统之间提供自动配准。
图像数据输入部12被配置为从X射线成像系统接收对象的身体的多个采集的2D X射线图像。
在示例中,用于导航支持的系统10包括用于分配给对象的多个至少两个标记(也参见图5)。
结果,提供用于导航支持的系统10,允许将导航系统的坐标系(也被称为空间参考或者空间网格)与提供对象的2D X射线图像的任意X射线成像系统的相应坐标系链接。配准(即,两个坐标系的链接)提供并且允许从X射线成像空间到光学导航空间的转换,反之亦然。
在可选的选项中,如果多个X射线可见标记的几何模式先前已知,则提供单个图像用于配准,而不是采集的多幅2D X射线图像。
在选项中,由成像系统提供重建对象的3D体积的配准,并且结果被提供给用于导航支持的系统10。
在进一步的选项中,由导航系统提供重建对象的3D体积的配准,并且结果被提供给用于导航支持的系统10。
在示例中(图1中未进一步示出),由一些依赖导航系统的测量系统来实现配准,类似3D光学跟踪、电磁(EM)跟踪等。在另一示例中,导航系统是基于超声的。
在选项中,在被提供用于导航或者成像或者上述二者的上下文中,用于导航支持的系统10被提供作为支持系统。
在第一选项中,用于导航支持的系统10被提供作为导航系统,或者作为这样的系统的一部分,被配置用于在医学介入或者医学检查期间提供导航。导航系统因而可以是心脏导管工作站中的支持系统。
在第二选项中,用于导航支持的系统10被提供作为成像系统,或者作为这样的系统的一部分,被配置用于在医学介入或者医学检查期间提供成像。成像系统因而可以是心脏导管工作站中的支持系统。
在第三选项中,用于导航支持的系统10被提供作为导航成像系统(或者成像导航系统),或者作为这样的系统的一部分,被配置用于在医学介入或者医学检查期间提供导航和成像。成像导航系统因而可以是心脏导管工作站中的支持系统。
图2示出了用于对象的医学介入的导航X射线成像装置100的示例。装置100包括根据先前示例的用于导航支持的系统10。装置100还包括X射线成像系统102。X射线成像系统102被配置为从多个角度采集2D X射线图像,用于提供采集的对象的身体的多幅2D X射线图像。所述装置被配置为将X射线成像系统102的空间坐标系与用于导航支持的系统10的空间坐标系进行链接。
用于导航支持的系统10的数据处理器14链接两个空间坐标系。
X射线成像系统102包括X射线源104和X射线检测器106,例如被附接到可移动C臂结构108的端部。在导航X射线成像装置100的选项中,X射线成像系统102是移动X射线成像系统,例如具有被附接到移动成像基座112的C臂结构108的移动C臂系统。在可选的选项中,还提供非移动的成像系统,例如永久安装在心脏导管工作站(cathlab)或者混合手术室中的C臂系统,或者安装到手术室的天花板或者安装到手术室的地面。导航X射线成像装置100也可以被称为导航X射线成像系统。
作为根据图1的用于导航支持的系统10的选项,示出了移动基座结构114,例如作为导航系统的一部分。标记检测装置包括多个光学相机116,在这一示例中,标记检测装置116被附接到移动基座结构114。相机116被配置为检测标记。例如,提供具有可移动上臂120的垂直柱118,向该垂直柱118提供针对光学相机116的环状支持体122(也参见图4)。
在可选实施例中(未示出),对于天花板安装的固定C臂系统,具有相机116的标记检测装置也可以借助于专用的吊杆或臂安装到房间的天花板。在这一实施例中,也能够将相机116的一些或者全部集成到固定C臂系统的X射线检测器106的壳体中。
在进一步的选项中(未示出),光学相机例如被附接到固定基座结构或者附接到固定壁安装的支持结构。
在作为选项在图2中表明的示例中,提供被附接到基座(例如被附接到移动基座结构112)的具有多个电磁跟踪器(未示出)的电磁跟踪装置124。电磁跟踪装置124被配置为检测标记。
在未示出的进一步选项中,电磁跟踪装置被附接到固定结构(例如附接到固定基座结构)、被附接到固定壁安装的支持结构或者被附接到固定天花板安装的支持结构。作为示例,电磁跟踪器被附接到对象支持体,也被称为患者台。
在示例中,为了检测来自位于3D体积之外或者位于扩展的视场重建中的来自2D X射线图像的2D图像数据中的标记,提供关于标记的形状以及标记的X射线吸收属性的一组信息中的至少一个,并且该信息用于在检测标记之前的伪影校正。
作为示例,诸如标记的高对比度项因而被可视化到足以进行标记位置确定的程度。
在第一示例中,为了确定标记关于对象的3D体积的空间位置,数据处理器14被配置为使用3D体积外侧的来自2D X射线图像的2D图像数据并且检测所述2D图像数据中的标记。
如果3D重建的视场足够大以包含标记的空间位置,则标记存在于2D图像的过小子集中,这将在3D重建中产生伪影。用于3D体积重建的图像部分因而是无标记或者少标记的。简单地说,标记不充足地存在于用于3D体积重建的图像中。
在基于模型的方案的第一选项中,在用于执行针对每个CT重建的3D锥形射束CT/X的2D X射线图像的子集上检测X射线可视标记。使用X射线可视标记的具体形状或者模式(例如利用了一组圆球的知识)来实现这些标记关于针对每个CT重建体积的3D锥形射束CT/X的精确3D位置确定。
作为示例,通过利用2D X射线图像的有限集合执行重建来提供3D对象的检测。最简单形式是检测具有已知直径的圆球,能够仅基于来自不同角度的两幅2D X射线图像来重建精确的3D位置。如果先前的形状信息已知,则也可以重建更加高级的形状。对于特定的标记装置,能够使用简单的2D X射线图像来计算3D位置,尽管优选使用多幅图像以最小化所述计算的深度误差。
这些标记的位置以及3D CBCT体积信息的知识被传递给光学导航系统。
标记的位置的知识也能够是基于电磁(基于EM)的、基于超声的(基于US的)或者来自其它技术导航系统。
作为示例,标记的位置可以例如经由DICOM元数据被简明地传输,或者它们能够被编码在3D重建体积中。后者的示例是通过增加重建体积大小并且通过执行X射线标记在“扩展的视场”区域中的重建,同时仅在3D体积的原始视场子集上执行解剖重建。另一示例是在计算的标记位置处放置综合标记。
光学导航系统使用X射线标记位置执行3D锥形射束CT体积与光学导航空间的自动配准。作为示例,在扩展的视场区域中使用或者检测X射线可见标记的位置,这与大视场自动配准方法类似。
在示例中,提供导航系统可见的(光学)标记与成像系统可见的X射线标记的已知关联。作为选项,提供在两个系统中均可见的标记,但是也提供已知模式的光学标记和X射线标记的布置作为另一选项。
在第二示例中,为了确定标记关于对象的3D体积的空间位置,数据处理器14被配置为提供扩展的视场重建,使对象的重建3D体积外侧的高对比度项(例如标记)或者具有关于其形状或者X射线吸收属性的先前知识的项可视化。
标记不存在于重建3D体积中或者不充足地存在于重建3D体积中。重建3D体积因而是无标记或者少标记的。
在基于扩展视场的方案的进一步选项中,扩展的视场重建用于实现位于锥形射束CT(CBCT)体积的标准视场FOV外侧的高对比度项或者具有关于其形状或者X射线吸收属性的先前知识的项可视化。即,CBCT体积的标准FOV与扩展3D体积的“核心”相对应,其中能够计算对象的解剖体的核心3D图像数据。
在超出核心的“扩展”视场中的重建不用于生成3D图像数据以避免产生解剖体的图像伪影,这可能导致在导航过程期间的误解或者错误指导的风险,产生患者伤害,特别是对于能够被预期受这些伪影影响的空间位置。对于这一扩展的FOV,3D标记仅由其中出现这样的高对比度项和/或匹配特定的(投影)标记形状或者X射线吸收特性的项的(稀疏)2D图像重建。
例如,为了避免导航期间的患者伤害,提出了使所有体素位于低于某一阈值的标准视场黑外侧和/或在表明扫描的无伪影视场区域的XperCT体积中绘制环形。图像失真也将影响用于配准的X射线可见标记的形状,但是如果使用简单的形状(例如球形),则球形的重心(或者类似椭圆形的重建结构)将在某些情况中被保存,这也将在图9a-9b的上下文中进行解释。
可选地,专用滤波器或者后处理步骤能够用于校正可预测的伪影。例如,如果标记的形状已知,例如,5mm的圆球形,则能够预测并校正伪影。这一校正包括标记的几何表示以及标记在3D体积中的图像(霍斯菲尔德)强度。而且能够校正强度下降。这样的校正将避免导航系统上标记检测算法的修改或者解决导航系统的现有标记检测和配准算法的不精确性,因为标记的外观将与标记位于重建常规视场内侧时类似。X射线可见标记到标准视场的距离越大,知道标记的先前信息以补偿伪影的需求就越大。
图2还示出了用于将对象128放置在X射线源104和X射线检测器106之间用于X射线成像的对象支持体126。图2示出了第一成员构件130和第二成员构件132布置为紧邻对象支持体126的示例性情形。
提供显示装置134,例如用于操作用于导航支持的系统10或者导航X射线成像装置100。
在示例中,移动基座结构114、具有可移动上臂120的垂直柱118以及具有附接的光学相机116的环形支持体122提供移动导航系统136的基本部件。在选项中,移动导航系统136还包括显示装置134。
图3示出了用于导航支持的方法200的示例步骤。方法200包括下面步骤:
在采集步骤202,从不同的角度采集对象的身体的多幅2D X射线图像。在X射线图像中可见并且能够由导航系统检测的一组标记被分配给对象。
在重建步骤204中,基于多幅2D X射线图像重建对象的3D体积。标记的至少部分被布置在由对象的重建3D体积覆盖的体积外侧,而标记在2D X射线图像中可见。
在识别步骤206中,基于位于3D体积外侧的多幅2D X射线图像的图像数据来识别2D X射线图像中的标记,并且在确定步骤208中,确定标记关于对象的3D体积的空间位置。
在检测步骤210中,检测被分配给对象的标记的当前空间位置。
在配准步骤212中,基于检测的标记的当前空间位置和确定的标记关于对象的3D体积的空间位置来将对象的重建3D体积配准到对象的当前空间位置。
在提供步骤214中,配准的重建3D体积被提供用于导航。
用于导航支持的方法也被称为用于提供导航支持信息的方法。
作为示例,通过X射线成像系统来采集多幅2D X射线图像。例如,来自不同角度的对象的多幅2D X射线图像至少覆盖180°的范围。
在另一示例中,来自不同角度的对象的多幅2D X射线图像至少覆盖110°的范围,例如大约110°到150°的范围。
例如,标记在一些2D X射线图像中可见。
被分配给对象的标记的当前空间位置由导航系统检测。
在该方法的示例中,为了提供配准的重建3D体积用于导航,将多幅2D X射线图像的空间坐标系与导航系统的空间坐标系进行链接。
在示例中,标记由被附接到移动基座结构的多个光学相机检测。在示例中,标记由被附接到移动基座结构的电磁跟踪装置检测。
在示例中,所有标记被布置在对象的3D体积外侧,同时标记在一些2D X射线图像中可见。
在示例中,2D X射线图像与被成像体积相关,其中,重建3D体积形成被成像体积的第一子体积,并且被成像体积的剩余部分形成第二子体积。第一子体积和第二子体积形成被成像体积的子集。与第一子体积相关的图像数据用于重建对象的3D体积。与第二子体积相关的图像数据用于确定标记关于对象的3D体积的空间位置。
2D X射线图像包括与空间点相关的图像数据,其中,空间点的一部分由几个图像充分覆盖,使得能够进行精确重建。覆盖的程度可以被提供作为预定的阈值。
检测标记的当前空间位置也可以被称为跟踪标记。
在示例中,为了重建,选择2D X射线图像的部分中的第一片段,这允许重建的预定的精确程度,而2D X射线图像的部分中的第二片段被取消选择。
在示例中,2D X射线图像提供对象的2D视场,并且对象的3D体积提供对象的3D视场;其中,3D视场是2D视场的选定部分,并且标记被布置在2D视场的选定部分外侧的视场中。
图3a示出了上面在图3中描述的确定步骤208的第一示例。根据图3a,为了确定标记关于对象的3D体积的位置,使用218来自3D体积外侧的2D X射线图像的2D图像数据,并且在所述2D图像数据中检测标记。
图3b示出了上面在图3中描述的确定步骤208的第二示例。根据代替图3a的先前示例提供或者除了图3a的先前示例提供的图3b,为了确定标记关于对象的3D体积的空间位置,提供228扩展的视场重建,使得在对象的重建3D体积外侧的高对比度项(例如标记)或者具有关于其形状或者X射线吸收属性的先前知识的项可视化。
在该方法的示例中,为了检测,提供关于标记的形状的信息。
在示例中,通过应用阈值对对象的3D体积外侧的体素进行滤波并且将位于预定阈值以下的所有体素改为到预定的图像值,例如将体素改变为黑色。在另一示例中,属于对象的3D体积的体素被例如使用包围该对象的3D体积的圆形表明。
图4示出了被附接到环形支持体122的多个光学相机116的示例。相机116被配置为检测标记。
在另一选项中,提供被配置为检测标记的单个光学相机。
在图5中,示出了根据其提供一组标记136的示例,标记136被配置用于临时分配给对象128。如表明的,该组标记被临时分配给对象,例如在规划介入的区域周围或者外侧预备的。在示例中,标记136被配置为被分配给位于感兴趣区域外侧的对象,所述感兴趣区域被设置为由重建3D体积覆盖。
还示出了被提供作为不太远示出的控制台的图形用户接口的显示器138。显示器138能够被提供为平板显示器。
图5a示出了图5的标记136的另一范例。注意到,标记136以非对称的模式示出。在优选示例中,标记136被以不规则的模式提供。
在另一示例中,标记136被以规则的模式提供。
在进一步的示例中,标记136被以对称的模式提供。
标记136可以被提供为关于他们的空间旋转角度可检测。在示例中,标记136被提供为以其相应的六个移动自由度在2D X射线图像中可检测,即,它们在空间中可能的位置和取向。
在示例中,标记136被提供作为布置为提供标记场的单独标记,例如在图5a中。标记136可以被提供作为单独物理对象。在选项中,标记136可以被提供作为个体标记。在另一选项中,标记136被提供作为一组标记。
在另一范例中,标记136被提供作为布置为提供标记阵列的连接的标记,例如在图5b中。标记136可以被提供附接到标记基座140以形成单个物理对象。标记基座140能够被附接到对象。
图6a和图6b示出了其中导航系统被附接到所谓的移动观察站的示例,该移动观察站与X射线成像系统102物理分离。
图6a示出了位于第一成像位置中的导航X射线成像装置100。可以看出,X射线源104和X射线检测器106被布置为从对象的侧面提供成像方向,例如大致水平方向。
图6b示出了位于第二成像位置中的导航X射线成像装置100。可以看出,X射线源104和X射线检测器106被布置为从对象下方提供成像方向,例如大致垂直方向。
X射线可见标记136在2D X射线图像的子集中(例如,第一位置和第二位置)被检测,例如被自动检测,并且检测的标记136用于计算标记在扩展的3D锥形射束CT体积内的3D位置。
图7a示出了作为导航X射线成像装置100在第一成像位置的X射线采集的结果的脊柱结构144的第一X射线图像142。标记136在第一X射线图像142的上部中可见。
图7b示出了作为导航X射线成像装置100在第二成像位置的X射线采集的结果的脊柱结构144的第二X射线图像146。标记136在第二X射线图像146的上部和中部中可见。
图8示出了配准的重建3D体积用于导航的示例的说明148。图8示出了脊柱结构144的侧视图。脊柱结构144可见并且还描绘了标记136。
图6a和图6b示出了在图7a和图7b的2D X射线图像的子集中(例如在第二位置和第二位置中)检测X射线可见标记,并且用于计算标记在扩展的3D锥形射束CT体积内的3D位置,如图8所示。
图9a、图9b和图9c示出了用于不同视场重建的示例,以用于进一步的解释。
图9a示出了标准视场重建150。标记被绘制为多个高亮点152。能够看出,仅在圆形中心场内的标记被2D CT扫描充分覆盖以能够识别它们并且在图像中表示它们。
图9b示出了扩展的视场重建154。位于中心场外侧的标记被表明,但是不如位于标准视场内的标记那么精确,例如以附图标记156表明。
图9c示出了阈值扩展的视场重建158。位于中心场外侧的大多数标记使用它们校正的重心表明。
在未示出的进一步示例中,提供校正之后的校正重建,示出了圆形点的均匀网格。
大于3D视场的标记136的布置(本身将标记移动出重建空间)被补偿,即,由上面描述的成像过程之一解决。
2D图像和3D体积之间的关系由CT成像过程已知。3D视场可以被提供作为3D圆柱体。3D视场基于由足够数目的2D图像看见的体素,因而允许3D体积的重建。在示例中,3D体积与在所有投影中看见的空间中的点相关。
在选项中,2D图像被提供,并且如果表面是足够的距离,并且标记模式的3D几何体已知,则即使利用深度估计,标记在2D中也是可检测的。3D体积因而被保持没有标记片段。位于用于精确重建的区域外侧的标记的位置因而改善了重建精确度。
在示例中,当标记的位置或者中心点需要从实际物理位置偏移小于1mm以便可检测时,提供重建精确度。
没有被2D图像充分覆盖的片段用于标记检测和定位。
简要地说,2D视场和3D视场的差异(或者德尔塔)用于标记的配准。
3D视场外侧的标记因而属于其本身不太可靠的图像数据,但是仅足够好地分别用于标记位置检测和确定。
3D视场外侧的标记的图像部分可能受到失真的影响,但是当使用几何信息时,例如标记的已知大小和形状,图像数据能够被相应地调整,即校正。作为示例,在2D图像中,在3D中检测中心点并且使用标记的模型用于更加详细的位置检测。
因而,在3D中添加知识以修改3D数据。在示例中,确定的标记的位置是通过向3D体积添加信息的通信或者将它们作为附接到3D数据的单独的元数据进行发送。
术语“对象”也可以被称为个体。“对象”可以进一步被称为患者,尽管注意到该术语不表明对象是否实际存在任何病情或者疾病。
结果,在示例中,光学导航系统使用与通用小视场C臂系统兼容的小视场X射线系统来执行自动配准,但是不使用X射线系统上的光学标记。
应用领域是具有3D能力的移动C臂X射线系统,例如,3D移动C臂投影介入指导的治疗系统。进一步的应用领域是光学导航系统。
在示例中,提供包括计算机可读代码或者指令的计算机程序,所述计算机可读代码或者指令在由处理器执行时使得所述处理器执行上面示例之一所述的方法。
在另一示例中,提供用于控制根据上述示例之一的装置的一种计算机程序或者程序要素,所述程序或者程序要素在由处理单元执行时适于执行上面方面示例之一的方法步骤。
在进一步的示例中,提供一种存储有前述示例的计算机程序的计算机可读介质。
在本发明的另一示例性实施例中,在合适的系统上提供以适于执行根据前述实施例之一的方法的方法步骤为特征的计算机程序或者计算机程序要素。
计算机程序元件因此可以被存储在计算机单元中或者分布在多于一个计算机单元上,这也可以是本发明实施例的一部分。这一计算单元可以适于执行或者诱导执行上述的方法步骤。而且,它可以适于操作上述装置的部件。计算单元能够适于自动操作和/或执行用户的命令。计算机程序可以被加载到数据处理器的工作存储器中。数据处理器因而可以装配为执行本发明的方法。
本发明的方面可以实现于计算机程序产品中,计算机程序产品可以是存储在计算机可读存储设备上的可以由计算机执行的计算机程序指令的集合。本发明的指令可以是任意可解释或者可执行代码机制,包括但不局限于脚本、可解释程序、动态链接库(DLL)或者Lava类。指令可以被提供为计算机可执行指令,部分可执行指令,作为对现有程序的修改(例如,更新)或者对于现有程序的扩展(例如,插件)。而且,本发明的部分处理可以在多个计算机或者处理器上进行描述。
如上面讨论的,例如控制器的处理单元实现所述控制方法。控制器可以按照各种方式来实现,利用软件和/或硬件,以执行要求的各种功能。处理器是控制器的一个示例,该控制器采用可以使用软件(例如,微代码)编程以执行要求的功能的一个或多个微处理器。然而,控制器可以在采用处理器或者不采用处理器的情况下实现,并且也可以被实现为用于执行一些功能的专用硬件和用于执行其它功能的处理器(例如,一个或多个编程微处理器和相关联电路)的组合。
可以在本公开各种实施例中采用的控制器部件的示例包括但不局限于传统微处理器、专用集成电路(ASIC)和现场可编程门阵列(FPGA)。
本发明的这一示例性实施例覆盖以下二者:一开始就使用本发明的计算机程序和利用更新将现有程序转换为使用本发明的程序的计算机程序。
进一步地,计算机程序要素可以能够提供所有必需的步骤来实现上述方法的示例性实施例的过程。
根据本发明的进一步实施例,提供诸如CD-ROM的计算机可读介质,其中,计算机可读介质具有存储器在其上的计算机程序要素,该计算机程序要素由先前部分进行描述。计算机程序可以存储于和/或分布于合适的介质上,例如连同其它硬件一起提供或者作为其它硬件一部分的光学存储介质或者固态介质,但是计算机程序也可以按照其它形式分布,例如经由互联网或者其它有线或无线电信系统。
然而,也可以经由类似万维网的网络提供计算机程序,并且能够将计算机程序从这样的网络下载到数据处理器的工作存储器中。根据本发明的进一步示例性实施例,提供一种用于标记可用于下载的计算机程序要素的介质,其中计算机程序要素布置为执行根据本发明先前描述实施例中的任意一个的方法。
必须注意到,上面参照不同的主题描述了本发明的实施例。具体的说,参照方法类型权利要求描述了一些实施例,同时参照设备类型权利要求描述了其它实施例。然而,本领域普通技术人员将通过上面和下面的描述认识到:除非以其它方式表明,除了属于一种类型主题的特征的任意组合,涉及不同主题的特征之间的任意组合也被认为被本申请公开。然而,能够组合所有特征来提供多于特征的简单组合的协同效果。
尽管在附图和前面的描述中详细说明并且描述了本发明,但是这样的说明和描述被认为是说明性或者示例性的而非限制性的。本发明不局限于所公开的实施例。本领域普通技术人员在实践请求保护的本发明时,通过研究附图、本公开和所附权利要求书,能够理解和实时对所公开实施例的各种变型。
在权利要求书中,“包括”不排除其他要素或者步骤,并且限定词语“一”或者“一个”不排除多个。单个处理器或者其它单元可以实现权利要求书中引述的几个项目的功能。唯一事实是,在共同的不同从属权利要求中引述的某些手段不表明不能够充分利用这些手段的组合。权利要求书中的任意附图标记不应该被构筑为对范围进行限制。
Claims (14)
1.一种用于导航支持的系统(10),包括:
图像数据输入部(12);
数据处理器(14);
标记检测装置(16);以及
输出接口(18);
其中,所述标记检测装置被配置为检测被分配给对象的一组标记的当前空间位置;
其中,所述图像数据输入部被配置为接收从不同角度采集的对象的身体的多幅2D X射线图像;其中,所述一组标记在所述X射线图像中可见;
其中,所述数据处理器被配置为:
基于所述多幅2D X射线图像来重建所述对象的3D体积;其中,所述一组标记的至少部分被定位在由所述对象的2D X射线图像的重建3D体积覆盖的体积外侧;并且
基于位于所述3D体积外侧的所述多幅2D X射线图像的图像数据来识别所述2D X射线图像中的标记的至少所述部分,并且确定所述标记关于所述对象的所述3D体积的空间位置;并且
基于由所述标记检测装置检测的所述标记的所述当前空间位置以及所确定的所述标记关于所述对象的所述3D体积的空间位置来将所述对象的所述重建3D体积配准到所述对象的当前空间位置;
其中,所述输出接口被配置为提供所配准的重建3D体积用于导航支持。
2.根据权利要求1所述的系统,其中,为了确定所述标记关于所述对象的所述3D体积的所述空间位置,所述数据处理器被配置为使用来自所述3D体积外侧的所述2D X射线图像的2D图像数据并且检测所述2D图像数据中的所述标记。
3.根据权利要求1或者2所述的系统,其中,为了确定所述标记关于所述对象的所述3D体积的所述空间位置,所述数据处理器被配置为提供扩展的视场重建,包括高对比度项目或者关于其的形状或者X射线吸收属性的先前知识可用的项目的可视化,所述项目出现于位于所述对象的所述3D体积外侧的所述2D图像数据中。
4.根据前述权利要求中的一项所述的系统,其中,所述标记检测装置包括被配置为检测所述标记的多个光学相机(116)。
5.根据前述权利要求中的一项所述的系统,其中,所述标记检测装置包括被附接到基座的电磁跟踪装置(124),所述电磁跟踪装置被配置为检测所述标记。
6.根据前述权利要求中的一项所述的系统,其中,为了检测来自所述3D体积外侧的所述2D X射线图像的所述2D图像数据中的所述标记,关于所述标记的形状和X射线吸收属性的一组信息中的至少一项被提供并且用于在检测所述标记之前的伪影校正。
7.一种用于对象的医学介入的导航X射线成像装置(100),所述装置包括:
根据前述权利要求中的一项所述的用于导航支持的系统(10);以及
X射线成像系统(102);
其中,所述X射线成像系统被配置为从多个角度采集2D X射线图像,用于提供对象的身体的所采集的多幅2D X射线图像;并且
其中,所述装置被配置为将所述X射线成像系统的空间坐标系与用于导航支持的所述系统的空间坐标系进行链接。
8.根据权利要求7所述的装置,还包括被配置用于临时分配给所述对象的多个至少两个标记(136)。
9.根据权利要求7或8所述的装置,其中,所述标记被配置为被分配给所述对象,其可以位于感兴趣区域外侧,所述感兴趣区域被设置为由所述重建3D体积覆盖。
10.一种用于导航支持的方法(200),所述方法包括以下步骤:
从不同角度采集(202)对象的身体的多幅2D X射线图像;其中,在X射线图像中可见并且能够由导航系统检测的一组标记被分配给所述对象;
基于所述多幅2D X射线图像来重建(204)所述对象的3D体积;其中,所述标记的至少部分被布置在由所述对象的重建3D体积覆盖的体积外侧,同时所述标记在所述2D X射线图像中可见;
基于所述3D体积外侧的所述多幅2D X射线图像的图像数据来识别(206)所述2D X射线图像中的所述标记,并且确定(208)所述标记关于所述对象的所述3D体积的空间位置;
检测(210)被分配给所述对象的所述标记的当前空间位置;
基于检测到的所述标记的当前空间位置以及确定的所述标记关于所述对象的所述3D体积的空间位置来将所述对象的所述重建3D体积配准(212)到所述对象的当前空间位置;并且
提供(214)所配准的重建3D体积用于导航支持。
11.根据权利要求10所述的方法,其中,为了确定所述标记关于所述对象的所述3D体积的所述空间位置,使用来自所述3D体积外侧的所述2D X射线图像的2D图像数据,并且在所述2D图像数据中检测所述标记(218)。
12.根据权利要求10或者11所述的方法,其中,为了确定所述标记关于所述对象的所述3D体积的所述空间位置,提供扩展的视场重建,包括高对比度项目或者关于其的形状或X射线吸收属性的先前知识可用的项目的可视化,所述项目出现于所述对象的所述3D体积外侧的所述2D图像数据中(228)。
13.一种包括计算机可读代码或者指令的计算机程序,所述计算机可读代码或者指令在由处理器执行时使得所述处理器执行根据权利要求10-12中的一项所述的方法。
14.一种存储有根据权利要求13所述的计算机程序的计算机可读介质。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP21150736.3A EP4026510A1 (en) | 2021-01-08 | 2021-01-08 | Navigation support |
EP21150736.3 | 2021-01-08 | ||
PCT/EP2021/087696 WO2022148688A1 (en) | 2021-01-08 | 2021-12-28 | Navigation support |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116744875A true CN116744875A (zh) | 2023-09-12 |
Family
ID=74215697
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202180089769.3A Pending CN116744875A (zh) | 2021-01-08 | 2021-12-28 | 导航支持 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20240065773A1 (zh) |
EP (2) | EP4026510A1 (zh) |
JP (1) | JP7463625B2 (zh) |
CN (1) | CN116744875A (zh) |
WO (1) | WO2022148688A1 (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2024022907A1 (en) * | 2022-07-29 | 2024-02-01 | Koninklijke Philips N.V. | Combined optical and non-optical 3d reconstruction |
EP4312188A1 (en) * | 2022-07-29 | 2024-01-31 | Koninklijke Philips N.V. | Combined optical and non-optical 3d reconstruction |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2241253B1 (de) * | 2009-04-15 | 2011-06-15 | BrainLAB AG | Verfahren zum Vervollständigen eines medizinischen Bilddatensatzes |
US8553839B2 (en) | 2008-12-11 | 2013-10-08 | Koninklijke Philips N.V. | System and method for generating images of a patient's interior and exterior |
EP3175790B1 (en) * | 2013-11-04 | 2021-09-08 | Ecential Robotics | Method for reconstructing a 3d image from 2d x-ray images |
-
2021
- 2021-01-08 EP EP21150736.3A patent/EP4026510A1/en not_active Withdrawn
- 2021-12-28 EP EP21840640.3A patent/EP4274502B1/en active Active
- 2021-12-28 JP JP2023539950A patent/JP7463625B2/ja active Active
- 2021-12-28 WO PCT/EP2021/087696 patent/WO2022148688A1/en active Application Filing
- 2021-12-28 US US18/270,533 patent/US20240065773A1/en active Pending
- 2021-12-28 CN CN202180089769.3A patent/CN116744875A/zh active Pending
Also Published As
Publication number | Publication date |
---|---|
JP2023554160A (ja) | 2023-12-26 |
WO2022148688A1 (en) | 2022-07-14 |
EP4026510A1 (en) | 2022-07-13 |
EP4274502B1 (en) | 2024-06-26 |
EP4274502A1 (en) | 2023-11-15 |
US20240065773A1 (en) | 2024-02-29 |
JP7463625B2 (ja) | 2024-04-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10092265B2 (en) | Method for reconstructing a 3D image from 2D X-ray images | |
US10172574B2 (en) | Interventional X-ray system with automatic iso-centering | |
US7050844B2 (en) | Method for detecting the three-dimensional position of a medical examination instrument introduced into a body region, particularly of a catheter introduced into a vessel | |
US10426414B2 (en) | System for tracking an ultrasonic probe in a body part | |
EP2680755B1 (en) | Visualization for navigation guidance | |
CN104545969A (zh) | 借助解剖学标志来确定拍摄参数的值 | |
US10786309B2 (en) | Radiation-free registration of an optical shape sensing system to an imaging system | |
CN106999130B (zh) | 用于确定在投影图像中介入仪器的位置的装置 | |
JP2009022754A (ja) | 放射線画像の位置揃えを補正する方法 | |
US20130322726A1 (en) | Methods, apparatuses, assemblies, circuits and systems for assessing, estimating and/or determining relative positions, alignments, orientations and angles of rotation of a portion of a bone and between two or more portions of a bone or bones | |
US11127153B2 (en) | Radiation imaging device, image processing method, and image processing program | |
Dang et al. | Robust methods for automatic image‐to‐world registration in cone‐beam CT interventional guidance | |
EP4274502B1 (en) | Navigation support | |
US20220022964A1 (en) | System for displaying an augmented reality and method for generating an augmented reality | |
US20220096165A1 (en) | Interventional device tracking | |
CN114052904A (zh) | 用于跟踪外科装置的系统和方法 | |
CN115861163A (zh) | 结果图像数据的提供 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |