CN112451095A - 用于荧光透视成像设备的姿态估计以及用于身体结构的三维成像的系统和方法 - Google Patents
用于荧光透视成像设备的姿态估计以及用于身体结构的三维成像的系统和方法 Download PDFInfo
- Publication number
- CN112451095A CN112451095A CN202010939899.9A CN202010939899A CN112451095A CN 112451095 A CN112451095 A CN 112451095A CN 202010939899 A CN202010939899 A CN 202010939899A CN 112451095 A CN112451095 A CN 112451095A
- Authority
- CN
- China
- Prior art keywords
- catheter
- fluoroscopic
- shape
- fluoroscopic imaging
- medical device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 134
- 238000003384 imaging method Methods 0.000 title claims abstract description 113
- 239000003550 marker Substances 0.000 claims abstract description 33
- 238000002591 computed tomography Methods 0.000 claims description 25
- 238000002594 fluoroscopy Methods 0.000 claims description 17
- 210000004072 lung Anatomy 0.000 claims description 17
- 238000009877 rendering Methods 0.000 claims description 13
- 239000000835 fiber Substances 0.000 claims description 11
- 230000008569 process Effects 0.000 claims description 8
- 238000010408 sweeping Methods 0.000 claims description 7
- 210000004872 soft tissue Anatomy 0.000 claims description 5
- 230000004807 localization Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 10
- 210000001519 tissue Anatomy 0.000 description 10
- 238000002679 ablation Methods 0.000 description 7
- 230000003902 lesion Effects 0.000 description 6
- 238000001356 surgical procedure Methods 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 239000000523 sample Substances 0.000 description 5
- 238000001574 biopsy Methods 0.000 description 4
- 230000000875 corresponding effect Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 241000976924 Inca Species 0.000 description 3
- 238000004891 communication Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012790 confirmation Methods 0.000 description 2
- 230000005672 electromagnetic field Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 0 CC(*)(C*(*)*(CC(C)(**CCCCC*1)[N+]([O-])=O)N)C1O Chemical compound CC(*)(C*(*)*(CC(C)(**CCCCC*1)[N+]([O-])=O)N)C1O 0.000 description 1
- 208000006545 Chronic Obstructive Pulmonary Disease Diseases 0.000 description 1
- 206010058467 Lung neoplasm malignant Diseases 0.000 description 1
- 208000006673 asthma Diseases 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000007408 cone-beam computed tomography Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 201000010099 disease Diseases 0.000 description 1
- 208000037265 diseases, disorders, signs and symptoms Diseases 0.000 description 1
- 230000007340 echolocation Effects 0.000 description 1
- 238000002593 electrical impedance tomography Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 238000001727 in vivo Methods 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 210000004185 liver Anatomy 0.000 description 1
- 201000005202 lung cancer Diseases 0.000 description 1
- 208000020816 lung neoplasm Diseases 0.000 description 1
- 238000002595 magnetic resonance imaging Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 239000002184 metal Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 210000000214 mouth Anatomy 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002685 pulmonary effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
- 238000002560 therapeutic procedure Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/58—Testing, adjusting or calibrating thereof
- A61B6/582—Calibration
- A61B6/583—Calibration using calibration phantoms
- A61B6/584—Calibration using calibration phantoms determining position of components of the apparatus or device using images of the phantom
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0071—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/02—Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
- A61B6/03—Computed tomography [CT]
- A61B6/032—Transmission computed tomography [CT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/12—Arrangements for detecting or locating foreign bodies
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/44—Constructional features of apparatus for radiation diagnosis
- A61B6/4429—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units
- A61B6/4435—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure
- A61B6/4441—Constructional features of apparatus for radiation diagnosis related to the mounting of source units and detector units the source unit and the detector unit being coupled by a rigid structure the rigid structure being a C-arm or U-arm
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/46—Arrangements for interfacing with the operator or the patient
- A61B6/461—Displaying means of special interest
- A61B6/466—Displaying means of special interest adapted to display 3D data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/486—Diagnostic techniques involving generating temporal series of image data
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/48—Diagnostic techniques
- A61B6/486—Diagnostic techniques involving generating temporal series of image data
- A61B6/487—Diagnostic techniques involving generating temporal series of image data involving fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/54—Control of apparatus or devices for radiation diagnosis
- A61B6/547—Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2061—Tracking techniques using shape-sensors, e.g. fiber shape sensors with Bragg gratings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2068—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis using pointers, e.g. pointers having reference marks for determining coordinates of body points
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2072—Reference field transducer attached to an instrument or patient
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3966—Radiopaque markers visible in an X-ray image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B6/00—Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
- A61B6/52—Devices using data or image processing specially adapted for radiation diagnosis
- A61B6/5211—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
- A61B6/5229—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
- A61B6/5235—Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Medical Informatics (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Veterinary Medicine (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Biophysics (AREA)
- High Energy & Nuclear Physics (AREA)
- Optics & Photonics (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Pulmonology (AREA)
- Theoretical Computer Science (AREA)
- Apparatus For Radiation Diagnosis (AREA)
Abstract
本公开涉及用于荧光透视成像设备的姿态估计以及用于身体结构的三维成像的系统和方法。成像系统和方法基于通过进行荧光透视扫掠所捕获的医疗设备或医疗设备上的点(例如,不透射线标记物)的荧光透视图像序列,估计可以用于重建目标区域的3D体积数据的荧光透视成像设备的姿态。所述系统和方法可以识别并跟踪出现在所捕获的荧光透视图像中的沿着所述医疗设备的长度的点。所述点的3D坐标可以例如从电磁传感器获得,或通过对所捕获的荧光透视图像进行运动求取结构方法来获得。在其它方面,确定导管的3D形状,随后找到3D导管投影到每个所捕获的荧光透视图像中的2D导管上的角度。
Description
相关申请的交叉引用
本申请要求2019年9月9日提交的第62/897,760号美国临时专利申请的权益和优先权,其全部内容以引用的方式并入本文中。
技术领域
本公开涉及成像领域,并且尤其涉及对成像设备的姿态估计以及对身体结构的三维成像。
背景技术
在手术期间,荧光透视成像设备通常位于手术室中,以将医疗设备导航到患者体内的目标。例如,临床医师可以使用荧光透视成像设备,以在将医疗设备导航到所需位置时或导航到所需位置之后,对医疗设备的放置进行可视化和确认。尽管标准的荧光透视图像显示如金属工具和骨头等高密度物体,以及如心脏等大型软组织物体,但是荧光透视图像难以分辨如待消融的病变等所关注的小型软组织物体。此外,荧光透视图像仅为二维投影,而为了准确且安全地在体内导航,需要3D成像。
因此,需要在医疗手术期间进行基于荧光透视成像的快速、准确且稳健的结构的三维重建。
发明内容
在一方面,本公开的特征在于一种用于估计荧光透视成像设备的姿态的方法。所述方法包括用荧光透视成像设备进行扫掠来捕获导管的荧光透视图像。所述方法还包括在导管的荧光透视图像中沿着导管的长度识别并跟踪不透射线标记物。所述方法还包括基于所跟踪的不透射线标记物来确定导管的三维(three-dimensional,3D)坐标。所述方法还包括基于导管的3D坐标来估计荧光透视成像设备的姿态。
在各方面中,本公开的实施方式可以包括以下特征中的一个或多个。不透射线标记物可以是跟踪传感器。跟踪传感器可以是线圈。扫掠可以是宽扫掠,其包括相对于前后位置大于30度的围绕纵轴的荧光透视成像设备的视角。
在另一方面,本公开的特征在于一种方法,所述方法包括用荧光透视成像设备进行扫掠来捕获患者身体的荧光透视图像。所述方法还包括在行进通过患者身体的导管的荧光透视图像中沿着导管的长度识别并跟踪不透射线标记物。所述方法还包括在所跟踪的不透射线标记物上进行3D运动求取结构方法,来估计导管的三维(3D)结构和荧光透视成像设备的姿态。在某些方面中,所述方法还包括基于荧光透视成像设备的估计姿态来构建区域的3D体积数据。
在另一方面,本公开的特征在于一种用于估计荧光透视成像设备的姿态的方法。所述方法包括确定导管的三维(3D)形状。所述方法还包括用荧光透视成像设备进行扫掠来捕获患者体内导管的荧光透视图像。所述方法还包括对于荧光透视图像中的每个荧光透视图像,估计导管的3D形状投影到每个荧光透视图像中的导管上的姿态。
在各方面中,本公开的实施方案可以包括以下特征中的一个或多个。扫掠可以是宽扫掠,其包括相对于前后位置大于50度的围绕患者身体的纵轴的荧光透视成像设备的视角。导管可以包括沿着导管的长度安置的至少一个光纤传感器,并且导管的3D形状可以通过基于从至少一个光纤传感器获得的光纤传感器信号进行3D形状感测方法来确定。确定导管的3D形状可以包括对荧光透视图像进行运动求取结构过程来估计导管的第一3D形状,确定安置有导管的身体结构,确定安置有导管的身体结构的3D形状,基于安置有导管的身体结构的3D形状确定导管的第二3D形状,基于第一3D形状和第二3D形状估计导管的3D形状。可以基于安置有导管的身体结构的计算机断层扫描(computed tomography,CT)图像确定安置有导管的身体结构的3D形状。身体结构可以是肺的气道。
在各方面中,荧光透视图像可以包括导管的第一荧光透视图像以及导管和标记物结构的第二荧光透视图像,并且确定导管的3D形状可以包括基于第二荧光透视图像的每个图像上的标记物结构的投影,估计第二荧光透视图像的每个图像的荧光透视成像设备的姿态,以及基于荧光透视成像设备的所估计姿态重建导管的3D形状。标记物结构可以是标记物栅格。第二荧光透视图像可以对应于相对于前后位置小于30度的围绕患者身体的纵轴的荧光透视成像设备的视角。
在另一方面,本公开的特征在于一种用于构建患者体内的目标区域的基于荧光透视的三维体积数据的方法。所述方法包括用荧光透视成像设备进行扫掠来获取目标区域和医疗设备的不透射线标记物的荧光透视图像序列。所述方法还包括在行进通过患者身体的医疗设备的荧光透视图像序列中,沿着医疗设备的长度识别并跟踪不透射线标记物。所述方法还包括基于所跟踪的不透射线标记物来确定医疗设备的三维(3D)坐标。所述方法还包括基于医疗设备的3D坐标来估计荧光透视成像设备的角度。所述方法还包括基于荧光透视成像设备的所估计角度构建目标区域的基于荧光透视的3D体积数据。
在各方面中,本公开的实施方案可以包括以下特征中的一个或多个。所述方法还包括基于荧光透视的三维体积数据,确定医疗设备与目标区域之间的偏移。所述方法还可以包括使用指示医疗设备在显示器中的位置的定位系统来促进医疗设备到目标区域的导航。所述方法还可以包括基于医疗设备与目标区域之间的所确定的偏移来校正医疗设备相对于目标区域的位置的显示。定位系统可以是电磁定位系统。所述方法还可以包括在显示器上显示目标区域的3D渲染。所述方法还可以包括将定位系统配准到3D渲染。校正医疗设备相对于目标区域的位置包括更新定位系统到3D渲染的配准。所述方法还可以包括基于先前获取的目标区域的CT体积数据来生成目标区域的3D渲染。目标区域可以包括肺的至少一部分,并且医疗设备可以通过气道管腔网络导航到目标区域。目标区域可以包括肺的至少一部分。目标区域可以包括软组织目标。目标区域可以包括待消融的目标。
附图说明
在附图中示出了各种示例性方面,这些实例不希望是限制性的。应了解,为了说明的简单性和清楚性,下文提及的图式中所示的元件未必按比例绘制。此外,在认为适当的情况下,可以在图示中重复附图标记以指示相似、对应或类似的元件。下文列出图式。
图1A是根据本公开的各方面的用于构建基于荧光透视的三维体积数据的示例性系统的示意图。
图1B是被配置成用于与本公开的各方面一起使用的系统的示意图;
图2A是被配置成用于与本公开的各方面一起使用的导管的示意图;
图2B是被配置成用于与本公开的各方面一起使用的另一导管的示意图;
图3是根据本公开的各方面的用于估计荧光透视成像设备的姿态的方法的流程图;
图4是根据本公开的各方面的用于估计荧光透视成像设备的姿态的另一方法的流程图;
图5A和5B是根据本公开的各方面的用于估计荧光透视成像设备的姿态的另外其它方法的流程图;以及
图6是根据本公开的各方面的用于生成3D体积数据的方法的流程图。
具体实施方式
本公开涉及改进的荧光透视导航系统和方法,其足以用于需要准确且稳健的三维(3D)成像的手术,例如活检手术和消融手术。在某些情况下,病变可能会在荧光透视图像中出现拖尾,并且病变的形状在荧光透视图像中可能并不准确。例如,荧光透视图像可能不足以确定消融杀伤区将完全覆盖病变。如果在围绕前后(AP)位置进行大于50度的荧光透视成像扫掠,则图像质量会提高,使得足以准确安全地进行消融手术。当荧光透视成像扫掠围绕AP位置接近180度时,图像质量可能接近使用锥束计算机断层扫描系统可达到的图像质量。
对于某些病床或手术台,例如那些不包括横杆或包括可调节横杆的病床或手术台,可以将荧光透视成像设备绕AP位置机械旋转50度以上。但是,当荧光透视成像设备相对于患者身体过于侧向放置时,安置在患者下方并用于估计荧光透视成像设备的姿态的标记物栅格的投影可能会从荧光透视图像中消失,例如,荧光透视成像设备视图相对于AP位置的角度大于75度。例如,当患者患有前路病变并且荧光透视成像设备朝着侧视位置旋转时,标记物栅格开始从荧光透视图像中消失并且仅患者的身体出现在荧光透视图像中。
根据本公开的各方面,对于目标区域内的结构的3D重建,需要测量荧光透视成像设备相对于目标区域的角度。在某些方面中,基于荧光透视的系统和方法使用如导管或安置在其上的标记物等医疗设备来估计荧光透视成像设备的姿态,同时捕获患者身体的荧光透视图像。所估计的姿态接着可用于重建目标区域的3D体积数据。所述系统和方法可以沿着出现在所捕获的荧光透视图像中的医疗设备的长度跟踪点,例如,不透射线标记物。所述点的3D坐标可以例如从电磁传感器获得,或通过对所捕获的荧光透视图像进行运动求取结构方法来获得。在各方面中,确定3D中导管的形状,随后对于每个所捕获的荧光透视图像,找到3D导管投影到2D导管上的角度。导管的3D形状可以基于安置有医疗设备或导管的身体结构的形状来确定。
在某些方面中,本公开的系统和方法使用来自荧光透视视频图像的一部分的导管的形状,其中可以在荧光透视视频图像中看到标记物栅格。依据基于那些荧光透视视频图像的3D重建,可以提取导管的3D形状。对于荧光透视视频中过于侧向而看不到标记物栅格的其它所有帧,仍可以在图像中看到导管的形状。因此,根据投影图像上的导管的形状和导管的3D形状,可以基于过于侧向而看不到标记物栅格的荧光透视视频帧来确定荧光透视成像设备相对于导管的视角。
基准点(例如标记物)可以放置在导管上,或者可以使用导管的整体或整个形状。基准点可以是沿着导管的长度彼此间隔预定距离安置的不透射线环,所述距离例如1cm、1.5cm、2cm等。导管的3D形状可利用围绕AP视图的窄扫掠(例如,50度)重建,并且随后可以沿着导管检测不透射线环的3D位置。因此,本公开的系统可以基于不透射线环或其它合适的标记物的3D位置,解决从宽扫掠(例如,围绕AP位置在160度和180度之间的扫掠)中无法看到标记物栅格的其它角度。
图1A描绘了可以在本公开的系统和方法的各方面中使用的电磁导航(Electromagnetic Navigation,EMN)系统100的一方面。EMN系统100被配置成用于查看CT图像数据来识别一个或多个目标,规划通往所识别目标的路径(规划阶段),经由用户界面将导管引导组件40的导管12导航至目标(导航阶段),并确认导管12(或导管引导组件40或插入其中的任何器械的任何部分)相对于目标的放置。一个此类电磁导航系统是美敦力有限公司(Medtronic PLC)目前销售的ELECTROMAGNETIC NAVIGATION系统。目标可以是所关注的组织,例如待消融的组织,或在规划阶段期间查看CT图像数据期间识别的相关区域。在导航之后,可以将如活检工具、递送设备或治疗设备之类的医疗器械插入导管12中,以便从位于目标处的组织或接近目标定位的组织中获取组织样本,将物品或疗法递送至所述区域,或治疗所述地区。
如图1A所示,导管12是导管引导组件40的一部分,所述导管引导组件从导管引导组件40的手柄41向远侧延伸。在实践中,导管12可以插入到支气管镜30中以进入患者“P”的管腔网络。具体地说,导管引导组件40的导管12可以插入到支气管镜30的工作通道中以用于导航通过患者的管腔网络。可定位引导件(LG)32(包括安置在其上的传感器44)插入到导管12中并锁定到位,使得传感器44延伸超出导管12的远侧尖端的所需距离。可以导出传感器44在电磁场内相对于参考坐标系的位置和定向,且因此可以导出导管12的远端的位置和定向。
EMN系统100通常包括被配置成支撑患者“P”的手术台20;被配置成通过患者“P”的口腔插入到患者“P”的气道的支气管镜30;联接到支气管镜30的监视装备120(例如,视频显示器,用于显示从支气管镜30的视频成像系统接收的视频图像);包括跟踪模块52、多个参考传感器54和发射器垫56的跟踪系统50;和计算设备125,其包括软件和/或硬件,用于促进目标的识别、到目标的路径规划、医疗设备或器械到目标的导航,以及导管12或穿过其中的合适的设备相对于目标的放置的确认。
系统100的各方面中还包括能够获取患者“P”的荧光透视或x射线图像或视频的荧光透视成像设备110。由荧光透视成像设备110捕获的荧光透视图像、图像序列或视频可以被存储在荧光透视成像设备110内,或被发射到计算设备125来进行存储、处理和显示,如本文更详细描述。另外,荧光透视成像设备110可以相对于患者“P”移动,使得可以相对于患者“P”从不同角度或视角获取图像来创建荧光透视视频。在本公开的一个方面,荧光透视成像设备110包括角度测量设备111,所述角度测量设备111被配置成测量荧光透视成像设备110相对于患者“P”的角度。角度测量设备111可以是加速度计。
荧光透视成像设备110可以包括一个或多个成像设备。在包括多个成像设备的方面中,每个成像设备可以是不同类型或相同类型的成像设备。在各方面中,荧光透视成像设备110是基于C型臂60的C型安装荧光镜。在C型臂60的一端是包括X射线管和准直器(未示出)的X射线源62。在C型臂60的另一端是包括防散射栅格、图像增强器和CCD照相机(未示出)的X射线检测器66。准直器阻挡除在孔(未图示)处以外的从X射线管射出的X射线。X射线锥从孔中射出,并照射在X射线检测器66的防散射栅格和图像增强器上。在图像增强器中创建的图像由CCD相机捕获。根据锥穿过的对象(例如患者)中的空间密度分布,CCD相机的CCD阵列的每个元件都会从图像增强器接收或多或少的光,并且由C型安装荧光镜产生的图像的相应像素相应地较暗或较亮。
计算设备125可以是包括处理器和存储介质的任何合适的计算设备,其中处理器能够执行存储在存储介质上的指令。计算设备125可操作地联接到系统100的一些或全部部件,包括支气管镜30、导管引导组件40、可定位引导件32和跟踪系统50。计算设备125可进一步包括被配置成存储患者数据、包括CT图像和体积渲染的CT数据集合、包括荧光透视图像和视频的荧光透视数据集合、导航规划以及任何其它此类数据的数据库。尽管未明确示出,但是计算设备125可以包括输入,或者可以以其它方式被配置成接收如本文描述的CT数据集、荧光透视图像或视频和其它数据。另外,计算设备125包括被配置成显示图形用户界面的显示器。计算设备125可以连接到一个或多个网络,通过所述一个或多个网络可以访问一个或多个数据库。
关于规划阶段,计算设备125利用先前获取的CT图像数据生成和查看患者“P”的气道的三维模型,实现在三维模型上识别目标(自动、半自动或手动),并允许确定通过患者“P”的气道到位于目标处及其周围的组织的路径。更具体地说,将从先前的CT扫描中获取的CT图像进行处理并汇编成三维CT体积,随后将其用于生成患者“P”的气道的三维模型。
三维模型可以在与计算设备125相关联的显示器上显示,或者以任何其它合适的方式显示。通过使用计算设备125,呈现了三维模型或从三维模型生成的二维图像的各种视图。可以操纵三维模型以促进在三维模型或二维图像上识别目标,并且选择通过患者“P”的气道的合适的路径来接达位于目标处的组织。一旦选择后,就可将路径规划、三维模型以及从中得出的图像保存并将其导出到导航系统中,以供在一个或多个导航阶段期间使用。一个此类规划软件是美敦力有限公司目前销售的规划套件。
关于导航阶段,可以利用六自由度电磁跟踪系统50或其它合适的定位测量系统来进行图像和导航路径的配准,但也预期其它配置。跟踪系统50包括跟踪模块52、参考传感器54和发射器垫56。跟踪系统50被配置成与可定位引导件32和传感器44一起使用。如上所述,可定位引导件32和传感器44被配置成用于通过导管12插入到患者“P”的气道中(具有或不具有支气管镜30),并且可以经由锁定机构相对于彼此选择性地锁定。
发射器垫56定位在患者“P”下方。发射器垫56在患者“P”的至少一部分周围生成电磁场,在所述电磁场内可以使用跟踪模块52来确定多个参考传感器54和传感器元件44的位置。发射器垫56可以包括至少部分不透射线标记物的结构或栅格,其在本公开的一些方面中用于确定被引导朝向目标的医疗设备或导管的3D形状。在某些方面中,除发射器垫56之外,参考传感器54中的一个或多个也附接到患者“P”的胸部。在其它方面,仅利用发射器垫。参考传感器54的六自由度坐标被发送到计算设备125(其包括适当的软件),在所述计算设备中,这些坐标用于计算患者参考坐标系。
通常进行配准,以使规划阶段的三维模型和二维图像的位置与通过支气管镜30观察到的患者“P”的气道相协调,并允许在进行导航阶段时准确了解传感器44的位置,即使在支气管镜30无法到达的气道的部分中也是如此。本公开还预期其它合适的配准技术及其在管腔导航中的实施。
通过将可定位引导件32移动通过患者“P”的气道来进行在发射器垫56上的患者“P”位置的配准。更具体地说,当可定位引导件32移动穿过气道时,使用发射器垫56、参考传感器54和跟踪模块52来记录与传感器44的位置有关的数据。将由此位置数据产生的形状与在规划阶段期间生成的三维(3D)模型的通道的内部几何形状进行比较,并例如利用计算设备125上的软件确定基于比较的形状和3D模型之间的位置相关性。本公开预期其它配准方法,包括例如与3D模型的荧光透视配准、形状匹配以及用于将解剖特征的手术图像配准到那些相同解剖特征的术前图像的其它合适的技术。在各方面中,这些其它配准方法可以利用或可以不利用传感器44来进行配准。
另外,软件在三维模型中识别非组织空间(例如,充气空腔)。软件将呈现传感器44位置的图像与三维模型和由三维模型生成的二维图像进行对齐或配准,它们基于所记录的位置数据和可定位引导件32仍位于患者“P”的气道中的非组织空间中的假设。或者,可以通过以下方式采用手动配准技术:将带有传感器44的支气管镜30导航到患者“P”的肺部中的预先指定位置,并且将来自支气管镜的图像与三维模型的模型数据手动关联。
一旦导管12成功地导航到接近目标的位置(如用户界面上所示),可定位引导件32可以从导管12解锁并移除,使导管12保持原位,作为用于引导医疗器械的引导通道。此类医疗器械可以包括但不限于光学系统、超声探针、标记物放置工具、活检工具、消融工具(即,微波消融设备)、激光探针、低温探针、传感器探针和吸液针。
由先前获取的CT扫描生成的患者肺部的三维模型可能无法提供足够的基础,以在手术过程中将导管引导组件40的导管12精确地引导至目标。如上文所述,不准确性可能是由于CT相对于身体的偏差(在手术期间患者的肺部相对于在先前获取CT数据时的肺部的变形)引起的。因此,需要另一种成像方式来可视化目标和/或终端支气管分支,并通过在手术期间校正导航、实现目标的可视化以及在手术期间确认医疗或手术设备的放置来增强电磁导航手术。为此目的,本文描述的系统将荧光透视成像设备110捕获的图像数据处理并转换为如本文描述的目标区域的3D重建。此荧光透视图像数据可用于识别此类目标和终端支气管分支,或者被并入并用于更新来自CT扫描的数据,以致力于提供更准确的导航程序。此外,荧光透视图像可以在导航后捕获,且因此包括导管12和相对于目标定位通过其中的任何医疗设备的视觉效果。
现在参考图1B,其是被配置成与图3至6和如上文描述的方法一起使用的系统150的示意图。系统150可以包括图1A的工作站125和图1A的荧光透视成像设备或荧光镜110。在某些方面中,工作站125可以例如通过无线通信直接或间接地与荧光镜110联接。工作站125可以包括存储器102(例如存储设备)、处理器104、显示器106和输入设备10。处理器104可以包括一个或多个硬件处理器。工作站125可以任选地包括输出模块112和网络接口108。
存储器102可以存储应用81和包括荧光透视成像数据的图像数据114。应用81可以包括指令,其可由处理器104执行以用于执行包括如本文描述的图3至6的方法在内的本公开的方法(以及其它功能)。应用81可以进一步包括用户界面116。图像数据114可以包括3D成像数据,如术前CT扫描、目标区域的荧光透视三维重建(fluoroscopic three-dimensional reconstruction,F3DR)和/或任何其它荧光透视图像数据和/或一个或多个虚拟荧光透视图像。处理器104可以与存储器102、显示器106、输入设备10、输出模块112、网络接口108和荧光透视成像设备110联接。工作站125可以是固定的计算设备(如个人计算机),或便携式计算设备(如平板计算机)。工作站125可以嵌入多个计算机设备。
存储器102可以包括用于存储数据和/或软件的任何非暂时性计算机可读存储介质,所述数据和/或软件包括可由处理器204执行的指令,这些指令控制工作站80的操作并且在某些方面中还可以控制荧光镜110的操作。荧光镜110用于捕获基于其生成F3DR的荧光透视图像序列。其中选择医疗设备的二维荧光透视图像可以选自所捕获的荧光透视图像序列。在一方面中,存储设备或存储器102可以包括一个或多个存储设备,如固态存储设备(如闪存芯片)。作为一个或多个固态存储设备的替代或补充,存储器102可以包括通过大容量存储控制器(未示出)和通信总线(未示出)连接到处理器104的一个或多个大容量存储设备。
尽管在本文中所含有的计算机可读介质的描述指的是固态存储器,但是本领域技术人员应理解的是,计算机可读存储介质可以是可由处理器104访问的任何可用介质。即,计算机可读存储介质可以包括非暂时性、易失性和非易失性、可移动和不可移动的介质,这些介质是以任何方法或技术实施的,用于存储如计算机可读指令、数据结构、程序模块或其它数据等信息。例如,计算机可读存储介质可以包括RAM、ROM、EPROM、EEPROM、闪存或其它固态存储器技术、CD-ROM、DVD、蓝光光碟或其它光学存储设备、盒式磁带、磁带、磁盘存储或其它磁存储设备、或可以用来存储所需的信息并且可以被工作站125访问的任何其它介质。
当处理器104执行应用程序81时,可以使显示器106呈现用户界面116。用户界面116可以被配置成向用户呈现F3DR、二维荧光透视图像、3D成像的图像和虚拟荧光透视视图。根据本公开,用户界面116可以进一步被配置成通过(尤其)在所显示的F3DR或任何其它荧光透视图像数据中识别和标记目标来指导用户选择目标。
网络接口108可以被配置成连接到网络,如由有线网络和/或无线网络组成的局域网(local area network,LAN)、广域网(wide area network,WAN)、无线移动网络、蓝牙网络和/或因特网。网络接口108可以用于在工作站125和荧光镜110之间进行连接。网络接口108还可以用于接收图像数据114。输入设备10可以是用户可借以与工作站125交互的任何设备,例如鼠标、键盘、脚踏板、触摸屏和/或语音接口。输出模块112可以包括任何连接端口或总线,例如并行端口、串行端口、通用串行总线(universal serial busses,USB)或本领域技术人员已知的任何其它类似的连接端口。
参照图2A和2B,示出了被配置成与本公开的系统和方法一起使用的柔性导管200、210。柔性导管200包括多个不透射线标记物202,其可以在荧光透视图像中捕获并且可以用于重建导管200的3D形状,进而可以用于估计图1A和1B的荧光透视成像设备110的姿态。在其它方面,柔性导管210包含多个不透射线线圈212,其可以用于确定不透射线线圈在3D空间中的位置,这可以用于重建导管200的3D形状,进而可以用于估计图1A和1B的荧光透视成像设备110的姿态。在各方面中,尽管图2A和2B所示的柔性导管200、210分别包括五个不透射线标记物202和线圈212,但是柔性导管200、210可以分别包括适用于重建导管200、210的3D形状的任意数量的不透射线标记物202和线圈212(例如,三个,四个或六个不透射线标记物202或线圈212)。
参考图3,提供了一种方法300的流程图,所述方法用于在捕获患者身体的荧光透视图像的同时估计荧光透视成像设备的姿态。在各方面中,如本文所述,估计的姿态可以用于重建患者身体的目标区域的3D体积数据。在框302处,用荧光透视成像设备进行扫掠来捕获患者身体的荧光透视图像。在某些方面中,扫掠包括相对于前后位置大于30度的围绕患者身体的纵轴的荧光透视成像设备的视角。在框304处,识别并跟踪在荧光透视图像中沿着导管的长度安置的不透射线标记物。在各方面中,当在框302处进行荧光透视扫掠时,可以识别和跟踪不透射线标记物。在某些方面中,如图2A所示,不透射线标记物包括沿着导管的长度安置。
不透射线标记物可以采取适合于在荧光透视图像中识别和跟踪不透射线标记物的任何形式。例如,不透射线标记物可以是围绕导管安置的环形、螺旋形、正方形、点或其它合适的符号或形状。例如,环可以彼此等距间隔预定距离。预定距离可以是用于准确地确定导管的3D位置的合适的距离。替代地,环可以不彼此等距间隔。在某些方面中,可以将不透射线标记物安置在围绕导管的不同轴向位置处,以便于识别导管的形状。在其它方面,如图2B所示,不透射线标记物包括沿着导管的长度安置的线圈。在另外其它方面,导管可以至少部分地由不透射线材料制成或涂覆有不透射线材料,并且可以采用图像处理技术来跟踪不透射线导管上的点。
在其它方面,导管可包括不透射线标记物或材料以及沿着导管的长度的一部分安置的跟踪或电磁(electromagnetic,EM)传感器这两者。在各方面中,跟踪系统50的跟踪模块52可以电学或无线方式联接到沿着导管的长度安置的线圈和/或EM传感器,并与之通信。在此配置中,跟踪模块52可以激活发射器垫56并从线圈或EM传感器收集数据,这些数据可以用于确定沿着导管的长度安置的跟踪传感器、EM传感器或线圈的3D位置。随后可以使用3D位置信息来确定导管的3D形状。
在框306处,基于在二维荧光透视图像中所跟踪的不透射线标记物来确定导管的三维(3D)坐标。并且随后,在框308处,使用估计算法或过程基于导管的3D坐标来估计荧光透视成像设备相对于导管的姿态或角度。估计过程可以包括求解线性方程组,其描述了荧光透视图像中的3D坐标和2D坐标之间的关联。
参考图4,提供了用于估计荧光透视成像设备的姿态的另一种方法400的流程图。在框402处,进行扫掠来捕获患者身体的荧光透视图像。在某些方面中,扫掠包括相对于前后位置大于30度的围绕患者身体的纵轴的荧光透视成像设备的视角。
在框404处,通过对荧光透视图像应用合适的图像处理方法,来识别和跟踪荧光透视图像中沿着导管的长度的点或特征。在某些方面中,点是沿着导管的长度安置的不透射线标记物。
在框406处,通过对捕获的荧光透视视频图像进行运动(即,荧光透视成像设备围绕结构的运动)求取结构方法来估计导管的3D结构和荧光透视成像设备的姿态。运动求取结构方法从二维荧光透视视频图像序列来估计导管的3D结构。运动求取结构方法可以包括处理以不同角度捕获的多个荧光透视视频图像帧,从而可以在荧光透视视频图像中看到导管上的多个点。例如,运动求取结构方法可以一次对荧光透视视频图像的至少四个帧进行操作。此外,在荧光透视视频图像中捕获了沿着导管的至少四个点。
在各方面中,运动求取结构方法可以应用于适于准确地估计导管的3D结构的任何数量的荧光透视图像和沿着导管的长度的任何数量的点。至少四个点可足以使运动求取结构方法确定点的3D位置和荧光透视成像设备在针对至少四个荧光透视视频帧中的每一个观看点时的角度。可以将插值算法应用于点的3D位置来获得点的3D形状,进而可以用于确定包括点的导管的3D形状。在各方面中,在捕获荧光透视视频帧的同时,医疗设备或包括这些点的导管保持静止。
运动求取结构方法可以包括检测或识别所有荧光透视图像上的相同点,并将所述点与所有荧光透视图像上的其它点区分开来。检测或识别所有荧光透视图像上的相同点可以包括检测或识别导管尖端处的点,然后通过从导管尖端处的点开始查找点的顺序或对点进行计数来检测或识别其它点。或者,检测或识别所有荧光透视图像中的相同点可以涉及从一个荧光透视图像到下一荧光透视图像跟踪所述点。
在某些方面中,运动求取结构方法可以使用由安置在导管上的跟踪传感器或线圈(例如,不透射线线圈)提供的运动信号。运动求取结构方法包括查找导管的荧光透视图像与导管的3D结构重建之间的对应关系。为了查找荧光透视图像之间的对应关系,可以在捕获的荧光透视图像序列中从一个荧光透视图像到下一个荧光透视图像跟踪如拐角点(具有多个方向中的梯度的边缘)等特征。
在各方面中,运动求取结构方法可以使用任何合适的特征检测器。例如,尺度不变特征变换(scale-invariant feature transform,SIFT)可以用作特征检测器。SIFT使用高斯差分(difference-of-Gaussians,DOG)金字塔中的最大值作为特征。SIFT的第一步是查找主要的梯度方向。或者,加速稳健特征(speeded-up robust feature,SURF)可以用作特征检测器。在SURF中,将DOG替换为基于Hessian矩阵的Blob检测器。此外,SURF不评估梯度直方图,而是计算梯度分量的总和及其绝对值的总和。
随后匹配从所有荧光透视图像检测到的特征。跟踪从一个荧光透视图像到另一个荧光透视图像的特征的匹配算法是Lukas-Kanade跟踪器。在某些方面中,可以过滤匹配的特征以过滤掉不正确匹配的特征。随机抽样一致性(random sample consensus,RANSAC)算法可以用于删除不正确匹配的特征。
随后使用随时间变化的特征轨迹重建其3D位置以及荧光透视成像设备的运动或姿态。或者,运动求取结构方法可以使用直接方法,其中从荧光透视图像直接估计几何信息(例如,导管的3D结构和荧光透视成像设备的姿态),而无需中间提取特征或拐角。
运动求取结构方法可以增量地也可以全局地进行。根据运动方法的增量结构,对荧光透视成像设备的姿态进行求解,并将其逐个添加到集合中。在全局运动求取结构方法中,同时对荧光透视成像设备的姿态进行求解。或者,运动求取结构方法可以使用中间方法,其中计算若干部分重建并将其整合到全局解中。
参考图5A,提供了用于在捕获患者身体的荧光透视图像的同时估计荧光透视成像设备的姿态或角度的又一种方法500a的流程图。在框501处,进行宽荧光透视扫掠来捕获患者身体的荧光透视图像。在框502处,对第一荧光透视图像进行运动求取结构过程,来估计导管的第一3D形状。运动求取结构过程可以包括在以下步骤之间交替:(1)在给定导管的一组对应2D和3D坐标的情况下,估计使投影误差最小的荧光透视成像设备的位置,以及(2)在给定所捕获的荧光透视图像中导管的对应2D坐标的情况下估计(a)导管的3D坐标,以及(b)荧光透视成像设备的姿态。
在框503至505处,确定导管的第二3D形状。具体地,在框503处,识别出安置有导管的肺气道。可以通过确定导管相对于肺部的术前计算机断层扫描(CT)图像的位置(例如,通过使用电磁定位系统和安置在导管上的跟踪传感器或线圈)来识别安置有导管的肺气道。在其它方面,方法500a可以应用于适于或能够限定安置在其它身体结构中的导管的形状的所述其它身体结构。例如,身体结构可以是患者身体管腔内的通路。
在框504处,例如基于肺部的术前CT图像来确定肺气道的3D形状。在框505处,基于身体结构的3D形状来估计导管的第二3D形状。在框506处,基于导管的第一和第二估计的3D形状来估计导管的3D形状。此估计过程可以包括使用第二估计的3D形状来校正导管的第一估计的3D形状。随后,在框507处,对于所捕获的荧光透视图像的每个荧光透视图像,确定导管的估计的3D形状投影到每个荧光透视图像中的2D导管上的角度。在各方面中,确定的角度可以用于重建患者体内的目标区域的3D体积数据。或者,可以通过进行3D形状感测方法来确定导管的3D形状。例如,导管可以包括沿着导管的长度安置的至少一个光纤传感器,例如一个或多个旋转的多芯光纤,并且导管的3D形状可以通过基于从一个或多个光纤传感器获得的光纤传感器信号进行3D形状感测方法来确定。
参考图5B,提供了用于在捕获患者身体的荧光透视图像的同时估计荧光透视成像设备的姿态或角度的又一种方法500b的流程图。在框512至514处,确定导管的三维(3D)形状。具体地,在框512处,用荧光透视成像设备进行宽扫掠来捕获导管的第一荧光透视图像和标记物(例如球体或其它合适的标记物)栅格,以及导管的第二荧光透视图像。接下来,在框513处,基于导管的第一荧光透视图像的每个图像上的标记物栅格的投影,来估计导管的第一荧光透视图像的每个图像的荧光透视成像设备的姿态。随后,在框514处,基于荧光透视成像设备的所估计姿态和第一荧光透视图像来重建导管的3D形状。第一荧光透视图像可以对应于相对于前后位置小于30度的围绕患者的纵轴的荧光透视成像设备的视角。
在各方面中,可以在框514处基于根据以下方法估计的荧光透视成像设备的姿态或角度来确定导管的3D形状。首先,针对第一荧光透视图像的每个荧光透视图像生成概率图,所述概率图指示第一荧光透视图像的每个荧光透视图像的每个像素属于结构标记物或标记物栅格的投影的概率。接下来,通过将荧光透视成像设备虚拟地定位在可能的不同可能姿态中,来生成用于在第一荧光透视图像的每个荧光透视图像上投影标记物结构的不同候选者。基于图像概率图,识别具有最高概率成为第一荧光透视图像的每个荧光透视图像上的标记物结构的投影的候选者。随后,基于用于生成所识别的候选者的荧光透视成像设备的虚拟姿态来估计荧光透视成像设备的姿态或角度。
在框516处,对于第二荧光透视图像的每个荧光透视图像,确定导管的3D形状投影到第二荧光透视图像中所示的导管上的角度。随后可以将所述角度用于重建包括导管的目标区域的3D体积数据。
参考图6,示出了用于构建患者体内的目标区域的基于荧光透视的三维体积数据的方法600的流程图。在框602处,进行荧光透视扫掠来通过荧光透视成像设备获取目标区域和安置在医疗设备上的不透射线标记物的荧光透视图像的序列。目标区域可以包括肺部的至少一部分,并且医疗设备可以通过气道管腔网络导航到目标区域。
在框604处,使用合适的图像处理算法来识别和跟踪荧光透视图像序列中沿着医疗设备(例如导管)的长度的不透射线标记物。在框606处,基于所跟踪的不透射线标记物来确定医疗设备的三维(3D)坐标。在框608处,基于医疗设备的3D坐标来估计荧光透视成像设备的姿态或角度。在框610处,基于荧光透视成像设备的估计姿态或角度来构建目标区域的基于荧光透视的三维体积数据。
在各方面中,方法600进一步包括在框612处基于基于荧光透视的三维体积数据确定医疗设备与目标区域之间的偏移。在其它方面,方法600包括在框614处使用显示器中指示医疗设备的位置的电磁定位系统来促进将医疗设备导航到目标区域,以及在框616处基于所确定的医疗设备与目标区域之间的偏移来校正医疗设备相对于目标的位置的显示。
在另外其它方面,方法可以包括在显示器上显示目标区域的3D渲染,并且将电磁定位系统配准到3D渲染。校正医疗设备相对于目标的位置可以包括更新电磁定位系统到3D渲染的配准。
在各方面中,方法还可以包括基于先前获取的目标区域的CT体积数据来生成所述目标区域的3D渲染。目标区域可以包括肺部的至少一部分、软组织目标区域或消融目标。
从前述内容且参考各个图式,本领域技术人员将了解,在不脱离本公开的范围的情况下也可对本公开作出一些修改。例如,尽管将系统和方法描述为可以与用于导航通过如肺部等管腔网络的EMN系统一起使用,但是本文所描述的系统和方法可以与利用其它导航和治疗设备(如经皮设备)的系统一起使用。另外,尽管上述系统和方法被描述为在患者的管腔网络内使用,但应了解,上述系统和方法可以在如肝脏等其它目标区域中利用。此外,上述系统和方法还可用于经胸针刺吸液手术。
本文中公开了详细方面。然而,所公开的方面仅仅是本公开的实例,其可以以各种形式和方面来体现。因此,本文中所公开的具体结构和功能细节不应被解释为限制性的,而仅仅作为权利要求书的基础和作为用于教导本领域技术人员以实际上任何适当的详细结构按不同方式使用本公开的代表性基础。
如可以理解,可通过患者的一个或多个分支的管腔网络定位以治疗组织的医疗器械(如活检工具)或能量设备(如微波消融导管),可证明在外科手术领域中是有用的,并且本公开针对可与此类器械和工具一起使用的系统和方法。可以经皮或使用导航技术通过自然的孔进入管腔网络。另外,可以使用图像引导系统来实现导航通过管腔网络。图像引导系统可以与能量设备或单独的访问工具分离或整合,并且可以包括MRI、CT、荧光透视、超声、电阻抗断层扫描、光学和/或设备跟踪系统。
用于定位访问工具的方法包括EM、IR、回声定位、光学等。跟踪系统可以整合到成像设备中,其中在虚拟空间中完成跟踪,或者跟踪与术前或实时图像融合。在某些情况下,可以直接从管腔内进入治疗目标,如用于治疗COPD、哮喘、肺癌等的支气管内壁。在其它情况下,可需要能量设备和/或其它访问工具来刺穿管腔并延伸到其它组织中以到达目标,如用于治疗实质内的疾病。可以使用结合了上述方法和系统的标准荧光透视成像设备,通过成像和/或导航指导进行能量设备或工具放置的最终定位和确认。
虽然已经在附图中示出了本公开的若干方面,但并非意图将本公开限于此,而是意图使本公开的范围与本领域所允许的一样广泛,并且同样地理解本说明书。因此,以上描述不应被解释为限制性的,而仅仅是特定方面的例证。本领域技术人员将在所附权利要求书的范围和精神内设想其它修改。
Claims (25)
1.一种用于估计荧光透视成像设备的姿态的方法,所述方法包含:
用所述荧光透视成像设备进行扫掠来捕获导管的多个荧光透视图像;
识别并跟踪在导管的所述多个荧光透视图像中沿着所述导管的长度的多个不透射线标记物;
基于所跟踪的多个不透射线标记物确定所述导管的三维(3D)坐标;以及
基于所述导管的所述3D坐标估计所述荧光透视成像设备的所述姿态。
2.根据权利要求1所述的方法,其中所述多个不透射线标记物包括相应的多个跟踪传感器。
3.根据权利要求2所述的方法,其中所述多个跟踪传感器是多个线圈。
4.根据权利要求1所述的方法,其中所述扫掠是宽扫掠,其包括相对于前后位置大于30度的围绕纵轴的荧光透视成像设备的视角。
5.一种方法,其包含:
用荧光透视成像设备进行扫掠来捕获患者身体的多个荧光透视图像;
识别并跟踪在行进通过患者身体的导管的所述多个荧光透视图像中沿着所述导管的长度的多个不透射线标记物;以及
在所述所跟踪的多个不透射线标记物上进行3D运动求取结构方法,来估计所述导管的三维(3D)结构和所述荧光透视成像设备的所述姿态。
6.根据权利要求5所述的方法,其进一步包含基于所述荧光透视成像设备的所估计姿态来构建区域的3D体积数据。
7.一种用于估计荧光透视成像设备的姿态的方法,所述方法包含:
确定导管的三维(3D)形状;
用所述荧光透视成像设备进行扫掠来捕获患者体内的所述导管的多个荧光透视图像;以及
对于所述多个荧光透视图像中的每个荧光透视图像,估计所述导管的所述3D形状投影到每个荧光透视图像中的导管上的姿态。
8.根据权利要求7所述的方法,其中所述扫掠是宽扫掠,其包括相对于前后位置大于50度的围绕患者身体的纵轴的荧光透视成像设备的视角。
9.根据权利要求7所述的方法,其中所述导管包括沿着所述导管的长度安置的至少一个光纤传感器(其可以包括旋转多芯光纤),且
其中所述导管的所述3D形状是通过基于从所述至少一个光纤传感器获得的光纤传感器信号进行3D形状感测方法来确定的。
10.根据权利要求7所述的方法,其中确定所述导管的所述3D形状包括:
在所述多个荧光透视图像上进行运动求取结构过程,来估计所述导管的第一3D形状;
确定安置有所述导管的身体结构;
确定安置有所述导管的所述身体结构的3D形状;
基于安置有所述导管的所述身体结构的所述3D形状确定所述导管的第二3D形状;以及
基于所述第一3D形状和所述第二3D形状估计所述导管的所述3D形状。
11.根据权利要求10所述的方法,其中基于安置有所述导管的所述身体结构的计算机断层扫掠(CT)图像确定安置有所述导管的所述身体结构的所述3D形状。
12.根据权利要求10所述的方法,其中所述身体结构是肺部的气道。
13.根据权利要求7所述的方法,其中所述多个荧光透视图像包括所述导管的第一多个荧光透视图像以及所述导管和标记物结构的第二多个荧光透视图像,且
其中确定所述导管的所述3D形状包括:
基于所述第二多个荧光透视图像的每个图像上的所述标记物结构的投影,估计所述第二多个荧光透视图像的每个图像的所述荧光透视成像设备的姿态;以及
基于所述荧光透视成像设备的所估计姿态重建所述导管的所述3D形状。
14.根据权利要求13所述的方法,其中所述标记物结构是标记物栅格。
15.根据权利要求13所述的方法,其中所述第二多个荧光透视图像对应于相对于前后位置小于30度的围绕患者身体的纵轴的荧光透视成像设备的视角。
16.一种用于构建患者体内的目标区域的基于荧光透视的三维体积数据的方法,其包含:
用荧光透视成像设备进行扫掠来获取所述目标区域和医疗设备的多个不透射线标记物的荧光透视图像的序列;
识别并跟踪在行进通过患者身体的医疗设备的所述荧光透视图像序列中沿着所述医疗设备的长度的所述多个不透射线标记物;
基于所跟踪的多个不透射线标记物确定所述医疗设备的三维(3D)坐标;
基于所述医疗设备的所述3D坐标估计所述荧光透视成像设备的角度;以及
基于所述荧光透视成像设备的所估计角度构建所述目标区域的基于荧光透视的3D体积数据。
17.根据权利要求16所述的方法,其进一步包含基于所述基于荧光透视的三维体积数据,确定所述医疗设备与所述目标区域之间的偏移。
18.根据权利要求17所述的方法,其进一步包含:
使用指示显示器中所述医疗设备的位置的定位系统来促进所述医疗设备到所述目标区域的导航;以及
基于所确定的所述医疗设备与所述目标区域之间的偏移来校正所述医疗设备相对于所述目标区域的位置的显示。
19.根据权利要求18所述的方法,其中所述定位系统是电磁定位系统。
20.根据权利要求18所述的方法,其进一步包含:
在所述显示器上显示所述目标区域的3D渲染;以及
将所述定位系统配准到所述3D渲染,
其中校正所述医疗设备相对于所述目标区域的所述位置包含更新所述定位系统到所述3D渲染的配准。
21.根据权利要求16所述的方法,其进一步包含基于先前获取的所述目标区域的CT体积数据来生成所述目标区域的所述3D渲染。
22.根据权利要求16所述的方法,其中所述目标区域包含肺部的至少一部分,并且其中所述医疗设备通过气道管腔网络导航到所述目标区域。
23.根据权利要求16所述的方法,其中所述目标区域包含肺部的至少一部分。
24.根据权利要求16所述的方法,其中所述目标区域包括软组织目标。
25.根据权利要求16所述的方法,其中所述目标区域包括待消融的目标。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962897760P | 2019-09-09 | 2019-09-09 | |
US62/897,760 | 2019-09-09 | ||
US16/924,776 US11864935B2 (en) | 2019-09-09 | 2020-07-09 | Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures |
US16/924,776 | 2020-07-09 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112451095A true CN112451095A (zh) | 2021-03-09 |
Family
ID=72432758
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010939899.9A Pending CN112451095A (zh) | 2019-09-09 | 2020-09-09 | 用于荧光透视成像设备的姿态估计以及用于身体结构的三维成像的系统和方法 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11864935B2 (zh) |
EP (1) | EP3795083A1 (zh) |
CN (1) | CN112451095A (zh) |
CA (1) | CA3088521A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113947633A (zh) * | 2021-09-08 | 2022-01-18 | 顾力栩 | 导管末端姿态估计方法、系统及介质 |
Family Cites Families (119)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10022468A1 (de) | 1999-05-10 | 2001-10-11 | Shimadzu Corp | Röntgen-CT-Vorrichtung |
US9833167B2 (en) | 1999-05-18 | 2017-12-05 | Mediguide Ltd. | Method and system for superimposing virtual anatomical landmarks on an image |
US6413981B1 (en) | 1999-08-12 | 2002-07-02 | Ortho-Mcneil Pharamceutical, Inc. | Bicyclic heterocyclic substituted phenyl oxazolidinone antibacterials, and related compositions and methods |
US6473634B1 (en) | 2000-11-22 | 2002-10-29 | Koninklijke Philips Electronics N.V. | Medical imaging at two temporal resolutions for tumor treatment planning |
US6472372B1 (en) | 2000-12-06 | 2002-10-29 | Ortho-Mcneil Pharmaceuticals, Inc. | 6-O-Carbamoyl ketolide antibacterials |
US7473224B2 (en) | 2001-05-29 | 2009-01-06 | Ethicon Endo-Surgery, Inc. | Deployable ultrasound medical transducers |
US7607440B2 (en) | 2001-06-07 | 2009-10-27 | Intuitive Surgical, Inc. | Methods and apparatus for surgical planning |
US7881769B2 (en) * | 2002-11-18 | 2011-02-01 | Mediguide Ltd. | Method and system for mounting an MPS sensor on a catheter |
WO2006017172A1 (en) | 2004-07-09 | 2006-02-16 | Fischer Imaging Corporation | Diagnostic system for multimodality mammography |
US7551759B2 (en) | 2004-12-07 | 2009-06-23 | Siemens Medical Solutions Usa, Inc. | Target identification using time-based data sets |
US9055906B2 (en) | 2006-06-14 | 2015-06-16 | Intuitive Surgical Operations, Inc. | In-vivo visualization systems |
WO2008017051A2 (en) | 2006-08-02 | 2008-02-07 | Inneroptic Technology Inc. | System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities |
IL184151A0 (en) | 2007-06-21 | 2007-10-31 | Diagnostica Imaging Software Ltd | X-ray measurement method |
US8335359B2 (en) | 2007-07-20 | 2012-12-18 | General Electric Company | Systems, apparatus and processes for automated medical image segmentation |
US20180009767A9 (en) | 2009-03-19 | 2018-01-11 | The Johns Hopkins University | Psma targeted fluorescent agents for image guided surgery |
US10004387B2 (en) | 2009-03-26 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Method and system for assisting an operator in endoscopic navigation |
US8706184B2 (en) | 2009-10-07 | 2014-04-22 | Intuitive Surgical Operations, Inc. | Methods and apparatus for displaying enhanced imaging data on a clinical image |
US8625869B2 (en) | 2010-05-21 | 2014-01-07 | Siemens Medical Solutions Usa, Inc. | Visualization of medical image data with localized enhancement |
US8900131B2 (en) | 2011-05-13 | 2014-12-02 | Intuitive Surgical Operations, Inc. | Medical system providing dynamic registration of a model of an anatomical structure for image-guided surgery |
US8827934B2 (en) | 2011-05-13 | 2014-09-09 | Intuitive Surgical Operations, Inc. | Method and system for determining information of extrema during expansion and contraction cycles of an object |
US20130303944A1 (en) | 2012-05-14 | 2013-11-14 | Intuitive Surgical Operations, Inc. | Off-axis electromagnetic sensor |
EP2809249B1 (en) | 2012-02-03 | 2018-12-26 | Intuitive Surgical Operations, Inc. | Steerable flexible needle with embedded shape sensing |
WO2013173227A1 (en) | 2012-05-14 | 2013-11-21 | Intuitive Surgical Operations | Systems and methods for registration of a medical device using a reduced search space |
EP2849669B1 (en) | 2012-05-14 | 2018-11-28 | Intuitive Surgical Operations Inc. | Systems and methods for deformation compensation using shape sensing |
US10376178B2 (en) | 2012-05-14 | 2019-08-13 | Intuitive Surgical Operations, Inc. | Systems and methods for registration of a medical device using rapid pose search |
US10039473B2 (en) | 2012-05-14 | 2018-08-07 | Intuitive Surgical Operations, Inc. | Systems and methods for navigation based on ordered sensor records |
US20130303945A1 (en) | 2012-05-14 | 2013-11-14 | Intuitive Surgical Operations, Inc. | Electromagnetic tip sensor |
US9429696B2 (en) | 2012-06-25 | 2016-08-30 | Intuitive Surgical Operations, Inc. | Systems and methods for reducing measurement error in optical fiber shape sensors |
US9801551B2 (en) | 2012-07-20 | 2017-10-31 | Intuitive Sugical Operations, Inc. | Annular vision system |
JP6074587B2 (ja) | 2012-08-06 | 2017-02-08 | 株式会社Joled | 表示パネル、表示装置ならびに電子機器 |
WO2014028394A1 (en) | 2012-08-14 | 2014-02-20 | Intuitive Surgical Operations, Inc. | Systems and methods for registration of multiple vision systems |
CN108042092B (zh) | 2012-10-12 | 2023-02-28 | 直观外科手术操作公司 | 确定医疗器械在分支解剖结构中的位置 |
US20140188440A1 (en) | 2012-12-31 | 2014-07-03 | Intuitive Surgical Operations, Inc. | Systems And Methods For Interventional Procedure Planning |
EP4049706A1 (en) | 2013-03-15 | 2022-08-31 | Intuitive Surgical Operations, Inc. | Shape sensor systems for tracking interventional instruments and methods of use |
CN114343608A (zh) | 2013-07-29 | 2022-04-15 | 直观外科手术操作公司 | 具有冗余感测的形状传感器系统 |
US11166646B2 (en) | 2013-08-15 | 2021-11-09 | Intuitive Surgical Operations Inc. | Systems and methods for medical procedure confirmation |
KR102356881B1 (ko) | 2013-08-15 | 2022-02-03 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 카테터 위치설정 및 삽입을 위한 그래픽 사용자 인터페이스 |
JP6656148B2 (ja) | 2013-10-24 | 2020-03-04 | オーリス ヘルス インコーポレイテッド | ロボット支援管腔内手術のためのシステムおよび関連する方法 |
KR102337440B1 (ko) | 2013-12-09 | 2021-12-10 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 장치-인지 가요성 도구 정합을 위한 시스템 및 방법 |
WO2015101948A2 (en) | 2014-01-06 | 2015-07-09 | Body Vision Medical Ltd. | Surgical devices and methods of use thereof |
JP6688557B2 (ja) | 2014-01-07 | 2020-04-28 | キヤノンメディカルシステムズ株式会社 | X線ct装置 |
CN106170265B (zh) | 2014-02-04 | 2020-06-30 | 直观外科手术操作公司 | 用于介入工具的虚拟导航的组织的非刚性变形的系统和方法 |
US20150223765A1 (en) | 2014-02-07 | 2015-08-13 | Intuitive Surgical Operations, Inc. | Systems and methods for using x-ray field emission to determine instrument position and orientation |
US10506914B2 (en) | 2014-03-17 | 2019-12-17 | Intuitive Surgical Operations, Inc. | Surgical system including a non-white light general illuminator |
US10912523B2 (en) | 2014-03-24 | 2021-02-09 | Intuitive Surgical Operations, Inc. | Systems and methods for anatomic motion compensation |
JP6359312B2 (ja) | 2014-03-27 | 2018-07-18 | キヤノンメディカルシステムズ株式会社 | X線診断装置 |
EP3125809B1 (en) | 2014-03-28 | 2020-09-09 | Intuitive Surgical Operations, Inc. | Surgical system with haptic feedback based upon quantitative three-dimensional imaging |
EP3174490B1 (en) | 2014-07-28 | 2020-04-15 | Intuitive Surgical Operations, Inc. | Systems and methods for planning multiple interventional procedures |
KR20170038012A (ko) | 2014-07-28 | 2017-04-05 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 수술중 세그먼트화를 위한 시스템 및 방법 |
US10478162B2 (en) | 2014-08-23 | 2019-11-19 | Intuitive Surgical Operations, Inc. | Systems and methods for display of pathological data in an image guided procedure |
US10373719B2 (en) | 2014-09-10 | 2019-08-06 | Intuitive Surgical Operations, Inc. | Systems and methods for pre-operative modeling |
US10314513B2 (en) | 2014-10-10 | 2019-06-11 | Intuitive Surgical Operations, Inc. | Systems and methods for reducing measurement error using optical fiber shape sensors |
CN107105974B (zh) | 2014-10-17 | 2019-12-27 | 直观外科手术操作公司 | 用于使用光纤形状传感器减小测量误差的系统和方法 |
JP2017536870A (ja) | 2014-10-20 | 2017-12-14 | ボディ・ビジョン・メディカル・リミテッドBody Vision Medical Ltd. | 外科的デバイスおよび外科的デバイスの使用方法 |
JP7017931B2 (ja) | 2014-11-13 | 2022-02-09 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 位置特定データをフィルタリングするシステム及び方法 |
US10512510B2 (en) | 2014-12-22 | 2019-12-24 | Intuitive Surgical Operations, Inc. | Flexible electromagnetic sensor |
JP6772180B2 (ja) | 2015-04-06 | 2020-10-21 | インテュイティブ サージカル オペレーションズ, インコーポレイテッド | 画像誘導手術における位置合せ補償のシステム及び方法 |
KR102557820B1 (ko) | 2015-05-22 | 2023-07-21 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 영상 안내 수술에서의 상관 보상의 시스템 및 방법 |
US10702226B2 (en) * | 2015-08-06 | 2020-07-07 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10716525B2 (en) * | 2015-08-06 | 2020-07-21 | Covidien Lp | System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction |
EP3334325A4 (en) | 2015-08-14 | 2019-05-01 | Intuitive Surgical Operations Inc. | SYSTEMS AND METHODS FOR RECORDING FOR IMAGE-GUIDED SURGERY |
US10706543B2 (en) | 2015-08-14 | 2020-07-07 | Intuitive Surgical Operations, Inc. | Systems and methods of registration for image-guided surgery |
CN108024693B (zh) | 2015-09-10 | 2021-07-09 | 直观外科手术操作公司 | 在图像引导医疗程序中利用跟踪的系统和方法 |
EP4070723A1 (en) | 2015-09-18 | 2022-10-12 | Auris Health, Inc. | Navigation of tubular networks |
US10405753B2 (en) | 2015-11-10 | 2019-09-10 | Intuitive Surgical Operations, Inc. | Pharmaceutical compositions of near IR closed chain, sulfo-cyanine dyes |
US10480926B2 (en) | 2015-12-14 | 2019-11-19 | Intuitive Surgical Operations, Inc. | Apparatus and method for generating 3-D data for an anatomical target using optical fiber shape sensing |
US9996361B2 (en) | 2015-12-23 | 2018-06-12 | Intel Corporation | Byte and nibble sort instructions that produce sorted destination register and destination index mapping |
EP3413829B1 (en) * | 2016-02-12 | 2024-05-22 | Intuitive Surgical Operations, Inc. | Systems of pose estimation and calibration of perspective imaging system in image guided surgery |
KR20180104764A (ko) | 2016-02-12 | 2018-09-21 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 영상-안내 수술에서 정합되는 형광투시 영상을 사용하기 위한 시스템 및 방법 |
WO2017153839A1 (en) | 2016-03-10 | 2017-09-14 | Body Vision Medical Ltd. | Methods and systems for using multi view pose estimation |
US10702137B2 (en) | 2016-03-14 | 2020-07-07 | Intuitive Surgical Operations, Inc.. | Endoscopic instrument with compliant thermal interface |
US20170296679A1 (en) | 2016-04-18 | 2017-10-19 | Intuitive Surgical Operations, Inc. | Compositions of Near IR Closed Chain, Sulfo-Cyanine Dyes and Prostate Specific Membrane Antigen Ligands |
US11266387B2 (en) | 2016-06-15 | 2022-03-08 | Intuitive Surgical Operations, Inc. | Systems and methods of integrated real-time visualization |
CN108024833B (zh) | 2016-06-30 | 2021-06-04 | 直观外科手术操作公司 | 用于在图像引导过程期间显示引导信息的图形用户界面 |
KR102607065B1 (ko) | 2016-06-30 | 2023-11-29 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 영상 안내식 시술 중에 복수의 모드에서 안내 정보를 디스플레이하기 위한 그래픽 사용자 인터페이스 |
CN109414155B (zh) | 2016-08-16 | 2022-04-29 | 直观外科手术操作公司 | 使用第一和第二光纤感测柔性工具的形状 |
WO2018038999A1 (en) | 2016-08-23 | 2018-03-01 | Intuitive Surgical Operations, Inc. | Systems and methods for monitoring patient motion during a medical procedure |
WO2018057633A1 (en) | 2016-09-21 | 2018-03-29 | Intuitive Surgical Operations, Inc. | Systems and methods for instrument buckling detection |
EP3518807A4 (en) | 2016-09-30 | 2020-05-27 | Intuitive Surgical Operations Inc. | SYSTEMS AND METHODS FOR LOCALIZING AN ENTRY POINT |
EP3529579B1 (en) | 2016-10-21 | 2021-08-25 | Intuitive Surgical Operations, Inc. | Shape sensing with multi-core fiber sensor |
CN110381841B (zh) | 2016-10-31 | 2023-10-20 | 博迪维仁医疗有限公司 | 用于医疗成像的夹具及其使用方法 |
KR20190067917A (ko) | 2016-11-02 | 2019-06-17 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 영상 안내식 수술을 위한 연속 정치 시스템 및 방법 |
CN116421309A (zh) | 2016-12-08 | 2023-07-14 | 直观外科手术操作公司 | 用于图像引导医疗程序中导航的系统和方法 |
KR102472372B1 (ko) | 2016-12-09 | 2022-11-30 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 신체 조직의 분산형 열 유속 감지를 위한 시스템 및 방법 |
WO2018129532A1 (en) | 2017-01-09 | 2018-07-12 | Intuitive Surgical Operations, Inc. | Systems and methods for registering elongate devices to three dimensional images in image-guided procedures |
WO2018136733A1 (en) * | 2017-01-19 | 2018-07-26 | St. Jude Medical, Cardiology Division, Inc. | System and method for re-registration of localization system after shift/drift |
EP3576662A4 (en) | 2017-02-01 | 2020-12-23 | Intuitive Surgical Operations Inc. | SYSTEMS AND METHODS FOR DATA FILTERING OF CONTINUOUS SENSOR DATA |
CN110225710B (zh) | 2017-02-01 | 2022-12-30 | 直观外科手术操作公司 | 用于图像引导的程序的配准的系统和方法 |
CN110167477B (zh) | 2017-02-01 | 2023-12-29 | 直观外科手术操作公司 | 图像引导手术的配准系统和方法 |
US11490782B2 (en) | 2017-03-31 | 2022-11-08 | Auris Health, Inc. | Robotic systems for navigation of luminal networks that compensate for physiological noise |
EP3613057A4 (en) | 2017-04-18 | 2021-04-21 | Intuitive Surgical Operations, Inc. | GRAPHIC USER INTERFACE FOR PLANNING A PROCEDURE |
EP3612121A4 (en) | 2017-04-18 | 2021-04-07 | Intuitive Surgical Operations, Inc. | GRAPHIC USER INTERFACE TO MONITOR AN IMAGE GUIDED PROCEDURE |
CN111246791A (zh) | 2017-05-24 | 2020-06-05 | 博迪维仁医疗有限公司 | 用于使用径向支气管内超声探针对影像进行三维重建及改进的靶标定位的方法 |
US10022192B1 (en) | 2017-06-23 | 2018-07-17 | Auris Health, Inc. | Automatically-initialized robotic systems for navigation of luminal networks |
WO2018237187A2 (en) | 2017-06-23 | 2018-12-27 | Intuitive Surgical Operations, Inc. | SYSTEMS AND METHODS FOR NAVIGATING A TARGET LOCATION DURING A MEDICAL ACT |
KR102578978B1 (ko) | 2017-06-28 | 2023-09-19 | 아우리스 헬스, 인코포레이티드 | 전자파 왜곡 검출 |
EP3644885B1 (en) | 2017-06-28 | 2023-10-11 | Auris Health, Inc. | Electromagnetic field generator alignment |
KR102616535B1 (ko) | 2017-08-16 | 2023-12-27 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 의료 절차 동안 환자의 움직임을 모니터링하기 위한 시스템들 및 방법들 |
US11058493B2 (en) | 2017-10-13 | 2021-07-13 | Auris Health, Inc. | Robotic system configured for navigation path tracing |
US10555778B2 (en) | 2017-10-13 | 2020-02-11 | Auris Health, Inc. | Image-based branch detection and mapping for navigation |
KR20200099138A (ko) | 2017-12-08 | 2020-08-21 | 아우리스 헬스, 인코포레이티드 | 의료 기구 항행 및 표적 선정을 위한 시스템 및 방법 |
AU2018384820A1 (en) | 2017-12-14 | 2020-05-21 | Auris Health, Inc. | System and method for estimating instrument location |
WO2019125964A1 (en) | 2017-12-18 | 2019-06-27 | Auris Health, Inc. | Methods and systems for instrument tracking and navigation within luminal networks |
AU2019200594B2 (en) | 2018-02-08 | 2020-05-28 | Covidien Lp | System and method for local three dimensional volume reconstruction using a standard fluoroscope |
US10893842B2 (en) * | 2018-02-08 | 2021-01-19 | Covidien Lp | System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target |
US10885630B2 (en) | 2018-03-01 | 2021-01-05 | Intuitive Surgical Operations, Inc | Systems and methods for segmentation of anatomical structures for image-guided surgery |
US20190298451A1 (en) | 2018-03-27 | 2019-10-03 | Intuitive Surgical Operations, Inc. | Systems and methods for delivering targeted therapy |
KR102489198B1 (ko) | 2018-03-28 | 2023-01-18 | 아우리스 헬스, 인코포레이티드 | 위치 센서의 정합을 위한 시스템 및 방법 |
JP7225259B2 (ja) | 2018-03-28 | 2023-02-20 | オーリス ヘルス インコーポレイテッド | 器具の推定位置を示すためのシステム及び方法 |
EP3801190A4 (en) | 2018-05-30 | 2022-03-02 | Auris Health, Inc. | SYSTEMS AND METHODS FOR SENSOR-BASED BRANCH LOCATION PREDICTION |
US10898286B2 (en) | 2018-05-31 | 2021-01-26 | Auris Health, Inc. | Path-based navigation of tubular networks |
CN110831538B (zh) | 2018-05-31 | 2023-01-24 | 奥瑞斯健康公司 | 基于图像的气道分析和映射 |
US11559743B2 (en) | 2018-08-01 | 2023-01-24 | Sony Interactive Entertainment LLC | Cross-pollination of in-game events, assets and persistent communications using signs and likes across virtual environments in gaming sessions of a video game |
US11080902B2 (en) | 2018-08-03 | 2021-08-03 | Intuitive Surgical Operations, Inc. | Systems and methods for generating anatomical tree structures |
AU2019322080A1 (en) | 2018-08-13 | 2021-03-11 | Body Vision Medical Ltd. | Methods and systems for multi view pose estimation using digital computational tomography |
US11896316B2 (en) | 2018-08-23 | 2024-02-13 | Intuitive Surgical Operations, Inc. | Systems and methods for generating anatomic tree structures using backward pathway growth |
US11637378B2 (en) | 2018-11-02 | 2023-04-25 | Intuitive Surgical Operations, Inc. | Coiled dipole antenna |
US11633623B2 (en) | 2019-04-19 | 2023-04-25 | University Of Maryland, Baltimore | System and method for radiation therapy using spatial-functional mapping and dose sensitivity of branching structures and functional sub-volumes |
US11602388B2 (en) * | 2019-08-21 | 2023-03-14 | Veran Medical Technologies, Inc. | Ablation monitoring system and method |
-
2020
- 2020-07-09 US US16/924,776 patent/US11864935B2/en active Active
- 2020-07-30 CA CA3088521A patent/CA3088521A1/en not_active Abandoned
- 2020-09-08 EP EP20195109.2A patent/EP3795083A1/en active Pending
- 2020-09-09 CN CN202010939899.9A patent/CN112451095A/zh active Pending
-
2024
- 2024-01-08 US US18/407,421 patent/US20240138783A1/en active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113947633A (zh) * | 2021-09-08 | 2022-01-18 | 顾力栩 | 导管末端姿态估计方法、系统及介质 |
Also Published As
Publication number | Publication date |
---|---|
US11864935B2 (en) | 2024-01-09 |
EP3795083A1 (en) | 2021-03-24 |
US20240138783A1 (en) | 2024-05-02 |
US20210068772A1 (en) | 2021-03-11 |
CA3088521A1 (en) | 2021-03-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11547377B2 (en) | System and method for navigating to target and performing procedure on target utilizing fluoroscopic-based local three dimensional volume reconstruction | |
US11707241B2 (en) | System and method for local three dimensional volume reconstruction using a standard fluoroscope | |
US11896414B2 (en) | System and method for pose estimation of an imaging device and for determining the location of a medical device with respect to a target | |
CN110741414B (zh) | 用于使用实时二维荧光镜检查数据识别、标记和导航到靶标的系统和方法 | |
US11992349B2 (en) | System and method for local three dimensional volume reconstruction using a standard fluoroscope | |
AU2020210140B2 (en) | System and method for local three dimensional volume reconstruction using a standard fluoroscope | |
US20240138783A1 (en) | Systems and methods for pose estimation of a fluoroscopic imaging device and for three-dimensional imaging of body structures | |
CN112618016A (zh) | 用于经皮插入的设备的图像引导导航的系统和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |