CN112292092A - 用于使用立体内窥镜测量距离的系统和方法 - Google Patents

用于使用立体内窥镜测量距离的系统和方法 Download PDF

Info

Publication number
CN112292092A
CN112292092A CN201980042365.1A CN201980042365A CN112292092A CN 112292092 A CN112292092 A CN 112292092A CN 201980042365 A CN201980042365 A CN 201980042365A CN 112292092 A CN112292092 A CN 112292092A
Authority
CN
China
Prior art keywords
endpoint
user
additional
image
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201980042365.1A
Other languages
English (en)
Inventor
R·戈达尼
B·D·霍夫曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Publication of CN112292092A publication Critical patent/CN112292092A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/37Master-slave robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/06Measuring instruments not otherwise provided for
    • A61B2090/061Measuring instruments not otherwise provided for for measuring dimensions, e.g. length
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/367Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Robotics (AREA)
  • Physics & Mathematics (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Endoscopes (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

一种测量系统访问由包括在位于与患者相关联的手术区域处的立体内窥镜内的第一摄像机和第二摄像机分别从第一有利点和第二有利点捕获的第一图像和第二图像。该测量系统接收指定与在如第一图像中表示的手术区域内的特征部对应的用户选择的二维(“2D”)端点的用户输入,并且基于用户选择的2D端点来识别与如第二图像中表示的特征部对应的匹配的2D端点。基于用户选择的2D端点和匹配的2D端点,该测量系统限定与在手术区域内的特征部对应的三维(“3D”)端点。然后,该测量系统确定从3D端点到与在手术区域内的附加特征部对应的附加的3D端点的距离。还描述了对应的系统和方法。

Description

用于使用立体内窥镜测量距离的系统和方法
技术领域
本申请要求2018年5月3日提交的题为“用于使用立体内窥镜测量距离的系统和方法”的美国临时专利申请No.62/666,505的优先权,其内容通过引用以其整体并入本文。
背景技术
在微创外科手术期间内,诸如在利用机器人外科手术系统的程序中,内窥镜摄像机通常用于向外科医生提供患者的内部解剖结构的图像(例如,立体视频)。在观看这些图像时,外科医生可以操纵定位在患者内的一个或多个手术器械(例如,一个或多个机器人操纵的手术器械),以执行该程序。
在一些情况下,可能期望在微创外科手术程序之前、期间或之后测量与患者内部解剖结构相关联的各种距离。例如,可能期望测量所述患者内疝气的大小,使得网状贴片的尺寸可以适合于疝气。作为另一示例,可能期望确定手术器械的尖端距患者内的组织的距离。
不幸地,因为执行微创外科手术程序的外科医生不能像他或她在常规“开放式”外科手术程序期间那样直接物理接近患者的内部解剖结构,所以迄今为止很难或不可能准确地确定此类测量结果。一种用于在微创外科手术程序期间估计与患者的内部解剖结构相关联的距离的方法必须将机器人操纵的手术器械定位在患者内的不同位置处,并且基于用于器械的跟踪的动力学数据来估算器械之间的距离。然而,以这种方式定位器械可能是不方便的、困难的和/或耗时的,并且由于在相对较长的运动链上引入的不精确性,由这种常规方法产生的测量结果可能在某种程度上是不准确的。另外,当使用此类常规技术时,可能无法考虑到端点之间的表面的轮廓。这可能对测量结果(诸如上述示例性疝气测量结果)造成问题,其中考虑此类轮廓可能很重要。
附图说明
附图示出了各种实施例,并且是说明书的一部分。所示的实施例仅是示例,并且不限制本公开的范围。在所有附图中,相同或类相似的参考标记指定相同或相似的元件。
图1示出了根据本文所述的原理的示例性机器人手术系统。
图2示出了根据本文所述的原理的包括在图1的机器人手术系统内的示例性患者侧系统。
图3示出了根据本文所述的原理的包括在图2的患者侧系统内的示例性机械臂。
图4示出了根据本文所述的原理的包括在图1的机器人手术系统内的示例性外科医生控制台。
图5示出了根据本文所述的原理的位于与患者相关联的示例性手术区域处的示例性立体内窥镜。
图6示出了根据本文所述的原理的示例性测量系统。
图7示出了根据本文所述的原理的由包括在立体内窥镜内的摄像机从立体有利点捕获的示例性图像。
图8示出了根据本文所述的原理的由用户指定的示例性用户选择的二维(“2D”)端点。
图9示出了根据本文所述的原理的作为图8中所示的所述用户选择的2D端点的经识别与所述手术区域内的相同特征部对应的示例性匹配的2D端点。
图10示出了根据本文所述的原理的图9中所示的图像的某些方面的放大的像素级视图。
图11示出了根据本文所述的原理的在患者内部的手术区域内的多个手术器械。
图12示出了根据本文所述的原理的三维(“3D”)端点的示例性限定。
图13示出了根据本文所述的原理的在其之间可以确定一个或多个距离的示例性3D端点。
图14示出了根据本文所述的原理的在两个3D端点之间的示例性轮廓距离。
图15示出了根据本文所述的原理的用于使用立体内窥镜测量距离的示例性方法。
图16示出了根据本文所述的原理的示例性计算系统。
具体实施方式
本文描述了用于使用立体内窥镜测量距离的系统和方法。例如,在某些实施方式中,一种测量系统可以包括至少一个物理计算装置(例如,由存储在存储器或类似物中的指令编程的处理器),其可以访问由第一摄像机从第一有利点捕获的第一图像和由第二摄像机从第二有利点捕获的第二图像。第一摄像机和第二摄像机均可以被包括在位于与患者相关联的手术区域处(例如,延伸到手术区域内以至少部分地设置在手术区域内的)的立体内窥镜内。例如,手术区域可以在其中要执行、正在执行或已经执行外科手术程序的位置处完全或部分地在患者的身体内。另外,第一摄像机和第二摄像机的第一有利点和第二有利点可以彼此立体。换句话说,有利点可以在空间上相对地靠近彼此设置(例如,在立体内窥镜的远端尖端的左侧和右侧处),并且可以对准,以便朝向相同的目标区域指向。
测量系统可以接收指定与手术区域内的特征部对应的用户选择的二维(“2D”)端点的用户输入。例如,通过用户选择(例如,触摸、点击等)与第一图像内的特征部的位置对应的第一图像内的点,可以提供用户输入。基于用户选择的2D端点,测量系统可以识别与如第二图像中表示的特征部对应的匹配2D端点。随后,基于用户选择的和匹配的2D端点,测量系统可以限定与手术区域内的特征部对应的三维(“3D”)端点。例如,虽然用户选择的和匹配的2D端点可以构成第一图像和第二图像内的不同像素或像素组,但是3D端点可以构成3D坐标,3D坐标限定相对于特定坐标系统(例如,与手术区域、立体内窥镜、与测量系统相关联的机器人手术系统或类似物相关联的坐标系统)的在空间中的特定点。
一旦已经以这种方式限定3D端点,测量系统就可以确定从3D端点到与手术区域内的附加特征部对应的附加3D端点的距离。在一些示例中,附加3D端点可以是以如上所述类似的方式基于用户选择的2D端点限定的用户选择的3D端点。在其他示例中,附加3D端点可以是非用户选择的3D端点。例如,附加3D端点可以对应于特定的手术器械的位置,对应于立体内窥镜的位置,对应于限定在手术区域或坐标系统内的原点,或者对应于如可以服务于特定实施方式的手术区域内的任何其他位置。本文将描述其中测量系统可以确定3D端点之间的距离的各种方式。
可以由本文公开的系统和方法提供各种益处。例如,本文公开的系统和方法可以促进在微创外科手术程序期间患者身体内的解剖特征部或其他关注点的点对点测量,至少与在其中可以公开访问此类特征部的开放式外科手术程序中可能的便利和准确一样。例如,本文公开的系统和方法可以促进疝气的尺寸的测量,使得网状贴片可以切成合适的尺寸(用于二尖瓣修复操作的二尖瓣的尺寸、确定可能需要多少能量以适当地消灭肿瘤的肿瘤尺寸和/或患者内的任何其他解剖特征部的尺寸)以适当地修补疝气。另外地或可替代地,本文公开的系统和方法可以促进手术器械的尖端和患者内的组织之间的距离的测量,促进设置在患者的手术区域内的两个不同手术器械之间的距离的测量,且/或促进可以用于外科手术团队在微创外科手术程序期间知道的患者内的任何其他距离的测量。因此,本文所述的系统和方法可以帮助使微创外科手术程序越来越安全、有效,并对患者和外科医生具有吸引力。
此外,与用于测量与微创外科手术程序相关联的手术区域内的距离的常规技术相比,本文公开的系统和方法可以相对更准确、更有效和/或更易于使用。例如,本文公开的系统和方法不需要用户通过将手术器械尖端手动地定位在特定3D端点处来指定用于测量的3D端点,因为用户将不得不使用仅依赖于运动学数据估计手术区域内的距离的常规技术来进行操作。作为另一示例,本文所述的系统和方法可以促进沿解剖结构的轮廓的距离的相对容易且精确的测量,这迄今为止在微创外科手术呈现期间是很难的或不可能的。另外,通过允许仅基于2D视觉选择端点,本文所述的系统和方法可以使除外科医生以外的团队成员(例如,护士、助手等)能够使用不提供立体3D视图的屏幕指定端点,从而使外科医生腾出时间执行外科医生特有的其他任务。
本文公开的系统和方法也可以有利地利用最少量的计算机处理资源,这在采用相对过时的技术并具有相对有限的计算机处理资源的传统系统中可以是有益的。例如,当前部署的许多机器人外科手术系统可以利用相对旧的计算机硬件,计算机硬件未被设计成有效地执行大量的图像处理(例如,从由立体内窥镜捕获的立体图像内的每个点生成整个3D深度图)。因为系统和方法不需要生成整个3D深度图以便测量点对点距离,所以此类传统的机器人外科手术系统可以实施本文所述的系统和方法。
现在将参照附图更详细地描述各种实施例。本文所述的系统和方法可以提供上述益处和/或将在本文变得显而易见的各种附加和/或可替代益处中的一个或多个。
本文所述的系统和方法可以作为机器人外科手术系统的一部分或与机器人外科手术系统结合操作。因此,为了促进对本文所述的用于使用立体内窥镜测量距离的系统和方法的理解,现在将描述示例性机器人外科手术系统。
图1示出了示例性机器人外科手术系统100。如图所示,机器人外科手术系统100可以包括彼此通信耦连的患者侧系统102(有时指患者侧推车)、外科医生控制台104和视觉推车106。机器人手术系统100可以由外科手术团队使用,以在患者108上执行启用机器人的外科手术程序。如图所示,外科手术团队可以包括外科医生110-1、助手110-2、护士110-3和麻醉师110-4,他们全都统称为“外科手术团队成员110”。附加的或可替代的外科手术团队成员可以在如可以服务于特定实施方式的外科手术会话期间出现。虽然图1示出了正在进行的微创外科手术程序,但是将理解的是,机器人外科手术系统100可以类似地用于执行开放式外科手术程序或可以类似地从机器人外科手术系统100的准确性和便利性受益的其他类型的外科手术程序。另外,将理解的是,其中可以采用机器人外科手术系统100的外科手术会话可以不包括如图1中所示的外科手术程序的操作阶段,但是也可以包括外科手术程序的术前、术后和/或其他合适的阶段。
如图所示,患者侧系统102可以包括多个机械臂112(例如,机械臂112-1至112-4),其中多个机器人操纵的手术器械114(例如,手术器械114-1至114-4)可以耦连到多个机械臂112。每个手术器械114可以由可以用于在患者108上的启用机器人的外科手术程序(例如,通过至少部分地插入患者108并经操纵在患者108上执行启用机器人的外科手术程序)的任何合适的手术工具、医疗工具、监测器械(例如,内窥镜)、诊断器械或类似物实施。注意,虽然出于示例性目的在本文中将患者侧系统102描绘并描述为具有多个机械臂112的推车,但是在各种其他实施例中,患者侧系统102可以包括一个或多个推车,每个推车具有一个或多个机械臂112,一个或多个机械臂112安装在手术室内的单独结构上,诸如手术台或天花板,和/或安装在(一个或多个)任何其他支撑结构上。患者侧系统102将在下面更详细地描述。
手术器械114可以各自定位在与患者相关联的手术区域处。如本文所用,在某些示例中,与患者相关联的“手术区域”可以整体设置在患者内,并且可以包括在患者内的区域,外科手术程序被规划成将要在患者内的区域附近执行、正在患者内的区域附近执行或者已经在患者内的区域附近执行。例如,对于正在患者内部的组织上执行的微创外科手术程序,手术区域可以包括组织以及用于执行外科手术程序的手术器械位于的组织周围的空间。在其他示例中,手术区域可以至少部分地设置在患者外部。例如,机器人外科手术系统100可以用于执行开放式外科手术程序,使得手术区域的一部分(例如,正在进行手术的组织)是在患者的内部,而手术区域的另一部分(例如,其中可以设置一个或多个手术器械的在组织周围的空间)是在患者的外部。当手术器械的至少一部分设置在手术区域内时,手术器械(例如,手术器械114中的任何手术器械)可以指“位于”(或“位于内”)手术区域。
外科医生控制台104可以被配置成促进由外科医生110-1对机械臂112和手术器械114的控制。例如,外科医生控制台104可以向外科医生110-1提供如由内窥镜捕获的与患者108相关联的手术区域的图像(例如,高清3D图像)。外科医生110-1可以利用图像对手术器械114执行一个或多个外科手术程序。
为了促进手术器械114的控制,外科医生控制台104可以包括一组主控件116(在特写视图118中所示)。主控件116可以由外科医生110-1操纵,以便控制手术器械114的运动。主控件116可以被配置成由外科医生110-1检测各种各样的手部、手腕和手指运动。以这种方式,外科医生110-1可以使用一个或多个手术器械114直观地执行程序。例如,如在特写视图120中所示,分别耦连到机械臂112-1和112-4的手术器械114-1和114-4的功能尖端可以跨多个运动自由度模拟外科医生110-1的手部、手腕和手指的灵活性,以便执行一个或多个外科手术程序(例如,切口程序、缝合程序等)。
虽然出于示例性目的在本文中将外科医生控制台104描绘和描述为单个单元,但是在各种其他实施例中,外科医生控制台104可以包括各种分立部件,诸如有线或无线主控件116、(一个或多个)单独的显示元件(例如,投影仪或头戴式显示器)、单独的数据/通信处理硬件/软件和/或外科医生控制台104的任何其他结构或功能元件。下面将更详细地描述外科医生控制台104。
视觉推车106可以被配置成向外科手术团队成员110呈现视觉内容,外科手术团队成员110不可以访问在外科医生控制台104提供给外科医生110-1的图像。为此,视觉推车106可以包括显示监视器122,其被配置成显示一个或多个用户界面,诸如可以服务于特定实施方式的手术区域的图像(例如,2D图像)、与患者108和/或外科手术程序相关联的信息和/或任何其他视觉内容。例如,显示监视器122可以将手术区域的图像与叠加在图像上方或另外与图像同时显示的附加内容(例如,图形内容、上下文信息等)一起显示。在一些实施例中,显示监视器122由触摸屏显示器实施,其中外科手术团队成员110可以与触摸屏显示器交互(例如,通过触摸手势的方式),以向机器人外科手术系统100提供用户输入。
患者侧系统102、外科医生控制台104和视觉推车106可以以任何合适的方式彼此通信地耦连。例如,如图1中所示,患者侧系统102、外科医生控制台104和视觉推车106可以通过控制线124通信地耦连,这可表示如可以服务于特定实施方式的任何有线或无线通信链路。为此,患者侧系统102、外科医生控制台104和视觉推车106可以各自包括一个或多个有线或无线通信接口,诸如一个或多个局域网接口、Wi-Fi网络接口、蜂窝接口等。
患者侧系统102、外科医生控制台104和视觉推车106可以各自包括至少一个计算装置,其被配置成控制、引导和/或促进机器人外科手术系统100的操作。例如,外科医生控制台104可以包括计算装置,其被配置成通过控制线124中的一个或多个控制线将指令传输到患者侧系统102,以便根据由主控件116的外科医生110-1进行的操纵,控制机械臂112和/或手术器械114的运动。在一些示例中,视觉推车106可以包括一个或多个计算装置,其被配置成执行机器人手术系统100的主要处理操作。在此类配置中,视觉推车106中包括的一个或多个计算装置可以控制和/或协调由机器人外科手术系统100的各种其部部件(例如,由患者侧系统102和/或外科医生控制台104)执行的操作。例如,外科医生控制台104中包括的计算装置可以通过视觉推车106中包括的一个或多个计算装置将指令传输到患者侧系统102。
图2示出了患者侧系统102的透视图。如图所示,患者侧系统102包括由基座204支撑的推车柱202。在一些示例中,推车柱202可以包括保护盖206,保护盖206保护设置在推车柱202内的平衡子系统和制动子系统的部件免受污染物污染。
推车柱202可以支撑安装在其上的多个设置臂208(例如,设置臂208-1至208-4)。每个设置臂208可以包括允许设置臂208的手动定位的多个连杆和接头,并且可以各自连接到机械臂112中的一个机械臂。在图2的示例中,患者侧系统102包括四个设置臂208和四个机械臂112。然而,将认识到,患者侧系统102可以包括如可以服务于特定实施方式的任何其他数量的设置臂208和机械臂112。
设置臂208可以是非机器人可控制的,并且被配置成将每个机械臂112静态地保持在设置或重新配置患者侧系统102的人员需要的相应位置中。设置臂208可以耦连到滑架壳体210,并且在外科手术会话的术前、术中或术后阶段期间手动地移动并放置。例如,当机器人外科手术系统100正在准备用于和/或针对要执行的外科手术程序时,设置臂208可以在术前阶段期间移动并放置。相比之下,(例如,如上所述,响应于主控件116的操纵),可以自动地控制机械臂112。
如图所示,每个机械臂112可以具有与其耦连的手术器械114。在某些示例中,四个机械臂112中的三个机械臂可以被配置成移动并/或定位用于操纵患者组织和/或外科手术区域内的其他对象(例如,缝合材料、修补材料等)的手术器械114。具体地,如图所示,可以分别使用机械臂112-1、112-3和112-4,以移动并/或定位手术器械114-1、114-3和114-4。如将在下面更详细地描述,第四个机械臂112(例如,图2的示例中的机械臂112-2)可以用于移动并/或定位监视器械(例如,立体内窥镜)。
机械臂112可以各自包括一个或多个位移换能器、取向传感器和/或位置传感器(例如,传感器212),其用于生成原始的(即未校正的)运动学信息,以帮助控制和跟踪手术器械114。例如,由患者侧系统102中的换能器和传感器生成的运动学信息可以传输到机器人外科手术系统100的器械跟踪系统(例如,视觉推车106中包括的计算装置)。在某些实施方式中,每个手术器械114可以类似地包括位移换能器、位置传感器和/或取向传感器(例如,传感器214),其中每个可以向跟踪系统提供附加的运动学信息。跟踪系统可以处理从机械臂112和/或手术器械114上包括的传感器接收的运动学信息,以执行各种操作,诸如确定机械臂112和/或手术器械114的当前位置。另外地,一个或多个手术器械114可以包括标识器(未明确示出),以帮助获取和跟踪如可以服务于特定实施方式的手术器械114。
图3示出了示例性机械臂112(例如,机械臂112-1至112-4中的任何一个)的透视图。如图所示,手术器械114可以可移除地耦连到机械臂112。在图3的示例中,手术器械114是一种内窥镜装置(例如,立体腹腔镜、关节镜、宫腔镜或另一种类型的立体或单视场内窥镜)。可替代地,手术器械114可以是不同类型的成像装置(例如,超声装置、荧光检查装置、MRI装置等)、夹持器械(例如,钳子)、针驱动器(例如,用于缝合的装置)、能量器械(例如,烧灼器械、激光器械等)、牵开器、施夹器、探针夹持器、心脏稳定器或任何其他合适的器械或工具。
在一些示例中,可能期望的是,机械臂112和耦连到机械臂112的手术器械114围绕单个固定中心点302移动以便约束中心点302的运动。例如,中心点302可以位于手术器械114到患者108体内的插入点处或其附近。例如,在某些外科手术会话(例如,与腹腔镜外科手术程序相关联的外科手术会话)中,中心点302可以通过腹壁处的套管针或套管与到内部手术部位的切口点对准。如图所示,中心点302可以位于与手术器械114相关联的插入轴线304上。
机械臂112可以包括多个连杆306(例如,连杆306-1至306-5),其在连杆306的相应端部附近的多个接头308(例如,接头308-1至308-4)处可枢转地串联耦连。例如,如图所示,连杆306-1在连杆306-1的第一端部附近的接头308-1处可枢转地耦连到驱动安装架310,同时在连杆306-1的第二端部附近的接头308-2处可枢转地耦连到连杆306-2。连杆306-3在连杆306-3的第一端部附近可枢转地耦连到连杆306-2,同时在连杆306-3的第二端部附近的接头308-4处可枢转地耦连到连杆306-4。通常地,如图所示,连杆306-4可以基本上平行于手术器械114的插入轴线304。连杆306-5可滑动地耦连到连杆306-4,以如图所示,允许手术器械114安装到连杆306-5并沿连杆306-5滑动。
如上所述,机械臂112可以被配置成通过驱动安装架310安装到设置臂208(或与其连接的接头),以便由设置臂208支撑并保持在适当的位置。驱动安装架310可以可枢转地耦连到连杆306-1,并且可以包括第一内部马达(未明确示出),第一内部马达被配置成围绕中心点302的偏转轴线偏转机械臂112。以类似的方式,连杆306-2可以容纳第二内部马达(未明确示出),第二内部马达被配置成围绕中心点302的俯仰轴线驱动和俯仰机械臂112的联动装置。同样地,连杆306-4可以包括第三内部马达(未明确示出),第三内部马达被配置成沿插入轴线304滑动连杆306-5和手术器械114。机械臂112可以包括传动系统,传动系统由这些马达中的一个或多个马达驱动,以便以可以服务于特定实施方式的任何方式控制连杆306围绕接头308的枢转。因此,如果手术器械114将被机械地移动,那么耦连到传动系的马达中的一个或多个马达可以被接通以移动机械臂112的连杆306。
图4示出了外科医生控制台104的透视图。如图所示,外科医生控制台104可以包括立体观看器402、臂状支撑件404、在其内设置主控件116(图4中未示出)的控制器工作空间406、脚踏板408和头部传感器410。
在一些示例中,立体观看器402具有两个显示器,其中与患者108相关且由立体内窥镜生成的手术区域的立体3D图像可以由操作员(例如,外科医生110-1)在外科手术会话期间观看。当使用外科医生控制台104时,操作员可以移动他的或她的头部与立体观看器402对准,以观看手术区域的3D图像。为了确保当控制患者侧系统102的手术器械114时操作员正在观看手术区域,外科医生控制台104可以使用与立体观看器402相邻设置的头部传感器410。具体地,当操作员将他的或她的眼睛与立体观看器402的双目目镜对准以观看手术区域的立体图像时,操作员的头部可以激活头部传感器410,头部传感器能够通过主控件116控制手术器械114。当操作员的头部从立体观看器402的区域移除时,头部传感器410可以自动地停用,这可以防止通过主控件116控制手术器械114。以这种方式,当机器人外科手术系统100检测到操作员不在主动参与尝试控制手术器械114时,手术器械114的位置可以保持静止。
当操作员操纵主控件116以便控制机械臂112和/或手术器械114时,臂状支撑件404可以用于支撑操作员的肘部和/或前臂。另外地,操作员可以使用他的或她的双脚控制脚踏板408。脚踏板408可以被配置成改变机器人外科手术系统100的配置或操作模式,以生成用于控制手术器械114的附加控制信号,以促进从一个手术器械114到另一个手术器械的切换控制,或者以执行任何其他合适的操作。
图5示出了包括在机器人外科手术系统100内并位于与患者相关联的示例性手术区域处的示例性立体内窥镜500。立体内窥镜500可以是上面所述的手术器械114中的任何一个手术器械。
如图所示,立体内窥镜500可以包括具有被配置成插入患者体内的远侧尖端的管502和被配置成位于患者外部的摄像头504。管502可以在近端处耦连到摄像头504,并且如可以服务于特定实施方式,可以是刚性的(如图5中所示)、接合的和/或柔性的。
管502可以包括多个通道506(例如,右侧成像通道506-R、左侧成像通道506-L和照明通道506-I),多个通道被配置成在患者外部的手术区域和摄像头504之间传导光。每个通道506可以包括一个或多个光纤,一个或多个光纤被配置成沿管502传输光,使得在摄像头504内产生的光可以由照明通道506-I传输以在管502的远端处输出,并且在从患者解剖结构和/或手术区域内的其他对象反射之后由成像通道506-R和506-L从管502的远端传输回到摄像头504。在图5中的通道506内示出的箭头被描绘成指示光可以在每个通道内行进的方向。另外,将理解的是,管502可以与一个或多个透镜或其他合适的光学器件(未明确示出)相关联(例如,包括一个或多个透镜或其他合适的光学器件),以用于如可以服务于特定实施方式,聚集、扩散或以其他方式处理由通道506传输的光。在各种其他实施例中,可以有附加的成像通道和/或照明通道。在其他实施例中,一个或多个图像传感器和/或照明器可以更接近管502的远端定位,从而最小化或者甚至消除对通过管502的成像和/或照明通道的需要。
在一些示例中,立体内窥镜500可以耦连到机器人外科手术系统的机械臂(例如,机器人外科手术系统100的机械臂112中的一个机械臂),并且被定位成使得管502的远侧尖端被设置在患者的手术区域内。在此配置中,立体内窥镜500可以指位于手术区域处或手术区域内,即使立体内窥镜500的一部分(例如,摄像头504和管502的近侧部分)可以位于手术区域外部。虽然立体内窥镜500位于手术区域处,但是从手术区域反射的光可以由管502的远侧尖端捕获,并且通过成像通道506-R和506-L传输到摄像头504。
摄像头504可以包括被配置成促进立体内窥镜500的操作的各种部件。例如,如图所示,摄像头504可以包括图像传感器508(例如,与右侧成像通道506-R相关联的图像传感器508-R和与左侧成像通道506-L相关联的图像传感器508-L)。图像传感器508可以实施为任何合适的图像传感器,诸如电荷耦连器件(“CCD”)图像传感器、互补金属氧化物半导体(“CMOS”)图像传感器或诸如此类。另外,一个或多个透镜或其他光学器件可以与图像传感器508(未明确示出)相关联。摄像头504还可以包括照明器510,其被配置成产生光以经由照明通道506-I从摄像头504行进到手术区域,以便照明手术区域。
摄像头504还可以包括设置在其中的摄像机控制单元512。具体地,摄像机控制单元512-R可以通信地耦连到图像传感器508-R,并且摄像机控制单元512-L可以通信地耦连到图像传感器508-L。摄像机控制单元512可以通过通信链路514彼此同步地耦连,并且可以由软件和/或硬件实施,软件和/或硬件被配置成控制图像传感器508以便基于由图像传感器508感测的光来生成相应的图像516(即与右侧相关联的图像516-R和与左侧相关联的图像516-L)。因此,成像通道506、图像传感器508、摄像机控制单元512和相关联的器件的每个相应的组合可以统称为包括在立体内窥镜500内的摄像机。例如,立体内窥镜500可以包括两个此类摄像机,一个用于左侧,一个用于右侧。可以说,此类摄像机从在其相应的成像通道506的远端处的有利点捕获图像516。在由立体内窥镜500生成时,图像516可以由测量系统访问和/或另外以本文所述的任何方式使用。例如,图像516可以由测量系统使用,以测量在患者的手术区域内的距离。
为了说明,图6示出了被配置成使用由立体内窥镜生成的图像测量距离的示例性测量系统600(“系统600”)。如图所示,系统600可以包括但不限于,彼此选择性地且通信地耦连的立体图像捕获设备602、特征识别设备604、3D计算设备606和存储设备608。将认识到,尽管设备602至608在图6中被示出为单独的设备,但是设备602至608可以组合成更少的设备,诸如组合成单个设备,或者如可以服务于特定实施方式那样可以分成更多设备。设备602至608中的每个设备可以由硬件和/或软件的任何合适组合实施。
系统600可以以任何合适的方式与机器人外科手术系统100相关联。例如,系统600可以由机器人外科手术系统100实施,或者包括在机器人外科手术系统100内。为了说明,系统600可以由包括在患者侧系统102内的一个或多个计算装置、外科医生控制台104和/或视觉推车106实施。另外地或可替代地,系统600可以由立体内窥镜500、视觉推车106的显示监视器122、外科医生控制台104的立体观看器402、与用户界面(例如,触摸屏、计算机鼠标或其他用户输入装置等)相关联的一个或多个硬件部件和/或如可以服务于特定实施方式那样的任何其他部件。在一些示例中,系统600可以至少部分地由通信地耦连到机器人外科手术系统100但不包括在机器人外科手术系统100中的一个或多个计算装置(例如,通过网络通信地耦连到机器人外科手术系统100的一个或多个服务器)实施。
立体图像捕获设备602可以被配置成访问由位于与患者相关联的手术区域处的立体内窥镜捕获的图像。例如,在某些实施方式中,立体图像捕获设备602可以访问由包括在位于手术区域处的立体内窥镜内的第一摄像机从第一有利点捕获的第一图像(例如,图像516-L)和由包括在立体内窥镜内的第二摄像机从对于第一有利点立体的第二有利点捕获的第二图像(例如,图像516-R)。
立体图像捕获设备602可以以任何合适的方式访问图像。例如,立体图像捕获设备602可以并入立体内窥镜500,并且可以通过使用包括在立体内窥镜500内的第一摄像机和第二摄像机从相应的立体有利点(例如,在成像通道506-L和506-R的相应端部处)捕获图像来访问图像。在其他实施方式中,立体图像捕获设备602不可以并入立体内窥镜500,但是可以通过从立体内窥镜500接收图像516来访问图像516。
特征识别设备604可以被配置成(例如,从系统600的用户)接收用户输入,用户输入指定与如第一图像中表示的手术区域内的特征部对应的用户选择的2D端点。特征识别设备604还可以被配置成基于用户选择的2D端点,识别与如第二图像中表示的特征部对应的匹配的2D端点。下面将更详细地描述这些操作中的每个操作。
如本文所用,“2D端点”可以指包括在2D图像内并且限定至少两个端点的一个端点的像素或连续像素组,其中在至少两个端点之间进行3D测量。例如,如本文所用,“用户选择的2D端点”可以指用户在特定2D图像上手动选择的2D端点,而对应的“匹配的2D端点”可以指被自动地识别为在不同2D图像上与用户选择的2D端点对应的2D端点,其中不同2D图像对于特定2D图像是立体的。用户选择的2D端点和对应的匹配的2D端点的示例将在下面更详细地描述和示出。
3D计算设备606可以被配置成基于由特征识别设备604确定或识别的用户选择的2D端点和匹配的2D端点来限定与手术区域内的特征部对应的3D端点,其中手术区域内的特征部还与用户选择的2D端点和匹配的2D端点对应。3D计算设备606还可以被配置成确定从限定的3D端点到与手术区域内的附加特征部对应的附加3D端点的距离。附加3D端点可以基于附加用户选择的2D端点得出,或者可以以将在下面更详细描述的另一个合适的方式确定或选择。由3D计算设备606执行的操作中的每个操作将在下面更详细地描述。
如本文所用,“3D端点”可以指相对于特定参考系(诸如与系统600、立体内窥镜500或类似物相关联的全局坐标系)的3D空间中的点或位置。如上所述,3D端点可以基于2D端点得出。然而,与仅可存在于特定图像的上下文内的2D端点不同,3D端点可以限定空间中的真实点的三个维度。因此,尽管2D端点可以与特定的2D图像相关联,但是3D端点可以与包括在由特定2D图像表示的手术区域中的真实对象的解剖特征部或其他特征部相关联。
在特定实施方式中,存储设备608可以存储并维持由设备602至606接收、生成、管理、维持、使用和/或传输的任何数据。例如,存储设备608可以存储用于执行其中描述的操作的程序指令(例如,计算机代码)、图像数据、运动学数据、用户输入数据、3D位置数据和/或如可以服务于特定实施方式的任何其他数据。
现在将提供由系统600执行的距离测量操作的各种示例。将认识到,本文提供的示例仅是说明性的,并且系统600可以执行如可以服务于特定实施方式的附加的或可替代的操作。还将认识到,系统600可以在外科手术会话期间的任何时间进行测量。例如,虽然本文所述的许多示例性测量被描述为术中(即在外科手术程序期间)执行,但是各种测量可以术前(例如,确定肿瘤大小以准备切除)或术后(例如,确保从肿瘤切除的火山口的大小匹配预期的术前大小)进行。
图7示出了如由包括在立体内窥镜500内的摄像机从立体有利点捕获的与患者相关联的手术区域的示例性图像702(即图像702-L和702-R)。例如,图像702-L和702-R可以分别实现上述图像516-L和516-R。如图所示,每个图像702示出了要测量的疝气704的表示图,使得例如网状贴片可以切成适当的大小,以适当地修补疝气704。
如图所示,图像702是相对地彼此类似。然而,将理解的是,由于从其捕获每个图像702的有利点的立体性质,细微差异也存在于图像702之间。因此,当图像702-L呈现给用户(例如,外科医生110-1)的左眼,而图像702-R呈现给用户的右眼时,图像702可以看起来是三维的。
与图像516一样,图像702中的一个或两个可以由系统600以任何合适的方式和/或在任何合适的显示屏上显示或呈现。例如,图像702中的一个或两个可以在视觉推车106的显示监视器122上、在外科医生控制台104上的立体观看器402上、在由立体内窥镜500提供的单视场显示器上和/或在与机器人外科手术系统100或系统600相关联的任何其他显示屏上显示。
为了测量在图像702中显示的特征部之间的距离(例如,疝气704的边缘之间的距离)或在图像702中显示的特征部和当前未显示在图像702中的附加特征部之间的距离,用户可以与图像702中的一个或两个交互,以指定与(一个或多个)特征部对应的一个或多个用户选择的2D端点。
为了说明,图8示出了由用户在图像702-L上指定的示例性用户选择的2D端点800。虽然图像702-L在图8中示出,但是将认识到,用户选择的2D端点800可以可替代地由用户在图像702-R上指定。用户选择的2D端点800可以对应于特定的特征部。如本文所用,其中端点(例如,2D端点或3D端点)对应的“特征部”可以指手术区域内的解剖结构或其他对象的特定部件、点、或其他特征部。例如,用户选择的2D端点800对应的特征部是疝气704的边缘的特定部分(在图8的右手侧上放大,以更详细地示出该特征部)。用户选择的2D端点800可以包括多个像素,多个像素可以共同描绘对应的特征部,从而使得当在图像702-R内搜索时特征部可以是可识别的,如将在下面更详细地描述。
系统600可以接收指定用户选择的2D端点800的任何合适类型的用户输入,并且可以以各种方式促进此类用户输入的输入。例如,通过提供图像702-L用于在与系统600通信地耦连的单视场显示屏上显示并且在用户输入由与显示屏相关联的用户界面检测时接收用户输入,系统600可以接收指定用户选择的2D端点800的用户输入。例如,系统600可以在视觉推车106的显示监视器122上显示图像702-L,该显示监视器122可以实现被配置成从用户(例如,外科手术团队成员110中的任何一个)接收触摸输入的触摸屏。通过触摸触摸屏上与显示在图像702-L内的期望的特征部(例如,疝气704的边缘)对应的位置,用户可以提供用户输入。
作为如何可以接收指定用户选择的2D端点800的用户输入的另一个示例,系统600可以提供图像702-L用于在与系统600通信地耦连的一立体对的显示屏中的每个显示屏上显示,并且在用户输入被与立体对的显示屏相关联的用户界面检测到时,系统600可以接收用户输入。例如,系统600可以被配置成当请求指定用户选择的2D端点800的用户输入时在立体观看器402的两侧上显示相同图像702(例如,在一个示例中,图像702-L),而不是引导图像702-L显示在外科医生控制台104的立体观看器402的左侧显示屏上并且引导图像702-R显示在外科医生控制台104的立体观看器402的右侧显示屏上以便向外科医生提供手术区域的3D视图。以这种方式,系统600可以暂时地提供手术区域的2D视图,以允许外科医生110-1将指针对象(例如,光标)移动到所复制的图像702上的期望点,并且从而指定用户选择的2D端点800。
用户选择的2D端点800可以由外科医生以其他合适的方式使用立体观看器指定。例如,作为一个示例,立体观看器的一侧可以暂时地避免显示图像702(例如,图像702-R),而用户选择的2D端点800使用在另一图像702(例如,图像702-L)上呈现的指针对象指定。作为另一示例,两个图像702-L和702-R可以呈现在正常的立体视图中(即在3D模式下),并且指针对象可以看起来像是在立体内窥镜前方的特定距离处悬浮在组织上方,直到用户选择的2D端点800被选择,在用户选择的2D端点800处光标可以看起来像是在如同限定了对应的3D端点的适当深度(如下面将描述)处“落”到组织上。另外地,作为又一示例,图像702-L和702-R可以呈现在正常的立体视图中,并且用户可以选择使用3D光标的点。然后,这个选择的点在图像中的一个图像(例如,图像702-L)上的投影可以用作用户选择的2D端点800。
在一些示例中,用户选择的2D端点(例如,用户选择的2D端点800)的指定可以作为离散事件执行,诸如触摸手势、按钮按下、鼠标点击、按钮释放(例如,以结束从一个用户选择的2D端点到另一个用户选择的2D端点的拖动动作)或诸如此类。例如,系统600可以通过以下操作来接收用户输入:提供图像702-L用于在与系统600通信地耦连的显示屏(例如,立体观看器402、显示监视器122等)上显示,提供与显示屏相关联的并且包括被配置成由用户移动到显示屏上的任何点的指针对象的用户界面,以及接收将用户选择的2D端点指定为显示屏上用户已经将指针对象所移动到的特定点的离散用户选择的用户输入。
在其他示例中,当指针对象(例如,光标)在显示屏内移动而无任何附加的用户选择动作(即无诸如按钮按下、鼠标点击等动作)时,可以动态地执行用户选择的2D端点的用户选择。换句话说,在某些实施方式中,在用户在显示器上移动指针对象时,可以自动地选择用于许多不同的潜在测量的许多用户选择的2D端点。例如,以这种方式,指针对象可以在立体观看器402的两侧中动态地更新,以便看起来沿3D的组织的表面移动。
一旦用户选择的2D端点800已经由用户以这些方式或其他合适的方式中的任何方式在图像702中的一个图像(例如,图像702-L)内指定,系统600就可以识别在另一图像(例如,图像702-R)内的与对应于用户选择的2D端点800的相同特征部(即在此示例中,疝气704的边缘的相同部分)对应的匹配的2D端点。
为了说明,图9示出了示例性匹配的2D端点900,该匹配的2D端点900被识别为对应于手术区域内的与用户选择的2D端点800相同的特征部。如上所述,系统600可以响应于诸如屏幕的触摸或按钮按下等离散事件,或者(例如,在指针对象围绕图像702-L移动时)自动地基于用户选择的2D端点800,来识别匹配的2D端点900,以便提供如上所述沿组织移动的3D指针对象的外观。
在某些示例中,立体内窥镜500的摄像机可以被校准成完美地矫正(即在平行方向上指向)。在此类示例中,匹配的2D端点900可以位于图像702-R内的特定像素行(即与用户选择的2D端点800所在的图像702-L的像素行对应的像素行)上的特定范围的像素列内。相比之下,在其他示例中,立体内窥镜500的摄像机可以不被矫正,但是可以被配置成例如以标称工作深度(例如,距立体内窥镜500的远侧尖端约50毫米)朝向目标区域稍微向内指向。在这些示例中,匹配的2D端点900可以位于矩形区域902内的某个地方,矩形区域跨越图像702-R内的特定范围的像素列和像素行。
包括在特定行或特定范围的行上的列的范围内的像素可以限定多个候选像素块,其中一个候选像素块可以基于与用户选择的2D端点800的强匹配由系统600识别为匹配的2D端点900。更具体地,如果用户选择的端点800被实现为包括第一数量的行和第一数量的列的像素块,系统600可以以下面的方式识别匹配的2D端点900。
首先,系统600可以识别图像702-R内的矩形区域902(即其中预期用于用户选择的2D端点800的匹配的2D端点的区域)。矩形区域902可以以任何合适的方式被识别。例如,系统600可以基于立体内窥镜的校准(例如,摄像机的固有参数、摄像机的目标或实际对准等)、当捕获图像702时立体内窥镜500接近组织的接近程度(例如,基于如下面更详细地描述的运动学数据或其他数据确定)和/或如可以服务于特定实施方式的任何其他合适的信息,来识别矩形区域902。
如图9中所示,矩形区域902可以被识别为包括多个候选像素块的相对宽且短的区域,每个候选像素块包括第一数量的行和第一数量的列。在一些示例中,矩形区域902可以包括比第一数量的行更大的第二数量的行(使得矩形区域902高于用户选择的2D端点800)和比第一数量的列更大的第二数量的列(使得矩形区域902宽于用户选择的2D端点800)。矩形区域902中包括的第二数量的列可以比第二数量的行大至少两倍,使得矩形区域902具有短且宽的形状,如图9中所示。
一旦识别矩形区域902,系统600就可以分析矩形区域902内包括的多个候选像素块中的候选像素块,以向每个分析的候选像素块分配相对于用户选择的2D端点800的相应相似性度量(similarity metrics)。基于此分析,系统600可以将从分配给多个候选像素块的所有相似性度量中分配最高相似性度量的特定候选像素块识别为匹配的2D端点900。
为了说明,图10示出了在图像702-L内的用户选择的2D端点800和在图像702-R中的矩形区域902内的匹配的2D端点900的放大的像素级视图。具体地,用户选择的2D端点800被示为标记为1至9的3×3像素块,而矩形区域902被示为标记为1至102的17×6像素块。在下面的描述中,图像702-L内包括的像素(即用户选择的2D端点800中的像素)将称为像素1L、2L、3L以此类推,而图像702-R内包括的像素(即矩形区域902中的像素)将称为像素1R、2R、3R以此类推。图10中的每个像素被示出为白色、黑色或阴影的,以表示像素可与其相关联的不同颜色值、灰度值等。然而,将理解的是,图10中的像素的阴影意在帮助描述图10,并且因此,如图像702-L和702-R中所示,可以不与解剖结构对准。
如上所述,系统600可以在图像702-R内限定矩形区域902,以便保证匹配的2D端点900包含在矩形区域902内的某些地方。然而,可能需要进行分析,以确定匹配的2D端点900位于的矩形区域902内的确切位置。出于说明的目的,图10示出了作为与用户选择的2D端点800的完美匹配的匹配的2D端点900(即包括像素30R-32R、47R-49R和64R-66R)。然而,将理解的是,使用包括复杂细节和调色板的真实图像,此类完美的匹配可能不太可能找到。相反,系统600可以被配置成分析矩形区域902内包括的每个候选像素块,以识别与用户选择的2D端点800最接近的匹配的像素块。为此,系统600可以分析多个候选像素块1002(例如,候选像素块1002-1-1、1002-1-5、1002-2-13和未明确标记的其他候选像素块)。
基于如沿矩形区域902的侧面标记的左上像素的行数和列数,可以在本文参考矩形区域902中的每个候选像素块1002。例如,在矩形区域902的左上角中的候选像素块1002是指候选像素块1002-1-1,这是由于其左上像素(即像素1R)在第1行和第1列的位置;标记为候选像素块1002-1-1的右侧几列的候选像素块是指候选像素块1002-1-5,这是由于其左上像素(即像素5R)在第1行第5列的位置,依此类推。
系统600可以分析每个候选像素块1002,并且基于每个候选像素块1002与用户选择的2D端点800的相似程度来为每个候选像素块1002分配特定相似性度量。例如,通过以按顺序的、并行的或其他合适的方式分析候选像素块,系统600可以向矩形区域902中包括的每个候选像素块分配相似性度量。此类相似性度量可以根据任何合适的像素比较技术计算和分配。例如,在一个技术中,系统600可以使相似性度量基于在个体候选像素块中的每个像素和用户选择的2D端点800中的对应像素之间的绝对差(例如,颜色值差)的求和。例如,通过比较像素1L和5R以确定它们是相同的(即因为它们均是白色的),比较像素2L和6R以确定它们是非常不同的(即因为一个是白色,而另一个是黑色),比较像素4L和22R以确定它们在某种程度上不同(即因为一个是阴影的,另一个是黑色的)以此类推,系统600可以比较候选像素块1002-1-5与用户选择的2D端点800。基于所有此类对应像素对之间的差的总和,系统600可以向候选像素块1002-1-5分配相对低的相似性度量,因为用户选择的2D端点800和候选像素块1002-1-5彼此不是特别类似(即没有很好的匹配)。然而,当系统600对候选像素块1002-2-13(即比较像素1L和30R、像素2L和31R等)执行类似的分析时,系统600可以向候选像素块1002-2-13分配相对高的相似性度量,因为候选像素块1002-2-13和用户选择的2D端点800之间没有差异,从而构成良好的匹配。如果此类相似性度量与任何其他分配的相似性度量一样高或者高于任何其他分配的相似性度量,则系统600可以识别像素块1002-2-13为与用户选择的2D端点800对应的匹配的2D端点900。出于此原因,候选像素块1002-2-13也标记为匹配的2D端点900。
除了上述绝对差之和以外的其他技术也可以在某些实施方式中使用。例如,在一些实施方式中,系统600可以使所计算的相似性度量基于每个个体候选像素块1002中的每个像素1000-R和用户选择的2D端点800的像素块的每个对应像素1000-L之间的平方差之和。在相同的或其他实施方式中,系统600可以使所计算的相似性度量基于每个个体候选像素块1002中的每个像素1000-R和用户选择的2D端点800的像素块的每个对应像素1000-L之间的标准化互相关。在其他示例中,系统600可以基于数据转换技术(例如,census变换、秩变换等)、筛选描述符、梯度(即水平梯度和垂直梯度之间的绝对差之和)或如可以服务于特定实施方式的任何其他技术来计算相似性度量。另外地,在一些示例中,可以采用本文所述的技术中的两种技术或更多种技术的组合。例如,在一个示例性实施方式中,系统600可以使所计算的相似性度量基于绝对差之和以及census变换。
一旦特定的候选像素块1002(诸如候选像素块1002-2-13)已经识别为与用户选择的2D端点800最匹配,期望的是确定与此候选像素块是准确且唯一匹配这种可能性相关联的客观置信度水平。然后,此置信度水平可以用于帮助限定(或确定是否值得限定)与相同特征部对应的3D端点。例如,如果确定最可能的匹配具有准确且唯一的匹配的相对低的可能性,则期望的是,系统600避免基于低置信度端点确定测量并向用户指示不可以基于所指定的用户选择的2D端点执行测量并且用户必须指定另一个用户选择的2D端点或者基于低置信度端点的测量经受相对高的误差。
与特定匹配(即识别为匹配的2D端点的特定候选像素块)相关联的匹配置信度水平可以以任何合适的方式确定。例如,在匹配的2D端点900的识别之后,系统可以基于匹配的2D端点900来识别与如图像702-L中表示的相同特征部对应的反向匹配的2D端点。换句话说,系统600可以执行如上所述的从图像702-R到图像702-L的相同过程(例如,识别矩形区域,为矩形区域内的每个候选像素块分配相似性度量等),以识别在图像702-L内的反向匹配的2D端点(即用于候选像素块1002-2-13的最好匹配)。因此,系统600可以基于用户选择的2D端点和反向匹配的2D端点来确定用于匹配的2D端点的匹配置信度值。例如,如果反向匹配的2D端点与用户选择的2D端点800对准或者非常接近用户选择的2D端点800,则匹配置信度值可以是相对高的,然而如果反向匹配的2D端点不是特定地在用户选择的2D端点800附近,则匹配置信度值可以是相对低的。
除了以此方式确定用户选择的2D端点和匹配的2D端点之间的双向一致性,还可以使用其他技术确定置信度水平。例如,在用户选择的2D端点和匹配的2D端点周围的局部邻近一致性还可以指示正确识别匹配的2D端点的可能性。具体地,可以比较在用户选择的2D端点和匹配的2D端点周围的若干点,以确保视差估计在所述点之间是一致的。
在一些示例中,可以基于识别为用户选择的2D端点的最接近匹配(“最好匹配”)的第一候选像素块比识别为用户选择的2D端点的第二最接近匹配(“第二最好匹配”)的第二候选像素块更匹配的程度,计算匹配置信度值。例如,如果每个相似性度量被标准化使得0表示无相似性且1表示完美相似性,则置信度匹配值可以计算为1和第二最高相似性度量与最高相似性度量的商之间的差。以这种方式,如果一个候选像素块以明显的最佳匹配脱颖而出(即因为它具有比第二最佳匹配更高的相似性度量),商将接近0并且匹配置信度值将是高的(即接近1)。相反地,如果最高相似性度量是相同的或者仅稍微优于第二最高相似性度量(从而指示无特定匹配以明显的最佳匹配脱颖而出),商将是1或者接近1,并且匹配置信度值将是低的(即,接近0)。此匹配置信度值或以另一个合适的方式计算的类比值可以用于以本文所述的任何方式限定3D端点(或者确定是否全部限定3D端点)。
如上所述,在一些示例中,不期望的是,基于用户选择的2D端点和与合适的高置信度不匹配的对应的匹配的2D端点来限定3D端点。例如,此类3D端点可以是不准确的且导致不准确的测量的风险可以使得除作出不准确测量的风险以外,系统600优选完全避免作出测量。在此类示例中,系统600可以指示不能为用户识别具有合适的高置信度水平的匹配,并且允许用户再次尝试指定用户选择的2D端点,为其成功地识别对应的匹配的2D端点。另外地或可替代地,在此类情况下,系统600可以被配置成自动地指定用户选择的2D端点附近的2D端点(例如,与可更容易识别的特征部对应的2D端点),并且自动地重新尝试识别匹配的2D端点。
具体地,例如,系统600可以基于用户选择的2D端点识别第一匹配的2D端点,并且可以确定用于第一匹配的2D端点的匹配置信度值低于预定的置信度阈值。因此,系统600可以(例如,基于用户选择的2D端点并响应于匹配置信度值低于预定的置信度阈值这一确定)识别与特征部对应的替换2D端点。该替换2D端点可以不同于用户选择的2D端点,但是可以与用户选择的2D端点相关(例如,紧邻用户选择的2D端点)。然后,系统600可以识别与如第二图像中表示的特征部对应的第二匹配的2D端点。此识别可以是基于用户选择的2D端点,在某种意义上说,它是基于替换2D端点,替换2D端点本身是基于用户选择的2D端点识别的。然后,系统600可以通过基于替换2D端点限定3D端点,来限定与基于用户选择的2D端点的特征部对应的3D端点,其中替换2D端点是基于用户选择的2D端点识别的。
如上面讨论,本文所述的系统和方法可以通过使用立体内窥镜而不是例如仅用于手术器械的运动学数据来测量距离,而提供便利性和准确性的各种优点。然而,在某些实施方式中,运动学数据可以与内窥镜图像数据结合,以进一步提高诸如系统600等解剖测量系统的准确性。例如,系统600可以通过跟踪位于手术区域处的一个或多个手术器械(例如,手术器械114中的一个或多个,诸如立体内窥镜500)的运动学,来识别匹配的2D端点。系统600可以使用所跟踪的运动学来识别矩形区域902且/或分析候选像素块1002,以便为候选像素块1002分配相似性度量。
为了说明,图11示出了立体内窥镜500以及在包括疝气704的手术区域内的手术器械1102-1至1102-3的侧视图1100。立体内窥镜500可以包括上述部件中的任何部件(其中的许多部件在视图110中未明确示出),并且手术器械1102可以实现本文所述的手术器械中的任何手术器械(例如,手术器械114)。
由于可以在运动链的长度上引入和积累的固有误差,不可能仅基于运动学数据确定用于立体内窥镜500的远侧尖端的精确位置。然而,与立体内窥镜500耦连的机械臂的跟踪的运动学数据可以为系统600提供足够的数据,以至少确定立体内窥镜500的远侧尖端的近似位置。例如,仅基于跟踪的运动学数据,可以确定远侧尖端位于区域1104内的某个地方。另外地,虽然仅运动学数据不可以指示每个手术器械1102设置的精确位置,但是与每个手术器械1102耦连的相应机械臂的跟踪的运动学数据可以指示手术器械1102未移动超过的边界1106。然而,因为尚未检测到手术器械1102超过边界1106,可以假定边界1106至少近似于手术区域内的组织表面,尤其是随着外科手术会话的进行,边界1106变得越来越清晰,并且跟踪和采集了更多的运动学数据。
通过限定和跟踪表示区域1104、边界1106和/或其他此类指示的运动学数据,系统100可以更准确地和成功地使用上述技术将用户选择的2D端点匹配到匹配的2D端点。例如,唯一基于区域1104和边界1106之间的关系(即仅基于跟踪的运动学数据),系统600可以近似计算在任何特定时间处立体内窥镜500距疝气704的表面多远。此信息可以又用于帮助确定要搜索匹配的2D端点的矩形区域的大小,以匹配到特定的用户选择的2D端点。例如,基于区域1104和边界1106之间的距离,系统600可以能够减小矩形区域的大小,而不排除其中可能找到匹配的2D端点的任何区域。这可以帮助避免假阳性匹配(false positive match)并且可以提高效率,因为系统600可以具有较少候选像素块以在较小的矩形区域内分析。另外地或可替代地,由区域1104和边界1106表示的运动学数据可以用于以其他方式消除假阳性匹配,以增加或减少分配给所识别的匹配的匹配置信度值,或者以其他方式促进系统600有效地识别可能用于给定的用户选择的2D端点的最准确的匹配的2D端点。
在一些示例中,基于由立体内窥镜500检测的图像确定的信息可以帮助验证或校正已经基于所跟踪的运动学数据确定的估计的器械或解剖结构位置。例如,虽然区域1104和/或边界1106可以仅基于运动学数据确定,但是区域1104可以更小和更准确,并且基于从由立体内窥镜500捕获的图像得出的数据,可以使边界1106更紧密地符合实际的组织表面。因此,在某些示例中,由系统600基于立体内窥镜500确定的信息可以反馈到运动学跟踪系统中,以校正和/或提高正在跟踪的原始运动学数据的精确性。
在用户选择的2D端点的用户指定和以上述方式中的任何方式与用户选择的2D端点对应的匹配的2D端点的成功识别之后,系统600可以基于用户选择的2D端点和匹配的2D端点限定3D端点。3D端点的限定可以以任何合适的方式执行,诸如通过使用基于极线几何的三角测量技术执行。
图12示出了与特征部1204对应的3D端点1202(即由“X”形状表示)的示例性限定。例如,3D端点1202的限定可以基于2D端点1206(例如,用户选择的2D端点1206-L和对应的匹配的2D端点1206-R)。图12示出了形式“(x,y,z)”的各种坐标,以示出相对于坐标系(例如,与机器人外科手术系统100相关联的全局坐标系、与立体内窥镜相关联的局部坐标系或类似物)的3D位置。例如,在(xL,yL,zL)处的有利点1208-L可以表示立体内窥镜的左侧摄像机从其捕获左侧图像1210-L的已知位置,并且在(xR,yR,zR)处的有利点1208-R可以表示立体内窥镜的右侧摄像机从其捕获右侧图像1210-R的已知位置。在(xP,yP,zP)处的3D端点1202可以表示系统600基于有利点1208-L和1208-R的已知位置和基于在图像1210-L和1210-R两者中表示的特征部1204的相应表示限定的3D端点。具体地,如图所示,用户选择的2D端点1206-L可以将特征部1204标记在图像1210-L的2D坐标(nL,mL),而匹配的2D端点1206-R可以将特征部1204标记在图像1210-R的2D坐标(nR,mR)。
在图像1210-L和1210-R中还被识别的是可以表示相对有利点1208的位置的在每个图像1210内的相应极点eL和eR。相应极点的相对位置以及限定左侧摄像机和右侧摄像机的其他合适的固有参数或外部参数(例如,有利点1208之间的距离、每个摄像机的焦点等)可以在校准过程期间或以任何其他合适的方式确定。然而,基于有利点1208的已知位置及其相对于彼此的关系以及2D端点1206-L和1206-R在图像1210-L和1210-R上的位置,系统600可以使用常规极线几何来三角测量3D端点1202的位置。
使用上述操作和/或任何其他合适的操作,用户选择的2D端点可以匹配到立体匹配的2D端点,并且三角测量以限定对应的3D端点,诸如3D端点1202。一旦限定了至少两个此类3D端点,系统600就可以在限定3D端点的坐标系内计算从一个3D端点到另一个3D端点的空间距离。
虽然上面已经详细地描述了用于选择和得出第一3D端点的操作,但是将理解的是还必须限定附加3D端点,以便确定从第一3D端点(例如,3D端点1202)到附加3D端点的距离。为此,附加3D端点可以以任何合适的方式限定。例如,系统600可以以限定第一3D端点的相同方式限定附加3D端点。也就是说,系统600可以(例如,从提供指定第一用户选择的2D端点的用户输入的相同用户)接收指定与如图像702-L中表示的附加特征部对应的附加用户选择的2D端点的用户输入,(例如,基于附加用户选择的2D端点)识别与如图像702-R中表示的附加特征部对应的附加匹配的2D端点,并且(例如,基于附加用户选择的2D端点和附加匹配的2D端点)限定与附加特征部对应的附加3D端点。这些操作中的每个操作可以以本文描述的任何方式执行。
在其他示例中,可以以不同的方式选择或限定附加3D端点。具体地,例如,附加3D端点可以与已知位置的位置相关联,与诸如手术器械的位置、内窥镜的位置、坐标系的原点或类似物相关联。因此,在这些示例中,用户可以不必要基于2D图像中呈现的特征部指定附加用户选择的2D端点。相反,用户可以指示附加3D端点以任何合适的方式对应于特定手术器械、内窥镜、原点或其他已知位置。
为了说明,图13示出了可以在其间确定一个或多个距离的示例性3D端点1302(例如,3D端点1302-1至1302-6)。如图13中所示,基于图像702-L内的用户选择的2D端点800限定的第一3D端点1302-1可以被定位在疝气704的第一边缘处。一旦第一3D端点1302-1基于用户选择的2D端点800限定,就可以确定从3D端点1302-1到由3D端点1302-2至1302-6表示的任何附加3D端点的距离。例如,通过确定3D端点1302-1与3D端点1302-2和1302-3之一之间的距离,可以确定从疝气704的一个边缘到另一个边缘的距离。
在其他示例中,与附加3D端点1302对应的附加特征部可以是非解剖特征部(即不是患者的解剖结构的一部分的手术区域内包括的特征部)。例如,3D端点1302-4可以与手术器械1104-1的尖端相关联,该尖端当前未在图像702-L内表示,但是可以仍然在手术区域内。作为另一个示例,3D端点1302-5可以与手术器械1104-2的尖端相关联,该尖端在图像702-L内表示。作为又一示例,3D端点1302-6可以与立体内窥镜500的尖端(描绘为围绕图像702-L的虚线)相关联。在与3D端点对应的非解剖特征部不在图像702-L内表示(例如,用于与3D端点1302-4和1302-6对应的特征部)的示例中,运动学数据可以用于确定3D端点1302的坐标。运动学数据和/或内窥镜图像数据可以用于确定在图像702-L内表示的非解剖特征部的坐标,诸如3D端点1302-5的坐标。
在要确定从解剖特征部到诸如悬浮在解剖特征部上方的手术器械1104的非解剖特征部的距离的示例中,测量两个3D端点之间的直接点对点距离可能是有用的。然而,在各种其他示例(诸如涉及与两个解剖特征部相关联的3D端点的示例)中,可能期望的是,沿组织的轮廓(即,不是直接穿过组织)测量从一个3D端点到另一个3D端点的轮廓距离。例如,在测量跨过疝气704的距离使得网状贴片可以切成适当大小的上述示例中,可能期望的是确定沿疝气704的表面跨过疝气704的距离而不是确定直接穿过疝气704的距离。
为了说明,图14示出了可以如何估计从一个3D端点到附加3D端点的轮廓距离的示例性方面。具体地,如侧视图1400中所示,3D端点1402-1和1402-2(共同地称为“3D端点1402”)可以位于疝气704的相对边缘处。例如,3D端点1402-1可以实现3D端点1302-1,而3D端点1402-2可以实现3D端点1302-2或1302-3中的一个。在图14中,在3D端点1402之间画出直接点对点距离1404,直接地穿过疝气704的组织。虽然点对点距离1404在某些上下文中可以是有用的,但是用于为网状贴片设计尺寸以覆盖疝气704可能不是理想的距离,因为网状贴片将需要覆盖疝气704的表面。因此,确定在疝气704的表面上的距离可以是期望的,在疝气704的表面上的距离在本文可以称为在组织上的“轮廓距离”。
为了确定此轮廓距离,系统600可以自动地识别在3D轮廓上的一个或多个3D中点1406(例如,3D中点1406-1至1406-3和/或未明确示出的附加3D中点),3D轮廓将3D端点连接到附加3D端点并且沿3D端点和附加3D端点均设置在其上的物理表面(即,疝气704的外表面)行进。然后,系统600可以基于3D中点1406确定用于从3D端点1402-1至3D端点1402-2的线性分段路线的每个分段的中间距离1408(例如,中间距离1408-1至1408-4),线性分段路线穿过每个相邻3D中点1406,以便基本上遵循3D端点1402之间的3D轮廓。基于中间距离1408,系统600可以将从3D端点1402-1到3D端点1402-2的轮廓距离计算为中间距离1408之和。中间距离1408之和可以提供用于准确轮廓距离的估计,准确轮廓距离随着更多3D中点1406和更多中间距离1408被限定而变得更准确。
在一些示例中,用户可以手动地限定3D中点1406(例如,通过点对点选择2D端点),或者可以限定沿其限定3D中点1406的2D线。例如,触摸屏可以用于沿触摸屏上呈现的解剖结构画出线(例如,从疝气704的一侧到其另一侧),以指定用户选择的2D端点以及在它们之间的中点。当以这种方式或以另一种合适的方式(例如,由系统600自动地)指定中点时,系统600可以通过估计沿通过中点连接端点的组织轮廓的距离来估计端点之间的轮廓距离。在其他示例中,可以采用其他类型的用户界面,诸如基于指针的界面,以实现类似的结果。
图15示出了用于使用立体内窥镜测量距离的示例性方法1500。虽然图15示出了根据一个实施例的示例性操作,其他实施例可以省略、添加到、重新排序和/或修改图15中所示的任何操作。图15中所示的操作中的一个或多个操作可以由测量系统,诸如系统600、本文包括的任何部件和/或其任何实施方式执行。
在操作1502中,测量系统可以访问第一图像。例如,所访问的第一图像可以由在位于与患者相关联的手术区域处的立体内窥镜内包括的第一摄像机从第一有利点捕获。操作1502可以以本文所述的任何方式执行。
在操作1504中,测量系统可以访问第二图像。例如,所访问的第二图像可以由立体内窥镜内包括的第二摄像机从第二有利点捕获。第二有利点可以对于第一有利点是立体的,其中第一图像由第一摄像机从第一有利点捕获。操作1504可以以本文所述的任何方式执行。
在操作1506中,测量系统可以接收用户输入,用户输入指定与如第一图像中表示的手术区域内的特征部对应的用户选择的2D端点。例如,测量系统可以从测量系统的用户(诸如与对患者执行的外科手术程序相关的外科手术团队的成员)接收用户输入。操作1506可以以本文所述的任何方式执行。
在操作1508中,测量系统可以识别与如第二图像中表示的特征部对应的匹配的2D端点。例如,测量系统可以基于确定在操作1506中已经由用户指定的用户选择的2D端点来识别匹配的2D端点。操作1508可以以本文所述的任何方式执行。
在操作1510中,测量系统可以限定与手术区域内的特征部对应的3D端点。例如,测量系统可以基于确定在操作1506中指定的用户选择的2D端点和在操作1508中识别的匹配的2D端点来限定3D端点。操作1510可以以本文所述的任何方式执行。
在操作1512中,测量系统可以确定从3D端点到与手术区域内的附加特征部对应的附加3D端点的距离。操作1512可以以本文所述的任何方式执行。
在某些实施例中,本文所述的系统、部件和/或过程中的一个或多个可以由一个或多个适当配置的计算装置实现和/或执行。为此,上面描述的系统和/或部件中的一个或多个可以包括任何计算机硬件和/或在至少一个非暂时性计算机可读介质上包含的计算机实施的指令(例如,软件)或者由其实现,至少一个非暂时性计算机可读介质被配置成执行本文所述的过程中的一个或多个过程。特别地,系统部件可以在一个物理计算装置上实现,或者可以在一个以上的物理计算装置上实现。因此,系统部件可以包括任何数量的计算装置,并且可以采用多种计算机操作系统中的任何一种。
在某些实施例中,本文所述的过程中的一个或多个过程可以至少部分地实现为包含在非暂时性计算机可读介质中并且由一个或多个计算装置可执行的指令。通常地,处理器(例如,微处理器)从非暂时性计算机可读介质(例如,存储器等)接收指令,并且执行那些指令,从而执行一个或多个过程,包括本文所述的过程中的一个或多个过程。此类指令可以使用各种已知计算机可读介质中的任何一个进行存储和/或传输。
计算机可读介质(还称为处理器可读介质)包括参与提供可由计算机(例如,由计算机的处理器)读取的数据(例如,指令)的任何非暂时性介质。此类介质可以采取许多形式,其包括但不限于非易失性介质和/或易失性介质。例如,非易失性介质可以包括光盘或磁盘和其他永久性存储器。例如,易失性介质可以包括通常构成主存储器的动态随机存取存储器(“DRAM”)。例如,计算机可读介质的常见形式包括磁盘、硬盘、磁带、任何其他磁介质、光盘只读存储器(“CD-ROM”)、数字化视频光盘(“DVD”)、任何其他光学介质、随机存取存储器(“RAM”)、可编程只读存储器(“PROM”)、电可擦除可编程只读存储器(“EPROM”)、闪速电可擦除可编程只读存储器(FLASH-EEPROM)、任何其他存储芯片或盒式磁带或计算机可以从其读取的任何其他有形介质。
图16示出了可以具体地配置成执行本文所述的过程中的一个或多个过程的示例性计算装置1600。如图16中所示,计算装置1600可以包括通信接口1602、处理器1604、存储装置1606和经由通信基础设施1610通信地连接的输入/输出(“I/O”)模块1608。虽然示例性计算装置1600在图16中示出,但是图16中所示的部件不意在是限制性的。在其他实施例中可以使用附加部件或可替代的部件。现在将更加详细地描述图16中所示的计算装置1600的部件。
通信接口1602可以被配置成与一个或多个计算装置通信。通信接口1602的示例包括但不限于有线网络接口(诸如网络接口卡)、无线网络接口(诸如无线网络接口卡)、调制解调器、音频/视频连接件和任何其他合适的接口。
处理器1604通常表示任何类型或形式的处理单元,处理单元能够处理数据或解释、执行和/或引导本文所述的指令、过程和/或操作中的一个或多个的执行。处理器1604可以根据一个或多个应用程序1612或其他计算机可执行指令(诸如可以存储在存储装置1606或其他计算机可读介质中),来引导操作的执行。
存储装置1606可以包括一个或多个数据存储介质、装置或配置,并且可以采用任何类型、形式和组合的数据存储介质和/或装置。例如,存储装置1606可以包括但不限于硬盘驱动器、网络驱动器、闪存驱动器、磁盘、光盘、RAM、动态RAM、其他非易失性和/或易失性数据存储单元或其组合或子组合。包括本文所述的数据的电子数据可以暂时性地和/或永久性地存储在存储装置1606中。例如,表示被配置成引导处理器1604执行本文所述的任何操作的一个或多个可执行应用程序1612的数据可以被存储在存储装置1606内。在一些示例中,数据可以被布置在位于存储装置1606内的一个或多个数据库中。
I/O模块1608可以包括被配置成接收用户输入并提供用户输出的一个或多个I/O模块。一个或多个I/O模块可以用于接收用于单个虚拟现实体验的输入。I/O模块1608可以包括支持输入能力和输出能力的任何硬件、固件、软件或其组合。例如,I/O模块1608可以包括用于捕获用户输入的硬件和/或软件,包括但不限于键盘或小键盘、触摸屏部件(例如,触摸屏显示器)、接收器(例如,RF或红外接收器)、运动传感器和/或一个或多个输入按钮。
I/O模块1608可以包括用于向用户呈现输出的一个或多个装置,包括但不限于图形引擎、显示器(例如,显示屏)、一个或多个输出驱动器(例如,显示驱动器)、一个或多个音频扬声器和一个或多个音频驱动器。在某些实施例中,I/O模块1608被配置成向显示器提供图形数据,用于向用户呈现。图形数据可以表示一个或多个图形用户界面和/或如可以服务于特定实施方式的任何其他图形内容。
在一些示例中,本文所述的任何设施可以由计算装置1600的一个或多个部件实现,或者在其内实现。例如,驻留在存储装置1606内的一个或多个应用程序1612可以被配置成引导处理器1604,以执行系统的一个或多个过程或功能相关联的设施602至606。同样地,系统600的存储设施608可以由存储装置1606或其组合实现。
在前面的描述中,已经参考附图描述了各种示例性实施例。然而,将显而易见的是,可以对其进行各种修改和改变,并且可以实现附加实施例,而不背离所附权利要求所阐述的本发明的范围。例如,本文所述的一个实施例的某些特征部可以与本文所述的另一实施例的特征部组合或替代。因此,说明书和附图应视为是说明性的而非限制性的。

Claims (20)

1.一种测量系统,所述测量系统包括:
至少一个物理计算装置,所述至少一个物理计算装置:
访问第一图像,所述第一图像由包括在位于与患者相关联的手术区域处的立体内窥镜内的第一摄像机从第一有利点捕获;
访问第二图像,所述第二图像由包括在所述立体内窥镜内的第二摄像机从第二有利点捕获,所述第二有利点对于所述第一有利点是立体的;
从所述测量系统的用户接收用户输入,所述用户输入指定与如所述第一图像中表示的所述手术区域内的特征部对应的用户选择的二维端点即2D端点;
基于所述用户选择的2D端点,来识别与如所述第二图像中表示的所述特征部对应的匹配的2D端点;
基于所述用户选择的2D端点和匹配的2D端点,来限定与所述手术区域内的所述特征部对应的三维端点即3D端点;以及
确定从所述3D端点到与所述手术区域内的附加特征部对应的附加3D端点的距离。
2.根据权利要求1所述的测量系统,其中所述至少一个物理计算装置进一步:
在确定所述距离之前从所述用户接收指定与如所述第一图像中表示的所述附加特征部对应的附加的用户选择的2D端点的用户输入,
基于所述附加的用户选择的2D端点,来识别与如所述第二图像中表示的所述附加特征部对应的附加的匹配的2D端点,以及
基于所述附加的用户选择的2D端点和附加的匹配的2D端点,来限定与所述附加特征部对应的所述附加3D端点。
3.根据权利要求1所述的测量系统,其中:
所述用户选择的2D端点是包括第一行数和第一列数的像素块;并且
所述至少一个物理计算装置通过以下操作来识别所述匹配的2D端点:
在所述第二图像内识别包括多个候选像素块的矩形区域,每个候选像素块包括所述第一行数和所述第一列数,所述矩形区域包括第二列数和大于所述第一行数的第二像素行数,所述第二列数大于所述第一列数且比所述第二行数大至少两倍;
分析包括在所述矩形区域内的所述多个候选像素块中的所述候选像素块,以向所述候选像素块中的每个候选像素块分配相对于所述用户选择的2D端点的相应的相似性度量;以及
基于所述分析,识别特定候选像素块作为与所述特征部对应的所述匹配的2D端点,所述特定候选像素块被分配有向所述多个候选像素块中的分析的候选像素块分配的所述相应的相似性度量中的最高相似性度量。
4.根据权利要求3所述的测量系统,其中所述至少一个物理计算装置进一步通过以下操作来识别所述匹配的2D端点:
跟踪位于所述手术区域处的所述立体内窥镜和位于所述手术区域处的机器人操纵的手术器械中的至少一个的运动学;
执行包括所述多个候选像素块的所述矩形区域的所述识别和所述候选像素块的所述分析中的至少一个,以基于所跟踪的运动学向所述候选像素块分配所述相应的相似性度量。
5.根据权利要求3所述的测量系统,其中向所述多个候选像素块中的每个个体候选像素块分配的所述相应的相似性度量是基于以下中的至少一个:
个体候选像素块中的每个像素和所述用户选择的2D端点的所述像素块中的对应像素之间的绝对差之和;
所述个体候选像素块中的每个像素和所述用户选择的2D端点的所述像素块的所述对应像素之间的平方差之和;
所述个体候选像素块中的每个像素和所述用户选择的2D端点的所述像素块的所述对应像素之间的标准化互相关;
Census变换;
秩变换;以及
水平梯度和垂直梯度之间的绝对差之和。
6.根据权利要求1所述的测量系统,其中:
在与如所述第二图像中表示的所述特征部对应的所述匹配的2D端点的识别之后并且在与所述特征部对应的所述3D端点的所述限定之前,所述至少一个物理计算装置进一步:
基于所述匹配的2D端点,来识别与如所述第一图像中表示的所述特征部对应的反向匹配的2D端点,并且
基于所述用户选择的2D端点和反向匹配的2D端点,来确定用于所述匹配的2D端点的匹配置信度值;并且
与所述特征部对应的所述3D端点的所述限定进一步基于用于所述匹配的2D端点的所述匹配置信度值。
7.根据权利要求1所述的测量系统,其中所述至少一个物理计算装置通过以下操作来从所述用户接收指定所述用户选择的2D端点的所述用户输入:
提供所述第一图像用于在单视场显示屏上显示,所述单视场显示屏与所述至少一个物理计算装置通信地耦连并且被配置成由与对患者执行外科手术程序相关联的外科医生的助手使用;并且
在所述用户输入被与所述显示屏相关联的用户界面检测到时,接收所述用户输入。
8.根据权利要求1所述的测量系统,其中所述至少一个物理计算装置通过以下操作从所述用户接收指定所述用户选择的2D端点的所述用户输入:
提供所述第一图像用于在一对立体显示屏中的每个显示屏上显示,所述一对立体显示屏与所述至少一个物理计算装置通信地耦连并且被配置成由与对所述患者执行的外科手术程序相关联的外科医生使用;并且
在所述用户输入被与所述一对立体显示屏相关联的用户界面检测到时,接收所述用户输入。
9.根据权利要求1所述的测量系统,其中所述至少一个物理计算装置通过以下操作从所述用户接收指定所述用户选择的2D端点的所述用户输入:
提供所述第一图像用于在显示屏上显示,所述显示屏与所述至少一个物理计算装置通信地耦连;
提供与所述显示屏相关联的用户界面,所述用户界面包括被配置成由所述用户移动到所述显示屏上的任何点的指针对象;以及
接收指定所述用户选择的2D端点的所述用户输入作为在所述显示屏上特定点的用户选择,其中用户已经将所述指针对象移动到所述特定点。
10.根据权利要求9所述的测量系统,其中所述特定点的所述用户选择通过所述指针对象移动到所述显示屏上的所述特定点来被动态地执行,而无任何附加的用户选择动作。
11.根据权利要求1所述的测量系统,其中所述至少一个物理计算装置通过以下操作来确定从所述3D端点到所述附加3D端点的距离:
自动地识别在3D轮廓上的一个或多个3D中点,所述3D轮廓将所述3D端点连接到所述附加3D端点并且沿所述3D端点和所述附加3D端点均设置在其上的物理表面延伸;
基于所述一个或多个3D端点,来确定从所述3D端点到所述附加3D端点的线性分段路线的每个分段的中间距离,所述线性分段路线穿过每个相邻的3D中点,以便基本上遵循所述3D端点和所述附加3D端点之间的所述3D轮廓;以及
确定所述距离是从所述3D端点到所述附加3D端点的轮廓距离,该轮廓距离被计算为所述中间距离的和。
12.根据权利要求1所述的测量系统,其中:
在与如所述第二图像中表示的所述特征部对应的所述匹配的2D端点的所述识别之前,所述至少一个物理计算装置进一步:
基于所述用户选择的2D端点,来识别低置信度的匹配的2D端点,
确定用于所述低置信度的匹配的2D端点的匹配置信度值,
确定所述匹配置信度值低于预定的置信度阈值,以及
基于所述用户选择的2D端点并且响应于确定所述匹配置信度值低于所述预定的置信度阈值,来识别与所述特征部对应的替换2D端点,所述替换2D端点不同于所述用户选择的2D端点;
通过根据基于所述用户选择的2D端点识别的所述替换2D端点,与如所述第二图像中表示的所述特征部对应的所述匹配的2D端点的识别是基于所述用户选择的2D端点;以及
通过根据基于所述用户选择的2D端点识别的所述替换2D端点,与所述特征部对应的所述3D端点的限定是基于所述用户选择的2D端点。
13.根据权利要求1所述的测量系统,其中所述特征部和所述附加特征部均是在患者内的解剖特征部。
14.根据权利要求1所述的测量系统,其中所述特征部是解剖特征部,并且所述附加特征部是非解剖特征部。
15.一种测量系统,所述测量系统包括:
被配置成位于与患者相关联的手术区域处的立体内窥镜,所述立体内窥镜包括:
第一摄像机,其被配置成从第一有利点捕获第一图像,和
第二摄像机,其被配置成从对于所述第一有利点立体的第二有利点捕获第二图像;
显示屏,其被配置成显示所述第一图像;
用户界面,其与所述显示屏相关联并且允许所述测量系统的用户从所述显示屏上的所述第一图像的显示指定与如所述第一图像中表示的在所述手术区域内的特征部对应的用户选择的二维端点即2D端点;和
至少一个物理计算装置,其通信地耦连到所述立体内窥镜、所述显示屏和所述用户界面,并且被配置成:
基于所述用户选择的2D端点,来识别与如所述第二图像中表示的所述特征部对应的匹配的2D端点,
基于所述用户选择的2D端点和匹配的2D端点,来限定与所述手术区域内的所述特征部对应的三维端点即3D端点,以及
确定从所述3D端点到与所述手术区域内的附加特征部对应的附加3D端点的距离。
16.根据权利要求15所述的测量系统,其中:
所述用户界面进一步允许所述用户从所述显示屏上的所述第一图像的所述显示指定与如所述第一图像中表示的所述附加特征部对应的附加的用户选择的2D端点;
所述至少一个物理计算装置被进一步配置成:
基于所述附加的用户选择的2D端点,来识别与如所述第二图像中表示的所述附加特征部对应的附加的匹配2D端点,以及
基于所述附加的用户选择的2D端点和所述附加的匹配的2D端点,来限定与所述附加特征部对应的所述附加3D端点。
17.根据权利要求15所述的测量系统,其中:
所述用户选择的2D端点是包括第一行数和第一列数的像素块;以及
所述至少一个物理计算装置被配置成通过以下操作来识别所述匹配的2D端点:
跟踪位于所述手术区域处的所述立体内窥镜和位于所述手术区域处的机器人操纵的手术器械中的至少一个的运动学;
在所述第二图像内并且基于跟踪的运动学,来识别包括多个候选像素块的矩形区域,每个候选像素块包括所述第一行数和所述第一列数,所述矩形区域包括第二列数和大于所述第一行数的第二行数,其中第二列数大于所述第一列数并且比所述第二行数大至少两倍;
分析包括在所述矩形区域内的所述多个候选像素块中的所述候选像素块,以向所述候选像素块中的每个候选像素块分配相对于所述用户选择的2D端点的相应的相似性度量;并且
基于所述分析,来识别特定候选像素块作为与所述特征部对应的所述匹配的2D端点,所述特定候选像素块被分配有向所述多个候选像素块中的分析的候选像素块分配的所述相应的相似性度量中的最高相似性度量。
18.一种方法,所述方法包括:
由测量系统访问第一图像,所述第一图像由包括在位于与患者相关联的手术区域处的立体内窥镜内的第一摄像机从第一有利点捕获;
由所述测量系统访问第二图像,所述第二图像由包括在所述立体内窥镜内的第二摄像机从第二有利点捕获,所述第二有利点对于所述第一有利点是立体的;
由所述测量系统从所述测量系统的用户接收用户输入,所述用户输入指定与如所述第一图像中表示的所述手术区域内的特征部对应的用户选择的二维端点即2D端点;
由所述测量系统基于所述用户选择的2D端点来识别与如所述第二图像中表示的所述特征部对应的匹配的2D端点;
由所述测量系统基于与所述用户选择的2D端点和匹配的2D端点来限定与所述手术区域内的所述特征部对应的三维端点即3D端点;以及
由所述测量系统确定从所述3D端点到与所述手术区域内的附加特征部对应的附加3D端点的距离。
19.根据权利要求18所述的方法,所述方法进一步包括:
在确定所述距离之前,由所述测量系统从所述用户接收指定与如所述第一图像中表示的所述附加特征部对应的附加的用户选择的2D端点的用户输入;
由所述测量系统基于所述附加的用户选择的2D端点来识别与如所述第二图像中表示的所述附加特征部对应的附加的匹配的2D端点;以及
由所述测量系统基于所述附加的用户选择的2D端点和所述附加的匹配的2D端点来限定与所述附加特征部对应的所述附加3D端点。
20.根据权利要求18所述的方法,其中:
所述用户选择的2D端点是包括第一行数和第一列数的像素块;并且
所述匹配的2D端点的所述识别包括:
跟踪位于所述手术区域处的所述立体内窥镜和位于所述手术区域处的机器人操纵的手术器械中的至少一个的运动学;
在所述第二图像内并且基于跟踪的运动学,来识别包括多个候选像素块的矩形区域,每个候选像素块包括所述第一行数和所述第一列数,所述矩形区域包括第二列数和大于所述第一行数的第二行数,其中所述第二列数大于所述第一列数并且比所述第二行数大至少两倍;
分析包括在所述矩形区域内的所述多个候选像素块中的所述候选像素块,以向所述候选像素块中的每个候选像素块分配相对于所述用户选择的2D端点的相应的相似性度量;以及
基于所述分析,来识别特定候选像素块作为与所述特征部对应的所述匹配的2D端点,所述特定候选像素块被分配有向所述多个候选像素块中的分析的候选像素块分配的所述相应的相似性度量中的最高相似性度量。
CN201980042365.1A 2018-05-03 2019-05-02 用于使用立体内窥镜测量距离的系统和方法 Pending CN112292092A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862666505P 2018-05-03 2018-05-03
US62/666,505 2018-05-03
PCT/US2019/030455 WO2019213432A1 (en) 2018-05-03 2019-05-02 Systems and methods for measuring a distance using a stereoscopic endoscope

Publications (1)

Publication Number Publication Date
CN112292092A true CN112292092A (zh) 2021-01-29

Family

ID=68386831

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980042365.1A Pending CN112292092A (zh) 2018-05-03 2019-05-02 用于使用立体内窥镜测量距离的系统和方法

Country Status (4)

Country Link
US (1) US11896441B2 (zh)
EP (1) EP3813720A4 (zh)
CN (1) CN112292092A (zh)
WO (1) WO2019213432A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024109610A1 (zh) * 2022-11-21 2024-05-30 杭州海康慧影科技有限公司 内窥镜系统以及体内组织的特征间距测量装置和方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11617493B2 (en) 2018-12-13 2023-04-04 Covidien Lp Thoracic imaging, distance measuring, surgical awareness, and notification system and method
US11801113B2 (en) * 2018-12-13 2023-10-31 Covidien Lp Thoracic imaging, distance measuring, and notification system and method
US11172184B2 (en) 2018-12-13 2021-11-09 Covidien Lp Systems and methods for imaging a patient
CN116000911A (zh) * 2021-10-22 2023-04-25 瑞龙诺赋(上海)医疗科技有限公司 一种机械臂控制方法、装置以及机械臂
CN114191078B (zh) * 2021-12-29 2024-04-26 上海复旦数字医疗科技股份有限公司 一种基于混合现实的内窥镜手术导航机器人系统
DE102022101524A1 (de) 2022-01-24 2023-07-27 Karl Storz Se & Co. Kg Verfahren und Messvorrichtung zur Korrektur einer Position eines Messpunktes
US20230346199A1 (en) * 2022-04-29 2023-11-02 3Dintegrated Aps Anatomy measurement

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102458293A (zh) * 2009-06-16 2012-05-16 直观外科手术操作公司 用于微创外科手术的虚拟测量工具
US20150215614A1 (en) * 2012-09-14 2015-07-30 Sony Corporation Imaging system and method
CN106659541A (zh) * 2014-03-19 2017-05-10 直观外科手术操作公司 集成眼球凝视跟踪用于立体观看器的医疗装置、系统和方法
CN107925727A (zh) * 2015-08-31 2018-04-17 英特尔公司 3d相机图像中的点到点距离测量

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100264393B1 (ko) 1998-02-02 2000-08-16 윤덕용 프리즘에 의한 스테레오 카메라 시스템
US20060178561A1 (en) 2005-02-07 2006-08-10 Olympus Corporation Endoscope apparatus
US8473031B2 (en) * 2007-12-26 2013-06-25 Intuitive Surgical Operations, Inc. Medical robotic system with functionality to determine and display a distance indicated by movement of a tool robotically manipulated by an operator
US8345953B2 (en) 2008-05-22 2013-01-01 Matrix Electronic Measuring Properties, Llc Stereoscopic measurement system and method
US8442304B2 (en) * 2008-12-29 2013-05-14 Cognex Corporation System and method for three-dimensional alignment of objects using machine vision
KR20130011141A (ko) * 2011-07-20 2013-01-30 삼성전자주식회사 내시경 및 내시경 시스템
US10478143B2 (en) * 2016-08-02 2019-11-19 Covidien Lp System and method of generating and updatng a three dimensional model of a luminal network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102458293A (zh) * 2009-06-16 2012-05-16 直观外科手术操作公司 用于微创外科手术的虚拟测量工具
US20150215614A1 (en) * 2012-09-14 2015-07-30 Sony Corporation Imaging system and method
CN106659541A (zh) * 2014-03-19 2017-05-10 直观外科手术操作公司 集成眼球凝视跟踪用于立体观看器的医疗装置、系统和方法
CN107925727A (zh) * 2015-08-31 2018-04-17 英特尔公司 3d相机图像中的点到点距离测量

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
JASON GENG 等: "Review of 3-D Endoscopic Surface Imaging Techniques", 《IEEE SENSORS JOURNAL》, vol. 14, no. 4, pages 948 - 949 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024109610A1 (zh) * 2022-11-21 2024-05-30 杭州海康慧影科技有限公司 内窥镜系统以及体内组织的特征间距测量装置和方法

Also Published As

Publication number Publication date
EP3813720A4 (en) 2022-01-26
EP3813720A1 (en) 2021-05-05
WO2019213432A1 (en) 2019-11-07
US11896441B2 (en) 2024-02-13
US20210220078A1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
US11896441B2 (en) Systems and methods for measuring a distance using a stereoscopic endoscope
US20220241013A1 (en) Quantitative three-dimensional visualization of instruments in a field of view
US10835344B2 (en) Display of preoperative and intraoperative images
US20240033014A1 (en) Guidance for placement of surgical ports
US10593052B2 (en) Methods and systems for updating an existing landmark registration
JP7376569B2 (ja) ロボット操作手術器具の位置を追跡システムおよび方法
JP7133474B2 (ja) 内視鏡画像及び超音波画像の画像ベースの融合
JP2024061720A (ja) 立体ビューワのための視線追跡を統合する医療装置、システム、及び方法
CN111970986A (zh) 用于执行术中指导的系统和方法
WO2008076079A1 (en) Methods and apparatuses for cursor control in image guided surgery
US20220215539A1 (en) Composite medical imaging systems and methods
CN118215936A (zh) 用于腹腔镜和视频辅助手术的交互式增强现实系统
EP3782529A1 (en) Systems and methods for selectively varying resolutions
CN113164022B (zh) 用于图像引导外科手术的照射校正的近红外(nir)成像
EP4091174A1 (en) Systems and methods for providing surgical assistance based on operational context
CN104173106A (zh) 一种基于c臂x射线影像的手术导航系统
EP4355245A1 (en) Anatomy measurement
CN116568219A (zh) 自动导航数字手术显微镜
CN111281534A (zh) 生成手术部位的三维模型的系统和方法
Mountney et al. Recovering tissue deformation and laparoscope motion for minimally invasive surgery

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination