CN113164022B - 用于图像引导外科手术的照射校正的近红外(nir)成像 - Google Patents

用于图像引导外科手术的照射校正的近红外(nir)成像 Download PDF

Info

Publication number
CN113164022B
CN113164022B CN201980079976.3A CN201980079976A CN113164022B CN 113164022 B CN113164022 B CN 113164022B CN 201980079976 A CN201980079976 A CN 201980079976A CN 113164022 B CN113164022 B CN 113164022B
Authority
CN
China
Prior art keywords
surgical
surgical scene
sensor
amount
source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201980079976.3A
Other languages
English (en)
Other versions
CN113164022A (zh
Inventor
J·M·迪卡洛
I·E·麦克道尔
M·J·特雷乔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Publication of CN113164022A publication Critical patent/CN113164022A/zh
Application granted granted Critical
Publication of CN113164022B publication Critical patent/CN113164022B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/046Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for infrared imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/3132Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0071Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by measuring fluorescence emission
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/373Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Engineering & Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Veterinary Medicine (AREA)
  • Pathology (AREA)
  • Public Health (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Animal Behavior & Ethology (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Optics & Photonics (AREA)
  • Signal Processing (AREA)
  • Gynecology & Obstetrics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Endoscopes (AREA)

Abstract

本文描述的技术可以体现在显示外科手术场景的一部分的视觉表示的方法中。该方法包括接收表示使用与外科手术设备相关联的相机的第一传感器来捕获的信息的数据,该信息指示表示从外科手术场景的该部分发射的荧光量的第一量。该方法还包括获得指示表示致使从外科手术场景的该部分发射荧光的激发信号量的第二量的信息,以及生成作为第一量和第二量的函数的归一化荧光信号。该方法还包括基于归一化荧光信号来生成外科手术场景的该部分的视觉表示,以及在与外科手术设备相关联的显示设备上呈现视觉表示。

Description

用于图像引导外科手术的照射校正的近红外(NIR)成像
相关申请交叉引用
本申请要求2018年12月5日提交的名称为“Illumination Corrected Near-Infrared(NIR)Imaging for Image Guided Surgery”的美国临时申请号62/775,451的权益。前述申请的公开内容通过引用以其整体并入本文。
技术领域
本公开涉及内窥镜外科手术系统中使用的近红外(NIR)成像。
背景技术
正在开发微创外科手术系统以减小经受外科手术干预的患者所经历的创伤。这些系统只需要小的切口并且外科医生使用像相机一样的棒和器械来执行规程。除了减小创伤,这种类型的遥控操作系统增加外科医生的灵巧性并且允许外科医生从远程位置对患者进行操作。遥控外科手术是其中外科医生使用某种形式的远程控制(例如伺服机构等)来操纵外科手术器械移动而不是直接用手保持和移动器械的外科手术系统的总称。在此类遥控外科手术系统中,通过显示设备向外科医生提供外科手术部位的图像。基于通过显示设备接收的视觉反馈,外科医生通过操纵主控制输入设备(继而控制遥控机器人器械的运动)对患者执行外科手术规程。
发明内容
在一个方面,本文档的特征在于一种显示外科手术场景的一部分的视觉表示的方法。该方法包括接收表示使用与外科手术设备相关联的相机的第一传感器来捕获的信息的数据,信息指示表示从外科手术场景的该部分发射的荧光量的第一量。该方法还包括获得指示表示致使从外科手术场景的该部分发射荧光的激发信号量的第二量的信息,以及由一个或多个处理设备生成作为第一量和第二量的函数的归一化荧光信号。该方法还包括基于归一化荧光信号来生成外科手术场景的该部分的视觉表示,以及在与外科手术设备相关联的显示设备上呈现外科手术场景的该部分的视觉表示。
在另一个方面,本文档的特征在于一种成像系统,其包括第一图像传感器和渲染引擎。第一图像传感器被配置为感测指示表示从外科手术场景的一部分发射的荧光量的第一量的信息。渲染引擎包括一个或多个处理设备,并且被配置为获得指示表示致使从外科手术场景的该部分发射荧光的激发信号量的第二量的信息,生成作为第一量和第二量的函数的归一化荧光信号,以及基于归一化荧光信号来生成外科手术场景的该部分的视觉表示。该系统还包括显示设备,该显示设备被配置为呈现视觉表示。
在另一个方面,本文档的特征在于一个或多个非暂时性机器可读存储设备,其上编码有指令,该指令用于致使一个或多个处理设备执行各种操作。操作包括接收表示使用与外科手术设备相关联的相机的第一传感器来捕获的信息的数据。信息指示表示从外科手术场景的一部分发射的荧光量的第一量。操作还包括获得指示表示致使从外科手术场景的该部分发射荧光的激发信号量的第二量的信息,以及生成作为第一量和第二量的函数的归一化荧光信号。操作还包括基于归一化荧光信号来生成外科手术场景的该部分的视觉表示,以及致使在与外科手术设备相关联的显示设备上呈现外科手术场景的该部分的视觉表示。
上述方面的实施方式可以包括以下特征中的一者或多者。
获得指示第二量的信息可以包括接收从外科手术场景的该部分反射的激发信号的部分,使用第二传感器来捕获激发信号的部分,以及基于来自第二传感器的输出信号来确定第二量。第一传感器和第二传感器中的每一者可以是近红外(NIR)传感器。捕获激发信号的部分可以包括朝向第二传感器改变激发信号的部分的传播方向。可以使用相对于传播方向成角度设置的反射元件来改变传播方向。获得指示第二量的信息可以包括访问与激发信号的源相关联的深度映射,其中深度映射提供关于作为与源的空间分离的函数的激发信号的强度变化的信息。获得指示第二量的信息还可以包括接收表示关于外科手术场景的该部分和激发信号的源之间的空间分离的信息的数据,以及基于(i)外科手术场景的该部分和源之间的空间分离以及(ii)深度映射来确定第二量。可以从第三传感器接收表示关于空间分离的信息的数据。关于外科手术场景的该部分和源之间的空间分离的信息可以包括下列项中的至少一者:(i)外科手术场景的该部分和源之间的角度,以及(ii)外科手术场景的该部分和源之间的距离。呈现视觉表示可以包括接收关于与归一化荧光信号相关联的阈值条件的用户输入,确定其中归一化荧光信号满足阈值条件的区域,以及生成视觉表示以使得视觉表示包括其中归一化荧光信号满足阈值条件的区域的标识。在一些情况下,可以响应于在显示设备上呈现外科手术场景的视觉表示而接收用户输入,其中用户输入涉及在外科手术场景处操作外科手术设备。相机可以设置在外科手术设备中。第一量和第二量的函数可以包括第一量与第二量的比率。
本文描述的一些或全部实施例可以提供以下优点中的一者或多者。通过相对于表示入射在对应部分上的激发能量的量的值对NIR图像的像素值进行归一化,可以基本上减轻由于跨图像的照射变化而引起的不良影响。这继而可以允许所检测的NIR荧光强度与内窥镜位置无关。这种位置无关性可以允许更准确地确定特定组织类型中的染料(例如,吲哚青绿(ICG))的实际量,并且可以使外科医生更容易地定位患有疾病(诸如癌症)的组织区域的边缘(margin)。
附图说明
图1是计算机辅助遥控操作外科手术系统的示例患者侧推车的透视图。
图2是计算机辅助遥控操作外科手术系统的示例外科医生控制台的前视图。
图3是计算机辅助遥控操作外科手术系统的示例机器人操纵器臂组件的侧视图。
图4是标准近红外(NIR)图像的示例。
图5是实现本文所述的技术的示例内窥镜系统的框图。
图6A是标准近红外(NIR)图像的示例。
图6B是根据本文所述的技术生成的NIR图像的示例。
图7是根据本文所述的技术的用于生成NIR图像的示例过程的流程图。
具体实施方式
本文档描述了近红外(NIR)成像技术,其中针对图像的各个部分检测的荧光信号相对于估计入射在对应于此部分的组织上的激发能量的度量进行归一化。激发能量的度量可以以多种方法来确定。在一些情况下,基于被配置为感测从组织反射的激发能量的量的传感器的输出来导出激发能量的度量。在一些情况下,可以使用表示从内窥镜朝向组织引导的电磁辐射的物理现象的理论或经验模型来计算激发能量的度量。使用本文所述的技术而生成的归一化NIR图像考虑了由于入射激发能量的量的变化(可归因于例如相对于能量源的不同距离、取向)而引起的荧光信号的变化,并且可以提供基础(underlying)荧光的更准确表示。在一些情况下,这继而可以更可靠地用于确定由组织的对应部分吸收的染料(例如,吲哚青绿(ICG))的真实量,并且因此改善NIR成像的诊断能力。
主要根据使用由加利福尼亚州桑尼维尔市(Sunnyvale,California)的直觉外科公司(Intuitive Surgical,Inc.)开发的(da/>)外科手术系统的实施方式来描述该技术的各个方面。此类外科手术系统的示例是/>XiTM(da/>XiTM)外科手术系统(型号IS4000)。应当理解,本文公开的方面可以以各种方式来体现和实现,包括计算机辅助、非计算机辅助以及手动和计算机辅助的实施例和实施方式的混合组合。外科手术系统(例如,型号IS4000)上的实施方式是为了说明性目的而描述的,并且不应被认为是限制本文公开的本发明方面的范围。在适用的情况下,本发明方面可以在相对较小的手持的手动设备和具有附加机械支撑的相对较大系统中以及在计算机辅助遥控操作医疗设备的其他实施例中体现和实现。虽然主要参考对等(peer-in)显示器的示例来描述该技术,但该技术也可以用于其他类型的可穿戴或不可穿戴显示设备,例如在虚拟或增强现实(VR/AR)系统中使用的头戴式显示设备。所捕获的图像也可以显示在大格式显示器上,诸如像3D电视的设备,或者图像投影到某种屏幕上并且由佩戴眼镜的用户观看,该眼镜通过确保正确图像到达正确眼睛来完成立体效果。可替换地,可以使用自动立体类型的显示器,例如基于透镜的LCD类型的显示器,其也可以合并观看者(用户)的头部和/或眼睛跟踪。
参考图1和图2,用于微创计算机辅助遥控外科手术(也称为MIS)的系统可以包括患者侧推车100和外科医生控制台50。遥控外科手术是其中外科医生使用某种形式的远程控制(例如伺服机构等)来操纵外科手术器械移动而不是直接用手保持和移动器械的外科手术系统的总称。可机器人操纵的外科手术器械可以通过小的、微创的外科手术孔插入,以治疗患者体内的外科手术部位处的组织,从而避免与开放外科手术所需的相当大的切口相关联的创伤。这些机器人系统可以移动外科手术器械的工作端部,具有足够的灵巧性来执行相当复杂的外科手术任务,通常是通过在微创孔处枢转器械的轴、使轴沿轴向滑动穿过孔、使轴在孔内旋转等。
在所描绘的实施例中,患者侧推车100包括基部110、第一机器人操纵器臂组件120、第二机器人操纵器臂组件130、第三机器人操纵器臂组件140和第四机器人操纵器臂组件150。每个机器人操纵器臂组件120、130、140和150可枢转地联接到基部110。在一些实施例中,可以包括少于四个或多于四个机器人操纵器臂组件作为患者侧推车100的一部分。虽然在所描绘的实施例中,基部110包括脚轮以允许易于移动,但在一些实施例中,患者侧推车100固定地安装到地板、天花板、手术台、结构框架等。
在典型应用中,机器人操纵器臂组件120、130、140或150中的两者保持外科手术器械并且第三者保持立体内窥镜。剩余的机器人操作臂组件可用于使得可以在工作部位处引入第三器械。可替换地,剩余的机器人操纵器臂组件可以用于将第二内窥镜或另一个图像捕获设备(诸如超声换能器)引入工作部位。
机器人操纵器臂组件120、130、140和150中的每一者常规地由联接在一起并通过可致动关节操纵的连杆形成。机器人操纵器臂组件120、130、140和150中的每一者包括设置臂和设备操纵器。设置臂定位其保持的设备,使得枢轴点出现在进入患者的入口孔处。然后,设备操纵器可以操纵其保持的设备,使得其可以围绕枢转点枢转、插入入口孔中和从入口孔缩回,并且围绕其轴的轴线旋转。
在所描绘的实施例中,外科医生控制台50包括立体对等显示器45,使得用户可以从与患者侧推车100结合使用的立体相机所捕获的图像中以立体视觉观看外科手术工作部位。在立体对等显示器45中提供左目镜46和右目镜47,使得用户可以分别用用户的左眼和右眼观看显示器45内的左显示屏和右显示屏。当典型地在合适的观看器或显示器上观看外科手术部位的图像时,外科医生通过操纵主控制输入设备(继而控制机器人器械的运动)对患者执行外科手术规程。
外科医生控制台50还包括左输入设备41和右输入设备42,用户可以分别用他/她的左手和右手抓取该左输入设备和右输入设备以便以优选地六个或更多自由度(“DOF”)操纵由患者侧推车100的机器人操纵器臂组件120、130、140和150保持的设备(例如,外科手术器械)。在外科医生控制台50上提供具有脚趾控件和脚跟控件的脚踏板44,使得用户可以控制与脚踏板相关联的设备的移动和/或致动。
为了控制和其他目的,在外科医生控制台50中提供处理设备43。处理设备43执行医疗机器人系统中的各种功能。由处理设备43执行的一个功能是转换和传递输入设备41、42的机械运动以致动其相关联的机器人操纵器臂组件120、130、140和150中的其对应关节,使得外科医生可以有效地操纵设备(诸如外科手术器械)。处理设备43的另一个功能是实现本文所述的方法、交叉联接控制逻辑和控制器。
处理设备43可以包括一个或多个处理器、数字信号处理器、现场可编程门阵列(FPGA)和/或微控制器,并且可以被实现为硬件、软件和/或固件的组合。而且,如本文所述的其功能可以由一个单元执行或被划分在多个子单元之间,每个子单元可以依次通过硬件、软件和固件的任何组合来实现。此外,尽管被显示作为外科医生控制台50的一部分或在物理上邻近该外科医生控制台50,但处理设备43也可以作为子单元分布在整个遥控外科手术系统中。子单元中的一者或多者可以在物理上远离遥控外科手术系统(例如,位于远程服务器上)。
还参考图3,机器人操纵器臂组件120、130、140和150可以操纵诸如内窥镜立体相机和外科手术器械的设备以执行微创外科手术。例如,在所描绘的布置中,机器人操纵器臂组件120可枢转地联接到器械保持器122。套管180和外科手术器械200继而可释放地联接到器械保持器122。套管180是中空管状构件,其在外科手术期间位于患者接口部位处。套管180限定腔,内窥镜相机(或内窥镜)或外科手术器械200的细长轴220可滑动地设置在腔内。如下文进一步描述的,在一些实施例中,套管180包括具有体壁牵开器构件的远端部分。器械保持器122可枢转地联接到机器人操纵器臂组件120的远端。在一些实施例中,在器械保持器122和机器人操纵器臂组件120的远端之间的可枢转联接是可使用处理设备43从外科医生控制台50致动的机动关节。
器械保持器122包括器械保持器框架124、套管夹具126和器械保持器托架128。在所描绘的实施例中,套管夹具126固定到器械保持器框架124的远端。套管夹具126可以被致动以与套管180联接或脱离。器械保持器托架128可移动地联接到器械保持器框架124。更具体地,器械保持器托架128沿着器械保持器框架124可线性平移。在一些实施例中,器械保持器托架128沿着器械保持器框架124的移动是可由处理设备43致动/控制的机动平移移动。外科手术器械200包括传输组件210、细长轴220和末端执行器230。传输组件210可以与器械保持器托架128可释放地联接。轴220从传输组件210向远侧延伸。末端执行器230设置在轴220的远端处。
轴220限定与套管180的纵向轴线一致的纵向轴线222。当器械保持器托架128沿着器械保持器框架124平移时,外科手术器械200的细长轴220沿着纵向轴线222移动。以这种方式,末端执行器230可以插入患者身体内的外科手术工作空间和/或从该外科手术工作空间缩回。
腹腔镜外科手术可以需要外科医生用内窥镜观看外科手术部位并用腹腔镜器械执行精细的马达操纵,以进行探查、解剖、缝合和其他外科手术任务。这些任务通常需要与组织进行精细的双手交互。在一些情况下,当向外科医生呈现外科手术场景的3D视图时,这种双手马达任务(motor tasks)通常可以更容易地执行。患者身体内的外科手术工作空间(外科手术场景)可以经由立体显示器45作为3D可视化呈现给外科医生。虽然本文描述的技术主要使用对等立体显示器的示例,但其他类型的立体和非立体显示器也在该技术的范围内。对等立体显示器是指允许用户查看显示器而不必佩戴它或者同时与另一个用户共享的显示器。立体显微镜可以是对等立体显示器的示例。如图2所示的立体显示器45是对等立体显示器的另一个示例。
在一些实施方式中,立体显示器45可以被配置为向外科医生呈现NIR图像。为此,向患者或受试者施用诸如ICG的染料,并且在NIR激发信号下对染料的位置进行成像。染料(诸如ICG)产生在NIR激发下可以检测到的荧光。在显示器上呈现NIR图像可以包括生成对应外科手术区域的图像,并且在其上叠加由ICG产生的荧光信号的表示。外科手术区域的图像被显示为黑白图像,并且荧光信号通常以绿色显示在黑白图像的顶部上。图4中示出了这样的NIR图像400的示例。
NIR图像中的绿色荧光信号的强度可以是各种参数的函数。例如,除了作为组织中的ICG的量的函数外,荧光的强度还与入射在存在ICG的组织部分上的NIR光的量直接相关。在图4的示例中,部分405中的荧光信号的强度高于部分410中的荧光信号的强度。然而,强度变化的至少一部分可以归因于入射在对应部分上的NIR激发能量的量。例如,部分405中的较高强度可以是由于入射在部分405上的激发能量的较高量(与部分410上的激发能量相比)引起的,并且不一定是因为部分405中的ICG的量较高。而且,因为内窥镜光源通常位于内窥镜探头的尖端处,所以影响ICG的光或激发能量的强度(以及因此从对应组织发射的荧光量)取决于内窥镜位置(例如,与组织的距离、角度等)。例如,如果荧光的强度与入射在ICG上的NIR的量成正比,则NIR源的视场(FOV)中心(NIR光最亮的地方)中的ICG将发出明亮的绿色。然而,如果相同部分移动到FOV的一侧,则荧光强度显著减小(如果NIR光在FOV的边缘不是那么强烈)。此外,如果内窥镜朝向组织向前移动或向后远离组织移动,则荧光的强度通过随着向前运动而增加和随着向后运动而减少来进行变化。
在一些情况下,在从NIR成像收集的信息主要取决于组织中的ICG的量的情况下,由于入射在组织上的激发能量的量的变化而引起的荧光的变化是不想要的。本文所述的技术描述了使用参考NIR信号来补偿和校正任何内窥镜位置影响。此类位置无关性可以改善NIR成像的诊断能力,例如,通过使外科医生更容易地确定特定组织类型中的ICG的量。在一些情况下,由本文所述的技术提供的改善的可视化使得更容易地定位患病组织的边缘(例如,通过更准确地检测癌细胞),由此潜在地改善基础外科手术过程。
图5是实现本文所述的技术的示例内窥镜系统500的框图。系统500包括被配置为插入人体中的内窥镜轴505。被配置为发射用于照射组织的激发能量的一个或多个照射源可以设置在内窥镜轴505的尖端510处。一个或多个照射源可以包括NIR源和/或被配置为发射可见范围和/或其他波长范围中的电磁辐射的源。在一些实施方式中,一个或多个尖端510和轴505可以包括将来自组织/外科手术场景的光通过轴505引导朝向位于轴505的相对端处的一个或多个图像传感器或相机的各种光学元件。
在一些实施方式中,系统500包括荧光检测相机515,其被配置为感测从使用设置在尖端510处的一个或多个照射源来照射的组织/外科手术场景发出的荧光。荧光检测相机515包括图像传感器520,其被配置为感测荧光信号预期的波长范围中的电磁能量。例如,当ICG在NIR成像中用作染料时,预期的荧光光谱约为750nm-950nm。在此类情况下,图像传感器520可以被配置为通过在光路中将光学滤光器设置在图像传感器520之前来感测荧光光谱,其中光学滤光器的通带在750nm-950nm范围内。取决于染料和/或与被成像的组织相关联的吸收/发射光谱,可以使用其他光学滤光器。
在一些实施方式中,与NIR激发能量相关联的波长范围与荧光光谱一致。例如,可以经由800nm电磁辐射提供NIR激发能量。因此,被配置为使荧光光谱中的信号通过的光学滤光器还可以被配置为包括减小NIR激发能量对图像传感器520的输出的影响的阻带。此类滤光器吸收/阻挡从组织反射的NIR激发能量的至少一部分。
本文所述的技术至少部分地源于这样的认识,即从组织的一部分反射的NIR激发能量可以用作入射在组织的该部分上的激发能量的量的度量。例如,假设整个FOV的反射率是统一的,则从FOV的不同部分反射的激发能量的量的变化可以用作入射在对应部分上的激发能量的量的度量。如果FOV中的组织的反射特性是已知的,则可以结合适当的校正/调整来估计入射在对应部分上的激发能量的量。在任何情况下,在FOV的不同部分处入射的激发能量的量的估计可以用于校正图像传感器520的传感器输出,使得经校正的输出基本上与由于激发能量的非均匀分布而引起的变化无关。例如,如果入射在组织的一部分上的激发能量的估计量高,则传感器520的输出的对应部分可以被相应地衰减。另一方面,如果入射在组织的一部分上的激发能量的估计量低,则传感器520的输出的对应部分可以被相应地提升。在一些实施方式中,此类校正可以使用以下等式来表示:
[绝对荧光信号]=[感测的荧光信号]/[估计的激发信号] (1)
其中“感测的荧光信号”表示图像传感器520针对与FOV的一部分相对应的一个或多个像素的输出,“估计的激发信号”表示入射在FOV的对应部分上的激发能量的估计量,并且“绝对荧光信号”表示经校正的信号。
入射在FOV的不同部分上的激发能量的量可以以各种方式来确定。在一些实施方式中,可以使用一个或多个传感器来感测入射激发能量的量。例如,如图5所示,系统500可以包括分开的NIR相机530,其包括用于感测NIR激发能量的图像传感器535。在此类情况下,系统500还包括滤光器525,其不是吸收/阻挡所反射的NIR激发能量,而是选择性地朝向图像传感器535反射这种能量。滤光器525可以包括反射表面,该反射表面选择性地朝向图像传感器535反射NIR激发信号528,同时允许荧光信号527朝向图像传感器520穿过。在一些实施方式中,可以使用其他布置。例如,荧光检测相机515和NIR相机的位置可以颠倒,并且滤光器525可以被配置为选择性地反射荧光信号527,同时允许NIR激发信号528穿过。在任何情况下,荧光检测相机515检测荧光,并且NIR相机530检测从组织反射的激发能量,使得可以基于图像传感器535的输出来估计入射在组织上的激发能量的量。
在一些实施方式中,可以基于表示来自设置在内窥镜轴505的尖端510处的一个或多个照射源的电磁能量的分布/传播模式的模型来确定入射在FOV的不同部分上的激发能量的量。例如,理论/经验模型(例如,深度映射)可以提供关于照射的强度如何随着与照射源的距离/角度而下降的信息,并且这种模型可以用于确定入射在FOV内的特定部分处的激发能量的量。模型可以被配置为例如考虑由于对应源的特定照射模式而引起的强度变化,和/或强度中的余弦因子下降。内窥镜系统500可以包括用于测量/估计照射源与FOV中的组织相距的距离的距离传感器(例如,设置在内窥镜轴505的尖端510处的距离传感器),并且可以使用该距离信息来确定/估计入射在FOV中的各个部分上的激发能量的量。
系统500可以包括渲染引擎540,其被配置为基于从图像传感器520和535接收的传感器输出来生成经校正的NIR图像。渲染引擎可以包括一个或多个处理设备(例如,图2中示出的处理设备43),其可以被配置为根据上面的等式(1)计算对应于FOV的每个像素的绝对荧光信号。在一些实施方式中,关于其估计的激发信号接近于零的像素,渲染引擎540可以被配置为掩蔽校正过程以便避免由除以接近于零的值而产生的任何不稳定性。然后,渲染引擎540可以生成用于显示器550的控制信号,使得经校正的NIR图像呈现在显示器550上。在一些实施方式中,显示器550可以被设置为以上参考图1描述的立体显示器45的一部分。
NIR图像像素值相对于入射激发能量的对应估计进行的归一化可以提供若干优点。一些此类优点在图6A和图6B的示例中示出。具体地,图6A是在没有本文所述的校正下的标准近红外(NIR)图像的示例,并且图6B是根据本文所述的技术生成的NIR图像的示例。在图6A中,区域605a中的荧光强度小于区域610a中的荧光强度。这可以导致外科医生或医疗专业人员相信区域610a中的ICG的量高于区域605a中的ICG的量。然而,如图6B所示,在根据本文所述的技术校正NIR图像后,事实看起来正好相反。具体地,在图6B中,区域610b看起来比区域605b暗,由此指示区域610b中的ICG的量小于区域605b中的ICG的量。因此,图6A中的表示受到入射激发能量的差量的影响,该差量在图6B的经校正的图像中被考虑。
如图6A和图6B的比较示例所示,本文所述的技术可以允许可视化组织的各个部分所吸收的染料(诸如ICG)的实际量。图6A和图6B所示的示例假定吸收的ICG在被可视化的组织的表面处或附近。在一些实施方式中,可以结合附加校正以考虑相对较深地吸收到组织中的ICG。在一些实施方式中,检测由组织吸收的染料的实际量的能力促进了与NIR成像相关联的各种类型的可视化。例如,经校正的NIR图像的数据可以用于根据所吸收的染料量来划分不同的区域。在一些实施方式中,这可以帮助外科医生更好地标识病变区域的轮廓。返回参考图5,渲染引擎540可以被配置为例如基于用户输入来配置,来标识图像中的ICG吸收高于阈值(例如,50%、90%、或另一个最大吸收百分比)的区域。对应轮廓随后可以呈现在显示设备550上。在一些实施方式中,响应于观看经校正的NIR图像和/或上述轮廓,可以接收来自外科医生的用户输入以操作遥控操作外科手术系统,诸如图1和图2所示的系统。
图7是用于在显示设备上显示外科手术场景的一部分的视觉表示的示例过程700的流程图。在一些实施方式中,显示设备可以是以上参考图2描述的立体显示器45。在一些实施方式中,过程700的至少一部分可以由以上参考图2描述的处理设备43执行。过程700的操作可以包括接收表示使用与外科手术设备相关联的相机的第一传感器来捕获的信息的数据(710)。使用第一传感器来捕获的信息指示表示从外科手术场景的该部分发射的荧光量的第一量。在一些实施方式中,相机可以是设置在内窥镜设备中的NIR相机。当存在于外科手术场景处的组织中的染料(例如,ICG)吸收由源(例如,NIR光源)提供的激发能量,并且在不同波长范围内重新发射所吸收的能量的一部分时,可以发生荧光。重新发射所发生的波长范围可以称为荧光光谱。
过程700的操作还包括获得指示表示致使从外科手术场景的该部分发射荧光的激发信号量的第二量的信息(720)。在一些实施方式中,使用双传感器系统(诸如图5所示的内窥镜系统)来获得指示第二量的信息。例如,获得指示第二量的信息可以包括接收从外科手术场景的该部分反射的激发信号的一部分,使用第二传感器(诸如图5所示的NIR相机530的图像传感器535)来捕获激发信号的该部分。然后可以基于来自第二传感器的输出信号来确定第二量。在一些实施方式中,第一传感器和第二传感器中的每一者可以是近红外(NIR)传感器。在一些实施方式中,捕获激发信号的部分包括朝向第二传感器改变激发信号的部分的传播方向。这可以例如使用光学滤光器525(图5)来完成,该光学滤光器包括相对于反射的NIR信号528的初始传播方向(或荧光信号527的传播方向)成角度设置的反射表面或元件。
在一些实施方式中,获得指示第二量的信息还可以包括访问与激发信号的源相关联的深度映射。这种深度映射可以提供关于作为与源的空间分离的函数的激发信号的强度变化的信息。在使用这种深度映射途径的实施方式中,可以接收表示关于外科手术场景的该部分和激发信号的源之间的空间分离的信息的数据,并且然后可以基于(i)外科手术场景的该部分和源之间的空间分离以及(ii)从深度映射获得的信息来确定第二量。可以从第三传感器(诸如设置在内窥镜设备的尖端处的距离传感器)接收表示关于空间分离的信息的数据。关于外科手术场景的该部分和源之间的空间分离的信息可以包括外科手术场景的该部分和源之间的角度和/或外科手术场景的该部分和源之间的距离。
过程700的操作还包括生成作为第一量和第二量的函数的归一化荧光信号(730)。在一些实施方式中,第一量和第二量的函数可以包括第一量与第二量的比率,诸如在等式(1)的右侧中表示的比率。
过程700的操作还包括基于归一化荧光信号来生成外科手术场景的该部分的视觉表示(740),以及在与外科手术设备相关联的显示设备上呈现外科手术场景的该部分的视觉表示(750)。在一些实施方式中,这可以包括接收关于与归一化荧光信号相关联的阈值条件的用户输入,确定其中归一化荧光信号满足阈值条件的区域,以及生成视觉表示以使得视觉表示包括其中归一化荧光信号满足阈值条件的区域的标识。例如,外科医生可以提供请求显示其中ICG吸收高于阈值的区域的轮廓的用户输入,并且视觉表示随后可以相应地包括此类轮廓。在一些实施方式中,响应于在显示设备上呈现外科手术场景的视觉表示,可以接收用户输入,该用户输入涉及在外科手术场景处操作外科手术设备。
本文描述的遥控操作外科手术系统的功能或其部分及其各种修改(以下称为“功能”)可以至少部分地经由计算机程序产品(例如有形地体现在信息载体(诸如一个或多个非暂时性机器可读介质或存储器设备)中的计算机程序)来实现,用于由一个或多个数据处理装置(例如,可编程处理器、DSP、微控制器、计算机、多个计算机和/或可编程逻辑部件)执行或控制其操作。
计算机程序可以以任何形式的编程语言编写,包括编译的或解释的语言,并且它可以以任何形式部署,包括作为独立程序或作为模块、部件、子程序或适合在计算环境中使用的其他单元。计算机程序可以被部署为在一个部位处或者分布在多个位置并通过网络互连的一个或多个处理设备上执行。
与实现全部或部分功能相关联的动作可以由执行一个或多个计算机程序以执行本文所述过程的功能的一个或多个可编程处理器或处理设备来执行。全部或部分功能可以实现为专用逻辑电路,例如FPGA和/或ASIC(专用集成电路)。
例如,适用于执行计算机程序的处理器包括通用和专用微处理器,以及任何类型的数字计算机的任何一个或多个处理器。通常,处理器将从只读存储器或随机存取存储器或两者接收指令和数据。计算机的部件包括用于执行指令的处理器和用于存储指令和数据的一个或多个存储器设备。
虽然本说明书包含许多特定的实施方式细节,但这些不应被解释为对所要求保护的内容的限制,而是可以对特定实施例特有的特征的描述。其他实施例也可以在本文描述的技术的范围内。本说明书中在分开的实施例的上下文中描述的某些特征也可以在单个实施例中组合实现。相反,在单个实施例的上下文中描述的各种特征也可以分开地或以任何合适的子组合在多个实施例中实现。此外,尽管在本文中,特征可以被描述为在某些组合中起作用并且甚至最初这样要求保护,但一些情况下,来自所要求保护的组合的一个或多个特征可以从组合排除,并且所要求保护的组合可以指向子组合或子组合的变型。
本文所述的不同实施方式的元素可以组合以形成以上未具体阐述的其他实施例。在不会对它们的操作产生不利影响的情况下,可以将元素排除在本文所述的结构之外。此外,各种分开的元件可以被组合成一个或多个单独元件以执行本文所述的功能。

Claims (24)

1.一个或多个非暂时性机器可读存储设备,其上编码有指令,所述指令用于致使一个或多个处理设备执行操作,所述操作包括:
接收表示使用与外科手术设备相关联的相机的第一传感器来捕获的信息的数据,所述信息指示表示从外科手术场景的一部分发射的荧光量的第一量;
获得指示表示致使从所述外科手术场景的所述部分发射所述荧光的激发信号量的第二量的信息;
生成作为所述第一量和所述第二量的函数的归一化荧光信号;
基于所述归一化荧光信号来生成所述外科手术场景的所述部分的视觉表示;以及
致使在与所述外科手术设备相关联的显示设备上呈现所述外科手术场景的所述部分的所述视觉表示,
其中获得指示所述第二量的所述信息包括:
访问与所述激发信号的源相关联的深度映射,所述深度映射提供关于作为与所述源的空间分离的函数的所述激发信号的强度变化的信息;
接收表示关于所述外科手术场景的所述部分和所述激发信号的所述源之间的空间分离的信息的数据;以及
基于(i)所述外科手术场景的所述部分和所述源之间的所述空间分离以及(ii)所述深度映射来确定所述第二量。
2.根据权利要求1所述的一个或多个非暂时性机器可读存储设备,其中获得指示所述第二量的所述信息包括:
接收从所述外科手术场景的所述部分反射的所述激发信号的部分;
使用第二传感器来捕获所述激发信号的所述部分;以及
基于来自所述第二传感器的输出信号来确定所述第二量。
3.根据权利要求2所述的一个或多个非暂时性机器可读存储设备,其中所述第一传感器和所述第二传感器中的每一者是近红外传感器即NIR传感器。
4.根据权利要求2所述的一个或多个非暂时性机器可读存储设备,其中捕获所述激发信号的所述部分还包括:
朝向所述第二传感器改变所述激发信号的所述部分的传播方向。
5.根据权利要求4所述的一个或多个非暂时性机器可读存储设备,其中使用相对于所述传播方向成角度设置的反射元件来改变所述传播方向。
6.根据权利要求1所述的一个或多个非暂时性机器可读存储设备,其中所述相机包括设置在所述相机的远侧尖端处的深度传感器。
7.根据权利要求1所述的一个或多个非暂时性机器可读存储设备,其中从第三传感器接收表示关于所述空间分离的信息的所述数据。
8.根据权利要求1所述的一个或多个非暂时性机器可读存储设备,其中关于所述外科手术场景的所述部分和所述源之间的所述空间分离的所述信息包括下列项中的至少一者:(i)所述外科手术场景的所述部分和所述源之间的角度,或者(ii)所述外科手术场景的所述部分和所述源之间的距离。
9.根据权利要求1所述的一个或多个非暂时性机器可读存储设备,其中致使呈现所述视觉表示包括:
接收关于与所述归一化荧光信号相关联的阈值条件的用户输入;
确定其中所述归一化荧光信号满足所述阈值条件的区域;以及
生成所述视觉表示以使得所述视觉表示包括其中所述归一化荧光信号满足所述阈值条件的所述区域的标识。
10.根据权利要求1所述的一个或多个非暂时性机器可读存储设备,还包括响应于致使在所述显示设备上呈现所述外科手术场景的所述视觉表示而接收用户输入,其中所述用户输入涉及在所述外科手术场景处操作所述外科手术设备。
11.根据权利要求1所述的一个或多个非暂时性机器可读存储设备,其中所述相机设置在所述外科手术设备中。
12.根据权利要求1所述的一个或多个非暂时性机器可读存储设备,其中所述第一量和所述第二量的所述函数包括所述第一量与所述第二量的比率。
13.一种成像系统,其包括:
第一图像传感器,所述第一图像传感器被配置为感测指示表示从外科手术场景的一部分发射的荧光量的第一量的信息;
渲染引擎,所述渲染引擎包括一个或多个处理设备,所述渲染引擎被配置为:
获得指示表示致使从所述外科手术场景的所述部分发射所述荧光的激发信号量的第二量的信息,
生成作为所述第一量和所述第二量的函数的归一化荧光信号,以及
基于所述归一化荧光信号来生成所述外科手术场景的所述部分的视觉表示;以及
显示设备,所述显示设备被配置为呈现所述视觉表示,
其中所述渲染引擎还被配置为:
访问与所述激发信号的源相关联的深度映射,所述深度映射提供关于作为与所述源的空间分离的函数的所述激发信号的强度变化的信息;
接收表示关于所述外科手术场景的所述部分和所述激发信号的所述源之间的空间分离的信息的数据;以及
基于(i)所述外科手术场景的所述部分和所述源之间的所述空间分离以及(ii)所述深度映射来确定所述第二量。
14.根据权利要求13所述的成像系统,包括:
第二图像传感器,所述第二图像传感器被配置为捕获从所述外科手术场景的所述部分反射的所述激发信号的部分。
15.根据权利要求14所述的成像系统,其中所述渲染引擎被配置为基于来自所述第二图像传感器的输出信号来确定所述第二量。
16.根据权利要求14所述的成像系统,其中所述第一图像传感器和所述第二图像传感器中的每一者是近红外传感器即NIR传感器。
17.根据权利要求14所述的成像系统,包括:
光学滤光器,所述光学滤光器被配置为朝向所述第二图像传感器选择性地改变所述激发信号的所述部分的传播方向,同时允许从所述外科手术场景的所述部分发射的所述荧光的至少一部分朝向所述第一图像传感器传播。
18.根据权利要求17所述的成像系统,其中所述光学滤光器包括相对于所述传播方向成角度设置的反射元件。
19.根据权利要求13所述的成像系统,包括第三传感器,所述第三传感器被配置为提供表示关于所述空间分离的所述信息的所述数据。
20.根据权利要求13所述的成像系统,其中关于所述外科手术场景的所述部分和所述源之间的所述空间分离的所述信息包括下列项中的至少一者:(i)所述外科手术场景的所述部分和所述源之间的角度,或者(ii)所述外科手术场景的所述部分和所述源之间的距离。
21.根据权利要求13所述的成像系统,其中所述渲染引擎被配置为:
接收关于与所述归一化荧光信号相关联的阈值条件的用户输入;
确定其中所述归一化荧光信号满足所述阈值条件的区域;以及
生成所述视觉表示以使得所述视觉表示包括其中所述归一化荧光信号满足所述阈值条件的所述区域的标识。
22.根据权利要求13所述的成像系统,其中所述成像系统被设置为外科手术装置的一部分,所述外科手术装置包括一个或多个输入设备,所述一个或多个输入设备被配置为响应于在所述显示设备上呈现所述外科手术场景的所述视觉表示而接收用户输入,所述用户输入涉及在所述外科手术场景处操作所述外科手术装置。
23.根据权利要求13所述的成像系统,其中所述第一图像传感器设置在内窥镜设备的相机中。
24.根据权利要求13所述的成像系统,其中所述第一量和所述第二量的所述函数包括所述第一量与所述第二量的比率。
CN201980079976.3A 2018-12-05 2019-12-03 用于图像引导外科手术的照射校正的近红外(nir)成像 Active CN113164022B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862775451P 2018-12-05 2018-12-05
US62/775,451 2018-12-05
PCT/US2019/064142 WO2020117744A1 (en) 2018-12-05 2019-12-03 Illumination corrected near-infrared (nir) imaging for image guided surgery

Publications (2)

Publication Number Publication Date
CN113164022A CN113164022A (zh) 2021-07-23
CN113164022B true CN113164022B (zh) 2024-05-17

Family

ID=69005964

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201980079976.3A Active CN113164022B (zh) 2018-12-05 2019-12-03 用于图像引导外科手术的照射校正的近红外(nir)成像

Country Status (5)

Country Link
US (1) US20220015857A1 (zh)
EP (1) EP3890583A1 (zh)
JP (1) JP2022510393A (zh)
CN (1) CN113164022B (zh)
WO (1) WO2020117744A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024039586A1 (en) 2022-08-15 2024-02-22 Intuitive Surgical Operations, Inc. Systems and methods for detecting and mitigating extraneous light at a scene

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015023990A1 (en) * 2013-08-15 2015-02-19 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
CN107155302A (zh) * 2014-07-30 2017-09-12 诺华股份有限公司 眼科外科手术中活体染料可视化及相关设备、系统和方法
CN107851176A (zh) * 2015-02-06 2018-03-27 阿克伦大学 光学成像系统及其方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020138008A1 (en) * 2000-01-13 2002-09-26 Kazuhiro Tsujita Method and apparatus for displaying fluorescence images and method and apparatus for acquiring endoscope images
JP4311607B2 (ja) * 2002-05-27 2009-08-12 富士フイルム株式会社 蛍光診断情報生成方法および装置
JP2004008230A (ja) * 2002-06-03 2004-01-15 Fuji Photo Film Co Ltd 蛍光診断情報生成装置
JP5926909B2 (ja) * 2011-09-07 2016-05-25 オリンパス株式会社 蛍光観察装置
JP6030035B2 (ja) * 2013-09-27 2016-11-24 富士フイルム株式会社 蛍光観察装置、内視鏡システム及びプロセッサ装置並びに作動方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015023990A1 (en) * 2013-08-15 2015-02-19 The Trustees Of Dartmouth College Method and apparatus for quantitative and depth resolved hyperspectral fluorescence and reflectance imaging for surgical guidance
CN107155302A (zh) * 2014-07-30 2017-09-12 诺华股份有限公司 眼科外科手术中活体染料可视化及相关设备、系统和方法
CN107851176A (zh) * 2015-02-06 2018-03-27 阿克伦大学 光学成像系统及其方法

Also Published As

Publication number Publication date
JP2022510393A (ja) 2022-01-26
CN113164022A (zh) 2021-07-23
US20220015857A1 (en) 2022-01-20
EP3890583A1 (en) 2021-10-13
WO2020117744A1 (en) 2020-06-11

Similar Documents

Publication Publication Date Title
US11792386B2 (en) Medical devices, systems, and methods using eye gaze tracking for stereo viewer
JP5707449B2 (ja) コンピュータディスプレイ画面の境界領域に表示されるツール位置および識別指標
US11406255B2 (en) System and method for detecting abnormal tissue using vascular features
CN112292092A (zh) 用于使用立体内窥镜测量距离的系统和方法
US11980347B2 (en) Combining near-infrared information with colored images in image-guided surgery
CN113164022B (zh) 用于图像引导外科手术的照射校正的近红外(nir)成像
US11357594B2 (en) Jig assembled on stereoscopic surgical microscope for applying augmented reality techniques to surgical procedures
EP3666166B1 (en) System and method for generating a three-dimensional model of a surgical site
US12002208B2 (en) Determining chromophore concentrations in tissues
CN111246818B (zh) 增强计算机辅助远程操作外科手术中不同组织之间的可见差异
US20220015617A1 (en) Determining chromophore concentrations in tissues

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant