CN109640868B - 同时带有白光和高光谱光的成像系统 - Google Patents

同时带有白光和高光谱光的成像系统 Download PDF

Info

Publication number
CN109640868B
CN109640868B CN201780051928.4A CN201780051928A CN109640868B CN 109640868 B CN109640868 B CN 109640868B CN 201780051928 A CN201780051928 A CN 201780051928A CN 109640868 B CN109640868 B CN 109640868B
Authority
CN
China
Prior art keywords
hyperspectral
frame
visible
image capture
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780051928.4A
Other languages
English (en)
Other versions
CN109640868A (zh
Inventor
I·E·麦克道尔
J·M·迪卡洛
B·D·霍夫曼
W·J·库尔曼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Intuitive Surgical Operations Inc
Original Assignee
Intuitive Surgical Operations Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Intuitive Surgical Operations Inc filed Critical Intuitive Surgical Operations Inc
Priority to CN202211548531.5A priority Critical patent/CN115778543A/zh
Publication of CN109640868A publication Critical patent/CN109640868A/zh
Application granted granted Critical
Publication of CN109640868B publication Critical patent/CN109640868B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00193Optical arrangements adapted for stereoscopic vision
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • A61B1/0005Display arrangement combining images e.g. side-by-side, superimposed or tiled
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00163Optical arrangements
    • A61B1/00186Optical arrangements with imaging filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/043Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for fluorescence imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B34/35Surgical robots for telesurgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0075Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence by spectroscopy, i.e. measuring spectra, e.g. Raman spectroscopy, infrared absorption spectroscopy
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/30Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/10Beam splitting or combining systems
    • G02B27/1006Beam splitting or combining systems for splitting or combining different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/371Surgical systems with images on a monitor during operation with simultaneous use of two cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Abstract

本申请公开一种计算机辅助外科手术系统,同时提供可见光和替代模态图像,其识别组织或增加外科医生在使用计算机辅助外科手术系统执行外科手术时正常使用的临床感兴趣的特征的视觉显著性。来自感兴趣的组织的高光谱光用于安全且有效地对该组织成像,即使该组织可在外科手术视野的正常可见图像中被遮挡。分析可见光图像和高光谱图像的组合以提供关于先前不可获得的组织或其它身体功能的细节和信息。

Description

同时带有白光和高光谱光的成像系统
相关申请
本申请要求以下优先权和益处:
美国专利申请No.62/385,700(2016年9月9日提交,公开了Ian E.McDowall等人的“同时带有白光和高光谱光的成像系统”)。
技术领域
本发明大体涉及外科手术进程中使用的成像技术,并且更具体地涉及与视觉成像相结合的高光谱成像。
背景技术
计算机辅助外科手术系统为患者提供了许多益处,诸如减少对身体的创伤、更快的恢复和更短的住院时间。计算机辅助外科手术系统的一个关键部件为提供双通道(即,左和右)视频捕获和可见图像显示的能力,以向外科医生提供立体观看。
此类电子立体成像系统可向外科医生输出高清晰度视频图像,并且可允许诸如变焦的特征以提供“放大”视图,其允许外科医生识别特定组织类型和特征,以及以更高精度工作。
在典型的微创外科手术视野中,某些组织类型难以识别,或者感兴趣的组织会至少部分地被其它组织遮挡。这使外科手术进程变得复杂。在一些应用中,荧光图像和反射的白光图像用于微创外科手术。荧光图像有助于识别感兴趣的组织。
存在各种荧光成像模式。荧光可由使用例如可注射染料、荧光蛋白或荧光标记抗体产生。荧光可由例如激光或其它能量源激发产生。荧光图像能够提供对于外科手术至关重要的重要体内患者信息,诸如病理信息(例如,荧光肿瘤)或解剖信息(例如,荧光标记的肌腱)。
因此,在微创外科手术中已知使用荧光成像进行组织可视化。进一步使用近红外(NIR)光技术与吲哚菁绿(ICG;美国伊利诺伊州森林湖爱克龙药业(ICG;Akorn,LakeForest,IL,USA))作为荧光剂已经用于达芬奇Si外科手术系统的微创外科手术。
例如,Hellen等人,“机械左侧结直肠外科手术中荧光成像对肠道横切位置的影响”,Surg.Endosc.在2014年1月3日,DOI 10.1007/s00464-013-3377-6,基于对吲哚菁绿(ICG)灌注和近红外光技术的评估,系统地评估荧光成像对结肠和直肠横切位置的影响。
例如,也已知在定位输尿管时使用荧光。使用IV注射或基于导管的近红外(NIR)荧光团的逆行注射来使用红外照明对输尿管成像。据报道,即使嵌入周围组织,输尿管也可被观看到,并且可使用不可见光实时评估损伤。Eiichi Tanaka等人,“使用近红外荧光进行实时术中输尿管引导”,J.Urol.178(5),pgs.2197-2201(2007)描述了使用吲哚菁绿(ICG)和CW800-CA、来自LI-COR(Lincoln,NE)的IRDyeTM 800CW NIR染料的羧酸形式作为NIR荧光团。Aya Matsui,M.D等人,“使用亚甲蓝的输尿管进行实时近红外荧光指导识别”,外科手术148(1)pgs.78-86(2010)使用亚甲蓝作为NIR荧光团。
另一种定位输尿管的途径为使用红外热像仪。室温盐水用作手术视野的冲洗剂,使得整个手术视野暂时冷却。随着手术视野被区别性地复温,结构(诸如血管)被快速地复温并且在红外图像中作为区别于暗背景的白线出现。该相同概念的第二个应用涉及用室温盐水填充上泌尿系统。骨盆和输尿管在较暖背景下呈现黑色,在红外图像中呈现白色。参见Jeffrey A.Cadeddu,M.D.等人,“腹腔镜红外成像”,泌尿学杂志,2001年第15卷第1期第111-116页。
发明内容
外科手术系统包括照明器和相机。照明器包括白光照明源和高光谱照明源。相机包括传感器组件。传感器组件包括第一图像捕获传感器和第二图像捕获传感器。第一图像捕获传感器被配置成捕获可见颜色帧,并且第二图像捕获传感器被配置成捕获高光谱帧。第一图像捕获传感器和第二图像捕获传感器基本上同时捕获可见颜色帧和高光谱帧。
在一个方面,相机安装在外科手术系统的机械臂上。外科手术系统的控制器耦合到照明器并且耦合到相机。控制器被配置成命令机械臂将相机移动到多个位置中的每一个,并且控制器被配置成命令相机在多个位置中的每一个处同时捕获可见颜色帧和高光谱帧。
在另一方面,控制器被配置成命令照明器输出高光谱波段的时间序列。在该方面,控制器被配置成命令相机针对多个高光谱波段中的每一个基本上同时捕获可见颜色帧和高光谱帧。
在又一方面,控制器被配置成命令相机捕获一组高光谱帧并且捕获可见帧。控制器被配置成由该组高光谱帧生成复合帧。可见帧包括手术部位的可见场景,并且复合帧包括在可见场景中明显显著的手术部位的特征。
外科手术系统也包括显示器单元,该显示器单元耦合到控制器以接收复合帧和可见帧。处理帧以识别(一个或多个)特征(或增强特征的可见性),并且显示器单元显示与可见场景叠加的(一个或多个)特征。在另一方面,显示器单元被配置成在画面中的画面内显示与可见场景叠加的特征。
相机包括共用于第一图像捕获传感器和第二图像捕获传感器的透镜组件。相机也包括定位在镜头组件与第一图像捕获传感器和第二图像捕获传感器之间的分束器。在一个方面,相机包括定位在分束器与第二图像捕获传感器之间的滤波器组件。
滤波器组件定位成过滤聚焦在第二图像捕获传感器上的光。在一个方面,滤波器组件为条纹滤波器。在另一方面,滤波器组件为在一个维度上波长线性可变的滤波器。
在一个方面,内窥镜包括照明器和相机。在另一方面,内窥镜安装在第一操纵器上。内窥镜包括相机。外科手术装置安装在第二操纵器上。外科手术装置包括照明器。
在又一方面,外科手术系统包括控制器,该控制器被配置成接收一个可见颜色帧序列和一个高光谱帧序列。控制器被配置成从对应于颜色帧序列中的每个可见颜色帧的高光谱帧序列中的一组高光谱帧产生复合高光谱帧。显示器单元耦合到控制器以针对每个可见帧接收可见帧序列和复合帧。
在一个方面,显示器单元被配置成显示可见帧序列,并且被配置成在可见帧序列的显示器中显示画中画,该画中画为与相应的复合帧叠加的每个可见帧的序列。
在另一方面,外科手术系统包括第一外科手术装置和第二外科手术装置。第一手术装置包括第一图像捕获单元,其被配置成捕获可见颜色帧。第二手术装置包括第二图像捕获单元,其被配置成捕获高光谱帧。第一图像捕获单元和第二图像捕获单元基本上同时捕获可见颜色帧和高光谱帧,并且将图像提供到图像处理单元。
在一个方面,第二外科手术装置包括深度感测单元。在另一方面,第二外科手术装置为套管。
附图说明
图1为计算机辅助外科手术系统的高级示意图,其包括同时的可视和高光谱成像能力。
图2为图1的计算机辅助外科手术系统100的一个示例的方面的更详细的图示。
图3为用于图2中系统的操作的处理流程图。
图4为用于图2的系统中组织照明和图像捕获的时间序列图。
图5A为包含在可见帧中的可见外科手术部位场景的抽象表示。
图5B为图5A的外科手术部位场景的扫描的抽象表示。
图5C为用于图5A的外科手术部位场景的画面内的画面的图示。
图6为图3的空间配准过程的一种实施方式的框图。
图7为使用时间序列高光谱照明捕获的高光谱帧的表示。
图8A为同时捕获可见帧和高光谱帧的与时间恒定高光谱照明一起使用的相机的图示。
图8B为适用于图8A的相机的第一类滤波器的图示。
图8C为适用于图8A的相机的第二类滤波器的图示。
图9为同时捕获可见帧和高光谱帧的与时间恒定高光谱照明一起使用的另一相机的图示。
图10A为包括图8A、图9或图10B的相机中的一个的外科手术装置的图示。
图10B为同时捕获可见帧和高光谱帧的与时间序列高光谱照明一起使用的相机的图示。
图11A为使用本文所描述的外科手术装置的另一计算机辅助外科手术系统的图示。
图11B为图1的计算机辅助外科手术系统或图11A的计算机辅助外科手术系统中使用的两个外科手术装置的更详细的图示。
图12A为在图11A的第一外科手术器械中与时间恒定高光谱照明一起使用的相机的图示。
图12B为在图11A的第一外科手术器械中与时间序列高光谱照明一起使用的相机的图示。
具体实施方式
本发明的方面增强了外科手术装置的视频捕获和视频观看能力,例如计算机辅助外科手术系统,诸如商购自加利福尼亚州桑尼维尔市的直觉外科手术公司(IntuitiveSurgical,Inc.,Sunnyvale,California)的
Figure BDA0001976754660000051
外科手术系统(da
Figure BDA0001976754660000052
SurgicalSystem),通过结合可见图像和替代模态图像来识别手术期间临床感兴趣的组织或其它方面。(
Figure BDA0001976754660000053
为加利福尼亚州桑尼维尔市的直觉外科手术公司的注册商标)。虽然本文使用计算机辅助外科手术系统作为示例,但是本发明的方面可与显示外科手术视野的图像的任何装置或系统一起使用,以在外科手术进程中辅助外科医生。
除了外科医生在使用计算机辅助外科手术系统执行外科手术时通常使用的可见图像之外,本发明的方面同时提供识别临床感兴趣的组织或其它特征的替代模态图像。在一个方面,来自感兴趣的组织的高光谱光用于安全且有效地对该组织成像,即使组织可能在外科手术视野的正常可见图像中被遮挡。在另一方面,分析可见光成像和高光谱成像的组合以提供关于先前不可获得的组织或其它身体功能的细节和信息。这里,高光谱光指的是光的光谱信息,其与人类可见的特征无关。
该成像组合可为可见图像和替代图像的叠覆,可触发打开和关闭替代图像的叠覆(例如,通过使用脚踏板或通过双击
Figure BDA0001976754660000054
外科手术系统外科医生的控制台上的主手指握把)。在一个方面,可见图像和替代图像的叠加─组合图像─呈现为画面内的画面/画中画,其中组合画面被呈现为外科医生观看的外科手术部位的正常显示场景内的画面,或者另选地,外科手术部位的正常显示的场景被呈现为组合画面内的画面。在一个方面,由于生成组合画面需要处理,所以组合画面中的场景在时间上追随正常显示给外科医生的场景。
图1为例如
Figure BDA0001976754660000055
外科手术系统的计算机辅助外科手术系统100的高级示意图。在该示例中,使用外科医生的控制台114的外科医生使用机械操纵臂113远程操纵内窥镜101。外科医生也能够操纵安装在其它机械操纵臂上的手术器械。存在与计算机辅助外科手术系统100相关联的其它部件、电缆等,但是这些未在图1中示出以避免有损本公开。可在例如美国专利申请公开No.US 2008-0065105 A1(2007年6月13日提交;公开微创外科手术系统)和美国专利No.6,331,181(2001年12月18日提交;公开外科手术机械工具、数据结构和使用)中发现有关计算机辅助外科手术系统的更多信息,这两篇文献都通过引用方式并入本文。
如下面更全面地解释的,照明系统(未示出)耦合到内窥镜101或另选地被包括在内窥镜101内。在一个方面,照明系统提供白光照明或白光照明和高光谱光照明的组合。在一个方面,该光的全部或一部分耦合到内窥镜101中的至少一个照明路径。在另一方面,照明源位于内窥镜101的远端尖端处或附近或后端壳体中。在一个方面,可见白光照明和高光谱照明在外科手术进程中都是恒定的。在另一方面,可见光照明在时间上是恒定的,但是高光谱照明的光谱随时间变化。
在这方面,来自内窥镜101的光照明患者111的组织103。在一个方面,内窥镜101为立体内窥镜,其包括两个光学通道(例如,左光学通道和右光学通道),以用于使来自组织的光(例如,反射的白光和反射或发射的高光谱)通过。在另一个方面,内窥镜101为单视场内窥镜,其包括单个光学通道以用于使来自组织的光(例如,反射的白光和反射或发射的高光谱)通过。
如下面更全面地解释的,对于两种类型的内窥镜,反射的白光被图像捕获系统120捕获为可见光帧121。可见光帧121包括包括组织103的图像的可见场景,并且可见光帧121有时被称为可见帧121。
反射和/或发射的高光谱光被图像捕获系统120捕获为高光谱光帧122。高光谱光帧122包括在内窥镜101的视野中的组织103或其它特征的高光谱场景。高光谱光帧122有时被称为高光谱帧122。图像捕获单元120基本上同时捕获可见帧和高光谱帧。这里,基本上同时、有效地同时、几乎同时和基本上并发地捕获可见帧和高光谱帧意指从人的视角来看,两个帧看起来在同一时间点被捕获。
在一个方面,图像捕获系统120中的相机安装在内窥镜101的近端上。在另一方面,相机安装在内窥镜101的远端中。这里,远端意味着更靠近手术部位且近端意味着更远离手术部位。如下面更全面地解释的,在一个方面,相机通过相同的前端光学器件捕获可见帧和高光谱帧。这与利用专用前端光学系统捕获高光谱帧的系统不同。
在一个方面,在预定时间间隔,基本上与对应的一对立体可见帧121同时地捕获立体的一对高光谱帧122。因此,图像捕获系统120使得能够捕获具有白光场景(例如,可见颜色场景)的帧121,并且也能够捕获在可见颜色场景中不显著的信息,即,捕获高光谱帧122。通常,捕获的高光谱帧122不一定具有与捕获的可见帧121相同的分辨率,因为用于捕获高光谱帧122的传感器的分辨率在某些情况下可小于用于捕获可见帧121的传感器的分辨率。用于实施可见光图像和高光谱图像的图像传感器的技术可基于在成像所需的所需波长范围内的最佳灵敏度、降噪和成像性能的实施方式细节而不同。
因此,捕获一组一个或多个高光谱帧,并且这组高光谱帧空间配准到相应的捕获的可见帧。空间配准意指高光谱帧中的每一个中的空间点被映射成使得捕获的高光谱帧中的每一个中的公共空间点能够被对齐以使得该组高光谱帧能够被叠加或被近似叠加以形成复合高光谱帧,并且复合高光谱帧的空间点被映射到可见帧中的对应空间点,使得复合高光谱帧和可见帧能够被叠加以形成组合帧,其有时被称为增强场景。
手术部位处的组织通常由于例如呼吸、心脏搏动、其它身体运动或蠕动和/或血液流动中的任何一种或任何组合而移动。该移动使得空间配准更加困难,但是在计算机辅助外科手术系统中,相机的位姿(位置坐标和取向坐标)针对捕获的每个图像为已知的并且能够在空间配准过程中被使用。
在一个方面,图像处理系统130产生增强场景141,即,可见帧中的可见场景与通过叠加所述一组高光谱帧形成的复合场景叠加。在一些方面,可见数据和高光谱数据的组合被转换以呈现给外科医生,例如,处理被数据以识别感兴趣的特定特征。增强场景141显示在外科医生控制台114的立体观看器中。由于所述一组高光谱帧捕获在可见场景中不显著的特征(例如,在可见帧的场景中不可见或不清晰可见的特征),所以增强图像向外科医生提供比在可见场景中可获得的更多的信息,例如感兴趣组织(诸如患病组织、神经、输尿管等)的位置。
在另一方面,外科医生控制台114的立体观看器具有画中画能力。当系统100的用户选择画中画查看模式时,呈现手术部位的正常视图,并且画中画向外科医生呈现具有被强调的非显著特征的手术部位的另一视图。另选地,在画中画查看模式的画面中,向外科医生呈现的手术部位的视图中强调了非显著特征并且画中画被呈现在手术部位的正常视图中。在两种情况下,在两个画面/画面中均呈现相同的可见手术部位场景,但是在增强场景中,可见手术部位场景可在时间上追随在正常视图中的相同手术部位场景。
而且,当深度信息可获得(例如,从立体相机或包括深度感测装置的内窥镜捕获的帧获得)时,能够分析高光谱帧中的信息以确定绝对反射率(与组织的相对反射率相比)。绝对反射率容许例如以绝对值确定患病组织或临床评估肝功能的速率。
图2为图1的计算机辅助外科手术系统100的一个示例的方面的更详细的图示。图3为用于图2中系统的操作的过程流程图,而图4为用于图2的系统中的组织的照明和图像的捕获的时间序列图。时间序列图适用于恒定高光谱照明和时间序列高光谱照明。
在图2的实施例中,计算机辅助外科手术系统100包括为组合光源210的照明器。组合光源210包括可见光照明器211(例如白光源)和高光谱光照明器212。照明器211和照明器212的具体实施方式并不至关重要,只要组合光源210具有下面更完整描述的能力即可。
在该方面,组合光源210与立体内窥镜101中的至少一个照明路径结合使用以照明组织103。在一个方面,组合光源210具有至少两种操作模式:正常观看模式和增强观看模式。在一个方面,增强观看模式被分成恒定高光谱照明模式和时间序列高光谱照明模式。
在正常观看模式中,可见光照明器211提供以白光照明组织103的照明。高光谱光照明器212不在正常观看模式中被使用。
在增强观看模式中,可见光照明器211提供以白光照明组织103的照明。在一个方面,高光谱光照明器212提供以在时间上恒定的高光谱光光谱(例如,红外光谱中的光)照明组织103的照明。在另一方面,高光谱光照明器212提供以时序高光谱光波段(例如,红外光谱中的光波段)照明组织103的照明。
使用红外或近红外光作为高光谱照明的示例仅为说明性的,并不旨在限制该具体的方面。鉴于本公开,本领域技术人员可选择使得捕获的可见帧中的非显著特征在捕获的高光谱帧中显著的高光谱照明。
在一个方面,可见光照明器211针对不同可见颜色照明部件中的每一个均包括一个光源。对于红绿蓝实施方式,在一种示例中,光源为激光器,即一个红色激光器、两个绿色激光器和一个蓝色激光器。
在可见光照明器211中使用激光仅为说明性的,而不旨在为限制性的。可见光照明器211也可用多个LED光源代替激光器来实施。另选地,可见光照明器211可使用具有椭圆形后反射器和带通滤波器涂层的氙灯,以产生用于可见图像的宽带白色照明光。氙灯的使用也仅为说明性的,而不旨在为限制性的。例如,可使用高压汞弧灯、其它弧光灯或其它宽带光源。
高光谱光照明器212的实施方式取决于感兴趣的高光谱。通常,一个激光模块、多个激光模块、一个发光二极管或多个发光二极管用作高光谱光照明器212。如果高光谱光照明器212提供时间恒定的高光谱光光谱,则可使用旋转滤波器来滤波高光谱光照明器212的输出,并且因此生成时序高光谱光波段。也可使用线性可变滤波器并且在光路径上滑动。两个此类滤波器也可用于选择性地产生一个照明波段。以这种方式使用的滤波器也可以被图案化以使得当相对于彼此移动时产生期望的光谱光源。
在正常观看模式和增强观看模式中,来自可见光照明器211的光或者来自可见光照明器211的光和来自高光谱光照明器212的光被引导到连接器216中。连接器216将光提供到立体内窥镜101中的照明路径,立体内窥镜101进而将光引导到组织103。连接器216和立体内窥镜101中的照明路径中的每一个均能够例如利用光纤束、单个刚性或柔性杆或光纤来实施。
来自手术部位103(图2)的光由内窥镜101中的立体光学通道(例如,左光学通道和右光学通道,或者另选地第一光学通道和第二光学通道)传递到相机220L、相机220R。如下面更全面地解释的,左相机220L包括左可见颜色图像捕获传感器221L_V和左高光谱图像捕获传感器221L_HS。左可见颜色图像捕获传感器221L_V捕获从立体内窥镜101的左通道接收的可见光作为左可见帧222L_V。左高光谱图像捕获传感器221L_HS捕获从立体内窥镜101的左通道接收的高光谱光或者高光谱和可见光作为左高光谱帧222L_HS。
类似地,右相机220R包括右可见颜色图像捕获传感器221R_V和右高光谱图像捕获传感器221R_HS。右可见颜色图像捕获传感器221R_V捕获从立体内窥镜101的右通道接收的可见光作为右可见帧222R_V。右高光谱图像捕获传感器221R_HS捕获从立体内窥镜101的右通道接收的高光谱光或者高光谱和可见光作为右高光谱帧222R_HS。
左相机220L和右相机220R两者基本上同时捕获可见帧和高光谱帧。捕获的可见帧和捕获的高光谱帧通过相同的前端光学器件被捕获。这与使用专用前端光学器件捕获高光谱图像的现有高光谱图像捕获系统不同。
通常但非必要地,高光谱图像捕获传感器的分辨率小于可见颜色图像捕获传感器的分辨率。例如,可见颜色图像捕获传感器中的像素具有1.2微米至2.2微米范围内的尺寸,而高光谱图像捕获传感器中的像素具有2微米至10微米范围内的尺寸。因此,为了获得有用的高光谱图像,如下面更全面地解释的,使用多个高光谱帧以针对一个时间点生成一个复合高光谱帧。复合高光谱帧包括通常在捕获的可见帧中不显著的信息。
相机220L通过左相机控制单元230L和图像处理模块240耦合到外科医生控制台114中的立体显示器251。图像处理模块240为图像处理系统130的一部分。相机220R通过右相机控制单元230R和图像处理模块240耦合到外科医生控制台114中的立体显示器251。相机控制单元230L、相机控制单元230R从系统处理控制模块262接收信号。系统处理控制模块262表示系统100中的各种控制器。
显示模式选择开关252向用户界面261提供信号,用户界面261进而将所选择的显示模式传递到系统处理控制模块262。系统处理控制模块262内的各种控制器配置照明控制器215、配置左相机控制单元230L和右相机控制单元230R以获取期望的图像以及配置成像处理模块240中处理所获取的场景所需的任何其它元件以便在立体显示器251中向外科医生呈现所请求的场景。除了本文提供的细节之外,成像处理模块240实施与已知图像处理管线等效的图像处理管线。
立体显示器251上的视频输出可通过使用例如脚踏开关、双击用于控制外科手术器械的主握把、视频控件和其它类似的切换方法在正常观看模式和增强观看模式之间转换。用于在观看模式之间切换的转换键在图2中表示为显示模式选择252。
除了以下更完整描述的方面之外,中央控制器260和系统处理控制模块262类似于现有系统。尽管被描述为中央控制器260,但是应当理解,控制器260可在实践中由任何数量的模块实施,并且每个模块可包括部件的任何组合。每个模块和每个部件可包括硬件、在处理器上执行的软件以及固件或这三者的任何组合。
而且,如本文所述,控制器260和系统处理控制模块262的功能和动作可由一个模块执行,或者划分给不同模块上或者甚至划分给一个模块的不同部件上。当划分给不同模块或部件时,模块或部件可集中在一个位置或分布在系统100上以用于分布式处理目的。因此,中央控制器260和系统处理控制模块262不应被解释为需要单个物理实体,因为在一些方面中,两者分布在系统100上。
这里,由相机220L捕获的图像的捕获、处理和显示与由相机220R捕获的图像的捕获、处理和显示相同。因此,在以下描述中,当仅讨论从立体内窥镜的一个通道中的光捕获的帧时,该讨论也可直接应用于从立体内窥镜的另一个通道中的光捕获的帧。因此,不对立体内窥镜的另一通道重复描述。
此外,在单视场内窥镜中,仅可获得与例如由相机220L捕获的帧等效的帧。因此,本文描述的不需要立体图像的方面也可直接应用于单视场内窥镜。
可在例如美国专利申请No.11/762,165(2007年6月23日提交;公开微创外科手术系统)、美国专利No.US 6,837,883 B2(2001年10月5日提交;公开用于遥控机械外科手术系统的臂车)以及美国专利No.6,331,181(2001年12月28日提交;公开外科手术机械工具、数据结构和使用)中发现关于计算机辅助外科手术系统的进一步信息,所有这些文献都通过引用方式并入本文。
在图2中,相机220L、相机220R和组合光源210被示出为在内窥镜101的外部。然而,在一个方面,相机220L、相机220R和光源210被包括在内窥镜101的邻近组织103的远端末端中;或者在内窥镜101的后端壳体中。
图3为系统100的成像操作300的一个方面的过程流程图。成像操作300包括两个管线(pipeline),即可见图像处理管线310和高光谱图像处理管线320。除了在一个方面中可见视频序列421L_V、421R_V(图4)被高光谱成像处理管线320保存和使用之外,可见图像处理管线310类似于现有的计算机辅助外科手术系统可见图像处理管线。
在图3的示例中,在增强观看模式中,在一个方面中,可见图像处理管线310和高光谱图像处理管线320两者同时显示视频输出。在另一方面,在增强观看模式中,仅高光谱图像处理管线320显示视频输出。在任一情况下,增强图像处理管线320输出显示器中的通常在可见视频图像序列中不能被观看到的特征或信息。
响应于来自显示模式选择252的用户输入选择正常观看模式,指示正常观看模式的显示器选择信号301(图3)被提供到用户界面261中的“观看模式”检查过程302(图3),其进而提供白光照明启用控制信号到“用白光照明组织”过程303。在一个方面,用户界面261由用户控制模块生成。
在一个方面,正常观看模式为默认模式。在该方面,不使用显示模式选择252,直至外科医生想要从正常观看模式切换到增强观看模式或从增强观看模式切换到正常观看模式。
“用白光照明组织”过程303将白光操作命令发送到组合光源210中的光控制器215。为了方便起见,光控制器215被示为位于组合光源210内,并且不旨在将光控制器215的位置限制到该特定位置。
响应于白光操作命令,光控制器215关断高光谱光照明器212(如果照明器212处于打开)并且准许可见光照明器211,使得组织103由白光照明。本领域技术人员认识到,代替接通和断开至照明器211和照明器212的电力,控制器215可以始终维护电力接通并且将来自照明器的输出引导到连接器216和引导离开连接器216并且实现相同的结果。
因此,在正常观看操作模式中,“用白光照明组织”过程303致使组织103被白光照明。来自组织103(图2)的可见光通过内窥镜101中的立体光学通道传递到图像捕获系统220。回顾上文,在该方面,图像捕获系统220包括左相机220L和右相机220R,左相机220L包括左可见颜色图像捕获传感器221L_V,右相机220R包括右可见颜色图像捕获传感器221R_V。
因此,在“捕获可见图像”过程304(图3)中,左可见颜色图像捕获传感器221L_V捕获可见左帧,并且右可见颜色图像捕获传感器221R_V捕获可见右帧。获取的左可见帧和右可见帧包括手术部位的带颜色/彩色场景,例如红─绿─蓝场景。
左可见颜色图像捕获传感器221L_V和右可见颜色图像捕获传感器221R_V可均为多个电荷耦合装置(CCD)(每个装置捕获不同的可见颜色分量)、单个CCD(CCD的不同区域捕获一个具体的可见颜色分量)等。三芯片CCD传感器仅为说明性的。具有滤色器阵列的单个CMOS图像捕获传感器或三CMOS颜色图像捕获传感器组件也可用于左可见颜色图像捕获传感器221L_V和右可见颜色图像捕获传感器221R_V中的每一个。
在获取左可见帧和右可见帧之后,“增强”检查过程305确定观看模式为增强模式还是正常模式。当观看模式被增强时,“增强”检查过程305转移到“保存可见图像”过程306,其保存所获取的左可见帧和右可见帧。当观看模式为正常时,“增强”检查过程305转移到“传输可见图像”过程307。
因此,在正常观看操作模式中,所获取的可见左可见帧和所获取的可见右帧被提供到执行“传输可见图像”过程307(图3)的中央控制器260中的图像处理模块240(图2)。在“传输可见图像”过程307中,完成对所述两个获取的可见帧的任意处理,使得当显示在帧中捕获的场景时,准确地再现相机的观看视野中的手术部位的一部分。该处理与现有系统中的处理相同。“传输可见图像”过程307将经处理的可见左帧和经处理的可见右帧发送到立体显示器251,并且通过立体显示器251在“显示可见图像”过程308中显示立体颜色场景。
除了“增强”检查过程305之外,正常观看操作模式中的处理等同于传统计算机辅助外科手术系统中的处理,并且因此对于本领域技术人员来说是已知的。而且,对于每个帧重复执行过程304、过程307和过程308,使得外科医生看到包括组织103的实时视频场景。
在正常观看操作模式期间,向外科医生提供组织103的正常三维颜色视图。然而,外科医生可能希望看到在组织103的三维视图中强调组织103中的一个或多个感兴趣区域。例如,外科医生会希望看到在组织103的正常三维颜色视图中不可见或不清晰可见的组织病变部分和/或特定组织(例如肌腱或器官)。因此,在时间t0(图4)处,外科医生使用显示模式选择252来切换到具有时间恒定高光谱照明的增强观看操作模式。
时间恒定高光谱照明
响应于来自显示模式选择252的用户输入,指示具有恒定高光谱照明的增强观看模式的增强显示器选择命令被提供给用户界面261中的“观看模式”检查过程302。响应于具有恒定高光谱照明的增强观看模式命令,在这方面,检查过程302向可见图像处理管线310中的“用白光照明组织”过程303提供启用白光照明控制信号,并且向高光谱图像处理管线320中的“用高光谱光照明组织”过程321提供启用高光谱恒定照明控制信号。
上面描述了可见图像处理管线310中的动作,并且因此这里不再针对这种增强观看模式进行重复,因为动作与上述相同。
响应于启用高光谱恒定照明控制信号,“用高光谱光照明组织”过程321将恒定高光谱光操作信号发送到组合光源210中的光控制器215。响应于恒定高光谱光操作信号,光控制器215配置高光谱光照明器212以向连接器216提供时间恒定的高光谱光光谱。
由于“用白光照明组织”过程303将白光操作信号发送到组合光源210中的光控制器215,因此光控制器215配置可见光照明器211以向连接器216提供白光。因此,在该增强模式中,用白光和高光谱光的组合照明组织103。
来自组织103(图2)的光由内窥镜101中的立体光学通道传递到图像捕获系统220。在一个方面,如下面更全面地解释的,滤波器用于选择由相机220L、相机200R(有时称为图像捕获单元220L、图像捕获单元220R)捕获的(一个或多个)高光谱波长光谱。
在这个增强观看操作模式中,在时间t0处,“捕获可见图像”过程304(图3)利用左可见图像捕获传感器221L_V获取第一可见左颜色帧421L_V_t0,并且利用右可见图像传感器221R_V获取第一可见右颜色帧421R_V_t0(图4)。类似地,在时间t0处,“捕获高光谱图像”过程322(图3)利用左高光谱图像捕获传感器221L_HS获取第一高光谱左帧421L_HS_t0,并且利用右高光谱图像捕获传感器221R_HS获取第一高光谱右帧421R_HS_t0。由于图像捕获单元的构造(如下面关于图8A更全面地讨论的)以及可见帧和高光谱帧的捕获过程中的动作同步,“捕获可见图像”过程304和“捕获高光谱图像”过程322基本上同时执行。
如先前所解释的,在时间t0处捕获的第一可见左颜色帧421L_V_t0和第一可见右颜色帧421R_V_t0针对任何增强观看模式由“保存可见图像”过程306保存。“保存可见图像”过程306转移到“画中画(PIP)模式”检查过程309。由“保存可见图像”过程306保存的帧可用于“空间配准”过程324。
在一个方面,计算机辅助外科手术系统100的用户使用用户界面来指定画中画增强模式或搜索增强模式。如果用户选择画中画增强模式,则“画中画(PIP)模式”检查过程309转移到“传输可见图像”过程307,否则转移到“捕获可见图像”过程304,其在时间t1处捕获另一组可见帧。因此,在画中画增强模式中,可视图像处理管线310在显示器251上生成正常外科手术部位视频帧序列。在搜索增强模式中,可视图像处理管线310不生成手术部位视频序列,并且因此通常,由于生成所显示的场景所需的处理延迟的原因,禁止使用手术器械或限制运动速率。
返回到高光谱图像处理管线320,一旦完成“捕获高光谱图像”过程322,则处理转移到“保存高光谱图像”过程323。“保存高光谱图像”过程323保存第一高光谱左帧421L_HS_t0和第一高光谱右帧421R_HS_t0,并且然后转移到“空间配准”过程324(有时称为过程324)。
如上所解释的,在一些情况下,高光谱帧的高光谱场景的分辨率小于可见帧的可见颜色场景的分辨率。因此,为了获得有用的高光谱图像,必须捕获能够被组合以产生具有可接受分辨率的复合高光谱图像的多个高光谱图像。所述多个高光谱图像中的高光谱图像的数量部分地取决于高光谱光照明器212的输出。
如果高光谱光照明器212输出时间恒定高光谱光光谱,则高光谱图像捕获传感器的每个像素(即左高光谱图像捕获传感器221L_HS的每个像素和右高光谱图像捕获传感器221R_HS的每个像素)仅捕获该像素的位置处的一部分高光谱光光谱。因此,扫描外科手术部位以致能够在场景中的每个位置处测量高光谱光的整个光谱或整个光谱中的至少足够部分,以形成在空间和光谱两者上具有可接受分辨率的复合高光谱帧。这里,可接受分辨率意指如下分辨率,即,使得当针对时间t0产生的复合高光谱图像叠加在时间t0处捕获的相应可视图像上时,能够从复合高光谱帧中导出且在其中呈现的特征足够详细以对观看者有用。
在每个位置处,当在外科手术部位上扫描图像捕获系统220的视野时捕获高光谱帧。在这些位置中的每一个位置处,图像捕获系统220的位姿是已知的,即,相机220L的位姿和相机220R的位姿是已知的。
基于从原始帧提取特征所用的算法的性能,凭经验确定在外科手术部位上扫描所需的高光谱帧的数量。具体地,使用不同数量的位置(在此捕获高光谱帧)来扫描手术部位,并且对于每组高光谱帧,生成复合高光谱帧,如下面更完整地描述的。这产生了一组复合高光谱帧。可要求一组人或算法或神经网络或其它机器学习构造来选择适当地显示感兴趣特征或可从其导出特征的(一个或多个)复合高光谱帧或帧组合。在一个方面,选择需要最少数量的位置来提供感兴趣特征的可接受图像的复合高光谱帧。因此,对于恒定高光谱照明,一组中的高光谱帧的数量N是凭经验确定的,并且因此对于后续情况是已知的。
返回到“空间配准”过程324,过程324分析该组N个高光谱帧,并且然后处理N个高光谱帧以形成包括外科手术部位的复合高光谱场景的复合高光谱帧。在一个方面,通过首先识别高光谱帧中的每个帧中的特征并且然后在该组高光谱帧中逐帧跟踪这些特征,来完成该组中的高光谱帧彼此之间的空间配准。当在所有帧中的一些中已知一个特征或多个特征的位置时,这容许重新对准帧,使得一个特征或多个特征处于复合高光谱图像中的共同位置。因此,特征的跟踪容许该组高光谱帧的叠加。
在一个方面,“保存高光谱图像”过程323将处理转移到“空间配准”过程324的“特征提取”过程325。“特征提取”过程325识别在接收的高光谱帧中的每一个中的特征(有时称为导航界标)。“特征提取”过程325转移到“设置”检查过程326。
图5A为被包含在可见帧510中的可见外科手术部位场景的抽象表示。感兴趣的特征506在帧510中不显著,例如,在可见帧510中包含的可见外科手术部位场景中,特征506隐藏或不可被人辨别。然而,由圆形501、圆形503和圆形505以及三角形502和三角形504表示的导航界标在帧510中为可见并且显著的。在实际外科手术部位场景中,正常的导航界标可为例如血管图案、组织图案或由血管或其它类似结构的交叉产生的不同组织或小特征的图案。因此,当“空间配准”过程324接收到新的高光谱帧时,“特征提取”过程325确定该帧中的导航界标。
“设置”检查过程326确定捕获的高光谱帧的数量是否等于N,其中N为非负整数。一组中的高光谱帧的数量N为在一个通道中捕获的高光谱帧的数量,因此在左通道和右通道的每一个中均捕获一组N个高光谱帧。如果捕获的高光谱帧的数量小于N,则“设置”检查过程326转移到“恒定照明(Ill.)模式”检查过程329,但是如果捕获的高光谱图像的数量等于N,则“设置”检查过程326转移到“空间配准”过程324的“追踪特征”过程327和“重置设置计数器”过程328;另选地,N个高光谱帧可作为帧的循环缓冲器被对待,使得计数器索引到N个帧中,并且代替简单的模数N,将N个堆叠中的高光谱帧替换成新的帧。
在时间t0处捕获高光谱图像421L_HS_t0之后,捕获的高光谱图像的数量小于N,并且因此“设置”检查过程326转移到“恒定照明(Ill.)模式”检查过程329。在该示例中,高光谱照明光谱在时间上为恒定的,并且因此“恒定照明模式”检查过程329将处理转移到“移动相机”过程330。
“移动相机”过程330将相机220移动到下一个位置以扫描外科手术部位,并且然后重复过程322、过程323、过程324和过程330。因此,在时间t1处,“捕获高光谱图像”过程322(图3)利用左高光谱图像捕获传感器221L_HS获取第二高光谱左帧421L_HS_t1并且利用右高光谱图像捕获传感器221R_HS获取第二高光谱右帧421R_HS_t1(图4)。“捕获可见图像”过程304与“捕获高光谱图像”过程322同步,使得在时间t1处,“捕获可见图像”过程304(图3)利用左可见图像捕获传感器221L_V获取第二可见左颜色帧421L_V_t1,并且利用右可见图像捕获传感器221R_V获取第二可见右颜色帧421R_V_t1。
重复过程330、过程322、过程323、过程324直至时间tN-1处,“捕获高光谱图像”过程322(图3)利用左高光谱图像捕获传感器221L_HS获取第N个高光谱左帧421L_HS_tN-1,并且利用右高光谱图像捕获传感器221R_HS获取第N个高光谱右帧421R_HS_tN-1(图4),并且“捕获可见图像”过程304(图3)利用左可见图像捕获传感器221L_V获取第N个可见左颜色帧421L_V_tN-1,并且利用右可见图像捕获传感器221R_V获取第N个可见右颜色帧421R_V_tN-1。由于捕获的高光谱帧的数量现在等于N,因此“设置”检查过程326转移到“追踪特征”过程327并且转移到“重置设置计数器”过程328。
图5B为图5A的外科手术部位场景的扫描的抽象表示。场景中的每个框表示捕获的高光谱帧中的一个。图5B未按比例绘制,并且框仅表示捕获的高光谱帧而不表示帧的尺寸。捕获的高光谱帧的尺寸例如通过高光谱图像捕获传感器中的像素的尺寸和数量以及产生图像的光学器件的特性来确定。捕获的高光谱帧包括导航界标501至505中的一些或全部的图像。
“重置设置计数器”过程328重置计数器以获得在一组中捕获的高光谱帧的数量,并且将处理转移到“恒定照明(Ill.)模式”检查过程329。在该示例中,输出照明为恒定的,并且因此“恒定照明模式”检查过程329将处理转移到“移动相机”过程330。
“移动相机”过程330移动相机220以扫描外科手术部位,并且然后对第二组捕获的高光谱帧重复过程322、过程323、过程324和过程330。因此,在时间tN处,“捕获高光谱图像”过程322(图3)在第二组高光谱图像中利用左高光谱图像捕获传感器221L_HS获取第一高光谱左帧421L_HS_tN,并且利用右高光谱图像捕获传感器221R_HS获取第一高光谱右帧421R_HS_tN。在时间tN处,“捕获可见图像”过程304(图3)利用左可见图像捕获传感器221L_V获取第N+1个可见左颜色帧421L_V_t1,并且利用右可见图像捕获传感器221R_V获取第N+1个可见右颜色帧421R_V_t1。
以与刚刚针对第一组描述的方式相同的方式对第二组高光谱图像重复过程330、过程322、过程323、过程324。如果使用循环缓冲技术实现获取,则高光谱图像组始终包括N个最近的帧,并且上述过程填充N个深度的缓冲器。也要注意,高光谱帧之间的时间间隔可大于或小于可见光帧之间的时间间隔─对外科医生示出的图像的重新对准和组成没有根本改变。
回顾上文,一旦完成第一组高光谱图像的捕获,处理转移到“空间配准”过程324的“跟踪特征”过程327。在高光谱帧中捕获的可见导航界标501至505使得能够实现组织跟踪过程以便对准在不同时间点捕获的高光谱帧中获取的光谱数据,以形成时间t0的复合高光谱图像。由于在时间t0处捕获的高光谱帧与在时间t0处捕获的可见帧之间的空间关系是已知的,因此复合高光谱帧可与在时间t0处捕获的可见帧510叠加,即使高光谱外科手术部位场景中的对象的位置可随时间稍微改变仍如是。另选地,高光谱图像中的特征可与可见图像中的对应可见特征对准,以将每个高光谱帧对准可见帧。在又一方面,高光谱图像中的特征用于对准高光谱图像,并且然后复合高光谱帧与可见帧对准。从相机制造商校准中已知高光谱传感器与可见传感器对准。
因此,在一个方面,“空间配准”过程324,特征为使用例如尺度不变特征变换(SIFT)计算机生成的,并且这些计算机生成的特征与视觉同时定位和映射(vSLAM)模型一起使用,其中随着组织移动(由于呼吸和心率等)且随着跟踪捕获框架的相机的位置和取向,随时间跟踪组织表面上的特征(点的位置)。未详细描述SIFT和VSLAM,因为两者的组合为已知的。例如,参见Niklas Karlsson,Luis Goncalves,Mario E.Munich和PaoloPirjanian,“用于自然环境中导航的vSLAM算法”,韩国机械学会评论,第2卷,第1期,pp.51-67,2005,该文献通过引用方式并入本文。
另外,如果相机系统为立体的,则来自在每个时刻捕获的一对高光谱帧或可见帧的附加信息可用于改善随时间对组织的跟踪。每对立体高光谱帧或可见帧都可用于产生外科手术场景的深度图。该深度图提供有关关于时间何种特征可见的信息,并且因此提高了跟踪一些特征的能力。
图6为执行“空间配准”过程324的空间配准模块624的一个实施方式的框图。特征提取模块625中的SIFT分析器模块601接收由相机220捕获的所述一组高光谱帧中的每一帧作为输入。SIFT分析器模块601检测该组中每个捕获的高光谱帧中的特征的位置,并且将表征特征的信息保存在界标数据库603中。这里,相机220为相机220R和相机220L中的一个。回顾上文,捕获的左高光谱帧组和捕获的右高光谱帧组的处理是相同的。在这方面,提取模块625执行“特征提取”过程325。类似地,也处理可视帧并且提取它们的特征。
空间配准模块624中的检查模块626执行先前描述的“设置”检查过程326。
针对每个高光谱帧和可见帧(可已在不同时刻被捕获),相机控制器630向vSLAM分析器模块602提供相机位姿。vSLAM分析器模块602被包括在空间配准模块624的跟踪模块627中。在这方面,跟踪模块627执行“跟踪特征”过程327。
vSLAM分析器模块602使用界标数据库603中的信息并且随时间跟踪界标的位置,使得该组中的帧可叠加以形成由“空间配准”过程625输出的复合高光谱帧605。相机位姿信息使跟踪过程更加稳健。
如上所描述的,模块624、模块625、模块626、模块627、模块601和模块602中的每一个都可包括硬件、RTL、在处理器上执行的软件、固件或这些的任何组合。
因此,返回图3,“空间配准”过程324的结果为由捕获的一组高光谱帧形成的复合高光谱帧。高光谱帧中的像素对应于在时间t0处捕获的可见帧中的像素,使得当复合高光谱帧叠加在时间t0处捕获的可见帧上时,特征506处于正确位置并且为可见的。当这两个帧叠加时,复合高光谱帧中的特征相对于可见帧被强调。例如,复合高光谱帧中的特征可使用通常在外科手术场景场景中看不到的颜色(例如,绿色)进行伪着色。在另一方面,组合的可视和高光谱图像例如通过机器学习分类器或类似过程来处理以识别特定组织类型等。
可以以一些方式结合可见帧进一步处理高光谱帧以产生复合输出,这导致一些外科医生在一些时间难以在图像中看到的特征的视觉显著性增加。例如,复合图像可以强调根本不出现在可视图像中的结构,并且因此向外科医生提供信息。从高光谱数据和可见图像产生的这些增强图像可揭示非常有经验的外科医生可确定但是住院医生或助手可难以确定的信息。
一旦完成,“空间配准”过程324转移到可选的“特定特性确定”过程331(有时称为过程331)。过程331为可选的,因为当使用立体内窥镜时并且当需要诸如来自组织的光的绝对反射或发射的参数来解释待显示的图像中的信息(即所显示的场景)时利用该过程。
因此,“空间配准”过程324或“特定特性”过程331转移到“传输可见和复合图像”过程332(有时称为过程332)。过程332将针对时间t0的可见帧421R_V_t0和可见帧421L_V_t0以及复合高光谱帧发送到立体显示器251,或者另选地发送在两个通道的每一个中的可见和高光谱图像的叠加。在“显示可见和复合图像”过程333中由立体显示器显示的图像取决于由系统100的用户选择的具体增强显示模式。
例如,在仅搜索增强模式中,“PIP模式”检查过程309不转移到“传输可见图像”过程307,并且因此在“显示可见和复合图像”过程333中,与包括感兴趣特征506的复合高光谱场景叠加的包括组织103的立体颜色可见场景被呈现在立体显示器251上。在该模式中延迟在立体显示器上的初始显示以提供高光谱图像处理管线320所需的处理时间(例如约100至500毫秒),并且然后将连续视频序列呈现给系统100的用户。
在另一方面,在画面增强模式中的画面中,“PIP模式”检查过程309转移到“传输可见图像”过程307,过程307进而转移到“显示可见图像”过程308,其在立体显示器251上显示包括组织103的可视场景的视频序列作为主显示场景520(图5C)。“显示可见和复合图像”过程333呈现与与包括感兴趣特征506的复合高光谱场景叠加的包括组织103的立体颜色可见场景,该复合高光谱场景作为在立体显示器251上的画面场景525内的画面。
由于高光谱图像处理管线320比可见图像处理管线310需要更多的处理时间,因此在画中画中带有叠加的复合图像的组织103的可见图像在时间上追随主显示场景520。然而,画中画中的可见图像与主显示场景520中出现的可见图像相同。例如,帧421R_V_t0和帧421L_V_t0显示在主显示场景520中,并且然后在一段时间之后,与时间t0的复合高光谱帧叠加的帧421R_V_t0和帧421L_V_t0显示在画面场景525内的画面中。然而,由于两个显示中的可见图像场景为相同的,因此画面场景内的画面中的轻微延迟对于系统100的用户为可接受的。
时间序列高光谱照明
在先前的高光谱图像处理管线320的示例中,假设高光谱照明在时间和光谱上为恒定的,并且相机在场景上扫描以捕获可组合以形成复合帧的高光谱帧,即使捕获的场景的一部分相对于时间移动。然而,在另一示例中,高光谱照明的光谱在时间上序列地变化,并且针对高光谱照明的每个时间序列波段捕获一个高光谱帧,或者另选地针对高光谱照明的每个时间序列波长捕获一个高光谱帧。如本文所使用,高光谱光的波段为高光谱光的光谱。如果波段仅包括单个波长,则该波段(通常为波长的范围)和该波长是相同的。同样,被捕获的场景的方面可随时间移动,并且因此在每个帧中可捕获相同的场景,捕获的场景内的元素的位置可以随帧是变化的。
在考虑具有时间序列照明的高光谱图像处理管线320之前,图7为经由高光谱图像处理管线320捕获的高光谱帧序列的图示。如果使用立体图像捕获系统,则图7中的帧序列表示捕获的左高光谱帧和右高光谱帧两者。在时间t0处,用高光谱光波段L0照明组织103,并且来自组织103的高光谱光被捕获在帧821_HS_t0中。在时间t1处,用高光谱光波段L1照明组织103,并且来自组织103的高光谱光被捕获在帧821_HS_t1中。在时间t2处,用高光谱光波段L2照明组织103,并且来自组织103的高光谱光被捕获在帧821_HS_t2中。在时间tN-1处,用高光谱光波段LN-1照明组织103,并且来自组织103的高光谱光被捕获在帧821_HS_tN-1中。在时间tN处,用高光谱光波段L0照明组织103,并且来自组织103的高光谱光被捕获在帧821_HS_tN中。
这里,第一高光谱光波段L0、第二高光谱光波段L1、第三高光谱光波段L2......以及第N高光谱光波段中的形容词第一、第二、第三......第N并不意指暗示波段中波长的任何顺序或波段相对于波长的任何顺序,而是使用不同的高光谱光光谱。而且,如下所解释的,每个高光谱帧基本上与可见颜色帧同时被捕获。基本上同时的含义与上文所描述的相同。
因此,在该示例中,使用N个波段,其中N为等于或大于2的整数。所使用的序列波段的数量N为已知的,并且通常取决于感兴趣的组织。通常,使用少于十个不同的序列波段,但是也可使用十个以上的序列波段。例如,在一个方面,三个波段用于对输尿管成像。参见美国专利申请No.62/092,651(2014年12月16日提交,并且公开了“使用波段选择性成像的输尿管检测”),其全部内容通过引用方式并入本文。
返回图3,响应于来自显示模式选择252的用户输入,向用户界面261中的“观看模式”检查过程302提供指示具有时间序列高光谱照明的增强观看模式的增强显示选择命令。响应于具有时间序列高光谱照明命令的增强观看模式,在这方面,检查过程302向可见图像处理管线310中的“用白光照明组织”过程303提供启用白光照明控制信号,并且向高光谱图像处理管线320中的“用高光谱光照明组织”过程321提供启用高光谱时间序列照明启用信号。
上面描述了可见图像处理管线310中的动作,因此这里针对该增强观看模式不再重复,因为动作与上述相同。
响应于高光谱时间序列照明控制信号,“用高光谱光照明组织”过程321将时间序列高光谱光操作信号发送到组合光源210中的光控制器215。响应于时间序列高光谱光操作信号,光控制器215配置高光谱光照明器212以向连接器216提供第一高光谱光波段L0
由于“用白光照明组织”过程303将白光操作信号发送到组合光源210中的光控制器215,因此光控制器215配置可见光照明器211以向连接器216提供白光。因此,在该增强模式中,用白光和第一高光谱光波段的组合照明组织103。
来自组织103(图2)的光由内窥镜101中的立体光学通道传递到图像捕获系统220。在该增强观看操作模式中,在时间t0处,“捕获可见图像”过程304(图3)利用左可见图像捕获传感器221L_V获取第一可见左颜色帧421L_V_t0,并且利用右可见图像捕获传感器221R_V获取第一可见右颜色帧421R_V_t0。类似地,在时间t0处,“捕获高光谱图像”过程322(图3)利用左高光谱图像捕获传感器221L_HS获取第一高光谱左帧421L_HS_t0,并且利用右高光谱图像捕获传感器221R_HS获取第一高光谱右帧421R_HS_t0(图4)。由于图像捕获单元的构造(如下面关于图10B更全面地讨论的)以及可见帧和高光谱帧的捕获过程中的动作同步,“捕获可见图像”过程304和“捕获高光谱图像”过程322基本上同时执行。
如前所述,在时间t0处捕获的第一可见左颜色帧421L_V_t0和第一可见右颜色帧421R_V_t0针对任何增强观看模式由“保存可见图像”过程306保存。“保存可见图像”过程306转移到“画中画(PIP)模式”检查过程309。由“保存可见图像”过程306保存的帧可用于“空间配准”过程324。“画中画(PIP)模式”检查过程309如上所述操作,并且因此这里不再重复描述。
返回到高光谱图像处理管线320,一旦完成“捕获高光谱图像”过程322,则处理转移到“保存可见图像”过程323。“保存高光谱图像”过程323保存第一高光谱左帧421L_HS_t0和第一高光谱右帧421R_HS_t0,并且然后转移到“特征提取”过程325。
在一个方面,过程325等同于上面的描述,并且因此这里不再重复描述。“特征提取”过程325将处理转移到“设置”检查过程326。
同样,组成一组所需的高光谱帧的数量N为已知的。如上所描述的,高光谱帧的高光谱场景的分辨率可远小于可见帧的可见颜色场景的分辨率。因此,在此类情况下,为了获得临床上有用的高光谱图像,需要捕获能够被组合以产生具有可接受分辨率的复合高光谱图像的多个高光谱图像。所述多个高光谱图像中的高光谱图像的数量取决于所使用的照明波段的数量N。
在这方面,高光谱光照明器212以时间序列输出高光谱光波段,例如,在时间t0处的第一波段L0、在时间t1处的第二波段L1等,该组高光谱图像中的高光谱图像的数量等于由高光谱光照明器212输出的时间序列照明波段的数量N。如果高光谱光照明器212以时间序列输出不同的高光谱光波段,例如,在时间t0处的第一波段L0、在时间t1处的第二波段L1等,并且针对每个波段在外科手术部位上扫描相机220的观看视野,则针对每个波段的一组高光谱图像中的高光谱图像的数量以与针对来自高光谱光照明器212的时间恒定输出所描述的方式等效的方式凭经验确定。在这方面,有两个数量需要控制。第一个数量为针对每个波段在外科手术部位的空间扫描中捕获的高光谱帧的数量m,第二个数量k为所使用的时间序列波段的数量。在这方面,对于波段中的每个,使用m个高光谱帧以与恒定照明示例等效的方式形成复合高光谱帧。这产生了k个复合高光谱帧。然后针对时间序列照明使用配准过程叠加所述k个复合帧,以形成最终复合图像。
对于没有空间扫描的时间序列高光谱照明,一组中的高光谱帧N的数量为已知的,并且“设置”检查过程326确定捕获的高光谱帧的数量是否等于N,其中N为非负整数。一组中的高光谱帧的数量N同样为在一个通道中捕获的高光谱帧的数量,并且因此在左通道和右通道的每一个中均捕获一组N个高光谱帧。如果捕获的高光谱帧的数量小于N,则“设置”检查过程326转移到“恒定照明(Ill.)模式”检查过程329,但是如果捕获的高光谱图像的数量等于N,则“设置”检查过程326转移到“追踪特征”过程327以及“重置设置计数器”过程328。
在时间t0处捕获高光谱图像421L_HS_t0之后,捕获的高光谱图像的数量小于N,并且因此“设置”检查过程326转移到“恒定照明(Ill.)模式”检查过程329。在该示例中,输出照明为时间序列的,并且因此“恒定照明模式”检查过程329将处理转移到“用高光谱光照明组织”过程321。
在一个方面,“用高光谱光照明组织”过程321使用设置计数器的值来确定照明组织103的波段。因此,在该示例中,“用高光谱光照明组织”过程321将针对第二波段L1的时间序列高光谱光操作信号发送到组合光源210中的光控制器215。响应于针对第二波段L1的时间序列高光谱光操作信号,光控制器215配置高光谱光照明器212以向连接器216提供第二高光谱光波段L1。因此,用第二高光谱光波段L1照明组织103。
一旦完成“用高光谱光照明组织”过程321,则重复过程322、过程323、过程324、过程325和过程326。因此,在时间t1处,“捕获高光谱图像”过程322(图3)利用左高光谱图像捕获传感器221L_HS获取第二高光谱左帧421L_HS_t1,并且利用右高光谱图像捕获传感器221R_HS获取第二高光谱右帧421R_HS_t1。“捕获可见图像”过程304与“捕获高光谱图像”过程322同步,使得在时间t1,“捕获可见图像”过程304(图3)利用左可见图像捕获传感器221L_V获取第二可见左颜色帧421L_V_t1,并且利用右可见图像捕获传感器221R_V获取第二可见右颜色帧421R_V_t1。
重复过程329、过程321、过程322、过程323、过程325和过程326直至时间tN-1处,“捕获高光谱图像”过程322(图3)利用左高光谱图像捕获传感器221L_HS获取第N个高光谱左帧421L_HS_tN-1,并且利用右高光谱图像捕获传感器221R_HS获取第N个高光谱右帧421R_HS_tN-1,以及“捕获可见图像”过程304(图3)利用左可见图像捕获传感器221L_V获取第N个可见左颜色帧421L_V_tN-1,并且利用右可见图像捕获传感器221R_V获取第N个可见右颜色帧421R_V_tN-1。由于捕获的高光谱帧的数量现在等于N,因此“设置”检查过程326转移到“追踪特征”过程327并且转移到“重置设置计数器”过程328。
“重置设置计数器”过程328重置用于在一组中捕获的高光谱帧的数量的计数器,并且将处理转移到“恒定照明(Ill.)模式”检查过程329。注意,过程328用于便于讨论并不旨在为必需的。如上所指示,如果使用循环缓冲器,则不必跟踪捕获的帧的数量。而且,如果使用旋转滤波器或者与组合光源200地结合使用在N个事件之后再循环的控制逻辑,则不需要维护和重置计数器。
在该示例中,输出照明为时间序列的,并且因此“恒定照明模式”检查过程329将处理转移到“用高光谱光照明组织”过程321。“用高光谱光照明组织”过程321将针对波段L0的时间序列高光谱光操作信号发送到组合光源210中的光控制器215。响应于针对波段L0的时间序列高光谱光操作信号,光控制器215配置高光谱光照明器212以向连接器216提供第一高光谱光波段L0。因此,在时间tN处,“捕获高光谱图像”过程322(图3)在第二组高光谱图像中利用左高光谱图像捕获传感器221L_HS获取第一高光谱左帧421L_HS_tN,并且利用右高光谱图像捕获传感器221R_HS获取第一高光谱右帧421R_HS_tN。在时间tN处,“捕获可见图像”过程304(图3)利用左可见图像捕获传感器221L_V获取N+1个可见左颜色帧421L_V_t1,并且利用右可见图像捕获传感器221R_V获取N+1个可见右颜色帧421R_V_t1。根据需要,以与刚刚针对第一组描述的相同方式对第二组高光谱图像重复过程322、过程323、过程324。
回顾上文,一旦完成第一组高光谱图像的捕获,则处理也转移到“跟踪特征”过程327。“跟踪特征”过程327至“显示可见和复合图像”过程333如先前所描述起作用,并且因此这里不再重复描述。
上述示例假设针对时间序列高光谱照明和针对时间恒定高光谱照明的“空间配准”过程324为相同的过程。这仅是说明性的并不旨在进行限制。
在另一方面,不同的“空间配准”过程324用于时间序列高光谱照明。在这方面,使用立体内窥镜,并且因此可以针对每个高光谱照明波段均形成一个高光谱深度图。因此,通过使用在左图像和右图像之间的立体对应,产生N个高光谱深度图。
由于相机位姿对于N个高光谱深度图未改变,因此N个高光谱深度图可用于对准N个高光谱帧,使得这些帧可组合以形成复合高光谱帧。可以通过使用最小化过程找到深度图之间的最佳匹配来完成对准,该最小化过程通过最小化点云之间的平方和距离来找到最接近的匹配。例如,可使用迭代最近点过程。复合高光谱帧以与以上针对时间恒定照明所述相同的方式叠加在可见帧上。
用于时间恒定照明的图像捕获单元
图8A为适合用作具有时间恒定高光谱照明源和白光照明源的相机220L和相机220R的图像捕获单元920的一个方面的图示。在该示例中,来自内窥镜101中的一个或多个照明通道的光照明组织103。虽然未在图8A中示出,但是内窥镜101的观看视野内的一个或多个手术器械也可经由来自一个或多个照明通道的光照明。使用内窥镜中的一个或多个照明通道仅为说明性的,并不旨在限制本说明书中呈现的各种示例。照明可由内窥镜中的照明源提供,或者由内窥镜内部或外部的一些其它设备提供。
从组织103反射的光和任何荧光由透镜组件905作为光901接收。透镜组件905可包括将所接收的光引导到传感器组件921的多个光学部件中的一个。注意,透镜组件不包括用于处理高光谱光的任何类型的狭缝。在一些方面,透镜组件905被折叠。
来自透镜组件905的光传递到传感器组件921。在一些方面,透镜组件905不校正纵向颜色。
在传感器组件921内,在这方面,光被布置在分束器立方体910的对角线上的分束器911接收。在一个方面,分束器911被实施为被掩盖涂覆表面。
分束器立方体的使用仅为说明性的,而并不旨在进行限制。例如,分束器911可为漂浮在空间中的滤波器。
分束器911将从透镜组件905接收的光的第一部分902引导到可见颜色图像捕获传感器921_V,并且将从透镜组件905接收的光的第二部分903引导到配准辅助滤波器组件940(有时称为滤波器组件940)。在图8A的示例中,分束器911将从透镜组件905接收的光的第一部分902反射到可见颜色图像捕获传感器921_V,并且将从透镜组件905接收的光的第二部分903传输到滤波器组件940。在本文描述的每个方面中,光被引导到图像捕获传感器的表面上,并且因此为了简洁起见,这被描述为将光引导到图像捕获传感器上。
光的第一部分902和光的第二部分903中的光的波长由分束器911的特性确定。在一个示例中,分束器911被配置成使得光的第一部分902为从透镜组件905接收的可见光的第一部分,并且光的第二部分903为从透镜组件905接收的可见光的第二部分和从透镜组件905接收的高光谱光的组合。在一个示例中,分束器911被配置成使得第一部分902为从透镜组件905接收的可见光,例如,波长为700纳米(nm)和更小的光,并且光的第二部分903为从透镜组件905接收的可见光和高光谱光的组合,例如波长大于700纳米且小于或等于2.4微米的光。
可见光的第一部分902聚焦在可见颜色图像捕获传感器921_V上。在一个方面,可见颜色图像捕获传感器921_V捕获具有在400纳米至700纳米范围内的波长的光。例如,可见颜色图像捕获传感器921_V为具有拜耳红─绿─蓝滤色器阵列或红─绿─蓝─白滤色器阵列的小像素CMOS图像捕获传感器。可见颜色图像捕获传感器921_V(有时称为传感器921_V)耦合到机械和电子器件927。机械和电子器件927包括用于保持传感器921_V的机械器件和连接到传感器921_V的电子器件。
来自透镜组件905的光的第二部分903聚焦在高光谱图像捕获传感器921_HS上。高光谱图像捕获传感器921_HS包括构成帧的多行和多列像素。因此,高光谱图像捕获传感器921_HS捕获信息的帧,而不是像一些现有技术的高光谱相机那样一次仅捕获一行或一列信息。
在一个方面,高光谱图像捕获传感器921_HS捕获具有在700纳米至2.4微米范围内的波长的光。捕获的波长范围取决于滤波器组件940的特性,这将在下面更全面地描述。高光谱图像捕获传感器921_HS为单色大像素图像捕获传感器,例如具有5微米至20微米像素的InGsAs传感器或具有类似尺寸像素的HgCdTe传感器。
高光谱图像捕获传感器921_HS和可见颜色图像捕获传感器921_V可用不同的半导体技术来实现,可具有不同或相同的快门,例如可见颜色图像捕获传感器921_V使用滚动快门并且高光谱图像捕获传感器921_HS使用全局快门。快门方法为所选半导体工艺中像素实施方式的特性。图像传感器921_V和921_HS可放置在距透镜905背面不同的距离处,因为图像传感器的位置是独立的——棱镜910与图像传感器921_V之间的间隙不需要等于从棱镜910到图像传感器921_HS的距离,因此,每个传感器均能够独立地聚焦。由于半导体特性可不同,所以图像传感器921_HS和图像传感器921_V可具有不同的像素尺寸。如果一个成像器的启用区域小于另一个,则该传感器的图像将覆盖由另一个传感器看到的图像的一部分。
高光谱图像捕获传感器921_HS(有时称为传感器921_HS或图像传感器921_HS)耦合到机械、冷却和电子器件926。机械、冷却和电子器件926包括用于保持传感器921_HS的机械器件、用于传感器921_HS的冷却器件以及连接到传感器921_HS的电子器件。
如上所述,入射在高光谱图像捕获传感器921_HS上的光通过滤波器组件940。在一个方面,滤波器组件940包括第一陷波滤波器941。陷波滤波器941为线性可变的(例如在宽度上),如在滤波器941的左侧上传输九百纳米波长(λ)的光,并且在滤波器941的右侧上传输一千二百纳米波长的光。
在另一方面,滤波器组件940包括第二陷波滤波器942。陷波滤波器942包括两组多个条纹——由暗条纹表示的第一多个条纹943和用白色条纹表示的第二多个条纹944。第一多个条纹943中的每一个传递(即,传输)一个高光谱光波段并且阻挡光的另一波段。暗条纹中的每个可通过一个不同的高光谱光波段,或者另选地一些条纹可通过一个相同的高光谱光波段。例如,图案可为12342233441111114123等,其中每个不同的数字表示一个不同的高光谱光波段。因此,在该示例中,通过陷波滤波器942将四个不同的高光谱光波段传递到传感器921_HS。此外,多个条纹943中的条纹不必关于波长具有任何特定顺序。而且,多个条纹943中的条纹不需要具有恒定的宽度。在另一方面,在线性可变陷波滤波器941上形成透明条纹以形成陷波滤波器942。
第二多个条纹944中的每一个都是透明的,使得第二多个条纹944传递(即,传输)可见光。第二多个条纹944中的条纹不需要具有恒定的宽度。如先前所描述,由高光谱图像捕获传感器921_HS捕获的可见光用于将高光谱帧空间配准到相应的可见帧。第二多个条纹944中的条纹可为随机图案、规则图案或者由用于制作所需陷波滤波器的组装过程所规定的图案。
第一多个条纹942中的一些条纹可为黑色条纹,其不传输任何光。黑色条纹提供在捕获的帧中的局部黑色级别。而在图8C中,条纹被示为是竖直条纹,该条纹能够是水平的、竖直的或由点的随机图案形成。
图9为立体内窥镜1002的远端的框图,该远端包括适合用作相机220的立体相机1020。相机1020与时间恒定高光谱照明光源和白光照明光源一起使用。
立体相机1020包括左图像捕获单元1020L(有时称为相机1020L)、右图像捕获单元1020R(有时称为相机1020R)和照明通道1005。每个图像捕获单元1020R、1020L均包括透镜组件1001R、1001L和传感器组件1025R、1025L。传感器组件1025R、1025L定位成接收穿过透镜组件1001R、1001L的光。在一个方面,每个传感器组件1025R、1025L均包括:棱镜组件1030R、1030L;反射组件1040R、1040L;以及在此方面共面图像捕获传感器(1010R_V、1015R_HS)、(1010L_V、1015L_HS)。立体内窥镜1002为立体内窥镜101的示例。
如图9所示,立体内窥镜1002(有时称为内窥镜1002)的远端中的每个立体通道具有相同的部件配置。在该图9的方面中,图像捕获单元1020L(用于左立体通道)和图像捕获单元1020R(用于右立体通道)关于与内窥镜1002的中心线纵向轴线1090相交的平面对称(即,它们定位为彼此的镜像)。如箭头1035所示,远端方向朝向组织1003并且近端方向远离组织1003。
在该示例中,来自内窥镜1002中的一个或多个照明通道1005的光照明组织1003。虽然未在图9中示出,但是内窥镜1002的观看视野内的一个或多个外科手术器械也可经由来自照明通道1005的光照明。使用内窥镜中的照明通道仅为说明性的,并不旨在限制本说明书中呈现的各种示例。照明可由内窥镜中的照明源提供,或者由内窥镜内部或外部的一些其它设备提供。
从组织1003反射的光和任何荧光由透镜组件1001L和透镜组件1001R接收。透镜组件1001L和透镜组件1001R中的透镜1004L和透镜1004R可分别包括将所接收的光分别引导到传感器组件1025L和传感器组件1025R的多个光学部件中的一个。在另一些方面,透镜组件1001L和透镜组件1001R被折叠。
来自透镜1004L和透镜1004R的光分别传递到传感器组件1025L、传感器组件1025R。在传感器组件1025L、传感器组件1025R内,分束器1031L和分束器1031R分别在分束器立方体1030L、分束器立方体1030R中接收光。在一个方面,分束器1031L和分束器1031R中的每一个被实施为是被掩盖涂覆表面1031L、涂覆表面1031R。如上所解释的,分束器1031L、分束器1031R中的每个上的一个或多个涂层被选择成提供具体的功能。被掩盖涂覆表面的特性等同于上面对分束器911所描述的特性。
分束器1031L将所接收的光的第一部分引导到图像捕获单元1020L中的第一可见颜色图像捕获传感器1010L_V上(例如,引导到可见颜色图像捕获传感器1010L_V的表面1011L_V上),并且将所接收的光的第二部分引导到反射组件1040L。类似地,分束器1031R将所接收的光的第一部分引导到图像捕获单元1020R中的第二可见颜色图像捕获传感器1010R_V上(例如,引导到可见颜色图像捕获传感器1010R_V的表面1011R_V上),并且将所接收的光的第二部分引导到反射组件1040R。
来自分束器1031L和分束器1031R的光分别由反射组件1040L和反射组件1040R接收。反射单元1040L将所接收的光引导到第一配准辅助滤波器组件1050L(有时称为滤波器组件1050L)。穿过滤波器组件1050L中的滤波器的光聚焦在高光谱图像捕获传感器1015L_HS上,例如,反射单元1040L将所接收的光聚焦到图像捕获单元1020L中的高光谱图像捕获传感器1015L_HS的表面1016L上。类似地,反射单元1040R将所接收的光引导到第二配准辅助滤波器组件1050R(有时称为滤波器组件1050R)。穿过滤波器组件1050R中的滤波器的光聚焦在高光谱图像捕获传感器1015R_HS上,例如,反射单元1040R将接收的光聚焦到图像捕获单元1020R中的高光谱图像捕获传感器1015R_HS的表面1016R_HS上。在本文描述的每个方面中,光被引导到图像捕获传感器的表面上,并且因此为了简洁起见,这被描述为光被引导到图像捕获传感器上。
反射组件1040L和反射组件1040R中的每一个均包括反射表面1041L、1041R,例如镜面,其反射所接收的光。在图9的示例中,反射组件1040L和反射组件1040R均被实施为一个面具有反射涂层的棱镜,或者均使用棱镜的斜边上的全内反射来实施。在一个方面,由包括反射表面1041R的平面与包括图像捕获传感器1010R_V的表面1011R和图像捕获传感器1015R_HS的表面1016R_HS的平面的交叉形成的角度θ为45度角,并且因此棱镜被称作为四十五度角的棱镜。当接近表面1014R的介质为空气且因此表面1041R为反射表面时,四十五度角棱镜的表面1041R展现出全内反射。
可见颜色图像捕获传感器1010L_V和高光谱图像捕获传感器1015L_HS是共面的,即顶部传感器表面1011L_V和顶部传感器表面1016L_HS实际上在同一平面中。传感器1010L_V和传感器1015L_HS的底表面位于由平台1012的第一表面限定的平面上。类似地,可视图像捕获传感器1010R_V和高光谱图像捕获传感器1015R_HS是共面的,例如,顶表面1011R_V和顶表面1016R_HS实际上在同一平面中。传感器1010R_V和传感器1015R_HS的底表面位于由平台1012的第二表面限定的平面上。平台1012可由两个平面零件(例如,沿轴线1090粘合的两个陶瓷零件)组成。平台1012的第一表面与平台1012的第二表面相反并且从平台1012的第二表面移除。
在一个方面,包括两个图像捕获传感器1010R_V、图像捕获传感器1015R_HS的第一半导体管芯1017R安装在第一陶瓷平台上。包括两个图像捕获传感器1010L_V、图像捕获传感器1015L_HS的第二半导体管芯1017L安装在第二陶瓷平台上。然后将两个陶瓷平台粘合在一起以形成平台1012。到两个管芯1017R、管芯1017L的导线穿过平台1012中的一个或多个通道。在使用在管芯中的两个图像捕获传感器仅为说明性的而不是限制性的。在一些方面,所述两个图像传感器在单独/分开的管芯中。(见图8A)。
在一些方面,可不使用平台1012,并且两组图像捕获传感器被包括在单个结构中,该单个结构被配置成提供与电源、控制和视频线缆的必要连接。而且,如图9所示的在图像捕获单元中使用两个共面图像捕获传感器仅为说明性的而不旨在为限制性的。
图像捕获传感器的共面配置不需要校准来补偿由图像捕获传感器1010R_V/1015R_HS(第一对)和图像捕获传感器1010L_V/1015L_HS(第二对)捕获的不同图像的透镜伪像和重新配准。如上所描述的,给定一对中的两个图像捕获传感器之间的空间关系为恒定的,并且由于给定一对中的图像捕获传感器共用一个公共透镜组件,(即,公共前端光学结构),所以由所述两个图像捕获传感器捕获的一对图像的空间配准随时间且在改变光学条件(诸如改变焦点)期间保持恒定。在单视场内窥镜中,仅使用图像捕获单元1020L、图像捕获传感器1020R中的一个。
可见颜色图像捕获传感器1010R_V和可见颜色图像捕获传感器1010L_V均等同于可见颜色图像捕获传感器921_V。因此,这里不再重复上面关于可见颜色图像捕获传感器921_V描述的方面。
滤波器组件1050L和滤波器组件1050R均等同于滤波器组件940。因此,这里不再重复上面关于配准辅助滤波器组件940以及关于滤波器941和滤波器942描述的方面。
用于时间序列照明的图像捕获单元
图10A为又一内窥镜1150的图示,其包括同时捕获可见帧和高光谱帧的新颖图像捕获单元。内窥镜1150为内窥镜101的一个示例。
在一个方面,内窥镜1150与白光照明和时间序列高光谱照明的组合一起使用。在该示例中,内窥镜1150为立体内窥镜,但是在另一方面,内窥镜1150为单视场内窥镜。一个或多个图像捕获单元可位于内窥镜1150的远端内,或者可在内窥镜1150的近端处位于内窥镜主体外部。箭头1190限定远端方向和近端方向。
在一方面,内窥镜1150的远端包括两个光管引导区域1152、1153,其在一个方面提供白光照明的锥体1170或在组织1160上的白光照明和高光谱照明的组合。当用高光谱照明(例如近红外照明)照明时,组织1160的特征1163更显著。
在该方面,内窥镜1150的远端也包括第一图像捕获单元窗口1151L和第二图像捕获单元窗口1151R。耦合到图像捕获单元窗口1151L的第一图像捕获单元具有第一观看视野1154L。耦合到图像捕获单元窗口1151R的第二图像捕获单元具有第二观看视野1154R。
图10B为适合用作具有时间序列高光谱照明源和白光照明源的相机220L和相机220R的图像捕获单元1120的一个方面的图示。在该示例中,来自内窥镜1150中的一个或多个照明通道的光照明组织1160。虽然未在图10B中示出,但是内窥镜1150的观看视野内的一个或多个外科手术器械也可经由来自照明通道的光照明。使用在内窥镜中的照明通道仅为说明性的,并不旨在限制本说明书中呈现的各种示例。照明可由内窥镜中的照明源提供,或者由内窥镜内部或外部的一些其它设备提供。
从组织1160反射的光和任何荧光由透镜组件1105作为光1101接收。透镜组件1105可包括将所接收的光引导到传感器组件1121的一个或多个光学部件。在一些方面,透镜组件1105被折叠。
来自透镜组件1105的光传递到传感器组件1121。在一些方面,透镜组件1105利用由图像传感器1121_V和图像传感器1121_HS的机械分离所提供的不同后焦距,并且通过将传感器定位在距离表面1111不同的距离处来适应纵向色像差。
在该方面,在传感器组件1121内,光与布置在分束器立方体1110的对角线上的分束器1111相互作用。在一个方面,分束器1111实施为被掩盖涂覆表面。
分束器立方体的使用仅为说明性的,而不旨在为限制性的。例如,分束器1111可为定位在空间中的滤波器。
分束器1111将从透镜组件1105接收的光的第一部分1102引导到可见颜色图像捕获传感器1121_V,并且将从透镜组件1105接收的光的第二部分1103引导到高光谱图像捕获传感器1121_HS。在图10B的示例中,分束器1111将从透镜组件1105接收的光的第一部分1102反射到可见颜色图像捕获传感器1121_V,并且将从透镜组件1105接收的光的第二部分1103传输到高光谱图像捕获传感器1121_HS。在本文所描述的每个方面中,光被引导(即,聚焦)到图像捕获传感器的表面上,并且因此为了简洁起见,这被描述为光被引导到图像捕获传感器上。
光的第一部分1102和光的第二部分1103中的光的波长由分束器1111的特性确定。在一种示例中,分束器1111被配置成使得光的第一部分1102为从透镜组件1105接收的可见光的第一部分,并且光的第二部分1103为从透镜组件1105接收的可见光的第二部分和从透镜组件1105接收的高光谱光的组合。在一种示例中,第一部分1102为可见光谱中具有约为670nm和更小的波长的可见光,并且光1101的第二部分1103为具有大于670纳米的波长的可见光以及从透镜组件1105接收的高光谱光,例如,波长大于约670纳米且小于或等于1.7微米的光。这里,使用约670纳米,因为当分束器1111被实施为被掩盖涂层时,涂层具有过渡区,其中入射光的一部分被引导到两个图像捕获传感器。例如,波长为670nm+20nm的光从进入可见颜色图像捕获传感器1121_V转变为高光谱图像捕获1121_HS。因此,约670纳米意指在约670纳米过渡区内。
光1101的第一部分1102聚焦在可见颜色图像捕获传感器1121_V上。在一个方面,可见颜色图像捕获传感器1121_V捕获具有在400纳米至约670纳米范围内的波长的光。例如,可见颜色图像捕获传感器1121_V为具有拜耳红─绿─蓝滤色器阵列或红─绿─蓝─白滤色器阵列的小像素CMOS图像捕获传感器。可见颜色图像捕获传感器1121_V(有时称为传感器1121_V)耦合到机械和电子器件1127。机械和电子器件1127包括用于保持传感器1121_V的机械器件和连接到传感器1121_V的电子器件。
来自透镜组件1105的光1101的第二部分1103聚焦在高光谱图像捕获传感器1121_HS上。在一个方面,高光谱图像捕获传感器1121_HS捕获具有在约670纳米至1.7微米范围内的波长的光。高光谱图像捕获传感器1121_HS为单色大像素图像捕获传感器,例如具有5微米至20微米像素的InGsAs传感器或具有类似尺寸像素的HgCdTe传感器。
高光谱图像捕获传感器1121_HS和可见颜色图像捕获传感器1121_V可用不同的半导体技术实施,并且因此可具有不同的快门架构,例如,可见颜色图像捕获传感器1121_V使用滚动快门并且高光谱图像捕获传感器1121_HS使用全局快门。两个图像传感器的定位容许在制造时独立聚焦。另外,两个图像传感器可具有不同的像素尺寸以及不同的启用/活动(active)区域。
高光谱图像捕获传感器1121_HS(有时称为传感器1121_HS)耦合到机械、冷却和电子器件1126。机械、冷却和电子器件1126包括用于保持传感器1121_HS的机械器件、用于传感器1121_HS的冷却器件和连接到传感器1121_HS的电子器件。
图像捕获单元1120也可如图9所示实施。然而,对于时间序列高光谱照明,移除了配准辅助滤波器组件1050L和配准辅助滤波器组件1050R。
在一个方面,代替单色高光谱图像捕获传感器1121_HS,传感器1121_HS的像素上的滤色器阵列生成另一组“原色”,其为瞬时照明光谱内容和像素上的滤波器的组合。这减少了序列照明图案的数量,因为照明可同时包括将照明每个滤波器后面的像素的光。这是有益的,因为它减少了获取的时间并且简化了该过程,因为它移除了与时间序列成像相关的时间伪像。因此,该方法消除了对组织跟踪和重新对准图像的需要,因为来自高光谱成像器的图像同时包括所有波段的信息。代价是空间分辨率的降低。
透镜组件1105可包含用于阻挡一些波长的光的滤波器,其用于激发组织中的荧光团——例如,如果荧光和激发位于光谱的近红外部分,则这可在不损害可见图像的图像质量的情况下完成。在那种情况下,照明器可使用激发光作为时间序列波段中的一个,并且由于透镜组件1105中的阻挡滤波器,荧光团信号将被相机“看到”并且不会被激发所淹没。荧光团可为天然存在的分子或引入组织中的分子,以标记特定组织类型、病症或临床感兴趣的其它元素。因此可通过光谱成像散布荧光团的检测。
内窥镜和具有高光谱能力的第二工具
在上述示例中,内窥镜(单视场的或立体的)在一个方面附接到计算机辅助外科手术系统的臂,并且其它外科手术器械附接到计算机辅助外科手术系统的不同臂。参见图1。在另一方面,使用单个入口端口。图11A为示意性侧视图,其示出了外科手术系统1200的各方面,该外科手术系统1200包括内窥镜成像系统1292、外科医生的控制台1294(主件)和患者侧支撑系统1210(从件),所有这些都通过有线(电气或光学)或无线连接1296互连。一个或多个电子数据处理器可不同地位于这些主部件中以提供系统功能。在美国专利申请No.11/762,165中公开了示例,该申请通过引用方式并入本文。
患者侧支撑系统1210包括进入引导操纵器。至少一个外科手术装置组件耦合到进入引导操纵器。每个外科手术装置组件包括外科手术器械或相机器械。例如,在图11A中,一个外科手术装置组件包括具有轴1237-1的器械1235-1,轴1237-1在外科手术进程中延伸通过进入引导件1215。通常,进入引导件1215包括多个通道。
成像系统1292对例如外科手术部位的捕获的内窥镜成像数据和/或来自患者外部的其它成像系统的术前或实时图像数据执行图像处理功能,如本文所描述。成像系统1292将经处理的图像数据(例如,外科手术部位的图像以及相关的控制和患者信息)输出到外科医生的控制台1294处的外科医生。在一些方面,经处理的图像数据被输出到可由其他手术室人员看到的可选外部监视器或远离手术室的一个或多个位置(例如,另一个位置的外科医生可监视视频;现场馈送视频可用于训练;等)。
外科医生的控制台1294包括多自由度(“DOF”)的机械输入装置(“主件”),其允许外科医生操纵器械、(一个或多个)进入引导件和成像系统装置,这些装置统称为从装置。在一些方面,这些输入装置可从器械和外科手术装置组件部件向外科医生提供触觉反馈。控制台1294也包括立体视频输出显示器,其定位成使得显示器上的图像通常聚焦在与在显示屏幕后面/下面工作的外科医生的手相对应的距离处。在美国专利No.6,671,581中更全面地讨论了这些方面,该专利通过引用方式并入本文。
在插入器械期间的控制可例如通过外科医生用一个或两个主件移动图像中呈现的器械来完成;外科医生使用主件将图像侧向移动,并且将器械拉向外科医生。主件的运动命令成像系统和相关的外科手术装置组件转向输出显示器上的固定中心点并且在患者体内前进。
在一个方面,相机控制被设计成给人以这样的印象:主件被固定到图像,使得图像在与主手柄移动的方向相同的方向上移动。当外科医生从相机控制中退出时,这种设计致使主件处于控制器械的正确位置,并且这种设计避免了需要在开始或恢复器械控制之前将主件抓住(脱离)、移动和分离(接合)到位。
在一些方面,可使主位置与插入速度成比例,以避免使用大的主工作空间。另选地,外科医生可抓住和分离主件以使用棘轮动作进行插入。在一些方面,可手动控制插入(例如,通过手动操作的轮),并且然后当外科手术装置组件的远端靠近外科手术部位时进行自动插入(例如,伺服马达驱动的辊)。可使用患者的解剖结构和可用于插入轨迹的空间的术前或实时图像数据(例如,MRI、X射线)来辅助插入。
患者侧支撑系统1210包括安装在地板上的基座1201,或者另选地包括安装在天花板上的基座(未示出)。基座1201可为可移动的或固定的(例如,固定到地板、天花板、墙壁或其它仪器(诸如手术台))。
基座1201支撑臂组件,该臂组件包括被动/无源的、不受控制的设置臂组件1220和被主动控制的操纵臂组件1230。被主动控制的操纵臂组件1230被称为进入引导操纵器1230。
套管1216可拆卸地耦合到套管支架。在本说明书中,套管通常用于防止器械或进入引导件在患者组织上摩擦。套管可用于切口和天然孔两者。对于仪器或进入引导件不经常相对于其插入(纵向)轴线平移或旋转的情况,可不使用套管。对于需要吹气的情况,套管可包括密封件以防止过量吹入气体通过器械或进入引导件泄漏。在美国专利申请No.12/705,439(2010年2月12日提交;公开“用于单个端口系统中多个器械的进入引导件”)中可发现支持吹气的套管组件和在手术部位需要注入气体的程序的示例,出于所有目的,该申请的全部公开内容通过引用方式并入本文。对于不需要吹气的胸外科手术可省略套管密封,并且如果器械或进入引导件插入轴线移动非常小,则可省略套管本身。在一些配置中,刚性进入引导件可用作相对于进入引导件插入的器械的套管。套管和进入引导件可为例如钢或挤压塑料。比钢便宜的塑料可适用于一次性使用。
当患者被放置在可移动台上的各种位置时,各种被动设置关节/连杆和主动关节/连杆允许将器械操纵器定位成使器械和相机组件以大范围的运动移动。在一些实施例中,套管安装件可耦合到第一操纵器连杆。
可省略操纵器臂中的某些设置和主动关节和连杆以减小外科手术系统的尺寸和形状,或者可添加关节和连杆以增加自由度。应当理解,操纵臂可包括连杆、被动关节和主动关节(可提供冗余DOF)的各种组合,以实现用于外科手术的必要范围的位姿。此外,各种器械单独地或包括进入引导件、多个器械和/或多个进入引导件的外科手术装置组件,以及经由各种配置(例如,在器械传输装置或器械操纵器的近端面或远端面上)耦合到器械操纵器(例如,致动器组件)的器械适用于本公开的各方面。
多个外科手术装置组件1280中的每一个都包括器械操纵器组件以及外科手术器械和相机组件中的一个。在图11A中,多个外科手术装置组件1280中的两个为可见的,并且所述两个可见外科手术装置组件中的每一个都包括器械操纵器组件和外科手术器械或相机组件。在一个方面,器械操纵器组件1240-1和器械操纵器组件1240-2中的每一个都为计算机辅助的,并且因此每个有时被称为计算机辅助的器械操纵器组件。器械操纵器组件1240-1、器械操纵器组件1240-2中的每一个通过不同的插入组件耦合到进入引导操纵器组件1233,例如,器械操纵器组件1240-1通过插入组件1236-1耦合到进入引导操纵器组件1233。
在一个方面,插入组件1236-1为伸缩组件,其使相应的外科手术装置组件远离和朝向进入引导操纵器组件1233移动。在图11A中,插入组件1236-1处于完全缩回位置。
每个器械操纵器组件1240-1、器械操纵器组件1240-2包括多个马达,所述马达驱动器械操纵器组件1240-1、器械操纵器组件1240-2的输出接口中的多个输出。器械1235-1、器械1235-2中的每一个都包括容纳传输单元的主体。传输单元包括输入接口,该输入接口包括多个输入。器械1235-1、1235-2中的每一个也包括轴1237-1、1237-2,其有时被称为在远端方向上从主体延伸的主管。末端执行器耦合到外科手术器械的轴的远端,并且图像捕获单元(例如,相机)被包括在相机器械(有时称为内窥镜)的轴的远端中。参见美国专利申请No.61/866,115(2013年8月15日提交),其通过引用方式并入本文,用于器械操纵器组件和外科手术器械的一个示例。
器械1235-1、1235-2中的每一个都耦合到相应的器械操纵器组件1240-1、1240-2的器械安装接口,使得器械1235-1、1235-2中的传输单元的输入接口中的多个输入由器械操纵器组件1240-1、1240-2的器械安装接口中的多个输出驱动。参见美国专利申请No.61/866,115(2013年8月15日提交)。
在一个方面,一个或多个器械操纵器组件可被配置成支撑和致动具体类型的器械,诸如相机器械。如图11A所示,多个外科手术装置组件1280的轴从器械的主体向远端延伸。轴延伸穿过放置在入口处的公共套管1216(例如,通过体壁或在自然孔口处)到患者体内。在一个方面,进入引导件1215被定位在套管1216内,并且每个器械轴均延伸通过进入引导件1215中的通道,以便为器械轴提供附加的支撑。
可使用外科手术系统1200执行的外科手术可在身体的不同区域上执行。例如,可通过患者的口腔执行一种外科手术。可在患者的肋骨之间执行另一种外科手术。其它外科手术可通过患者的其它孔口或通过患者的切口执行。进入患者的每个不同入口可需要不同形状和/或不同尺寸的进入引导件。因此,为具体手术选择适当的进入引导件1215。
在上面描述的方面中,内窥镜被包括在同时捕获可见帧和高光谱帧的图像捕获单元内或与其耦合。然而,在另一方面,标准相机器械1235-2(例如,立体内窥镜)与第二工具(例如,外科手术器械1235-1)结合使用,其包括高光谱图像捕获单元和深度测量装置,例如,深度相机、超声装置等。
图11B为内窥镜1235-2B和另一个外科外科器械1235-1B的更详细的图示。外科手术器械1235-1B具有高光谱图像捕获能力。
在一个方面,内窥镜1235-2B与白光照明和时间恒定或时间序列高光谱照明的组合一起使用。在该示例中,内窥镜1235-2B为立体内窥镜,但是在另一方面,内窥镜1235-2B为单视场内窥镜。一个或多个图像捕获单元能够位于内窥镜1235-2B的远端内,或者能够在内窥镜1235-2B的近端处位于内窥镜主体外部。箭头1290限定远端方向和近端方向。
在该方面,内窥镜1235-2B的远端包括两个光管引导区域1252、1253,其在一个方面提供白光照明的锥体1270或者在组织1260上的白光照明和高光谱照明的组合。当用高光谱照明(例如,近红外照明)照明时,组织1260的特征1263更显著。
在该方面,内窥镜1235-2B的远端也包括第一图像捕获单元窗口1251L和第二可见图像捕获单元窗口1251R。耦合到图像捕获单元窗口1251L的第一可见图像捕获单元具有第一视场1254L。耦合到图像捕获单元窗口1251R的第二可见图像捕获单元具有第二视场1254R。由可见图像捕获单元捕获的帧如上所述处理用于可见图像处理管线310,以在外科医生的控制台1294上产生立体可视图像的视频序列。
在该方面,外科手术器械1235-1B的远端也包括高光谱图像捕获单元窗口1256和深度感测单元窗口1257。耦合到高光谱图像捕获单元窗口1256的高光谱图像捕获单元具有第三视场1258。耦合到深度感测窗口1257的深度感测单元具有第四视场1259。
如未按比例绘制的图11B所示,立体内窥镜1235-2B的观看视野与高光谱图像捕获单元的视场1258和观看视野1259重叠。观看视野中的每个包括组织1260的特征1263。
图12A和图12B为适用于外科手术器械1235-1B的高光谱相机的示例。在图12A的示例中,高光谱图像捕获单元1320A在外科手术器械1235-1B中用于时间恒定的高光谱照明源。
高光谱图像捕获单元1320A包括在外科手术器械的远端中的窗口1256A。窗口1256A包括涂层1311,其使感兴趣的波长(例如,700纳米至2.4微米波长)通过。因此,窗口1256A接收从组织1260反射的光和来自组织1260的任何荧光的光1301。高光谱图像捕获单元1320A的透镜组件1305接收穿过窗口1256A上的涂层1311的光1302。在另一方面,滤波器放置在窗口1256A与透镜组件1305之间,而不是使用窗口1256A上的涂层。滤波器1311被配置成使从组织1260接收的一部分可见光和从组织1260接收的高光谱光的组合通过。
透镜组件1305可包括一个或多个光学部件,其将所接收的光引导(即,聚焦)到传感器组件1321。在一些方面,透镜组件1305被折叠。
从透镜组件1305接收的可见光和从透镜组件1305接收的高光谱光的组合聚焦在高光谱图像捕获传感器1321上。在一个方面,高光谱图像捕获传感器1321捕获在700纳米至1.7微米或2.4微米范围内的波长。由图像捕获传感器1324的每个像素捕获的波长范围取决于滤波器组件1340的特性和传感器1321的光谱响应。滤波器组件1340相当于上述滤波器组件940,并且因此这里不再重复描述。高光谱图像捕获传感器1321为单色大像素图像捕获传感器,例如具有5微米至20微米像素的InGsAs传感器或具有类似尺寸像素的HgCdTe传感器。高光谱图像捕获单元1320可具有全局快门或滚动快门。
高光谱图像捕获传感器1321(有时称为传感器1321)耦合到机械、冷却和电子器件1326。机械、冷却和电子器件1326包括用于保持传感器1321的机械器件、用于传感器1321的冷却器件和连接到传感器1321的电子器件。
对于具有恒定高光谱照明的系统,一个或多个波段照明场景,并且与图像捕获传感器1321相邻的滤波器组件1340被像素化以提供将高光谱信息编码到单个帧中的图像。
图12B为适用于具有时间序列高光谱照明源和白光照明源的外科手术器械1235-1B的图像捕获单元1320B的一个方面的图示。高光谱图像捕获单元1320B包括在外科手术器械的远端中的窗口1256B。窗口1256B包括使感兴趣的波长(例如,长于约670纳米且短于或等于1.7微米的波长)通过的涂层。因此,窗口1256B接收光1331,其为从组织1260反射的光和任何荧光。高光谱图像捕获单元1320B的透镜组件1315接收穿过窗口1256B上的涂层的光1332。在另一方面,滤波器1341放置在窗口1256B与透镜组件1315之间,而不是使用窗口1256B上的涂层,或者涂层被包括在透镜组件1315中。滤波器1341被配置成使从组织1260接收的可见光的一部分与从组织1260接收的高光谱的组合通过。
透镜组件1315可包括将所接收的光引导到传感器组件1322的更多光学部件中的一个。在一些方面,透镜组件1315在图像传感器之前折叠有折叠棱镜。
来自透镜组件1315的光传递到高光谱图像捕获传感器1322,例如,聚焦在高光谱图像捕获传感器1322上。在一个方面,高光谱图像捕获传感器1322捕获波长在670纳米至1.7微米范围内的光。高光谱图像捕获传感器1322为单色大像素图像捕获传感器,例如具有5微米至20微米像素的InGsAs传感器或具有类似尺寸像素的HgCdTe传感器。
高光谱图像捕获传感器1322(有时称为传感器1322)耦合到机械、冷却和电子器件1327。机械、冷却和电子器件1327包括用于保持传感器1322的机械器件、用于传感器1322的冷却器件和连接到传感器1322的电子器件。
以上描述和说明本发明的方面和实施例的附图不应被视为具有限制意义─权利要求限定了受保护的发明。在不脱离本说明书和权利要求的精神和范围的情况下,可进行各种机械、组成、结构、电气和操作变化。在一些情况下,未详细示出或描述公知的电路、结构和技术以避免模糊本发明的方面。
此外,该描述的术语不旨在限制本发明。例如,空间相对术语─诸如“下方”、“下面”、“以下”、“上方”、“上面”,“近端”、“远端”等可用于描述一个元件或特征的与图中所示的另一个元件或特征的关系。这些空间相对术语旨在涵括除了图中所示的位置和取向之外的装置在使用或操作中的不同位置和取向。例如,如果图中的装置被翻转,则被描述为在其它元件或特征“下方”或“下方面”的元件将在爱他元件或特征“上方”或“上面”。因此,示例性术语“下方”可包括上方和下方的位置和方向两者。装置可以其它方式取向(旋转90度或在其它方位),并且相应地解释本文使用的空间相对描述符。
除非上下文另有说明,否则单数形式“一”、“一个”和“所述”旨在包括复数形式。术语“包括(comprises)”、“包含”、“包括(includes)”等指定所述特征、步骤、操作、元件和/或组件的存在,但不排除存在或添加一个或多个其它特征、步骤、操作、元件、组件和/或组。
所有示例和说明性参考都是非限制性的,并且不应用于将权利要求限制于本文所描述的特定实施方式和实施例及其等同物。任何标题仅用于格式化,并且不应用于以任何方式限制主题,因为一个标题下的文本可交叉引用或应用于一个或多个标题下的文本。最后,鉴于本公开,关于一个方面或实施例描述的具体特征可应用于本发明的其它公开的方面或实施例,即使未在附图中具体示出或在文本中描述。
虽然存储器被示出为统一结构,但是这不应被解释为要求所有存储器位于相同的物理位置。全部或部分存储器可位于与处理器不同的物理位置。存储器是指易失性存储器、非易失性存储器或两者的任意组合。
处理器耦合到含有由处理器实行的指令的存储器。这可在计算机系统内完成,或者另选地经由调制解调器和模拟线路,或数字接口和数字载波线路连接到另一台计算机。
这里,计算机程序产品包括被配置成储存本文描述的方法和/或过程中的任何一个或任何组合所需的计算机可读代码的介质,或者其中储存用于本文描述的方法和/或过程中的任何一个或任何组合的任何一个或任何计算机可读代码的计算机可读代码。计算机程序产品的一些示例为CD-ROM盘、DVD盘、闪存、ROM卡、软盘、磁带、计算机硬盘驱动器、网络上的服务器以及通过网络传输的表示计算机可读程序代码的信号。有形计算机程序产品包括被配置成储存用于本文所描述方法和/或过程中的任何一个或任何组合的计算机可读指令的介质,或者其中储存用于本文所描述的方法和/或过程的任何一个或任何组合的计算机可读指令。有形计算机程序产品为CD-ROM光盘、DVD光盘、闪存、ROM卡、软盘、磁带、计算机硬盘驱动器和其它物理储存介质。
鉴于本公开,可使用用户感兴趣的操作系统和计算机编程语言在各种计算机系统配置中实施用于本文所描述的方法和/或过程中的任何一个或任何组合的指令。

Claims (29)

1.一种外科手术系统,包括:
照明器,所述照明器包括白光照明源和高光谱照明源;
具有传感器组件的相机,所述传感器组件包括第一图像捕获传感器和第二图像捕获传感器,所述第一图像捕获传感器被配置成捕获可见颜色帧序列以及所述第二图像捕获传感器被配置成捕获高光谱帧序列;以及
控制器,所述控制器被配置成根据所述高光谱帧序列中的多个高光谱帧创建复合高光谱帧,并且将所述复合高光谱帧与所述可见颜色帧序列中的可见颜色帧空间配准,所述多个高光谱帧在相同高光谱光波段被捕获。
2.根据权利要求1所述的外科手术系统,进一步包括:
机械臂,所述相机安装在所述机械臂上;
其中所述控制器被配置成命令所述机械臂将所述相机移动到多个位置中的每一个,并且所述控制器被配置成命令所述相机在所述多个位置中的每一个处捕获高光谱帧以形成所述多个高光谱帧。
3.根据权利要求2所述的外科手术系统,其中当所述相机在所述多个位置中的每个位置处捕获所述高光谱帧时,所述相同高光谱光波段由所述高光谱照明源输出。
4.根据权利要求1所述的外科手术系统,其中所述可见颜色帧包括手术部位的可见场景,并且所述复合高光谱帧包括在所述可见场景中不可见的所述手术部位的特征。
5.根据权利要求4所述的外科手术系统,进一步包括:
显示器单元,所述显示器单元耦合到所述控制器以接收所述复合高光谱帧和所述可见颜色帧,所述显示器单元显示与所述可见场景叠加的所述特征。
6.根据权利要求4所述的外科手术系统,进一步包括:
显示器单元,所述显示器单元耦合到所述控制器以接收所述复合高光谱帧和所述可见颜色帧,所述显示器单元被配置成在画面中的画面中显示与所述可见场景叠加的所述特征。
7.根据权利要求1所述的外科手术系统,所述相机进一步包括:
透镜组件,所述透镜组件共用于所述第一图像捕获传感器和所述第二图像捕获传感器。
8.根据权利要求7所述的外科手术系统,所述相机进一步包括:
分束器,所述分束器定位在所述透镜组件与所述第一图像捕获传感器和所述第二图像捕获传感器之间。
9.根据权利要求8所述的外科手术系统,所述相机进一步包括:
滤波器组件,所述滤波器组件定位在所述分束器与所述第二图像捕获传感器之间。
10.根据权利要求1所述的外科手术系统,所述相机进一步包括:
滤波器组件,所述滤波器组件定位成滤波聚焦在所述第二图像捕获传感器上的光。
11.根据权利要求10所述的外科手术系统,所述滤波器组件包括条纹滤波器。
12.根据权利要求10所述的外科手术系统,所述滤波器组件包括波长在一个维度上线性可变的滤波器。
13.根据权利要求1所述的外科手术系统,进一步包括:
内窥镜,所述内窥镜包括所述照明器和所述相机。
14.根据权利要求1所述的外科手术系统,进一步包括:
内窥镜,所述内窥镜安装在第一操纵器上,所述内窥镜包括所述相机;以及
外科手术装置,所述外科手术装置安装在第二操纵器上,所述外科手术装置包括所述照明器。
15.一种外科手术系统,包括:
控制器,所述控制器被配置成接收一个可见颜色帧序列和一个高光谱帧序列,所述控制器被配置成根据所述高光谱帧序列中的多个高光谱帧创建复合高光谱帧,并且将所述复合高光谱帧与所述可见颜色帧序列中的可见颜色帧空间配准,所述多个高光谱帧在相同高光谱光波段被捕获;以及
显示器单元,所述显示器单元耦合到所述控制器以接收所述复合高光谱帧和所述可见颜色帧。
16.根据权利要求15所述的外科手术系统,所述显示器单元被配置成显示与所述复合高光谱帧叠加的所述可见颜色帧。
17.一种外科手术系统,包括:
相机;以及
控制器,所述控制器被配置成命令所述相机在相同波段捕获可见颜色帧和多个高光谱帧,所述控制器进一步被配置成根据所述多个高光谱帧创建复合高光谱帧并且将所述复合高光谱帧与所述可见颜色帧空间配准。
18.根据权利要求17所述的外科手术系统,所述相机包括:
传感器组件,所述传感器组件包括第一图像捕获传感器和第二图像捕获传感器,所述第一图像捕获传感器被配置成捕获所述可见颜色帧,所述第二图像捕获传感器被配置成捕获所述多个高光谱帧;以及
透镜组件,所述透镜组件共用于所述第一图像捕获传感器和所述第二图像捕获传感器。
19.根据权利要求18所述的外科手术系统,所述相机进一步包括:
分束器,所述分束器定位在所述透镜组件与所述第一图像捕获传感器和所述第二图像捕获传感器之间。
20.根据权利要求19所述的外科手术系统,所述相机进一步包括:
滤波器组件,所述滤波器组件定位在所述分束器与所述第二图像捕获传感器之间。
21.根据权利要求18所述的外科手术系统,所述相机进一步包括:
滤波器组件,所述滤波器组件定位成滤波聚焦在所述第二图像捕获传感器上的光。
22.根据权利要求21所述的外科手术系统,所述滤波器组件包括条纹滤波器。
23.根据权利要求21所述的外科手术系统,所述滤波器组件包括波长在一个维度上线性可变的滤波器。
24.根据权利要求18所述的外科手术系统,所述第一图像捕获传感器具有第一分辨率,所述第二图像捕获传感器具有第二分辨率,所述第二分辨率小于所述第一分辨率。
25.一种外科手术系统,包括:
第一外科手术装置,所述第一外科手术装置包括第一图像捕获单元,所述第一图像捕获单元被配置成捕获可见颜色帧;
第二外科手术装置,所述第二外科手术装置包括第二图像捕获单元,所述第二图像捕获单元被配置成捕获多个高光谱帧;以及
控制器,所述控制器被配置成根据所述多个高光谱帧创建复合高光谱帧,并且将所述复合高光谱帧与所述可见颜色帧空间配准,所述多个高光谱帧在相同高光谱光波段被捕获。
26.根据权利要求25所述的外科手术系统,所述第二外科手术装置进一步包括:
深度感应单元。
27.根据权利要求25所述的外科手术系统,所述第二外科手术装置为套管。
28.根据权利要求25所述的外科手术系统,所述第二图像捕获单元被包括在立体相机中。
29.一种成像方法,包括:
通过外科手术系统的第一图像捕获单元捕获可见颜色图像序列;
通过所述外科手术系统的第二图像捕获单元在相同波段捕获多个高光谱图像;
处理所述多个高光谱图像以获得复合高光谱图像;以及
将所述复合高光谱图像与所述可见颜色图像序列中的可见颜色帧空间配准。
CN201780051928.4A 2016-09-09 2017-09-08 同时带有白光和高光谱光的成像系统 Active CN109640868B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211548531.5A CN115778543A (zh) 2016-09-09 2017-09-08 同时带有白光和高光谱光的成像系统

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662385700P 2016-09-09 2016-09-09
US62/385,700 2016-09-09
PCT/US2017/050758 WO2018049215A1 (en) 2016-09-09 2017-09-08 Simultaneous white light and hyperspectral light imaging systems

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN202211548531.5A Division CN115778543A (zh) 2016-09-09 2017-09-08 同时带有白光和高光谱光的成像系统

Publications (2)

Publication Number Publication Date
CN109640868A CN109640868A (zh) 2019-04-16
CN109640868B true CN109640868B (zh) 2022-12-23

Family

ID=61562327

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201780051928.4A Active CN109640868B (zh) 2016-09-09 2017-09-08 同时带有白光和高光谱光的成像系统
CN202211548531.5A Pending CN115778543A (zh) 2016-09-09 2017-09-08 同时带有白光和高光谱光的成像系统

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202211548531.5A Pending CN115778543A (zh) 2016-09-09 2017-09-08 同时带有白光和高光谱光的成像系统

Country Status (6)

Country Link
US (1) US11911003B2 (zh)
EP (1) EP3509529A4 (zh)
JP (2) JP7313280B2 (zh)
KR (2) KR20230093070A (zh)
CN (2) CN109640868B (zh)
WO (1) WO2018049215A1 (zh)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111052377B (zh) 2017-09-06 2023-09-22 美光科技公司 包括绝缘材料和存储器单元的垂直交替层的存储器阵列以及形成存储器阵列的方法
EP3731724A4 (en) 2017-12-27 2021-10-13 Ethicon LLC FLUORESCENT IMAGING IN A LIGHT ENVIRONMENT
US11819286B2 (en) * 2018-06-25 2023-11-21 Mirion Technologies (Canberra) Sas Apparatus for visualizing a movable radiation source
KR20210130698A (ko) * 2018-09-14 2021-11-01 뉴럴링크 코포레이션 컴퓨터 비전 기술들
WO2020072385A1 (en) 2018-10-03 2020-04-09 Verily Life Sciences Llc Dynamic illumination to identify tissue type
US11357593B2 (en) 2019-01-10 2022-06-14 Covidien Lp Endoscopic imaging with augmented parallax
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11533417B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Laser scanning and tool tracking imaging in a light deficient environment
US11892403B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11288772B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11071443B2 (en) 2019-06-20 2021-07-27 Cilag Gmbh International Minimizing image sensor input/output in a pulsed laser mapping imaging system
US11187658B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11276148B2 (en) 2019-06-20 2022-03-15 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11758256B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US20200403624A1 (en) * 2019-06-20 2020-12-24 Ethicon Llc Image synchronization without input clock and data transmission clock in a pulsed hyperspectral imaging system
US11895397B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11122968B2 (en) 2019-06-20 2021-09-21 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for hyperspectral imaging
US11903563B2 (en) 2019-06-20 2024-02-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11284783B2 (en) * 2019-06-20 2022-03-29 Cilag Gmbh International Controlling integral energy of a laser pulse in a hyperspectral imaging system
US11674848B2 (en) * 2019-06-20 2023-06-13 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for hyperspectral imaging
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
US11622094B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11280737B2 (en) 2019-06-20 2022-03-22 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US11265491B2 (en) 2019-06-20 2022-03-01 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11432706B2 (en) 2019-06-20 2022-09-06 Cilag Gmbh International Hyperspectral imaging with minimal area monolithic image sensor
US11172810B2 (en) 2019-06-20 2021-11-16 Cilag Gmbh International Speckle removal in a pulsed laser mapping imaging system
US11877065B2 (en) 2019-06-20 2024-01-16 Cilag Gmbh International Image rotation in an endoscopic hyperspectral imaging system
US11375886B2 (en) 2019-06-20 2022-07-05 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for laser mapping imaging
US11221414B2 (en) 2019-06-20 2022-01-11 Cilag Gmbh International Laser mapping imaging with fixed pattern noise cancellation
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11793399B2 (en) 2019-06-20 2023-10-24 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system
US11233960B2 (en) 2019-06-20 2022-01-25 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11686847B2 (en) 2019-06-20 2023-06-27 Cilag Gmbh International Pulsed illumination in a fluorescence imaging system
US11389066B2 (en) 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11624830B2 (en) 2019-06-20 2023-04-11 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for laser mapping imaging
US11134832B2 (en) * 2019-06-20 2021-10-05 Cilag Gmbh International Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system
US11716543B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11172811B2 (en) 2019-06-20 2021-11-16 Cilag Gmbh International Image rotation in an endoscopic fluorescence imaging system
US11412920B2 (en) 2019-06-20 2022-08-16 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11187657B2 (en) * 2019-06-20 2021-11-30 Cilag Gmbh International Hyperspectral imaging with fixed pattern noise cancellation
US20200397239A1 (en) * 2019-06-20 2020-12-24 Ethicon Llc Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11550057B2 (en) 2019-06-20 2023-01-10 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US20200397277A1 (en) * 2019-06-20 2020-12-24 Ethicon Llc Videostroboscopy of vocal cords with a hyperspectral, fluorescence, and laser mapping imaging system
US11937784B2 (en) 2019-06-20 2024-03-26 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11671691B2 (en) * 2019-06-20 2023-06-06 Cilag Gmbh International Image rotation in an endoscopic laser mapping imaging system
US11412152B2 (en) 2019-06-20 2022-08-09 Cilag Gmbh International Speckle removal in a pulsed hyperspectral imaging system
US11237270B2 (en) * 2019-06-20 2022-02-01 Cilag Gmbh International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US11633089B2 (en) 2019-06-20 2023-04-25 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
US11213194B2 (en) 2019-06-20 2022-01-04 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for hyperspectral, fluorescence, and laser mapping imaging
US11457154B2 (en) * 2019-06-20 2022-09-27 Cilag Gmbh International Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11516387B2 (en) * 2019-06-20 2022-11-29 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11931009B2 (en) * 2019-06-20 2024-03-19 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral imaging system
US10841504B1 (en) 2019-06-20 2020-11-17 Ethicon Llc Fluorescence imaging with minimal area monolithic image sensor
US11398011B2 (en) 2019-06-20 2022-07-26 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed laser mapping imaging system
US11122967B2 (en) * 2019-06-20 2021-09-21 Cilag Gmbh International Driving light emissions according to a jitter specification in a fluorescence imaging system
US11700995B2 (en) 2019-06-20 2023-07-18 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11660057B2 (en) * 2019-07-10 2023-05-30 Stryker Corporation Systems and methods for persistent ureter visualization
CN111579498B (zh) * 2020-04-26 2021-08-06 中国科学院苏州生物医学工程技术研究所 基于推扫成像的高光谱内窥成像系统
DE102020118814A1 (de) * 2020-07-16 2022-01-20 avateramedical GmBH Stereoendoskop
FR3120940B1 (fr) * 2021-03-17 2023-07-28 Institut Hospitalo Univ De Strasbourg Procédé d’imagerie médicale mettant en œuvre une caméra hyperspectrale
US11868434B2 (en) * 2021-03-26 2024-01-09 Sharper Shape Oy Method for creating training data for artificial intelligence system to classify hyperspectral data
CN113358583A (zh) * 2021-06-07 2021-09-07 广州星博科仪有限公司 一种基于双通道智能眼镜的手持式高光谱物证搜索系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050470A (ja) * 2009-08-31 2011-03-17 Fujifilm Corp 内視鏡システム
WO2015113460A1 (zh) * 2013-10-28 2015-08-06 重庆西南医院 一种用于烧伤皮肤坏死深度和面积诊断的近红外光谱成像系统及方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6331181B1 (en) 1998-12-08 2001-12-18 Intuitive Surgical, Inc. Surgical robotic tools, data architecture, and use
US6659939B2 (en) 1998-11-20 2003-12-09 Intuitive Surgical, Inc. Cooperative minimally invasive telesurgical system
US6424885B1 (en) 1999-04-07 2002-07-23 Intuitive Surgical, Inc. Camera referenced control in a minimally invasive surgical apparatus
WO2001003050A1 (en) 1999-07-02 2001-01-11 Hypermed Imaging, Inc. Imaging apparatus with means for fusing thermal and hyperspectral images
US6351729B1 (en) 1999-07-12 2002-02-26 Lucent Technologies Inc. Multiple-window method for obtaining improved spectrograms of signals
IL149016A0 (en) 2002-04-07 2004-03-28 Green Vision Systems Ltd Green Method and device for real time high speed high resolution spectral imaging
EP1729644A2 (en) 2004-03-19 2006-12-13 Board Of Supervisors Of Louisiana State University And Agricultural And Mechanical College A method for evaluating relative oxygen saturation in body tissues
JP4625956B2 (ja) 2004-08-27 2011-02-02 国立大学法人東京工業大学 画像処理装置及び画像処理方法
US7945077B2 (en) 2005-11-30 2011-05-17 Lawrence Livermore National Security, Llc Hyperspectral microscope for in vivo imaging of microstructures and cells in tissues
US9345387B2 (en) 2006-06-13 2016-05-24 Intuitive Surgical Operations, Inc. Preventing instrument/tissue collisions
JP5231625B2 (ja) 2008-03-18 2013-07-10 ノヴァダク テクノロジーズ インコーポレイテッド Nir画像およびフルカラー画像を獲得するための画像化システムおよびその作動方法
US8167793B2 (en) 2008-04-26 2012-05-01 Intuitive Surgical Operations, Inc. Augmented stereoscopic visualization for a surgical robot using time duplexing
US20120140981A1 (en) 2008-07-17 2012-06-07 Chemlmage Corporation System and Method for Combining Visible and Hyperspectral Imaging with Pattern Recognition Techniques for Improved Detection of Threats
US8406859B2 (en) 2008-08-10 2013-03-26 Board Of Regents, The University Of Texas System Digital light processing hyperspectral imaging apparatus
JP2012065698A (ja) 2010-09-21 2012-04-05 Fujifilm Corp 手術支援システムおよびそれを用いた手術支援方法
WO2012088471A1 (en) * 2010-12-22 2012-06-28 Veebot, Llc Systems and methods for autonomous intravenous needle insertion
US20140085629A1 (en) 2012-09-27 2014-03-27 Bodkin Design & Engineering, Llc Active Hyperspectral Imaging Systems
DE102012025100A1 (de) * 2012-12-20 2014-06-26 avateramedical GmBH Entkoppeltes Mehrkamerasystem für die minimal-invasive Chirurgie
WO2014146053A2 (en) * 2013-03-15 2014-09-18 Hypermed Imaging, Inc. Systems and methods for evaluating hyperspectral imaging data using a two layer media model of human tissue
CN105263398B (zh) 2013-03-15 2018-05-11 圣纳普医疗(巴巴多斯)公司 手术成像系统
EP2976609B1 (en) 2013-03-19 2022-01-05 Koninklijke Philips N.V. System for hyperspectral imaging in visible light, method for recording a hyperspectral image and displaying the hyperspectral image in visible light
JP6533358B2 (ja) 2013-08-06 2019-06-19 三菱電機エンジニアリング株式会社 撮像装置
US10447947B2 (en) * 2013-10-25 2019-10-15 The University Of Akron Multipurpose imaging and display system
EP3071095A4 (en) * 2013-11-20 2017-07-26 The George Washington University Systems and methods for hyperspectral analysis of cardiac tissue
US11103122B2 (en) 2014-07-15 2021-08-31 Mentor Acquisition One, Llc Content presentation in head worn computing
EP3107476B1 (en) 2014-02-21 2024-04-24 The University of Akron Imaging and display system for guiding medical interventions
DE102014103044A1 (de) * 2014-03-07 2015-09-10 Carl Zeiss Meditec Ag Chirurgisches Assistenzsystem
EP3198330A4 (en) 2014-09-22 2018-04-11 Invuity, Inc. Hyperspectral imager
EP3270581B1 (en) 2016-07-15 2021-04-14 IMEC vzw A method and a device for acquiring an image having two-dimensional spatial resolution and spectral resolution

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011050470A (ja) * 2009-08-31 2011-03-17 Fujifilm Corp 内視鏡システム
WO2015113460A1 (zh) * 2013-10-28 2015-08-06 重庆西南医院 一种用于烧伤皮肤坏死深度和面积诊断的近红外光谱成像系统及方法

Also Published As

Publication number Publication date
JP2023073381A (ja) 2023-05-25
EP3509529A4 (en) 2020-06-03
EP3509529A1 (en) 2019-07-17
JP7313280B2 (ja) 2023-07-24
WO2018049215A1 (en) 2018-03-15
US11911003B2 (en) 2024-02-27
KR20190040512A (ko) 2019-04-18
CN109640868A (zh) 2019-04-16
KR20230093070A (ko) 2023-06-26
CN115778543A (zh) 2023-03-14
US20190200848A1 (en) 2019-07-04
KR102544975B1 (ko) 2023-06-20
JP2019536495A (ja) 2019-12-19

Similar Documents

Publication Publication Date Title
CN109640868B (zh) 同时带有白光和高光谱光的成像系统
US11793390B2 (en) Endoscopic imaging with augmented parallax
US11381759B2 (en) Multi-function imaging
JP7086121B2 (ja) 波長帯選択による画像化を用いた尿管検出
US20200015900A1 (en) Controlling an emitter assembly pulse sequence
CN113164013A (zh) 图像引导外科手术中的近红外信息与彩色图像的组合
Speidel et al. Interventional imaging: vision
US20230148835A1 (en) Surgical visualization system with field of view windowing
US20230013884A1 (en) Endoscope with synthetic aperture multispectral camera array
US20230020780A1 (en) Stereoscopic endoscope with critical structure depth estimation
US20230017411A1 (en) Endoscope with source and pixel level image modulation for multispectral imaging
EP4312711A1 (en) An image capture device, an endoscope system, an image capture method and a computer program product
DAUL et al. Multimodal and Multispectral Endoscopic Imaging with Extended Field of View
EP4236849A1 (en) Surgical visualization system with field of view windowing

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant