CN107530132A - 在解剖手术期间用于手术工具定位的方法和系统 - Google Patents
在解剖手术期间用于手术工具定位的方法和系统 Download PDFInfo
- Publication number
- CN107530132A CN107530132A CN201680008532.7A CN201680008532A CN107530132A CN 107530132 A CN107530132 A CN 107530132A CN 201680008532 A CN201680008532 A CN 201680008532A CN 107530132 A CN107530132 A CN 107530132A
- Authority
- CN
- China
- Prior art keywords
- frame
- video
- operation tools
- masks
- tools
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration by the use of local operators
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/755—Deformable models or variational models, e.g. snakes or active contours
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/374—NMR or MRI
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/376—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy
- A61B2090/3762—Surgical systems with images on a monitor during operation using X-rays, e.g. fluoroscopy using computed tomography systems [CT]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30021—Catheter; Guide wire
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/034—Recognition of patterns in medical or anatomical images of medical instruments
Abstract
为了在解剖手术期间定位手术工具,图像捕捉设备(218)捕捉手术位置的图像,并且处理器(202)基于颜色和/或几何约束,确定(906)存在于图像中的手术工具(例如,406b)的物理特性。基于手术工具的物理特性,检测(908)手术工具的2D掩模。此外,当手术工具的2D掩模在手术工具的顶端和/或末端被遮蔽时,估计(912)手术工具的姿态。
Description
相关申请的交叉引用/通过引用并入
本申请要求2015年2月19日提交的美国临时专利申请序列号62/118,043的优先权,该申请的整体内容通过引用并入于此。
技术领域
本公开的各个实施例涉及用于手术工具定位的方法和系统。更具体地,本公开的各个实施例涉及在解剖手术期间用于手术工具定位的方法和系统。
背景技术
随着医学科学的最新进步,现在可以通过使用微创技术进行各种手术和诊断过程。这样的微创技术需要较小的切口,以把内窥镜或腹腔镜手术仪器通过患者的皮肤插入体腔内。内窥镜或腹腔镜手术仪器可包括内置摄像头,以捕捉体腔的视频画面(footage)。视频画面可被实时显示给医师,以使医师能够对体腔内的指定解剖区进行手术或诊断过程。
在特定情形下,体腔内的手术仪器的一个或多个部分的清晰视图可被体腔内的另一个手术仪器的一个或多个部分、手术用纱布、组织和/或烟/薄雾遮蔽。当医师进行手术或诊断过程时,这会对医师造成妨碍。从而,需要实时分析手术或诊断过程的视频画面,以在体腔内监视和定位手术仪器。
通过如在本申请的剩余部分中记载并且参考附图的说明的系统与本公开的一些方面的比较,对本领域技术人员来说,常规和传统途径的另外的限制和缺点将变得明显。
发明内容
一种如更完整地记载在权利要求中的实质上如附图至少之一中所示和/或结合附图至少之一所述的、在解剖手术期间定位手术工具的方法和系统。
根据本公开的以下详细说明的回顾以及附图,可领会本公开的这些及其他特征和优点,在附图中相同的附图标记自始至终指相同的部分。
附图说明
图1是按照本公开的实施例,图解说明网络环境的方框图。
图2是按照本公开的实施例,图解说明例证的图像处理服务器的方框图。
图3是按照本公开的实施例,图解说明例证的用户终端的方框图。
图4按照本公开的实施例,图解说明估计视频帧中的一个或多个手术工具的姿态的方法的例证流程图。
图5按照本公开的实施例,图解说明从视频帧中去除一个或多个烟块的方法的例证流程图。
图6按照本公开的实施例,图解说明完善视频帧中的一个或多个手术工具的初步二维(2D)掩模(mask)的方法的例证流程图。
图7A至图7D按照本公开的实施例,图解说明视频帧中的一个或多个手术工具的姿态的例证情形。
图8按照本公开的实施例,图解说明可呈现在用户终端上的用户界面(UI)的例证情形。
图9是按照本公开的实施例,图解说明在解剖手术期间定位手术工具的例证方法的例证流程图。
具体实施方式
下述实现可在公开的在解剖手术期间用于手术工具定位的方法和系统中找到。本公开的例证方面可包括可在图像处理引擎中实现的方法。图像处理引擎可通信耦合到图像捕捉设备。图像捕捉设备可被配置成捕捉一个或多个视频帧。所述方法可包括存在于所述一个或多个视频帧中的一个或多个手术工具的一个或多个物理特性的确定。所述一个或多个物理特性的确定可以基于一个或多个颜色和几何约束。之后,基于确定的一个或多个手术工具的一个或多个物理特性,可以检测存在于所述一个或多个视频帧中的一个或多个手术工具的二维(2D)掩模。此外,当在一个或多个手术工具的顶端和/或末端,所述一个或多个手术工具的2D掩模被遮蔽时,可以估计一个或多个视频帧中的所述一个或多个手术工具的姿态。
按照实施例,当一个或多个视频帧被一个或多个烟块遮蔽时,可以从所述一个或多个视频帧中去除所述一个或多个烟块,以生成无烟视频帧。按照实施例,可在所述一个或多个视频帧之前的一组视频帧中的每一个中检测一个或多个烟区。从所述一个或多个视频帧中去除所述一个或多个烟块可以以在所述一个或多个视频帧之前的一组视频帧中的每一个中的所检测出的一个或多个烟区中的一组像素的累积强度为基础。
按照实施例,可基于无烟视频帧中的一个或多个手术工具的所检测出的2D掩模中的所述一个或多个手术工具的颜色特性,进行轮廓演化。轮廓演化的进行可以进一步以在无烟视频帧中的所检测出的2D掩模的轮廓之内和/或之外的区域的曲率和强度变化为基础。此外,可以基于轮廓演化进行无烟视频帧的分割,以检测无烟视频帧中的一个或多个手术工具。
按照实施例,可对一个或多个视频帧的各个区域进行适应性颜色过滤。适应性颜色过滤可对应于一个或多个颜色约束,并且可以以一个或多个视频帧的各个区域中的像素的强度为基础。可根据基于opp2颜色强度的过滤和/或基于归一化opp2颜色强度的过滤之中的一种或多种进行适应性颜色过滤。按照实施例,存在于一个或多个视频帧中的一个或多个手术工具的2D掩模的检测可以基于适应性颜色过滤。
按照实施例,可基于一个或多个手术工具的所检测出的2D掩模的分析,估计一个或多个视频帧中的一个或多个手术工具的顶端和/或末端的位置。可沿着第一方向向量进行所检测出的2D掩模的分析,所述第一方向向量可沿着一个或多个手术工具的所检测出的2D掩模的纵向主轴而延伸。按照实施例,可以确定一个或多个视频帧中的一个或多个手术工具的顶端和/或末端的位置的质心。当所述质心位于一个或多个手术工具的所检测出的2D掩模之外或者所述质心被遮蔽时,可以重新估计一个或多个视频帧中的一个或多个手术工具的顶端和/或末端的位置。一个或多个手术工具的顶端和/或末端的位置的重新估计可以以沿着第二方向向量的一个或多个手术工具的所检测出的2D掩模的分析为基础。所述第二方向向量可相对于第一方向向量成预定角度。
按照实施例,当一个或多个手术工具的顶端被遮蔽时,一个或多个手术工具的姿态的估计可以以所述一个或多个手术工具的末端的估计的位置为基础。此外,当所述质心和/或一个或多个手术工具的末端被遮蔽时,一个或多个手术工具的姿态的估计可以以所述一个或多个手术工具的顶端的估计的位置为基础。
按照实施例,可以基于一个或多个视频帧中的一个或多个手术工具的姿态的估计来调整图像捕捉设备的一个或多个图像捕捉设定。所述一个或多个图像捕捉设定的例子可包括(但不限于)自动曝光、自动聚焦、自动白平衡或自动照明。
按照实施例,在解剖手术期间,可经由用户界面(UI)实时地向用户(比如医师)显示当前的一个或多个视频帧。在经由UI向用户显示的当前的一个或多个视频帧中,可以掩盖或突出一个或多个手术工具。按照实施例,可以生成指示在一个或多个手术工具的顶端和/或末端的所述一个或多个手术工具的遮蔽的通知。所述通知的例子可包括(但不限于)音频报警、文本报警、视觉报警或触觉报警。
图1是按照本公开的实施例,图解说明网络环境的方框图。参见图1,示出了网络环境100。网络环境100可包括手术设备102、图像处理服务器104、视频数据库106、用户终端108和通信网络110。手术设备102可经由通信网络110通信耦合到图像处理服务器104、视频数据库106和用户终端108。
手术设备102可包含可被配置成进行与患者的一个或多个解剖区关联的一种或多种手术过程和/或诊断分析的适当逻辑、电路、接口和/或代码。手术设备102的例子可包括(但不限于)微创手术/诊断设备、小切口手术/诊断设备和/或内窥镜/腹腔镜手术/诊断设备。
按照实施例,手术设备102还可包括图像捕捉设备(图1中未示出)。当对解剖区进行手术或诊断过程时,图像捕捉设备可捕捉患者的解剖区的一个或多个视频帧。替代地,手术设备102可通过通信网络110通信耦合到图像捕捉设备。图像捕捉设备的例子可包括(但不限于)内窥镜/腹腔镜摄像头、医学共振成像(MRI)设备、计算机断层成像(CT)扫描设备、微创医学成像设备和/或小切口医学成像设备。
图像处理服务器104可包含向一个或多个预订电子设备,比如用户终端108和/或手术设备102提供图像处理服务的一个或多个服务器。按照实施例,图像处理服务器104可被配置成分析在进行手术或诊断过程时由图像捕捉设备捕捉的一个或多个视频帧。图像处理服务器104随后可基于所述一个或多个视频帧的分析,进行所述一个或多个视频帧中的手术工具的检测。按照实施例,通过使用为本领域技术人员公知的几种技术,图像处理服务器104可被实现成多种基于云的资源。此外,图像处理服务器104可以与单个或多个服务提供商关联。所述一个或多个服务器的例子可包括(但不限于)ApacheTMHTTP服务器、因特网信息服务(IIS)、应用服务器、Sun JavaTM系统Web服务器和/或文件服务器。
本领域普通技术人员会明白本公开的范围不限于把图像处理服务器104和手术设备102实现成分离的实体。按照实施例,在不脱离本公开的范围的情况下,图像处理服务器104的功能可由手术设备102实现。
视频数据库106可存储由图像捕捉设备捕捉的一个或多个视频帧的储存库。按照实施例,视频数据库106可以通信耦合到图像处理服务器104。当图像捕捉设备捕捉一个或多个视频帧时,图像数据库106可通过图像处理服务器104接收所述一个或多个视频帧。按照实施例,可以通过使用本领域已知的各种数据库技术来实现视频数据库106。视频数据库106的例子可包括(但不限于)SQL服务器、IBMMicrosoft和/或按照实施例,图像处理服务器104可基于一种或多种协议连接到视频数据库106。所述一种或多种协议的例子可包括(但不限于)开放数据库连接(Open Database Connectivity,ODBC)协议和Java数据库连接协议。
本领域普通技术人员会明白本公开的范围不限于把图像处理服务器104和视频数据库106实现成分离的实体。按照实施例,在不脱离本公开的范围的情况下,视频数据库106的功能可由图像处理服务器104实现。
用户终端108可包含可被配置成呈现用户界面(UI)以向诸如医师之类的用户显示一个或多个视频帧的适当逻辑、电路、接口和/或代码。按照实施例,在对患者的解剖区进行手术或诊断过程时,用户终端108可实时显示一个或多个视频帧。用户终端108还可被配置成显示由图像处理服务器104在所述一个或多个视频帧中的每一个中定位的一个或多个手术工具。用户终端108的例子可包括(但不限于)智能电话、摄像头、平板计算机、膝上型计算机、可穿戴电子设备、电视机、因特网协议电视机(IPTV)和/或个人数字助理(PDA)设备。
本领域普通技术人员会明白本公开的范围不限于把用户终端108和图像处理服务器104实现成分离的实体。按照实施例,在不脱离本公开的范围的情况下,图像处理服务器104的功能可由用户终端108实现。例如,图像处理服务器104可被实现成运行和/或安装在用户终端108上的应用程序。
本领域普通技术人员还会明白按照实施例,用户终端108可以与手术设备102集成。替代地,用户终端108可通信耦合到手术设备102,并且用户终端108的用户(比如医师)可通过用户终端108的UI来控制手术设备102。
通信网络110可包括手术设备102和/或用户终端108可通过其与一个或多个服务器(比如图像处理服务器104)通信的介质。通信网络110的例子可包括(但不限于)因特网、云网络、无线保真(Wi-Fi)网络、无线局域网(WLAN)、局域网(LAN)、简易老式电话服务(POTS)和/或城域网(MAN)。网络环境100中的各个设备可被配置成按照各种有线和无线通信协议连接到通信网络110。这样的有线和无线通信协议的例子可包括(但不限于)传输控制协议和因特网协议(TCP/IP)、用户数据报协议(UDP)、超文本传输协议(HTTP)、文件传输协议(FTP)、ZigBee、EDGE、红外(IR)、IEEE 802.11、802.16、蜂窝通信协议和/或蓝牙(BT)通信协议。
在操作中,图像捕捉设备可被配置成捕捉一个或多个视频帧。图像处理服务器104可被配置成确定存在于捕捉的一个或多个视频帧中的特定视频帧中的一个或多个手术工具的一个或多个物理特性。按照实施例,一个或多个手术工具的所述一个或多个物理特性的确定可以基于一个或多个颜色和几何约束。之后,图像处理服务器104可以基于确定的一个或多个手术工具的一个或多个物理特性,检测存在于视频帧中的一个或多个手术工具的二维(2D)掩模。图像处理服务器104还可被配置成当在一个或多个手术工具的顶端和/或末端所述一个或多个手术工具的2D掩模被遮蔽时,估计视频帧中的所述一个或多个手术工具的姿态。
按照实施例,图像处理服务器104可被配置成分析在视频帧之前的一组视频帧。图像处理服务器104可在视频帧之前的一组视频帧中的每个视频帧中,检测一个或多个烟区。此外,图像处理服务器104可确定在视频帧之前的一组视频帧中的每一个中的所检测出的一个或多个烟区中的一组像素的累积强度。之后,当视频帧被一个或多个烟块遮蔽时,图像处理服务器104可从视频帧中去除所述一个或多个烟块,以生成无烟视频帧。按照实施例,一个或多个烟块的去除可以以在视频帧之前的一组视频帧中的每一个中的所检测出的一个或多个烟区中的一组像素的累积强度为基础。
按照实施例,可基于无烟视频帧中的一个或多个手术工具的所检测出的2D掩模中的所述一个或多个手术工具的颜色特性,进行轮廓演化。轮廓演化的进行可以进一步以在无烟视频帧中的所检测出的2D掩模的轮廓之内和/或之外的区域的曲率和强度变化为基础。此外,可以基于轮廓演化进行无烟视频帧的分割,以检测无烟视频帧中的一个或多个手术工具。
按照实施例,可对视频帧中的各个区域进行适应性颜色过滤。适应性颜色过滤可对应于一个或多个颜色约束,并且可以以视频帧中的各个区域中的像素的强度为基础。可根据基于opp2颜色强度的过滤和/或基于归一化opp2颜色强度的过滤,进行适应性颜色过滤。按照实施例,存在于视频帧中的一个或多个手术工具的2D掩模的检测可以基于适应性颜色过滤。
按照实施例,可估计视频帧中的一个或多个手术工具的顶端和/或末端的位置。所述估计可以基于一个或多个手术工具的所检测出的2D掩模的分析。可沿着第一方向向量(下面可互换地称为“第一主方向”或“第一主轴”)进行所检测出的2D掩模的分析,所述第一方向向量可沿着一个或多个手术工具的所检测出的2D掩模的纵向主轴延伸。按照实施例,可以确定视频帧中的一个或多个手术工具的顶端和/或末端的位置的质心。当所述质心位于一个或多个手术工具的所检测出的2D掩模之外和/或所述质心被遮蔽时,可以重新估计视频帧中的一个或多个手术工具的顶端和/或末端的位置。一个或多个手术工具的顶端和/或末端的位置的重新估计可以以沿着所检测出的2D掩模的第二方向向量(下面可互换地称为“第二主方向”或“第二主轴”)的一个或多个手术工具的所检测出的2D掩模的分析为基础。第二主方向可相对于第一主方向成预定角度。例如,第二主方向可相对于第一主方向正交。
按照实施例,当一个或多个手术工具的顶端被遮蔽时,一个或多个手术工具的姿态的估计可以以所述一个或多个手术工具的末端的估计的位置为基础。此外,当所述质心和/或一个或多个手术工具的末端被遮蔽时,一个或多个手术工具的姿态的估计可以以所述一个或多个手术工具的顶端的估计的位置为基础。
按照实施例,图像处理服务器104可被配置成基于烟区的确定,实时地调整图像捕捉设备的一个或多个图像捕捉设定。所述一个或多个图像捕捉设定的例子可包括(但不限于)自动曝光、自动聚焦、自动白平衡或自动照明。
按照实施例,图像处理服务器104还可被配置成在进行手术或诊断过程时,通过用户终端108的UI向用户(比如医师)显示一个或多个视频帧。所述帧可包括当前视频帧。在通过UI向用户显示的当前视频帧内,可以掩盖或突出在当前视频帧中定位的一个或多个手术工具。按照实施例,图像处理服务器104还可被配置成生成指示当前视频帧中的一个或多个手术工具的定位的通知。所述通知还可指示当前视频帧中的各个手术工具的遮蔽的程度和/或类型。图像处理服务器104可把所述通知传送给手术设备102和/或用户终端108。所述通知可由手术设备102和/或用户终端108呈现给用户(比如医师)。所述通知的例子可包括(但不限于)音频报警、文本报警、视觉报警和/或触觉报警。
图2是按照本公开的实施例,图解说明例证的图像处理服务器的方框图。图2是结合图1的要素说明的。参见图2,示出了图像处理服务器104。图像处理服务器104可包含诸如处理器202之类的一个或多个处理器、诸如收发器204之类的一个或多个收发器、存储器206和手术场景分析单元208。手术场景分析单元208可包括图像过滤引擎210、工具定位引擎212、数据库连接器214、UI管理器216和摄像头控制单元218。按照实施例,图像处理服务器104可经由收发器204,通过通信网络110通信耦合到视频数据库106。替代地,图像处理服务器104可包括视频数据库106。例如,可在存储器206内实现视频数据库106。
处理器202可通信耦合到收发器204、存储器206和手术场景分析单元208。收发器204可被配置成经由通信网络110与手术设备102和用户终端108通信。
处理器202可包含可被配置成执行存储在存储器206中的一组指令的适当逻辑、电路、接口和/或代码。可基于本领域已知的许多处理器技术来实现处理器202。处理器202的例子可以是基于X86的处理器、精简指令集计算(RISC)处理器、专用集成电路(ASIC)处理器、复杂指令集计算(CISC)处理器和/或其他处理器。
收发器204可包含可被配置成经由通信网络110(如图1中所示)与用户终端108和/或手术设备102通信的适当逻辑、电路、接口和/或代码。收发器204可实现支持图像处理服务器104与通信网络110的有线或无线通信的已知技术。收发器204的各个组件可包括(但不限于)天线、射频(RF)收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码器(CODEC)芯片集、订户身份模块(SIM)卡和/或本地缓冲器。
收发器204可经由无线通信,与网络,比如因特网、内联网和/或无线网络(比如蜂窝电话网、无线局域网(LAN)和/或城域网(MAN))通信。无线通信可以使用多种通信标准、协议和技术任意之一,比如全球移动通信系统(GSM)、增强数据GSM环境(EDGE)、宽带码分多址接入(W-CDMA)、码分多址接入(CDMA)、时分多址接入(TDMA)、蓝牙、无线保真(Wi-Fi)(比如IEEE 802.11a、IEEE 802.11b、IEEE 802.11g和/或IEEE 802.11n)、因特网协议语音(VoIP)、Wi-MAX、电子邮件用协议、即时消息收发和/或短消息服务(SMS)。
存储器206可包含可被配置成存储具有可由处理器202执行的至少一个代码段的机器代码和/或计算机程序的适当逻辑、电路和/或接口。按照实施例,存储器206还可被配置成存储由图像捕捉设备捕捉的一个或多个视频帧。存储器206的实现的例子可包括(但不限于)随机存取存储器(RAM)、只读存储器(ROM)、硬盘驱动器(HDD)和/或安全数字(SD)卡。
手术场景分析单元208可包含可被配置成分析和处理由图像捕捉设备捕捉的一个或多个视频帧的适当逻辑、电路、接口和/或代码。按照实施例,手术场景分析单元208可以是处理器202的一部分。替代地,手术场景分析单元208可被实现成图像处理服务器104中的分离的处理器或电路。按照实施例,手术场景分析单元208和处理器202可被实现成进行手术场景分析单元208和处理器202的功能的处理器的集群或集成的处理器。按照另一个实施例,手术场景分析单元208可被实现成存储在存储器206中的计算机程序代码,当由处理器202执行时所述计算机程序代码可进行手术场景分析单元208的功能。
图像过滤引擎210可包含可被配置成分析一个或多个视频帧以检测存在于每个视频帧中的一个或多个手术工具的二维(2D)掩模的适当逻辑、电路、接口和/或代码。按照实施例,图像过滤引擎210可被配置成确定存在于一个或多个视频帧中的特定视频帧中的一个或多个手术工具的一个或多个物理特性。一个或多个工具的一个或多个物理特性的确定可以基于一个或多个颜色和几何约束。图像过滤引擎210可基于确定的一个或多个手术工具的一个或多个物理特性,检测视频帧中的一个或多个手术工具的2D掩模。按照实施例,图像过滤引擎210还可被配置成当视频帧被一个或多个烟块遮蔽时,从视频帧中去除所述一个或多个烟块,以生成无烟视频帧。
工具定位引擎212可包含可被配置成估计视频帧中的一个或多个手术工具的姿态的适当逻辑、电路、接口和/或代码。按照实施例,工具定位引擎212可被配置成分析视频帧中的一个或多个手术工具的所检测出的2D掩模。该检测可估计视频帧中的一个或多个手术工具的姿态。工具定位引擎212还可被配置成估计视频帧中的一个或多个手术工具的顶端和/或末端的位置。工具定位引擎212随后可确定一个或多个手术工具的顶端和/或末端的位置的质心。此外,当质心位于一个或多个手术工具的所检测出的2D掩模之外和/或质心被遮蔽时,工具定位引擎212可重新估计一个或多个手术工具的顶端和/或末端的位置。按照实施例,当顶端被遮蔽时,可基于末端的估计的位置来估计一个或多个手术工具的姿态。此外,当质心和/或末端被遮蔽时,可基于顶端的估计的位置来估计一个或多个手术工具的姿态。
本领域普通技术人员会明白本公开的范围不限于把图像过滤引擎210和工具定位引擎212实现成分离的实体。按照实施例,图像过滤引擎210和工具定位引擎212可被集成到单个实体内,所述单个实体可被配置成进行图像过滤引擎210和工具定位引擎212两者的功能。
数据库连接器214可包含可被配置成向手术场景分析单元208提供对视频数据库106的访问和连接的适当逻辑、电路、接口和/或代码。按照实施例,数据库连接器214可在手术场景分析单元208和视频数据库106之间建立数据库会话。用于建立数据库会话的一种或多种通信协议的例子可包括(但不限于)开放数据库连接协议和Java数据库连接协议。
UI管理器216可包含可被配置成管理呈现在用户终端108上的UI的适当逻辑、电路、接口和/或代码。按照实施例,UI管理器216可向用户终端108的用户(比如医师)提供手术场景界面。手术场景界面可经由用户终端108的UI,在用户终端108的显示设备上呈现给用户。按照实施例,手术场景界面可被配置成向用户显示包括当前视频帧的一个或多个视频帧。在经由手术场景界面显示给用户的当前视频帧内,可以掩盖或突出在当前视频帧中定位的一个或多个手术工具。
摄像头控制单元218可包含可被配置成与图像捕捉设备通信以调整图像捕捉设备的一个或多个图像捕捉设定的适当逻辑、电路、接口和/或代码。按照实施例,摄像头控制单元218可被配置成基于一个或多个手术工具的定位,确定适合于捕捉一个或多个视频帧或者对捕捉一个或多个视频帧来说最佳的一个或多个图像捕捉设定的那些值。之后,摄像头控制单元218可被配置成经由收发器204,把确定的所述一个或多个图像捕捉设定的值传送给图像捕捉设备。图像捕捉设备可基于由摄像头控制单元218发送的对应值,调整其图像捕捉设定。所述一个或多个图像捕捉设定的例子可包括(但不限于)自动曝光、自动聚焦、自动白平衡和/或自动照明。
在操作中,医师可通过使用手术设备102和一个或多个手术仪器,对患者的解剖区进行手术或诊断过程。所述一个或多个手术仪器的例子可包括(但不限于)内窥镜导管、手术钳、手术切口仪器和/或手术用纱布。手术或诊断过程的例子可包括(但不限于)微创手术/诊断、小切口手术/诊断、腹腔镜和/或内窥镜检查。按照实施例,手术或诊断过程可在无医师的监督或指导的情况下由手术机器人自动进行。按照实施例,手术或诊断过程可在有来自医师的一个或多个输入信号和/或命令的情况下,由手术机器人半自动进行。按照实施例,图像捕捉设备(图1中未示出)可通信耦合到手术设备102(或者包含在手术设备102内)。在对解剖区进行手术或诊断过程时,图像捕捉设备可实时捕捉解剖区的一个或多个视频帧。之后,手术设备102(或图像捕捉设备)可经由通信网络110,把捕捉的视频帧传送给图像处理服务器104。
图像处理服务器104中的收发器204可被配置成经由通信网络110接收来自手术设备102的一个或多个视频帧。按照实施例,通过使用诸如实时传输协议和/或实时流式传输协议(RTSP)之类的通信协议,可以接收一个或多个视频帧作为实时流式传输的媒体内容。数据库连接器214可被配置成与视频数据库106建立数据库会话,并且把接收的视频帧存储在视频数据库106中。此外,视频帧也可存储在存储器206中。
图像过滤引擎210可被配置成分析一个或多个视频帧。按照实施例,当从手术设备102接收到预定数目的视频帧时,可以按批量模式分析视频帧(离线处理)。按照实施例,当接收到每个新的视频帧时,可以在实时的基础上分析视频帧(在线处理)。图像过滤引擎210可从存储器206或视频数据库106取回视频帧,以用于视频帧的分析。
按照实施例,在分析当前视频帧以检测一个或多个手术工具的2D掩模之前,图像过滤引擎210可被配置成判定当前视频帧是否被一个或多个烟块遮蔽。图像过滤引擎210可被配置成当视频帧被一个或多个烟块遮蔽时,从当前视频帧中去除一个或多个烟块,以生成无烟视频帧。按照实施例,图像过滤引擎210可在当前视频帧之前的一组视频帧中的每个视频帧中,检测一个或多个烟区。之后,图像过滤引擎210可确定在当前视频帧之前的一组视频帧中的每个视频帧中的所检测出的一个或多个烟区中的一组像素的累积强度。从当前视频帧中去除一个或多个烟块可以以确定的所述一组像素的累积强度为基础。例如,图像过滤引擎210可从当前视频帧中的对应像素的强度中减去与所检测出的一个或多个烟区对应的一组像素的累积强度。这可以被完成以生成无烟视频帧。本领域普通技术人员会明白当所述一组像素的累积强度在预定强度阈值范围内时,一个或多个烟块从当前视频帧中的去除可被跳过。图解说明从当前视频帧中去除一个或多个烟块以生成无烟视频帧的方法的例证流程图在图5中进行说明。
按照实施例,图像过滤引擎210可被配置成分析当前视频帧(或者无烟视频帧),以确定存在于当前视频帧中的一个或多个手术工具的一个或多个物理特性。一个或多个手术工具的一个或多个物理特性的确定可以基于一个或多个颜色和几何约束。之后,图像过滤引擎210可基于一个或多个手术工具的一个或多个物理特性,检测视频帧中的一个或多个手术工具的2D掩模。
按照实施例,图像过滤引擎210可通过基于当前视频帧(或者无烟视频帧)中的各个区域中的像素的强度进行适应性颜色过滤,应用所述一个或多个颜色约束。可根据基于opp2颜色强度的过滤或基于归一化opp2颜色强度的过滤,对当前视频帧(或者无烟视频帧)中的各个区域进行适应性颜色过滤。按照实施例,图像过滤引擎210可分析以下条件,以进行适应性颜色过滤:
条件1:Igrey≥100并且
条件2:Igrey<100并且
其中,“Igrey”表示视频帧中的像素的灰度级强度;
“opp2”表示像素的opp2颜色分量,由下式给出:
opp2=|R-G| (1)
“opp2norm”表示像素的归一化opp2颜色分量,由下式给出:
“R”、“G”和“B”表示像素的红色、绿色和蓝色分量。
按照实施例,图像过滤引擎210可分析条件“条件1”和“条件2”,以确定视频帧内的与一个或多个手术工具对应的一个或多个感兴趣区域。图像过滤引擎210可为视频帧中具有较亮像素的区域(比如,包括具有大于或等于100的灰度级强度的像素的区域)分析条件“条件1”。此外,图像过滤引擎210可为视频帧中具有较暗像素的区域(比如,包括具有小于100的灰度级强度的像素的区域)检查条件“条件2”。显然,条件“条件1”势必带来在视频帧的较亮区域中进行基于opp2颜色强度的过滤。此外,条件“条件2”势必带来在视频帧的较暗区域中进行基于归一化opp2颜色强度的过滤。本领域普通技术人员会明白包括一个或多个手术工具的区域可包含在其红色和绿色分量方面具有微小差异的像素。从而,基于opp2颜色强度的过滤可用于确定感兴趣的一个或多个区域,所述感兴趣的一个或多个区域可对应于视频帧中的一个或多个手术工具。不过,基于opp2颜色强度的过滤对于检测视频帧的较暗区域中的一个或多个手术工具来说并不有效。通过使用基于归一化opp2颜色强度的过滤,可在较暗区域中有效地检测一个或多个手术工具。因此,根据基于opp2颜色强度的过滤和基于归一化opp2颜色强度的过滤两者,通过使用适应性颜色过滤,可以确定与视频帧中的一个或多个手术工具对应的感兴趣区域。
按照实施例,图像过滤引擎210可被配置成把一个或多个几何约束应用于所确定的一个或多个感兴趣区域,以检测视频帧中的一个或多个手术工具的2D掩模。例如,图像过滤引擎210可检查各个感兴趣区域的大小是否大于预定的大小阈值。此外,图像过滤引擎210可对所确定的一个或多个感兴趣区域进行边缘检测。之后,图像过滤引擎210可检查在各个感兴趣区域内的边缘的数目是否大于预定的边缘计数。此外,图像过滤引擎210可判定感兴趣区域是否按由外向内的取向定位在视频帧中。如果感兴趣区域满足前述大小、边缘和/或取向条件,那么图像过滤引擎210可把感兴趣区域指定为一个或多个手术工具的2D掩模的一部分。从而,视频帧中的一个或多个手术工具的2D掩模的检测可以基于适应性颜色过滤,和/或对于视频帧的各个区域的一个或多个几何约束的应用。
按照实施例,图像过滤引擎210还可被配置成完善一个或多个手术工具的所检测出的2D掩模。这可被完成以检测当前视频帧中的一个或多个手术工具。按照实施例,图像过滤引擎210可被配置成在一个或多个手术工具的所检测出的2D掩模中确定轮廓。之后,图像过滤引擎210可对在当前视频帧(或者无烟视频帧)中的一个或多个手术工具的所检测出的2D掩模中确定的轮廓,进行轮廓演化。可基于一个或多个手术工具的所检测出的2D掩模中的一个或多个手术工具的颜色特性,进行轮廓演化。按照实施例,图像过滤引擎210可通过使用如下的方程(3)和(4),使用基于水平集的技术进行轮廓演化:
在边缘处,
其中,表示在轮廓上的像素处的切线的瞬时斜率;
表示平均曲率运动;
“u0”表示像素的强度;
“c1”表示轮廓内的像素的平均强度;和
“c2”表示轮廓外的像素的平均强度。
从而,图像过滤引擎210可应用微分方程(3)和(4),以对一个或多个手术工具的所检测出的2D掩模进行轮廓演化,以完善检测出的2D掩模。按照实施例,轮廓演化可以以在当前视频帧(或无烟视频帧)中的检测出的2D掩模的轮廓之内和/或之外的区域的曲率和强度变化为基础。显然,方程(3)中的表达式可用于处罚(penalize)与所检测出的2D掩模对应的感兴趣区域中的轮廓的高曲率。此外,表达式“(u0-c1)2”和“(u0-c2)2”可用于使分别在该感兴趣区域中的轮廓之内和之外的强度变化最小化。方程(4)可用于演化在该感兴趣区域的边缘处的轮廓。本领域普通技术人员会明白按照如上所述的适应性颜色过滤,可使用感兴趣区域中的像素的颜色特性。例如,考虑到轮廓演化的进行,对于更亮的像素(比如强度大于或等于100的像素),可以考虑opp2颜色强度,而对于感兴趣区域中的较暗像素,可以考虑归一化opp2颜色强度。替代地,图像过滤引擎210可确定感兴趣区域中的像素的平均像素强度。当平均像素强度较高(比如大于或等于100)时,图像过滤引擎210可考虑感兴趣区域中的像素的opp2颜色强度。否则,可考虑感兴趣区域中的像素的归一化opp2颜色强度。图解说明完善当前视频帧中的一个或多个手术工具的初步2D掩模的方法的例证流程图在图6中进行说明。
按照实施例,图像过滤引擎210可基于对于一个或多个手术工具的所检测出的2D掩模的轮廓演化的进行,进行当前视频帧(或者无烟视频帧)的分割。图像过滤引擎210随后可基于分割处理的结果,检测一个或多个手术工具。从而,图像过滤引擎210可完善一个或多个手术工具的2D掩模,以检测当前视频帧中的一个或多个手术工具。
按照实施例,工具定位引擎212可被配置成当一个或多个手术工具的2D掩模在所述一个或多个手术工具的顶端和/或末端被遮蔽时,估计视频帧中的一个或多个手术工具的姿态。工具定位引擎212可估计视频帧中的一个或多个手术工具的顶端和/或末端的位置,以估计一个或多个手术工具的姿态。按照实施例,顶端和/或末端的位置的估计可以以沿着第一主方向的一个或多个手术工具的所检测出的2D掩模的分析为基础。按照实施例,第一主方向可沿着一个或多个手术工具的所检测出的2D掩模的纵向主轴延伸。此外,工具定位引擎212可确定一个或多个手术工具的顶端和/或末端的位置的质心。按照实施例,工具定位引擎212可被进一步配置成当质心位于一个或多个手术工具的所检测出的2D掩模之外或者所述质心被遮蔽时,重新估计一个或多个手术工具的顶端和/或末端的位置。顶端和/或末端的位置的重新估计可以以沿着第二主方向的一个或多个手术工具的2D掩模的分析为基础。第二主方向可相对于第一主方向成预定角度。按照实施例,第二主方向可沿着正交于第一主方向的横向主轴延伸。在这种情形下,所述预定角度可以为直角(或者“90度”)。不过,本领域普通技术人员会明白,本公开的范围不应被局限于如直角的预定角度。所述预定角度可以是任何其他角度,比如锐角(或者“0~90度”)、钝角(或者“90~180度”)或者优角(或者“180~360度”)。
按照实施例,当一个或多个手术工具的顶端被遮蔽时,一个或多个手术工具的姿态的估计可以以所述一个或多个手术工具的末端的估计(或重新估计的)位置为基础。此外,当所述质心和/或一个或多个手术工具的末端被遮蔽时,一个或多个手术工具的姿态的估计可以以所述一个或多个手术工具的顶端的估计(或重新估计的)位置为基础。结合图7A至图7D说明视频帧中的一个或多个手术工具的姿态的例证情形。此外,结合图4说明图解说明估计视频帧中的一个或多个手术工具的姿态的方法的例证流程图。
本领域普通技术人员会明白,各个预定阈值的值是例证值。在不脱离本公开的范围的情况下,所述预定阈值的值可基于实现、软件、硬件和/或用户要求而变化。
按照实施例,UI管理器216可被配置成向用户终端108的用户,比如医师呈现手术场景界面。手术场景界面可经由用户终端108的UI,在用户终端108的显示设备上呈现给用户。按照实施例,手术场景界面可被配置成向用户显示包括当前视频帧的一个或多个视频帧。在经由手术场景界面向用户显示的当前视频帧中,可以掩盖或突出在当前视频帧中定位的一个或多个手术工具。手术场景界面的例证情形已在图8中说明。
按照实施例,UI管理器216还可被配置成生成可以用信号通知当前视频帧中的一个或多个手术工具的定位的通知。所述通知还可指示当前视频帧中的各个手术工具的遮蔽的程度和/或类型。UI管理器216可把生成的通知传送给用户终端108。所述通知可经由用户终端108的UI被呈现给用户。在实时或在线分析一个或多个视频帧以用于定位一个或多个手术工具的情况下,UI管理器216还可经由收发器204把生成的通知传送给手术设备102。通知的例子可包括(但不限于)音频报警、文本报警、视觉报警和/或触觉反馈。
按照实施例,摄像头控制单元218可被配置成基于当前视频帧中的一个或多个手术工具的定位,确定图像捕捉设备的一个或多个图像捕捉设定的最佳值。所述一个或多个图像捕捉设定的例子可包括(但不限于)自动曝光、自动聚焦、自动白平衡或自动照明。按照实施例,可基于一个或多个条件(比如包含一个或多个手术工具的区域的大小、该区域中的像素的平均强度、一个或多个手术工具的遮蔽的程度或者该区域的一个或多个特征)确定一个或多个图像捕捉设定的最佳值。在实施例中,所述最佳值的确定也可基于用户规定的标准。摄像头控制单元218可被配置成经由收发器204,把一个或多个图像捕捉设定的最佳值传送给图像捕捉设备。基于由摄像头控制单元218发送的相应的最佳值,可以调整图像捕捉设备的一个或多个图像捕捉设定。
按照实施例,UI管理器216可经由用户终端108的UI,把一个或多个图像捕捉设定的最佳值呈现给用户。经由用户终端108的UI,UI管理器216可使用户能够确认或调整所述最佳值。UI管理器216可经由收发器204,接收来自用户终端108的指示所述最佳值的确认或调整的用户输入。之后,摄像头控制单元218可基于用户输入更新所述最佳值,并经由收发器204把更新后的最佳值传送给图像捕捉设备。基于从摄像头控制单元218接收的更新后的最佳值,可调整图像捕捉设备的一个或多个图像捕捉设定。
图3是按照本公开的实施例,图解说明例证的用户终端的方框图。图3是结合来自图1的要素说明的。参见图3,示出了用户终端108。用户终端108可包含诸如处理器302之类的一个或多个处理器、诸如收发器304之类的一个或多个收发器、存储器306、客户端接口单元308和显示设备314。客户端接口单元308可包括UI管理器310和显示适配器312。处理器302可通信耦合到收发器304、存储器306、客户端接口单元308和显示设备314。收发器304可被配置成经由通信网络110与图像处理服务器104和/或手术设备102通信。
处理器302可包含可被配置成执行存储在存储器306中的一组指令的适当逻辑、电路、接口和/或代码。可基于本领域已知的许多处理器技术实现处理器302。处理器302的例子可以是基于X86的处理器、精简指令集计算(RISC)处理器、专用集成电路(ASIC)处理器、复杂指令集计算(CISC)处理器和/或其他处理器。
收发器304可包含可被配置成经由通信网络110(如图1中所示)与图像处理服务器104和/或手术设备102通信的适当逻辑、电路、接口和/或代码。收发器304可实现支持用户终端108与通信网络110的有线或无线通信的已知技术。收发器304可包括(但不限于)天线、射频(RF)收发器、一个或多个放大器、调谐器、一个或多个振荡器、数字信号处理器、编解码器(CODEC)芯片集、订户身份模块(SIM)卡和/或本地缓冲器。
收发器304可经由无线通信,与网络,比如因特网、内联网和/或无线网络(比如蜂窝电话网、无线局域网(LAN)和/或城域网(MAN))通信。无线通信可以使用多种通信标准、协议和技术任意之一,比如全球移动通信系统(GSM)、增强数据GSM环境(EDGE)、宽带码分多址接入(W-CDMA)、码分多址接入(CDMA)、时分多址接入(TDMA)、蓝牙、无线保真(Wi-Fi)(比如IEEE 802.11a、IEEE 802.11b、IEEE 802.11g和/或IEEE 802.11n)、互联网协议语音(VoIP)、Wi-MAX、电子邮件用协议、即时消息收发和/或短消息服务(SMS)。
存储器306可包含可被配置成存储具有可由处理器302执行的至少一个代码段的机器代码和/或计算机程序的适当逻辑、电路和/或接口。存储器306的实现的例子可包括(但不限于)随机存取存储器(RAM)、只读存储器(ROM)、硬盘驱动器(HDD)和/或安全数字(SD)卡。
客户端接口单元308可包含可被配置成渲染和管理呈现在用户终端108上的一个或多个UI的适当逻辑、电路、接口和/或代码。按照实施例,客户端接口单元308可以是处理器302的一部分。替代地,客户端接口单元308可被实现成用户终端108中的分离的处理器或电路。例如,客户端接口单元308可被实现成通信耦合到处理器302的专用图形处理器或芯片集。按照实施例,客户端接口单元308和处理器302可被实现成集成处理器,或者进行客户端接口单元308和处理器302的功能的处理器的集群。按照实施例,客户端接口单元308可被实现成存储在存储器306中的计算机程序代码,当由处理器302执行时,所述计算机程序代码可进行客户端接口单元308的功能。
UI管理器310可包含可被配置成管理用户终端108的UI的适当逻辑、电路、接口和/或代码。按照实施例,UI管理器310还可被配置成接收和处理经由用户终端108的输入设备(未示出)、经由用户终端108的UI接收的用户输入。按照实施例,输入设备可通信耦合到用户终端108(或者包含在用户终端108内)。输入设备的例子可包括(但不限于)键盘、鼠标、操纵杆、跟踪板、语音输入设备、触摸输入设备和/或手势输入设备。
按照实施例,UI管理器310还可被配置成经由收发器304与图像处理服务器104的UI管理器216通信。这种通信可以便利对应于手术场景界面的信息的接收。之后,UI管理器310可经由用户终端108的UI,呈现手术场景界面。
显示适配器312可包含可被配置成使UI管理器310与显示设备314接口连接的适当逻辑、电路、接口和/或代码。按照实施例,显示适配器312可基于显示设备314的显示配置,进行用户终端108的UI的渲染和显示性质的调整。可被采用来进行显示调整的一种或多种技术的例子可包括(但不限于)图像增强、图像稳定、对比度调整、亮度调整、分辨率调整和/或倾斜/旋转调整。
显示设备314可包含可被配置成渲染UI的适当逻辑、电路、接口和/或代码。按照实施例,显示设备314可被实现成用户终端108的一部分。在另一个实施例中,显示设备314可通信耦合到用户终端108。可通过几种已知技术,比如基于阴极射线管(CRT)的显示器、液晶显示器(LCD)、基于发光二极管(LED)的显示器、有机LED显示器技术、视网膜显示器技术和/或类似技术,实现显示设备314。另外,按照实施例,显示设备314可接收来自用户的输入。在这种情形下,显示设备314可以是使用户能够提供输入的触摸屏。按照实施例,触摸屏可对应于电阻式触摸屏、电容式触摸屏、热触摸屏和/或类似触摸屏中的至少一种。按照实施例,显示设备314可通过虚拟小键盘、触笔、基于手势的输入和/或基于触摸的输入来接收输入。在这种情况下,输入设备可被集成在显示设备314内。另外,按照实施例,用户终端108可包括除基于触摸屏的显示设备314之外的第二输入设备。
在操作中,用户终端108的收发器304可经由通信网络110,接收来自图像处理服务器104的UI管理器216的与手术场景界面对应的信息。之后,按照实施例,用户终端108的UI管理器310可经由用户终端108的UI向用户呈现手术场景界面。按照实施例,手术场景界面可向用户呈现可包括当前视频帧的一个或多个视频帧。按照实施例,在当前视频帧被显示给用户时,可以掩盖或突出在当前视频帧中定位的一个或多个手术工具。图8中更详细地说明了手术场景界面的例子。
按照实施例,由手术场景界面呈现的一个或多个视频帧可以是在进行手术或诊断过程时、通过图像捕捉设备捕捉的实时视频画面。在这种情况下,图像处理服务器104可实时分析一个或多个视频帧(在线处理),以定位存在于所述一个或多个视频帧中的当前视频帧中的一个或多个手术工具。可在当前视频帧中定位的一个或多个手术工具可经由手术场景界面,被同时呈现给用户作为当前视频帧中的掩盖或突出区域。
按照实施例,手术场景界面还可被配置成向用户呈现通知,以指示存在于当前视频帧中的一个或多个手术工具的定位。所述通知还可指示当前视频帧中的各个手术工具的遮蔽的程度和/或类型。所述通知的例子可包括(但不限于)音频报警、文本报警、视觉报警和/或触觉报警。可促使用户(比如医师)基于所述通知采取行动。例如,手术场景界面可促使用户调整图像捕捉设备的一个或多个图像捕捉设定。按照实施例,图像处理服务器104的摄像头控制单元218可被配置成基于一个或多个手术工具的定位,确定一个或多个图像捕捉设定的最佳值。手术场景界面可把这些最佳值呈现给用户,作为用于所述一个或多个图像捕捉设定的建议值。用户可基于呈现给用户的建议值,调整图像捕捉设备的一个或多个图像捕捉设定。除了图像捕捉设备的一个或多个图像捕捉设定的调整之外,用户(比如医师)还可在解剖区内重新排列/重新放置一个或多个手术工具,以减小一个或多个手术工具的遮蔽程度。
图4按照本公开的实施例,图解说明估计视频帧中的一个或多个手术工具的姿态的方法的例证流程图。已经结合来自图1和图2的要素说明了图4。参见图4,示出了流程图400。流程图400包含输入视频帧402、解剖区404、第一手术工具406a、第二手术工具406b、颜色/几何过滤视频帧408、掩盖视频帧410、第一2D掩模412a和第二2D掩模412b。流程图400还包含初步的姿态估计视频帧414、第一顶端416a、第二顶端416b、第三顶端416c、第一末端418、质心420、输出视频帧422、第一姿态424a和第二姿态424b。
如在流程图400中所示,输入视频帧402图解说明由图像捕捉设备捕捉的一个或多个视频帧中的视频帧的快照。输入视频帧402描绘通过使用第一手术工具406a和第二手术工具406b对其进行手术或诊断过程的解剖区404。按照实施例,如果输入视频帧402被一个或多个烟块遮蔽,那么图像处理服务器104的图像过滤引擎210可从输入视频帧402中去除一个或多个烟块,以生成无烟视频帧(未示出)。结合图5说明图解说明从输入视频帧402中去除一个或多个烟块以生成无烟视频帧的方法的例证流程图。
按照实施例,图像过滤引擎210可被配置成分析输入视频帧402(或者无烟视频帧),以确定输入视频帧402中的一个或多个手术工具(比如第一手术工具406a和第二手术工具406b)的一个或多个物理特性。一个或多个物理特性的确定可以基于一个或多个颜色和几何约束。一个或多个颜色约束可对应于可基于如在图2中规定的条件“条件1”和“条件2”进行的适应性颜色过滤。图像过滤引擎210可基于一个或多个颜色约束,检测输入视频帧402中的对应于第一手术工具406a和第二手术工具406b的一个或多个感兴趣区域。此外,图像过滤引擎210可对确定的一个或多个感兴趣区域应用一个或多个几何约束,以检测输入视频帧402中的一个或多个手术工具(比如第一手术工具406a和第二手术工具406b)的初步2D掩模。如前所述,一个或多个几何约束可对应于每个感兴趣区域是否满足大小、边缘数目和/或取向条件的判定。满足前述条件的感兴趣区域可被指定为初步2D掩模的一部分。颜色/几何过滤视频帧408图解说明可基于对输入视频帧402(或者无烟视频帧)应用一个或多个颜色和几何约束而获得的结果视频帧。
按照实施例,图像过滤引擎210可被配置成完善基于一个或多个颜色和几何约束检测的初步2D掩模。图像过滤引擎210可确定初步2D掩模中的轮廓,并且随后对确定的轮廓进行轮廓演化。通过使用如在图2中的方程(3)和(4)中规定的基于水平集的技术,基于第一手术工具406a和第二手术工具406b的颜色特性可进行轮廓演化。按照实施例,轮廓演化可以以在初步2D掩模的轮廓之内和/或之外的区域的曲率和强度变化为基础。基于轮廓演化,图像过滤引擎210可获得轮廓演化视频帧(未示出)。
之后,图像过滤引擎210可对轮廓演化视频帧(未示出)进行分割,以获得工具分割视频帧(未示出)。工具分割视频帧可包括一个或多个手术工具(比如第一手术工具406a和第二手术工具406b)的完善的2D掩模。图6中说明了图解说明完善输入视频帧402中的一个或多个手术工具(比如第一手术工具406a和第二手术工具406b)的初步2D掩模的方法的例证流程图。掩盖视频帧410图解说明当工具分割视频帧(未示出)被覆盖在输入视频帧402上时可获得的结果视频帧。如图4中所示,掩盖视频帧410包括第一2D掩模412a和第二2D掩模412b。第一2D掩模412a可对应于包含第一手术工具406a的2D掩模,而第二2D掩模412b可对应于包含第二手术工具406b的2D掩模。
按照实施例,图像处理服务器104的工具定位引擎212可被配置成从掩盖视频帧410估计一个或多个手术工具(比如第一手术工具406a和第二手术工具406b)的姿态。工具定位引擎212可基于第一2D掩模412a和第二2D掩模412b的分析,分别估计第一手术工具406a和第二手术工具406b的顶端和/或末端的位置。之后,工具定位引擎212可确定一个或多个手术工具(比如第一手术工具406a和第二手术工具406b)的顶端和/或末端的位置的质心的位置。例如,工具定位引擎212可基于第一手术工具406a的第一2D掩模412a,估计第一顶端416a和第二顶端416b的位置。此外,工具定位引擎212可基于第二手术工具406b的第二2D掩模412b,估计第三顶端416c和第一末端418的位置。工具定位引擎212随后可基于第一顶端416a、第二顶端416b、第三顶端416c和第一末端418的位置,确定质心420的位置。初步的姿态估计视频帧414图解说明当从掩盖视频帧410估计顶端(比如第一顶端416a、第二顶端416b和第三顶端416c)、末端(比如第一末端418)和质心(比如质心420)的位置时可获得的结果视频帧。
按照实施例,工具定位引擎212还可分析初步的姿态估计视频帧414,以判定顶端(比如第一顶端416a、第二顶端416b和第三顶端416c)、末端(比如第一末端418)和/或质心(比如质心420)是否被遮蔽。此外,工具定位引擎212可判定质心(比如420)是否位于2D掩模(比如第一2D掩模412a和第二2D掩模412b)之外。按照实施例,如果质心(比如质心420)位于2D掩模(比如第一2D掩模412a和第二2D掩模412b)之外或者质心(比如质心420)被遮蔽,那么工具定位引擎212可重新估计顶端(比如第一顶端416a、第二顶端416b和第三顶端416c)和/或末端(比如第一末端418)的位置。
工具定位引擎212随后可基于顶端(比如第一顶端416a、第二顶端416b和第三顶端416c)和/或末端(比如第一末端418)的位置的重新估计,更新质心(比如质心420)的位置。按照实施例,工具定位引擎212可基于顶端(比如第一顶端416a、第二顶端416b和第三顶端416c)、末端(比如第一末端418)和质心(比如质心420)的估计的位置,估计一个或多个手术工具(比如第一手术工具406a和第二手术工具406b)的姿态。当顶端(比如第一顶端416a、第二顶端416b和第三顶端416c)被遮蔽时,姿态的估计可以基于末端(比如第一末端418)的位置。
此外,当末端(比如第一末端418)和/或质心(比如质心420)被遮蔽时,姿态的估计可以基于顶端(比如第一顶端416a、第二顶端416b和第三顶端416c)的位置。参考图7A至图7D中图解所示的例证姿态进一步说明一个或多个手术工具(比如第一手术工具406a和第二手术工具406b)的姿态的估计。输出视频帧422对应于基于一个或多个手术工具(比如第一手术工具406a和第二手术工具406b)的姿态的估计、可从初步的姿态估计视频帧414获得的结果视频帧。
如图4中所示,输出视频帧422可包括分别对应于针对输入视频帧402中的第一手术工具406a和第二手术工具406b估计的姿态的第一姿态424a和第二姿态424b。在第一姿态424a内,描绘第一手术工具406a的第一主轴和第二主轴。此外,在第二姿态424b内,描绘第二手术工具406b的第一主轴和第二主轴。
图5按照本公开的实施例,图解说明从视频帧中去除一个或多个烟块的方法的例证流程图。已经结合来自图1和图2的要素说明了图5。参见图5,示出了流程图500。流程图500包含一组先前的视频帧502,所述一组先前的视频帧502包括视频帧502a-502n。流程图500还包含累积烟视频帧504、当前视频帧506、解剖区508、第一手术工具510a和第二手术工具510b、一个或多个烟块512和无烟视频帧514。
按照实施例,当前视频帧506可对应于由图像捕捉设备捕捉的一个或多个视频帧中的视频帧。此外,所述一组先前的视频帧502可对应于在当前视频帧506的捕捉之前,可通过图像捕捉设备捕捉的视频帧。从而,在通过图像捕捉设备捕捉的一个或多个视频帧的序列中,所述一组先前的视频帧502按时间先后顺序会在当前视频帧506之前出现。
按照实施例,图像处理服务器104的图像过滤引擎210可按次序分析在当前视频帧506之前捕捉的预定数目的视频帧(比如一组先前的视频帧502)。基于在先视频帧(比如一组先前的视频帧502)的分析,图像过滤引擎210可在各个在先视频帧(比如502a-502n)中检测一个或多个烟区。图像过滤引擎210随后可确定包含在各个在先视频帧(比如502a-502n)中的一个或多个烟区中的每一个内的一组像素的累积强度。图像过滤引擎210可生成累积烟视频帧504,以表示在从各个在先视频帧(比如502a-502n)检测出的一个或多个烟区中的一组像素的累积强度。
如在流程图500中所示,当前视频帧506描绘通过使用第一手术工具510a和第二手术工具510b对其进行手术或诊断过程的解剖区508。此外,当前视频帧506可被包含在一个或多个块(比如一个或多个烟块512)内的烟遮蔽。按照实施例,图像过滤引擎210可从当前视频帧506中去除一个或多个烟块512,以生成无烟视频帧514。按照实施例,当该烟块中的像素的平均强度在预定阈值之内时,图像过滤引擎210可不从当前视频帧506中去除(一个或多个烟块512中的)烟块。
按照实施例,从当前视频帧506中去除一个或多个烟块512可以以累积烟视频帧504为基础。例如,图像过滤引擎210可从当前视频帧506中的对应的像素的强度中减去累积烟视频帧504中的像素的强度,以生成无烟视频帧514。
图6按照本公开的实施例,图解说明完善视频帧中的一个或多个手术工具的初步2D掩模的方法的例证流程图。已经结合来自图1和图2的要素说明了图6。参见图6,示出了流程图600。流程图600包含预处理视频帧602、解剖区604、一个或多个手术工具(比如第一手术工具606a、第二手术工具606b和第三手术工具606c)和一个或多个2D掩模(比如第一2D掩模608a、第二2D掩模608b和第三2D掩模608c)。此外,流程图600包含轮廓化视频帧610、一个或多个工具轮廓(比如第一工具轮廓612a、第二工具轮廓612b和第三工具轮廓612c)、轮廓演化视频帧614和一个或多个演化轮廓(比如第一演化轮廓616a、第二演化轮廓616b和第三演化轮廓616c)。流程图600另外包括工具分割视频帧618和一个或多个工具段(比如第一工具段620a、第二工具段620b和第三工具段620c)。
按照实施例,图像处理服务器104的图像过滤引擎210可进行通过图像捕捉设备捕捉的一个或多个视频帧中的当前视频帧(未示出)的初步分析。基于所述初步分析,图像过滤引擎210可检测当前视频帧中的一个或多个手术工具(比如606a、606b和606c)的初步2D掩模,如前面在图4中所述。预处理视频帧602图解说明基于所述初步分析可从当前视频帧(未示出)生成的结果视频帧。预处理视频帧602可包括可在当前视频帧中检测出的初步2D掩模,比如第一2D掩模608a、第二2D掩模608b和第三2D掩模608c。预处理视频帧602还包括第一手术工具606a、第二手术工具606b和第三手术工具606c。第一2D掩模608a可包含第一手术工具606a,而第二2D掩模608b可包含第二手术工具606b。此外,第三手术工具606c可被包含在第三2D掩模608c内。
按照实施例,图像过滤引擎210可被配置成从预处理视频帧602中确定所检测出的初步2D掩模(比如608a、608b和608c)的轮廓。轮廓化视频帧610图解说明基于所检测出的初步2D掩模(比如第一2D掩模608a、第二2D掩模608b和第三2D掩模608c)的轮廓的确定,可从预处理视频帧602生成的结果视频帧。轮廓化视频帧610可包括确定的轮廓,比如第一工具轮廓612a、第二工具轮廓612b和第三工具轮廓612c。第一工具轮廓612a可对应于(第一手术工具606a的)第一2D掩模608a,而第二工具轮廓612b可对应于(第二手术工具606b的)第二2D掩模608b。此外,第三工具轮廓612c可对应于(第三手术工具606c的)第三2D掩模608c。
按照实施例,图像过滤引擎210还可被配置成对轮廓化视频帧610中的确定的轮廓(比如第一工具轮廓612a、第二工具轮廓612b和第三工具轮廓612c)进行轮廓演化。如图2中所规定的,可通过使用如在方程(3)和(4)中规定的基于水平集的技术,基于一个或多个手术工具(比如第一手术工具606a、第二手术工具606b和第三手术工具606c)的颜色特性进行轮廓演化。按照实施例,轮廓演化可以以在轮廓(比如第一工具轮廓612a、第二工具轮廓612b和第三工具轮廓612c)之内和/或之外的区域的曲率和强度变化为基础。轮廓演化视频帧614图解说明基于对轮廓(比如第一工具轮廓612a、第二工具轮廓612b和第三工具轮廓612c)进行轮廓演化,可从轮廓化视频帧610获得的结果视频帧。轮廓演化视频帧614可包括一个或多个演化的轮廓,比如第一演化轮廓616a、第二演化轮廓616b和第三演化轮廓616c。第一演化轮廓616a可对应于第一工具轮廓612a,而第二演化轮廓616b可对应于第二工具轮廓612b。此外,第三演化轮廓616c可对应于第三工具轮廓612c。
按照实施例,图像过滤引擎210还可被配置成进行轮廓演化视频帧614的分割,以获得工具分割视频帧618。工具分割视频帧618可包括一个或多个工具段,比如第一工具段620a、第二工具段620b和第三工具620c。基于第一演化轮廓616a的分割,可以确定第一工具段620a。此外,基于第二演化轮廓616b和第三演化轮廓616c的分割,可以分别确定第二工具段620b和第三工具段620c。按照实施例,图像过滤引擎210可完善一个或多个手术工具(比如第一手术工具606a、第二手术工具606b和第三手术工具606c)的初步2D掩模(比如第一2D掩模608a、第二2D掩模608b和第三2D掩模608c)。所述完善可以基于一个或多个工具段(比如第一工具段620a、第二工具段620b和第三工具段620c)。
图7A至图7D按照本公开的实施例,图解说明视频帧中的一个或多个手术工具的姿态的例证情形。参见图7A,示出了第一例证情形700a。此外,图7B描绘了第二例证情形700b,而图7C和图7D分别描绘了第三例证情形700c和第四例证情形700d。4种例证情形(比如700a-700d)中的每个都描述了包括第一手术工具704和第二手术工具706的视频帧702。不过,在4种例证情形700a-700d中,手术工具704和706的姿态不同。
第一例证情形700a描绘在第一手术工具704的顶端(通过704a描绘)的遮蔽,而第二例证情形700b描绘在第二手术工具706的顶端(通过706a描绘)的遮蔽。另外,第三例证情形700c描绘在两个手术工具的顶端和末端的质心(通过708描绘)的遮蔽。此外,第四例证情形700d描绘在第一手术工具704的末端(通过704b描绘)的遮蔽。每个例证情形(比如700a-700d)还描绘第一组主轴(包括主轴710a和712a)和第二组主轴(包括主轴710b和712b)。主轴710a和710b可分别对应于第一手术工具704的第一主轴和第二主轴。此外,主轴712a和712b可分别对应于第二手术工具706的第一主轴和第二主轴。按照实施例,第二组主轴中的每个主轴可相对于来自第一组主轴的关联主轴成预定角度。例如,(第一手术工具704的)主轴710a和710b可相互正交。类似地,(第二手术工具706的)主轴712a和712b也可相互正交。
按照实施例,图像处理服务器104的工具定位引擎212可估计视频帧702中的一个或多个手术工具(比如第一手术工具704和第二手术工具706)的顶端和/或末端的位置。基于在视频帧702中描绘的一个或多个手术工具(比如第一手术工具704和第二手术工具706)的2D掩模的分析,可以估计所述顶端和/或末端的位置。图2和图4中详细说明了2D掩模的检测。
按照实施例,工具定位引擎212可沿着第一主轴(比如横向主轴)分析2D掩模,以估计顶端和/或末端的位置。例如,工具定位引擎212可沿着第一手术工具704的第一主轴(比如710a)分析第一手术工具704的2D掩模。此外,工具定位引擎212可沿着第二手术工具706的第一主轴(比如710b)分析第二手术工具706的2D掩模。工具定位引擎212可基于所述位置确定顶端和/或末端的质心的位置。
按照实施例,当质心被遮蔽或者质心位于所检测出的2D掩模之外时,工具定位引擎212可重新估计一个或多个手术工具(比如第一手术工具704和第二手术工具706)的顶端和/或末端的位置。例如,在第一例证情形700a和第四例证情形700d中,质心位于所检测出的2D掩模之外,而在第三例证情形700c中,质心可被遮蔽。从而,在诸如700a、700c和700d之类的第一、第三和第四例证情形下,工具定位引擎212可分别重新估计一个或多个手术工具(比如第一手术工具704和第二手术工具706)的顶端和/或末端的位置。
此外,工具定位引擎212可基于重新估计的顶端和/或末端的位置,更新质心的位置。所述顶端和/或末端的位置的重新估计可以以沿着第二主轴(比如第一手术工具704的第二主轴710b和第二手术工具706的第二主轴712b)的所检测出的2D掩模的分析为基础。第二主轴可相对于第一主轴成预定角度。例如,第二主轴可正交于第一主轴。从而,如果第一主轴对应于所检测出的2D掩模的横向主轴,那么第二主轴可对应于所检测出的2D掩模的纵向主轴。按照实施例,工具定位引擎212可基于顶端和/或末端的估计的位置,估计视频帧702中的一个或多个手术工具(比如第一手术工具704和第二手术工具706)的姿态。
图7A的第一例证情形700a图解说明其中第一手术工具704的顶端(通过704a描述)被第二手术工具706的顶端(通过706a描绘)成钝角(大于“90度”并且小于“180度”)地遮蔽的情形。工具定位引擎212可沿着相应的手术工具的第一主轴(通过710a和712a表示),分析第一手术工具704和第二手术工具706的2D掩模。这里,第一手术工具704和第二手术工具706的未遮蔽顶端的数目和未遮蔽末端的数目等于1。基于沿着第一主轴的2D掩模的分析,工具定位引擎212可确定顶端和末端的质心(通过708描绘)位于2D掩模之外。从而,工具定位引擎212可断定顶端中的一个或多个可被遮蔽。为了估计手术工具704和706的姿态,工具定位引擎212可进一步沿着相应的手术工具的第二主轴(通过710b和712b表示),分析这些工具的2D掩模。在这种情况下,第一手术工具704和第二手术工具706的姿态的估计可分别以第一手术工具704和第二手术工具706的相应的末端的估计的位置为基础。
图7B的第二例证情形700b图解说明其中第二手术工具706的顶端(通过706a描绘)被第一手术工具704的顶端(通过704a描绘)成锐角(小于或等于“90度”)地遮蔽的情形。工具定位引擎212可沿着相应的手术工具的第一主轴(通过710a和712a表示),分析手术工具704和706的2D掩模,以检测手术工具704和706的顶端和末端。这里,一个或多个手术工具(比如第一手术工具704和第二手术工具706)的未遮蔽顶端的数目可小于未遮蔽末端的数目。本领域技术人员会意识到在当前情形下,由于顶端和末端的质心(通过708描绘)可位于2D掩模之内,因此工具定位引擎212不需要沿着手术工具704和706的第二主轴(分别为710b和712b)来分析手术工具704和706的2D掩模。此外,在这种情形下,工具定位引擎212可分别基于第一手术工具704和第二手术工具706的相应的末端的估计的位置,估计第一手术工具704和第二手术工具706的姿态。
图7C的第三例证情形700c图解说明在第一手术工具704和第二手术工具706的顶端和/或末端的质心(比如被遮蔽的质心708)处的遮蔽。工具定位引擎212可沿着相应的手术工具的第一主轴(通过710a和712a表示),分析手术工具704和706的2D掩模,以检测手术工具704和706的顶端和末端。这里,一个或多个手术工具(比如第一手术工具704和第二手术工具706)的未遮蔽顶端的数目大于或等于未遮蔽末端的数目。本领域技术人员会意识到在当前情形下,由于顶端和末端的质心(通过708描绘)可位于2D掩模之内,因此工具定位引擎212不需要沿着手术工具704和706的第二主轴(分别为710b和712b)分析手术工具704和706的2D掩模。此外,在这种情形下,工具定位引擎212可分别基于第一手术工具704和第二手术工具706的相应的顶端的估计的位置,估计第一手术工具704和第二手术工具706的姿态。
图7D的第四例证情形700d图解说明其中第一手术工具704的末端(通过704b描绘)被第二手术工具706的末端(通过706b描绘)遮蔽的情形。工具定位引擎212可沿着相应的手术工具的第一主轴(通过710a和712a表示),分析手术工具704和706的2D掩模,以检测手术工具704和706的顶端和末端。这里,一个或多个手术工具(比如第一手术工具704和第二手术工具706)的未遮蔽顶端的数目大于或等于未遮蔽末端的数目。基于沿着第一主轴的2D掩模的分析,工具定位引擎212可确定顶端和末端的质心(通过708描绘)位于2D掩模之外。从而,工具定位引擎212可断定末端中的一个或多个末端可能被遮蔽。为了估计手术工具704和706的姿态,工具定位引擎212可进一步沿着相应的手术工具的第二主轴(通过710b和712b表示),分析这些工具的2D掩模。在这种情况下,工具定位引擎212可分别基于第一手术工具704和第二手术工具706的相应的顶端的估计的位置,估计第一手术工具704和第二手术工具706的姿态。
图8按照本公开的实施例,图解说明可呈现在用户终端108上的UI的例证情形。图8已经结合图1的要素进行了说明。参见图8,示出了可被呈现给用户终端108的用户的用户界面(UI)。
按照实施例,UI可被配置成显示手术场景界面802,以向用户呈现一个或多个视频帧。例如,如图8中所示,手术场景界面802可显示包括患者的解剖区804的透视横截面视图的快照的视频帧。可在对解剖区804进行手术或诊断过程时捕捉所述快照。
如所述快照中图解所示,通过使用一块或多块手术用纱布(比如手术用纱布808)和一个或多个手术仪器(比如手术钳806(第一手术工具)和内窥镜手术仪器810(第二手术工具)),可进行手术或诊断过程。例如,如图8中所示,当通过使用内窥镜手术仪器810进行手术或诊断过程时,可通过使用手术钳806,按住解剖区804的表面。此外,手术用纱布808可用于吸收在进行手术或诊断过程时可能渗出的血液或其他体液。尽管图8中示出了单块手术用纱布和两个手术仪器,不过,在不脱离本公开的范围的情况下,也可使用一个或多个另外的手术用纱布和/或手术仪器来进行手术或诊断过程。如图8中所示,手术场景界面802还图解说明了分别围绕视频帧的快照中的手术钳806和内窥镜手术仪器810的第一边界812a和第二边界812b。手术场景界面802还在第一边界812a内描绘手术钳806的第一姿态轴(通过814a表示)和第二姿态轴(通过814b表示)。另外,手术场景界面802在第二边界812b内,描绘了内窥镜手术仪器810的第一姿态轴和第二姿态轴(分别通过816a和816b表示)。
在操作中,在手术场景界面802中的特定视频帧的显示之前,图像处理服务器104可分析视频帧。按照实施例,图像处理服务器104的图像过滤引擎210可确定视频帧中的一个或多个手术工具(比如手术钳806和内窥镜手术仪器810)的一个或多个物理特性。所述一个或多个物理特性的确定可以基于一个或多个颜色和几何约束。之后,图像过滤引擎210可基于确定的一个或多个物理特性,检测存在于视频帧中的一个或多个手术工具(比如806和810)的2D掩模。此外,图像处理服务器104的工具定位引擎212可基于在所述一个或多个手术工具的顶端和/或末端的遮蔽,估计视频帧中的一个或多个手术工具(比如806和810)的姿态。基于估计的相应的手术工具的姿态,可在视频帧内定位一个或多个手术工具(比如806和810)。
按照实施例,在视频帧被呈现给用户时,手术场景界面802可掩盖或突出可定位在视频帧中的一个或多个手术工具(比如806和810)。例如,手术场景界面802可基于手术钳806的定位和姿态估计,显示围绕视频帧中的手术钳806的第一边界812a。类似地,手术场景界面802可基于内窥镜手术仪器810的定位和姿态估计,显示围绕视频帧中的内窥镜手术仪器810的第二边界812b。按照实施例,基于手术钳806的姿态的估计,手术场景界面802可在第一边界812a内显示手术钳806的第一姿态轴814a和第二姿态轴814b。此外,基于内窥镜手术仪器810的姿态的估计,手术场景界面802也可显示内窥镜手术仪器810的第一姿态轴和第二姿态轴(比如分别为816a和816b)。
按照实施例,手术场景界面802还可被配置成向用户呈现通知,以指示视频帧中的一个或多个手术工具(比如手术钳806和内窥镜手术仪器810)的定位。所述通知还可指示视频帧中的各个手术工具(比如806和810)的遮蔽的程度和/或类型。所述通知的例子可包括(但不限于)音频报警、文本报警、视觉报警和/或触觉报警。在实时呈现视频帧的情况下,手术场景界面802可促使用户(比如医师)基于通知采取特定行动。例如,手术场景界面802可促使用户调整图像捕捉设备的一个或多个图像捕捉设定。
手术场景界面802可建议一个或多个图像捕捉设定的最佳值。用户可基于呈现给用户的建议最佳值,调整图像捕捉设备的一个或多个图像捕捉设定。除了图像捕捉设备的一个或多个图像捕捉设定的调整之外,用户(比如医师)还可在解剖区804内重新排列/重新放置一个或多个手术工具(比如806和810),以减小一个或多个手术工具(比如806和810)的遮蔽程度。本领域普通技术人员会明白,图8中的UI是为了例证目的而提供的,并且不应被解释成限制本公开的范围。
本公开的各个实施例可包括许多优点。如上所述,图像处理服务器104可分析一个或多个视频帧,以基于一个或多个手术工具的姿态的估计,实时地在各个视频帧中定位一个或多个手术工具。在视频帧的分析期间,图像处理服务器104最初可基于一个或多个颜色和几何约束,确定一个或多个手术工具的一个或多个物理特性。当视频帧被一个或多个烟块遮蔽时,图像处理服务器104可从视频帧中去除一个或多个烟块,以生成无烟视频帧。一个或多个烟块的去除可改善一个或多个手术工具的定位的处理的准确性。此外,图像处理服务器104可基于一个或多个物理特性和一个或多个烟块的去除,检测一个或多个手术工具的2D掩模。如上所述,图像处理服务器104可基于与一个或多个手术工具的所检测出的2D掩模关联的轮廓的轮廓演化,完善所检测出的2D掩模。从而,最初检测的2D掩模可从而被完善,以致可进一步改善视频帧中的一个或多个手术工具的检测。
按照实施例,图像处理服务器104可被配置成基于一个或多个手术工具的所检测出的2D掩模中的一个或多个手术工具的顶端/末端的遮蔽,估计一个或多个手术工具的姿态。姿态的这种估计对一个或多个手术工具的顶端和/或末端的遮蔽可是鲁棒的。
在手术或诊断过程期间,图像处理服务器104可实时向医师提供通知,所述通知可指示视频帧中的一个或多个手术工具的定位。所述通知还可指示一个或多个手术工具的遮蔽的程度和/或类型。基于所述实时通知,医师可在进行手术或诊断过程时,在解剖区内重新排列/重新放置所述一个或多个手术工具,以减小一个或多个手术工具的遮蔽程度。
此外,如上所述,图像处理服务器104还可使医师能够基于特定视频帧中的一个或多个手术工具的定位,调整图像捕捉设备的一个或多个图像捕捉设定。一个或多个图像捕捉设定的这种调整有助于由图像捕捉设备实时捕捉的一个或多个视频帧的质量的改进。
图9是按照本公开的实施例,图解说明在解剖手术期间定位手术工具的例证方法的例证流程图。参见图9,示出了流程图900。流程图900是结合图1和图2说明的。所述方法开始于步骤902,并且进入步骤904。
在步骤904,可从视频帧中去除视频帧的一个或多个烟块以生成无烟视频帧。按照实施例,图像过滤引擎210可被配置成在视频帧被一个或多个烟块遮蔽时,去除视频帧的一个或多个烟块,以生成无烟视频帧。按照实施例,图像过滤引擎210可分析一组在先视频帧(比如时间上在当前视频帧之前出现的预定数目的视频帧),以在来自所述一组在先视频帧中的每个视频帧中检测一个或多个烟区。图像过滤引擎210可确定所述一组在先视频帧中的所检测出的一个或多个烟区中的一组像素的累积强度。从视频帧中去除一个或多个烟块可以以所述一组在先视频帧中的所检测出的一个或多个烟区中的一组像素的累积强度为基础。
在步骤906,可确定存在于视频帧中的一个或多个手术工具的一个或多个物理特性。按照实施例,图像处理服务器104的图像过滤引擎210可被配置成确定视频帧(或者无烟视频帧)中的一个或多个手术工具的一个或多个物理特性。按照实施例,一个或多个手术工具的一个或多个物理特性可基于一个或多个颜色和几何约束来确定。参考图2,规定了所述一个或多个颜色和几何约束。
在步骤908,可检测存在于视频帧中的一个或多个手术工具的2D掩模。按照实施例,图像过滤引擎210可被配置成基于确定的一个或多个手术工具的一个或多个物理特性,检测一个或多个手术工具的2D掩模。在图2中详细说明了一个或多个手术工具的2D掩模的确定。按照实施例,图像过滤引擎210还可被配置成基于与一个或多个工具的初始2D掩模关联的轮廓的轮廓演化,完善一个或多个手术工具的2D掩模。在图6中详细说明了一个或多个手术工具的2D掩模的完善。
在步骤910,可估计视频帧中的一个或多个手术工具的顶端/末端的位置。按照实施例,工具定位引擎212可被配置成估计视频帧中的一个或多个手术工具的顶端和/或末端的位置。顶端和/或末端的位置的估计可以以一个或多个手术工具的所检测出的2D掩模的分析为基础。此外,工具定位引擎212可确定所述一个或多个工具的顶端和/或末端的质心的位置。按照实施例,当所述质心被遮蔽或者所述质心位于一个或多个手术工具的2D掩模之外时,工具定位引擎212可重新估计一个或多个手术工具的顶端和/或末端的位置。此外,工具定位引擎212可基于重新估计的一个或多个手术工具的顶端和/或末端的位置,更新所述质心的位置。在图2中,详细说明了一个或多个手术工具的顶端/末端的位置的估计(和/或重新估计)。
在步骤912,可以估计视频帧中的一个或多个手术工具的姿态。按照实施例,工具定位引擎212可被配置成基于一个或多个手术工具的顶端和/或末端的遮蔽,估计一个或多个手术工具的姿态。按照实施例,当一个或多个手术工具的顶端被遮蔽时,一个或多个手术工具的姿态的估计可以以一个或多个手术工具的末端的估计的位置为基础。此外,当所述质心和/或一个或多个手术工具的末端被遮蔽时,一个或多个手术工具的姿态的估计可以以一个或多个手术工具的顶端的估计的位置为基础。图7A至图7D中详细说明了一个或多个手术工具的姿态的例证情形。此外,在图2中详细说明了一个或多个手术工具的姿态的估计。控制转到结束步骤914。
按照本公开的实施例,公开了在解剖手术期间定位手术工具的系统。所述系统可包含经由通信网络110通信耦合到图像捕捉设备(图1中未示出)的图像处理服务器104。图像捕捉设备可被配置成在解剖手术期间捕捉一个或多个视频帧。图像处理服务器104可被配置成基于一个或多个颜色和几何约束,确定存在于来自一个或多个视频帧的视频帧中的一个或多个手术工具的一个或多个物理特性。图像处理服务器104还可被配置成基于确定的一个或多个手术工具的一个或多个物理特性,检测存在于视频帧中的一个或多个手术工具的2D掩模。另外,图像处理服务器104可被配置成当一个或多个手术工具的2D掩模在一个或多个手术工具的顶端和/或末端被遮蔽时,估计视频帧中的一个或多个手术工具的姿态。
本公开的各个实施例可提供其上存储有机器代码和/或计算机程序的非暂态计算机可读介质和/或存储介质和/或非暂态机器可读介质和/或存储介质,所述机器代码和/或计算机程序具有可由机器和/或计算机执行以在解剖手术期间定位手术工具的至少一个代码段。图像处理服务器104中的所述至少一个代码段可使机器和/或计算机进行包含基于一个或多个颜色和几何约束确定存在于来自一个或多个视频帧的视频帧中的一个或多个手术工具的一个或多个物理特性的步骤。所述一个或多个视频帧可由图像捕捉设备捕捉,所述图像捕捉设备可经由通信网络110通信耦合到图像处理服务器104。按照实施例,基于确定的一个或多个手术工具的一个或多个物理特性可以检测存在于视频帧中的一个或多个手术工具的2D掩模。此外,当一个或多个手术工具的2D掩模在一个或多个手术工具的顶端和/或末端被遮蔽时,可以估计视频帧中的一个或多个手术工具的姿态。
本公开可以以硬件或者硬件和软件的组合实现。本公开可以以集中化方式实现在至少一个计算机系统中,或者以分布式方式实现,在以分布式方式实现的情况下,不同的元件可被散布在几个互连的计算机系统中。适于执行本文中说明的方法的计算机系统或其他装置可以是合适的。硬件和软件的组合可以是具有计算机程序的通用计算机系统,当所述计算机程序被加载和执行时,所述计算机程序可控制所述计算机系统,以致所述计算机系统执行本文中说明的方法。本公开可以以包含还进行其他功能的集成电路的一部分的硬件来实现。
本公开也可被嵌入计算机程序产品中,所述计算机程序产品包含使本文中说明的方法的实现成为可能的所有特征,并且当被载入计算机系统中时,能够执行这些方法。在本上下文中,计算机程序意为一组指令中的按任意语言、代码或标号的任意表达,所述一组指令旨在使具有信息处理能力的系统或者直接进行特定功能或者在下述操作之一或两者之后进行特定功能:a)转换成另一种语言、代码或标号;b)以不同的材料形式再现。
尽管已经参考特定实施例说明了本公开,不过,在不脱离本公开的范围的情况下,本领域技术人员会明白可以作出各种改变,并且可以替换等价物。另外,在不脱离本公开的范围的情况下,可以作出许多修改以使特定状况或材料适应于本公开的教导。因此,本公开不限于公开的特定实施例,相反,本公开将包含落入附加权利要求的范围内的所有实施例。
Claims (26)
1.一种在解剖手术期间用于手术工具定位的系统,所述系统包括:
通信耦合到图像捕捉设备的图像处理引擎中的一个或多个电路,其中所述图像捕捉设备被配置成捕捉一个或多个视频帧,所述一个或多个电路被配置成:
基于一个或多个颜色和几何约束,确定存在于所述一个或多个视频帧中的一个或多个手术工具的一个或多个物理特性;
基于所述一个或多个手术工具的所确定的一个或多个物理特性,检测存在于所述一个或多个视频帧中的所述一个或多个手术工具的二维2D掩模;以及
当所述一个或多个手术工具的所述2D掩模在所述一个或多个手术工具的顶端和/或末端处被遮蔽时,估计所述一个或多个视频帧中的所述一个或多个手术工具的姿态。
2.按照权利要求1所述的系统,其中所述一个或多个电路还被配置成当所述一个或多个视频帧被一个或多个烟块遮蔽时,从所述一个或多个视频帧中去除所述一个或多个烟块,以生成无烟视频帧。
3.按照权利要求2所述的系统,其中所述一个或多个电路还被配置成在所述一个或多个视频帧之前的一组视频帧之中的每个视频帧中,检测一个或多个烟区。
4.按照权利要求3所述的系统,其中基于在所述一个或多个视频帧之前的所述一组视频帧之中的每个视频帧中的所检测出的一个或多个烟区中的一组像素的累积强度,从所述一个或多个视频帧中去除所述一个或多个烟块。
5.按照权利要求2所述的系统,其中所述一个或多个电路还被配置成基于所述无烟视频帧中的所述一个或多个手术工具的所检测出的2D掩模之中的所述一个或多个手术工具的颜色特性,进行轮廓演化。
6.按照权利要求5所述的系统,其中基于在所述无烟视频帧中的所检测出的2D掩模的轮廓之内和/或之外的区域的曲率和强度变化,进行所述轮廓演化。
7.按照权利要求5所述的系统,其中所述一个或多个电路还被配置成基于所述轮廓演化,进行所述无烟视频帧的分割,以检测所述无烟视频帧中的所述一个或多个手术工具。
8.按照权利要求1所述的系统,其中所述一个或多个电路还被配置成基于所述一个或多个视频帧中的各个区域中的像素的强度,进行对应于所述一个或多个颜色约束的适应性颜色过滤。
9.按照权利要求8所述的系统,其中根据基于opp2颜色强度的过滤或基于归一化opp2颜色强度的过滤,对所述一个或多个视频帧的所述各个区域进行所述适应性颜色过滤。
10.按照权利要求8所述的系统,其中存在于所述一个或多个视频帧中的所述一个或多个手术工具的所述2D掩模的所述检测基于所述适应性颜色过滤。
11.按照权利要求1所述的系统,其中所述一个或多个电路还被配置成基于沿着第一方向向量的所述一个或多个手术工具的所检测出的2D掩模的分析,估计所述一个或多个视频帧中的所述一个或多个手术工具的所述顶端和/或所述末端的位置,所述第一方向向量沿着所述一个或多个手术工具的所检测出的2D掩模的纵向主轴延伸。
12.按照权利要求11所述的系统,其中所述一个或多个电路还被配置成确定所述一个或多个视频帧中的所述一个或多个手术工具的所述顶端和/或所述末端的所述位置的质心。
13.按照权利要求12所述的系统,其中所述一个或多个电路还被配置成基于沿着第二方向向量的所述一个或多个手术工具的所检测出的2D掩模的分析,重新估计所述一个或多个视频帧中的所述一个或多个手术工具的所述顶端和/或所述末端的所述位置,所述第二方向向量相对于所述第一方向向量成预定角度,其中当所述质心位于所述一个或多个手术工具的所检测出的2D掩模之外或者所述质心被遮蔽时,重新估计顶端和/或末端的所述位置。
14.按照权利要求11所述的系统,其中当所述一个或多个手术工具的所述顶端被遮蔽时,所述一个或多个手术工具的所述姿态的所述估计基于所述一个或多个手术工具的所述末端的所估计的位置。
15.按照权利要求11所述的系统,其中当所述质心和/或所述一个或多个手术工具的所述末端被遮蔽时,所述一个或多个手术工具的所述姿态的所述估计基于所述一个或多个手术工具的所述顶端的所估计的位置。
16.按照权利要求1所述的系统,其中基于所述一个或多个视频帧中的所述一个或多个手术工具的所述姿态的所述估计,调整所述图像捕捉设备的一个或多个图像捕捉设定。
17.按照权利要求1所述的系统,其中所述一个或多个图像捕捉设定包含下列各项中的一个或多个:自动曝光、自动聚焦、自动白平衡或自动照明。
18.按照权利要求1所述的系统,其中所述一个或多个电路还被配置成在所述解剖手术期间,经由用户界面显示所述一个或多个视频帧,其中所述一个或多个手术工具在所显示的一个或多个视频帧中被掩盖或突出。
19.按照权利要求1所述的系统,其中所述一个或多个电路还被配置成生成指示在所述一个或多个手术工具的所述顶端和/或所述末端处的所述一个或多个手术工具的遮蔽的通知,其中所述通知对应于音频报警、文本报警、视觉报警或触觉报警中的一个或多个。
20.一种在解剖手术期间用于手术工具定位的方法,所述方法包括:
在通信耦合到图像捕捉设备的图像处理引擎中:
基于一个或多个颜色和几何约束,确定存在于一个或多个视频帧中的一个或多个手术工具的一个或多个物理特性,其中所述图像捕捉设备被配置成捕捉所述一个或多个视频帧;
基于所述一个或多个手术工具的所确定的一个或多个物理特性,检测存在于所述一个或多个视频帧中的所述一个或多个手术工具的二维2D掩模;以及
当所述一个或多个手术工具的所述2D掩模在所述一个或多个手术工具的顶端和/或末端处被遮蔽时,估计所述一个或多个视频帧中的所述一个或多个手术工具的姿态。
21.按照权利要求20所述的方法,还包括基于沿着第一方向向量的所述一个或多个手术工具的所检测出的2D掩模的分析,估计所述一个或多个视频帧中的所述一个或多个手术工具的所述顶端和/或所述末端的位置,所述第一方向向量沿着所述一个或多个手术工具的所检测出的2D掩模的纵向主轴延伸。
22.按照权利要求21所述的方法,还包括确定所述一个或多个视频帧中的所述一个或多个手术工具的所述顶端和/或所述末端的所述位置的质心。
23.按照权利要求22所述的方法,还包括基于沿着第二方向向量的所述一个或多个手术工具的所检测出的2D掩模的分析,重新估计所述一个或多个视频帧中的所述一个或多个手术工具的所述顶端和/或所述末端的所述位置,所述第二方向向量相对于所述第一方向向量成预定角度,其中当所述质心位于所述一个或多个手术工具的所检测出的2D掩模之外或者所述质心被遮蔽时,重新估计顶端和/或末端的所述位置。
24.按照权利要求21所述的方法,其中当所述一个或多个手术工具的所述顶端被遮蔽时,所述一个或多个手术工具的所述姿态的所述估计基于所述一个或多个手术工具的所述末端的所估计的位置。
25.按照权利要求21所述的方法,其中当所述质心和/或所述一个或多个手术工具的所述末端被遮蔽时,所述一个或多个手术工具的所述姿态的所述估计基于所述一个或多个手术工具的所述顶端的所估计的位置。
26.一种存储有一组计算机可执行指令的非暂态计算机可读存储介质,所述一组计算机可执行指令用于使计算机进行以下步骤,所述步骤包括:
基于一个或多个颜色和几何约束,确定存在于一个或多个视频帧中的一个或多个手术工具的一个或多个物理特性,其中所述计算机通信耦合到配置成捕捉所述一个或多个视频帧的图像捕捉设备;
基于所述一个或多个手术工具的所确定的一个或多个物理特性,检测存在于所述一个或多个视频帧中的所述一个或多个手术工具的二维2D掩模;以及
当所述一个或多个手术工具的所述2D掩模在所述一个或多个手术工具的顶端和/或末端处被遮蔽时,估计所述一个或多个视频帧中的所述一个或多个手术工具的姿态。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562118043P | 2015-02-19 | 2015-02-19 | |
US62/118,043 | 2015-02-19 | ||
US14/860,914 US9905000B2 (en) | 2015-02-19 | 2015-09-22 | Method and system for surgical tool localization during anatomical surgery |
US14/860,914 | 2015-09-22 | ||
PCT/US2016/018035 WO2016133885A1 (en) | 2015-02-19 | 2016-02-16 | Method and system for surgical tool localization during anatomical surgery |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107530132A true CN107530132A (zh) | 2018-01-02 |
CN107530132B CN107530132B (zh) | 2020-03-17 |
Family
ID=56692358
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201680008532.7A Active CN107530132B (zh) | 2015-02-19 | 2016-02-16 | 在解剖手术期间用于手术工具定位的方法和系统 |
Country Status (6)
Country | Link |
---|---|
US (2) | US9905000B2 (zh) |
EP (1) | EP3242590B1 (zh) |
JP (1) | JP6525174B2 (zh) |
KR (1) | KR101986443B1 (zh) |
CN (1) | CN107530132B (zh) |
WO (1) | WO2016133885A1 (zh) |
Families Citing this family (139)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11871901B2 (en) * | 2012-05-20 | 2024-01-16 | Cilag Gmbh International | Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage |
US9370372B2 (en) | 2013-09-04 | 2016-06-21 | Mcginley Engineered Solutions, Llc | Drill bit penetration measurement systems and methods |
US9833244B2 (en) | 2013-11-08 | 2017-12-05 | Mcginley Engineered Solutions, Llc | Surgical saw with sensing technology for determining cut through of bone and depth of the saw blade during surgery |
WO2016036756A1 (en) | 2014-09-05 | 2016-03-10 | Mcginley Engineered Solutions, Llc | Instrument leading edge measurement system and method |
US11504192B2 (en) | 2014-10-30 | 2022-11-22 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US20160259888A1 (en) * | 2015-03-02 | 2016-09-08 | Sony Corporation | Method and system for content management of video images of anatomical regions |
FR3039910B1 (fr) * | 2015-08-04 | 2018-08-24 | Université Grenoble Alpes | Dispositif et procede de detection automatique d'un outil chirurgical sur une image fournie par un systeme d'imagerie medicale |
US10321920B2 (en) | 2015-11-06 | 2019-06-18 | Mcginley Engineered Solutions, Llc | Measurement system for use with surgical burr instrument |
DE102016121668A1 (de) * | 2016-11-11 | 2018-05-17 | Karl Storz Se & Co. Kg | Automatische Identifizierung medizinisch relevanter Videoelemente |
SG10201700386PA (en) * | 2017-01-17 | 2018-08-30 | Ndr Medical Tech Pte Ltd | A System And Method For Aligning An Elongated Tool To An Occluded Target |
EP3668436A4 (en) * | 2017-08-16 | 2021-05-12 | Covidien LP | SYSTEMS AND METHODS FOR IMPROVING SURGICAL IMAGES AND / OR VIDEOS |
EP3672501B1 (en) | 2017-08-25 | 2023-06-14 | McGinley Engineered Solutions, LLC | Sensing of surgical instrument placement relative to anatomic structures |
CN107874760B (zh) * | 2017-09-27 | 2020-12-25 | 中国科学院深圳先进技术研究院 | 一种医学影像中的导丝追踪方法、装置、设备及存储介质 |
EP3648663A4 (en) * | 2017-10-02 | 2021-06-30 | McGinley Engineered Solutions, LLC | REAL-TIME NAVIGATION AID SURGICAL INSTRUMENT |
US11801098B2 (en) | 2017-10-30 | 2023-10-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11291465B2 (en) | 2017-10-30 | 2022-04-05 | Cilag Gmbh International | Surgical instruments comprising a lockable end effector socket |
US11510741B2 (en) | 2017-10-30 | 2022-11-29 | Cilag Gmbh International | Method for producing a surgical instrument comprising a smart electrical system |
US11317919B2 (en) | 2017-10-30 | 2022-05-03 | Cilag Gmbh International | Clip applier comprising a clip crimping system |
US11564756B2 (en) | 2017-10-30 | 2023-01-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11911045B2 (en) | 2017-10-30 | 2024-02-27 | Cllag GmbH International | Method for operating a powered articulating multi-clip applier |
US11311342B2 (en) | 2017-10-30 | 2022-04-26 | Cilag Gmbh International | Method for communicating with surgical instrument systems |
US11291510B2 (en) | 2017-10-30 | 2022-04-05 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11406390B2 (en) | 2017-10-30 | 2022-08-09 | Cilag Gmbh International | Clip applier comprising interchangeable clip reloads |
US11229436B2 (en) | 2017-10-30 | 2022-01-25 | Cilag Gmbh International | Surgical system comprising a surgical tool and a surgical hub |
US11786245B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Surgical systems with prioritized data transmission capabilities |
US11410259B2 (en) | 2017-12-28 | 2022-08-09 | Cilag Gmbh International | Adaptive control program updates for surgical devices |
US11056244B2 (en) | 2017-12-28 | 2021-07-06 | Cilag Gmbh International | Automated data scaling, alignment, and organizing based on predefined parameters within surgical networks |
US10932872B2 (en) | 2017-12-28 | 2021-03-02 | Ethicon Llc | Cloud-based medical analytics for linking of local usage trends with the resource acquisition behaviors of larger data set |
US11559307B2 (en) | 2017-12-28 | 2023-01-24 | Cilag Gmbh International | Method of robotic hub communication, detection, and control |
US20190201039A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Situational awareness of electrosurgical systems |
US20190200981A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws |
US11308075B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Surgical network, instrument, and cloud responses based on validation of received dataset and authentication of its source and integrity |
US11602393B2 (en) | 2017-12-28 | 2023-03-14 | Cilag Gmbh International | Surgical evacuation sensing and generator control |
US11540855B2 (en) | 2017-12-28 | 2023-01-03 | Cilag Gmbh International | Controlling activation of an ultrasonic surgical instrument according to the presence of tissue |
US20190201139A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Communication arrangements for robot-assisted surgical platforms |
US11045591B2 (en) | 2017-12-28 | 2021-06-29 | Cilag Gmbh International | Dual in-series large and small droplet filters |
US11446052B2 (en) | 2017-12-28 | 2022-09-20 | Cilag Gmbh International | Variation of radio frequency and ultrasonic power level in cooperation with varying clamp arm pressure to achieve predefined heat flux or power applied to tissue |
US11109866B2 (en) | 2017-12-28 | 2021-09-07 | Cilag Gmbh International | Method for circular stapler control algorithm adjustment based on situational awareness |
US11559308B2 (en) | 2017-12-28 | 2023-01-24 | Cilag Gmbh International | Method for smart energy device infrastructure |
US11266468B2 (en) | 2017-12-28 | 2022-03-08 | Cilag Gmbh International | Cooperative utilization of data derived from secondary sources by intelligent surgical hubs |
US11213359B2 (en) | 2017-12-28 | 2022-01-04 | Cilag Gmbh International | Controllers for robot-assisted surgical platforms |
US11786251B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11166772B2 (en) | 2017-12-28 | 2021-11-09 | Cilag Gmbh International | Surgical hub coordination of control and communication of operating room devices |
US11937769B2 (en) | 2017-12-28 | 2024-03-26 | Cilag Gmbh International | Method of hub communication, processing, storage and display |
US10695081B2 (en) | 2017-12-28 | 2020-06-30 | Ethicon Llc | Controlling a surgical instrument according to sensed closure parameters |
US11160605B2 (en) | 2017-12-28 | 2021-11-02 | Cilag Gmbh International | Surgical evacuation sensing and motor control |
US10987178B2 (en) | 2017-12-28 | 2021-04-27 | Ethicon Llc | Surgical hub control arrangements |
US11389164B2 (en) | 2017-12-28 | 2022-07-19 | Cilag Gmbh International | Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices |
US11284936B2 (en) | 2017-12-28 | 2022-03-29 | Cilag Gmbh International | Surgical instrument having a flexible electrode |
US11317937B2 (en) | 2018-03-08 | 2022-05-03 | Cilag Gmbh International | Determining the state of an ultrasonic end effector |
US10966791B2 (en) | 2017-12-28 | 2021-04-06 | Ethicon Llc | Cloud-based medical analytics for medical facility segmented individualization of instrument function |
US11464535B2 (en) | 2017-12-28 | 2022-10-11 | Cilag Gmbh International | Detection of end effector emersion in liquid |
US11100631B2 (en) | 2017-12-28 | 2021-08-24 | Cilag Gmbh International | Use of laser light and red-green-blue coloration to determine properties of back scattered light |
US11633237B2 (en) | 2017-12-28 | 2023-04-25 | Cilag Gmbh International | Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures |
US11832899B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical systems with autonomously adjustable control programs |
US20190201146A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Safety systems for smart powered surgical stapling |
US11589888B2 (en) | 2017-12-28 | 2023-02-28 | Cilag Gmbh International | Method for controlling smart energy devices |
US11147607B2 (en) | 2017-12-28 | 2021-10-19 | Cilag Gmbh International | Bipolar combination device that automatically adjusts pressure based on energy modality |
US11612408B2 (en) | 2017-12-28 | 2023-03-28 | Cilag Gmbh International | Determining tissue composition via an ultrasonic system |
US11364075B2 (en) | 2017-12-28 | 2022-06-21 | Cilag Gmbh International | Radio frequency energy device for delivering combined electrical signals |
US10944728B2 (en) | 2017-12-28 | 2021-03-09 | Ethicon Llc | Interactive surgical systems with encrypted communication capabilities |
US11304745B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Surgical evacuation sensing and display |
US11291495B2 (en) | 2017-12-28 | 2022-04-05 | Cilag Gmbh International | Interruption of energy due to inadvertent capacitive coupling |
US11464559B2 (en) | 2017-12-28 | 2022-10-11 | Cilag Gmbh International | Estimating state of ultrasonic end effector and control system therefor |
US10892899B2 (en) | 2017-12-28 | 2021-01-12 | Ethicon Llc | Self describing data packets generated at an issuing instrument |
US11903601B2 (en) | 2017-12-28 | 2024-02-20 | Cilag Gmbh International | Surgical instrument comprising a plurality of drive systems |
US11529187B2 (en) | 2017-12-28 | 2022-12-20 | Cilag Gmbh International | Surgical evacuation sensor arrangements |
US11132462B2 (en) | 2017-12-28 | 2021-09-28 | Cilag Gmbh International | Data stripping method to interrogate patient records and create anonymized record |
US11659023B2 (en) | 2017-12-28 | 2023-05-23 | Cilag Gmbh International | Method of hub communication |
US11571234B2 (en) | 2017-12-28 | 2023-02-07 | Cilag Gmbh International | Temperature control of ultrasonic end effector and control system therefor |
US11179208B2 (en) | 2017-12-28 | 2021-11-23 | Cilag Gmbh International | Cloud-based medical analytics for security and authentication trends and reactive measures |
US11069012B2 (en) | 2017-12-28 | 2021-07-20 | Cilag Gmbh International | Interactive surgical systems with condition handling of devices and data capabilities |
US11432885B2 (en) | 2017-12-28 | 2022-09-06 | Cilag Gmbh International | Sensing arrangements for robot-assisted surgical platforms |
US11304763B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use |
US11257589B2 (en) | 2017-12-28 | 2022-02-22 | Cilag Gmbh International | Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes |
US11304720B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Activation of energy devices |
US11076921B2 (en) | 2017-12-28 | 2021-08-03 | Cilag Gmbh International | Adaptive control program updates for surgical hubs |
US11424027B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Method for operating surgical instrument systems |
US11278281B2 (en) | 2017-12-28 | 2022-03-22 | Cilag Gmbh International | Interactive surgical system |
US11864728B2 (en) | 2017-12-28 | 2024-01-09 | Cilag Gmbh International | Characterization of tissue irregularities through the use of mono-chromatic light refractivity |
US11744604B2 (en) | 2017-12-28 | 2023-09-05 | Cilag Gmbh International | Surgical instrument with a hardware-only control circuit |
US11844579B2 (en) | 2017-12-28 | 2023-12-19 | Cilag Gmbh International | Adjustments based on airborne particle properties |
US11253315B2 (en) | 2017-12-28 | 2022-02-22 | Cilag Gmbh International | Increasing radio frequency to create pad-less monopolar loop |
US11672605B2 (en) | 2017-12-28 | 2023-06-13 | Cilag Gmbh International | Sterile field interactive control displays |
US11818052B2 (en) | 2017-12-28 | 2023-11-14 | Cilag Gmbh International | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11896443B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Control of a surgical system through a surgical barrier |
US10758310B2 (en) * | 2017-12-28 | 2020-09-01 | Ethicon Llc | Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices |
US20190201087A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Smoke evacuation system including a segmented control circuit for interactive surgical platform |
US11096693B2 (en) | 2017-12-28 | 2021-08-24 | Cilag Gmbh International | Adjustment of staple height of at least one row of staples based on the sensed tissue thickness or force in closing |
US11419630B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Surgical system distributed processing |
US11376002B2 (en) | 2017-12-28 | 2022-07-05 | Cilag Gmbh International | Surgical instrument cartridge sensor assemblies |
US11311306B2 (en) | 2017-12-28 | 2022-04-26 | Cilag Gmbh International | Surgical systems for detecting end effector tissue distribution irregularities |
US11419667B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Ultrasonic energy device which varies pressure applied by clamp arm to provide threshold control pressure at a cut progression location |
US11666331B2 (en) | 2017-12-28 | 2023-06-06 | Cilag Gmbh International | Systems for detecting proximity of surgical end effector to cancerous tissue |
US11678881B2 (en) | 2017-12-28 | 2023-06-20 | Cilag Gmbh International | Spatial awareness of surgical hubs in operating rooms |
US11051876B2 (en) | 2017-12-28 | 2021-07-06 | Cilag Gmbh International | Surgical evacuation flow paths |
US11576677B2 (en) | 2017-12-28 | 2023-02-14 | Cilag Gmbh International | Method of hub communication, processing, display, and cloud analytics |
US10892995B2 (en) | 2017-12-28 | 2021-01-12 | Ethicon Llc | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11202570B2 (en) | 2017-12-28 | 2021-12-21 | Cilag Gmbh International | Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems |
US11423007B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Adjustment of device control programs based on stratified contextual data in addition to the data |
US11304699B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11896322B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub |
US10849697B2 (en) | 2017-12-28 | 2020-12-01 | Ethicon Llc | Cloud interface for coupled surgical devices |
US11832840B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical instrument having a flexible circuit |
US10943454B2 (en) | 2017-12-28 | 2021-03-09 | Ethicon Llc | Detection and escalation of security responses of surgical instruments to increasing severity threats |
US11324557B2 (en) | 2017-12-28 | 2022-05-10 | Cilag Gmbh International | Surgical instrument with a sensing array |
US11857152B2 (en) | 2017-12-28 | 2024-01-02 | Cilag Gmbh International | Surgical hub spatial awareness to determine devices in operating theater |
US11234756B2 (en) | 2017-12-28 | 2022-02-01 | Cilag Gmbh International | Powered surgical tool with predefined adjustable control algorithm for controlling end effector parameter |
US11273001B2 (en) | 2017-12-28 | 2022-03-15 | Cilag Gmbh International | Surgical hub and modular device response adjustment based on situational awareness |
US11399858B2 (en) | 2018-03-08 | 2022-08-02 | Cilag Gmbh International | Application of smart blade technology |
US11259830B2 (en) | 2018-03-08 | 2022-03-01 | Cilag Gmbh International | Methods for controlling temperature in ultrasonic device |
US11589915B2 (en) | 2018-03-08 | 2023-02-28 | Cilag Gmbh International | In-the-jaw classifier based on a model |
US11278280B2 (en) | 2018-03-28 | 2022-03-22 | Cilag Gmbh International | Surgical instrument comprising a jaw closure lockout |
US11213294B2 (en) | 2018-03-28 | 2022-01-04 | Cilag Gmbh International | Surgical instrument comprising co-operating lockout features |
US11096688B2 (en) | 2018-03-28 | 2021-08-24 | Cilag Gmbh International | Rotary driven firing members with different anvil and channel engagement features |
US11471156B2 (en) | 2018-03-28 | 2022-10-18 | Cilag Gmbh International | Surgical stapling devices with improved rotary driven closure systems |
US11090047B2 (en) | 2018-03-28 | 2021-08-17 | Cilag Gmbh International | Surgical instrument comprising an adaptive control system |
US11219453B2 (en) | 2018-03-28 | 2022-01-11 | Cilag Gmbh International | Surgical stapling devices with cartridge compatible closure and firing lockout arrangements |
US11589865B2 (en) | 2018-03-28 | 2023-02-28 | Cilag Gmbh International | Methods for controlling a powered surgical stapler that has separate rotary closure and firing systems |
US11207067B2 (en) | 2018-03-28 | 2021-12-28 | Cilag Gmbh International | Surgical stapling device with separate rotary driven closure and firing systems and firing member that engages both jaws while firing |
US10973520B2 (en) | 2018-03-28 | 2021-04-13 | Ethicon Llc | Surgical staple cartridge with firing member driven camming assembly that has an onboard tissue cutting feature |
WO2019186537A1 (en) * | 2018-03-29 | 2019-10-03 | 270 Surgical Ltd | Medical imaging system and method for detecting the position thereof |
US10963698B2 (en) | 2018-06-14 | 2021-03-30 | Sony Corporation | Tool handedness determination for surgical videos |
CN109028234B (zh) * | 2018-09-29 | 2020-11-10 | 佛山市云米电器科技有限公司 | 一种能够对烟雾等级进行标识的油烟机 |
CN109028233B (zh) * | 2018-09-29 | 2020-11-10 | 佛山市云米电器科技有限公司 | 厨房油烟浓度划分方法及油烟图像识别系统及油烟机 |
US11357503B2 (en) | 2019-02-19 | 2022-06-14 | Cilag Gmbh International | Staple cartridge retainers with frangible retention features and methods of using same |
US11369377B2 (en) | 2019-02-19 | 2022-06-28 | Cilag Gmbh International | Surgical stapling assembly with cartridge based retainer configured to unlock a firing lockout |
US11751872B2 (en) | 2019-02-19 | 2023-09-12 | Cilag Gmbh International | Insertable deactivator element for surgical stapler lockouts |
US11331101B2 (en) | 2019-02-19 | 2022-05-17 | Cilag Gmbh International | Deactivator element for defeating surgical stapling device lockouts |
US11317915B2 (en) | 2019-02-19 | 2022-05-03 | Cilag Gmbh International | Universal cartridge based key feature that unlocks multiple lockout arrangements in different surgical staplers |
US11399896B2 (en) * | 2019-06-20 | 2022-08-02 | Sony Group Corporation | Surgical tool tip and orientation determination |
USD964564S1 (en) | 2019-06-25 | 2022-09-20 | Cilag Gmbh International | Surgical staple cartridge retainer with a closure system authentication key |
USD950728S1 (en) | 2019-06-25 | 2022-05-03 | Cilag Gmbh International | Surgical staple cartridge |
USD952144S1 (en) | 2019-06-25 | 2022-05-17 | Cilag Gmbh International | Surgical staple cartridge retainer with firing system authentication key |
US11529180B2 (en) | 2019-08-16 | 2022-12-20 | Mcginley Engineered Solutions, Llc | Reversible pin driver |
WO2021138565A1 (en) * | 2019-12-31 | 2021-07-08 | Stryker Corporation | Systems and methods for surgical smoke management |
CN114945990A (zh) * | 2020-01-15 | 2022-08-26 | 直观外科手术操作公司 | 用于基于操作情境提供外科手术辅助的系统和方法 |
KR102568907B1 (ko) * | 2020-08-20 | 2023-08-23 | (주)신한항업 | 폐색영역 검출을 위한 기계학습용 데이터셋 생성 방법과 데이터셋 생성시스템 |
US20220133228A1 (en) * | 2020-11-03 | 2022-05-05 | Biosense Webster (Israel) Ltd. | Identification and visualization of non-navigated objects in medical images |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009045827A2 (en) * | 2007-09-30 | 2009-04-09 | Intuitive Surgical, Inc. | Methods and systems for tool locating and tool tracking robotic instruments in robotic surgical systems |
CN101822068A (zh) * | 2007-10-11 | 2010-09-01 | 皇家飞利浦电子股份有限公司 | 用于处理深度图的方法和设备 |
WO2011150254A2 (en) * | 2010-05-26 | 2011-12-01 | Health Research Inc. | Method and system for automatic tool position determination for minimally-invasive surgery training |
US20140046341A1 (en) * | 2012-08-08 | 2014-02-13 | Intuitive Surgical Operations, Inc. | Auto exposure of a camera in a surgical robot |
US20150224650A1 (en) * | 2014-02-12 | 2015-08-13 | General Electric Company | Vision-guided electromagnetic robotic system |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9405299D0 (en) | 1994-03-17 | 1994-04-27 | Roke Manor Research | Improvements in or relating to video-based systems for computer assisted surgery and localisation |
WO2001064124A1 (en) * | 2000-03-01 | 2001-09-07 | Surgical Navigation Technologies, Inc. | Multiple cannula image guided tool for image guided procedures |
US6978167B2 (en) | 2002-07-01 | 2005-12-20 | Claron Technology Inc. | Video pose tracking system and method |
US8073528B2 (en) | 2007-09-30 | 2011-12-06 | Intuitive Surgical Operations, Inc. | Tool tracking systems, methods and computer products for image guided surgery |
FR2897703B1 (fr) | 2006-02-20 | 2008-04-25 | Univ Grenoble 1 | Detection automatique d'un outil chirurgical sur une image fournie par un systeme d'imagerie medicale |
WO2007131561A2 (en) * | 2006-05-16 | 2007-11-22 | Surgiceye Gmbh | Method and device for 3d acquisition, 3d visualization and computer guided surgery using nuclear probes |
US20120184846A1 (en) * | 2011-01-19 | 2012-07-19 | Duke University | Imaging and visualization systems, instruments, and methods using optical coherence tomography |
EP2734108A4 (en) | 2011-07-22 | 2014-12-24 | Univ Columbia | TOOL MONITORING DURING SURGICAL INTERVENTIONS |
US20130211232A1 (en) * | 2012-02-01 | 2013-08-15 | The Johns Hopkins University | Arthroscopic Surgical Planning and Execution with 3D Imaging |
WO2014003782A1 (en) * | 2012-06-29 | 2014-01-03 | Analogic Corporation | Automatic occlusion region identification using radiation imaging modality |
CA2893786C (en) | 2012-12-07 | 2021-01-05 | University Of Houston | Surgical procedure management systems and methods |
US20150297313A1 (en) * | 2012-12-14 | 2015-10-22 | The Trustees Of Columbia University In The City Of New York | Markerless tracking of robotic surgical tools |
EP2996557B1 (en) * | 2013-03-11 | 2019-05-01 | Institut Hospitalo-Universitaire de Chirurgie Mini -Invasive Guidee Par l'Image | Anatomical site relocalisation using dual data synchronisation |
JP6265630B2 (ja) | 2013-06-13 | 2018-01-24 | オリンパス株式会社 | 内視鏡装置及び内視鏡装置の作動方法 |
-
2015
- 2015-09-22 US US14/860,914 patent/US9905000B2/en active Active
-
2016
- 2016-02-16 WO PCT/US2016/018035 patent/WO2016133885A1/en active Application Filing
- 2016-02-16 KR KR1020177022243A patent/KR101986443B1/ko active IP Right Grant
- 2016-02-16 JP JP2017560903A patent/JP6525174B2/ja active Active
- 2016-02-16 EP EP16752891.8A patent/EP3242590B1/en active Active
- 2016-02-16 CN CN201680008532.7A patent/CN107530132B/zh active Active
-
2017
- 2017-12-28 US US15/856,298 patent/US10147188B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2009045827A2 (en) * | 2007-09-30 | 2009-04-09 | Intuitive Surgical, Inc. | Methods and systems for tool locating and tool tracking robotic instruments in robotic surgical systems |
CN101822068A (zh) * | 2007-10-11 | 2010-09-01 | 皇家飞利浦电子股份有限公司 | 用于处理深度图的方法和设备 |
WO2011150254A2 (en) * | 2010-05-26 | 2011-12-01 | Health Research Inc. | Method and system for automatic tool position determination for minimally-invasive surgery training |
US20140046341A1 (en) * | 2012-08-08 | 2014-02-13 | Intuitive Surgical Operations, Inc. | Auto exposure of a camera in a surgical robot |
US20150224650A1 (en) * | 2014-02-12 | 2015-08-13 | General Electric Company | Vision-guided electromagnetic robotic system |
Also Published As
Publication number | Publication date |
---|---|
US9905000B2 (en) | 2018-02-27 |
JP2018513755A (ja) | 2018-05-31 |
US20160247276A1 (en) | 2016-08-25 |
JP6525174B2 (ja) | 2019-06-05 |
CN107530132B (zh) | 2020-03-17 |
KR20170104554A (ko) | 2017-09-15 |
KR101986443B1 (ko) | 2019-06-05 |
US10147188B2 (en) | 2018-12-04 |
EP3242590A4 (en) | 2018-07-25 |
US20180122070A1 (en) | 2018-05-03 |
EP3242590A1 (en) | 2017-11-15 |
EP3242590B1 (en) | 2020-05-13 |
WO2016133885A1 (en) | 2016-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107530132A (zh) | 在解剖手术期间用于手术工具定位的方法和系统 | |
JP6573084B2 (ja) | 解剖学的手術中の煙検出のためのシステム及び方法 | |
Ma et al. | Objective quality assessment for color-to-gray image conversion | |
CN104796594B (zh) | 一种预览界面特殊效果即时呈现方法及终端设备 | |
JP6497536B2 (ja) | 解剖学的手術中の手術ガーゼの検出の方法及びそのためのシステム | |
Liu et al. | Visual attention in objective image quality assessment: Based on eye-tracking data | |
JP2021513278A (ja) | 画像処理方法および関連デバイス | |
WO2020125631A1 (zh) | 视频压缩方法、装置和计算机可读存储介质 | |
JP2018517950A (ja) | 解剖学的領域のビデオ画像のコンテンツ管理の方法及びそのためのシステム | |
JP6509605B2 (ja) | 生理学的パラメータの推定 | |
JP2004062651A (ja) | 画像処理装置、画像処理方法、その記録媒体およびそのプログラム | |
CN111917994A (zh) | 将使用不同曝光设置捕获的图像帧组合成混合图像的方法和装置 | |
CN102724541B (zh) | 一种监控影像智能诊断恢复方法 | |
JP2016171445A (ja) | 画像処理装置および画像処理方法 | |
Akamine et al. | Video quality assessment using visual attention computational models | |
CN107133932A (zh) | 视网膜图像预处理方法、装置和计算设备 | |
CN111241934A (zh) | 一种获取人脸图像中油光区域的方法和装置 | |
JP7127637B2 (ja) | 画像処理装置、および画像処理方法、並びにプログラム | |
WO2018112979A1 (zh) | 一种图像处理方法、装置以及终端设备 | |
Akamine et al. | Incorporating visual attention models into video quality metrics | |
Vishalakshi et al. | Low-Light Video Enhancement on a Mobile Device Using Illumination-Reflection Model Based Retinex Envelope | |
JP2014124235A (ja) | 医用画像処理装置、医用画像処理方法及びプログラム | |
CN111145092A (zh) | 一种腿部表面红外血管图像的处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |