CN110087574A - 具有增强现实显示的手术系统 - Google Patents
具有增强现实显示的手术系统 Download PDFInfo
- Publication number
- CN110087574A CN110087574A CN201780078500.9A CN201780078500A CN110087574A CN 110087574 A CN110087574 A CN 110087574A CN 201780078500 A CN201780078500 A CN 201780078500A CN 110087574 A CN110087574 A CN 110087574A
- Authority
- CN
- China
- Prior art keywords
- image
- operation device
- surgical
- modification
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/32—Surgical cutting instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/0059—Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
- A61B5/0077—Devices for viewing the surface of the body, e.g. camera, magnifying lens
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/72—Signal processing specially adapted for physiological signals or for diagnostic purposes
- A61B5/7225—Details of analog processing, e.g. isolation amplifier, gain or sensitivity adjustment, filtering, baseline or drift compensation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
- G06V10/273—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion removing elements interfering with the pattern to be recognised
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/20—Scenes; Scene-specific elements in augmented reality scenes
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/337—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] using polarisation multiplexing
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/28—Surgical forceps
- A61B17/29—Forceps for use in minimally invasive surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00022—Sensing or detecting at the treatment site
- A61B2017/00057—Light
- A61B2017/00061—Light spectrum
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B17/068—Surgical staplers, e.g. containing multiple staples or clamps
- A61B17/072—Surgical staplers, e.g. containing multiple staples or clamps for applying a row of staples in a single action, e.g. the staples being applied simultaneously
- A61B2017/07214—Stapler heads
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/256—User interfaces for surgical systems having a database of accessory information, e.g. including context sensitive help or scientific articles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/373—Surgical systems with images on a monitor during operation using light, e.g. by using optical scanners
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3937—Visible markers
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/39—Markers, e.g. radio-opaque or breast lesions markers
- A61B2090/3983—Reference marker arrangements for use with image guided surgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/74—Details of notification to user or communication with user or patient ; user input means
- A61B5/742—Details of notification to user or communication with user or patient ; user input means using visual displays
- A61B5/743—Displaying an image simultaneously with additional graphical information, e.g. symbols, charts, function plots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/41—Medical
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/03—Recognition of patterns in medical or anatomical images
- G06V2201/034—Recognition of patterns in medical or anatomical images of medical instruments
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Public Health (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Medical Informatics (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Pathology (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Robotics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Human Computer Interaction (AREA)
- Artificial Intelligence (AREA)
- Physiology (AREA)
- Psychiatry (AREA)
- Power Engineering (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Endoscopes (AREA)
- Image Processing (AREA)
- Surgical Instruments (AREA)
Abstract
一种手术系统包括检测器,该检测器包括像素阵列,该像素阵列被配置为能够检测由手术装置反射的光并生成第一信号。该第一信号包括表示手术装置的可见图像的第一数据集。该手术系统还包括处理器,该处理器被配置为能够接收该第一信号和表示手术装置的一个或多个操作参数的第二信号。该处理器还被配置为能够生成手术装置的修改的图像,该修改的图像包括与一个或多个操作参数有关的信息。
Description
技术领域
提供了用于微创手术,尤其是用于提供手术环境的增强现实显示的方法和装置。
背景技术
由于术后恢复时间减少且瘢痕形成最小化,因此微创外科手术(MIS)器械通常优于传统的开放式手术器械。腹腔镜式外科手术是一种类型的MIS手术,其中在腹部形成一个或多个小切口,并且通过切口插入套管针以形成进入腹腔的通路。套管针用于将各种器械和工具引入腹腔中,而且提供注气使腹壁升高到器官上方。器械和工具可用于以多种方式接合和/或处理组织以达到诊断或治疗效果。内窥镜式外科手术是另一种类型的MIS手术,其中将细长的柔性轴通过自然孔口引入体内。
尽管传统的微创外科器械和技术已证明是高度有效的,但较新的系统可提供甚至更多的优点。例如,传统的微创外科器械通常不能为外科医生提供存在于开放式外科手术中的工具布置的灵活性。用器械通过小切口接近手术环境时会遇到困难。另外,典型的内窥镜式器械的长度的增加通常会降低外科医生感觉由组织和器官施加在端部执行器上的力的能力。此外,如电视监视器上的图像中所观察到的器械的端部执行器的运动与端部执行器的实际运动的协调是特别困难的,因为如图像中所感知的运动通常不与端部执行器的实际运动直觉地对应。因此,通常缺乏对外科器械运动输入的直觉响应。已经发现,直觉性、灵巧性和灵敏度的此类缺乏使得增加微创外科手术的使用受阻。
多年以来,已经开发出多种微创机器人系统以增加外科手术的灵巧性,并允许外科医生以直觉方式对患者进行手术。远程手术是使用系统进行的外科手术的一般术语,其中外科医生使用一些形式的远程控制(例如,伺服机构等)来操纵外科器械运动,而不是用手直接握持和移动工具。在此类远程手术系统中,通常在远离患者的位置处在视觉显示器上为外科医生提供外科手术环境的图像。外科医生通常可在远离患者的位置处执行外科手术,同时在外科手术期间观察视觉显示器上的端部执行器运动。通常在视觉显示器上观察手术环境的三维图像时,外科医生通过操纵远程位置处的主控制装置来对患者执行外科手术,该主控制装置控制远程受控器械的动作。
虽然在微创手术领域已经取得了显著进步,但仍然需要用于为手术环境提供增强现实显示的改进方法、系统和装置。
发明内容
提供了一种用于显示手术环境的图像的方法、装置和系统,包括在手术环境内部署的手术装置的至少一部分,其中所显示的图像是在外科手术期间实际检测到的手术环境的修改的版本。在一个实施方案中,除了手术装置的一部分之外,修改的图像还显示与系统和/或手术装置的一个或多个操作参数有关的信息。在另一个实施方案中,修改的图像显示手术装置的至少一部分,同时用手术装置的被替换部分下面的手术环境处的组织的图像替换手术装置的另一部分。
一种手术系统包括检测器,该检测器包括像素阵列,该像素阵列被配置为能够检测由手术装置反射的光并生成第一信号。第一信号包括表示手术环境和手术装置的图像的第一数据集。该手术系统还包括处理器,该处理器被配置为能够接收第一信号和表示手术装置的一个或多个操作参数的第二信号。处理器还被配置为能够生成手术装置的修改的图像,该修改的图像包括手术环境和手术装置的至少一部分,以及与一个或多个操作参数有关的信息。在一个实施方案中,修改的图像替换手术装置的至少一部分和手术区域的至少一部分中的一个或多个。
在一个实施方案中,手术系统包括被配置为能够显示修改的图像的显示装置。显示装置包括集成到由外科医生佩戴的头戴式耳机或其他附件(诸如眼镜)中的监视器和显示器中的至少一个。
在另一个实施方案中,在修改的图像中与手术装置相邻地显示与一个或多个参数有关的信息。在又一个实施方案中,在修改的图像中在手术装置上显示与一个或多个参数有关的信息。
在一个实施方案中,第一数据集包括表示由第一像素阵列的一个或多个像素检测到的光的颜色的值。
在另一个实施方案中,处理器被配置为能够从第一数据集识别表示手术装置的数据,以基于检测器相对于手术装置的位置确定手术装置的取向。
在一个实施方案中,手术装置包括一个或多个标记,所述一个或多个标记中的每一个都被配置为能够反射预定频率的光。在另一个实施方案中,处理器过滤第一信号以基于一个或多个标记的位置通过图像识别算法确定手术装置的取向。
在一个实施方案中,手术系统是机器人手术系统,并且机器人手术系统包括至少一个机器人臂,该机器人臂被配置为能够保持并操纵手术装置。在另一个实施方案中,手术装置具有包括切割、缝合和能量输送中的至少一种的功能。
在一个实施方案中,一个或多个参数包括关节运动角度、轴旋转角度、刀具的位置、刀具的运动、组织位置和重新加载信息中的至少一个。
在另一个方面,手术系统包括第一检测器,该第一检测器包括第一像素阵列,该第一像素阵列被配置为能够检测由手术环镜反射的光。手术环境包括手术部位和位于手术部位处的手术装置,其中手术装置包括具有预定颜色的一个或多个区域。第一检测器生成第一信号,该第一信号包括表示手术区域的第一图像的第一数据集。手术系统还包括第二检测器,该第二检测器包括第二像素阵列,该第二像素阵列被配置为能够检测由手术环境反射的光并生成第二信号。第二信号生成表示手术环境的第二图像的第二数据集。手术系统还包括处理器,该处理器被配置为能够接收第一信号和第二信号,从第一数据集和第二数据集识别表示不包括具有预定颜色的手术装置的一个或多个区域的手术区域的数据,以及基于所识别的数据生成手术区域的修改的图像。
在一个实施方案中,预定颜色是绿色。在另一个实施方案中,第一数据集包括表示由第一像素阵列的一个或多个像素检测到的光的颜色的值,并且第二数据集包括表示由第二像素阵列的一个或多个像素检测到的光的颜色的值。
在另一个实施方案中,修改的图像不包括具有预定颜色的手术装置的一个或多个区域。在又一个实施方案中,修改的图像用手术环境内的组织的图像的一部分替换手术环境内的手术装置的图像的一部分。在一个方面中,组织的图像是在手术装置的图像的被替换部分下面的组织的图像。
在一个实施方案中,手术系统包括被配置为能够显示修改的图像的显示装置。
在另一个方面中,一种手术方法包括检测由手术装置反射的光;生成第一信号,该第一信号包括表示手术装置的图像的第一数据集;接收第一信号和表示手术装置的一个或多个操作参数的第二信号;并且生成手术装置的修改的图像,所述修改的图像包括与一个或多个操作参数有关的信息。
附图说明
结合附图阅读下述详细说明将更全面地理解本发明,其中:
图1示出了包括患者侧部分和用户侧部分的手术机器人系统的实施方案的透视图;
图2示出了被配置为能够生成手术环境的修改的图像的手术系统的实施方案的示意图。
图3示出了手术系统中的相机模块中的检测器的示意图;
图4示出了根据本文描述的手术系统的手术器械的修改的图像的实施方案;
图5示出了定位在具有多个标记的区域中的手术器械;
图6示出了手术环境和在手术环境中使用的手术器械的图像;
图7A示出了手术环境的一部分的透视图;
图7B示出了图7A的手术环境的另一个透视图;
图8示意性地示出了图7A的手术环境的一部分的组合图像;
图9A示出了包括手术器械的一部分的图像的手术环境的图像的示例;
图9B示出了图9A的图像的修改的版本,其中手术器械的轴的一部分是不可见的;以及
图10是计算机系统的示意图,该计算机系统被配置为能够生成与本文描述的控制系统一起使用的多个命令信号。
具体实施方式
现在将描述某些示例性实施方案,以提供对本文所公开的装置和方法的结构、功能、制造和用途的原理全面理解。这些实施方案的一个或多个示例在附图中示出。本领域的技术人员将会理解,本文具体描述并在附图中示出的装置和方法是非限制性的示例性实施方案,本公开的范围仅由权利要求书限定。结合一个示例性实施方案示出或描述的特征部可与其他实施方案的特征部进行组合。此类修改和变型旨在包括在本发明的范围之内。
此外,在本公开中,各实施方案中名称相同的部件通常具有类似的特征部,因此在具体实施方案中,不一定完整地阐述每一个名称相同的部件的每一个特征部。另外,在所公开的系统、装置和方法的描述中使用线性或圆形尺寸的程度上,此类尺寸并非旨在限制可结合此类系统、装置和方法使用的形状的类型。本领域的技术人员将认识到,针对任何几何形状可容易地确定此类线性和圆形尺寸的等效尺寸。系统和装置及其部件的大小和形状可至少取决于系统和装置将用于其中的受治疗者的解剖结构、系统和装置将与其一起使用的部件的大小和形状、以及系统和装置将用于其中的方法和手术。
本文公开的系统、装置和方法可使用机器人手术系统来实现。2014年3月13日提交的标题为“Hyperdexterous Surgical System”(超灵巧手术系统)的WIPO专利公开No.WO2014/151621以引用方式被并入本文。
一般来讲,描述了手术系统,其实时地修改手术环境(例如,包括手术器械、靶组织和靶组织周围的组织等)的图像。具体地,可修改手术环境的图像以包括与手术相关的信息(例如,手术器械的操作参数、患者病史、外科医生检查表等)。还可修改手术环境的图像以将手术器械的选择部分的图像替换为手术环境(例如,靶组织、靶组织周围的组织等)的图像。在微创手术或手术器械在外科医生的自然视野之外的任何外科手术期间,通常生成手术环境的图像并将其在显示器上向外科医生显示,诸如在视频监视器、头戴式耳机、眼镜或外科医生佩戴的另一种附件。这种图像通常是实时显示的。外科医生可能希望修改手术环境的图像以包括相关的手术信息。例如,这可使外科医生能够保持聚焦在手术区域上,而不必在手术期间从手术环境的图像离开观看别处。还可能希望观察手术环境中其视野可能被手术装置的部分遮挡的组织。例如,这可通过将手术装置的部分的图像替换为手术环境中的组织的图像来实现。
在一个方面中,手术系统可实时跟踪手术器械的操作参数,并且将该信息叠加在手术环境的实时图像上。操作参数可被布置在信息面板中,该信息面板可位于修改图像中的预定位置处。在另一个方面中,操作参数可分布在修改图像上。例如,与手术器械的一部分相关的操作参数可位于相关部分处或附近。随着手术器械移动,操作参数可跟踪手术器械的运动。在一些实施方案中,可在视觉上(例如,颜色的改变、闪烁的图像等)表示操作参数或其变化。
在手术系统的另一个方面中,手术器械的某些区域可做成透明的。例如,这可通过使用色度键技术来完成,其中手术器械的预定区域的图像被识别并用被手术器械遮挡的靶组织的图像替换。这是可取的,因为这在外科手术期间为外科医生提供了靶组织的无阻碍视图。
图1是可用于远程手术中的手术机器人系统100的一个实施方案的透视图。系统100包括与患者112相邻定位的患者侧部分110,以及位于距离患者一定距离处(在同一室内和/或在远程位置)的用户侧部分111。患者侧部分110通常包括一个或多个机器人臂120以及被配置为能够可释放地耦接到机器人臂120的一个或多个工具组件130。用户侧部分111通常包括用于观察患者112和/或手术环境的视觉系统113,以及用于在外科手术期间控制机器人臂120和每一个工具组件130的运动的控制系统115。
控制系统115可具有多种配置,其可邻近患者定位(例如,在手术室中)、远离患者(例如,在单独的控制室中)或者可分布在两个或更多个位置。作为专用系统的示例,专用系统控制台可位于手术室中,单独的控制台可位于远程位置处。控制系统115可包括使得用户能够观察患者的正在由患者侧部分110进行手术的手术环境112和/或控制患者侧部分110的一个或多个部件(例如,以在手术环境112处执行外科手术)。在一些实施方案中,控制系统115还可包括一个或多个手动操作的输入装置,诸如操纵杆、外骨骼式手套、动力和重力补偿式操纵器等。这些输入装置可控制被远程操作的马达,这些马达继而控制手术系统,包括机器人臂120和工具组件130的移动。
患者侧部分还可具有多种构型。如图1所示,患者侧部分110可耦接到手术台114。然而,在其他实施方案中,患者侧部分110可安装到墙壁,安装到天花板,安装到地板或安装到其他手术室设备。另外,虽然患者侧部分110被示为包括两个机器人臂120,但是也可包括更多或更少的机器人臂120。此外,患者侧部分110可包括诸如相对于手术台114安装在各种位置的单独的机器人臂120。另选地,患者侧部分110可包括单个组件,该单个组件包括从其延伸的一个或多个机器人臂120。
图2是手术系统200的示例的示意图,该手术系统200被配置为能够实时生成手术环境(例如,手术器械204、靶组织、围绕靶组织的组织等)的修改图像以包括手术装置的操作参数。手术系统200包括手术器械204、控制手术器械204的操作的控制器202、被配置为能够捕获手术器械204的图像并且将与捕获的图像相关的一个或多个信号中继到处理器216的相机模块210。处理器216还可与控制器202通信。例如,处理器可从控制器202接收手术器械204的操作参数,并且将可改变操作参数的控制信号发送到控制器202。处理器216可生成修改图像,该修改图像包括来自相机210的图像,以及与外科手术有关的信息(例如,手术器械210的操作参数、外科医生创建的检查列表、患者病史等)。可在显示器222上,或者在外科医生佩戴的附件(例如,头戴式耳机或眼镜)上显示修改的图像,显示器可以是墙壁或桌面安装的。将图像投射到头戴式耳机或眼镜上的益处是外科医生可同时观察投影图像和实际图像。手术系统200还可包括可与处理器216通信的输入装置224。用户(例如,外科医生)可使用输入装置224与修改的图像进行交互(例如,放大、缩小、标记等)。手术系统200中的信号(例如,在相机模块210和处理器216、控制器202和处理器216、输入装置224和处理器216等之间)可无线地(蓝牙、WiFi等)通信或通过数据电缆(例如,光纤、同轴电缆等)通信。
光源(未示出)可生成由手术环境反射的光。光可以是可见光(例如,具有约400nm至800nm的波长)或波长在可见光谱之外的光(例如,红外光和紫外光)。反射光的一部分被相机模块210捕获,相机模块包括被配置为能够将可见光聚焦到检测器212上的透镜206。例如,通过将检测器212放置在透镜206的焦平面中,可改善图像的质量。
检测器212能够检测由手术器械反射的光。如图3所示,示例性检测器212包括光敏部位阵列(例如,212a-c等),其可吸收投射在该部位上的电磁辐射,并且生成表示投射的辐射的电信号(例如,电压信号、电流信号等)。例如,电信号的强度可与投射的电磁辐射的强度成比例。光敏部位通常具有光谱范围,该光谱范围决定了该部位可有效检测的频率范围。例如,硅(Si)光敏部位可检测可见到近红外辐射(光谱范围400nm-1000nm),并且锗(Ge)或铟镓砷(InGaAs)光敏部位可检测近红外辐射(光谱范围800nm-2600nm)。适合于想要检测的电磁辐射频谱范围的合适类型的光敏部位可由本领域技术人员选择。
光敏部位可被配置为能够通过使用光学滤光器检测位于其频谱范围内的电磁辐射的所需波长(或所需波长周围的窄波长范围)。放置在指向光敏部位的电磁辐射路径中的光学滤光器滤除除了对应于所需波长的辐射之外的所有辐射。例如,具有绿色滤色器的Si光敏部位(例如,212a)将主要检测绿光(约500nm)。
在一个示例中,检测器(例如,检测器212)通过组合由检测器中的各光敏部位捕获的对象的不同区域的图像来检测手术环境的图像。当由手术器械反射的光投射在检测器212上时,其中的光敏部位(例如,212a、212b、212c等)检测表示手术器械的区域的图像的反射光的一部分。然后,光敏部位生成表示所捕获图像的电信号。该电信号由模数转换器(ADC)转换为数字信号。数字信号具有离散值,其表示例如检测到的辐射的强度。如下所述,数字信号还可包括与检测到的辐射的频率(颜色)有关的信息。来自各个光敏部位的数字信号的值(统称为图像数据集)表示手术器械的图像。存储在图像数据集中的数字信号值与已经产生数字信号值的光敏部位之间可以存在一对一的关系(例如,数字信号值可包括标识已经生成数字信号的光敏部位的信息)。因此,通过识别图像数据集中的数字信号值,可识别生成数字值的光敏部位(或反之亦然)。然后,处理器从可在显示装置222(例如,监视器)上显示的图像数据集生成手术环境的图像。显示装置中的每一个像素可表示图像数据集中的一个数字信号值。换句话说,显示装置中的每一个像素可表示由检测器212中的唯一光敏部位检测到的辐射。
通过将光学滤波器(或光学滤波器阵列)放置在指向检测器的电磁辐射的路径中,可生成手术环境的彩色图像。例如,可在光敏部位阵列之前放置滤色器阵列(例如,Bayer滤波器、RGBE滤波器、CYYM滤波器、CYGM滤波器等)。因此,每一个光敏部位接收特定波长(或颜色)的电磁辐射。例如,对于Bayer滤光器,每一个光敏部位检测红色、蓝色或绿色中的一种。处理器可使用去马赛克算法来处理使用Bayer滤波器获得的图像数据集以生成“全色”图像(即,具有多种颜色的图像)。
如果光学滤光器被放置在第一检测器212之前,则它将检测到手术环境的图像。因此,生成图像数据集(如上所述)并将其发送到处理器216。图像数据集可包括与每一个光敏部位的所检测光的强度和波长(颜色)有关的信息。
如上所述,控制器202可向处理器216发送信号,该信号包括与手术器械204的操作参数和身份相关的信息。当控制器202从处理器216接收到请求与手术器械204有关的信息的请求信号时,可发送信号。控制器202可包括存储器装置,该存储器装置具有跟踪手术器械202的操作参数的日志文件。日志文件(或其一部分)可被发送到处理器216。在一些实施方案中,处理器216和控制器202可不直接通信。例如,它们的通信可通过一个或多个装置(例如,处理器、路由器等)进行路由。
处理器216可通过将与操作参数有关的信息叠加到所捕获图像上来修改由相机模块210捕获的手术环境的图像。除此之外或另选地,处理器216可叠加与外科手术相关的其他信息,例如,患者的病史、外科医生的检查列表等。该信息可存储在数据库218中,或者可由用户(例如,外科医生)通过输入装置224提供。修改的图像230可被显示在显示器222上。
图4示出了示例性手术器械402的修改的图像400的示例。在修改的图像中呈现了手术器械的各种操作参数(例如,关节运动角度420、轴旋转角度422、刀具位置424、重新加载信息426)。可在视觉上示出操作参数。例如,刀具位置424可由图像表示,该图像实时地跟随手术器械中的刀具的运动。作为另一个示例,如果手术器械402中的缝合器需要重新加载,则通过改变手术器械的轴404的颜色来传达该信息。所显示的操作参数可在修改的图像中跟随手术器械402的运动。为此,处理器216从手术环境的图像识别手术器械402的图像。另外,处理器基于例如与存储在数据库218中的手术器械有关的信息、来自控制器202的操作参数信息等识别手术器械的不同部分(例如,轴404、钳口406等)。例如,处理器可将手术器械的所识别图像与数据库218中的手术器械的图像进行比较,并使用图像识别算法识别手术器械的不同部分。一旦识别出手术器械(例如,轴)的一部分,就可将与其相关联的操作参数(例如,关节运动角度)放置在显示器上的其图像上或附近。虽然手术器械被示出为外科切割和缝合器械,但是应当理解,可使用任何类型的手术器械。
通过识别图像数据集中与相机模块210捕获的手术器械的图像对应的数据来识别手术器械204的图像。这可基于第一检测器212和手术器械204之间的预定相对位置来完成。在该实施方案中,相机模块210附接到手术器械204,使得手术器械相对于相机模块210的相对位置保持固定。在一个示例中,这是通过在手术器械上包括安装特征部来实现的,相机模块210可移除地附接到该安装特征部。相机模块210内的装置(检测器212、透镜206等)可被定位在预定配置中。另选地,这些装置可附接到压电致动器,以允许它们相对于彼此移动。这样可允许检测器检测手术器械的清晰图像。例如,可能希望将检测器212放置在透镜206的焦平面中。相机模块210及其中的装置的机械运动和热膨胀可能将检测器移出透镜的焦平面。通过可由处理器216控制的压电致动器或者通过来自用户的输入可将检测器调回到焦平面中。在将相机模块210和手术器械204插入手术环境之前,可将手术器械204和相机模块210(以及相机模块内的装置)调节到期望的预定位置。基于检测器212和手术器械204的预定取向,可识别捕获手术器械204的图像的检测器212中的光敏部位。与前述光敏部位的位置有关的信息可存储在数据库218中。处理器216可识别图像数据集中的手术器械图像数据。例如,这可通过将由光敏部位捕获的图像数据以预定图案布置在图像中来完成。例如,由光敏部位212a捕获的图像数据可放置在光数据集中的预定位置处。关于这种关系的信息可存储在数据库218中的索引数据文件中。基于索引数据文件,处理器218可识别与由光敏部位212a检测到的图像相对应的图像数据(来自图像数据集)。另选地,图像数据可包括标识生成其的光敏部位的信息。
在另一个实施方案中,基于手术器械204上的一个或多个标记在图像中识别手术器械,并且使用多个相机510、512、514、516对手术环境成像。如图5所示,手术器械204包括位于其表面上的若干标记502、504、506、508。在一个实施方案中,标记是手术器械204上反射给定频率的电磁辐射的区域。例如,标记可被配置为能够反射特定颜色的光。可选择标记的颜色,使得颜色不是手术环境中天然存在的(例如,绿色、蓝色等)。因此,处理器216识别基于标记颜色检测标记的图像的光敏部位。如上所述,对于每一个光敏部位而言,图像数据集可包括与检测到的光的颜色有关的信息。处理器可在图像数据集中搜索表示标记的颜色的数据。处理器216识别图像中的标记502、504、506、508(并因此识别标记的相对位置),并将该信息与来自存储在数据库218中的手术器械的数据库的数据进行比较。该数据库包括与各种手术器械的标记颜色和标记位置有关的信息。另外,对于给定的手术器械而言,数据库可包括与来自多个视点的手术器械的图像中的标记的相对位置有关的信息。例如,标记502、504、506、508在图5的实施方案中的手术器械204的图像中的相对位置将取决于捕获图像的相机(例如,510、512、514、516)的相对位置。
处理器可使用图像识别算法来识别反射光数据集中表示手术器械的图像的数据。在一个示例中,图像识别算法接收与捕获的图像中的标记的位置有关的输入信息,以及与存储在数据库218中的各种手术器械有关的信息。处理器通过使用各种模式识别技术将捕获的图像中的标记的相对位置与数据库218中的装置的标记的取向信息进行比较。基于这种比较,处理器可识别表示图像数据集中的手术器械204的图像的数据。除此之外或另选地,处理器可使用模式识别算法和/或装置数据库以与机器人手术系统不易知道或由其控制的装置(即,手操作的缝合器、牵开器等)一起工作。应当理解,标记可包括特定的几何形状和/或颜色,作为施加于装置的某物(例如,绿点),或者颜色可以是典型装置固有的(例如,银的直钳口和变黑的轴)。
图6示出了手术环境的图像600,其中手术器械602形式的手术器械位于靶组织604附近。手术器械包括轴606和位于轴的远侧端部处的端部执行器608。如图6所示,轴606的一部分阻挡外科医生可能想要观察的靶组织的某些部分的视图。在本文描述的系统中,显示给外科医生的图像600被修改以去除阻挡一些组织的视图的轴606的一部分的图像,并且用原始图像中不可见的组织图像替换轴图像。这可使用色度键技术来实现,其中识别并改变(例如,用不同的图像替换)具有预定颜色的图像的一部分。例如,可用预定颜色(例如,蓝色、绿色等)标记轴606,该预定颜色通常是在手术环境中不自然发生的颜色。然后,处理器216基于其分配的颜色识别轴的图像(例如,处理器216可搜索图像600的图像数据集以发现预定颜色)。在已经识别出轴606之后,通过用靶组织604的一个或多个部分的图像替换轴的图像来修改实际图像。这可通过使用多个相机(例如,多个相机模块210)从各个有利位置捕获手术环境600的多个图像来实现。处理器216接收多个图像,识别轴606的图像,并且使用视觉算法生成修改的图像。如下文更详细地讨论的,轴的阻挡组织视图的部分被下面的组织的视图替换。
图7A示出了包括手术器械702和相机系统704的手术环境700。相机系统704包括分开特定距离的两个相机706和708(例如,相机模块210)。第一相机706和第二相机708从其相应位置捕获手术器械702的图像,并且将对应的图像信号发送到处理器(例如,处理器216)。图7B示意性地示出了从相机的角度看的手术环境700的视图,其中第一相机706的视野由附图标记720表示,并且第二相机708的视野由附图标记722表示。处理器可使用三维(3D)图像重建算法以基于由第一相机706和第二相机708捕获的图像来构建整个手术环境或其部分的3D图像。重建算法考虑到两个相机由于它们在空间上的分离而在视角方面的差异。
在另一个实施方案中,处理器可生成立体显示,其中操作者的大脑将组合单独的2D图像以生成3D的感知。这可以各种方式实现。在一个示例中,处理每一个2D图像,使得首先从每一个2D图像移除色度键控的装置部件。然后将相对的2D图像的相关像素缝合到该空间中。两个2D图像可通过头戴式显示器(例如,VR护目镜)呈现给操作者,其中来自左相机的缝合图像被呈现给外科医生的左眼,并且右2D图像被显示给操作者的右眼。
另选地,可将两个图像发送到单个显示器,并且外科医生将佩戴一副3D眼镜,其允许左眼仅看到左相机图像并且允许右眼仅看到右图像。这可以各种方式实现。例如,每一个图像可稍微移位到仅特定波长,并且眼镜包含仅允许那些特定波长的光通过的滤波器。在另一个示例中,可使用偏振来允许左眼仅看到左相机图像并且允许右眼仅看到右相机图像。这将要求每一个图像以彼此成90°的角度偏振,并且眼镜将具有对应的偏振滤波器。在又一个示例中,两个图像也可在显示器上交替,并且外科医生佩戴的眼镜可利用与所显示的图像同步的快门。
图8示意性地示出了通过组合由第一相机706捕获的第一图像820和由第二相机708捕获的第二图像822而获得的手术环境700的组合图像800。手术环境的一些部分的图像由两个相机捕获(例如,部分802),而一些部分仅由右相机捕获(例如,部分804),而其他部分仅由左相机捕获(例如,部分806)。还存在可未被两个相机中的任一个捕获的手术环境的部分,诸如区域808。处理器能够生成区域802的3D图像和区域804和806的2D图像。如上所述,处理器还可识别手术器械的预定区域(例如,手术器械702的轴)。处理器可使用图像重建算法以从组合图像800生成手术环境700的修改图像,其使得手术器械(或其部分)的预定区域透明。换句话说,在修改的图像中,手术器械的预定区域被组合图像的部分替换,其视图本来被预定区域遮挡。
图9A表示包括靶组织902和手术器械904以及轴910的一部分的手术环境900的图像的示例,其图像是使用相机906和908捕获的。图9B示出了手术环境的修改的图像950,其中轴910不再可见,因为它已被下面的组织的图像替换。
可在数字电子电路、集成电路、专门设计的专用集成电路(ASIC)、现场可编程门阵列(FPGA)、计算机硬件、固件、软件和/或其组合中实现本文描述的主题的一个或多个方面或特征。这些不同方面或特征可包括一个或多个计算机程序中的具体实施,该一个或多个计算机程序是在包括至少一个可编程处理器的可编程系统上可执行的和/或可解释的,该至少一个可编程处理器可以是特殊的或通用的,耦合以从存储系统、至少一个输入装置和至少一个输出装置接收数据和指令并向他们传输数据和指令。可编程系统或计算机系统可包括客户端和服务器。客户端和服务器一般来讲彼此远程,并且通常通过通信网络进行交互。客户端和服务器的关系是借助于在各自计算机上运行的、彼此具有客户端-服务器关系的计算机程序得到的。
这些计算机程序(也可称为程序、软件、软件应用程序、组件或代码)包括用于可编程处理器的机器指令,并且能够以高级程序、面向对象的编程语言、函数编程语言、逻辑编程语言来实现和/或以汇编/机器语言来实现。如本文所用,术语“机器可读介质”是指用来向可编程处理器提供机器指令和/或数据的任何计算机程序产品、设备和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”是指用来向可编程处理器提供机器指令和/或数据的任何信号。机器可读介质可非暂态地存储此类机器指令,例如非瞬时固态存储器或磁性硬盘驱动器或任何等同的存储介质。另选地或除此之外,机器可读介质可以瞬态方式存储此类机器指令,例如处理器高速缓存或与一个或多个物理处理器核相关联的其他随机存取存储器。
为了提供与用户的交互,可在具有用于向用户显示信息的显示装置诸如阴极射线管(CRT)或液晶显示器(LCD)或发光二极管(LED)监视器、以及用户能用以向计算机提供输入的键盘和指示装置诸如鼠标、跟踪球等的计算机上实现本文所述主题的一个或多个方面或特征。也可使用其他类型的装置来提供与用户的交互。例如,提供给用户的反馈可以是任何形式的感官反馈,例如,视觉反馈、听觉反馈或触觉反馈;并且可通过任何形式接收来自用户的输入,包括但不限于声音、语音或触觉输入。其他可能的输入装置包括但不限于触摸屏或其他触敏装置,诸如单点或多点电阻性或电容式触控板、语音识别硬件和软件、光学扫描仪、光学指针、数字图像捕获装置和相关联的解释软件等。
图10示出了计算机系统1000的示例性实施方案。如图所示,计算机系统1000包括一个或多个处理器1002,该一个或多个处理器可控制计算机系统1000的操作。“处理器”在本文中也被称为“控制器”。处理器1002可包括任何类型的微处理器或中央处理单元(CPU),包括可编程通用或专用微处理器和/或各种专有或可商购获得的单处理器系统或多处理器系统中的任一种。计算机系统1000还可包括一个或多个存储器1004,所述存储器可为待由处理器1002执行的代码提供临时存储,或者为一个或多个用户、存储装置和/或数据库获取的数据提供临时存储。存储器1004可包括只读存储器(ROM)、闪存、一种或多种随机存取存储器(RAM)(例如,静态RAM(SRAM)、动态RAM(DRAM)或同步DRAM(SDRAM))和/或存储器技术的组合。
计算机系统1000的各种元件可耦接到总线系统1012。图示的总线系统1012是抽象的,其表示通过适当的桥接器、适配器和/或控制器连接的任何一个或多个单独的物理总线、通信线路/接口和/或多点或点对点连接。计算机系统1000还可包括一个或多个网络接口1006、一个或多个输入/输出(IO)接口1008以及一个或多个存储装置1010。
网络接口1006可使计算机系统1000能够通过网络与远程装置(例如,其他计算机系统)通信,并且对于非限制性示例,可以是远程桌面连接接口、以太网适配器和/或其他局域网(LAN)适配器。IO接口1008可包括一个或多个接口部件,以将计算机系统1000与其他电子设备连接。对于非限制性示例,IO接口1008可包括高速数据端口,例如通用串行总线(USB)端口、1394端口、Wi-Fi、蓝牙等。另外,计算机系统1000可以是人类用户可访问的,因此IO接口1008可包括显示器、扬声器、键盘、指向装置和/或各种其他视频、音频或字母数字接口。存储装置1010可包括用于以非易失性和/或非瞬态方式存储数据的任何常规介质。因此,存储装置1010可将数据和/或指令保持在持久状态,即,尽管中断对计算机系统1000的供电,仍保留一个或多个值。存储装置1010可包括一个或多个硬盘驱动器、闪存驱动器、USB驱动器、光盘驱动器、各种介质卡、磁盘、光盘和/或它们的任何组合,并且可例如通过网络连接直接连接到计算机系统1000或远程连接至其上。在示例性实施方案中,一个或多个存储装置可包括被配置为能够存储数据的有形或非暂态计算机可读介质,例如硬盘驱动器、闪存驱动器、USB驱动器、光盘驱动器、媒体卡、磁盘、光盘等。
图10中所示的元件可以是单个物理机器的一些或所有元件。此外,并非所有例示的元件都需要位于同一物理机器上或同一物理机器中。示例性计算机系统包括传统台式计算机、工作站、小型计算机、膝上型计算机、平板计算机、个人数字助理(PDA)、移动电话等。
计算机系统1000可包括web浏览器,用以检索网页或其他标记语言流,(在视觉上、听觉上或通过其他方式)呈现这些页面和/或流,在这些页面/流上执行脚本、控件和其他代码,接受关于这些页面/流的用户输入(例如,出于完成输入字段的目的),发布关于这些页面/流或其他的超文本传输协议(HTTP)请求(例如,用于将来自完成的输入字段的信息提交到服务器)等等。网页或其他标记语言可以是超文本标记语言(HTML)或其他传统形式,包括嵌入式可扩展标记语言(XML)、脚本、控件等。计算机系统1000还可包括用于生成和/或将网页传送到客户端计算机系统的web服务器。
在一个示例性实施方案中,计算机系统1000可作为单个单元提供,例如作为单个服务器、作为单个塔、包含在单个外壳内等。单个单元可以是模块化的,使得其各个方面可根据需要换入和换出,例如升级、更换、维护等,而不会中断系统的任何其他方面的功能。因此,单个单元也可以是可扩展的,具有作为附加模块添加的能力和/或期望和/或改善现有模块的附加功能。
计算机系统还可包括各种其他软件和/或硬件组件中的任何一种,包括(作为非限制性示例)操作系统和数据库管理系统。尽管本文描绘和描述了示例性计算机系统,但应当理解,这是出于普遍性和方便性的原因。在其他实施方案中,计算机系统的架构和操作可与这里示出和描述的不同。
优选地,本文所述的本发明的部件将在使用之前处理。首先,获取新的或用过的器械,并根据需要进行清洁。然后可对器械进行灭菌。在一种灭菌技术中,将所述器械放置在密闭且密封的容器(诸如,塑料或TYVEK袋)中。然后将容器和器械放置在可穿透该容器的辐射场诸如γ辐射、x射线或高能电子中。辐射杀死器械上和容器中的细菌。然后可将经灭菌的器械储存在无菌容器中。密封容器使器械保持无菌,直到其在医疗设施中被打开。
通常,对该装置进行灭菌。这以通过本领域的技术人员已知的任何多种方式来完成,包括β辐射或γ辐射、环氧乙烷、蒸汽以及液浴(例如冷浸)。在2008年2月8日提交的名称为“System And Method Of Sterilizing AnImplantable Medical Device”的美国专利No.8,114,345中更详细地描述了对包括内部电路的装置进行灭菌的示例性实施方案。优选的是,如果植入的话,将装置气密密封。这可通过本领域技术人员已知的任何数量的方式而完成。
根据上述实施方案,本领域的技术人员将会认识到本发明的另外的特征和优点。因此,本发明不应受到已具体示出和描述内容的限制,除非所附权利要求有所指示。本文引用的所有出版物和参考文献全文明确地以引用方式并入本文中。
Claims (20)
1.一种手术系统,包括:
检测器,所述检测器包括像素阵列,所述像素阵列被配置为能够检测由包括手术装置的手术环境反射的光,并且生成包括表示所述手术环境和所述手术装置的可见图像的第一数据集的第一信号;和
处理器,所述处理器被配置为能够:
接收所述第一信号和表示所述手术装置的一个或多个操作参数的第二信号,
生成所述手术装置的修改的图像,所述修改的图像包括所述手术环境和所述手术装置的至少一部分以及与所述一个或多个操作参数有关的信息。
2.根据权利要求1所述的系统,还包括显示装置,所述显示装置被配置为能够显示所述修改的图像,其中所述显示装置包括集成到外科医生所佩戴的附件中的监视器和显示器中的至少一个。
3.根据权利要求1所述的系统,其中,在所述修改的图像中与所述手术装置相邻地显示与所述一个或多个参数有关的所述信息。
4.根据权利要求1所述的系统,其中,在所述修改的图像中在所述手术装置上显示与所述一个或多个参数有关的所述信息。
5.根据权利要求1所述的系统,其中,所述修改的图像替换所述手术装置的至少一部分和手术区域的至少一部分中的一个或多个。
6.根据权利要求1所述的手术系统,其中,所述第一数据集包括表示由所述第一像素阵列的一个或多个像素检测到的所述光的颜色的值。
7.根据权利要求1所述的系统,其中,所述处理器被配置为能够从所述第一数据集识别表示手术器械的数据,以基于所述检测器相对于所述手术器械的位置确定所述手术指令的取向。
8.根据权利要求1所述的系统,其中,所述手术装置包括一个或多个标记,所述一个或多个标记中的每一个都被配置为能够反射预定频率的光。
9.根据权利要求8所述的系统,其中,所述处理器过滤所述第一信号以基于所述一个或多个标记的位置通过图像识别算法确定所述手术装置的取向。
10.根据权利要求1所述的系统,其中,所述手术系统是机器人手术系统,并且所述机器人手术系统包括至少一个机器人臂,所述机器人臂被配置为能够保持并操纵所述手术装置。
11.根据权利要求1所述的系统,其中,所述手术装置具有包括切割、缝合和能量输送中的至少一种的功能。
12.根据权利要求11所述的系统,其中,所述一个或多个参数包括关节运动角度、轴旋转角度、刀具的位置、所述刀具的运动、组织位置和重新加载信息中的至少一个。
13.一种手术系统,包括:
第一检测器,所述第一检测器包括第一像素阵列,所述第一像素阵列被配置为能够检测由具有一个或多个具有预定颜色的区域的手术环境内的手术装置反射的光,所述第一像素阵列还被配置为能够生成包括表示第一可见图像的第一数据集的第一信号;
第二检测器,所述第二检测器包括第二像素阵列,所述第二像素阵列被配置为能够检测由所述手术环境反射的光并生成第二信号,所述第二信号包括表示第二可见图像的第二数据集;和
处理器,所述处理器被配置为能够:
接收所述第一信号和所述第二信号,
从所述第一数据集和所述第二数据集中识别表示所述手术环境的数据,所述手术环境不包括具有所述预定颜色的所述手术装置的所述一个或多个区域,并且
基于所述识别的数据生成所述手术环境的修改的图像。
14.根据权利要求13所述的手术系统,其中,所述预定颜色是绿色。
15.根据权利要求13所述的手术系统,其中,所述第一数据集包括表示由所述第一像素阵列的一个或多个像素检测到的所述光的颜色的值,并且所述第二数据集包括表示由所述第二像素阵列的一个或多个像素检测到的所述光的颜色的值。
16.根据权利要求13所述的手术系统,其中,所述修改的图像不包括具有所述预定颜色的所述手术装置的所述一个或多个区域。
17.根据权利要求13所述的手术系统,其中,所述修改的图像用所述手术环境内的组织的图像的一部分替换所述手术环境内的手术装置的图像的一部分。
18.根据权利要求17所述的手术系统,其中,组织的所述图像是在所述手术装置的所述图像的所述被替换部分下面的组织的图像。
19.根据权利要求13所述的系统,还包括:显示装置,所述显示装置被配置为能够显示所述修改的图像。
20.一种手术方法,包括:
检测由手术装置反射的光;
生成第一信号,该第一信号包括表示手术装置的图像的第一数据集;
接收第一信号和表示手术装置的一个或多个操作参数的第二信号;以及
生成所述手术装置的修改的图像,所述修改的图像包括与一个或多个操作参数有关的信息。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/383,004 US10918445B2 (en) | 2016-12-19 | 2016-12-19 | Surgical system with augmented reality display |
US15/383,004 | 2016-12-19 | ||
PCT/US2017/064588 WO2018118411A1 (en) | 2016-12-19 | 2017-12-05 | Surgical system with augmented reality display |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110087574A true CN110087574A (zh) | 2019-08-02 |
CN110087574B CN110087574B (zh) | 2022-05-31 |
Family
ID=60788709
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780078500.9A Active CN110087574B (zh) | 2016-12-19 | 2017-12-05 | 具有增强现实显示的手术系统 |
Country Status (4)
Country | Link |
---|---|
US (3) | US10918445B2 (zh) |
EP (1) | EP3554410A1 (zh) |
CN (1) | CN110087574B (zh) |
WO (1) | WO2018118411A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113243950A (zh) * | 2021-05-21 | 2021-08-13 | 绵阳美科电子设备有限责任公司 | 五轴微创器械集成系统 |
Families Citing this family (33)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
US10918445B2 (en) * | 2016-12-19 | 2021-02-16 | Ethicon Llc | Surgical system with augmented reality display |
CA2958163C (en) * | 2017-02-15 | 2019-02-12 | Synaptive Medical (Barbados) Inc. | Digitally enhanced surgical instruments |
US11256963B2 (en) * | 2017-05-31 | 2022-02-22 | Eizo Corporation | Surgical instrument detection system and computer program |
CN111433711A (zh) | 2017-11-07 | 2020-07-17 | 皇家飞利浦有限公司 | 设备的增强现实触发 |
US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
DE102018111180B4 (de) * | 2018-05-09 | 2023-01-05 | Olympus Winter & Ibe Gmbh | Betriebsverfahren für ein medizinisches System und medizinisches System zum Durchführen eines chirurgischen Eingriffs |
JP2021191320A (ja) * | 2018-09-11 | 2021-12-16 | ソニーグループ株式会社 | 手術支援システム、表示制御装置、および表示制御方法 |
GB2577718B (en) * | 2018-10-03 | 2022-08-24 | Cmr Surgical Ltd | Feature identification |
US12008721B2 (en) | 2018-10-26 | 2024-06-11 | Intuitive Surgical Operations, Inc. | Mixed reality systems and methods for indicating an extent of a field of view of an imaging device |
US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
USD929590S1 (en) * | 2019-12-26 | 2021-08-31 | Olympus Corporation | Needle holder for endoscopic surgery |
US11759283B2 (en) | 2019-12-30 | 2023-09-19 | Cilag Gmbh International | Surgical systems for generating three dimensional constructs of anatomical organs and coupling identified anatomical structures thereto |
US11832996B2 (en) | 2019-12-30 | 2023-12-05 | Cilag Gmbh International | Analyzing surgical trends by a surgical system |
US20210196383A1 (en) * | 2019-12-30 | 2021-07-01 | Ethicon Llc | Surgical systems correlating visualization data and powered surgical instrument data |
US12002571B2 (en) | 2019-12-30 | 2024-06-04 | Cilag Gmbh International | Dynamic surgical visualization systems |
US11744667B2 (en) | 2019-12-30 | 2023-09-05 | Cilag Gmbh International | Adaptive visualization by a surgical system |
US11896442B2 (en) | 2019-12-30 | 2024-02-13 | Cilag Gmbh International | Surgical systems for proposing and corroborating organ portion removals |
US11284963B2 (en) | 2019-12-30 | 2022-03-29 | Cilag Gmbh International | Method of using imaging devices in surgery |
US11776144B2 (en) | 2019-12-30 | 2023-10-03 | Cilag Gmbh International | System and method for determining, adjusting, and managing resection margin about a subject tissue |
US11464581B2 (en) | 2020-01-28 | 2022-10-11 | Globus Medical, Inc. | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums |
US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
US11950968B2 (en) * | 2020-03-13 | 2024-04-09 | Trumpf Medizin Systeme Gmbh + Co. Kg | Surgical augmented reality |
US11607277B2 (en) | 2020-04-29 | 2023-03-21 | Globus Medical, Inc. | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery |
US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US20220057635A1 (en) | 2020-08-20 | 2022-02-24 | Johnson & Johnson Surgical Vision, Inc. | Presenting visual and thermal images in a headset during phacoemulsification |
US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
US11478327B2 (en) * | 2021-02-18 | 2022-10-25 | Xenco Medical, Inc. | Surgical display |
WO2023220673A1 (en) * | 2022-05-11 | 2023-11-16 | Briteseed, Llc | A visual interface for a system used to determine tissue characteristics |
CN116797494B (zh) * | 2023-08-17 | 2023-11-21 | 中南大学湘雅医院 | 一种基于图像处理的产科手术监测方法、系统及相关设备 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102458293A (zh) * | 2009-06-16 | 2012-05-16 | 直观外科手术操作公司 | 用于微创外科手术的虚拟测量工具 |
US20140005684A1 (en) * | 2012-06-29 | 2014-01-02 | Children's National Medical Center | Automated surgical and interventional procedures |
CN104605855A (zh) * | 2008-02-29 | 2015-05-13 | 韦伯斯特生物官能公司 | 具有虚拟触摸屏的定位系统 |
US20150173644A1 (en) * | 2013-12-19 | 2015-06-25 | Alcon Research, Ltd. | Marker-Based Tool Tracking |
CN104936535A (zh) * | 2013-01-14 | 2015-09-23 | 直观外科手术操作公司 | 夹紧器械 |
US20160357003A1 (en) * | 2014-02-19 | 2016-12-08 | Carl Zeiss Meditec Ag | Surgical microscope for generating an observation image of an object region |
Family Cites Families (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6856826B2 (en) * | 2000-04-28 | 2005-02-15 | Ge Medical Systems Global Technology Company, Llc | Fluoroscopic tracking and visualization system |
JP2007531553A (ja) * | 2003-10-21 | 2007-11-08 | ザ ボード オブ トラスティーズ オブ ザ リーランド スタンフォード ジュニア ユニヴァーシティ | 術中ターゲティングのシステムおよび方法 |
RU2390852C2 (ru) * | 2004-03-26 | 2010-05-27 | Атсуши ТАКАХАШИ | Трехмерная цифровая увеличивающая объект стеклянная оптическая система, включающая в себя функции трехмерного наглядного обучения |
US8971597B2 (en) * | 2005-05-16 | 2015-03-03 | Intuitive Surgical Operations, Inc. | Efficient vision and kinematic data fusion for robotic surgical instruments and other applications |
US9867669B2 (en) * | 2008-12-31 | 2018-01-16 | Intuitive Surgical Operations, Inc. | Configuration marker design and detection for instrument tracking |
US9492240B2 (en) * | 2009-06-16 | 2016-11-15 | Intuitive Surgical Operations, Inc. | Virtual measurement tool for minimally invasive surgery |
US10555775B2 (en) | 2005-05-16 | 2020-02-11 | Intuitive Surgical Operations, Inc. | Methods and system for performing 3-D tool tracking by fusion of sensor and/or camera derived data during minimally invasive robotic surgery |
WO2007005555A2 (en) | 2005-06-30 | 2007-01-11 | Intuitive Surgical | Indicator for tool state communication in multi-arm telesurgery |
US9782229B2 (en) * | 2007-02-16 | 2017-10-10 | Globus Medical, Inc. | Surgical robot platform |
US10008017B2 (en) | 2006-06-29 | 2018-06-26 | Intuitive Surgical Operations, Inc. | Rendering tool information as graphic overlays on displayed images of tools |
WO2008103383A1 (en) * | 2007-02-20 | 2008-08-28 | Gildenberg Philip L | Videotactic and audiotactic assisted surgical methods and procedures |
US8114345B2 (en) | 2008-02-08 | 2012-02-14 | Ethicon Endo-Surgery, Inc. | System and method of sterilizing an implantable medical device |
US8622951B2 (en) | 2008-06-09 | 2014-01-07 | Abbott Medical Optics Inc. | Controlling a phacoemulsification system based on real-time analysis of image data |
WO2010048160A2 (en) | 2008-10-20 | 2010-04-29 | The Johns Hopkins University | Environment property estimation and graphical display |
US8320623B2 (en) * | 2009-06-17 | 2012-11-27 | Lc Technologies, Inc. | Systems and methods for 3-D target location |
US9642513B2 (en) * | 2009-06-18 | 2017-05-09 | Endochoice Inc. | Compact multi-viewing element endoscope system |
US8706184B2 (en) * | 2009-10-07 | 2014-04-22 | Intuitive Surgical Operations, Inc. | Methods and apparatus for displaying enhanced imaging data on a clinical image |
KR101759534B1 (ko) * | 2009-10-30 | 2017-07-19 | 더 존스 홉킨스 유니버시티 | 외과 수술 시 임상적으로 중요한 해부상의 랜드마크에 대한 시각 추적 및 주석 달기 |
US8657809B2 (en) * | 2010-09-29 | 2014-02-25 | Stryker Leibinger Gmbh & Co., Kg | Surgical navigation system |
KR102143818B1 (ko) * | 2011-02-15 | 2020-08-13 | 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 | 스테이플링 또는 혈관 실링 기구에서 나이프 위치에 대한 표시자 |
US8911448B2 (en) * | 2011-09-23 | 2014-12-16 | Orthosensor, Inc | Device and method for enabling an orthopedic tool for parameter measurement |
US10758209B2 (en) * | 2012-03-09 | 2020-09-01 | The Johns Hopkins University | Photoacoustic tracking and registration in interventional ultrasound |
US20150145953A1 (en) * | 2012-03-17 | 2015-05-28 | Waseda University | Image completion system for in-image cutoff region, image processing device, and program therefor |
US9258549B2 (en) * | 2012-05-14 | 2016-02-09 | Intuitive Surgical Operations, Inc. | Single-chip sensor multi-function imaging |
US9498182B2 (en) * | 2012-05-22 | 2016-11-22 | Covidien Lp | Systems and methods for planning and navigation |
US9305218B2 (en) * | 2012-06-14 | 2016-04-05 | Prezio Health | Methods and systems for identifying, marking, and inventorying large quantities of unique surgical instruments |
KR20140112207A (ko) * | 2013-03-13 | 2014-09-23 | 삼성전자주식회사 | 증강현실 영상 표시 시스템 및 이를 포함하는 수술 로봇 시스템 |
US10383699B2 (en) | 2013-03-15 | 2019-08-20 | Sri International | Hyperdexterous surgical system |
US9283054B2 (en) * | 2013-08-23 | 2016-03-15 | Ethicon Endo-Surgery, Llc | Interactive displays |
US20150062299A1 (en) | 2013-08-30 | 2015-03-05 | The Regents Of The University Of California | Quantitative 3d-endoscopy using stereo cmos-camera pairs |
US10250821B2 (en) * | 2013-11-27 | 2019-04-02 | Honeywell International Inc. | Generating a three-dimensional model of an industrial plant using an unmanned aerial vehicle |
US20150170381A1 (en) * | 2013-12-16 | 2015-06-18 | Sony Corporation | Tool localization system with image enhancement and method of operation thereof |
US10925474B2 (en) * | 2014-02-17 | 2021-02-23 | Children's National Medical Center | Delivery tool and method for devices in the pericardial space |
CA2940814C (en) * | 2014-02-27 | 2019-09-03 | University Surgical Associates, Inc. | Interactive display for surgery |
CN110897590B (zh) * | 2014-03-28 | 2021-11-16 | 直观外科手术操作公司 | 带有基于定量三维成像的触觉反馈的手术系统 |
DE102014210053A1 (de) * | 2014-05-27 | 2015-12-03 | Carl Zeiss Meditec Ag | Operationsmikroskop mit Dateneinheit und Verfahren zum Überlagern von Bildern |
US9645379B2 (en) * | 2014-12-29 | 2017-05-09 | Novartis Ag | Magnification in ophthalmic procedures and associated devices, systems, and methods |
US9767554B2 (en) | 2015-02-19 | 2017-09-19 | Sony Corporation | Method and system for detection of surgical gauze during anatomical surgery |
US10908681B2 (en) | 2015-02-20 | 2021-02-02 | Covidien Lp | Operating room and surgical site awareness |
WO2016149345A1 (en) | 2015-03-17 | 2016-09-22 | Intuitive Surgical Operations, Inc. | Systems and methods for onscreen identification of instruments in a teleoperational medical system |
CA2976516C (en) * | 2015-07-27 | 2022-11-22 | Synaptive Medical (Barbados) Inc. | Navigational feedback for intraoperative waypoint |
US10888389B2 (en) * | 2015-09-10 | 2021-01-12 | Duke University | Systems and methods for arbitrary viewpoint robotic manipulation and robotic surgical assistance |
US9675244B1 (en) * | 2015-12-02 | 2017-06-13 | Novartis Ag | Location indicator for optical coherence tomography in ophthalmic visualization |
US10426339B2 (en) * | 2016-01-13 | 2019-10-01 | Novartis Ag | Apparatuses and methods for parameter adjustment in surgical procedures |
EP3475919A1 (en) * | 2016-06-23 | 2019-05-01 | Li-Cor, Inc. | Complementary color flashing for multichannel image presentation |
US10460457B2 (en) * | 2016-07-12 | 2019-10-29 | Novartis Ag | Adaptive adjustment of overlay image parameters |
US10695134B2 (en) * | 2016-08-25 | 2020-06-30 | Verily Life Sciences Llc | Motion execution of a robotic system |
US10973585B2 (en) * | 2016-09-21 | 2021-04-13 | Alcon Inc. | Systems and methods for tracking the orientation of surgical tools |
US10918445B2 (en) * | 2016-12-19 | 2021-02-16 | Ethicon Llc | Surgical system with augmented reality display |
US10568701B2 (en) * | 2016-12-19 | 2020-02-25 | Ethicon Llc | Robotic surgical system with virtual control panel for tool actuation |
US10537394B2 (en) * | 2016-12-19 | 2020-01-21 | Ethicon Llc | Hot device indication of video display |
-
2016
- 2016-12-19 US US15/383,004 patent/US10918445B2/en active Active
-
2017
- 2017-12-05 EP EP17818702.7A patent/EP3554410A1/en active Pending
- 2017-12-05 WO PCT/US2017/064588 patent/WO2018118411A1/en unknown
- 2017-12-05 CN CN201780078500.9A patent/CN110087574B/zh active Active
-
2021
- 2021-02-16 US US17/176,572 patent/US11446098B2/en active Active
-
2022
- 2022-09-16 US US17/946,726 patent/US20230085191A1/en active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104605855A (zh) * | 2008-02-29 | 2015-05-13 | 韦伯斯特生物官能公司 | 具有虚拟触摸屏的定位系统 |
CN102458293A (zh) * | 2009-06-16 | 2012-05-16 | 直观外科手术操作公司 | 用于微创外科手术的虚拟测量工具 |
US20140005684A1 (en) * | 2012-06-29 | 2014-01-02 | Children's National Medical Center | Automated surgical and interventional procedures |
CN104936535A (zh) * | 2013-01-14 | 2015-09-23 | 直观外科手术操作公司 | 夹紧器械 |
US20150173644A1 (en) * | 2013-12-19 | 2015-06-25 | Alcon Research, Ltd. | Marker-Based Tool Tracking |
US20160357003A1 (en) * | 2014-02-19 | 2016-12-08 | Carl Zeiss Meditec Ag | Surgical microscope for generating an observation image of an object region |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113243950A (zh) * | 2021-05-21 | 2021-08-13 | 绵阳美科电子设备有限责任公司 | 五轴微创器械集成系统 |
Also Published As
Publication number | Publication date |
---|---|
US20210259788A1 (en) | 2021-08-26 |
CN110087574B (zh) | 2022-05-31 |
EP3554410A1 (en) | 2019-10-23 |
US11446098B2 (en) | 2022-09-20 |
US20230085191A1 (en) | 2023-03-16 |
US10918445B2 (en) | 2021-02-16 |
US20180168741A1 (en) | 2018-06-21 |
WO2018118411A1 (en) | 2018-06-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110087574A (zh) | 具有增强现实显示的手术系统 | |
JP7379373B2 (ja) | 立体視覚化カメラ及び統合ロボットプラットフォーム | |
US11336804B2 (en) | Stereoscopic visualization camera and integrated robotics platform | |
US20230255446A1 (en) | Surgical visualization systems and displays | |
US20220054223A1 (en) | Surgical visualization systems and displays | |
US11213355B2 (en) | Hot device indication of video display | |
CN110099649A (zh) | 具有用于工具致动的虚拟控制面板的机器人外科系统 | |
US11154378B2 (en) | Surgical visualization systems and displays | |
US20220079706A1 (en) | Imaging system for surgical robot, and surgical robot | |
US20210335483A1 (en) | Surgery visualization theatre | |
US20210236233A1 (en) | Three dimensional medical imaging and interactions | |
CN109922933A (zh) | 关节驱动致动器和医疗系统 | |
CN109907834A (zh) | 一种具有3d功能的机器人外视镜 | |
AU2019261643B2 (en) | Stereoscopic visualization camera and integrated robotics platform | |
EP4106664A1 (en) | All-digital multi-option 3d surgery visualization system and control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |