CN108289600A - 用于机器人外科手术的沉浸式三维显示器 - Google Patents
用于机器人外科手术的沉浸式三维显示器 Download PDFInfo
- Publication number
- CN108289600A CN108289600A CN201780003779.4A CN201780003779A CN108289600A CN 108289600 A CN108289600 A CN 108289600A CN 201780003779 A CN201780003779 A CN 201780003779A CN 108289600 A CN108289600 A CN 108289600A
- Authority
- CN
- China
- Prior art keywords
- user
- shell
- display
- immersion
- sensor
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/012—Head tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/013—Eye tracking input arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/006—Mixed reality
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
- H04N13/344—Displays for viewing with the aid of special glasses or head-mounted displays [HMD] with head-mounted left-right displays
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00199—Electrical control of surgical instruments with a console, e.g. a control panel with a display
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00203—Electrical control of surgical instruments with speech control or speech recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00207—Electrical control of surgical instruments with hand gesture control or hand gesture recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00017—Electrical control of surgical instruments
- A61B2017/00216—Electrical control of surgical instruments with eye tracking or head position tracking control
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B17/00—Surgical instruments, devices or methods, e.g. tourniquets
- A61B2017/00973—Surgical instruments, devices or methods, e.g. tourniquets pedal-operated
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/367—Correlation of different images or relation of image positions in respect to the body creating a 3D dataset from 2D images using position information
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/508—Supports for surgical instruments, e.g. articulated arms with releasable brake mechanisms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N2213/00—Details of stereoscopic systems
- H04N2213/001—Constructional or mechanical details
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Veterinary Medicine (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Robotics (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Pathology (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Signal Processing (AREA)
- Multimedia (AREA)
- Computer Hardware Design (AREA)
- Software Systems (AREA)
- Computer Graphics (AREA)
- Endoscopes (AREA)
- Manipulator (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本发明题为:“用于机器人外科手术的沉浸式三维显示器”。本发明公开了一种用于机器人外科系统中的沉浸式显示器,该沉浸式显示器包括:支撑臂;壳体,该壳体被安装到支撑臂并且被构造成能够与用户的面部接合;至少两个目镜组件,该至少两个目镜组件设置在壳体中并且被构造成能够提供三维显示;以及至少一个传感器,其中传感器允许机器人外科系统的操作,并且其中支撑臂可致动来移动壳体以进行人类工程学定位。
Description
相关申请的交叉引用
本申请要求2016年10月3日提交的美国专利申请序列号62/403,655的优先权,该申请全文据此以引用方式并入本文。
技术领域
本公开整体涉及机器人或机器人辅助的系统,并且更具体地讲,涉及用于机器人或机器人辅助的外科系统中的沉浸式显示器。
发明背景
微创外科手术(MIS)诸如腹腔镜外科手术涉及旨在减少在外科手术期间的组织损伤的技术。例如,腹腔镜手术典型地涉及在患者体内(例如,在腹部上)形成多个小的切口,并且通过切口将一个或多个工具和至少一个内窥镜照相机引入患者体内。然后,通过使用所引入的工具和由照相机提供的可视化辅助来执行外科手术。
一般来讲,MIS提供多个益处,诸如减少患者瘢痕形成、减少患者疼痛、缩短患者恢复期、和降低与患者恢复相关联的医疗费用。然而,标准MIS系统具有多个缺点。例如,非机器人MIS系统对外科医生提出了更高的需求,这部分是因为它们要求外科医生以可能不自然的方式经由工具来间接地操纵组织。常规机器人MIS系统可涉及操作人员观察显示出内窥镜照相机视频供给的显示器并且基于来自操作人员的命令来远程地操作以操纵工具,这可提供MIS的许多益处,同时降低对外科医生的需求。然而,此类机器人MIS系统典型地仅具有刚性、不动的显示器,其可能使用户在长时间的使用过程中紧张、疲劳和受伤。因此,希望具有与机器人外科系统一起使用的显示器。
发明内容
一般来讲,在一个变型中,一种用于机器人外科系统中的沉浸式显示器包括:支撑臂;壳体,所述壳体被安装到所述支撑臂并且被构造成能够与用户的面部接合;至少两个目镜组件,所述至少两个目镜组件设置在所述壳体中并且被构造成能够提供三维显示;以及至少一个传感器,其中所述传感器允许所述机器人外科系统的操作,并且其中所述支撑臂可致动来移动所述壳体以进行人类工程学定位。例如,支撑臂可以是铰接的并且包括至少一个或多个可致动关节。
壳体可包括或被联接到构形面架,所述构形面架被构造成能够与用户的面部接合,并且所述构形面架可包括特征诸如用于与用户接合的衬垫,这样的特征可增加舒适性和/或提供顺应性,以便进行人类工程学定位。有关于构形面架的类似的顺应性可以其他方式实现,诸如用具有多个可动地顺应的部分的壳体实现。例如,支撑臂可以被联接到壳体的第一部分并且面架可以被联接到壳体的第二部分,壳体的第二部分可相对于壳体的第一部分移动(例如,可动地顺应的)。
壳体可包括若干附加特征中的一个或多个以改善沉浸式显示器体验。例如,沉浸式显示器可包括一个或多个遮罩,所述一个或多个遮罩被联接到壳体,诸如用于阻挡环境光和周边视觉干扰。至少一个遮罩可以是能够在第一位置与第二位置之间移动的,在第一位置中,遮罩被构造成能够遮挡用户的视场的至少一部分,在第二位置中,遮罩被构造成能够显露所述用户的所述视场的所述部分。作为另一示例,沉浸式显示器可包括至少一个辅助显示屏,所述至少一个辅助显示屏被联接到壳体,或各种音频部件中的任一者,诸如麦克风和/或扬声器。麦克风可以(例如)被联接到壳体并且被构造成能够接收声音命令以用于机器人外科系统的操作。此外,扬声器可以被联接到壳体并且被构造成能够将音频信息提供给用户。至少一个触觉致动器可以被联接到壳体并且被构造成能够将触觉反馈提供给用户。此外,在一些变型中,壳体可包括至少一个跟踪装置,所述至少一个跟踪装置被联接到壳体以监视壳体的位置。
目镜组件被构造成能够提供三维显示。例如,目镜组件中的至少一个可以被构造成能够显示左眼立体图像并且目镜组件中的至少一个可以被构造成能够显示右眼立体图像,使得左眼立体图像和右眼立体图像一起提供三维显示。例如,三维显示可以被构造成能够显示来自在机器人外科系统中使用的内窥镜照相机的至少一个图像。目镜显示器可除此之外或作为另外一种选择被构造成能够显示二维或其他合适的内容。在一些变型中,沉浸式显示器还可包括至少一个辅助显示器,所述至少一个辅助显示器被联接到壳体。
可包括至少一个传感器以作为机器人外科系统的安全特征。例如,传感器(例如,在被构造成能够检测用户的虹膜代码的照相机或其他合适的光学传感器中)可以被构造成能够识别用户以授权来操作机器人外科系统。作为另一示例,传感器(例如,用于执行眼睛跟踪的光学传感器)可以被构造成能够确定用户眼睛与目镜组件的适当对准。
沉浸式显示器可包括用于检测用户的头部姿态、执行眼睛跟踪和/或检测其他用户交互的其他传感器以使得控制器可解释用户交互并适当地使沉浸式显示器作出响应。例如,响应于用户的检测到的头部姿态,支撑臂可移动壳体以跟踪头部姿态(例如,用于人类工程学定位)。作为另一示例,至少一个传感器(例如,压力传感器、距离传感器、接触传感器等)可以被构造成能够监视用户的头部姿态以控制机器人外科系统的操作。作为另一示例,至少一个传感器可以是被构造成能够执行眼镜跟踪的光学传感器。作为另一示例,三维显示可以被构造成能够显示图形用户界面并且至少一个传感器可以被构造成能够检测头部姿态以用于图形用户界面的导航。
作为另一示例,沉浸式显示器可以被构造成能够显示来自在机器人外科系统中使用的内窥镜照相机的至少一个图像。响应于至少一个传感器检测到头部姿态,三维显示可以被构造成能够显示来自内窥镜照相机的经修改的图像。作为一个说明,响应于传感器检测到朝向前的头部姿态,三维显示可以被构造成能够显示来自内窥镜照相机的放大图像。作为另一说明,响应于传感器检测到朝向后的头部姿态,三维显示可以被构造成能够显示来自内窥镜照相机的缩小图像。此外,响应于传感器检测到侧向头部姿态,三维显示可以被构造成能够显示来自内窥镜照相机的平移图像,并且响应于传感器检测到倾斜头部姿态,三维显示可以被构造成能够显示来自内窥镜照相机的倾斜图像。
沉浸式显示器可以被构造成能够提供用户定位信息。例如,沉浸式显示器可以为维持目镜组件和用户手位置的第一相对空间关系与内窥镜照相机和外科器械的第二相对空间关系之间的对应性而提供指导。例如,三维显示可以被构造为显示用于使壳体和用户手位置中的至少一个重新定位的视觉提示。
作为另一示例,三维显示可以被构造成能够显示相对于至少一个目标位置(例如,手持式用户界面装置位置、脚踏位置等)的用户手位置和/或用户脚位置的视觉表示。视觉表示可与主要图像叠置,诸如照相机视点图像。
在一些变型中,沉浸式显示器可包括至少一个外部照相机,所述至少一个外部照相机被联接到壳体。照相机可以(例如)被构造成能够提供壳体外部的环境的至少一个图像。例如,三维显示可以被构造成能够选择性地显示壳体外部的环境的图像。除此之外或作为另外一种选择,沉浸式显示器可包括至少一个外部照明器,所述至少一个外部照明器被联接到壳体,其中照明器可以被构造成能够将光投射到壳体外部的环境。
附图说明
图1A是具有机器人外科系统的示例性手术室布置的概示图。
图1B是用于机器人外科系统中的具有示例性沉浸式显示器的示例性用户控制台的侧视图。
图2A和图2B分别是用于机器人外科系统中的沉浸式显示器的一个变型的透视图和部分分解图。
图3A和图3B分别是沉浸式显示器的一个变型中的示例性支撑臂的详细的前透视图和后透视图。
图3C是沉浸式显示器的一个变型中的可被构造成能够用于绕用户的左侧或右侧入路的示例性支撑臂的示意性俯视图。
图4A-图4C是沉浸式显示器的另一变型中的另一示例性过顶型支撑臂的示意图。
图4D和图4E是沉浸式显示器的另一变型中的另一示例性侧入路支撑臂的示意图。
图5是沉浸式显示器的另一变型中的包括可动地顺应的壳体部分的示例性壳体的示意性俯视图。
图6是沉浸式显示器的另一变型中的包括手柄的示例性壳体的透视图。
图7是沉浸式显示器的另一变型中的包括遮罩和面朝外照相机的示例性壳体的透视图。
图8是沉浸式显示器的另一变型中的包括触觉致动器的示例性壳体的透视图。
图9是沉浸式显示器的另一变型中的包括麦克风的示例性壳体的透视图。
图10是沉浸式显示器的另一变型中的包括扬声器的示例性壳体的透视图。
图11是沉浸式显示器的另一变型中的包括辅助显示器的示例性壳体的透视图。
图12是沉浸式显示器的另一变型中的包括跟踪装置的示例性壳体的透视图。
图13是具有用于提供向外的投射的面朝外照明器的沉浸式显示器的示意图。
图14是呈现目镜组件和用户手位置的相对空间关系与内窥镜照相机和外科器械的相对空间关系之间的对应性的示例性沉浸式显示器设置的示意图。
图15A和图15B是具有与头靠式传感器协作的沉浸式显示器传感器的示例性沉浸式显示器设置的示意性俯视图和示意性侧视图。
图16A是沉浸式显示器的另一变型的示意图,其中沉浸式显示器被安装到天花板。图16B是沉浸式显示器的另一变型的示意图,其中沉浸式显示器被安装到被构造成能够用于与直立的用户控制台一起使用的手推车。
图17描绘了沉浸式传感器中示出的示例性显示图像和图形用户界面。
图18A是沉浸式显示器中示出相对于目标手位置的用户手位置的视觉表示的示例性显示。图18B是沉浸式显示器中示出相对于目标脚位置的脚位置的视觉表示的示例性显示。
图19是用于控制在沉浸式显示器的一个变型中或与之相关联的各种部件的控制系统的示例性示意图。
具体实施方式
本发明的各方面和变型的非限制性示例在本文中描述并示出于附图。
图1A是具有机器人外科系统100的示例性手术室环境的图示。如图1A所示,机器人外科系统100包括用户控制台120、控制塔130和位于机器人平台110(例如,桌、床等)处的一个或多个机器人臂112,其中外科器械(例如,具有端部执行器)被附接到机器人臂112的远端以执行外科手术。机器人臂112被示出为在桌上安装的系统,但是在其他构型中,机器人臂可以被安装到手推车、天花板或侧壁或其他合适的支撑表面。
一般来讲,用户诸如外科医生或其他操作员人员可以使用用户控制台120来远程地操纵机器人臂112和/或外科器械(例如,在遥控操作中)。用户控制台120可与机器人系统100位于相同的手术室中,如图1A所示。在其他环境中,用户控制台120可以位于相邻或附近的房间中,或从不同的建筑物、城市或国家等的远程位置遥控操作。用户控制台120可包括座位122、用脚操作的控件124、一个或多个手持式用户界面装置126和至少一个用户显示器128,至少一个用户显示器被构造成能够显示例如患者体内的手术部位的视图(例如,用内窥镜照相机捕获的)。如示例性用户控制台120中所示,在座位122中并查看用户显示器128的用户可以操纵用脚操作的控件124和/或手持式用户界面装置126来远程地控制机器人臂112和/或安装到臂的远端的外科器械。
在一些变型中,用户可以在“跨床”(OTB)模式下操作外科机器人系统100,其中用户在患者的一侧并同时地操纵与之附接的机器人驱动的器械/端部执行器(例如,用一只手抓持手持式用户界面装置126)和手动式腹腔镜工具。例如,该用户的左手可操纵手持式用户界面装置126来控制机器人外科部件,而该用户的右手则可以操纵手动式腹腔镜工具。因此,在这些变型中,用户可对患者执行机器人辅助的MIS和手动式腹腔镜外科手术。
在示例性手术或外科手术期间,可以无菌的方式为患者进行术前预备并且覆上盖布,并且可以实施麻醉。向手术部位的初始进入可利用呈收起构型或抽出构型的机器人系统100来手动地进行以便于进入手术部位。一旦完成进入,就可执行机器人系统的初始定位和/或准备。在手术期间,用户控制台120中的外科医生可利用用脚操作的控件124、用户界面装置126和/或其他合适的控件来操纵各种端部执行器和/或成像系统以执行外科手术。可由可执行任务的其他人员在手术台上提供手动辅助,其他人员可执行的任务包括但不限于回缩组织、或执行涉及一个或多个机器人臂112的手动的重新定位或工具更换。可存在其他人员以在用户控制台120处辅助用户。当手术或外科手术完成时,机器人系统100和/或用户控制台120可以被构造成能够或设置为处于某状态以便于一个或多个手术后过程,包括但不限于机器人系统100清洁和/或消毒、和/或诸如经由用户控制台120来进行的医疗记录输入或打印输出(无论是电子的还是硬拷贝的)。
在一些变型中,机器人平台110与用户控制台120之间的通信可经由控制塔130来进行,控制塔可以将来自用户控制台120的用户命令翻译成机器人的控制命令并且将它们传输到机器人平台110。控制塔130可以将来自机器人平台110的状态和反馈传输回用户控制台120。在机器人平台110、用户控制台120和控制塔130之间的连接可经由有线和/或无线连接来进行,并且可以是专有的和/或可使用多种数据通信协议中的任一者来执行。任何有线连接都可内置于手术室的地板和/或墙壁或天花板中。机器人外科系统100可以将视频输出提供到一个或多个显示器,包括在手术室内的显示器以及可经由互联网或其他网络访问的远程显示器。视频输出或供给可以被加密以确保隐私性,并且视频输出的全部或一个或多个部分可以保存到服务器、电子保健记录系统或其他合适的存储介质。
沉浸式显示器系统
如图1B所示,沉浸式显示器140可以是机器人外科系统的用户控制台120的部分,用户控制台还有开放的显示器128、踏板组件124和一个或多个手持式用户界面装置126。沉浸式显示器140可以某种方式向用户显示三维(3D)和/或二维(2D)信息,所述方式使用户以舒适和人类工程学方式沉浸于显示环境,与之同时减少来自用户的周边视场的干扰。沉浸式显示器140(例如,经由支撑臂142而联接到座位122的显示器壳体144)可以显示与外科手术相关联的各种信息(例如,手术部位的内窥镜照相机视图、静态图像、GUI等)和/或与机器人外科系统相关联的各种信息(例如,状态、系统设置)和/或呈2D和3D视频、图像、文本、图形界面、警告、控件、指示灯等形式的其他合适的信息。不像其他沉浸式和虚拟现实的头戴式装置那样完全地依赖于头戴式显示器的运动来改变显示器内的视图并因此而限制头部移动来控制其他仪器的能力,如本文所述的沉浸式显示器140可使得用户能够使用头部姿态和其他头部/眼睛移动与显示的内容进行交互以控制沉浸式显示器和操作其他仪器诸如机器人外科系统中的那些仪器。
一般来讲,如图2A所示,沉浸式显示器200可包括支撑臂210(在图2A中被部分地示出)、安装到支撑臂210并构造为与用户的面部接合的壳体220、设置在壳体中并构造为提供三维显示的至少两个目镜组件230、和至少一个传感器(例如,由在被构造成能够接合用户的面部的面架222上的传感器224表示的)。传感器可以在检测到某个参数时(例如,存在或不存在与沉浸式显示器200接合的用户、用户相对于目镜组件220的充分对准、作为机器人外科系统的授权的用户的用户的身份等)允许机器人外科系统的操作,如在下文进一步详细地描述的。另外,支撑臂210可致动以诸如出于人类工程学目的对壳体220进行定位、取向或以其他方式使之移动。
支撑臂
支撑臂至少部分地用于支撑壳体的重量,使得当壳体与用户的面部接合时用户不必承受该壳体的重量(例如,在用户的头部或面部上)。如图1B所示,沉浸式显示器140中的支撑臂142可以将沉浸式显示器壳体144联接至固定结构,诸如座位122或座位组件。支撑臂142可以被构造成能够使壳体144就位以接合用户的面部或头部的前部,但是沉浸式显示器可除此之外或作为另外一种选择包括条带或类似的附接装置以有助于将壳体144固定到该用户的面部。
在一些变型中,支撑臂144可以安装在座位122的座位靠背或头靠上,并且被构造成能够从用户控制台120的一侧接近用户以便于用户访问沉浸式显示器。例如,沉浸式显示器支撑臂的近端可被联接到座位靠背的右侧,但是作为另外一种选择,显示器支撑臂的近端可被联接到座位靠背的左侧(例如,在约头靠的高度处,但不一定如此)。沉浸式显示器支撑臂的近端可以被构造成能够竖直地(例如,利用棱柱形的关节)和/或旋转地调整等。此外,支撑臂可以被构造成能够折叠或塌缩于座位的背部或侧面(或臂的其他安装位置),以便使得用户能够进入座位和/或便于用户控制台120以紧凑的构型来存储或运输。
在其他变型中,支撑臂144的近端可以固定地联接到座位靠背的中线(或中线附近)并且被构造成能够从用户控制台120的一侧接近用户以便于用户访问沉浸式显示器。例如,沉浸式显示器支撑臂的近端可以固定地安装到(例如,经由紧固件、焊接的关节、机械锁等)座位122的座位靠背的后侧表面。作为另一示例,沉浸式显示器支撑臂的近端可以可调整地联接到座位靠背的后侧表面,诸如利用允许沉浸式显示器支撑臂相对于座位靠背竖直地、侧向地和/或旋转地调整的棱镜或其他关节。
沉浸式显示器支撑臂可被铰接,使得其能够以多个自由度移动,以便将壳体定位和取向为用户期望的状态。例如,在图3A和图3B中所示的一个示例性变型中,铰接的沉浸式显示器支撑臂可包括至少六个自由度。在此段落中,“水平”是指大体上正交于座位靠背,而“竖直”则是指大体上平行于座位靠背。支撑臂310可包括由第一旋转关节J1(诸如销或叉关节)联接到第一连杆L1的近侧支架,其中第一旋转关节J1可围绕竖直关节轴线旋转以提供在水平平面中的移动。第一连杆L1由第二旋转关节J2联接到第二连杆L2,并且第二连杆L2由第三旋转关节J3联接到第三连杆J3。第一、第二和第三旋转关节J1、J2和J3沿着相应竖直旋转轴线取向,并且可允许调整沉浸式显示器而在大体上位于围绕头靠区域的水平平面中的期望位置处没有显著限制。
通过由第四旋转关节J4将第三连杆L3联接到第四连杆L4来提供另外的构造的灵活性,其中第四旋转关节J4可围绕水平轴线旋转以提供在竖直平面中的移动。第四连杆L4还通过第五旋转关节J5联机到第五连杆L5,其中第五旋转关节J5可围绕水平轴线旋转以提供在竖直平面中的移动。此外,第五连杆L5由第六旋转关节J6联接到第六连杆或支架构件L6,其中第六旋转关节J6可围绕竖直轴线旋转以提供在水平平面中的移动。一般来讲,第四、第五和第六旋转关节J4、J5、J7允许对沉浸式显示器的竖直高度调整,使得结合第一、第二和第三旋转关节J1、J2和J3,所有六个旋转关节允许在三维空间中的角位置变化(例如,在X-Y-Z中的平移,在偏航、侧倾和俯仰方向上的旋转)的各种组合的调整。由于多个铰接的关节具有合适的数目的自由度,因此沉浸式显示器臂310可以例如允许臂旋转、臂伸展/回缩、臂前倾/后倾等。
如图3B所示,壳体320可通过第七旋转关节J7安装到支架构件L6,其中第七旋转关节J7可围绕水平轴线旋转,以便允许用于在竖直平面中的可枢转的调整(例如,向上或向下成角度)的第七自由度。
关节的一些或全部(诸如第四和第五关节J4、J5)可包括摩擦制动器、主动制动器、离合器和/或其他可致动的锁定机构以帮助将沉浸式显示器支撑臂锁定到特定构型中。将沉浸式显示器支撑臂锁定于适当位置可例如有助于抵消可导致壳体320和/或支撑臂310向下塌缩(例如,塌缩到用户身上,在座位组件呈后靠构型的情况下)的重力效应。除此之外或作为另外一种选择,关节的一些或全部可被平衡,以便当在外部未受到用户支撑时防止向下塌缩等。
可手动地控制和/或可用一个或多个致动器来控制对姿势(即,臂的部分的位置和/或取向)的操纵。臂的某些移动可响应于触发器(诸如出现在座位中并准备好与沉浸式显示器接合的用户的身份)而自动进行(例如,塌缩或伸展)。臂的某些移动可基于用户输入(例如,如由内置于支撑臂中的传感器、联接到壳体的手柄等确定的)而触发并由软件控制。对臂的手动调整可涉及使被构造成能够阻止臂的移动的离合器(例如,利用触摸传感器、按钮、手柄等)脱离。
在其他变型中,支撑臂可包括一个基本上非铰接的构件。例如,支撑臂可充当静态悬臂以将沉浸式显示器大体上悬挂在座位组件的前方。在又其他变型中,支撑臂可包括朝向和远离座位组件中的用户侧向摆动的构件。例如,如图4D所示,当沉浸式显示器400'未被使用时,支撑臂410'可在“出去”位置中侧向向外取向以保持壳体420'远离用户的面部和头部。当用户已准备好接合壳体420'时,如图4E所示,显示器支撑臂410'然后可在“进入”位置中侧向向内摆动以保持壳体420'接近用户的面部和头部。
在支撑臂的近端被安装到座位靠背或其他结构的侧面或中线(例如,为了竖直的对称性)的变型中,支撑臂可以被构造成能够从任一侧接近座位中的用户。例如,在图3C中所示的沉浸式显示器300的示意图中,支撑臂的近端被安装到位于用户后方的座位靠背或头靠,并且支撑臂310包绕该用户的右侧并且将壳体320定位成与用户的面部接合。然而,支撑臂310中的多个关节312可被构造成能够被动地和/或主动地旋转(如图3C所示的顺时针方向)以允许支撑臂310包绕该用户的左侧。一些或全部的关节(例如,安装到座位靠背的至少一个近侧肩部关节)可枢转以使得支撑臂中的至少一些大体上重新定位在单个平面内,而至少一些关节则可以是球形关节或其他合适的关节以允许支撑臂310在空间中的任何合适的灵巧安置。例如,远侧偏航关节和/或倾斜轴线可以允许壳体320枢转,以便适应壳体320从用户的任一侧的接近。
在又其他变型中,如图4A-图4C所示,沉浸式显示器400可用包括一个或多个支撑臂410的过顶组件(诸如在支撑框架中)来联接到座位靠背(或头靠等)。支撑臂410可以被构造成能够从用户的头部上方接近用户,如图4A所示,以允许用户与壳体420接合。如图4B所示,支撑臂410还可从头顶上摆动到头靠或座位靠背的其他部分后面,并且支撑臂410和/或壳体420可向下折叠于座位靠背(例如,图4C)或塌缩或缩回到座位靠背中的空腔中,诸如用于存储目的。
在一些变型中,壳体和/或支撑臂可包括一个或多个传感器以帮助避免碰撞。例如,至少一个接近传感器(例如,超声、激光等)可位于壳体和/或支撑臂的至少一部分中,以便检测与座位(例如,座位靠背、扶手、头靠)、开放的显示监视器、用户的面部或其他身体部位等的潜在的碰撞。在检测到潜在的碰撞时,沉浸式显示器可通过触觉电机来发出警告,诸如音频音调、视觉信号、触觉反馈,和/或支撑臂可以被致动以保持在“保持”位置或在相反方向上移动,以便避免支撑臂与另一物体之间的碰撞。
在一些变型中,支撑臂可包括帮助用户手动移动臂的结构。例如,如图5所示,支撑臂可包括手柄512,该手柄可被抓住以因推动和/或拉动手柄而重新定位和安置支撑臂。另外,手柄可包括传感器(例如,压力传感器或接触传感器、电容传感器等)来接收用户输入以进一步控制沉浸式显示器,如在下文进一步描述的。
在其他变型中,支撑臂可以将壳体联接到另一合适的固定结构,诸如天花板或天花板固定装置、立柱或墙壁、或可移动固定装置(诸如台或手推车)。例如,如图16A所示,沉浸式显示器1600可包括安装到天花板或其他上部固定装置的天花板悬臂式臂1610、以及联接到臂1610的远端的壳体1620。在这种设置中,臂1610可用机器人臂20过顶地安装到在台10或其他表面上的患者,使得用户可与沉浸式显示器1600接合,同时站立(而不是坐在沉浸式显示器安装到的座位上)在他或她可直接地监督外科手术的位置中。在其他变型中,臂1610可安装在天花板、墙壁、立柱等上的任何合适的位置中。附近的手推车30可提供用于控制机器人外科系统的附加的部件,诸如手持式用户界面装置。作为另外一种选择,如图16B所示,在沉浸式显示器1600'的另一变型中,支撑臂1610'可以将显示器壳体1620'联接至可移动物品诸如手推车30,可移动物品可允许在不同的手术室之间运输沉浸式显示器。在一些变型中,沉浸式显示器1600'可结合站立式或台上式用户控制台诸如图16B中描绘的来使用,其中用户可在站立或坐在独立于沉浸式显示器1600'的椅子上时与开放的显示器1634、手持式用户界面装置1620和用脚操作的控件1638交互,并且在需要时选择性地与沉浸式显示器接合。作为另一示例,支撑臂可安装在桌上或安装在可针对坐在独立的椅子(例如,凳子或办公椅)上的用户定位的另一悬臂上,诸如为了用于在手术室或其他房间中,和/或出于在办公室环境中训练目的。此外,可将支撑臂从此类固定结构中的任一者上拆下,以便在不同设置中进行交换(例如,在安装在椅子上的沉浸式显示器、安装在天花板上的沉浸式显示器、安装在墙壁上的沉浸式显示器、头戴式显示器等之间进行转变)。
在另外的其他变型中,应当理解,支撑臂可被省略,并且显示器壳体可以任何合适方式进行安装,诸如直接地放置在台或其他控制台系统上,或者被构造为头戴式的(例如,是头盔的部分或包括头带等)。例如,许多本文所述概念(例如,头部姿态辨认、在壳体中的可移动或感压的支撑垫、眼睛跟踪等)可以在没有支撑臂结构的情况下在固定的双目式显示器中使用。
壳体
如图2A和图2B所示,壳体220经由面架222提供接口,以便与用户的面部接合,其中壳体220至少部分地包封和保护目镜组件和其他显示部件。例如,如图2B的部分分解图最佳地示出,壳体220可以是包括接收至少左侧目镜组件230L和右侧目镜组件230R的内部容积的容器。壳体220可由通过制造方法(例如注塑成型、机械加工、3D打印等)的任何合适组合形成到容器中的相对轻质材料(例如,塑料)制成。壳体220可以是整体件,或可以是组装件的组合,诸如用紧固件、环氧树脂等联接在一起以形成容器的壳体壳。
在一些变型中,如图2B最佳地示出,壳体220可包括开口或排气口246以便于冷却壳体220的内部容积。例如,可存在设置在壳体内的一个或多个风扇244,一个或多个风扇被构造成能够将壳体中的空气流引向排气口246而离开壳体220。以此方式,风扇和排气口可产生负压以将空气从用户的面部拉离并拉向排气口246,从而将用户的面部维持于舒适的温度,并有助于为壳体内的部件维持合适的温度环境。
如图2A和图2B所示,壳体220可包括或联接到面架222或眼罩。面架222可以被构造成能够在壳体220与用户的面部之间提供舒适、符合人类工程学的界面。面架222可以被构形为适于接收人脸(例如,大体上凹陷的),并且包括窗口226(例如,对可见光打开或透明的)以使用户视线无阻碍地进入目镜组件。面架222可包括切口或其他开口228以为用户的鼻部和/或嘴部提供间隙。在一些变型中,面架222可以被构造成能够大体上包围该用户的眼睛区域。
另外,面架222可以被构造成能够为使用户的面部(和用户的眼睛)始终地定位在距目镜组件光学器件的正确或理想的距离处以得到适当地聚焦的图像等提供参考导引。例如,面架222的尺寸可被选择,以便在用户的面部与面架222接合时将该用户的眼睛放置在远离目镜组件的预定距离处。预定距离可以是粗调(例如,在目镜组件位置可略微地重新定位以提供对深度的细调时),和/或经定制为与用户相适以适应个人面部形状(例如,大眉骨或颧骨、相对平的面部等)。
在一些变型中,面架222可包括贴合或顺应材料以实现增加的舒适度和/或人类工程学。例如,面架222可包括在面架的患者交接侧上的衬垫(诸如垫子)、泡沫(例如,形状记忆泡沫)、可充气结构等,和/或其他顺应材料,诸如将面架222联接到壳体220的其余部分的橡胶垫圈或弹簧。因此,在面架222中(和/或在面架222与壳体220之间)的整体的顺应性可以允许用户进行微小位置调整而不使他或她的面部与壳体脱离。例如,用户可略微地调整他或她的姿势而不中断工作流程。此类微小调整可改善用户在3D显示中的沉浸式体验并改善人类工程学。
除此之外或作为另外一种选择,面架222可包括用于贴合或适应用户的面部的形状的其他机构。例如,面架222的患者交接侧可包括多个元件(例如,软质尖销),其响应于来自该用户的面部的表面的压力而可单独地轴向移动。作为另一示例,面架22的患者交接侧可包括围绕面架的周边的手风琴状结构,其响应于来自该用户的面部的表面的压力而塌缩。与用户的面部的初始贴合构型(例如,在沉浸式显示器的设置阶段期间)可以提供参考状态,使得贴合机构相对于参考状态的任何改变可以被解释为用户交互(例如,头部手势,如在下文进一步描述的)。与用户的面部的贴合可以允许相对细微的面部表情或其他提示的检测和识别,这可被解释为用于系统的控制的用户交互。作为另外一种选择,在一些变型中,面架222与用户的面部之间的距离可结合有预定量的间隙,以便适应用于由光学传感器等检测到的头部姿态的可跟踪的工作空间。
在一个变型中,如图5所示,沉浸式显示器500可包括第一壳体部分520a和第二壳体520b,第一壳体部分和第二壳体可相对于彼此移动,诸如通过滑动或嵌套接合(例如与轴承的嵌套接合)而移动。例如,第一壳体部分520a可包括外壳,外壳被构造成能够用间隙接收第二壳体部分520b的一部分,使得第二壳体部分520b可自由地从边到边侧向移动和/或相对于第一壳体部分520a而前后移动。这种相对移动可能因一个或多个弹簧521和/或其他合适顺应机构而是顺应的。支撑臂520可附接到第一壳体部分520a(例如,附接到第一壳体部分520a的后部或侧面上),而面架522则可附接到第二壳体部分520b。在其他变型中,在沉浸式显示器中可包括额外的嵌套或伸缩的壳体部分。因此,第一壳体部分与第二壳体部分之间的相对移动的整体的顺应性可以允许用户进行微小位置调整而不使他或她的面部与壳体脱离。例如,用户可略微地调整他或她的姿势而不中断工作流程。此类微小调整可改善用户在3D显示中的沉浸式体验。此外,由于姿态调整在对系统的延长、长期使用中对于减少用户和应变是关键的,因此可相对于彼此可动地顺应的多个壳体部分可有助于改善沉浸式显示器500的人类工程学特性。第一壳体部分和第二壳体部分(和/或支撑臂)的运动学可以被构造成能够使得沉浸式显示器的旋转的远程中心大体上重合于被估计或预测为用户的颈部的点。这可例如在用户移动他或她的头部时允许支撑臂和显示器的自然调整,以便进一步改善人类工程学减压。
在一些变型中,面架222可从壳体220移除,诸如用于消毒(例如,用消毒溶液擦拭,在高压灭菌器中的消毒等)和/或允许为不同面架222定制的不同面部形状类型的更换。面部222可以例如用紧固件(例如,螺杆、粘合剂等)可移除地联接到壳体。除此之外或作为另外一种选择,面架222可以是可弃置的,诸如在单次使用或有限次数的使用后。
一个或多个传感器(例如,传感器224)可被包括在面架222上或其附近。例如,可使用至少一个传感器(例如,压力传感器、接近或距离传感器(诸如基于光学IR的传感器)、接触传感器、温度传感器、电容传感器等)来检测用户是否与面架222接合。如在下文进一步描述的,确定接合的用户的存在或不存在可以用作用于限制机器人外科系统的操作的安全锁定或互锁特征的一部分。此外,检测到不存在与沉浸式显示器接合的用户可自动地产生另一开放的显示器(例如,如图1所示的显示器128)用作主要显示器(例如,具有内窥镜照相机视图或其他主要图像内容),而沉浸式显示器则可选地用作次要显示器(具有次要图像内容)。相比之下,检测到存在与沉浸式显示器接合的用户可自动地产生沉浸式显示器用作主要显示器,而另一开放的显示器则可选地用作次要或辅助显示器。除此之外或作为另外一种选择,在面架222上或附近的至少一个传感器可以用于检测用户与沉浸式显示器的接合的任何未对准或非最佳定位,并且触发向用户发信号来进行未对准的自我校正或触发自动调整(例如,通过致动支撑臂直到未对准被校正)。一个或多个接近传感器可除此之外或作为另外一种选择用于提供该用户的面部与面架222的舒适接合,诸如通过在面架222和该用户的面部彼此接近以接合时触发对减弱或减慢的“软着陆”效果的致动。
作为另一示例,传感器中的一个或多个可以用于检测可用于改变系统中的控件、修改沉浸式显示器内容、调整壳体或支撑臂构型等的用户交互(例如,头部姿态)。例如,此类传感器可包括压力传感器、电容传感器、光学传感器等,其中信号的变化可以指示用户的头部的运动。例如,当用户将他或她的头部向右移动时,此运动一般造成在面架222的右侧上的压力增加并且在面架222的左侧上的压力减小。检测到这些压力变化的传感器可以用于确定头部姿态朝右。作为另一示例,接触传感器可以检测在一个或多个垫的表面或其他表面上可用于指示头部转向姿态的剪切力。可以使用任何数量的合适的传感器并且将其放置在沉浸式显示器上、沿着沉浸式显示器或沉浸式显示器内的任何合适的位置处。
在一些变型中,如图15A和图15B所示,一个或多个传感器1532可作为另外一种选择或除此之外(例如,为了冗余)被包括在用户的头部后面的头靠1530中以经由头部姿态来检测用户交互。例如,沉浸式显示器的壳体1520可包括大体上布置在壳体1520的左侧、中心附近和/或右侧的一个或多个传感器1522,和/或头靠1530可包括大体上布置在头靠1530的左侧、中心附近和/或右侧的一个或多个传感器1532,但是分布式传感器的其他合适的布置也可被包括在沉浸式显示器和/或头靠中。来自这些头靠传感器1532的信息可与来自沉浸式显示传感器1522的信息进行比较或组合以推导用户意图。例如,用户的头部姿态和其他头部移动可以使头部背面向头靠1530中的传感器1532提供输入,该输入与向壳体1520上的传感器1522的输入互补(例如,当用户向右移动他/她的头部时,此运动一般造成在壳体的右侧和头靠的右侧两者上的压力增加),这可能会使得传感器冗余。作为另一示例,缺乏感测到的对头靠的压力和感测到的对沉浸式显示器的压力的组合可以指示第一用户意图(例如,姿势调整),而感测到的对头靠的压力和感测到的对沉浸式显示器的压力的组合则可以指示与第一用户意图不同的第二用户意图。
作为又一示例,在面架222上(或在联接到壳体或沉浸式显示器的其他部件的其他位置处)的一个或多个传感器可包括一个或多个生物测量传感器以用于监视用户参数。例如,沉浸式显示器可包括用于测量心脏活动的一个或多个EKG传感器、温度传感器、心率传感器、血压传感器、用于测量脑波的EEG传感器(例如,放置在用户的太阳穴上)、汗液传感器、其他应力传感器等。在利用沉浸式显示器时对用户的这种生物测量监视对于监视该用户的压力水平、收集数据以用于研究或训练目的等是有用的。此生物测量数据可以存储在任何合适的存储器或存储装置诸如位于沉浸式显示器(例如,壳体)中的本地存储装置、用户控制台的其他部分、机器人外科系统的其他部件(例如,在手推车、台或控制单元上的中央单元)中。存储装置的其他示例包括便携式闪速存储器(例如,USB驱动器)、远程计算机或服务器、云存储装置等。
如图5和图6所示,壳体的其他变型可包括一个或多个手柄以用于操纵(例如,重新定位)沉浸式显示器。例如,至少一个手柄524(图5)或624(图6)可被包括在壳体520或620的一侧上(例如,以便于粗略定位模式,在该模式下,执行大的位置调整,诸如在壳体和/或支撑臂中实现大量自由度、对运动没有限制或限制相对较少),和/或在位于壳体620的一侧上的至少一个手柄626上,如图6中的沉浸式显示器600所示(例如,以便于精细定位模式,在该模式下,执行小的或微小的位置调整,诸如在壳体和/或支撑臂中实现较少的自由度、对运动的限制大于粗略定位模式)。手柄的其他合适位置还包括壳体620的顶部或底部外表面。在一些变型中,一些手柄可位于壳体两侧以允许左右两手使用(例如,左侧手柄626和右侧手柄626)。手柄的一些或全部可包括如图6所示的把手或杆和/或如图5所示的旋钮,但是在其他变型中,手柄可包括环、杠杆和其他适合于抓握的形状。另外,手柄中的至少一些可包括纹理特征(诸如手指沟槽、棱纹或隆起)以改善握持。如在下文更详细地描述的,手柄中的至少一些可包括传感器(例如,压力传感器、电容传感器等)以用于提供用于与沉浸式显示器的用户交互的附加输入和/或用于收集生物测量数据(例如,心率)。
如图7所示,在沉浸式显示器700的一些变型中,壳体720可包括联接到壳体的至少一个遮罩(例如,侧面遮罩732、下部遮罩734),至少一个遮罩被构造成能够帮助阻挡(来自壳体外的)环境光进入用户视场和/或帮助减少对用户的视觉干扰,从而改善用户在通过沉浸式显示器观看时的沉浸式体验。然而,在一些情况下,用户可能希望移除或重新定位遮罩以查看他或她的视场被遮挡的部分和/或与该部分交互。例如,用户可能希望查看他或她在沉浸式环境外的手(例如,用于定位或抓握手持式用户界面装置)或脚(例如,用于定位踏板或其他用脚操作的控件)。为了适应此类情况,遮罩可以是能够在第一位置与第二位置之间移动的,在第一位置中,遮罩被构造成能够阻挡用户的视场的至少一部分,在第二位置中,遮罩被构造成能够显露所述用户的所述视场的所述部分。因此,壳体可配备有一个或多个合适的致动器以用于使遮罩在第一位置与第二位置之间移动。遮罩致动器可基于眼睛跟踪传感器、头部姿态、向用户装置诸如手持式用户界面装置或用脚操作的用户界面装置的输入、声音命令等来触发。
例如,如图7所示,壳体720可包括设置在壳体的一侧上的至少一个侧面遮罩732。当侧面遮罩732接合在第一位置(由图7中的实线轮廓指示)中时,侧面遮罩732可以被构造成能够阻挡用户的视场的侧向周边部分。侧面遮罩732可以被致动以侧向向外摆动或枢转到第二位置(由图7中的虚线指示),从而显露用户的视场的先前被遮挡的侧向周边部分。在其他变型中,侧面遮罩732可围绕上部水平轴线向上摆动或围绕下部水平轴线向下摆动,而不是朝第二位置侧向向外摆动。在又一变型中,侧面遮罩732可沿着壳体的一侧(例如,沿着壳体720的侧壁或在壳体720的侧壁中的狭槽内)回缩或塌缩以转变到第二位置。
作为另一示例,壳体720可包括设置在壳体的下部部分上的至少一个下部遮罩734。当下部遮罩734接合在第一位置(由图7中的实线轮廓指示)中时,下部遮罩734可以被构造成能够阻挡用户的视场的下部周边部分。下部遮罩734可以被致动以向下摆动或枢转到第二位置(由图7中的虚线指示),从而显露用户的视场的先前被遮挡的下部周边部分。在其他变型中,下部遮罩734可沿着壳体的下部部分(例如,沿着壳体720的下部壁或在沿着壳体720的下部壁的狭槽内)回缩或塌缩以转变到第二位置。类似地,用于沉浸式显示器的壳体可包括设置在壳体的任何合适的部分中和/或周围的遮罩。虽然图7中描绘的遮罩一般是襟翼状的,但是其他类型的遮罩也是可能的,诸如手风琴状、可塌缩的织物护罩。
对一个或多个遮罩的致动可作为用户交互的结果进行。例如,执行眼睛跟踪的传感器可以检测用户目光(例如,在至少预定的时间段内和/或在朝遮罩的特定方向上)并且在此后触发遮罩中的一个或多个朝第二位置的致动以显露先前被遮挡的视图。例如,一个或多个传感器可检测到用户何时向下朝被下部遮罩734阻挡的区域看,并且触发下部遮罩734朝第二位置的致动。作为另一示例,在面架的一侧上的压力传感器或力传感器可检测到用户何时使他或她的头部朝侧面遮罩732压靠在面架的一侧上,并且触发侧面遮罩732朝第二位置的致动。因此,各种传感器可以允许用户查看他或她在沉浸式环境外的真实环境,而不需要脱离沉浸式显示器。除此之外或作为另外一种选择,可手动使一个或多个遮罩在第一位置和第二位置之间移动。此外,可以将一个或多个遮罩朝第一位置或第二位置偏置(例如,除非偏置力被手动或致动力克服,否则遮罩可能阻挡用户的视场的一部分),诸如用弹簧或其他合适的偏置机构(未示出)进行偏置。
如图7所示,壳体720的一个变型可包括一个或多个照相机,诸如位于壳体的与目镜组件730相对的一侧上的面向外照相机722。面向外照相机可对周围真实环境进行成像并且提供那些图像或视频供给以在沉浸式显示器上向用户显示,使得用户可以在需要时查看周围真实环境的至少一部分(例如,在模仿透过透明或可透视的壳体进行查看的“虚拟窗口”模式下),而不脱离沉浸式显示器。面向外照相机722可以被构造成能够根据其位置而提供不同视频供给。例如,如图7所示,面向外照相机722位于壳体720的前表面上,并且因此被构造成能够向用户提供关于在壳体720的前表面的正前方的真实环境的情景认知。作为另一示例,一个或多个面向外照相机可以位于壳体720的一侧上,以便向用户提供关于与壳体720的侧面直接相邻的真实环境的情景认知。此类周边图像可有助于向用户提供对他或她的真实环境的可扩展的视场。在一些变型中,用户可通过由传感器检测到的用户交互来选择性地在由面向外照相机722提供的透视视图的显示和对沉浸式环境的其他显示(例如,内窥镜照相机视图)之间切换。例如,如果用户希望在视觉上定位位于他或她的脚附近的用脚操作的控件,那么用户可以选择“虚拟窗口”模式并且使他或她的面部向下(当与壳体720接合时)朝用脚操作的控件以经由由面前向照相机722提供的视频供给而“看到”用脚操作的控件。
如图8所示,在一些变型中,在沉浸式显示器800中,壳体820可包括一个或多个触觉致动器840,一个或多个触觉致动器被构造成能够向用户提供触觉反馈。例如,触觉致动器可包括至少一个振动装置(例如,振动电机、压电致动器、谐振器等)。触觉致动器840可以被单独地或共同地激活,以便将信息传送给用户。例如,触觉致动器840可以传送与在开放的显示器或沉浸式显示器上显示的图形用户界面有关的信息(例如,警告、警报、对菜单项的选择的确认等)。作为另一示例,触觉致动器840可以提供与沉浸式显示器的构型有关的触觉反馈(例如,振动以给出对机械止动器的感觉和/或用于使支撑臂和/或壳体取向或定位的可变阻力),触觉反馈可例如用于用沉浸式显示器帮助将用户引导到更符合人类工程学的设置和/或在查看沉浸式显示器时将用户引导到最佳相对头臂/手构型以实现手眼协调(如在下文进一步描述的)。
在一些变型中,多个触觉致动器840可以分布方式围绕壳体820布置并且可以提供与来自机器人外科系统的其他部件的状态有关的方向指示。例如,提供用户对机器人外科系统的控制的手持式用户界面装置可以具有有限的工作空间,在该有限的工作空间内,可以在空间中跟踪该手持式用户界面装置的移动并将其转变为对机器人外科系统的命令。当手持式用户界面装置正在接近或已经到达其可跟踪的工作空间的边界时,一个或多个触觉致动器840可作为定向警报或警告(用户界面装置的操纵可能将不久或现在为不可跟踪的)而激活(例如,在接近可跟踪的工作空间的左侧边界时,在壳体上的对应左侧触觉致动器840可以激活)。作为另一示例,在机器人臂因用户在与沉浸式显示器接合时的动作而进行操纵时,机器人臂可接近或达到其物理运动范围的极限。在此类情况下,一个或多个触觉致动器840可作为定向警报或警告而激活,以向用户指示对机器人臂的运动的当前命令处于达到其物理运动极限的危险中。作为另一示例,在使用期间,机器人臂可能变得有与另一物体诸如另一机器人臂、患者台、在附近的外科助手等碰撞或对其造成物理干扰的风险。类似于上述示例,一个或多个触觉致动器840可作为定向警报或警告而激活,以向用户指示机器人臂有碰撞的风险。
在一些变型中,壳体可包括一个或多个音频装置。例如,如图9所示,沉浸式显示器900可包括壳体920,壳体包括至少一个麦克风952。麦克风952可位于例如壳体的一部分上,定位于用户的嘴部附近(例如,在壳体的下侧,如图9所示),但是在壳体上的其他位置也可以是合适的。在其他变型中,单独的麦克风(例如,夹式麦克风)可以插入位于壳体或支撑臂上的端口中。麦克风952可以用于与其他人诸如外科手术中涉及的外科手术工作人员之类通信和/或允许进行语音记录(例如,与外科手术工作人员的通信、对注意事项诸如医疗记录的口述等)。除此之外或作为另外一种选择,麦克风952可以接收用于机器人外科系统的语音控制的声音命令(例如,口头命令或噪声,诸如卡嗒声、喘气声、喘息声等)、显示器的交互内容等。例如,语音控制可用于在GUI中的应用程序或任务之间切换或控制在GUI上的应用程序中的特定特征诸如选择音乐、切换GUI的视图或屏幕等。此外,麦克风952可被联接到外部语音控制装置(例如,个人手机等)以允许对外部语音控制装置的免提操作。这些上述声音命令中的一些或全部可以是伴随于类似于离合器来操作的另一用户输入(例如,脚踏或其他用脚操作的控件的致动)而出现的。作为另外一种选择,可在没有同时用户输入离合器的情况下执行这些声音命令的一些或全部。
作为另一示例,如图10所示,沉浸式显示器1000可包括壳体1020,壳体包括至少一个扬声器1050。一个或多个扬声器1050可以位于例如面架1022的至少一侧上并且被构造成能够当用户与壳体1020接合时朝用户的耳朵定向投射声音。例如,在该壳体的左右两侧的扬声器1050可提供立体声。然而,在壳体上的其他位置也可以是合适的(例如,顶部、底部)。扬声器1050可以被构造成能够向用户提供附加信息,诸如伴随于所显示的视频内容的声音、噪声、与图形用户界面相关联的声音效果(例如,指示选择在图形用户界面中的项的点击或音调、警报或警告等)和/或用于获得经增强的、更丰富的体验的声音增强触觉致动器动作。扬声器1050还可用于接收与其他人诸如外科手术工作人员的通信(例如,结合上述的麦克风952,扬声器1050可促成双向通信)或在被连接到电话装置时用于进行电话呼叫。作为另一示例,一个或多个扬声器1050可以被构造成能够向用户发出白噪声或主动噪声消除。此外,扬声器1050可被联接到一个或多个外部音频装置(例如,收音机、个人音乐播放器装置等)。
在一些变型中,沉浸式显示器1100包括具有一个或多个辅助显示器的壳体1120,一个或多个辅助显示器独立于由目镜组件提供的3D显示而定位。此类显示器可以显示例如在外科手术期间可用于参考的补充内容(训练视频、术前医疗图像诸如CT或MRI扫描等)。在其他模式中,显示器可除此之外或作为另外一种选择显示主要内容(诸如内窥镜照相机视频供给、图形用户界面信息等)。例如,壳体可包括与目镜组件相邻定位的一个或多个侧面显示器1140,使得用户可以在他或她的侧向周边视野中(或通过往侧面瞥)查看侧面显示器1140上的内容。作为另一示例,壳体可包括位于壳体1120的外顶部表面上的一个或多个顶部显示器1130,使得用户可以在他或她的上部周边视野中(或通过往上面瞥)查看顶部显示器1140上的内容。辅助显示器可以在可见位置与隐藏或存储位置之间致动,其类似于在上文参考图7描述的遮罩。例如,侧面显示器1140可以被构造成能够根据用户是否希望查看在显示器上的内容而侧向向内和向外摆动。类似地,顶部显示器1130可以被构造成能够围绕枢轴向上翻转和向下翻转,或根据需要滑入和滑出凹坑或狭槽。
如图12所示,在又其他变型中,沉浸式显示器1200可包括具有一个或多个跟踪装置的壳体1220以监视壳体1220在空间中的位置。跟踪装置可包括例如电磁发射器、与过顶或附近的光学传感器结合地使用的光学基准标记(例如,光学跟踪球1232)、惯性测量单元等。除此之外或作为另外一种选择,联接到壳体1220的支撑臂可包括在支撑臂上的关节或位置编码器、电位计等以用于跟踪壳体。跟踪壳体1220的位置可以允许沉浸式显示器内容基于位置自动改变。例如,在用跟踪装置检测到壳体1220已经从与用户的面部接合的状态移动到脱离并推离到该用户的一侧的状态后,沉浸式显示器可以从主要显示器(例如,手术部位和外科工具的内窥镜照相机视图)转变到次要显示器(例如,参考图像等)。作为另一示例,在用跟踪装置检测到壳体1220被移动到不可被坐着的用户访问的位置和/或与打开的显示监视器相邻的位置后,沉浸式显示器可转变到与开放的显示器或其他显示单元协作的双控制台显示器。作为又一示例,在用跟踪装置检测到壳体1220被移动到远离于侧面(例如,存储位置)的极限位置或转向为背对用户的位置后,沉浸式显示器可自动地关闭或恢复到空闲或待机状态。
跟踪装置信息也可帮助进行人类工程学优化和用户与沉浸式显示器的对准以实现延长使用和舒适度。例如,跟踪装置1220可以在某些情况下指示壳体略微不平或与用户的眼睛和/或手略微未对准,并且可作为响应而自动地触发经由支撑臂的微小位置调整来校正相对于用户的壳体位置(例如,使壳体与用户的眼睛齐平、进行校正以使用户具有正确的视线来查看沉浸式显示器等)。
在一些变型中,壳体和/或支撑臂可以被构造成能够保持壳体和目镜组件大体上齐平且与用户对准,即使无意中的微小运动(诸如由路过的人引起的振动等)也不造成影响。因此,壳体或沉浸式显示器的其他合适的部分可包括加速度计或其他合适的传感器以用于检测壳体和/或支撑臂的与像差相关联的移动而不是有意的用户交互。响应于检测到此类微小运动,支撑臂中的一个或多个致动器可作为主动悬架的一部分而激活以补偿微小振动并且保持显示器是相对稳定的且与用户对准。
在另一变型中,如图13所示,沉浸式显示器可包括壳体1320,壳体具有用于将一个或多个参考指示符投射在工作空间上的至少一个面向外照明器1322。照明器1322可包括例如激光器、LED、其他灯等。例如,照明器1322可投射网格、图标或其他参考以突出显示用户的手持式用户界面装置相对于沉浸式显示器中的目镜的最佳位置(例如,以最佳地匹配内窥镜照相机-外科器械关系,如在下文进一步描述的)。作为另一示例,向外的照明可除此之外或作为另外一种选择用于改善系统的特定目标或其他部件(诸如对接或放下手持式用户界面装置的预设位置、踏板组件或其他用脚操作的控件的位置等)的可见性。此改善的可见性可涉及例如图形图标的被照亮的投影或突出显示或作为目标的部件的轮廓,并且可有用于诸如在用户与沉浸式显示器接合但能够查看在他们的周边视野中被照亮的投影时的情况(例如,关于图7描述的遮罩不遮挡用户的视场),这有助于用户定位作为目标的部件。
目镜和显示器
如图2B所示,包括左侧目镜组件230L和右侧目镜组件230R的至少两个目镜组件可以设置在壳体220内并且以双目镜的形式布置。每个目镜组件包括LCD和/或LED面板显示器、光学器件(例如,透镜、反射镜等)和电子器件。例如,在一些变型中,目镜组件可类似于可商购用于包括虚拟和增强现实环境(例如,用于军事和/或游戏目的)的应用的任何合适的目镜组件,并且是本领域的普通技术人员熟悉的。总体而言,目镜组件被构造成能够向用户提供3D显示(例如,立体)。3D显示还可被构造成能够显示2D内容。一个或多个致动器可以集成到至少一个目镜组件中或联接到至少一个目镜组件,诸如用于调整目镜组件之间的相对位置(例如,用于调整瞳孔间距离)和/或在壳体内的深度(例如,用于调整距该用户的眼睛的距离)等。与目镜组件和壳体中的其他部件相关联的其他电子器件可以涉及控制和管理通向显示器的图像信号和通向各种部件的电源。在一些变型中,电子器件可包括用于向沉浸式显示器的电子部件供电的一个或多个无线电池或其他电源,但是除此之外或作为另外一种选择,沉浸式显示器可被联接到有线主电源或备用电源。
在一些变型中,一系列的多个透镜可除此之外或作为另外一种选择被包括在壳体中并且被构造成能够提供连续跨越宽视觉帧的弯曲或全景图像。作为另外一种选择,该系列的多个透镜也可被构造成能够两个或更多个分开的分屏,其跨可用的视觉帧显示离散内容。此外,透镜或其他校正机构可选择性地结合目镜组件而提供以提供视力校正(例如,针对近视、远视、散光等)。
一般来讲,目镜组件可以被构造成能够在用户与沉浸式显示器接合时向用户显示一系列的信息,包括但不限于3D信息、视频、静态图像、GUI、交互控件等。目镜组件230可以用作与机器人外科系统有关的其他显示器的补充显示器,其他显示器诸如开放的显示器(例如,如图1B所示的显示器128)、在沉浸式显示器上的辅助显示器(例如,如图11所示的侧面和/或顶部显示器1140和1130)、和任何其他辅助显示器(例如,联接到用户控制台中的座位的开放显示器等)。因此,这些显示器中的一个或多个可以被指定为用于主要观看的主要显示器。主要显示器的示例是GUI诸如图17中所示的。例如,GUI可以显示内窥镜图像数据1700(例如,来自放置在患者体内的内窥镜照相机)和/或患者数据1710(例如,姓名、医疗记录编号、出生日期、各种合适的注意事项等)。主要显示器还可包括控制面板1712和一个或多个医学图像1714(例如,患者组织的术前图像)。控制面板1712可包括信息诸如左侧工具编号、左侧工具名称、左侧工具功能等。可针对右工具臂而供应类似的信息。然而,其他合适GUI或其他显示内容可以出现在主要显示器上。此外,显示器中的一个或多个可以被指定为用于提供补充内容(例如,参考图像或视频)的次要显示器。如在下文进一步描述的,各种用户交互可以使显示器将其指定状态改变为主要显示器、次要显示器(或其他合适的显示器分类)、以及因此它们显示的内容类型。
壳体可包括眼睛跟踪传感器或照相机(例如,设置在图2A和图2B中所示的目镜组件230中或附近),眼睛跟踪传感器或照相机可用于检测用户的目光,用户的目光可供安全锁定或互锁特征用来限制机器人外科系统的操作(例如,利用虹膜代码检测,如在下文进一步描述的),用于改变系统中的控件,用于修改沉浸式显示器内容,用于被解释为用于在显示器中的一者上的GUI的导航的用户输入,用于被解释为用来估计沉浸式显示器和/或机器人外科系统的使用的另一合适度量等。除此之外或作为另外一种选择,眼睛跟踪或瞳孔感测可以用于基于检测到的在用户瞳孔之间的距离来自动地调整在两个目镜之间的瞳孔距离(IPD),如在下文进一步描述的。在一些变型中,眼睛跟踪也可用来监视该用户的疲劳水平,诸如在机器人外科系统的延长使用期间。
应当理解,虽然在上文讨论了沉浸式显示器中的传感器类型、传感器位置和传感器功能的一些特定示例,但是各种的其他传感器和传感器器类型可除此之外或作为另外一种选择定位在沉浸式显示器的各种部件(例如,支撑臂、壳体)上,以便捕获关于用户的信息和/或用于接收用户输入作为交互用户控件。例如,沉浸式显示器系统可包括各种传感器和其他部件供使用,如在下文进一步描述的。
控制器
沉浸式显示器可包括管控沉浸式显示器的行为的控制系统。例如,控制系统可包括一个或多个控制器1900,一个或多个控制器包括一个或多个处理器(例如,微处理器、微控制器、专用集成电路、现场可编程门阵列和/或其他逻辑电路)。控制器1900可与用户控制台1940的一个或多个其他部件(例如,手持式用户界面装置、用脚操作的用户界面装置、开放的显示器等)通信。控制器1900还可与用于在存储器中存储各个项诸如对用户的生物测量、用户偏好、用户简档等的存储装置1930通信。控制器1900还可与子控制模块诸如支撑臂控制器1910通信,支撑臂控制器被构造成能够控制支撑臂的部件,包括但不限于用于致动支撑臂的各种电机1912、以及各种传感器1914,还有支撑臂的任何其他部件,诸如本文中描述的那些。此外,控制器1900可与壳体控制器1920通信,壳体控制器被构造成能够控制沉浸式显示器的壳体的部件,包括但不限于目镜组件1922、传感器1924、电机1926、和在显示器壳体内的任何其他部件,诸如本文中描述的那些。作为另外一种选择,控制器1900可直接与支撑臂和/或壳体的部件对接,从而省略分别用于支撑臂和壳体的子控制模块1910和1920。
沉浸式显示器的操作
一般来讲,沉浸式显示器可以在若干模式或状态中的一种或多种下操作。在这些模式和/或任何其他模式之间的转变可由用户经由与沉浸式显示器的传感器(例如,在支撑臂和/或壳体中)的交互、以及除此之外或作为另外一种选择与用户控制台中与沉浸式显示器相关联的其他补充传感器的交互进行指引。因此,在各种模式之间的切换可例如由状态机/控制器处置。
在设置模式中,当用户与沉浸式显示系统交互时,为用户初始化沉浸式显示器。例如,此模式在用相关联的机器人外科系统执行的外科手术的准备期间或在其开始时可能是合适的。此模式也可适合于如下时刻:在用户无论何时与沉浸式显示器接合时、首次用于特定外科手术和/或在一些变型中在之后选定的中间时间(例如,在沉浸式显示器停用的时间段后)。
在一些变型中,设置模式可通过在沉浸式显示器中实现的安全锁定或互锁特征来表征,使得一个或多个传感器可以允许机器人外科系统的操作。在一个变型中,一个或多个传感器可以被构造成能够识别用户以授权来操作机器人外科系统。例如,这样的传感器可被结合在被构造成能够检测用户的虹膜代码的照相机中,其中控制器将检测到的虹膜代码与存储在与授权的户相关联的数据库中的虹膜代码进行比较,并且如果检测到的虹膜代码对应于与授权的用户相关联的该代码,那么允许机器人外科系统的操作。可除此之外或作为另外一种选择包括适合于检测唯一生物测量参数的其他传感器来识别用户,诸如用于检测热特征图的IR传感器、用于执行语音识别的电子器件等。如果没有表明用户是机器人外科系统的授权的用户,那么如果用户试图操作机器人外科系统,沉浸式显示器和/或用户控制台的其他部件可以保持断电、空闲或以其他方式不作出响应。此外,在经由虹膜代码检测和识别来识别用户时,控制器可以加载与用户相关联的预设和/或偏好,诸如用于用户的制台中的座位组件的座位位置调整设置、最喜爱的GUI表示等。
在另一变型中,一个或多个传感器可以被构造成能够确定用户的面部与壳体、目镜组件或沉浸式显示器的其他合适的部分的正确对准或定位。例如,这样的传感器可以是被构造成能够执行眼睛跟踪的光学传感器,其中控制器分析用户的目光以确定该用户的眼睛是否处于相对于眼睛组件的最佳位置。如果确定正确定位(例如,距眼睛组件的距离和/或侧向对准),那么控制器可以允许机器人外科系统的操作。如果没有表明该用户的眼睛正确定位,那么如果用户试图操作机器人外科系统,沉浸式显示器和/或用户控制台的其他部件可以保持断电、空闲或以其他方式不作出响应。除此之外或作为另外一种选择,如果没有正确定位,那么沉浸式显示器可自动地调整(例如,致动支撑臂以使壳体移动某个增量来以补偿未对准)和/或向用户提供指示以调整他或她的相对于沉浸式显示器的位置。其他传感器可除此之外或作为另外一种选择被包括在壳体上或壳体中,其他传感器诸如压力、距离或温度传感器等(例如,在面架的用户交接侧上),其提供了对用户的存在和/或相对于沉浸式显示器的位置的指示。这些其他类型的传感器可例如另外地用于出于安全目的为眼睛跟踪传感器提供冗余。
在一些变型中,设置模式可通过调整在两个目镜组件之间的瞳孔距离(IPD)来表征以适应不同用户间的人体测量范围。控制器可自动地执行这种调整,诸如通过使用眼睛跟踪来确定用户的IPD并将目镜组件致动得更靠近或更远离,直到在目镜组件之间的IPD近似匹配。除此之外或作为另外一种选择,IPD调整可以是手动的,诸如用由旋钮或电子开关控制的齿轮布置来进行。在一个变型中,针对特定用户的IPD距离可以存储在存储器中并且与数据库中的用户简档相关联,作为用户的设置和偏好的一部分,使得在随后时间上,当用户被识别或作为沉浸式显示器的用户登录时,控制器可以检索该用户的简档并自动地调整在目镜之间的IPD以匹配该用户的IPD。这些用户设置和偏好的一些或全部可除此之外或作为另外一种选择基于应用于用户的虹膜代码识别来确定。
在又其他变型中,设置模式可通过根据存储在该用户的简档中的用户的设置和偏好调整其他沉浸式显示器设置来表征。例如,在识别用户并从所存储的用户简档的数据库检索该用户的简档后,控制器可以将支撑臂调整为优选构型(例如,相对于用户的左支撑臂或右支撑臂构型、支撑臂和壳体的位置等)。
在沉浸式显示器针对用户进行设置之后,沉浸式显示器向用户呈现与机器人外科系统有关的信息。另外,至少一个传感器(例如,跟随用户的目光的眼睛跟踪传感器和/或包括在壳体中的压力传感器或其他传感器等)可以被构造成能够检测用户的头部姿态,并且控制器可解释该用户的头部姿态并根据对该用户的头部姿态的解释对经解释释的头部姿态作出响应。其他传感器诸如眼睛跟踪传感器可以指示其他用户意图。
在一些变型中,响应于检测到的用户的头部姿态,支撑臂可以被构造成能够移动壳体以跟踪头部姿态,使得当用户在与沉浸式显示器的壳体接合的同时重新定位他自己或她自己的位置时,支撑臂致动壳体以相应的方式移动以保持接合。例如,如果该用户使他或她的座位后倾,或者将他或她的头部向左或向右转动,那么支撑臂可致动壳体来跟随该用户的头部,就像壳体是用带子等来直接联接到该用户的头部那样。这样跟踪头部姿态允许用户调整他或她的姿势而不必与沉浸式显示器脱离,因此用户可以更频繁地调整他或她的姿势,从而改善系统的人类工程学质量。控制器可基于参数诸如运动的量和/或运动速度来区分与姿势调整相关的头部移动和与故意脱离有关的头部姿态(例如,相对重要且快速的头部姿态可以被解释为有意脱离沉浸式显示器)。当控制器确定用户确实希望脱离沉浸式显示器(例如,查看开放的显示器、进行休息等)时,支撑臂可以放弃跟踪头部姿态并允许用户与沉浸式显示器分开。
沉浸式显示器还可使用上述的传感器(例如,压力传感器、距离传感器、接触传感器、开关传感器、眼睛跟踪传感器等)中的任一者来监视意图用于改变系统中的控件、修改该显示器、调整壳体或支撑臂构型、机器人外科系统的其他操作等的头部姿态。例如,用户快速向上抬头可能造成选择将沉浸式显示器中显示的视图改变成来自面向外照相机的视频供给的“虚拟窗口”模式。作为另一示例,用户略微将头部转向左或转向右和/或长时间地注视显示图标可通过在沉浸式显示器或其他显示器上显示的GUI来允许导航(划过GUI屏幕、选择图标等)。作为又一示例,由沉浸式显示器感测的一个或多个用户交互(头部姿态、眼睛跟踪等)的另一组合可以允许在对不同机器人臂的控制之间进行切换,诸如在用于操纵内窥镜照相机的机器人臂和用于在“照相机离合器”模式下操纵外科工具的另一机器人臂之间进行切换。作为又一示例,由沉浸式显示器感测的一个或多个用户交互的另一组合可以用于在使用沉浸式显示器作为作主要显示器和使用开放的显示器(例如,图1B中所示的显示器128)作为主要显示器之间进行切换。
在一些变型中,用户的有意的定向的头部姿态(可选地与通向作为离合器操作的另一传感器或控件的另一同时输入结合,另一同时输入诸如压下脚踏、或保持到具有传感器的手柄上)可能导致修改显示的内窥镜照相机视图。例如,在同时激活离合器时,用户可内倾以命令照相机视图放大,可外倾以命令照相机视图缩小,可向左或向右转动他的头部以命令照相机视图向左或向右平移,或可向前或向后倾斜他的头部以命令照相机视图向前或向后倾斜。以此方式,用户可以在握住两个手持式用户界面装置的同时来同时地操作至少三个器械(例如,由用户的两只手握住的两个手持式用户界面装置控制的两个器械和由该用户的头部姿态控制的照相机器械)。
然而,控制器可以任何合适的方式来解释来自传感器的各种组合的输入以确定用户意图。此外,头部姿态和/或其他感测到的用户交互的各种组合映射到特定控制命令的方式可针对不同用户而定制并作为用户偏好来存储在用户简档中,以便在沉浸式显示器的设置期间加载。
此外,在如图14所示的一些变型中,沉浸式显示器可以被构造成能够提供对维持壳体1420和用户手位置1430的相对空间关系与内窥镜照相机1440和外科器械1450的相对空间关系之间的对应性的指导。当用户与沉浸式显示器接合时,用户可同时地进行以下操作:查看(通过显示的内窥镜照相机视频供给)手术部位和将用于远程可控外科器械的手持式用户界面装置保持在手术部位处。为了使用户维持足够准确的本体感觉(例如,在用户的沉浸式环境与真实手术部位环境之间的基本上准确的空间映射),用户的头部和用户的手的相对位置优选地基本上类似于内窥镜照相机和远程可控手术器械的相对位置。为了提供对维持此对应性的指导,沉浸式显示器可例如向用户显示图形表示或图标,图形表示或图标是针对当前壳体的位置和取向而言用户应当将他或她的手放置的位置。此类图形表示可以叠置在当前显示的图像上,或者可分开地显示(例如,在校准模式下)。除此之外或作为另外一种选择,沉浸式显示器可提供音频提示或触觉提示以在用户的头部和手处于正确关系时进行通知(例如,用于建议重新调整用户的手的音频音调)。在一些变型中,控制器可实现校正调整(例如,调整沉浸式显示器的位置)以帮助维持壳体1420和用户手位置1430的相对空间关系与内窥镜照相机1440和外科器械1450的相对空间关系之间的合适的对应性。此外,可包括使一个或多个沉浸式显示器部件(壳体、支撑臂等)的位置与其他机器人外科系统部件(例如,手持式用户界面装置、用脚操作的控件等)相关的其他运动耦合、偏置和/或反馈算法。此类算法可例如在数学变换中应用最佳手眼协调因子来映射各部件之间的关系。
在一些变型中,沉浸式显示器可以被构造成能够向用户提供一个或多个视觉提示以重新定位相对于目标位置(例如,手持式或用脚操作的用户界面装置的位置)的用户手位置和用户脚位置中的至少一个。出于此类目的,来自沉浸式显示器的音频和/或触觉致动器提示(例如,在面架中用于指示经确认的位置放置的蜂鸣声或振动)可除此之外或作为另外一种选择提供。例如,如图18A所示,沉浸式显示器可以显示相对于目标手位置的一个或多个图形表示1814(例如,气泡或轮廓)的一个或多个手位置的视觉表示(例如,剪影1824),诸如手持式用户界面装置的对接位置或放置位置。作为另一示例,如图18B所示,沉浸式显示器可以显示相对于目标脚位置的一个或多个图形表示1814(例如,气泡或轮廓)的一个或多个脚位置的视觉表示(例如,剪影1822),诸如脚踏位置。用户的手和/或脚位置的视觉表示可例如从得自瞄准用户的手和脚所在的用户工作空间的3D照相机或传感器、IR投影仪、LIDAR等的源数据得到。这些视觉和图形表示可与现有、主要显示图像(例如,照相机视图)叠置。也可使用类似的视觉和图形表示向用户提供视觉提醒以将手持式用户界面装置对接在某个特定指定位置(例如,在用户控制台的部件上,或在沉浸式显示器的臂和/或壳体上的指定的挂钩或对接位置上)。
一个或多个传感器可除此之外或作为另外一种选择被构造成能够检测在座位组件中的用户的胜任力,诸如检查操作外科器械的用户是否充分休息和/或清醒。例如,可使用用于执行眼睛跟踪的光学传感器来预测用户是否睡眠不足或疲劳(例如,基于眼球移动、眨眼速率等)。此外,可包括化学传感器(例如,酒精测试仪)以基于乙醇痕量等来检查是否清醒。此类事件可例如触发至少可听/可见警报或其他警告和/或对控件的停用,以便保护在进行外科手术的患者。
在一些变型中,沉浸式显示器被定位时可在粗略定位模式和/或精细定位模式下操作。在粗略定位模式中,支撑臂和/或壳体可以相对大量的自由度移动(例如,没有限制,使得所有支撑臂关节自由移动,或者对运动的限制很少,例如仅预防倾斜)。相比之下,在精细定位模式中,支撑臂和/或壳体可以比粗略定位模式中的自由度数目相对小的自由度数目移动。例如,精细定位可以允许支撑臂关节的仅一部分自由移动(例如,用于斜度和/或高度调整)。
应当理解,虽然本文中特别参考控制机器人外科系统来描述沉浸式显示器,但是沉浸式显示器的特征(例如,人类工程学重新定位)也与其他应用有关。例如,支撑臂可结合虚拟现实耳机而使用,诸如用于在虚拟现实环境上的游戏和/或工程开发。另外,为了帮助减少用户对其他头戴式显示器(诸如出于军事目的)的疲劳,本文所述的支撑臂可用于通过重力平衡或类似的重量补偿来帮助卸载和支撑头戴式显示器的重量,同时维持“浮动”构型并且允许头戴式显示器自由移动。更进一步,如本文所述的沉浸式显示器壳体可以是可拆卸的(或支撑臂被省略),以便使用壳体作为头戴式显示器。
出于解释目的,前述描述使用特定术语来提供对本发明的透彻理解。然而,对本领域的技术人员将显而易见的是,无需特定细节来实践本发明。因此,对本发明的特定实施方案的前述描述是出于说明和描述的目的而呈现。它们不旨在是穷尽性的或将本发明限制于公开的精确的形式;显然,鉴于上述教导内容,许多修改和变型是可能的。实施方案经选择和描述,以便最佳地解释本发明的原理及其实际应用,并且它们由此使得本领域的其他技术人员能够最佳地利用本发明和具有适合于预期的特定的用途的各种修改的各种实施方案。
Claims (20)
1.一种用于机器人外科系统中的沉浸式显示器,包括:
支撑臂;
壳体,所述壳体被安装到所述支撑臂并且被构造成能够与用户的面部接合;
至少两个目镜组件,所述至少两个目镜组件设置在所述壳体中并且被构造成能够提供三维显示;以及
至少一个传感器,其中所述传感器允许所述机器人外科系统的操作;
其中所述支撑臂能够致动以移动所述壳体用于人类工程学定位。
2.根据权利要求1所述的沉浸式显示器,其中所述支撑臂是铰接的并且包括多个关节。
3.根据权利要求1所述的沉浸式显示器,还包括至少一个遮罩,所述至少一个遮罩被联接到所述壳体,其中所述遮罩能够在第一位置与第二位置之间移动,在所述第一位置中,所述遮罩被构造成能够遮挡所述用户的视场的至少一部分,并且在所述第二位置中,所述遮罩被构造成能够显露所述用户的所述视场的所述部分。
4.根据权利要求1所述的沉浸式显示器,其中所述壳体被联接到构形面架,所述构形面架被构造成能够与所述用户的所述面部接合。
5.根据权利要求4所述的沉浸式显示器,其中所述支撑臂被联接到所述壳体的第一部分并且所述面架被联接到所述壳体的第二部分,所述壳体的所述第二部分能够相对于所述壳体的所述第一部分移动。
6.根据权利要求1所述的沉浸式显示器,还包括至少一个辅助显示器,所述辅助显示器被联接到所述壳体。
7.根据权利要求1所述的沉浸式显示器,其中所述目镜组件中的至少一个目镜组件被构造成能够显示左眼立体图像并且所述目镜组件中的至少一个目镜组件被构造成能够显示右眼立体图像。
8.根据权利要求1所述的沉浸式显示器,其中所述传感器被构造成能够识别所述用户用来授权以操作所述机器人外科系统。
9.根据权利要求1所述的沉浸式显示器,还包括至少一个跟踪装置,所述至少一个跟踪装置被联接到所述壳体以监视所述壳体的位置。
10.根据权利要求1所述的沉浸式显示器,其中所述至少一个传感器被构造成能够检测所述用户的头部姿态。
11.根据权利要求10所述的沉浸式显示器,其中响应于所述用户的检测到的头部姿态,所述支撑臂移动所述壳体以跟踪所述头部姿态。
12.根据权利要求10所述的沉浸式显示器,其中所述传感器被构造成能够监视所述用户的头部姿态以用于所述机器人外科系统的操作。
13.根据权利要求1所述的沉浸式显示器,其中所述三维显示被构造成能够显示来自在所述机器人外科系统中使用的内窥镜照相机的至少一个图像。
14.根据权利要求13所述的沉浸式显示器,其中所述沉浸式显示器被构造成能够为维持所述目镜组件和用户手位置的相对空间关系与所述内窥镜照相机和外科器械的相对空间关系之间的对应性而提供指导。
15.根据权利要求13所述的沉浸式显示器,其中响应于至少一个传感器检测到所述用户的头部姿态,所述三维显示被构造成能够显示来自所述内窥镜照相机的经修改的图像。
16.根据权利要求15所述的沉浸式显示器,其中响应于所述传感器检测到向前头部姿态,所述三维显示被构造成能够显示来自所述内窥镜照相机的放大图像,并且其中响应于所述传感器检测到向后头部姿态,所述三维显示被构造成能够显示来自所述内窥镜照相机的缩小图像。
17.根据权利要求15所述的沉浸式显示器,其中响应于所述传感器检测到侧向头部姿态,所述三维显示被构造成能够显示来自所述内窥镜照相机的平移图像,并且其中响应于所述传感器检测到倾斜头部姿态,所述三维显示被构造成能够显示来自所述内窥镜照相机的倾斜图像。
18.根据权利要求1所述的沉浸式显示器,其中所述三维显示被构造成能够显示图形用户界面并且至少一个传感器被构造成能够检测头部姿态以用于所述图形用户界面的导航。
19.根据权利要求1所述的沉浸式显示器,其中所述三维显示被构造成能够显示相对于至少一个目标位置的用户手位置和用户脚位置中的至少一个的视觉表示。
20.根据权利要求1所述的沉浸式显示器,还包括至少一个外部照相机,所述至少一个外部照相机被联接到所述壳体,其中所述照相机被构造成能够提供所述壳体外部的环境的至少一个图像。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662403655P | 2016-10-03 | 2016-10-03 | |
US62/403655 | 2016-10-03 | ||
PCT/US2017/054995 WO2018067611A1 (en) | 2016-10-03 | 2017-10-03 | Immersive three-dimensional display for robotic surgery |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108289600A true CN108289600A (zh) | 2018-07-17 |
Family
ID=61756866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780003779.4A Pending CN108289600A (zh) | 2016-10-03 | 2017-10-03 | 用于机器人外科手术的沉浸式三维显示器 |
Country Status (9)
Country | Link |
---|---|
US (4) | US10786327B2 (zh) |
EP (1) | EP3518730B1 (zh) |
JP (2) | JP6756040B2 (zh) |
KR (1) | KR102265060B1 (zh) |
CN (1) | CN108289600A (zh) |
AU (2) | AU2017339943B2 (zh) |
BR (1) | BR112019004139B1 (zh) |
CA (1) | CA3035258C (zh) |
WO (1) | WO2018067611A1 (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109498164A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 具有目镜的主操作台及手术机器人 |
CN109498163A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 主操作台及手术机器人 |
CN109806002A (zh) * | 2019-01-14 | 2019-05-28 | 微创(上海)医疗机器人有限公司 | 一种用于手术机器人的成像系统及手术机器人 |
CN110432856A (zh) * | 2019-09-02 | 2019-11-12 | 太原理工大学 | 一种用于检查鼻窦的内窥镜控制系统 |
CN112654913A (zh) * | 2018-09-12 | 2021-04-13 | 苹果公司 | 具有可调节支撑结构的电子设备 |
CN112674881A (zh) * | 2019-03-16 | 2021-04-20 | 韩志勇 | 面向微创手术体表投影轴调整的铰接轴调整方法 |
CN112789005A (zh) * | 2018-10-03 | 2021-05-11 | Cmr外科有限公司 | 自动内窥镜视频增强 |
CN113491575A (zh) * | 2020-04-07 | 2021-10-12 | 史赛克欧洲运营有限公司 | 基于语音命令的外科系统控制 |
CN113631333A (zh) * | 2019-03-22 | 2021-11-09 | 川崎重工业株式会社 | 机器人系统 |
CN113924059A (zh) * | 2019-05-21 | 2022-01-11 | 威博外科公司 | 用于外科机器人系统的无触摸控制的传感器 |
CN114081631A (zh) * | 2021-11-18 | 2022-02-25 | 上海微创医疗机器人(集团)股份有限公司 | 健康监测系统及手术机器人系统 |
Families Citing this family (183)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10866783B2 (en) * | 2011-08-21 | 2020-12-15 | Transenterix Europe S.A.R.L. | Vocally activated surgical control system |
US11871901B2 (en) | 2012-05-20 | 2024-01-16 | Cilag Gmbh International | Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage |
US11504192B2 (en) | 2014-10-30 | 2022-11-22 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US10013808B2 (en) | 2015-02-03 | 2018-07-03 | Globus Medical, Inc. | Surgeon head-mounted display apparatuses |
EP3512449A4 (en) | 2016-09-16 | 2020-05-20 | Verb Surgical Inc. | TABLE ADAPTERS FOR MOUNTING ROBOTIC ARMS ON A SURGICAL TABLE |
US11389360B2 (en) | 2016-09-16 | 2022-07-19 | Verb Surgical Inc. | Linkage mechanisms for mounting robotic arms to a surgical table |
EP3518730B1 (en) | 2016-10-03 | 2024-04-17 | Verb Surgical Inc. | Immersive three-dimensional display for robotic surgery |
US10568701B2 (en) | 2016-12-19 | 2020-02-25 | Ethicon Llc | Robotic surgical system with virtual control panel for tool actuation |
TWI626468B (zh) * | 2017-01-25 | 2018-06-11 | 研能科技股份有限公司 | 頭戴式虛擬實境顯示裝置 |
JP2020507377A (ja) * | 2017-02-15 | 2020-03-12 | コヴィディエン リミテッド パートナーシップ | 医療用ロボット用途の圧砕防止のためのシステムおよび機器 |
EP3592273B1 (en) | 2017-03-10 | 2023-10-04 | Biomet Manufacturing, LLC | Augmented reality supported knee surgery |
JP2018202032A (ja) * | 2017-06-08 | 2018-12-27 | 株式会社メディカロイド | 医療器具の遠隔操作装置 |
EP3700457A4 (en) | 2017-10-23 | 2021-11-17 | Intuitive Surgical Operations, Inc. | SYSTEMS AND METHODS FOR PRESENTATION OF AUGMENTED REALITY ON A DISPLAY OF A TELEOPERATION SYSTEM |
US11564756B2 (en) | 2017-10-30 | 2023-01-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11510741B2 (en) | 2017-10-30 | 2022-11-29 | Cilag Gmbh International | Method for producing a surgical instrument comprising a smart electrical system |
US11413042B2 (en) | 2017-10-30 | 2022-08-16 | Cilag Gmbh International | Clip applier comprising a reciprocating clip advancing member |
US11911045B2 (en) | 2017-10-30 | 2024-02-27 | Cllag GmbH International | Method for operating a powered articulating multi-clip applier |
US11602366B2 (en) | 2017-10-30 | 2023-03-14 | Cilag Gmbh International | Surgical suturing instrument configured to manipulate tissue using mechanical and electrical power |
US11801098B2 (en) | 2017-10-30 | 2023-10-31 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11311342B2 (en) | 2017-10-30 | 2022-04-26 | Cilag Gmbh International | Method for communicating with surgical instrument systems |
US11291510B2 (en) | 2017-10-30 | 2022-04-05 | Cilag Gmbh International | Method of hub communication with surgical instrument systems |
US11229436B2 (en) | 2017-10-30 | 2022-01-25 | Cilag Gmbh International | Surgical system comprising a surgical tool and a surgical hub |
US11317919B2 (en) | 2017-10-30 | 2022-05-03 | Cilag Gmbh International | Clip applier comprising a clip crimping system |
US11071595B2 (en) | 2017-12-14 | 2021-07-27 | Verb Surgical Inc. | Multi-panel graphical user interface for a robotic surgical system |
US11529187B2 (en) | 2017-12-28 | 2022-12-20 | Cilag Gmbh International | Surgical evacuation sensor arrangements |
US10932872B2 (en) | 2017-12-28 | 2021-03-02 | Ethicon Llc | Cloud-based medical analytics for linking of local usage trends with the resource acquisition behaviors of larger data set |
US11304699B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11559308B2 (en) | 2017-12-28 | 2023-01-24 | Cilag Gmbh International | Method for smart energy device infrastructure |
US11857152B2 (en) | 2017-12-28 | 2024-01-02 | Cilag Gmbh International | Surgical hub spatial awareness to determine devices in operating theater |
US11844579B2 (en) | 2017-12-28 | 2023-12-19 | Cilag Gmbh International | Adjustments based on airborne particle properties |
US10892899B2 (en) | 2017-12-28 | 2021-01-12 | Ethicon Llc | Self describing data packets generated at an issuing instrument |
US10943454B2 (en) | 2017-12-28 | 2021-03-09 | Ethicon Llc | Detection and escalation of security responses of surgical instruments to increasing severity threats |
US11304720B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Activation of energy devices |
US11257589B2 (en) | 2017-12-28 | 2022-02-22 | Cilag Gmbh International | Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes |
US11284936B2 (en) | 2017-12-28 | 2022-03-29 | Cilag Gmbh International | Surgical instrument having a flexible electrode |
US11678881B2 (en) | 2017-12-28 | 2023-06-20 | Cilag Gmbh International | Spatial awareness of surgical hubs in operating rooms |
US11364075B2 (en) | 2017-12-28 | 2022-06-21 | Cilag Gmbh International | Radio frequency energy device for delivering combined electrical signals |
US11317937B2 (en) | 2018-03-08 | 2022-05-03 | Cilag Gmbh International | Determining the state of an ultrasonic end effector |
US11051876B2 (en) | 2017-12-28 | 2021-07-06 | Cilag Gmbh International | Surgical evacuation flow paths |
US11304745B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Surgical evacuation sensing and display |
US11389164B2 (en) | 2017-12-28 | 2022-07-19 | Cilag Gmbh International | Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices |
US20190201146A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Safety systems for smart powered surgical stapling |
US11026751B2 (en) | 2017-12-28 | 2021-06-08 | Cilag Gmbh International | Display of alignment of staple cartridge to prior linear staple line |
US11571234B2 (en) | 2017-12-28 | 2023-02-07 | Cilag Gmbh International | Temperature control of ultrasonic end effector and control system therefor |
US10758310B2 (en) | 2017-12-28 | 2020-09-01 | Ethicon Llc | Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices |
US11576677B2 (en) | 2017-12-28 | 2023-02-14 | Cilag Gmbh International | Method of hub communication, processing, display, and cloud analytics |
US11096693B2 (en) | 2017-12-28 | 2021-08-24 | Cilag Gmbh International | Adjustment of staple height of at least one row of staples based on the sensed tissue thickness or force in closing |
US11166772B2 (en) | 2017-12-28 | 2021-11-09 | Cilag Gmbh International | Surgical hub coordination of control and communication of operating room devices |
US11076921B2 (en) | 2017-12-28 | 2021-08-03 | Cilag Gmbh International | Adaptive control program updates for surgical hubs |
US11832840B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical instrument having a flexible circuit |
US11464559B2 (en) | 2017-12-28 | 2022-10-11 | Cilag Gmbh International | Estimating state of ultrasonic end effector and control system therefor |
US11324557B2 (en) | 2017-12-28 | 2022-05-10 | Cilag Gmbh International | Surgical instrument with a sensing array |
US11896443B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Control of a surgical system through a surgical barrier |
US11832899B2 (en) | 2017-12-28 | 2023-12-05 | Cilag Gmbh International | Surgical systems with autonomously adjustable control programs |
US11419667B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Ultrasonic energy device which varies pressure applied by clamp arm to provide threshold control pressure at a cut progression location |
US11864728B2 (en) | 2017-12-28 | 2024-01-09 | Cilag Gmbh International | Characterization of tissue irregularities through the use of mono-chromatic light refractivity |
US11202570B2 (en) | 2017-12-28 | 2021-12-21 | Cilag Gmbh International | Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems |
US10987178B2 (en) | 2017-12-28 | 2021-04-27 | Ethicon Llc | Surgical hub control arrangements |
US11234756B2 (en) | 2017-12-28 | 2022-02-01 | Cilag Gmbh International | Powered surgical tool with predefined adjustable control algorithm for controlling end effector parameter |
US11744604B2 (en) | 2017-12-28 | 2023-09-05 | Cilag Gmbh International | Surgical instrument with a hardware-only control circuit |
US11969142B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws |
US11589888B2 (en) | 2017-12-28 | 2023-02-28 | Cilag Gmbh International | Method for controlling smart energy devices |
US11786245B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Surgical systems with prioritized data transmission capabilities |
US11308075B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Surgical network, instrument, and cloud responses based on validation of received dataset and authentication of its source and integrity |
US11432885B2 (en) | 2017-12-28 | 2022-09-06 | Cilag Gmbh International | Sensing arrangements for robot-assisted surgical platforms |
US11069012B2 (en) | 2017-12-28 | 2021-07-20 | Cilag Gmbh International | Interactive surgical systems with condition handling of devices and data capabilities |
US11045591B2 (en) | 2017-12-28 | 2021-06-29 | Cilag Gmbh International | Dual in-series large and small droplet filters |
US11786251B2 (en) | 2017-12-28 | 2023-10-17 | Cilag Gmbh International | Method for adaptive control schemes for surgical network control and interaction |
US11424027B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Method for operating surgical instrument systems |
US11311306B2 (en) | 2017-12-28 | 2022-04-26 | Cilag Gmbh International | Surgical systems for detecting end effector tissue distribution irregularities |
US11464535B2 (en) | 2017-12-28 | 2022-10-11 | Cilag Gmbh International | Detection of end effector emersion in liquid |
US11896322B2 (en) | 2017-12-28 | 2024-02-13 | Cilag Gmbh International | Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub |
US11376002B2 (en) | 2017-12-28 | 2022-07-05 | Cilag Gmbh International | Surgical instrument cartridge sensor assemblies |
US11213359B2 (en) * | 2017-12-28 | 2022-01-04 | Cilag Gmbh International | Controllers for robot-assisted surgical platforms |
US11179208B2 (en) | 2017-12-28 | 2021-11-23 | Cilag Gmbh International | Cloud-based medical analytics for security and authentication trends and reactive measures |
US11410259B2 (en) | 2017-12-28 | 2022-08-09 | Cilag Gmbh International | Adaptive control program updates for surgical devices |
US11056244B2 (en) | 2017-12-28 | 2021-07-06 | Cilag Gmbh International | Automated data scaling, alignment, and organizing based on predefined parameters within surgical networks |
US11666331B2 (en) | 2017-12-28 | 2023-06-06 | Cilag Gmbh International | Systems for detecting proximity of surgical end effector to cancerous tissue |
US11160605B2 (en) | 2017-12-28 | 2021-11-02 | Cilag Gmbh International | Surgical evacuation sensing and motor control |
US11132462B2 (en) | 2017-12-28 | 2021-09-28 | Cilag Gmbh International | Data stripping method to interrogate patient records and create anonymized record |
US11278281B2 (en) | 2017-12-28 | 2022-03-22 | Cilag Gmbh International | Interactive surgical system |
US11147607B2 (en) | 2017-12-28 | 2021-10-19 | Cilag Gmbh International | Bipolar combination device that automatically adjusts pressure based on energy modality |
US11559307B2 (en) | 2017-12-28 | 2023-01-24 | Cilag Gmbh International | Method of robotic hub communication, detection, and control |
US11423007B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Adjustment of device control programs based on stratified contextual data in addition to the data |
US11659023B2 (en) | 2017-12-28 | 2023-05-23 | Cilag Gmbh International | Method of hub communication |
US20190201113A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Controls for robot-assisted surgical platforms |
US11266468B2 (en) | 2017-12-28 | 2022-03-08 | Cilag Gmbh International | Cooperative utilization of data derived from secondary sources by intelligent surgical hubs |
US11937769B2 (en) | 2017-12-28 | 2024-03-26 | Cilag Gmbh International | Method of hub communication, processing, storage and display |
US20190201042A1 (en) | 2017-12-28 | 2019-07-04 | Ethicon Llc | Determining the state of an ultrasonic electromechanical system according to frequency shift |
US11602393B2 (en) | 2017-12-28 | 2023-03-14 | Cilag Gmbh International | Surgical evacuation sensing and generator control |
US11109866B2 (en) | 2017-12-28 | 2021-09-07 | Cilag Gmbh International | Method for circular stapler control algorithm adjustment based on situational awareness |
US11100631B2 (en) | 2017-12-28 | 2021-08-24 | Cilag Gmbh International | Use of laser light and red-green-blue coloration to determine properties of back scattered light |
US11633237B2 (en) | 2017-12-28 | 2023-04-25 | Cilag Gmbh International | Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures |
US10966791B2 (en) | 2017-12-28 | 2021-04-06 | Ethicon Llc | Cloud-based medical analytics for medical facility segmented individualization of instrument function |
US11446052B2 (en) | 2017-12-28 | 2022-09-20 | Cilag Gmbh International | Variation of radio frequency and ultrasonic power level in cooperation with varying clamp arm pressure to achieve predefined heat flux or power applied to tissue |
US11304763B2 (en) | 2017-12-28 | 2022-04-19 | Cilag Gmbh International | Image capturing of the areas outside the abdomen to improve placement and control of a surgical device in use |
US11540855B2 (en) | 2017-12-28 | 2023-01-03 | Cilag Gmbh International | Controlling activation of an ultrasonic surgical instrument according to the presence of tissue |
US11419630B2 (en) | 2017-12-28 | 2022-08-23 | Cilag Gmbh International | Surgical system distributed processing |
US11818052B2 (en) | 2017-12-28 | 2023-11-14 | Cilag Gmbh International | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11253315B2 (en) | 2017-12-28 | 2022-02-22 | Cilag Gmbh International | Increasing radio frequency to create pad-less monopolar loop |
US11771487B2 (en) | 2017-12-28 | 2023-10-03 | Cilag Gmbh International | Mechanisms for controlling different electromechanical systems of an electrosurgical instrument |
US10892995B2 (en) | 2017-12-28 | 2021-01-12 | Ethicon Llc | Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs |
US11273001B2 (en) | 2017-12-28 | 2022-03-15 | Cilag Gmbh International | Surgical hub and modular device response adjustment based on situational awareness |
US11291495B2 (en) | 2017-12-28 | 2022-04-05 | Cilag Gmbh International | Interruption of energy due to inadvertent capacitive coupling |
US10944728B2 (en) | 2017-12-28 | 2021-03-09 | Ethicon Llc | Interactive surgical systems with encrypted communication capabilities |
US11903601B2 (en) | 2017-12-28 | 2024-02-20 | Cilag Gmbh International | Surgical instrument comprising a plurality of drive systems |
US11969216B2 (en) | 2017-12-28 | 2024-04-30 | Cilag Gmbh International | Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution |
CN108065904A (zh) * | 2018-01-02 | 2018-05-25 | 京东方科技集团股份有限公司 | 内窥镜系统及其控制方法 |
US20190254753A1 (en) | 2018-02-19 | 2019-08-22 | Globus Medical, Inc. | Augmented reality navigation systems for use with robotic surgical systems and methods of their use |
CA3085178A1 (en) * | 2018-02-23 | 2019-08-29 | Snap Inc. | Eyewear having biometric sensing |
US11344326B2 (en) | 2018-03-08 | 2022-05-31 | Cilag Gmbh International | Smart blade technology to control blade instability |
US11259830B2 (en) | 2018-03-08 | 2022-03-01 | Cilag Gmbh International | Methods for controlling temperature in ultrasonic device |
US11986233B2 (en) | 2018-03-08 | 2024-05-21 | Cilag Gmbh International | Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device |
US20210030499A1 (en) * | 2018-03-26 | 2021-02-04 | Covidien Lp | Telementoring control assemblies for robotic surgical systems |
US11219453B2 (en) | 2018-03-28 | 2022-01-11 | Cilag Gmbh International | Surgical stapling devices with cartridge compatible closure and firing lockout arrangements |
US11278280B2 (en) | 2018-03-28 | 2022-03-22 | Cilag Gmbh International | Surgical instrument comprising a jaw closure lockout |
US11471156B2 (en) | 2018-03-28 | 2022-10-18 | Cilag Gmbh International | Surgical stapling devices with improved rotary driven closure systems |
US10973520B2 (en) | 2018-03-28 | 2021-04-13 | Ethicon Llc | Surgical staple cartridge with firing member driven camming assembly that has an onboard tissue cutting feature |
US11207067B2 (en) | 2018-03-28 | 2021-12-28 | Cilag Gmbh International | Surgical stapling device with separate rotary driven closure and firing systems and firing member that engages both jaws while firing |
US11096688B2 (en) | 2018-03-28 | 2021-08-24 | Cilag Gmbh International | Rotary driven firing members with different anvil and channel engagement features |
US11090047B2 (en) | 2018-03-28 | 2021-08-17 | Cilag Gmbh International | Surgical instrument comprising an adaptive control system |
US11166716B2 (en) | 2018-03-28 | 2021-11-09 | Cilag Gmbh International | Stapling instrument comprising a deactivatable lockout |
US11259806B2 (en) | 2018-03-28 | 2022-03-01 | Cilag Gmbh International | Surgical stapling devices with features for blocking advancement of a camming assembly of an incompatible cartridge installed therein |
JP6730363B2 (ja) * | 2018-04-13 | 2020-07-29 | ファナック株式会社 | 操作訓練システム |
WO2019203952A1 (en) * | 2018-04-17 | 2019-10-24 | Pearson Education, Inc. | Systems and methods for applications of augmented reality |
US11647888B2 (en) | 2018-04-20 | 2023-05-16 | Covidien Lp | Compensation for observer movement in robotic surgical systems having stereoscopic displays |
IT201800005471A1 (it) * | 2018-05-17 | 2019-11-17 | Sistema robotico per chirurgia, particolarmente microchirurgia | |
US11534246B2 (en) | 2018-06-15 | 2022-12-27 | Verb Surgical Inc. | User input device for use in robotic surgery |
US10874224B2 (en) | 2018-07-13 | 2020-12-29 | Verb Surgical Inc. | Surgical robotic system having anthropometry-based user console |
US10863160B2 (en) * | 2018-08-08 | 2020-12-08 | Liquid Cinema Inc. Canada | Conditional forced perspective in spherical video |
GB2577717B (en) * | 2018-10-03 | 2023-06-21 | Cmr Surgical Ltd | Monitoring performance during manipulation of user input control device of robotic system |
JP7367041B2 (ja) * | 2018-10-25 | 2023-10-23 | べイエオニクス サージカル リミテッド | 頭部装着型ディスプレイシステムのためのui |
EP3871143A4 (en) * | 2018-10-25 | 2022-08-31 | Beyeonics Surgical Ltd. | USER INTERFACE FOR HEAD MOUNTED DISPLAY SYSTEM |
US11351671B2 (en) * | 2018-10-29 | 2022-06-07 | Toyota Research Institute, Inc. | Intent based control of a robotic device |
CN109498162B (zh) * | 2018-12-20 | 2023-11-03 | 深圳市精锋医疗科技股份有限公司 | 提升沉浸感的主操作台及手术机器人 |
US11478318B2 (en) | 2018-12-28 | 2022-10-25 | Verb Surgical Inc. | Methods for actively engaging and disengaging teleoperation of a surgical robotic system |
US11740475B2 (en) | 2019-01-17 | 2023-08-29 | Apple Inc. | Head-mounted display with facial interface for sensing physiological conditions |
US11857378B1 (en) * | 2019-02-14 | 2024-01-02 | Onpoint Medical, Inc. | Systems for adjusting and tracking head mounted displays during surgery including with surgical helmets |
US11291444B2 (en) | 2019-02-19 | 2022-04-05 | Cilag Gmbh International | Surgical stapling assembly with cartridge based retainer configured to unlock a closure lockout |
US11369377B2 (en) | 2019-02-19 | 2022-06-28 | Cilag Gmbh International | Surgical stapling assembly with cartridge based retainer configured to unlock a firing lockout |
US11317915B2 (en) | 2019-02-19 | 2022-05-03 | Cilag Gmbh International | Universal cartridge based key feature that unlocks multiple lockout arrangements in different surgical staplers |
US11357503B2 (en) | 2019-02-19 | 2022-06-14 | Cilag Gmbh International | Staple cartridge retainers with frangible retention features and methods of using same |
US11464511B2 (en) | 2019-02-19 | 2022-10-11 | Cilag Gmbh International | Surgical staple cartridges with movable authentication key arrangements |
US11337767B2 (en) * | 2019-05-17 | 2022-05-24 | Verb Surgical Inc. | Interlock mechanisms to disengage and engage a teleoperation mode |
US11204640B2 (en) | 2019-05-17 | 2021-12-21 | Verb Surgical Inc. | Methods for determining if teleoperation should be disengaged based on the user's gaze |
US11504193B2 (en) | 2019-05-21 | 2022-11-22 | Verb Surgical Inc. | Proximity sensors for surgical robotic arm manipulation |
USD952144S1 (en) | 2019-06-25 | 2022-05-17 | Cilag Gmbh International | Surgical staple cartridge retainer with firing system authentication key |
USD950728S1 (en) | 2019-06-25 | 2022-05-03 | Cilag Gmbh International | Surgical staple cartridge |
USD964564S1 (en) | 2019-06-25 | 2022-09-20 | Cilag Gmbh International | Surgical staple cartridge retainer with a closure system authentication key |
JP7334499B2 (ja) * | 2019-06-27 | 2023-08-29 | ソニーグループ株式会社 | 手術支援システム、制御装置及び制御方法 |
US11992373B2 (en) | 2019-12-10 | 2024-05-28 | Globus Medical, Inc | Augmented reality headset with varied opacity for navigated robotic surgery |
EP4087514A4 (en) * | 2020-01-06 | 2023-06-07 | Beyeonics Surgical Ltd. | USER INTERFACE FOR CONTROLLING A SURGICAL SYSTEM |
US20230350177A1 (en) * | 2020-01-08 | 2023-11-02 | Brainlab Ag | Robotic microscope and control thereof |
US11464581B2 (en) | 2020-01-28 | 2022-10-11 | Globus Medical, Inc. | Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums |
US11382699B2 (en) | 2020-02-10 | 2022-07-12 | Globus Medical Inc. | Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery |
US11207150B2 (en) | 2020-02-19 | 2021-12-28 | Globus Medical, Inc. | Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment |
US11607277B2 (en) | 2020-04-29 | 2023-03-21 | Globus Medical, Inc. | Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery |
WO2021226134A1 (en) * | 2020-05-04 | 2021-11-11 | Raytrx, Llc | Surgery visualization theatre |
US11382700B2 (en) | 2020-05-08 | 2022-07-12 | Globus Medical Inc. | Extended reality headset tool tracking and control |
US11510750B2 (en) | 2020-05-08 | 2022-11-29 | Globus Medical, Inc. | Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications |
US11153555B1 (en) | 2020-05-08 | 2021-10-19 | Globus Medical Inc. | Extended reality headset camera system for computer assisted navigation in surgery |
CN113797418A (zh) * | 2020-06-12 | 2021-12-17 | 中强光电股份有限公司 | 医疗影像设备以及医疗影像显示方法 |
US20210401527A1 (en) * | 2020-06-30 | 2021-12-30 | Auris Health, Inc. | Robotic medical systems including user interfaces with graphical representations of user input devices |
US11737831B2 (en) | 2020-09-02 | 2023-08-29 | Globus Medical Inc. | Surgical object tracking template generation for computer assisted navigation during surgical procedure |
US11488382B2 (en) * | 2020-09-10 | 2022-11-01 | Verb Surgical Inc. | User presence/absence recognition during robotic surgeries using deep learning |
WO2022115469A1 (en) * | 2020-11-25 | 2022-06-02 | Intuitive Surgical Operations, Inc. | Steerable viewer mode activation and de-activation |
JP2022084136A (ja) | 2020-11-26 | 2022-06-07 | 株式会社東海理化電機製作所 | 無線通信装置、システムおよびプログラム |
DE102020131595A1 (de) | 2020-11-30 | 2022-06-02 | Blazejewski Medi-Tech Gmbh | 3D Ausgabevorrichtung zur stereoskopischen Bildwiedergabe |
US20240000534A1 (en) * | 2020-11-30 | 2024-01-04 | Intuitive Surgical Operations, Inc. | Techniques for adjusting a display unit of a viewing system |
CN112917474B (zh) * | 2021-01-19 | 2022-08-09 | 哈尔滨工业大学 | 人臂手操作六角扳手工具的技能提取平台及提取方法 |
GB2605812B (en) * | 2021-04-14 | 2024-03-20 | Prec Robotics Limited | An apparatus, computer-implemented method and computer program |
WO2022249093A2 (en) * | 2021-05-28 | 2022-12-01 | Cilag Gmbh International | Ergonomic monitoring and analysis for an operating room |
US20220384018A1 (en) * | 2021-05-28 | 2022-12-01 | Cilag Gmbh International | Ergonomic monitoring and analysis for an operating room |
WO2022269817A1 (ja) * | 2021-06-23 | 2022-12-29 | オリンパス株式会社 | 校正装置、内視鏡システム、校正方法、及び校正プログラム |
WO2023038918A1 (en) * | 2021-09-09 | 2023-03-16 | Covidien Lp | Surgical robotic system with user engagement monitoring |
WO2023069636A1 (en) * | 2021-10-21 | 2023-04-27 | Intuitive Surgical Operations, Inc. | Adjustable headrest for a display unit |
CN118043765A (zh) * | 2021-10-22 | 2024-05-14 | 直观外科手术操作公司 | 基于操作者和计算机辅助设备之间的几何关系控制可重新定位的结构系统 |
US11995853B2 (en) * | 2021-11-04 | 2024-05-28 | Honeywell Federal Manufacturing & Technologies, Llc | System and method for transparent augmented reality |
WO2023140120A1 (ja) * | 2022-01-21 | 2023-07-27 | ソニーグループ株式会社 | 手術ロボットシステム |
WO2023177802A1 (en) * | 2022-03-17 | 2023-09-21 | Intuitive Surgical Operations, Inc. | Temporal non-overlap of teleoperation and headrest adjustment in a computer-assisted teleoperation system |
WO2024026539A1 (en) * | 2022-08-04 | 2024-02-08 | ResMed Pty Ltd | Head mounted display unit and interfacing structure therefor |
CN115542545B (zh) * | 2022-09-19 | 2023-06-20 | 北方工业大学 | 一种基于注意力跟踪交互的vr医学仿真训练装置 |
CN115524853B (zh) * | 2022-11-24 | 2023-05-02 | 深圳市艾谛视控科技有限公司 | 一种能够自动追视的拼接显示屏 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102186434A (zh) * | 2008-08-21 | 2011-09-14 | 韩商未来股份有限公司 | 手术机器人的3d显示系统及其控制方法 |
CN104918572A (zh) * | 2012-09-10 | 2015-09-16 | 艾尔比特系统有限公司 | 用于外科手术的视频捕获和显示的数字系统 |
WO2016133644A1 (en) * | 2015-02-20 | 2016-08-25 | Covidien Lp | Operating room and surgical site awareness |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4574199A (en) * | 1983-01-27 | 1986-03-04 | Diffracto Ltd. | Sensing location of an object |
US5243665A (en) * | 1990-03-07 | 1993-09-07 | Fmc Corporation | Component surface distortion evaluation apparatus and method |
US6963792B1 (en) | 1992-01-21 | 2005-11-08 | Sri International | Surgical method |
JPH08196541A (ja) * | 1995-01-31 | 1996-08-06 | Olympus Optical Co Ltd | 手術用マニピュレータ |
JP3571112B2 (ja) * | 1995-06-19 | 2004-09-29 | 株式会社トプコン | 顕微鏡 |
US5920394A (en) * | 1995-09-01 | 1999-07-06 | Research Corporation Technologies, Inc. | Optical coordinate measuring machine |
JP3900578B2 (ja) | 1997-03-14 | 2007-04-04 | ソニー株式会社 | 追従型虚像視ディスプレイシステム |
KR100254381B1 (ko) | 1997-07-30 | 2000-05-01 | 정몽규 | 냉시동시 유해 배기 가스 저감 방법 |
US6799065B1 (en) | 1998-12-08 | 2004-09-28 | Intuitive Surgical, Inc. | Image shifting apparatus and method for a telerobotic system |
US6587750B2 (en) | 2001-09-25 | 2003-07-01 | Intuitive Surgical, Inc. | Removable infinite roll master grip handle and touch sensor for robotic surgery |
JP3947404B2 (ja) * | 2002-02-06 | 2007-07-18 | オリンパス株式会社 | 内視鏡用画像表示装置 |
JP4098535B2 (ja) * | 2002-02-28 | 2008-06-11 | オリンパス株式会社 | 医療用立体表示装置 |
JP2004305367A (ja) | 2003-04-04 | 2004-11-04 | Olympus Corp | 立体観察装置 |
US8073528B2 (en) * | 2007-09-30 | 2011-12-06 | Intuitive Surgical Operations, Inc. | Tool tracking systems, methods and computer products for image guided surgery |
US20070265495A1 (en) * | 2005-12-15 | 2007-11-15 | Medivision, Inc. | Method and apparatus for field of view tracking |
US7813538B2 (en) * | 2007-04-17 | 2010-10-12 | University Of Washington | Shadowing pipe mosaicing algorithms with application to esophageal endoscopy |
US20090046146A1 (en) * | 2007-08-13 | 2009-02-19 | Jonathan Hoyt | Surgical communication and control system |
CN102076274A (zh) * | 2008-06-25 | 2011-05-25 | 皇家飞利浦电子股份有限公司 | 用于微创手术的嵌套插管 |
US20100217991A1 (en) * | 2008-08-14 | 2010-08-26 | Seung Wook Choi | Surgery robot system of server and client type |
US8957835B2 (en) * | 2008-09-30 | 2015-02-17 | Apple Inc. | Head-mounted display apparatus for retaining a portable electronic device with display |
US8521331B2 (en) | 2009-11-13 | 2013-08-27 | Intuitive Surgical Operations, Inc. | Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument |
US8543240B2 (en) * | 2009-11-13 | 2013-09-24 | Intuitive Surgical Operations, Inc. | Master finger tracking device and method of use in a minimally invasive surgical system |
US10883708B2 (en) * | 2010-11-03 | 2021-01-05 | Tseng-Lu Chien | LED bulb has multiple features |
BR112013013565B1 (pt) * | 2010-12-02 | 2021-11-23 | Ultradent Products Inc | Sistema e método de visualização e rastreamento de imagens de vídeo estereoscópicas |
US8836788B2 (en) * | 2012-08-06 | 2014-09-16 | Cloudparc, Inc. | Controlling use of parking spaces and restricted locations using multiple cameras |
JP2015535702A (ja) * | 2012-09-19 | 2015-12-17 | ナンヤン テクノロジカル ユニヴァーシティNanyang Technological University | フレキシブルマスター‐スレーブロボット内視鏡システム |
JP5846385B2 (ja) | 2012-11-07 | 2016-01-20 | 国立大学法人東京工業大学 | 内視鏡操作システム |
US10314559B2 (en) * | 2013-03-14 | 2019-06-11 | Inneroptic Technology, Inc. | Medical device guidance |
JP5737796B2 (ja) * | 2013-03-29 | 2015-06-17 | 国立大学法人東京工業大学 | 内視鏡操作システムおよび内視鏡操作プログラム |
WO2016004065A1 (en) | 2014-07-01 | 2016-01-07 | Spier Laurence | Surgical robotic instrument shield |
US10702353B2 (en) * | 2014-12-05 | 2020-07-07 | Camplex, Inc. | Surgical visualizations systems and displays |
WO2016112017A2 (en) | 2015-01-05 | 2016-07-14 | Worcester Polytechnic Institute | System and method for controlling immersiveness of head-worn displays |
CN105511632B (zh) | 2016-01-25 | 2020-04-28 | 京东方科技集团股份有限公司 | 信号采集装置、虚拟现实设备及其控制方法 |
WO2018013773A1 (en) * | 2016-07-13 | 2018-01-18 | Qatar Foundation For Education, Science And Community Development | System for camera control in robotic and laparoscopic surgery |
US10568703B2 (en) * | 2016-09-21 | 2020-02-25 | Verb Surgical Inc. | User arm support for use in a robotic surgical system |
EP3518730B1 (en) | 2016-10-03 | 2024-04-17 | Verb Surgical Inc. | Immersive three-dimensional display for robotic surgery |
WO2018132804A1 (en) * | 2017-01-16 | 2018-07-19 | Lang Philipp K | Optical guidance for surgical, medical, and dental procedures |
WO2019148154A1 (en) * | 2018-01-29 | 2019-08-01 | Lang Philipp K | Augmented reality guidance for orthopedic and other surgical procedures |
US10646156B1 (en) * | 2019-06-14 | 2020-05-12 | Cycle Clarity, LLC | Adaptive image processing in assisted reproductive imaging modalities |
-
2017
- 2017-10-03 EP EP17859051.9A patent/EP3518730B1/en active Active
- 2017-10-03 KR KR1020197006568A patent/KR102265060B1/ko active IP Right Grant
- 2017-10-03 US US15/724,185 patent/US10786327B2/en active Active
- 2017-10-03 CA CA3035258A patent/CA3035258C/en active Active
- 2017-10-03 BR BR112019004139-7A patent/BR112019004139B1/pt active IP Right Grant
- 2017-10-03 AU AU2017339943A patent/AU2017339943B2/en active Active
- 2017-10-03 WO PCT/US2017/054995 patent/WO2018067611A1/en active Application Filing
- 2017-10-03 JP JP2019512313A patent/JP6756040B2/ja active Active
- 2017-10-03 CN CN201780003779.4A patent/CN108289600A/zh active Pending
-
2020
- 2020-01-17 AU AU2020200343A patent/AU2020200343B2/en active Active
- 2020-08-25 JP JP2020141786A patent/JP7175943B2/ja active Active
- 2020-09-01 US US17/009,644 patent/US11439478B2/en active Active
-
2022
- 2022-08-15 US US17/819,843 patent/US11813122B2/en active Active
-
2023
- 2023-10-16 US US18/488,022 patent/US20240115346A1/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102186434A (zh) * | 2008-08-21 | 2011-09-14 | 韩商未来股份有限公司 | 手术机器人的3d显示系统及其控制方法 |
CN104918572A (zh) * | 2012-09-10 | 2015-09-16 | 艾尔比特系统有限公司 | 用于外科手术的视频捕获和显示的数字系统 |
WO2016133644A1 (en) * | 2015-02-20 | 2016-08-25 | Covidien Lp | Operating room and surgical site awareness |
Cited By (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112654913B (zh) * | 2018-09-12 | 2024-01-09 | 苹果公司 | 具有可调节支撑结构的电子设备 |
CN112654913A (zh) * | 2018-09-12 | 2021-04-13 | 苹果公司 | 具有可调节支撑结构的电子设备 |
CN112789005A (zh) * | 2018-10-03 | 2021-05-11 | Cmr外科有限公司 | 自动内窥镜视频增强 |
CN109498163A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 主操作台及手术机器人 |
CN109498164B (zh) * | 2018-12-20 | 2023-11-03 | 深圳市精锋医疗科技股份有限公司 | 具有目镜的主操作台及手术机器人 |
CN109498164A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 具有目镜的主操作台及手术机器人 |
CN109806002A (zh) * | 2019-01-14 | 2019-05-28 | 微创(上海)医疗机器人有限公司 | 一种用于手术机器人的成像系统及手术机器人 |
CN112674881B (zh) * | 2019-03-16 | 2022-08-12 | 威海劲变信息科技有限公司 | 面向微创手术体表投影轴调整的铰接轴调整方法 |
CN112674881A (zh) * | 2019-03-16 | 2021-04-20 | 韩志勇 | 面向微创手术体表投影轴调整的铰接轴调整方法 |
CN113631333A (zh) * | 2019-03-22 | 2021-11-09 | 川崎重工业株式会社 | 机器人系统 |
CN113924059A (zh) * | 2019-05-21 | 2022-01-11 | 威博外科公司 | 用于外科机器人系统的无触摸控制的传感器 |
CN110432856A (zh) * | 2019-09-02 | 2019-11-12 | 太原理工大学 | 一种用于检查鼻窦的内窥镜控制系统 |
CN113491575A (zh) * | 2020-04-07 | 2021-10-12 | 史赛克欧洲运营有限公司 | 基于语音命令的外科系统控制 |
CN114081631A (zh) * | 2021-11-18 | 2022-02-25 | 上海微创医疗机器人(集团)股份有限公司 | 健康监测系统及手术机器人系统 |
CN114081631B (zh) * | 2021-11-18 | 2024-05-03 | 上海微创医疗机器人(集团)股份有限公司 | 健康监测系统及手术机器人系统 |
Also Published As
Publication number | Publication date |
---|---|
BR112019004139A8 (pt) | 2023-03-21 |
AU2017339943B2 (en) | 2019-10-17 |
WO2018067611A1 (en) | 2018-04-12 |
US11439478B2 (en) | 2022-09-13 |
KR20190043143A (ko) | 2019-04-25 |
CA3035258C (en) | 2022-03-22 |
JP2020195798A (ja) | 2020-12-10 |
US10786327B2 (en) | 2020-09-29 |
AU2017339943A1 (en) | 2019-03-07 |
EP3518730A4 (en) | 2020-05-27 |
CA3035258A1 (en) | 2018-04-12 |
US20180092706A1 (en) | 2018-04-05 |
US20200397529A1 (en) | 2020-12-24 |
US20220387131A1 (en) | 2022-12-08 |
EP3518730A1 (en) | 2019-08-07 |
JP2019531117A (ja) | 2019-10-31 |
US20240115346A1 (en) | 2024-04-11 |
EP3518730B1 (en) | 2024-04-17 |
US11813122B2 (en) | 2023-11-14 |
KR102265060B1 (ko) | 2021-06-16 |
BR112019004139B1 (pt) | 2023-12-05 |
BR112019004139A2 (pt) | 2019-05-28 |
JP6756040B2 (ja) | 2020-09-16 |
AU2020200343A1 (en) | 2020-02-06 |
AU2020200343B2 (en) | 2021-12-16 |
JP7175943B2 (ja) | 2022-11-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108289600A (zh) | 用于机器人外科手术的沉浸式三维显示器 | |
KR102216350B1 (ko) | 로봇 수술을 위한 사용자 콘솔 시스템 | |
KR101772958B1 (ko) | 최소 침습 원격조종 수술 기구를 위한 환자측 의사 인터페이스 | |
KR20230042149A (ko) | 입체 뷰어를 위한 눈 시선 추적을 통합하는 의료 디바이스, 시스템, 및 방법 | |
US20210121245A1 (en) | Surgeon interfaces using augmented reality | |
US20240033023A1 (en) | Adjustable user console for a surgical robotic system | |
US20240000538A1 (en) | 3d output device for stereoscopic image reproduction | |
WO2024021855A1 (zh) | 手术机器人及其控制方法、控制装置 | |
WO2023177802A1 (en) | Temporal non-overlap of teleoperation and headrest adjustment in a computer-assisted teleoperation system | |
WO2022232170A1 (en) | Method and apparatus for providing input device repositioning reminders | |
WO2024006492A1 (en) | Systems and methods for stereoscopic visualization in surgical robotics without requiring glasses or headgear | |
WO2023069745A1 (en) | Controlling a repositionable structure system based on a geometric relationship between an operator and a computer-assisted device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180717 |