CN108472083B - 用于机器人外科手术的用户界面设备 - Google Patents

用于机器人外科手术的用户界面设备 Download PDF

Info

Publication number
CN108472083B
CN108472083B CN201780004134.2A CN201780004134A CN108472083B CN 108472083 B CN108472083 B CN 108472083B CN 201780004134 A CN201780004134 A CN 201780004134A CN 108472083 B CN108472083 B CN 108472083B
Authority
CN
China
Prior art keywords
user interface
interface device
handheld user
housing wall
housing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201780004134.2A
Other languages
English (en)
Other versions
CN108472083A (zh
Inventor
J.萨瓦尔
A.A.L.沈
J.L.科多巴
Y.曾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Verb Surgical Inc
Original Assignee
Verb Surgical Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Verb Surgical Inc filed Critical Verb Surgical Inc
Publication of CN108472083A publication Critical patent/CN108472083A/zh
Application granted granted Critical
Publication of CN108472083B publication Critical patent/CN108472083B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/74Manipulators with manual electric input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • A61B34/76Manipulators having means for providing feel, e.g. force or tactile feedback
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/02Hand grip control means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0338Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of limited linear or angular displacement of an operating part of the device from a neutral position, e.g. isotonic or isometric joysticks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0354Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of 2D relative movements between the device, or an operating part thereof, and a plane or surface, e.g. 2D mice, trackballs, pens or pucks
    • G06F3/03547Touch pads, in which fingers can move on a surface
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B17/00234Surgical instruments, devices or methods, e.g. tourniquets for minimally invasive surgery
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2048Tracking techniques using an accelerometer or inertia sensor
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2051Electromagnetic tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2055Optical tracking systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/301Surgical robots for introducing or steering flexible instruments inserted into the body, e.g. catheters or endoscopes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • A61B2034/302Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2562/00Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
    • A61B2562/02Details of sensors specially adapted for in-vivo measurements
    • A61B2562/0261Strain gauges
    • A61B2562/0266Optical strain gauges
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Surgery (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Biomedical Technology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Health & Medical Sciences (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Robotics (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Pathology (AREA)
  • Manipulator (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种用于控制机器人系统的手持用户界面设备,所述手持用户界面设备可包括构件、壳体、和跟踪传感器系统,所述壳体至少部分地设置在所述构件周围并且被配置为保持在用户的手中,所述跟踪传感器系统设置在所述构件上并且被配置为检测所述设备的至少一部分的位置和取向中的至少一者。所述设备的所述部分的所检测到的位置和所述设备的所述部分的所检测到的取向中的至少一者与所述机器人系统的控制相关。

Description

用于机器人外科手术的用户界面设备
相关申请的交叉引用
本申请要求2016年12月9日提交的美国专利申请序列号62/432,538的优先权,该申请据此全文以引用方式并入本文。
技术领域
本公开整体涉及机器人辅助的系统,并且更具体地讲,涉及用于控制机器人辅助的外科系统的用户界面设备。
背景技术
微创外科手术(MIS)诸如腹腔镜外科手术涉及旨在减少在外科手术期间的组织损伤的技术。例如,腹腔镜手术典型地涉及在患者体内(例如,在腹部中)形成多个小的切口、并且通过切口将一个或多个工具和至少一个照相机引入患者体内。然后,通过使用所引入的工具和由照相机提供的可视化辅助来执行外科手术。一般来讲,MIS提供多个益处,诸如减少患者瘢痕形成、减少患者疼痛、缩短患者恢复期、和降低与患者恢复相关联的医疗费用。
MIS可用非机器人系统或机器人系统来执行。常规机器人系统可在减少对外科医生的需求的同时提供MIS的许多益处,该常规机器人系统可包括用于基于来自操作者的命令来操纵工具的机器人臂。此类机器人系统的控制可能需要来自用户(例如,外科医生或其他操作者)的经由一个或多个用户界面设备(又称用户输入设备,用户主控设备,或控件)的控制输入,该用户界面设备将来自用户的操纵或命令转换成对机器人系统的控制。然而,机器人外科系统的常规用户界面设备可能具有缺点。例如,常规用户界面设备可能不符合人体工程学设计,这可能导致用户不适或疲劳并且可能对外科手术造成负面影响。因此,期望具有新的和改进的用户界面设备,特别是用于机器人外科手术。
发明内容
一般来讲,在一个变型中,用于控制机器人系统的手持用户界面设备可包括构件、壳体、至少一个电容传感器、和跟踪传感器系统,该壳体至少部分地设置在构件周围并且被配置为保持在用户的手中,该电容传感器被配置为检测用户的手与壳体之间的交互作用,该跟踪传感器系统被配置为检测设备的至少一部分的位置和取向中的至少一者。所检测到的交互作用、设备的部分的所检测到的位置、以及设备的部分的所检测到的取向中的至少一者可与机器人系统的控制相关。
设备的部分的所检测到的位置或所检测到的取向可例如与机器人臂或端部执行器的控制相关。电容传感器可例如通过测量用户的手与电容传感器之间的接近度的变化来检测交互作用,诸如壳体的基于手的挤压。作为另一示例,电容传感器可被配置为通过测量壳体上的第一导电表面与壳体上的第二导电表面之间的接近度来检测挤压壳体的用户的手。作为另一示例,相同或第二电容传感器可包括多个离散的传感器区域,该离散的传感器区域被配置为检测用用户界面设备(例如,可与机器人系统的图形用户界面的控制或其它控制相关)执行的用户发起的手势(例如,挥动)。作为另一示例,电容传感器可检测交互作用,诸如壳体与用户的手之间的脱离(例如,使用户界面设备掉落或将用户界面设备安装在设备保持器中),该交互作用触发机器人系统的控制的暂停。
一般来讲,在另一个变型中,用于控制机器人系统的手持用户界面设备可包括构件、柔性壳体、至少一个接近传感器、和跟踪传感器系统,该柔性壳体至少部分地设置在构件周围并且被配置为保持在用户的手中,该接近传感器被配置为检测壳体的变形,该跟踪传感器系统被配置为检测设备的至少一部分的位置和取向中的至少一者。壳体的所检测到的变形、设备的部分的所检测到的位置、以及设备的部分的所检测到的取向中的至少一者可与机器人系统的控制相关。
设备的部分的所检测到的位置或所检测到的取向可例如与机器人臂或端部执行器的控制相关。接近传感器可例如被配置为检测壳体的变形,该变形可与机器人系统的端部执行器(例如,钳口)的打开或闭合相关。接近传感器可被配置为通过被配置为测量构件和挠曲构件之间的距离的变化来检测壳体的这样的变形,该挠曲构件被配置为在壳体变形时偏转。在一些变型中,接近传感器可以是光学传感器,但是可使用其它种类的接近传感器。
一般来讲,在另一个变型中,用于控制机器人系统的手持用户界面设备可包括构件、壳体、和跟踪传感器系统,该构件具有第一端部和第二端部(例如,近侧端部和远侧端部),其中第一端部和第二端部中的至少一者包括接合特征结构,该接合特征结构被配置为联接到可拆卸适配器,该壳体至少部分地设置在构件周围并且被配置为保持在用户的手中,该跟踪传感器系统被配置为检测设备的至少一部分的位置和取向中的至少一者。设备的部分的检测到的位置和检测到的取向中的至少一者可与机器人系统的控制相关。
设备的部分的所检测到的位置或所检测到的取向可例如与机器人臂或端部执行器的控制相关。构件可例如从一个或多个可拆卸适配器(诸如具有光学跟踪标记的光学跟踪器适配器)可移除地联接,以提供关于光学跟踪器适配器、触笔、盘适配器或操纵杆、按钮、夹钳等的位置和/或取向的信息。此类适配器可例如提供用于操作机器人系统的不同种类的端部执行器等的专用应用或其它合适的功能定制。
一般来讲,在另一个变型中,用于控制机器人系统的手持用户界面设备可包括构件、壳体、和跟踪传感器系统,该壳体至少部分地设置在构件周围并且被配置为保持在用户的手中,该跟踪传感器系统设置在构件上并且被配置为检测设备的至少一部分的位置和取向中的至少一者。设备的部分的检测到的位置和检测到的取向中的至少一者可与机器人系统的控制相关。设备的部分的所检测到的位置或所检测到的取向可例如与机器人臂或端部执行器的控制相关。在一些变型中,跟踪系统的至少一部分可从构件和壳体中的至少一者移除以允许处置构件和壳体中的至少一者。这样的处置可例如减少保持用户界面设备的所有部件的无菌性以用于用户界面设备的单独使用的需求。在一些变型中,可从适用于不同种类(例如,形状、尺寸等)的用户的手的具有不同尺寸的一组壳体中选择壳体。
附图说明
图1A是有线手持用户界面设备的变型的示例性示意图。图1B是无线手持用户界面设备的变型的示例性示意图。图1C是手持用户界面设备的变型的纵向剖面图。
图2A是具有光学传感器的手持用户界面设备的变型的纵向剖面图。图2B是具有光学传感器的手持用户界面设备的变型的纵向剖面图。图2C是具有用于有线跟踪传感器系统的光学传感器和应变消除设备的手持用户界面设备的变型的纵向剖面图。
图3A是具有电容传感器的手持用户界面设备的变型的纵向剖面图。图3B是具有电容传感器的构件的示例性示意图。图3C是示于图3B中的构件的纵向剖面图。
图4A和图4B是用于手持用户界面设备中的电容传感器的变型。图4C是设置在用于手持用户界面设备中的构件上的电容传感器的示例性图示。
图5是具有电容传感器和手势跟踪区域的保持在用户的手中的手持用户界面设备的变型的图示。
图6A是具有模块化的可互换适配器的手持用户界面设备的一个变型的纵向剖面图。图6B和图6C是具有模块化的可互换适配器的手持用户界面设备的另一个变型的侧视图和透视图。
图7A和图7B是具有光学跟踪适配器的手持用户界面设备的一个变型的透视图。图7C是示于图7A和图7B中的保持在用户的手中的手持用户界面设备的示例性图示。
图8A和图8AA是具有触笔适配器的手持用户界面设备的一个变型的侧视图和透视图。图8B和图8BB是具有触笔适配器的手持用户界面设备的另一个变型的侧视图和透视图。图8C是示于8B中的手持用户界面设备的示例性图示。图8D和图8DD是具有触笔适配器的手持用户界面设备的另一个变型的侧视图和透视图。
图9A和图9B是具有盘适配器的手持用户界面设备的一个变型的透视图和侧视图。图9C是示于图9A和图9B中的手持用户界面设备的示例性图示。
图10A-图10C是具有不同尺寸和形状的示例性用户界面设备的示例性示意图。
图11A和图11B是具有成角度适配器的手持用户界面设备的另一个变型的透视图和侧视图。
图12是具有单独的内壳体层和外壳体层的手持用户界面设备的另一个变型的纵向剖面图。
图13A-图13D示出示于图12中的手持用户界面设备的组装方法的步骤。
图14A和图14B分别是具有电容挤压传感器和电容手势跟踪传感器的手持用户界面设备的另一个变型的侧视图和纵向剖面图。图14C是示于图14A和图14B中的手持用户界面设备的详细剖面图。图14D是示于14A和图14B中的手持用户界面设备中的层的示例性示意图。图14E是具有设置在壳体中的电接触板的手持用户界面设备的纵向剖面图。
具体实施方式
本发明的各方面和变型的示例在本文中描述并且在附图中示出。以下描述并非旨在将本发明限于这些实施方案,而是使本领域的技术人员能够制造和使用本发明。
如图1A-图1C中一般所示,用于控制机器人系统的手持用户界面设备100可包括构件110、壳体120、和跟踪传感器系统140,该壳体至少部分地设置在构件周围并且被配置为保持在用户的手中,该跟踪传感器系统被配置为至少检测设备的至少一部分的位置和/或取向。设备的所检测到的位置和/或取向可与机器人系统的控制相关。例如,用户界面设备100可控制机器人臂的至少一部分、联接到机器人臂的远侧端部的端部执行器或工具(例如,抓紧器或钳口)、图形用户界面、或机器人系统的其它合适方面或特征。下文进一步详细地描述了另外的示例性相关性。
用户界面设备可包括用于允许在不同控制模式之间切换(例如,在控制机器人臂与控制端部执行器之间、在控制机器人臂或端部执行器与图形用户界面之间等切换)的离合机构。下文进一步详细描述的各种用户输入中的一个或多个可用作离合器,该离合器在被接合时将用户界面设备(或挤压、手势或其它合适的输入)的位置和/或取向的相关性改变为机器人系统的不同控制。例如,触摸设备的手势触摸区域、挤压壳体、推动或倾斜盘适配器等可用作离合器。
一般来讲,用于控制机器人外科系统的用户界面可包括至少一个手持用户界面设备100、或者可包括至少两个手持用户界面设备100(例如,要由用户的左手保持的第一用户界面设备,和要由用户的右手保持的第二用户界面设备)、三个手持用户界面设备100、或任何合适数量的手持用户界面设备。每个用户界面设备100可被配置为控制机器人系统的不同方面或特征。例如,保持在用户的左手中的用户界面设备可被配置为控制在提供给用户的照相机视图的左侧上呈现的端部执行器,而保持在用户的右手中的用户界面设备可被配置为控制在照相机视图的右侧上呈现的端部执行器。例如,对用户界面设备100的控制输入可在提供诊断、外科、腹腔镜或微创外科手术或其它机器人手术的过程期间由用户作为用户命令来提供。
在一些变型中,手持用户界面设备100可以是被配置为保持在手中并且在自由空间中操纵的无接地用户界面设备。例如,用户界面设备100可被配置为保持在用户的手指之间,并且在用户移动其臂、手、和/或手指时由用户自由地移动(例如,平移、旋转、倾斜等)。除此之外或另选地,手持用户界面设备100可以是主体接地的用户界面设备,因为用户界面设备100可直接或经由任何合适的机构(诸如手套、手带、袖套等)联接到用户的一部分(例如,联接到用户的手指、手和/或臂)。这样的主体接地的用户界面设备仍然可使得用户能够在自由空间中操纵用户界面设备。因此,在其中用户界面设备100无接地或主体接地(与永久地安装或接地到固定控制台等相反)的变型中,用户界面设备100可以是符合人体工程学的并且提供灵巧的控制,诸如通过使得用户能够以不受接地系统的固定性质阻碍的自然的身体移动来控制用户界面设备。
手持用户界面设备100可包括有线连接(例如,具有将用户界面设备100联接到外部控制系统的线材150),如图1A所示。线材可例如向携带传感器信号(例如,来自跟踪传感器组件和/或其它传感器,诸如下面描述的电容传感器、光学传感器等)的用户界面设备100提供电力。在一个示例中,如图2A所示,有线连接(例如,连接到跟踪传感器系统)可被固定到壳体或以其它方式用O形环244、环氧树脂等支撑,该O形环有助于防止有线连接与手持用户界面200的其余部分脱离。作为另一示例,如图2C所示,有线连接(例如,连接到跟踪传感器系统)可除此之外或另选地由应变消除设备243支撑,该应变消除设备挠曲并且有助于减小在操纵用户界面设备时由线材所经历的应变。作为另一示例,如图2B所示,有线连接可省去应变消除设备。另选地,用户界面设备可以是无线的,如图1B(以及图7A和图7B)所示,并且经由无线通信诸如射频信号(例如,WiFi或诸如400-500mm范围的短程等)或其它合适的无线通信协议诸如蓝牙来传送命令和其它信号。可利用传感器(诸如光学读取器传感器)和/或照相机来促进其它无线连接,该传感器和/或照相机被配置为检测如下文进一步所述的用户界面设备100、红外传感器、超声传感器或其它合适的传感器上的光学标记。
壳体
壳体120可被配置为保持在用户的手中,并且通常可提供用户可与之交互的抓握体积。例如,壳体120的至少一部分可被配置为在用户的手的手指之间被抓紧、压紧、滚动、挤压、摇动或以其它方式保持或操纵。
如图1B所示,在一些变型中,壳体可通常包括至少第一部分120a和第二部分120b。壳体可被配置为保持在用户的手中,由此使得第一部分120a朝近侧导向(即,第一部分120a是壳体的近侧部分),并且第二部分120b朝远侧导向(即,第二部分120b是壳体的远侧部分),但是另选地,在不同变型和/或应用中,第一部分120a和第二部分120b可分别朝远侧和朝近侧、或以其它合适的方向导向。
如图1A-图1C所示,壳体120可以是大致圆形的,其中第一部分120a和第二部分120b具有轮廓或是锥形的。例如,壳体120可以是大致卵形或蛋形的(例如,第一部分120a可比第二部分120b更长并且具有更加渐变的轮廓或锥形)。壳体120可具有围绕纵向轴线的径向对称轮廓。壳体通常可具有长度(沿着纵向轴线测量)和宽度(横向于纵向轴线测量),其中长度长于宽度。第一部分120a和第二部分120b可具有不同的曲率半径。
在一些变型中,壳体120可限定至少一个周向或部分周向唇缘或凸起环125。唇缘125可为用户在用户界面设备100的表面上的抓握位置提供触觉参考点、提供摩擦纹理化表面以用于改善的抓握等。例如,唇缘125可设置在壳体的第一部分120a和第二部分120b之间,但是另选地,唇缘125可设置在壳体的任何合适的部分上。在一些变型中,壳体120可除此之外或另选地包括其它纹理增强(例如,形成图案的多个唇缘或凸起表面、一个或多个凹槽等)。
壳体120可被定制或设计用于不同的手的尺寸和/或形状。例如,壳体120可从适用于一定范围的手的尺寸和/或形状的多个壳体尺寸中选择。作为另一示例,壳体120可针对特定用户的手(例如,至少部分地基于模具)进行定制。壳体120的周长、长度和/或任何合适的维度或其它特征可改变。例如,相对于图10A所示的用户界面设备1000a的一个示例性变型,如图10B所示的用户界面设备1000b的周长可更宽,并且如图10C所示的用户界面设备1000c可更长。此外,不同壳体部分(例如,第一部分120a和第二部分120b)可单独或一起改变。例如,壳体120的第一变型和第二变型可以是类似的,因为它们均具有尺寸和形状相同的第一部分120a,但不同之处在于,第一变型具有较窄的第二部分120b,而第二变型具有较宽的第二部分120b。作为另一示例,壳体120的第三变型相对于壳体120的第四变型可包括较短的第一部分120a和较窄的第二部分120b,该第四变型包括较长的第一部分120a和较宽的第二部分120b。此外,壳体的外表面上的纹理图案可诸如在高度和/或厚度上改变。在一些示例中,纹理图案的形状、纹理图案的其它特殊形成物(例如,识别码)等可对应于指示壳体的尺寸和/或形状的特定SKU或部件号。
如图1C所示,壳体120可包括内壁122和外壁124。内壁122可限定管腔,该管腔被配置为接收构件110。内壁122和外壁124可协作以限定内壁和外壁之间的体积126,由此使得壳体120包括囊状物。
壳体120可以是顺应性的和可变形的,其中壳体的变形与机器人系统的控制相关(例如,挤压壳体可与具有钳口的端部执行器的压紧控制相关)。例如,壳体120的体积126可填充有流体。例如,体积126或囊状物可填充有加压气体(例如,空气)、流体(例如,硅油、盐水、水等)、或半流体物质。除此之外或另选地,壳体120可至少部分地由诸如有机硅、乳胶、或其它合适的聚合物或合金之类的柔性材料制成。壳体材料可以是合适的医用级材料。此外,壳体材料的至少一部分可以是可灭菌的(例如,通过高压釜、擦拭等)并且/或者可从设备的其余部分移除以便于处置。
虽然在一些变型中,如图1C所示,内壁122和外壁124可以是同一整体形成的壳体120的一部分,但在其它变型中,壳体可包括形成内壁122的至少一部分和外壁124的至少一部分的多个单独形成的部分。例如,如图12所示,壳体1220的一个变型可包括形成内壁的内壳体层1222、以及形成外壁的外壳体层1224。壳体还可包括设置在内壳体层1222的管腔内并且被配置为接收构件(未示出)的衬里1221。衬里1221可包括用于向壳体1220提供结构支撑的刚性或半刚性构件(例如,由尼龙、聚碳酸酯或任何合适的材料制成)。例如,内壳体层1222可包括管状部分1222t和联接到管状部分1222t的扩口部分1222f,该管状部分接收衬里1221并联接到衬里1221(例如,经由摩擦配合)。扩口部分1222f可径向向外变宽或张开,由此使得内壳体层1222和衬里1221协作以限定内壳体层1222和衬里1221之间的体积。体积可以与上文参考图1C所述的体积126类似的方式起作用。例如,内壳体层和外壳体层可由柔性、易弯曲的材料(例如,有机硅)制成,以允许内壳体层1222的变形(例如,如利用一个或多个电容挤压传感器所测量的,如下所述)。内壳体层1222的变形以及所产生的体积变形可与机器人系统的控制相关。虽然在图12中仅示出一个内壳体层1222和一个外壳体层1224,但应当理解,在其它变型中,壳体1220中可包括任何合适数量的层(例如,三个、四个等)。此外,任何层可包括连接在一起的一个或多个部分(例如,内壳体层1222可以包括管状部分1222t,管状部分1222t与扩口部分1222f分开形成并且稍后联接到该扩口部分1222f)。
示于图12中的壳体1220和衬里1221的局部组装的示例性方法由图13A-图13D的顺序示出。图13A示出衬里1221。如图13B所示,内壳体层1222可通过越过衬里1221并在图12所示的管状部分1222t的管腔内接收衬里1221而联接到衬里1221(例如,经由摩擦配合)。例如,内壳体层1222可纵向越过或滑过衬里1221。作为另一示例,内壳体层1222可包括纵向狭缝或其它开口,该纵向狭缝或其它开口使得内壳体层1222能够横向打开并且包封衬里1221的至少一部分。如图13C所示,外壳体层1224可包封内壳体层1222和衬里1221子组件。最终,如图13D所示,卡圈1227可将外壳体层1224固定到内壳体层1222和衬里1221子组件(例如,帮助防止外壳体层1224滑落)。例如,如图12中的剖面细节所示,卡圈1227可螺纹地接合衬里1221并且将外壳体层1224的端部压缩在卡圈1227和衬里1221之间。另选地,卡圈1227可经由扣合接合或其它合适的方式将外壳体层1224接合并固定到内壳体层1222和/或衬里1221。
构件
如图1C所示,用户界面设备100可包括至少一个构件110。构件通常可具有圆形的横截面形状。构件110可沿着壳体120内的中心纵向轴线(例如,在其中壳体120径向对称的变型中,沿着旋转轴线)设置,由此使得设置在构件110上或其内的跟踪传感器系统可更容易和准确地区分由于旋转(例如,滚动、俯仰或偏航)而引起的设备的取向变化与由于平移或位移而引起的设备的绝对位置变化。另选地,在其它变型中,构件110可被包括在壳体120的任何合适的部分中或设置在其中,并且对构件110从旋转轴线的任何偏移进行适当的补偿。构件110可基本上沿着壳体120的长度、或壳体120的长度的任何合适的部分延伸。
在一些变型中,构件110可包括被配置为接收各种电子器件和/或其它部件的管腔或其它内部体积。例如,内部体积可包括至少一个印刷电路板160 (PCB),该印刷电路板具有下文进一步详细描述的一个或多个传感器。作为另一示例,如图2A所示,电池282可设置在内部体积内以用于为用户界面设备110中的PCB和其它电子部件供电。虽然电池282被示为邻近马达280,但另选地,电池可位于壳体内的任何合适的位置中。此外,各种电子器件和/或其它部件可设置在构件110的内部体积之外。例如,一个或多个接近传感器(例如,光学传感器)可设置在构件110的外表面上,如下文参考图2A-图2C进一步所述。作为另一示例,一个或多个电容传感器可设置在构件110的外表面上,如下文参考图3A-图3C进一步所述。
在一些变型中,用户界面设备可包括至少一个马达。例如,如图1C所示,马达180可设置在构件110的第一端部上,至少部分地设置在构件110的内部体积内。类似地,如图2A所示,马达280可设置在构件210的第一端部上。然而,马达可位于构件110中或其周围的任何合适的位置中。马达180可包括旋转马达、直线运动马达或其它合适的振动马达或其它触觉反馈马达。马达180可被控制以向用户提供触觉反馈形式的触觉反馈。例如,控制器可响应于触发事件来致动马达180,以便将该事件的发生传送给用户。不同的图案(例如,占空比、不规则开关循环的图案、速度等)可向用户指示不同的事件。触发对用户的触觉反馈的事件的示例包括端部执行器的致动(例如,烧灼工具的击发)、与用户界面设备的通信的丢失(例如,由于功率损失、用户界面设备在可跟踪工作空间之外的移动等)、用户界面设备相对于校准或已知参考帧的未对齐、机器人系统的部件之间(例如,机器人臂之间)的潜在碰撞的检测等。
此外,其它反馈提示,诸如音频(从用户界面设备或用户控制台的其它方面发出的音调、警告等)和/或视觉(例如,经由LED或其它显示器从用户界面设备发射的光)可除此之外或另选地用于将关于特定事件的信息传送给用户。例如,用户界面设备可包括一个或多个LED(例如,RGB、白色、其它合适的颜色等),该LED单独照明或以不同定时或空间图案组合照明以指示不同的错误代码或其它信息。
在一些变型中,单独构件110可从用户界面设备中省去。在这些变型中,在本文中描述为包括在构件110中的跟踪传感器系统、马达、传感器电子器件等可另选地包含在壳体的衬里构件(例如,如图12所示的衬里1221)部分中。
跟踪传感器系统
如图2A所示,用户界面设备可包括跟踪传感器系统240,该跟踪传感器系统被配置为检测用户界面设备在自由空间中的位置和/或取向。例如,跟踪传感器系统240可包括能够测量多达六个自由度的磁跟踪探针242,包括用户界面设备的物理位移(例如,在XYZ空间或其它合适的坐标系中)、滚动、俯仰和偏航。合适的磁跟踪探针或其它传感器是本领域的普通技术人员已知的。跟踪探针242可设置在构件210中,如图2A所示,诸如在构件210的内部体积内,或者在用户界面设备的构件或壳体上的任何合适的位置中。
跟踪传感器系统240可除此之外或另选地包括用于跟踪用户界面设备的位置和/或取向的其它类型的传感器。例如,跟踪传感器系统240可包括一个或多个陀螺仪、一个或多个加速度计、和/或一个或多个磁力计。一些或所有此类传感器可以是惯性测量单元(IMU)的一部分。这些和其它合适的传感器可设置在构件210中的PCB 260上,如图2A所示,或者在用户界面设备的构件或壳体上的任何合适的位置中。来自多个传感器(诸如磁跟踪探针242)和来自IMU的读数可用于改善对用户界面设备的位置和/或取向的跟踪。例如,来自跟踪探针242和IMU的传感器读数可用于冗余目的,以在一个或另一个经历失效或以其它方式不可信的情况下(例如,由于信号干扰而引起,如下所述)相互证实并且/或者提供备用跟踪功能。作为另一示例,来自跟踪探针242和/或IMU的传感器读数可被组合(例如,取平均值)以提高来自传感器的信号读数的总体质量。
如图2A所示,在一些变型中,用户界面设备可包括电子部件(诸如马达280),该电子部件可导致对跟踪传感器系统240(例如,磁跟踪探针242)的至少一部分的干扰,并且导致用户界面设备的位置和/或取向的测定不准确。在此类变型中,用户界面设备可以各种方式来解决干扰。例如,在马达280被致动之后,来自跟踪探针242的传感器读数可被忽略预定的时间窗,以便忽略可能受到由马达280和/或任何其它部件的致动引起的干扰所造成的不利影响的信号。在该时间窗期间,来自不受干扰影响的一个或多个其它传感器(例如来自加速度计、陀螺仪、磁力计等)的测量可用来代替用于跟踪用户界面设备的位置和/或取向。作为另一示例,基于由马达280或其它部件的致动引起的干扰的预定模型,可将合适的偏移和/或因子应用于传感器读数,以便补偿信号干扰。
其它传感器
在一些变型中,用户界面设备可包括用于检测各种用户控制输入和/或其它状态的一个或多个传感器。例如,一个或多个传感器可被配置为检测用户界面设备的抓握或挤压、手势(例如,挥动)、与用户的断开(例如,用户界面设备的掉落)等,这可与机器人系统的控制相关,诸如机器人臂、端部执行器、图形用户界面的导航等。
挤压传感器
具有挠曲臂的接近传感器
在一个变型中,如图2A-图2C所示,用户界面设备200可包括接近传感器270形式的至少一个抓握或挤压传感器,该抓握或挤压传感器被配置为检测壳体的变形,其中壳体的所检测到的变形可与机器人系统的控制相关。如图2A所示,接近传感器270可与柔性构件或臂272结合使用,该柔性构件或臂可设置在构件210中并且被配置为响应于壳体220的变形而挠曲。臂272可具有第一端部272a(例如,近侧端部)和第二端部272b(例如,远侧端部)。第一端部272a可诸如用机械干预、环氧树脂或其它合适的附接方法固定到构件210。第二端部272b和设置在第二端部272b上的块274可随着臂272的偏转而相对于第一端部272a自由移动。
当用户抓握或挤压壳体220时,增加的压力导致壳体的内壁222变形。在壳体的内壁222变形时,内壁222使块274移位并且导致臂272偏转。可设置在PCB 260上与块274相对的接近传感器270可被配置为通过测量到块272的接近度(或距离的变化)来检测壳体的变形。壳体的与臂272的挠曲度有关的这种变形可与端部执行器的操作(例如,打开或闭合钳口)或对机器人系统的其它合适的控制(例如,在图形用户界面上的元件的选择)相关。
壳体的变形与接近传感器测量之间的关系可通过以一种或多种各种方式调谐臂272的偏转来校准。例如,可通过选择臂272的材料类型(例如,钢、铝)、长度、厚度、横截面形状和/或其它特征来调谐臂272的偏转。作为另一示例,调谐弹簧可联接到臂(例如,在近侧端部272a处)以抵抗臂的挠曲。作为又一示例,在一些变型中,如图2B和图2C所示,壳体的内壁222可包括与块274对齐的较薄部分223,由此使得较薄部分223响应于用户挤压壳体而更容易地变形(并导致较多的偏转)。类似地,内壁222的部分223可被制成较厚,由此使得较厚部分响应于用户挤压壳体而不太容易变形(并导致较少的偏转)。作为又一示例,响应于用户挤压壳体,囊状物或内部体积226内的压力的量可增加或减少以改变壳体的变形量。
虽然在图2A-图2C中仅示出一个臂272和接近传感器272布置方式,但应当理解,多个臂272和接近传感器272可包括在用户界面设备中。例如,两个、三个或任何合适数量的臂和传感器布置方式可分布在构件210周围。臂和传感器布置方式可以任何合适的图案均等地或不均等地周向分布在构件210周围并且/或者沿着构件210纵向分布。包括多个臂和传感器布置方式可例如在检测抓握或挤压的位置时提供更多的分辨率(例如,以区分壳体的近侧端部的挤压与壳体的远侧端部的挤压)。
除此之外或另选地,接近传感器270可用于诸如通过响应于用户挤压壳体而检测到壳体的内壁222(或联接到内壁222的其它元件)的接近度(或距离的变化)来直接测量壳体210的变形。
接近传感器270可包括用于检测到壳体的臂272、块271和/或内壁222的接近度或距离的变化的任何合适类型的接近传感器。例如,接近传感器270可包括光学传感器,该光学传感器发射和/或检测返回的电磁辐射(例如红外线)。在其它示例中,接近传感器270可包括电容传感器、超声传感器、磁性传感器、感应传感器,或其它合适种类的接近传感器。
电容传感器
在一些变型中,用户界面设备可包括至少一个挤压传感器,该挤压传感器包括一个或多个电容传感器。例如,在如图3A-图3C所示的一个变型中,用户界面设备300可包括至少一个挤压传感器,该挤压传感器包括电容传感器370,该电容传感器被配置为检测壳体与保持壳体的用户的手之间的交互作用。例如,电容传感器370可包括传感器垫372,该传感器垫设置在构件310的外表面上并且被配置为通过测量保持壳体的用户的手(作为导电表面)与构件310之间的接近度来检测对壳体的基于手的挤压。另选地,传感器垫372可设置在壳体310的内壁、或用户界面设备中的其它合适的固定参考点上。
如图3B所示,传感器垫372可缠绕构件310的外表面,并且可具有终端,该终端经过构件310中的狭槽以联接到设置在构件310内的PCB 360。图4A和图4B示出与示于图3A-图3C中的传感器垫372类似的电容传感器垫520的示例。电容传感器垫520可包括例如具有一个或多个离散的导电区域522的柔性电路。导电区域522可沿着电容传感器垫570的宽度布置,由此使得当电容传感器垫520缠绕构件510时,如图4C所示,导电区域522被周向布置为围绕构件510的环。
在示于图4A和图4B中的电容传感器垫520的示例中,电容传感器垫520可包括六个离散的区域522。然而,应当理解,电容传感器垫520可包括少于六个区域(例如,两个、三个、四个或五个),或多于六个区域(例如,七个、八个、九个、十个等)。此外,为了基于电容传感器垫520与用户的手之间的接近度来检测壳体的挤压的目的,电容传感器垫520仅包括一个区域522就可能足够了,该区域完全或部分地周向围绕构件510延伸(例如,延伸到用户可能抓紧壳体的位置下方的一组合适的位置)。
区域522可具有任何合适的形状和布置方式。例如,如图4A所示,区域522的形状通常可近似指尖的压印轮廓或图案。作为另一示例,如图4B所示,区域522的形状可具有V形图案。然而,区域522中的一些或全部可以是矩形、圆形、平行四边形、弯曲或其它合适的形状。此外,虽然区域522在图4A和图4B中示为单线阵列,但在其它示例中,区域522可以任何合适尺寸的任何其它合适的直线阵列、或任何其它合适的图案或布置方式来布置。
在一些变型中,具有电容传感器370的用户界面设备300可包含校准例程以校准特定用户的电容感测。不同用户可具有不同尺寸的手,从而导致接触壳体的皮肤表面积的不同基线水平。因此,不同用户可能需要施加不同量的力和/或变形/位移以从电容传感器垫370生成相同的信号电平。在不校准的情况下,不同用户可能需要施加不同量的力来产生相同的效果或控制输入。校准例程的一个示例可包括记录在用户以预定参考量的力挤压壳体时产生的信号电平、以及使用力与所得信号电平之间的关系来将信号电平映射到用于该特定用户的控制输入(例如,用于致动端部执行器)。然而,除此之外或另选地可使用用以补偿各个用户之间的差异的其它合适的校准例程。
在一些变型中,可将电容传感器370之间的电容变化与多个预定阈值进行比较。例如,当电容变化超过第一较低阈值时,这可指示用户轻微挤压壳体,并且该轻微挤压动作可与机器人外科系统的第一用户命令相关。作为另一示例,当电容变化超过第二较高阈值时,这可指示用户较重地挤压壳体,并且该较重挤压动作可与机器人外科系统的第二用户命令相关。
测量的电容变化和/或测量的电容变化的持续时间之间的定时可除此之外和/或另选地与特定用户命令的序列相关。例如,两个(或更多个)连续检测到的挤压可被解释为类似于用于特定用户命令的“双击”动作。作为另一示例,有节奏的连续检测到的挤压(例如,长、短、长)可被解释为另一个用户命令。
在另一个示例性变型中,如图14A-图14C所示,用户界面设备1400可包括至少一个挤压传感器,该挤压传感器包括电容传感器1430,该电容传感器被配置为检测壳体1420的两个分层部分之间的交互作用,作为用户的手与壳体进行交互的结果。类似于示于图12中的壳体1220,壳体1420可包括内壳体层1422和外壳体层1424。内壳体层1422可设置在衬里1421(或另选地,类似于上文参考图1C所述的构件110的构件)上方,并且与衬里1421(或其它构件)协作以形成衬里1421的外表面与内壳体层1422的内表面之间的可变形体积。电容传感器1430可包括第一导电表面(或电极)和第二导电表面(或电极),由此使得电容传感器1430可被配置为通过测量第一导电表面和第二导电表面之间的接近度来检测壳体的挤压。例如,如图14C所示,电容传感器1430可包括设置在衬里1421的表面上的第一导电表面1432(例如,电极)以及设置在内壳体层1422上的第二导电表面1434(例如,电极),由此使得第一导电表面1432和第二导电表面1434彼此面对。第一导电表面1432可以是接地电极,并且第二导电表面1434可以是用于提供电容信号的有源“夹持器”电极,或反之亦然。衬里1421与内壳体层1422之间的距离可基于第一导电表面1432和第二导电表面1434之间的电容来测量。一般来讲,当壳体1420被挤压(例如,通过保持用户界面设备1400的用户的手)时,内壳体层1422可朝向衬里1421被压缩,由此将第一导电表面1432和第二导电表面1434朝向彼此移动。第一导电表面1432和第二导电表面1434之间的测量距离可与用户在壳体1420上施加的挤压量成比例。因此,用户挤压壳体1420的动作可能导致在第一导电表面1432和第二导电表面1434之间测量的电容变化。当电容变化超过预定阈值时,该电容变化可指示用户挤压了壳体,并且该动作可与机器人外科系统的特定用户命令相关。
类似于上文针对电容传感器370所描述的,在一些变型中,第一导电表面1432和第二导电表面1434之间的电容变化可与多个预定阈值进行比较。测量的电容变化和/或测量的电容变化的持续时间之间的定时可除此之外和/或另选地与特定用户命令的序列相关。
在一些变型中,第一导电表面1432可包括导电垫、导电带、导电织物,或包括铜、银、陶瓷或其它合适的导电材料的其它合适的表面。第一导电表面1432可缠绕衬里1421(或其它构件,诸如类似于上述构件110的构件)的周长的至少一部分。在一些变型中,第一导电表面1432可包括面向第二导电表面1434的单个导电区域。单个导电区域可例如位于构件1410的与壳体1420的一部分相对的区域上,当用户在拇指和两个手指之间挤压壳体1420时,该区域通常挠曲。例如,单个导电区域和第二导电表面1434之间的电容变化可与挤压用户命令相关。在其它变型中,第一导电表面1432可包括围绕构件1410周向布置和/或沿着构件1410轴向布置的多个离散的导电区域。多个导电区域可例如提供可与不同手势相关的电容值中的空间分辨率。例如,在第一导电表面1432的第一导电区域(例如,朝向构件1410的远侧端部)和第二导电表面1434之间测量的电容变化(例如,由于用户挤压壳体的覆盖在第一导电区域上的部分)可与第一用户命令相关。类似地,在第一导电表面1432的第二导电区域(例如,朝向构件1410的近侧端部)和第二导电表面1434之间测量的电容变化(例如,由于用户挤压壳体的覆盖在第二导电区域上的部分)可与第二用户命令相关。此外,在一些变型中,可结合上述电容变化的定时和/或持续时间来分析电容变化的位置,由此使得对壳体的不同种类的挤压可与不同用户命令相关。
如同第一导电表面1432,第二导电表面1434可包括导电垫、导电带、导电织物,或包括铜、银、陶瓷或其它合适的导电材料的其它合适的表面。在一些变型中,第二导电表面1434可以是柔性的、易弯曲的,由此使得当第二导电表面1434联接到内壳体层1422时,如图14C所示,第二导电表面1434可在壳体被挤压时随着内壳体层1422移动。例如,第二导电表面可包括导电的涂银织物,该涂银织物联接(例如,经由粘合剂背衬)到内壳体层1422。第二导电表面1434可沿着内壳体层1422的内表面的面向第一导电表面1432的至少一部分设置。类似于第一导电表面1432,第二导电表面1434可包括面向第二导电表面1434(例如,围绕内壳体层1422设置的内环)的单个导电区域。单个导电区域可例如位于壳体1420的区域中,当用户在拇指和两个手指之间挤压壳体1420时,该区域通常挠曲。例如,单个导电区域和第一导电表面1434之间的电容变化可与挤压用户命令相关。在其它变型中,第二导电表面1434可包括围绕内壳体层1422周向布置和/或沿着内壳体层1422纵向布置的多个离散的导电区域。例如,多个导电区域可以是提供可与不同手势相关的电容值中的空间分辨率的导电区域,类似于上文针对第一导电表面1432中的多个导电区域所描述的。
手势检测传感器
在一些变型中,用户界面设备可包括电容传感器形式的一个或多个手势检测传感器,该手势检测传感器被配置为检测壳体与保持壳体的用户的手之间的交互作用。例如,电容传感器可用于检测手势,诸如挥动、轻击、轻击并保持、双击等。手势可例如用于导航图形用户界面(例如,通过不同屏幕进行导航、指示项目的选择或确认等)。除此之外或另选地,手势可用作手指离合器,诸如以在机器人系统的不同方面的控制之间切换(例如,区分机器人臂的控制与端部执行器的控制、或区分端部执行器的控制与图形用户界面等)。
例如,如图3A-图3C所示,上文相对于检测壳体的挤压所述的电容传感器370可除此之外或另选地用于检测手势。因此,如上参考图4A和图4B所示,具有一个或多个离散的导电区域522的电容传感器520可被配置为提供具有空间分辨率的电容感测,以便允许检测跨过不同区域的手势。例如,如示于图5中示出的示例性说明性抓握所示,壳体可包括至少一个手势触摸区域422(由虚线边界线指示),导电区域522位于该手势触摸区域下方。在该示例中,用户的食指可在手势触摸区域422的表面上方触摸和做手势,并且手势触摸区域422下方的构件上的导电区域522可检测用户食指的接触。算法可以将来自导电区域522的信号解释为不同的手势(例如,基于接触的数量、接触的位置、接触的定时等)。在一些变型中,轻击并保持手势可被解释为手指离合机构。除此之外或另选地,电容传感器520的其它部分可包括离散的导电区域以提供其它手势检测区域。
在一些变型中,如图14C和图14D所示,用户界面设备可包括用于检测挤压(例如,类似于上述电容传感器1430)并且用于检测手势的单独电容传感器。例如,除了上文针对检测壳体的挤压所述的第一导电表面1432和第二导电表面1434(例如,接地电极和夹持器电极)之外,用户界面设备还可包括在手势跟踪传感器1450中的第三导电表面1452(例如,“触摸”电极),该手势跟踪传感器被配置为检测由用户在壳体1420的表面上做出的手势。
图14D是示例性壳体的一部分的详细示意图,该壳体包括电容挤压传感器1430和电容手势跟踪传感器1450。挤压传感器1430可包括联接到衬里1421的第一导电表面1432(例如,接地电极)、以及联接到内壳体层1422的内表面的第二导电表面1434(例如,夹持器电极),如上所述。当用户的手如竖直箭头所表示挤压壳体时,用户的手指F可朝向衬里1421压缩内壳体层1422(以及壳体的其它部分),从而改变第一导电表面1432和第二导电表面1434之间的距离,如上所述。另外,电容手势跟踪传感器1450可包括设置在内壳体层1422和外壳体层1424之间的第三导电表面1452。第三导电表面1452(例如,触摸电极)可包括类似于上述电容传感器370的一个或多个离散的导电区域,以用于基于用户的手与壳体的接触的数量、位置、定时等来检测电容。当用户的手执行如水平箭头所表示的手势时,用户的手指F可行进穿过外壳体层1424的表面并且导致由第三导电表面1452上的离散的导电区域中的一个或多个测量的电容变化。因此,此类变化可被解释并且与一个或多个各种用户命令相关,如上所述。
壳体还可包括设置在内壳体层1422的外表面上的至少一个屏蔽层1442。屏蔽层可保护手势跟踪传感器1450的导电表面1452免受来自挤压传感器1430的导电表面1432和1434的电磁干扰。屏蔽层1442可设置在第二导电表面1434和第三导电表面1452之间(例如,联接到内壳体层1422)。除此之外或另选地,壳体还可包括至少一个绝缘层1444以用于保护手势跟踪传感器1450的导电表面1452免受来自挤压传感器1430的导电表面1432和1434的导电信号或电信号的影响。绝缘层1444可设置在第二导电表面1434和第三导电表面1452之间(例如,联接到屏蔽层1442)。绝缘层1444可包括例如泡沫、塑料,或具有低导电率的任何合适的材料。在一些变型中,壳体可包括组合在一个复合层中的绝缘材料和屏蔽材料。此外,虽然屏蔽层和绝缘层在第二导电表面1434和第三导电表面1452之间以特定顺序示出,但应当理解,它们的分层布置方式可与图14D中所示的相反。
另选地,用户界面设备可省去电容挤压传感器1430(例如,并且包括另一个合适的挤压传感器,诸如本文所述的那些挤压传感器,或省去挤压传感器),但仍包括导电表面1452作为用于检测手势的触摸电极。
温度传感器
在一些变型中,用户界面设备可包括一个或多个温度传感器。在一个变型中,一个或多个温度传感器可被配置为检测用户的体温。例如,如图5所示,温度传感器426可位于壳体420的外表面上,并且被配置为基于与用户的手指的接触来测量用户的体温。用户的体温可被用作用户的应力水平的指标。如果用户的体温升高超过阈值水平,则用户界面设备可通过警告系统(例如,通过控制器)向用户指示该危险,并且可提示用户暂停机器人系统的操作。除此之外或另选地,因为具有不同体温的不同用户可能需要施加不同量的力以从电容传感器垫372生成相同的信号电平,所以用户的体温可用于提供与上文针对电容传感器370所述的校准例程类似的校准例程的数据。
在另一个变型中,一个或多个温度传感器可被配置为检测用户界面设备内的温度和/或环境温度。例如,温度传感器可设置在构件内的PCB(例如,示于图2A和图2B中的PCB260、示于图3A-图3C中的PCB 360等)上。作为过程开始时和/或动态地在整个过程中的校准例程的一部分,用户界面设备内的温度和/或环境温度可用于校正或补偿电容传感器和其它传感器测量中的漂移。
掉落传感器
在一些变型中,用户界面设备可包括一个或多个掉落检测传感器,该掉落检测传感器被配置为确定用户的手何时与用户界面设备断开,以便触发用户界面设备与机器人系统的控制之间的通信的暂停,从而避免对机器人系统的无意或非故意命令。
在一个变型中,掉落检测传感器可包括与上文参考图3A-图3C所述的电容传感器370和/或参考图14A-图14D所述的电容传感器1430和1450中的任一个类似的电容传感器。这样的电容传感器(例如,用于检测壳体的挤压和/或壳体上的手势)可除此之外或另选地用于检测用户何时不再保持用户界面设备。例如,电容区域522可用于检测由于电容突然下降到预定阈值以下,用户的手指何时不再靠近壳体。
在另一个变型中,掉落检测传感器可包括至少一个加速度计和/或至少一个陀螺仪,它们可以是单独的传感器或者作为IMU的一部分被并入。加速度计和/或陀螺仪可被配置为在用户不再保持用户界面设备并且随后允许用户界面设备向下下降时检测由于重力而引起的突然向下掉落。
在另一个变型中,用户界面设备的跟踪传感器系统(例如,示于图1C中的跟踪传感器系统140、示于图2A中的跟踪传感器系统240、示于图3A中的跟踪传感器系统340等)可用作掉落检测传感器。例如,如同加速度计和/或陀螺仪,跟踪传感器系统140可在用户不再保持用户界面设备时检测由于重力而引起的突然向下掉落。类似地,在其它变型中,任何其它合适的跟踪传感器(例如,光学跟踪,包括光学标记,诸如附接到适配器的那些光学标记)可用于检测由于用户使用户界面设备掉落而造成的向下掉落。
上述掉落检测传感器中的任一个或多个可单独使用或以任何合适的方式组合使用。例如,多个掉落检测传感器(例如,组合的电容传感器、IMU和跟踪传感器系统)可用于提供冗余以帮助确认用户是否已使用户界面设备掉落。
适配器
一般来讲,在一些变型中,如图6A所示,用于控制机器人系统的手持用户界面设备600可包括构件610,该构件具有第一端部612(例如,近侧端部)和第二端部614(例如,远侧端部),其中第一端部和/或第二端部包括被配置为联接到可拆卸适配器的接合特征结构。类似于上述变型,用户界面设备600可包括壳体620、和跟踪传感器系统,该壳体至少部分地设置在构件610周围并且被配置为保持在用户的手中,该跟踪传感器系统包括跟踪探针642和/或其它传感器以用于检测设备的至少一部分的位置和/或取向。可拆卸适配器可与其它种类的可拆卸适配器互换,从而促进诸如以各种组合的不同形状因数、不同功能特征和/或不同跟踪技术允许用户界面设备的多种配置的模块化设计。可拆卸适配器的示例在下文相对于图6A-图6C、图7A-图7C、图8A-图8DD、图9A-图9C和图11A-图11B描述。
如图6A所示,构件610上的接合特征结构可包括螺纹,该螺纹被配置为联接到可拆卸适配器上的螺纹界面。更具体地讲,构件610的第一端部612可包括第一接合特征结构(例如,近侧接合特征结构),并且构件610的第二端部614可包括第二接合特征结构(例如,远侧接合特征结构)。第一接合特征结构可包括螺纹616a,该螺纹被配置为接合第一适配器630a(例如,近侧适配器)的螺纹634a,从而将适配器630a可移除地联接到构件610。类似地,第二接合特征结构可包括螺纹616b,该螺纹被配置为接合第二适配器630b(例如,远侧适配器)的螺纹634b。此外,将第一适配器630a和第二适配器630b联接到构件610可使第一适配器630a和第二适配器630b邻接到壳体620以保持平滑表面,以便用户进行安全和舒适的处理。另选地,在其它变型中,适配器630可经由螺纹或其它合适的界面直接联接到壳体620。类似地,示于图2A中的构件210可包括用于将第一适配器230a联接到构件210的第一接合特征结构216a、以及用于将第二适配器230b联接到构件210的第二接合特征结构216b。同样类似地,示于图3B和图3C中的构件310可包括用于将第一适配器330a联接到构件310的第一接合特征结构、以及用于将第二适配器330b联接到构件310的第二接合特征结构。虽然示于附图中的接合特征结构包括螺纹,但构件610上的接合特征结构的其它示例包括按扣或扣合接合特征结构(例如,脊、唇缘、突片等)、铰链、易碎粘合剂(例如,具有低粘结力)、弹性界面(例如,O形环、缠绕式弹性带)、或适用于将构件和/或壳体可拆卸地联接到适配器的任何其它联接机构。
例如,如图6A所示,用户界面设备600的一个变型可包括盖适配器630a或者被配置为联接到盖适配器630a,该盖适配器覆盖构件610的一个端部,并且具有可移除地接合构件610上的螺纹616a的螺纹634a。盖适配器630a可被成形为促进用户界面设备600的总体卵形形状或其它圆形主体形状。盖适配器630a可具有至少一个孔632或其它通道,该孔或通道允许一根或多根线材穿入或穿出用户界面设备,但在其它变型中(例如,在无线用户界面设备中),孔632可被省去。此外,图6A示出适配器的另一个变型,即用于跟踪探针642的探针壳体630b。探针壳体630b可包括螺纹634b,该螺纹可移除地接合构件610上的螺纹616b。探针壳体630b可被配置为保护跟踪探针642并提供用于将跟踪探针642插入并固定到构件610中的载体。
作为另一示例,如图6B和图6C所示,用户界面设备600’的另一个变型可包括盖适配器630a或者被配置为联接到盖适配器630a,该盖适配器覆盖构件(未示出)的一个端部,并且具有可移除地接合螺纹616a的螺纹,类似于示于图6A中的变型。此外,图6B和图6C示出适配器的另一个变型,即盘适配器630b’,该盘适配器可包括螺纹634b,该螺纹可移除地接合构件上的对应螺纹。盘适配器630b’可类似于例如下文相对于图图9A和图9B所述的盘适配器。
如图7A-图7B所示,用户界面设备700的一个变型可包括光学跟踪适配器730或者可被配置为联接到光学跟踪适配器730,该光学跟踪适配器可以可移除地联接到构件以形成用户界面设备700,该用户界面设备的位置和/或取向可用监测光学跟踪适配器730的照相机跟踪。光学跟踪适配器730可包括设置在光学跟踪适配器730的至少一个面上的一个或多个光学跟踪标记732。在一个示例中,光学跟踪标记732是无源的,并且包括反向反射材料,由此使得可用监测光学跟踪适配器730的策略性放置的照相机来检测用户界面设备的位置和/或取向。照相机可用红外(IR)光(或其它合适的发射)照亮用户界面设备700的工作空间,并且光学跟踪标记732可将IR光反射回照相机。作为另一示例,光学跟踪标记732可以是有源的(例如,包括发光二极管),其朝向策略性放置的照相机发射IR光(或其它合适的发射)。基于光从光学跟踪标记732的这种反射或发射,光学跟踪系统可确定用户界面设备700的三维位置和/或取向。例如,如图7C所示,用户可以这样的方式保持用户界面设备700的壳体720,该方式使得光学跟踪适配器730面向外并且可处于周围照相机的视线中。光学跟踪标记可以是球形的以增加光学跟踪标记可反射或发射的光的角度范围,但是可除此之外或另选地使用其它类型的光学跟踪器(例如,平坦标记)。
如图7B所示,光学跟踪适配器730的一个变型大致呈从壳体720向外张开的截头三棱锥的形状。然而,光学跟踪适配器730可以是正方棱锥形、球形、棱柱形或任何其它合适的形状,以用于为光学跟踪标记732提供表面以朝向照相机反射或发射光。
如图8A、图8AA、图8B、图8BB、图8D和图8DD所示,用户界面设备800的一个变型可包括近侧触笔适配器830a和/或远侧触笔适配器830b,或者被配置为联接到近侧触笔适配器830a和/或远侧触笔适配器830b。近侧触笔适配器830a可以是细长的,以提供使得用户界面设备800能够搁置在用户的手上的搁置表面,如图8C所示。近侧触笔适配器830a可向下渐缩至舒适的周长,并且/或者可包括圆形横截面形状、三角形横截面形状或其它多边形横截面形状。从壳体820朝向触笔适配器830a的端部的不同长度、周长、曲率半径或锥度、横截面形状和/或其它维度可针对不同用户的手的尺寸或形状、用户偏好、和/或应用定制并且/或者以其它方式可用。例如,示于图8B和图8BB中的近侧触笔适配器830a通常比示于图8A和图8AA中的近侧触笔适配器830a更窄且更长。作为另一示例,示于图8D和图8DD中的近侧触笔适配器830a通常比示于图8B和图8BB中的近侧触笔适配器830a更长。此外,在一些变型中,如图8A和图8AA所示,用户界面设备800可包括一个或多个按钮834(示为在壳体的一个或两个端部处的周向环,但是可另选地设置在近侧触笔适配器和/或远侧触笔适配器的细长表面上等)。此外,此类环形按钮或其它合适的按钮可被包括在任何其它合适种类的近侧适配器和/或远侧适配器中。
近端触笔适配器830a与构件(未示出)或壳体820之间的界面可类似于上述接合特征结构。在一个示例中,近侧触笔适配器830a可在关节832处经由铰链(或球窝关节等)连接到构件或壳体820,由此使得近侧触笔适配器830a可相对于壳体820的纵向轴线以一定角度(例如相对于壳体820的纵向轴线正交、大于90度或小于90度)取向。在某些应用中,该成角度的触笔配置可用于提供对用户界面设备的更符合人体工程学的控制。作为一个示例,如图11A和图11B所示,用户界面设备1100的一个变型可包括近侧触笔适配器1130a和/或远侧触笔适配器1130b(例如,其可类似于远侧触笔适配器830b)或者被配置为联接到近侧触笔适配器1130a和/或远侧触笔适配器1130b,该近侧触笔适配器成一定角度(例如,大致成直角),并且被配置为保持在用户的手掌中。用户界面设备1100的至少一部分(诸如用户的手指可触及的近侧触笔适配器1130a的表面)可包括一个或多个按钮1134,该按钮被配置为进一步接收用于控制机器人系统的方面的用户输入。此类按钮可例如具有区别形状(例如,圆形、三角形、正方形、星形等)和/或纹理(例如,凹坑或非凹坑、具有隆起或不具有隆起等)以帮助使得用户能够基于触摸来区分不同的按钮,并且/或者可具有不同的视觉指示器(例如,颜色)以帮助使得用户能够基于其外观来区分不同的按钮。按钮中的一些或全部可除此之外或另选地包括触摸传感器或其它合适的传感器,这些传感器可允许例如音频反馈(例如,音调或蜂鸣声等)以帮助使得用户能够在某些按钮被触摸或以其它方式接合时基于声音来区分不同的按钮。
远侧触笔适配器830b可以是细长的并且渐缩至较细小的点。远侧触笔适配器830b可例如用于修改用户界面设备800以用于精确工作应用(例如烧灼),其中用户界面设备上的笔状夹持件可向用户提供附加精度或舒适度。远侧触笔适配器830b可包括大致圆形横截面形状、三角形横截面形状、或其它多边形横截面形状。远侧触笔适配器830b可短于近侧触笔适配器830a,但是如同近侧触笔适配器830a,远侧触笔适配器830b可针对不同用户的手的尺寸或形状、用户偏好、和/或应用在长度、周长、曲率半径或锥度、横截面形状和/或其它维度上变化。
近侧触笔适配器830a和/或远侧触笔适配器830b可包括刚性材料或半刚性材料(例如,刚性塑料)。在一些变型中,近侧触笔适配器830a和/或远侧触笔适配器830b可包括柔性或柔顺的材料(例如,有机硅)。
如图9A和图9B所示,用户界面设备900的一个变型可包括盘适配器930或者被配置为联接到盘适配器930。如图9C所示,盘适配器930可被配置为倾斜,类似于操纵杆。盘适配器930可除此之外或另选地被配置为横向移位到侧面(即,面内),并且/或者轴向向上或向下移位,类似于按钮。在又一个变型中,盘适配器930可被配置为轴向旋转,类似于方向盘。例如,盘适配器可指示方向相关的控制输入(例如,照相机视图平移),可用作手指离合器以在控制模式之间切换,并且/或者可用作按钮以指示端部执行器的致动(例如,击发工具)或对图形用户界面项目的选择等。
盘适配器930的形状和/或尺寸可针对不同种类(例如,尺寸、形状等)的用户的手、用户偏好和/或应用而变化。例如,如图9B所示,盘适配器930可包括实心平坦圆盘,该圆盘利用杆932附接到构件和/或壳体920。然而,应当理解,盘适配器930可另选地包括非圆形盘(例如,椭圆形或多边形)、环、更加球形的盘、或其它合适形状的附件。此外,杆932的长度和/或盘的直径或厚度可针对不同的用户而变化。
用户界面设备的另一个变型可包括夹钳适配器,或者被配置为联接到夹钳适配器。例如,夹钳适配器可包括第一可枢转构件和第二可枢转构件,第一可枢转构件被配置为与用户的第一手指(例如,拇指)接合,第二可枢转构件被配置为与用户的第二手指(例如,食指)接合,由此使得第一手指和第二手指可抓紧第一可枢转构件和第二可枢转构件,并且导致第一可枢转构件和第二可枢转构件压紧在一起。压紧适配器可例如用于提供具有可相对运动的钳口或其它端部执行器的致动的基于机械的控制。第一构件和/或第二构件可包括纹理特征结构(例如,肋状物、图案化凸起点)和/或摩擦材料(例如,有机硅或其它橡胶)以减少用户的手指与第一构件和/或第二构件之间的接合的滑动。此外,构件的轮廓可被设计成接收用户的手指。可使用带、环、钩和/或其它合适的附件来将用户的手指牢固地联接到夹钳构件。此外,构件和/或附件的长度、宽度、轮廓、形状和尺寸和/或其它维度可针对不同用户而变化。
无菌性和可处置性
在一些应用中,诸如对于外科或其它医学应用,保持用户界面设备的无菌性可能是重要的。在一些变型中,手持用户界面设备可包括构件、壳体、和如上所述的跟踪传感器系统,该壳体至少部分地设置在构件周围,其中跟踪传感器系统的至少一部分可从构件移除以允许处置构件和壳体中的至少一者。在一些变型中,构件(及其相关联的传感器和其它电子器件)和/或壳体可由低成本的材料制成,这使得在每次使用之后处置而不是重新灭菌更经济实用或便利。在另一个变型中,构件和跟踪传感器系统可从壳体移除以允许处置壳体的至少一部分。
如图14E所示,在其中构件和跟踪传感器系统可从壳体移除的一些变型中,可能期望促进构件/跟踪传感器系统与壳体之间的安全且容易的可逆连接。例如,将电子信号传送到壳体上的电子器件或从壳体上的电子器件(与如上相对于图14A-图14D所述的电容挤压传感器和/或手势跟踪传感器)传送电子信号可通过“靶心”或环状导电接触板1412来完成。接触板1412可被布置在例如设置在内壳体层1422内的衬里1421的端部处的狭槽中。导电接触板1412可包括导电区域的同心环,以用于将来自构件的电触点连接到来自壳体的电触点。例如,如图14D所示,构件1450可包括一个或多个导电(例如,金)引脚1452a-1452c,这些导电引脚以对应于接触板1412上的同心导电环的不同径向距离彼此间隔开。因此,构件1450在衬里1421内的对齐和定位自动地完成了引脚1452a-1452c与接触板1412上的相应导电区域之间的期望的电接触。例如,引脚1452a可大致布置在构件1450的中心处,引脚1452b可以适当径向距离远离构件1450的中心布置,并且引脚1452c可以更远的径向距离远离构件1450的中心布置。
在一些变型中,引脚1452a-1452c可包括联接到共用电气接地的至少一个“接地”引脚、以及用于联接到一个或多个传感器的一个或多个“信号”引脚。例如,在上述电容传感器1430中,设置在衬里1421上的第一导电表面1432可以是经由接触板1412导电地联接到接地引脚的接地表面。另外,设置在内壳体层1422上的第二导电表面1434可以是经由接触板1412导电地联接到信号引脚以提供电容测量的有源表面。应当理解,至少部分地设置在壳体1420中的任何其它传感器可除此之外或另选地经由接触板1412通信地联接到构件1450。
当构件1450被插入到衬里1421中时,引脚1452a、1452b和1452c可具有合适的长度,由此使得它们的远侧端部分别接触中心区域1412a、中间环1412b和外环1412c。该接触由此促进了经由接触板1412与电容传感器1430和/或其它壳体传感器的电通信。安全的电连接可仅仅通过将构件固定到壳体来完成。例如,在该变型中,不需要专用于固定引脚与接触板之间的连接的单独连接器适配器或闩锁。同样简单的是,引脚1452a-1452c与接触板1412的断开仅仅通过从壳体移除构件来完成。因此,这种电连接布置方式可允许更容易地局部组装和拆卸构件(和/或跟踪传感器系统)和壳体,诸如以用于壳体的更容易和更直接的灭菌或处置。然而,任何合适的连接方案都可促进壳体和构件上的电子器件的通信,诸如线材、带状线缆、导电迹线等。
此外,任何适配器(诸如光学跟踪器适配器、触笔适配器或盘适配器)可以是一次性的。构件、壳体和适配器中的一个或多个可以是单次使用的,这意味着它可与跟踪传感器系统分开以便在单次使用之后处置。构件、壳体和适配器中的一个或多个可另选地是有限使用的,这意味着它可与跟踪传感器系统分开以便在有限次数的使用之后(例如,在5-10次之间的使用之后)处置。另选地,包括跟踪传感器系统的整个用户界面设备可以是一次性的。
除此之外或另选地,在一些变型中,用户界面设备可被覆盖有无菌帷帘,诸如袋或其它覆盖物,该无菌帷帘可在用户界面设备的使用之间被替换以便保持无菌性。
出于解释目的,前述描述使用特定术语来提供对本发明的透彻理解。然而,对本领域的技术人员将显而易见的是,无需特定细节来实践本发明。因此,对本发明的特定实施方案的前述描述是出于说明和描述的目的而呈现。它们不旨在是穷尽性的或将本发明限制于公开的精确的形式;显然,鉴于上述教导内容,许多修改和变型是可能的。实施方案经选择和描述,以便解释本发明的原理及其实际应用,它们由此使得本领域的其他技术人员能够利用本发明和具有适合于预期特定用途的各种修改的各种实施方案。随附的权利要求书和其等效物旨在限定本发明的范围。

Claims (54)

1.一种用于控制机器人系统的手持用户界面设备,所述用户界面设备包括:
管腔构件;
柔性壳体,所述柔性壳体具有内壳体壁和外壳体壁,且至少部分地设置在所述管腔构件周围并且被配置为保持在用户的手中,内壳体壁和外壳体壁能协作以限定内壳体壁和外壳体壁之间的体积;
至少一个电容传感器,所述至少一个电容传感器被配置为通过感测内壳体壁的变形来检测所述用户挤压所述柔性壳体;以及
跟踪传感器系统,所述跟踪传感器系统被配置为检测所述设备的至少一部分的位置和取向中的至少一者;
其中柔性壳体的所检测到的挤压、所述设备的所述部分的所检测到的位置、以及所述设备的所述部分的所检测到的取向中的至少一者与所述机器人系统的控制相关。
2.根据权利要求1所述的手持用户界面设备,其中所述电容传感器至少部分地设置在所述管腔构件上。
3.根据权利要求2所述的手持用户界面设备,其中所述电容传感器通过测量所述管腔构件上的第一导电表面与所述内壳体壁上的第二导电表面之间的接近度来感测内壳体壁的变形。
4.根据权利要求3所述的手持用户界面设备,其中,所述电容传感器是第一电容传感器,其中,手持用户界面设备还包括第二电容传感器,所述第二电容传感器包括多个离散的传感器区域,所述离散的传感器区域被配置为检测由所述用户的手在所述柔性壳体上执行的手势。
5.根据权利要求2所述的手持用户界面设备,其中所述电容传感器通过测量所述管腔构件与所述柔性壳体的所述内壳体壁之间的距离的变化来感测内壳体壁的变形。
6.根据权利要求1所述的手持用户界面设备,其中所述电容传感器包括多个离散的传感器区域,所述离散的传感器区域被配置为检测由所述用户的手在所述柔性壳体上执行的手势。
7.根据权利要求1所述的手持用户界面设备,其中所述电容传感器被配置为检测所述用户的手与所述柔性壳体的脱离。
8.根据权利要求1所述的手持用户界面设备,其中所述设备的所述部分的所检测到的位置或所检测到的取向与机器人臂或端部执行器的控制相关。
9.根据权利要求1所述的手持用户界面设备,其中所述柔性壳体的挤压与机器人系统的端部执行器的控制相关。
10.根据权利要求9所述的手持用户界面设备,其中所述柔性壳体包括流体填充的内部体积。
11.根据权利要求1所述的手持用户界面设备,其中所述跟踪传感器系统包括电磁探针,所述电磁探针设置在所述管腔构件中。
12.根据权利要求1所述的手持用户界面设备,还包括光学传感器,所述光学传感器被配置为检测所述柔性壳体的变形。
13.一种用于控制机器人系统的手持用户界面设备,所述用户界面设备包括:
管腔构件;
柔性壳体,所述柔性壳体具有内壳体壁和外壳体壁,且至少部分地设置在所述管腔构件周围,其中,所述柔性壳体被配置为保持在用户的手中,内壳体壁和外壳体壁能协作以限定内壳体壁和外壳体壁之间的体积;
至少一个接近传感器,所述至少一个接近传感器被配置为通过感测内壳体壁的变形来检测所述用户挤压所述柔性壳体;以及
跟踪传感器系统,所述跟踪传感器系统被配置为检测所述设备的至少一部分的位置和取向中的至少一者;
其中所述内壳体壁的所感测到的变形、所述设备的所述部分的所检测到的位置、以及所述设备的所述部分的所检测到的取向中的至少一者与所述机器人系统的控制相关。
14.根据权利要求13所述的手持用户界面设备,其中所述接近传感器包括光学传感器。
15.根据权利要求13所述的手持用户界面设备,其中所述接近传感器设置在所述管腔构件上。
16.根据权利要求15所述的手持用户界面设备,还包括挠曲构件,所述挠曲构件被配置为在所述柔性壳体变形时偏转,其中所述接近传感器被配置为通过在所述柔性壳体变形时测量所述管腔构件和所述挠曲构件之间的距离的变化来检测挤压。
17.根据权利要求13所述的手持用户界面设备,其中所述挤压与端部执行器的控制相关。
18.根据权利要求13所述的手持用户界面设备,其中所述设备的所述部分的所检测到的位置或所检测到的取向与机器人臂或端部执行器的控制相关。
19.根据权利要求13所述的手持用户界面设备,其中,接近传感器通过测量所述管腔构件与所述柔性壳体的所述内壳体壁之间的距离的变化来感测内壳体壁的变形。
20.根据权利要求19所述的手持用户界面设备,其中所述柔性壳体包括流体填充的内部体积。
21.根据权利要求13所述的手持用户界面设备,其中所述跟踪传感器系统包括电磁探针,所述电磁探针设置在所述管腔构件中。
22.根据权利要求13所述的手持用户界面设备,还包括电容传感器,所述电容传感器被配置为检测所述用户的手与所述柔性壳体之间的交互作用。
23.根据权利要求22所述的手持用户界面设备,其中所述电容传感器包括多个离散的传感器区域,所述离散的传感器区域被配置为检测由所述用户的手在所述柔性壳体上执行的手势。
24.根据权利要求22所述的手持用户界面设备,其中所述电容传感器被配置为检测所述用户的手与所述柔性壳体的脱离。
25.根据权利要求13所述的手持用户界面设备,其中所述管腔构件具有近侧端部和远侧端部,其中所述近侧端部和所述远侧端部中的至少一者包括接合特征结构,所述接合特征结构被配置为联接到可拆卸适配器。
26.根据权利要求13所述的手持用户界面设备,其中所述跟踪传感器系统的至少一部分能够从所述管腔构件和所述柔性壳体中的至少一者移除以允许处置所述管腔构件和所述柔性壳体中的至少一者。
27.一种用于控制机器人系统的手持用户界面设备,所述用户界面设备包括:
管腔构件,所述管腔构件具有近侧端部和远侧端部,其中所述近侧端部和所述远侧端部中的至少一者包括接合特征结构,所述接合特征结构被配置为联接到可拆卸适配器;
柔性壳体,所述柔性壳体具有内壳体壁和外壳体壁,且至少部分地设置在所述管腔构件周围,并且被配置为保持在用户的手中,内壳体壁和外壳体壁能协作以限定内壳体壁和外壳体壁之间的体积;
至少一个电容传感器,所述至少一个电容传感器被配置为通过感测内壳体壁的变形来检测所述用户挤压所述柔性壳体;以及
跟踪传感器,所述跟踪传感器被配置为检测所述设备的至少一部分的位置和取向中的至少一者,
其中,柔性壳体的所检测到的挤压、所述设备的所述部分的所检测到的位置、以及所述设备的所述部分的所检测到的取向中的至少一者与所述机器人系统的控制相关。
28.根据权利要求27所述的手持用户界面设备,其中所述可拆卸适配器包括至少一个光学跟踪标记。
29.根据权利要求27所述的手持用户界面设备,其中所述可拆卸适配器包括细长触笔构件。
30.根据权利要求27所述的手持用户界面设备,其中所述可拆卸适配器包括可移动盘。
31.根据权利要求30所述的手持用户界面设备,其中所述可移动盘被配置为倾斜、横向移位和轴向移位中的至少一者。
32.根据权利要求27所述的手持用户界面设备,其中所述接合特征结构包括螺纹。
33.根据权利要求27所述的手持用户界面设备,其中所述接合特征结构包括扣合接合。
34.根据权利要求27所述的手持用户界面设备,其中所述设备的所述部分的所检测到的位置或所检测到的取向与机器人臂或端部执行器的控制相关。
35.根据权利要求27所述的手持用户界面设备,其中所述跟踪传感器包括电磁探针,所述电磁探针设置在所述管腔构件中。
36.根据权利要求27所述的手持用户界面设备,其中,所述柔性壳体的挤压与机器人系统的端部执行器的控制相关。
37.根据权利要求27所述的手持用户界面设备,其中所述柔性壳体包括流体填充的内部体积。
38.根据权利要求27所述的手持用户界面设备,其中,所述电容传感器至少部分地设置在所述管腔构件上。
39.根据权利要求27所述的手持用户界面设备,其中所述电容传感器通过测量所述管腔构件上的第一导电表面与所述内壳体壁上的第二导电表面之间的接近度来感测内壳体壁的变形。
40.根据权利要求27所述的手持用户界面设备,其中所述电容传感器通过测量所述柔性壳体的衬里上的第一导电表面与所述内壳体壁上的第二导电表面之间的接近度来感测内壳体壁的变形。
41.根据权利要求27所述的手持用户界面设备,其中所述电容传感器包括多个离散的传感器区域,所述离散的传感器区域被配置为检测由所述用户的手在所述柔性壳体上执行的手势。
42.根据权利要求27所述的手持用户界面设备,其中所述电容传感器被配置为检测所述用户的手与所述柔性壳体的脱离。
43.根据权利要求27所述的手持用户界面设备,其中所述跟踪传感器的至少一部分能够从所述管腔构件和所述柔性壳体中的至少一者移除以允许处置所述管腔构件和所述柔性壳体中的至少一者。
44.一种用于控制机器人系统的手持用户界面设备,所述用户界面设备包括:
管腔构件;
柔性壳体,所述柔性壳体具有内壳体壁和外壳体壁,且至少部分地设置在所述管腔构件周围,并且被配置为保持在用户的手中,内壳体壁和外壳体壁能协作以限定内壳体壁和外壳体壁之间的体积;
至少一个电容传感器,所述至少一个电容传感器被配置为通过感测内壳体壁的变形来检测所述用户挤压所述柔性壳体;以及
跟踪传感器系统,所述跟踪传感器系统设置在所述管腔构件上并且被配置为检测所述设备的至少一部分的位置和取向中的至少一者,
其中,柔性壳体的所检测到的挤压、所述设备的所述部分的所检测到的位置和所述设备的所述部分的所检测到的取向中的至少一者与所述机器人系统的控制相关;
其中所述跟踪传感器系统的至少一部分能够从所述管腔构件移除以允许处置所述管腔构件和所述柔性壳体中的至少一者。
45.根据权利要求44所述的手持用户界面设备,其中所述柔性壳体是一次性的,并且选自适用于不同种类的用户的手的具有不同尺寸的一组壳体。
46.根据权利要求44所述的手持用户界面设备,其中所述设备的所述部分的所检测到的位置或所检测到的取向与机器人臂或端部执行器的控制相关。
47.根据权利要求44所述的手持用户界面设备,其中所述跟踪传感器系统包括电磁探针,所述电磁探针设置在所述管腔构件中。
48.根据权利要求44所述的手持用户界面设备,其中,所述柔性壳体的挤压与机器人系统的端部执行器的控制相关。
49.根据权利要求44所述的手持用户界面设备,其中所述柔性壳体包括流体填充的内部体积。
50.根据权利要求44所述的手持用户界面设备,其中,所述电容传感器至少部分地设置在所述管腔构件上。
51.根据权利要求44所述的手持用户界面设备,其中所述电容传感器通过测量所述管腔构件上的第一导电表面与所述内壳体壁上的第二导电表面之间的接近度来感测内壳体壁的变形。
52.根据权利要求44所述的手持用户界面设备,其中所述电容传感器通过测量所述柔性壳体的衬里上的第一导电表面与所述内壳体壁上的第二导电表面之间的接近度来感测内壳体壁的变形。
53.根据权利要求44所述的手持用户界面设备,其中所述电容传感器包括多个离散的传感器区域,所述离散的传感器区域被配置为检测由所述用户的手在所述柔性壳体上执行的手势。
54.根据权利要求44所述的手持用户界面设备,其中所述电容传感器被配置为检测所述用户的手与所述柔性壳体的脱离。
CN201780004134.2A 2016-12-09 2017-12-08 用于机器人外科手术的用户界面设备 Active CN108472083B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201662432538P 2016-12-09 2016-12-09
US62/432538 2016-12-09
PCT/US2017/065372 WO2018107062A1 (en) 2016-12-09 2017-12-08 User interface devices for use in robotic surgery

Publications (2)

Publication Number Publication Date
CN108472083A CN108472083A (zh) 2018-08-31
CN108472083B true CN108472083B (zh) 2021-08-17

Family

ID=62488389

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201780004134.2A Active CN108472083B (zh) 2016-12-09 2017-12-08 用于机器人外科手术的用户界面设备

Country Status (9)

Country Link
US (3) US10736701B2 (zh)
EP (1) EP3518802A4 (zh)
JP (1) JP6974463B2 (zh)
KR (1) KR102295241B1 (zh)
CN (1) CN108472083B (zh)
AU (3) AU2017371074B2 (zh)
BR (1) BR112019010047B1 (zh)
CA (1) CA3042739C (zh)
WO (1) WO2018107062A1 (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11007027B2 (en) * 2018-03-07 2021-05-18 Verb Surgical Inc. Surgical robotic user input apparatus having optical fiber-based intrinsic sensors
IT201800005468A1 (it) * 2018-05-17 2019-11-17 Sistema robotico per chirurgia, particolarmente microchirurgia
US11135031B2 (en) 2018-06-15 2021-10-05 Verb Surgical Inc. User interface device having grip linkages
EP3787852B1 (en) * 2018-06-15 2023-10-25 Verb Surgical Inc. User interface device having grip linkages
US11534246B2 (en) 2018-06-15 2022-12-27 Verb Surgical Inc. User input device for use in robotic surgery
CN112218747A (zh) * 2018-06-15 2021-01-12 威博外科公司 具有手指离合器的用户界面装置
US11135030B2 (en) 2018-06-15 2021-10-05 Verb Surgical Inc. User interface device having finger clutch
GB2608752B (en) * 2018-10-03 2023-06-14 Cmr Surgical Ltd Methods and systems for providing assistance to a user of a surgical robot system
GB2577717B (en) * 2018-10-03 2023-06-21 Cmr Surgical Ltd Monitoring performance during manipulation of user input control device of robotic system
GB2613980B (en) * 2018-10-03 2023-09-06 Cmr Surgical Ltd Monitoring performance during manipulation of a robotic system
US11478318B2 (en) 2018-12-28 2022-10-25 Verb Surgical Inc. Methods for actively engaging and disengaging teleoperation of a surgical robotic system
US11504200B2 (en) * 2019-01-24 2022-11-22 Verb Surgical Inc. Wearable user interface device
US11478312B2 (en) 2019-05-10 2022-10-25 Verb Surgical Inc. Unmatching/matching UID to robot grasper for engaging teleoperation
US11204640B2 (en) 2019-05-17 2021-12-21 Verb Surgical Inc. Methods for determining if teleoperation should be disengaged based on the user's gaze
US11337767B2 (en) 2019-05-17 2022-05-24 Verb Surgical Inc. Interlock mechanisms to disengage and engage a teleoperation mode
US11504193B2 (en) 2019-05-21 2022-11-22 Verb Surgical Inc. Proximity sensors for surgical robotic arm manipulation
US11278361B2 (en) 2019-05-21 2022-03-22 Verb Surgical Inc. Sensors for touch-free control of surgical robotic systems
SG10202005706YA (en) * 2019-06-20 2021-01-28 Ss Innovations China Co Ltd Surgeon input device for minimally invasive surgery
US20220173383A1 (en) 2019-07-18 2022-06-02 Lg Energy Solution, Ltd. Lithium-sulfur secondary battery
US11696807B2 (en) * 2020-03-17 2023-07-11 Verb Surgical Inc. Drop detection of ungrounded master controller for a surgical robot
KR20240050528A (ko) * 2022-10-11 2024-04-19 재단법인 아산사회복지재단 원격 중재시술용 마스터 장치

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101566890A (zh) * 2008-04-24 2009-10-28 索尼株式会社 输入装置和控制系统
CN102647955A (zh) * 2009-11-13 2012-08-22 直观外科手术操作公司 用于微创外科手术系统中的手势控制的方法和设备
CN105934215A (zh) * 2014-01-24 2016-09-07 皇家飞利浦有限公司 具有光学形状感测的成像设备的机器人控制

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2826021B2 (ja) 1992-09-17 1998-11-18 日本ネサマック 株式会社 ペングリップ式入力装置
JP3686686B2 (ja) 1993-05-11 2005-08-24 松下電器産業株式会社 力覚呈示デバイス、データ入力装置、及びデータ入力デバイス装置
JPH11194882A (ja) 1998-01-06 1999-07-21 Poseidon Technical Systems:Kk キーボードおよび入力装置
US6184868B1 (en) * 1998-09-17 2001-02-06 Immersion Corp. Haptic feedback control devices
CN1692401B (zh) * 2002-04-12 2011-11-16 雷斯里·R·奥柏梅尔 多轴输入转换器装置和摇杆
US7643862B2 (en) * 2005-09-15 2010-01-05 Biomet Manufacturing Corporation Virtual mouse for use in surgical navigation
JP2009267643A (ja) * 2008-04-23 2009-11-12 Smk Corp リモートコントロール送信機
JP5652026B2 (ja) * 2010-07-15 2015-01-14 ソニー株式会社 入力装置
JP2012099047A (ja) 2010-11-05 2012-05-24 Tokai Rubber Ind Ltd 入力装置
US8823639B2 (en) 2011-05-27 2014-09-02 Disney Enterprises, Inc. Elastomeric input device
US10013082B2 (en) * 2012-06-05 2018-07-03 Stuart Schecter, LLC Operating system with haptic interface for minimally invasive, hand-held surgical instrument
WO2014005225A1 (en) * 2012-07-03 2014-01-09 7D Surgical Inc. Attachments for tracking handheld implements
US20170344113A1 (en) * 2015-01-19 2017-11-30 Kurv Music Ltd. Hand-held controller for a computer, a control system for a computer and a computer system
JP6532241B2 (ja) 2015-02-13 2019-06-19 信越ポリマー株式会社 静電容量型入力装置
WO2016140924A1 (en) 2015-03-01 2016-09-09 Tactical Haptics Embedded grasp sensing devices, systems, and methods
BR112017022721A2 (pt) 2015-04-23 2018-07-17 Stanford Res Inst Int dispositivos de interface de usuário de sistema cirúrgico com hiperdestreza

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101566890A (zh) * 2008-04-24 2009-10-28 索尼株式会社 输入装置和控制系统
CN102647955A (zh) * 2009-11-13 2012-08-22 直观外科手术操作公司 用于微创外科手术系统中的手势控制的方法和设备
CN105934215A (zh) * 2014-01-24 2016-09-07 皇家飞利浦有限公司 具有光学形状感测的成像设备的机器人控制

Also Published As

Publication number Publication date
JP2019536556A (ja) 2019-12-19
AU2020250296B2 (en) 2021-08-12
AU2017371074B2 (en) 2019-09-12
AU2020250296A1 (en) 2020-11-05
EP3518802A1 (en) 2019-08-07
KR102295241B1 (ko) 2021-08-30
BR112019010047B1 (pt) 2023-05-09
AU2017371074A1 (en) 2019-05-16
US10736701B2 (en) 2020-08-11
CA3042739C (en) 2021-03-30
BR112019010047A2 (pt) 2019-09-03
AU2019275547A1 (en) 2020-01-02
US20180161108A1 (en) 2018-06-14
US20200289212A1 (en) 2020-09-17
WO2018107062A1 (en) 2018-06-14
US11690685B2 (en) 2023-07-04
EP3518802A4 (en) 2020-06-24
US11096746B2 (en) 2021-08-24
CN108472083A (zh) 2018-08-31
US20220015839A1 (en) 2022-01-20
KR20190086694A (ko) 2019-07-23
JP6974463B2 (ja) 2021-12-01
AU2019275547B2 (en) 2020-09-10
CA3042739A1 (en) 2018-06-14

Similar Documents

Publication Publication Date Title
CN108472083B (zh) 用于机器人外科手术的用户界面设备
CN107708595B (zh) 超灵巧型手术系统用户接口装置
US11712314B2 (en) Master control device and methods therefor
US12089911B2 (en) User interface device having finger clutch
EP2480156B1 (en) A master finger tracking device in a minimally invasive surgical system
KR20150084801A (ko) 충돌 회피용 스마트 드레이프
EP3478355A1 (en) Systems and methods of steerable elongate device
JP2023052783A (ja) 指掴持部を有するユーザインターフェースデバイス
CN113194870B (zh) 使用者界面装置、手术机器人装置的主控制台及其操作方法
KR20170107231A (ko) 영상 처리를 통해 정밀 제어하는 상지 재활 로봇 모듈 및 재활 로봇 시스템
KR101228190B1 (ko) 지능형 최소 침습 수술 도구
US20220203071A1 (en) Input mechanism for prevention of unintended motion
CN114423369A (zh) 用于机器人控制的手术器械的紧凑致动构型和可扩展器械接纳器

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant