CN112074249A - 用于机器人手术系统的远程指导控制组合件 - Google Patents
用于机器人手术系统的远程指导控制组合件 Download PDFInfo
- Publication number
- CN112074249A CN112074249A CN201980029714.6A CN201980029714A CN112074249A CN 112074249 A CN112074249 A CN 112074249A CN 201980029714 A CN201980029714 A CN 201980029714A CN 112074249 A CN112074249 A CN 112074249A
- Authority
- CN
- China
- Prior art keywords
- input handle
- display
- surgical tool
- input
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 claims abstract description 33
- 238000004891 communication Methods 0.000 claims abstract description 19
- 230000004044 response Effects 0.000 claims description 27
- 238000003384 imaging method Methods 0.000 claims description 26
- 238000001356 surgical procedure Methods 0.000 abstract description 8
- 230000008569 process Effects 0.000 description 11
- 238000012545 processing Methods 0.000 description 9
- 239000012636 effector Substances 0.000 description 5
- 238000012549 training Methods 0.000 description 5
- 230000008901 benefit Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 210000003811 finger Anatomy 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008093 supporting effect Effects 0.000 description 2
- 230000003213 activating effect Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 210000003484 anatomy Anatomy 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000712 assembly Effects 0.000 description 1
- 238000000429 assembly Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 239000004020 conductor Substances 0.000 description 1
- 239000000356 contaminant Substances 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000001976 improved effect Effects 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 239000003562 lightweight material Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000035807 sensation Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 210000003813 thumb Anatomy 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
- 238000009966 trimming Methods 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/102—Modelling of surgical devices, implants or prosthesis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2055—Optical tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/25—User interfaces for surgical systems
- A61B2034/252—User interfaces for surgical systems indicating steps of a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
- A61B2034/742—Joysticks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/365—Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/378—Surgical systems with images on a monitor during operation using ultrasound
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B2562/00—Details of sensors; Constructional details of sensor housings or probes; Accessories for sensors
- A61B2562/02—Details of sensors specially adapted for in-vivo measurements
- A61B2562/0257—Proximity sensors
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Medical Informatics (AREA)
- Public Health (AREA)
- Heart & Thoracic Surgery (AREA)
- Veterinary Medicine (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Robotics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Pathology (AREA)
- Gynecology & Obstetrics (AREA)
- Radiology & Medical Imaging (AREA)
- Manipulator (AREA)
Abstract
提供了用于促进远程指导的手术程序的方法和系统。所述系统包括便携式输入手柄,所述便携式输入手柄进一步包括壳体、与所述壳体相邻安置的位置传感器以及与所述位置传感器通信的位置发送器。所述位置传感器可以被配置成感测所述壳体相对于所述位置发送器的位姿。所述位置发送器可以被配置成接收所述壳体的感测到的位姿并将所述感测到的位姿发送到机器人手术系统。
Description
背景技术
机器人手术系统已经开发用于微创医疗程序。通常,机器人手术系统包括远离一个或多个机器人臂的临床医生控制台,手术器械和/或摄像机联接到所述机器人臂。例如,临床医生控制台可以从机器人臂、另一个房间或另一个建筑物中位于手术室的另一侧,并且包括由临床医生致动的输入手柄和/或其它输入装置。基于输入手柄的致动的信号被传送到中央控制器,所述中央控制器将信号转换成用于操纵机器人臂和/或联接到其的手术器械的命令,例如,在手术部位内。反过来,控制器通常由控制台操纵,所述控制台可以通过有线连接或无线连接进行连接。
当训练新手临床医生使用机器人手术系统时,新手临床医生可以站在主临床医生的另一边,所述主临床医生位于远离机器人系统的控制台处,同时将患者放置在与机器人臂相邻的平台上。主临床医生向控制台处的临床医生界面提供输入,从而控制机器人系统,例如,通过使用输入手柄来操纵联接到机器人臂的工具,如末端执行器或手术器械,以对患者进行外科手术。为了给新手临床医生提供全面的训练经验,专家外科医生可以与新手临床医生交换位置,以允许新手临床医生向控制台传递输入。
尽管实践经验是全面培训计划的一个重要方面,但提供这类经验可能对某些程序具有挑战性。例如,时间在一些手术程序中可能是重要的,因此,在手术期间新手临床医生与专家外科医生交换位置可能是不可行的。在其它情况下,程序的某些步骤可能不会在中间程序中交给另一位外科医生。因此,需要用于在机器人手术系统上进行训练的改进的系统和方法。
发明内容
本公开涉及机器人手术系统,并且更具体地,涉及用于控制机器人手术系统中包括的控制台的系统和方法。
本公开涉及一种机器人手术系统。机器人手术系统包括联接到手术工具的机器人臂、被配置成捕获手术工具的图像的成像装置、第一控制台、第二控制台、显示器和控制器。第一控制台具有第一输入手柄,所述第一输入手柄被配置成接收输入以操纵机器人臂和手术工具。第二控制台具有被配置成接收输入的第二输入手柄。控制器联接到机器人臂、成像装置、第一输入手柄、第二输入手柄和显示器。控制器使显示器显示手术工具的捕获图像。另外,控制器响应于在第二输入手柄处接收到输入,生成虚拟手术工具的图像,并使显示器显示虚拟手术工具的图像。
根据本公开的各方面,机器人手术系统的第二输入手柄包括位置传感器。第二控制台包括位置发送器,所述位置发送器被配置成接收位置传感器相对于位置发送器的位姿数据并将位姿数据发送到控制器。控制器使显示器将虚拟手术工具的图像显示在显示器上的在显示的手术部位中对应于位置传感器的位姿数据的位置处。
在本公开的另一方面,第二输入手柄可以包括被配置成检测物体的接近传感器,并且响应于检测到没有物体,控制器可以使显示器不显示手术工具的图像。
在本公开的另一方面,第二控制台可以包括与控制器通信的遥控器,并且第二输入手柄可以与遥控器进行有线通信。
在再一方面,第二控制台包括与控制器通信的遥控器,并且第二输入手柄无线地联接到遥控器。
根据一个方面,第二输入手柄包括被配置成接收输入的第一输入按钮,并且响应于接收到的输入,控制器可以使手术工具通电。
在另一方面,第二输入手柄包括联接到控制器的振动装置,并且振动装置被配置成响应于第二输入手柄的检测到的移动而振动
在本公开的各方面,提供了一种用于机器人手术系统中的便携式手柄系统。便携式输入手柄系统包括便携式输入手柄,所述便携式输入手柄具有壳体和与壳体相邻安置的位置传感器。可以包括与位置传感器通信的位置发送器。位置传感器可以感测壳体相对于位置发送器的位姿,所述位置发送器被配置成接收壳体的感测到的位姿并将感测到的位姿发送到机器人手术系统。
根据各方面,便携式输入手柄可以进一步包括被配置成检测与其相邻的物体的存在的接近传感器。
根据某些方面,便携式输入手柄系统可以进一步包括振动装置,所述振动装置安置在壳体中并且被配置成响应于壳体的预定的感测到的位姿而振动。
在又一方面,便携式输入手柄的壳体限定了腔。便携式输入手柄可以进一步包括微控制器、抓持器马达和安置在腔中的振动装置,所述微控制器联接到抓持器马达和振动装置。
在另一方面,便携式输入手柄可以包括与抓持器马达通信的输入按钮,所述输入按钮被配置成选择性地接合抓持器马达和与抓持器马达脱离接合。
根据另一方面,便携式输入手柄可以无线地联接到位置发送器。
在另一方面,便携式输入手柄可以通过系绳联接到位置发送器。
在再一方面,护罩至少安置在便携式输入手柄上方。
根据本公开的各方面,提供了一种操作远程指导机器人手术系统的方法,所述机器人手术系统包括:第一控制台,所述第一控制台具有第一显示器;第二控制台,所述第二控制台包括第二显示器和便携式输入手柄;以及机器人臂,所述机器人臂包括联接到控制器的手术工具,所述控制器与所述第一控制台和所述第二控制台通信。方法可以包括:使用成像装置捕获手术部位的图像;以及在第一显示器和第二显示器上显示图像。可以在便携式输入手柄处检测输入。响应于在便携式输入手柄处检测到输入,可以生成虚拟手术工具的图像,并且可以在第一显示器和第二显示器上显示虚拟手术工具的图像。
在另一方面,在第一显示器和第二显示器上显示图像可以包括在手术部位中捕获手术工具,并且在第一显示器上显示手术工具的图像。方法可以进一步包括接收便携式输入手柄的位姿。可以生成虚拟手术工具的图像。基于便携式输入手柄的接收到的位姿,可以将虚拟手术工具的生成的图像显示在手术部位的捕获图像上的在手术部位中的对应位置处。
根据又一方面,可以接收指示便携式输入手柄从第一位姿移动到第二位姿的输入。响应于接收到的输入,可以更新虚拟手术工具的图像。
根据各方面,方法可以进一步包括:检测与便携式输入手柄的距离小于预定值的物体。响应于检测到的距离小于预定值,继续显示虚拟手术工具的图像。替代地,响应于距离大于预定值,中断虚拟手术工具的图像的显示。
附图说明
并入在本说明书中且构成本说明书的一部分的附图说明本公开的实施例,并且与下文所给出的实施例的详细描述一起用以阐释本公开的原理,其中:
图1是根据本公开的实施例的机器人手术系统的示意图,所述机器人手术系统包括机器人系统、具有两个控制臂组合件的第一临床医生界面和具有便携式输入手柄的第二临床医生界面;
图2是图1的第二临床医生界面的透视图;
图3是图1的便携式输入手柄的透视图;
图4是图1的多输入机器人手术系统的功能框图;
图5是根据本公开的实施例的虚幻远程指导过程的流程图;
图6是根据本公开的实施例的图5中描绘的虚幻远程指导过程的步骤的屏幕截图;
图7是根据本公开的实施例的图5中描绘的虚幻远程指导过程的另一步骤的屏幕截图;
图8是根据本公开的实施例的图5中描绘的虚幻远程指导过程的又一步骤的屏幕截图;和
图9是根据本公开的实施例的图5中描绘的虚幻远程指导过程的又一步骤的屏幕截图。
具体实施方式
参考附图详细地描述本公开的实施例,其中相同的附图标记在若干视图中的每一个中表示相同或对应的元件。如本文中所使用,术语“远侧”是指所描述部件更靠近患者的部分,而术语“近侧”是指所描述部件更远离患者的部分。如本文中所使用,术语“临床医生”是指医生、护士、可以包括支持人员的医疗保健提供者或所描述的手术系统的其它操作者。如本文中所使用,术语“手术区域”是指机器人手术系统在其中操作的空间。这类空间可以包括但不限于手术室、机器人存储和维护设施或在其中安置手术机器人用于机械操作的其它空间。
参考图1,总体上示出了根据本公开的多输入机器人手术系统100,并且包括手术机器人系统102、控制器120以及控制台200、300。手术机器人系统102通常包括机器人臂104和塔架118。每个机器人臂104,其可以呈连杆的形式,具有末端106,所述末端106可移动地支撑被配置成作用在组织上的末端执行器、器械或手术工具112。机器人臂104的末端106可包括用于对手术部位“S”进行成像的成像装置108。
每个控制台200、300通过控制器120与塔架118通信,并且包括被配置成显示图像的显示器202、302。根据实施例,显示器202、302显示手术部位“S”的三维图像,所述图像可以包括由成像装置108捕获的成像数据和/或包括由定位在手术区周围的成像装置(未示出)(例如定位在手术部位“S”)内的成像装置、与患者“P”相邻定位的成像装置或定位在成像臂114的远侧末端的成像装置116)捕获的成像数据。成像装置(例如成像装置108、116)可以捕获手术部位“S”的视觉图像、红外图像、超声图像、X射线图像、热图像和/或任何其它已知的实时图像。成像装置108、116将捕获的成像数据发送到控制器120,所述控制器120根据成像数据实时地产生手术部位“S”的三维图像并且将三维图像发送到显示器202、302以供显示。在另一个实施例中,所显示的图像是由成像装置捕获的数据的二维渲染。
根据本公开的实施例,临床医生界面200具有控制台配置,例如,如图1所示。在此实施例中,控制台200限定工作空间“W”,并且包括附接到万向架208的输入手柄204,其允许外科医生操纵手术机器人系统102(例如,移动机器人臂104、机器人臂104的末端106和/或手术工具112)。万向架208中的每一个与控制器120通信以向其发送控制信号并且从其接收反馈信号。另外或替代地,万向架208中的每一个可以包括控制界面或输入手柄204,其允许外科医生操纵(例如夹紧、抓握、击发、打开、关闭、旋转、推挤、切片等)支撑在机器人臂104的末端106处的手术工具112。
万向架208中的每一个是可移动的以移动机器人臂104的末端106和/或在手术部位“S”内操纵手术工具112。显示器202上的三维图像被定向成使得万向架208的移动使机器人臂104的末端106和/或工具112移动,如在显示器202、302上看到的。应当理解,显示装置上的三维图像的取向可以相对于来自患者“P”上方的视图被镜像或旋转。另外,应当理解,显示器202、302上的三维图像的尺寸可以缩放为比手术部位“S”的实际结构更大或更小,从而允许外科医生具有更好的手术部位“S”内的结构视图。随着万向架208移动,手术工具112在手术部位“S”内移动。手术工具112的移动还可以包括支撑手术工具112的机器人臂104的末端106的移动。尽管示出为手柄,但是输入手柄204可以进一步包括包括以下手柄:离合开关、触摸板、操纵杆、键盘、鼠标或其它计算机附件,和/或脚踏开关、踏板、轨迹球或被配置成将来自临床医生的物理移动转换成发送到控制器120的信号的其它可致动装置。
响应于外科医生与万向架208界接(例如,与安置在输入轴(未示出)上的输入手柄204界接),控制臂206可绕六个旋转和平移轴线旋转。输入手柄204可以包括用于控制手术工具112的末端执行器(如打开或关闭抓握构件)的一个或多个按钮或拨片(未示出),并且因此可以提供第七旋转和平移轴线。控制臂206绕六个旋转轴线的移动可由控制器120(参见图1)检测,以操纵多输入机器人手术系统100的机器人臂104和手术工具112。控制臂206和万向架208的构造允许相应的构件和臂的移动以绕七个旋转轴线旋转。
手术工具112的移动相对于输入手柄204以及因此控制臂206和万向架208的移动是成比例的。当输入手柄204在预定义的工作空间“W”内移动时,输入手柄204向控制器120发送控制信号。控制器120分析控制信号以响应于控制信号而移动手术工具112。响应于输入手柄204的移动,控制器120将控制信号发送到塔架118以移动手术工具112。
根据另一个实施例,临床医生界面300具有便携式配置,并且被配置为远程操纵系统。另外参考图2,就这一点而言,控制台300包括类似于显示器202的显示器302、便携式输入手柄400、位置发送器310和计算机308。便携式输入手柄400被配置成可运输的以允许临床医生操纵多输入机器人手术系统100(例如,移动机器人臂104、机器人臂104的末端106和/或手术工具112),而不局限于特定的位置。就这一点而言,便携式输入手柄400与计算机308通信以向其发送控制信号并且从其接收反馈信号。如图2所示,便携式输入手柄400通过线缆312栓到计算机308。线缆312可以是多导体线缆,其为便携式输入手柄400提供电源线和通信线。在其它实施例中,便携式输入手柄400无线地联接到计算机308。
现在参考图3,便携式输入手柄400通常包括壳体404(仅示出其中的一半)、输入按钮422、412、424、微控制器420、手柄电子器件406、抓持器马达416和传感器410、414。除了容纳便携式输入手柄400的部件之外,壳体404被配置成被临床医生握住,并且包括手柄部分426和从手柄部分426延伸的主体428。壳体404通常由耐用的轻质的材料制成,如塑料,并且可以被设计为翻盖,当翻盖组装在一起时,形成用于处置便携式输入手柄400的部件的腔430。尽管通常具有光滑的表面,但是手柄部分426被配置成搁置在临床医生的手掌中,并且可以具有粗糙或发粘的外表面以易于抓握。
壳体404的主体428包括各种开口,输入按钮412、422、424可通过其进入或可以延伸穿过其。提供输入按钮412、422、424以允许临床医生选择性地使手术工具112通电或操纵手术工具112。在实施例中,输入按钮412、422、424电联接到微控制器420,使得临床医生可以选择性地提供输入,所述输入被发送到控制器120以使手术工具112通电。为了舒适和易于使用,输入按钮422可与手柄部分426间隔开,以便可由临床医生的食指致动。例如,输入按钮可以呈触发器的形式,所述触发器在被致动时使手术工具112通电。
输入按钮412可以设置在输入按钮422附近,例如,在主体428的顶侧上,在仍然握住手柄部分426时,临床医生的拇指最容易接近所述输入按钮412。当由临床医生致动时,输入按钮412将抓持器马达416置于位姿控制模式(例如,“离合”模式),并且当释放时,与抓持器马达416重新接合。也就是说,当输入按钮412被致动时,由便携式输入手柄400控制的手术工具112和/或机器人臂104停止跟踪便携式输入手柄400的运动,从而允许临床医生操纵或重新定位便携式输入手柄400,而不影响手术工具112和/或机器人臂104的位姿。在实施例中,抓持器马达416的离合和/或重新接合被发送到机器人臂104,以向其提供信号以用于机器人臂104和/或手术工具112的操纵。例如,如果临床医生在缝合期间握住便携式输入手柄400来旋转手术工具112,则临床医生可能需要在初始位姿和最终位姿之间旋转他或她的手几次,以使手术工具112形成单针。这样,临床医生然后可能需要在缝合期间将他或她的手返回到初始位姿,并且因此,在临床医生的手旋转回到第一位姿之前,临床医生可以致动输入按钮412以将抓持器马达416放置处于位姿控制模式,从而使控制手术工具112的马达紧握,然后释放输入按钮412以重新接合相同的马达。如本文中所使用,术语“位姿”是指物体的位置和取向,例如,手术工具112的位置和取向。
输入按钮424可以与输入按钮412相邻设置,例如在主体428的一侧上,在临床医生的手握住手柄部分426时,临床医生的食指可以容易地接近所述输入按钮424。响应于输入按钮424的致动,电信号被发送到微控制器420,其继而记录输入按钮424的位置移动并将记录的移动发送到控制器120。控制器120然后将控制信号发送到机器人臂104以对应地移动手术工具112。通常,输入按钮424的致动对应于手术工具112的类似致动(例如,打开/关闭)。
作为安全措施,便携式输入手柄400包括传感器410,所述传感器410被配置成检测如临床医生的手的物体,并将检测的反馈信号提供给微控制器420。例如,传感器410可以是适合于检测物体的接近的多种类型的传感器中的任何一种,如红外传感器、感应传感器、磁传感器或其它这类合适的传感器。在接收到如临床医生的手的物体不在传感器410的附近的信号(例如,所述物体的距离高于阈值)时,微控制器420可以将信号发送到控制器120,这可以防止或停止虚拟手术工具在显示器202、304上的显示,或者如果需要,呈现或停止机器人臂104的移动。
继续参考图3,便携式输入手柄400可以包括一个或多个发光二极管(LED)418,以向临床医生指示便携式输入手柄400的状态、多输入机器人手术系统100的状态或手术机器人系统102的状态。例如,LED418可以发出各种颜色的光以指示便携式输入手柄400、多输入机器人手术系统100和/或机器人手术系统102中的一个或多个的当前状态或操作模式。为了允许临床医生增加对便携式输入手柄400的操纵的自由度,传感器414与位置发送器310一起操作,使得传感器414通过三维场检测便携式输入手柄400的位姿,并且便携式输入手柄400的感测到的位姿由位置发送器310发送到控制器120。与便携式输入手柄400相关联的位姿数据的传输可以在特定时间发生,或者替代地作为数据流连续发生。根据实施例,传感器414可以是6轴远程位置传感器,如电磁传感器,其中传感器414的位姿被跟踪,然后由位置发送器310发送。
可以相对于位置发送器310以电磁方式或光学方式跟踪传感器414的位姿。在另一个实施例中,包括一个或多个照相机(未示出)以捕获便携式输入手柄400和/或控制台300的图像,其中计算机308接收捕获图像并使用机器视觉算法来处理捕获图像,以测量便携式输入手柄400相对于位置发送器310的XYZ位置和滚转-俯仰-偏转取向。本领域技术人员应当理解,可以在不脱离本公开的范围的情况下单独地或组合地使用这些位姿跟踪技术。不论是哪种特定的实现方式,控制台200的输入手柄204和万向架208都用传感器414和位置发送器310替换,以跟踪输入手柄204的位姿并允许外科医生操纵(例如夹紧、抓握、击发、打开、关闭、旋转、推挤、切片等)支撑在机器人臂104的末端106处的手术工具112。在实施例中,位置发送器310可以将感测到的数据作为电信号发送到计算机308,并且继而,计算机308可以将电信号发送到控制器120以重新定位手术工具112。发送的位姿数据可以用于以对应位姿在显示器202、302中的一个或两者上显示虚拟手术工具112'(参见图7-9)。
振动装置408可以包括在便携式输入手柄400的手柄部分426中。振动装置408与计算机308通信,所述计算机308向微控制器420提供信号以响应于临床医生做出的特定移动而使振动装置408振动。因此,当便携式输入手柄400在使用中时,振动装置408向临床医生提供触感。
返回图2,位置发送器310和计算机308可以位于工作台316上,均以提供水平的固定表面以将位置发送器310定位在其上,并且允许临床医生根据需要放松或改变自己的位置以防止疲劳。可以想到的是,便携式输入手柄400可以搁置在便携式扶手(未示出)上,所述便携式扶手可以可移除地附接到工作台316,以促进位置发送器310与便携式输入手柄400之间的相互作用。扶手提供与控制台200中的扶手类似的感觉和人体工程学的好处,并且还限定了位置跟踪器的允许工作空间。便携式扶手可以被夹在或钩在桌面上或附接到便携式支架。
显示器302可以位于工作台316上,以从位于手术区域“S”中的成像装置108、116接收手术工具112的图像或虚拟手术工具112'的图像。尽管所描述的实施例包括手术工具112以及虚拟手术工具112'的表示,但是可以想到的是,显示器202、302也可以在显示器202、302上示出在虚拟机器人手术工具的位置中的光标或其它图标,以供临床医生识别手术区域“S”中的某些关注点。
可以想到的是,在某些实施例中,工作台402可以位于手术室内。例如,参考图1,任选地,便携式输入手柄400被示出为无菌便携式输入手柄系统318的一部分,所述无菌便携式输入手柄系统318包括护罩320,所述护罩320的尺寸被设定成覆盖控制台300的至少一部分,例如覆盖便携式输入手柄400,以允许与手术外科医生的无菌接口并防止接触污染物。护罩320允许便携式输入手柄400在患者“P”所处的手术室中使用,使得如果需要干预,监视手术程序的临床医生可以加入以接管手术程序。
图4是图1的多输入机器人手术系统100的功能框图。如上所提,控制器120被配置成响应于从控制台200、300中的一个接收的输入而与塔架118通信,从而提供操作指令。虽然图4示出了两个控制台200、300,但是应当理解,这些控制台200、300中的一个可以由便携式输入手柄400代替,和/或除了控制台200、300之外还可以使用便携式输入手柄400。在一些实施例中,便携式输入手柄400可以形成控制台300的一部分。就这一点而言,控制器120通常包括处理单元126、存储器128、塔架接口124和控制台接口122。处理单元126,特别是借助于存储在存储器128中的计算机程序,以这样的方式起作用,以使塔架118的部件根据由控制台200的输入手柄204限定的移动来执行期望的移动。处理单元126包括适于执行计算和/或根据一组指令操作的任何合适的逻辑控制电路。处理单元126可以包括一个或多个处理装置,如微处理器类型的处理装置或能够执行存储在存储器128中的指令和/或处理数据的其它物理装置。存储器128可以包括暂时类型存储器(例如RAM)和/或非暂时类型存储器(例如闪存介质、磁盘介质等)。塔架接口124和控制台接口122分别与塔架118和控制台200(并且,在实施例中,其控制台300)无线地(例如Wi-Fi、蓝牙、LTE等)和/或通过有线配置进行通信。尽管被描绘为单独的模块,但是在其它实施例中,控制台接口122和塔架接口124可以是单个部件。
塔架118包括通信接口132,所述通信接口132被配置成从塔架接口124接收通信和/或数据,用于操纵马达机构,从而移动机器人臂104。根据实施例,马达机构被配置成响应于来自处理单元126的指令,接收用于机械操纵线缆(未示出)的电流的施加,所述线缆附接到机器人臂104,以引起机器人臂104和/或联接到机器人臂104的手术工具112中所选择的一个的期望移动。塔架118还包括成像装置116,其捕获实时图像并通过通信接口132将表示图像的数据发送到控制器120。
为了操纵与塔架118相关联的手术工具112,每个控制台200、300具有显示器202、302以及计算机210、308。如上所提,第一控制台200和第二控制台300分别具有附接的输入手柄204和/或便携式输入手柄400。输入手柄204和便携式输入手柄400两者都联接到对应的计算机210、308,并且被临床医生用来将输入发送到控制器120。与控制台200相关联的输入手柄204可移除地附接到万向架208,并且可绕六个自由轴线移动,万向架208能够绕所述六个自由轴线移动。可以想到的是,与控制台200相关联的输入手柄204可以是手柄、踏板或计算机附件,如键盘、操纵杆、鼠标、按钮、滚轮、触摸屏、开关、轨迹球或其它类似部件。例如,一个或多个按钮或其它用户输入界面可用于控制所显示的虚拟手术工具112'的类型。可以使用附加按钮或其它用户输入界面来控制显示虚拟手术工具112'的尺寸。当虚拟手术工具112'定位在手术部位“S”内时,一个或多个按钮或其它用户输入界面也可以用于标记虚拟手术工具112'的参考位置,例如路标。同样,可以使用一个或多个按钮或其它用户输入界面来允许临床医生提供视觉指导,如通过绘制线或形状等,所述线或形状与虚拟手术工具112'一起显示。也可以使用一个或多个按钮或踏板来允许临床医生指示何时应当激活虚拟手术工具112'代表的手术工具112的末端执行器,例如通过使手术工具112通电或激活钉合或修剪功能等。末端执行器的激活的指示可以通过显示的虚拟手术工具112'的颜色变化和/或通过听觉、文本或其它图形指令来表示。
显示器202、302显示从控制器120接收的图像或其它数据,从而将数据传送给临床医生。分别与第一控制台200和第二控制台300相关联的计算机210、308包括处理单元和存储器,其进一步包括与塔架118的各部件、算法和/或操作有关的数据、指令和/或信息,并且可以使用任何合适的电子服务、数据库、平台、云等等来操作。
参考图5,示出了虚幻远程指导过程500(在下文中称为“过程500”),其中控制器120可以在从至少两个控制台200、300接收输入时,显示手术机器人系统的图像和叠加到手术机器人系统的图像上的虚拟手术工具112'的图像。如上所提,在一些实施例中,控制台200、300中的一个可以由便携式输入手柄400代替,或者在替代方案中,便携式输入手柄400可以形成控制台300的一部分。具体地说,当第一临床医生从第一控制台操纵手术机器人系统102时,第二临床医生从第二控制台操纵虚拟手术机器人系统。在第一临床医生和第二临床医生分别提供输入时,控制器120在两个显示器202、302上同时显示手术机器人系统102和叠加的虚拟手术机器人系统。
进一步参考图5,就这一点而言,在步骤502,可以包括手术工具112的手术区域“S”的图像由成像装置108捕获,并由控制器120发送到显示器202、302以进行显示。在实施例中,可以在显示器202、302上显示在将手术工具112以第一位姿安置时捕获的手术工具112的图像,以在两个控制台200、300处为临床医生提供手术工具112相对于手术部位“S”的位置的视图。在图6中示出了根据实施例的显示器600,并且包括手术工具112的捕获图像。
在手术程序期间的某个时刻,可以在第一控制台200处接收输入以重新定位手术工具112。例如,第一临床医生可以提供输入以将附接到万向架208的输入手柄204从第一位姿移动到第二位姿,从而将手术工具112从第一位姿移动到第二位姿。随着成像装置108继续捕获手术部位“S”的图像,由成像装置108捕获的更新的图像被显示在显示器202、302上,以示出手术工具112从第一位姿移动到第二位姿时的手术工具112。
在步骤504,确定在便携式输入手柄400上是否检测到如第二临床医生的手的物体。例如,传感器410可以检测物体,并且如果物体的距离低于预定值,则确定检测到物体。
在步骤506,响应于物体的检测和/或基于来自第二临床医生的输入,生成虚拟手术工具112'的图像并将其叠加到手术区域“S”和/或手术工具112的图像上,显示在显示器202、302上。虚拟手术工具112'的图像可以包括三维图像,所述三维图像示出了虚拟手术工具112'的深度和位姿,如通过示出虚拟手术工具112'的夹钳相对于手术部位“S”的位姿。与便携式输入手柄400的位姿有关的数据被提供给控制器120,所述控制器120使用数据以生成虚拟手术工具112'在手术部位“S”中的对应位姿下的图像。然后将生成的图像作为手术工具112的图像上的叠加图显示在两个显示器202、302上。在图7中示出了根据实施例的显示器700,并且包括手术工具112和虚拟手术工具112'的捕获图像。虽然图7示出了手术工具112和虚拟手术工具112'的远侧部分,但本领域技术人员将认识到,手术工具112、虚拟手术工具112'和/或手术机器人系统102的附加部分可以基于显示的图像相对于手术工具112和虚拟手术工具112'的比例来示出。返回步骤504,如果未检测到物体(例如,物体的距离大于预定值),则过程500在框504处重复或终止。
在实施例中,第二临床医生可能希望向第一临床医生指示将手术工具112放置在手术部位“S”中的位置。这样,第二临床医生可以将虚拟手术工具112'移动到期望位置,使得第一临床医生可以跟随移动。就这一点而言,在步骤506之后在步骤508,可以接收来自便携式输入手柄400的第二控制台300的输入,指示便携式输入手柄400从第一位姿移动到第二位姿,并且作为响应,生成图像以显示对应于从第一位姿移动到第二位姿的在手术部位“S”中的一定位置处的虚拟手术工具112'。例如,如图8的显示器800中所示,虚拟手术工具112'已经移动到与图7相比不同的位置,这允许第二临床医生重新定位手术工具112,如图9的显示器中900所示。
在框510,确定在便携式输入手柄400上是否检测到如第二临床医生的手的物体。例如,传感器410可以检测物体,并且如果物体的距离低于预定值,则确定检测到物体。在这种情况下,在步骤512,虚拟手术工具112'的图像继续显示叠加在显示器202、302上,并且过程500在框506重复。如果没有检测到物体(例如,对象的接近距离高于预定值),则在步骤514,虚拟手术工具112'不显示在手术工具112的图像上方,显示在显示器202、302上,并且过程500在框504重复或终止。
本公开提供了新颖的系统、方法和布置,以协助主临床医生教导新手临床医生如何执行机器人手术操作。所公开的系统和方法的一个优点是指导临床医生能够在远距离上向其它临床医生提供指导和/或引导的能力。例如,所公开的系统和方法允许指导临床医生与其它临床医生在同一房间中,或者在通过网络连接到训练位置的某个远程位置。由于指导临床医生没有直接控制手术机器人系统,因此由网络连接引起的时间延迟不会引起安全隐患。所公开的系统和方法的另一个优点是指导临床医生提供手术工具相对于患者的解剖结构的移动和放置的三维视觉引导的能力。尽管已出于说明性目的提供了对所公开的技术的一个或多个实施例的详细描述,但在不改变或脱离本发明的精神的情况下,各种替代方案、修改和等效物对于本领域的普通技术人员将是显而易见的。例如,虽然上述实施例参考特定的特征、部件或其组合,但是这类特征、部件和组合可以用功能上等同的替代物来替代,这些替代物可以含有或可以不含有如最初所描述的元件。
此外,虽然所公开的实施例想到了控制器在机器人手术系统外部的位置,但是可以想到的是,控制器可以位于机器人手术系统内,或替代地,机器人手术系统部件可以包括独立于控制器执行所描述的力测量和计算的电路。
虽然已经在附图中示出了本公开的若干实施例,但并不旨在将本公开限制于此,而在于使本公开与本领域所允许的范围一样广泛,并且应以同样的方式阅读本说明书。以上实施例的任何组合也被设想并且在所附权利要求书的范围内。因此,以上描述不应被解释为限制性的,而仅仅是特定实施例的示范。本领域的技术人员将在所附权利要求书的范围内设想其它修改。
Claims (18)
1.一种机器人手术系统,其包含:
机器人臂,所述机器人臂联接到手术工具;
成像装置,所述成像装置被配置成捕获所述手术工具的图像;
第一控制台,所述第一控制台包含第一输入手柄,所述第一输入手柄被配置成接收输入以操纵所述机器人臂和所述手术工具;
第二控制台,所述第二控制台包含第二输入手柄,所述第二输入手柄被配置成接收输入;
显示器;和
控制器,所述控制器联接到所述机器人臂、所述成像装置、所述第一输入手柄、所述第二输入手柄和所述显示器,
其中所述控制器使所述显示器显示所述手术工具的捕获图像,并且响应于在所述第二输入手柄处接收所述输入,生成虚拟手术工具的图像,并使所述显示器显示所述虚拟手术工具的所述图像。
2.根据权利要求1所述的机器人手术系统,其中:
所述第二输入手柄包含位置传感器,
所述第二控制台进一步包含位置发送器,所述位置发送器被配置成接收所述位置传感器相对于所述位置发送器的位姿数据并将所述位姿数据发送到所述控制器,并且
所述控制器使所述显示器将所述虚拟手术工具的所述图像显示在所述显示器上的在显示的手术部位中对应于所述位置传感器的所述位姿数据的位置处。
3.根据权利要求2所述的机器人手术系统,其中所述第二输入手柄包括被配置成检测物体的接近传感器,并且响应于检测到没有所述物体,所述控制器使所述显示器不显示所述手术工具的所述图像。
4.根据权利要求1所述的机器人手术系统,其中所述第二控制台包括与所述控制器通信的遥控器,并且所述第二输入手柄与所述遥控器进行有线通信。
5.根据权利要求1所述的机器人手术系统,其中所述第二控制台包括与所述控制器通信的遥控器,并且所述第二输入手柄无线地联接到所述遥控器。
6.根据权利要求1所述的机器人手术系统,其中所述第二输入手柄包含被配置成接收输入的第一输入按钮,并且响应于接收到的输入,所述控制器使所述手术工具通电。
7.根据权利要求1所述的机器人手术系统,其中所述第二输入手柄包含联接到所述控制器的振动装置,并且所述振动装置被配置成响应于所述第二输入手柄的检测到的移动而振动。
8.一种用于机器人手术系统中的便携式输入手柄系统,其包含:
便携式输入手柄,所述便携式输入手柄包含壳体和与所述壳体相邻安置的位置传感器;和
与所述位置传感器通信的位置发送器,
其中所述位置传感器被配置成感测所述壳体相对于所述位置发送器的位姿,并且所述位置发送器被配置成接收所述壳体的感测到的位姿并将所述感测到的位姿发送到所述机器人手术系统。
9.根据权利要求8所述的便携式输入手柄系统,其中所述便携式输入手柄进一步包含被配置成检测与其相邻的物体的存在的接近传感器。
10.根据权利要求8所述的便携式输入手柄系统,其中所述便携式输入手柄进一步包含振动装置,所述振动装置安置在所述壳体中并且被配置成响应于所述壳体的预定的感测到的位姿而振动。
11.根据权利要求8所述的便携式输入手柄系统,其中所述便携式输入手柄的所述壳体限定腔,所述便携式输入手柄进一步包含微控制器、抓持器马达和安置在所述腔中的振动装置,所述微控制器联接到所述抓持器马达和所述振动装置。
12.根据权利要求11所述的便携式输入手柄系统,其中所述便携式输入手柄包括与所述抓持器马达通信的输入按钮,所述输入按钮被配置成选择性地接合所述抓持器马达和与所述抓持器马达脱离接合。
13.根据权利要求11所述的便携式输入手柄系统,其中所述便携式输入手柄无线地联接到所述位置发送器。
14.根据权利要求11所述的便携式输入手柄系统,其中所述便携式输入手柄通过系绳联接到所述位置发送器。
15.一种操作远程指导机器人手术系统的方法,所述远程指导机器人手术系统包含:第一控制台,所述第一控制台包括第一显示器;第二控制台,所述第二控制台包括第二显示器和便携式输入手柄;以及机器人臂,所述机器人臂包括联接到控制器的手术工具,所述控制器与所述第一控制台和所述第二控制台通信,所述方法包含:
使用成像装置捕获手术部位的图像;
在第一显示器和第二显示器上显示所述图像;
在所述便携式输入手柄处检测输入;
响应于在所述便携式输入手柄处检测到所述输入,生成虚拟手术工具的图像;和
在所述第一显示器和所述第二显示器上显示所述虚拟手术工具的所述图像。
16.根据权利要求15所述的方法,其中:
在所述第一显示器和所述第二显示器上显示所述图像包括在所述手术部位中捕获所述手术工具的图像,并在所述第一显示器和所述第二显示器上显示所述手术工具的所述图像,并且
所述方法进一步包含:
接收所述便携式输入手柄的位姿;
生成所述虚拟手术工具的所述图像;和
基于所述便携式输入手柄的接收到的位姿,将所述虚拟手术工具的生成的图像显示在所述手术部位的捕获图像上的在所述手术部位中的对应位置处。
17.根据权利要求15所述的方法,其进一步包含:
接收指示所述便携式输入手柄从第一位姿移动到第二位姿的输入;和
响应于接收到的输入,更新所述虚拟手术工具的所述图像。
18.根据权利要求15所述的方法,其进一步包含:
检测与所述便携式输入手柄的距离小于预定值的物体,其中:
响应于所述距离小于所述预定值,继续显示所述虚拟手术工具的所述图像,并且
响应于所述距离大于所述预定值,中断所述虚拟手术工具的所述图像的所述显示。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862647998P | 2018-03-26 | 2018-03-26 | |
US62/647,998 | 2018-03-26 | ||
PCT/US2019/022671 WO2019190792A1 (en) | 2018-03-26 | 2019-03-18 | Telementoring control assemblies for robotic surgical systems |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112074249A true CN112074249A (zh) | 2020-12-11 |
Family
ID=68060348
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980029714.6A Pending CN112074249A (zh) | 2018-03-26 | 2019-03-18 | 用于机器人手术系统的远程指导控制组合件 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210030499A1 (zh) |
EP (1) | EP3773309A4 (zh) |
CN (1) | CN112074249A (zh) |
WO (1) | WO2019190792A1 (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112336432A (zh) * | 2020-11-10 | 2021-02-09 | 亿盛欣科技(北京)有限公司 | 一种主从式ct透视引导实时穿刺系统及主从操作方法 |
CN115635484B (zh) * | 2022-10-28 | 2024-05-03 | 电子科技大学 | 一种控制机器人奇异位姿的方法 |
CN116269155B (zh) * | 2023-03-22 | 2024-03-22 | 新光维医疗科技(苏州)股份有限公司 | 图像诊断方法、图像诊断装置、及图像诊断程序 |
WO2024201236A1 (en) * | 2023-03-24 | 2024-10-03 | Forsight Robotics Ltd. | Engagement of microsurgical robotic system |
Family Cites Families (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8527094B2 (en) * | 1998-11-20 | 2013-09-03 | Intuitive Surgical Operations, Inc. | Multi-user medical robotic system for collaboration or training in minimally invasive surgical procedures |
US8600551B2 (en) * | 1998-11-20 | 2013-12-03 | Intuitive Surgical Operations, Inc. | Medical robotic system with operatively couplable simulator unit for surgeon training |
US20070167702A1 (en) * | 2005-12-30 | 2007-07-19 | Intuitive Surgical Inc. | Medical robotic system providing three-dimensional telestration |
US9579088B2 (en) * | 2007-02-20 | 2017-02-28 | Board Of Regents Of The University Of Nebraska | Methods, systems, and devices for surgical visualization and device manipulation |
US9718190B2 (en) * | 2006-06-29 | 2017-08-01 | Intuitive Surgical Operations, Inc. | Tool position and identification indicator displayed in a boundary area of a computer display screen |
US9050120B2 (en) * | 2007-09-30 | 2015-06-09 | Intuitive Surgical Operations, Inc. | Apparatus and method of user interface with alternate tool mode for robotic surgical tools |
US10532466B2 (en) * | 2008-08-22 | 2020-01-14 | Titan Medical Inc. | Robotic hand controller |
US8720448B2 (en) * | 2008-11-07 | 2014-05-13 | Hansen Medical, Inc. | Sterile interface apparatus |
US8918207B2 (en) * | 2009-03-09 | 2014-12-23 | Intuitive Surgical Operations, Inc. | Operator input device for a robotic surgical system |
CN105342705A (zh) * | 2009-03-24 | 2016-02-24 | 伊顿株式会社 | 利用增强现实技术的手术机器人系统及其控制方法 |
IT1401669B1 (it) * | 2010-04-07 | 2013-08-02 | Sofar Spa | Sistema di chirurgia robotizzata con controllo perfezionato. |
US20140176661A1 (en) * | 2012-12-21 | 2014-06-26 | G. Anthony Reina | System and method for surgical telementoring and training with virtualized telestration and haptic holograms, including metadata tagging, encapsulation and saving multi-modal streaming medical imagery together with multi-dimensional [4-d] virtual mesh and multi-sensory annotation in standard file formats used for digital imaging and communications in medicine (dicom) |
BR112015021098B1 (pt) * | 2013-03-01 | 2022-02-15 | Ethicon Endo-Surgery, Inc | Cobertura para uma junta de articulação e instrumento cirúrgico |
KR102257034B1 (ko) * | 2013-03-15 | 2021-05-28 | 에스알아이 인터내셔널 | 하이퍼덱스트러스 수술 시스템 |
CA2947869C (en) * | 2014-05-15 | 2022-07-26 | Covidien Lp | Systems and methods for controlling a camera position in a surgical robotic system |
WO2016035085A2 (en) * | 2014-09-04 | 2016-03-10 | Memic Innovative Surgery Ltd. | Method and devices for hysterectomy |
WO2016077531A1 (en) * | 2014-11-13 | 2016-05-19 | Intuitive Surgical Operations, Inc. | Integrated user environments |
US9503681B1 (en) * | 2015-05-29 | 2016-11-22 | Purdue Research Foundation | Simulated transparent display with augmented reality for remote collaboration |
CN109219413A (zh) * | 2016-06-03 | 2019-01-15 | 柯惠Lp公司 | 多输入机器人手术系统控制方案 |
AU2017339943B2 (en) * | 2016-10-03 | 2019-10-17 | Verb Surgical Inc. | Immersive three-dimensional display for robotic surgery |
EP3445048A1 (en) * | 2017-08-15 | 2019-02-20 | Holo Surgical Inc. | A graphical user interface for a surgical navigation system for providing an augmented reality image during operation |
EP3709908A4 (en) * | 2017-11-13 | 2021-08-18 | Vicarious Surgical Inc. | WRIST ARRANGEMENT FOR VIRTUAL REALITY |
-
2019
- 2019-03-18 CN CN201980029714.6A patent/CN112074249A/zh active Pending
- 2019-03-18 WO PCT/US2019/022671 patent/WO2019190792A1/en unknown
- 2019-03-18 EP EP19776788.2A patent/EP3773309A4/en not_active Withdrawn
- 2019-03-18 US US16/975,020 patent/US20210030499A1/en active Pending
Also Published As
Publication number | Publication date |
---|---|
WO2019190792A1 (en) | 2019-10-03 |
US20210030499A1 (en) | 2021-02-04 |
EP3773309A1 (en) | 2021-02-17 |
EP3773309A4 (en) | 2022-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US12048505B2 (en) | Master control device and methods therefor | |
US12023122B2 (en) | Ungrounded master control devices and methods of use | |
US20200275985A1 (en) | Master control device with multi-finger grip and methods therefor | |
EP3651677B1 (en) | Systems and methods for switching control between multiple instrument arms | |
US20210030499A1 (en) | Telementoring control assemblies for robotic surgical systems | |
CN110494095A (zh) | 用于约束虚拟现实手术系统的系统和方法 | |
JP7445377B2 (ja) | 外科手術用ロボットを制御するための仮想コンソール | |
US20240207000A1 (en) | Association processes and related systems for manipulators | |
JP2021529014A (ja) | グリップリンクを有するユーザインターフェース装置 | |
GB2606672A (en) | Camera control | |
US11406463B2 (en) | Camera control | |
CN116568235A (zh) | 用于远程指导的系统和方法 | |
GB2605091A (en) | Camera control |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201211 |
|
WD01 | Invention patent application deemed withdrawn after publication |