CN103608150A - 机械手系统 - Google Patents
机械手系统 Download PDFInfo
- Publication number
- CN103608150A CN103608150A CN201280030472.0A CN201280030472A CN103608150A CN 103608150 A CN103608150 A CN 103608150A CN 201280030472 A CN201280030472 A CN 201280030472A CN 103608150 A CN103608150 A CN 103608150A
- Authority
- CN
- China
- Prior art keywords
- arm
- operator
- display unit
- control model
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J3/00—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
- B25J3/04—Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements involving servo mechanisms
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/37—Master-slave robots
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1679—Programme controls characterised by the tasks executed
- B25J9/1689—Teleoperation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B2090/364—Correlation of different images or relation of image positions in respect to the body
- A61B2090/368—Correlation of different images or relation of image positions in respect to the body changing the image on a display according to the operator's position
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/371—Surgical systems with images on a monitor during operation with simultaneous use of two cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
- A61B2090/372—Details of monitor hardware
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/50—Supports for surgical instruments, e.g. articulated arms
- A61B2090/502—Headgear, e.g. helmet, spectacles
Abstract
一种机械手系统包括:主机械手(2),其被配置为发送输入命令;从机械手(6),其被配置为根据输入命令操作;图像捕获单元(101),其被配置为获取对象的图像;显示装置(10),其放置在操作者(Op)的前面并被配置为显示由图像捕获单元(101)获取的图像;检测装置(20),其被配置为检测操作者(Op)的面部相对于显示装置(10)的方向;以及控制单元(31),其被配置为基于检测装置(20)中的检测结果确定面部的方向是否在相对于显示装置(10)的预定角度内,并基于确定结果在第一控制模式和第二控制模式之间转变从机械手(6)的动作模式,在第二控制模式下与第一控制模式相比动作更加受到限制。
Description
技术领域
本发明涉及一种机械手系统。要求于2011年7月15日提交的日本专利申请No.2011-156778的优先权,其内容以引用方式并入本文。
背景技术
在传统技术中,作为手术支持系统,已知有包括主机械手和从机械手的机械手系统,主机械手由操作者操作,以及从机械手被配置为基于主机械手的操作执行处理。
例如,专利文献1公开了一种机械手控制系统,其包括主机械手(主臂)、从机械手、安装在从机械手处的立体视镜(stereoscopic scope)、被配置为显示由立体视镜获取的图像的头戴显示器(HMD)以及被配置为控制从机械手的操作的控制电路。
专利文献1中所公开的机械手控制系统利用传感器检测操作者的视线,该操作者在佩戴HMD的同时执行手术。然后,当操作者的视线不在预定范围内时,禁止从机械手的操作。根据该机械手控制系统,即使当操作者没有看到待处置对象时操作主机械手,从机械手也不操作。
现有技术文献
专利文献
[专利文献1]日本未审查专利申请,第一次公布No.H7-124165
发明内容
本发明解决的问题
然而,在专利文献1中所公开的机械手控制系统中,基于视线的检测结果控制从机械手的操作。因此,用于视线的快速精确检测处理的处理变慢。另外,人眼的形状存在个体差异,由于眨眼在某一时间可能没有检测到视线。因此,可能难以无疑地确定操作者没有看到处置对象。另外,由于需要根据各个操作者进行校准,开始处理的准备耗时。
考虑到上述情况,本发明的目的在于提供一种容易地执行处理并且检测误差很少的机械手系统。
解决问题的手段
根据本发明的第一方面机械手系统包括:主机械手,其被配置为基于操作者的操纵发送输入命令;从机械手,其被配置为根据所述输入命令进行动作;图像拍摄单元,其被配置为获取被摄体的图像;显示装置,其放置在所述操作者的前面并且被配置为显示由所述图像拍摄单元获取的所述图像;检测装置,其被配置为检测所述操作者的面部相对于所述显示装置的方向;以及控制单元,其被配置为基于所述检测装置中的检测结果确定所述面部的方向是否在相对于所述显示装置的预定角度内,并基于确定结果在预定的第一控制模式和第二控制模式之间转变所述从机械手的动作模式,其中在所述第二控制模式下与所述第一控制模式相比动作更加受到限制。。
根据本发明的第二方面,在根据本发明第一方面的机械手系统中,所述检测装置包括:指示单元,其能够佩戴在所述操作者上以与所述操作者的面部一起移动;以及检测单元,其相对于所述显示装置定位并且被配置为在预定范围内检测所述指示单元,其中当所述检测单元未在所述预定范围内检测到所述指示单元时,所述控制单元正常地使所述从机械手在所述第二控制模式下动作,当从未在所述预定范围内检测到所述指示单元的状态改变为在所述预定范围内检测到所述指示单元的状态时,所述控制单元转变为输入待命模式,等待所述操作者输入从所述第二控制模式向所述第一控制模式转变的许可信号,并且输入了所述许可信号时,执行从所述第二控制模式向所述第一控制模式的转变。
根据本发明的第三方面,在根据本发明第一方面的机械手系统中,第二控制模式是持续地停止从机械手的模式。
根据本发明的第四方面,在根据本发明第一至第三方面中的任一方面的机械手系统中,所述检测装置在安装有所述显示装置的状态下检测所述操作者的面部的方向在水平方向上的变化;以及当所述检测装置检测到所述面部的方向在所述水平方向上的变化超过所述预定角度时,所述控制单元转变为所述第二控制模式。
根据本发明的第五方面,在根据本发明第一至第四方面中的任一方面的机械手系统中,当所述控制单元确定所述面部的方向相对于所述显示装置偏离了所述预定角度的范围时,所述控制单元利用能够被所述操作者识别的方式发送消息以提示所述操作者移动所述面部或所述显示装置,使得所述面部的方向相对于所述显示装置处于所述预定角度的范围内。
根据本发明的第六方面,在根据本发明第一至第四方面中的任一方面的机械手系统中,当所述控制单元确定所述面部的方向相对于所述显示装置偏离了所述预定角度的范围时,所述控制单元利用能够被所述操作者识别的方式发送消息以示出所述面部或所述显示装置的移动方向,以使得所述面部的方向相对于所述显示装置处于所述预定角度的范围内。
根据本发明的第七方面,在根据本发明第五或第六方面的机械手系统中,控制单元在显示装置上显示所述消息。
根据本发明的第八方面,在根据本发明第一方面的机械手系统中,在所述显示装置处安装有被配置为可移动地支撑所述显示装置的可移动机构,并且当所述控制单元确定所述面部的方向相对于所述显示装置偏离了所述预定角度的范围时,所述控制单元利用所述可移动机构移动所述显示装置,使得所述面部的方向相对于所述显示装置处于所述预定角度的范围内。
根据本发明的第九方面,在根据本发明第一或第二方面的机械手系统中,所述第二控制模式是所述从机械手按照比所述第一控制模式低的动作速度进行动作的模式。
根据本发明的第十方面,在根据本发明第一至第九方面中的任一方面的机械手系统中,所述显示装置基于双目视差在同一显示表面上显示两个图像,并且所述检测装置的一部分安装在3D眼镜处,所述3D眼镜能够佩戴在所述操作者上并被配置为基于所述两个图像形成立体图像。
根据本发明的第十一方面,在根据本发明第十方面的机械手系统中,所述检测装置检测所述3D眼镜相对于所述显示装置的距离和方向,并且所述控制单元具有初始位置信息,所述初始位置信息示出所述距离和所述方向当中能够最佳地观察所述立体图像的距离和方向的范围,并且基于所述初始位置信息,当由所述检测装置检测到的所述3D眼镜的距离和方向在所述范围内时,所述控制单元转变为所述第一控制模式。
根据本发明的第十二方面,在根据本发明第二至第十一方面中的任一方面的机械手系统中,当从所述第一控制模式转变为所述第二控制模式起的预定时间内,所述面部的方向相对于所述显示装置处于所述预定角度的范围内时,所述控制单元在没有输入所述许可信号的情况下执行从所述第二控制模式向所述第一控制模式的转变。
根据本发明的第十三方面,在根据本发明第二至第十一方面中的任一方面的机械手系统中,当所述面部的方向相对于所述显示装置处于所述预定角度的范围内,同时从执行从所述第一控制模式向所述第二控制模式的转变起所述主机械手的动作量在预定动作量以内时,所述控制单元在没有输入所述许可信号的情况下执行从所述第二控制模式向所述第一控制模式的转变。
根据本发明的第十四方面,在根据本发明第二至第十三方面中的任一方面的机械手系统中,所述指示单元具有预定颜色或预定形状,所述检测单元具有摄像单元,所述摄像单元被配置为获取包括所述指示单元的图像,并且所述控制单元在所述图像上设置预定范围,并将所述图像中具有所述预定颜色或所述预定形状的区域识别为所述指示单元。
根据本发明的第十五方面,在根据本发明第二至第十三方面中的任一方面的机械手系统中,指示单元具有多个标志元件,所述多个标志元件在佩戴所述指示单元的操作者的水平方向或垂直方向中的至少一个上彼此间隔开,检测单元基于多个标志元件的位置的检测结果来检测指示单元的方向。
本发明的效果
根据上述机械手系统,由于基于操作者的面部相对于显示装置的方向来切换第一控制模式和第二控制模式,因此能够提供容易地执行处理并且检测误差很少的机械手系统。
附图说明
图1是示出本发明第一实施方式的机械手系统的总体图。
图2是本发明第一实施方式的机械手系统的框图。
图3是示出本发明第一实施方式的机械手系统中的3D眼镜的立体图。
图4是示出本发明第一实施方式的机械手系统中的检测装置的配置的示意图。
图5是说明本发明第一实施方式的检测装置中的光源的垂直照射角度的示意图。
图6是说明本发明第一实施方式的检测装置中的光源的水平照射角度的示意图。
图7是示出本发明第一实施方式的机械手系统的操作的流程图。
图8是示出本发明第一实施方式的第一修改示例的检测装置的示意图。
图9是示出本发明第一实施方式的第二修改示例的检测装置的示意图。
图10是示出本发明第一实施方式的第三修改示例的机械手系统的局部配置的立体图。
图11是示出本发明第一实施方式的第四修改示例的机械手系统的局部配置的立体图。
图12是示出本发明第一实施方式的第五修改示例的机械手系统的操作的流程图。
图13是示出本发明第一实施方式的第六修改示例的机械手系统的操作的流程图。
图14是示出本发明第一实施方式的第七修改示例的机械手系统的局部配置的示意图。
图15是示出本发明第一实施方式的第八修改示例的机械手系统的框图。
图16是说明本发明第一实施方式的第八修改示例的机械手系统中的初始化操作的示图。
图17是说明本发明第一实施方式的第八修改示例的机械手系统中的初始化操作的示图。
图18是说明本发明第一实施方式的第八修改示例的机械手系统中的初始化操作的示图。
图19是示出本发明第一实施方式的第九修改示例的机械手系统中的3D眼镜的配置的立体图。
图20是示出本发明第一实施方式的第十修改示例的机械手系统的3D眼镜的配置的立体图。
图21是示出本发明第一实施方式的第十一修改示例的机械手系统的配置的示意图。
图22是示出本发明第一实施方式的第十二修改示例的机械手系统的配置的示意图。
具体实施方式
将描述本发明第一实施方式的机械手系统1。图1是本实施方式的机械手系统的总体图。图2是机械手系统的框图。图3是示出机械手系统中的3D眼镜的立体图。图4是示出机械手系统中的检测装置的构造的示意图。
首先,将描述机械手系统1的构造。
如图1所示,机械手系统1包括主机械手2、从机械手6、显示装置10、检测装置20和控制装置30。另外,本实施方式的机械手系统1是与手术器械110、检查器械等(未示出)一起使用的手术支持系统的一部分。
设置主机械手2用于将操作者Op的移动传递给从机械手6。主机械手2包括由手术操作者Op移动的主臂3以及被配置为执行下述动作模式的切换输入的开关5。
主臂3具有能够在从机械手6和手术器械110的活动范围内移动的多轴结构。另外,位移传感器4被配置为发送主臂3的位置和方向的位移作为电信号,并附接到主臂3。由位移传感器4发送的电信号是输出到控制装置30并操作从机械手6的输入命令。这样,主机械手2接收操作者Op的操纵并基于操作者Op的操纵发送输入命令。
开关5是限定定时的开关,所述定时可由下述主控制单元31输入。开关5布置在靠近主机械手2的地板表面上。按压开关5以向控制装置30输出预定返回信号。
从机械手6包括从臂7和致动器8。内窥镜装置100和手术器械110分别附接到从臂7。致动器8分别使内窥镜装置100、手术器械110和从臂7移动。致动器8根据从控制装置30输出的任何驱动信号(下面描述)移动内窥镜装置100、手术器械110和从臂7。
安装在从机械手6处的内窥镜装置100具有图像拍摄单元101,并且电连接到显示装置10。图像拍摄单元101获取对象的图像。图像拍摄单元101所获取的主体不受具体限制。例如,在利用内窥镜装置100执行处理时,图像拍摄单元101可将待处置对象作为目标获取待处置对象的图像。在本实施方式中,图像拍摄单元101获取两个立体图像并将图像作为电信号输出给显示装置10。
设置在从机械手6处的手术器械110用于对图像拍摄单元101的视野内的待处置对象执行处理。手术器械110的类型不受具体限制,可根据处置细节适当地应用熟知的手术器械。另外,手术器械110不限于可附接到从机械手6的手术器械。例如,手术器械110可以是与从机械手6协作的手术器械。
如图1和图2所示,显示装置10附接到主机械手2,并且被放置在操作者Op的前面。显示装置10包括图像处理单元11和显示面板12。图像处理单元11电连接到内窥镜装置100的图像拍摄单元101。显示面板12电连接到图像处理单元11。
图像处理单元11基于从图像拍摄单元101输出的图像的电信号,通过熟知手段配置立体可视图像,以将该图像输出给显示面板12。
作为显示面板12,例如可采用液晶面板、有机EL面板等。显示面板12被配置为在相同的显示表面上显示具有与双目视差对应的偏差的两个图像。
作为显示装置10中立体图像的显示方法,例如可提供交替显示用于右眼和左眼的两个屏幕的图像输出方法或者在相同显示表面上显示用于右眼和左眼的两个偏振屏幕的图像输出方法。显示装置10中立体图像的显示方法不限于这些方法,只要方法是熟知的3D显示方法即可。
例如,在本实施方式中,显示装置10包括3D眼镜13,该3D眼镜可由操作者Op佩戴以基于两个图像来构造立体图像。
3D眼镜13具有偏振片、液晶快门等,以将图像拍摄单元101所获取的两个图像分别分给左眼和右眼,以对应于在显示面板12上显示各图像的显示方法。根据显示装置10的图像输出方法,3D眼镜13可适当地选自偏振眼镜、快门型眼镜等。
在这种情况下,当操作者Op注视显示装置10上显示的图像时,操作者Op佩戴3D眼镜13并经由3D眼镜13的偏振片或液晶快门注视图像。因此,当使用机械手系统1时,3D眼镜13与操作者Op的面部一体地移动。在本实施方式中,作为检测装置20的一部分的指示(index)单元21(下面描述)安装在3D眼镜13上。
如图3和图4所示,检测装置20包括安装在3D眼镜13处的指示单元21以及安装在显示面板12处的检测单元23。
指示单元21固定到3D眼镜13,并且包括光源22和供电单元22a。光源22在预定的垂直照射角度和水平照射角度范围内发射预定波长的光。供电单元22a向光源22供电。在本实施方式中,采用发光二极管(LED)作为光源22,采用锂聚合物电池作为供电单元22a。
检测单元23具有被配置为接收从光源22发射的光的光接收单元24,并电连接到下述的主控制单元31。
光接收单元24具有相对于显示装置10定位的光接收表面25。考虑到当操作者Op注视显示面板12的预定参考位置P1(参见图5)时面部和显示面板12的方向之间的关系以及操作者Op与显示面板12之间的位置关系,来确定光接收表面25的方向,其中在显示面板12中立体图像由在显示面板12上显示的图像适当地构成。
光接收单元24被配置为在操作者Op操纵主机械手2的状态下在操作者Op所在的范围内检测安装在3D眼镜13处的指示单元21。
将详细描述检测装置20的构造。图5是说明检测装置中的光源的垂直照射角度的示意图。图6是说明检测装置中的光源的水平照射角度的示意图。
如图4和图5所示,在指示单元21中,光源22的光轴被布置为使得在操作者Op佩戴3D眼镜13并注视显示面板12上的预定参考位置P1的状态下,来自光源22的光到达光接收表面25。在本实施方式中,参考位置P1被设置在显示面板12的中心。
这里,参照当操作者Op注视参考位置P1时的0度视线方向,仰角和俯角被表示在其向上方向上为正以及在其向下方向上为负。然后,参照当操作者Op向上注视显示面板12的最上端时仰角的大小以及当操作者Op向下注视显示面板12的最下端时俯角的大小,确定光源22的垂直照射角度。在本实施方式中,参考位置P1是显示面板12的中心。另外,在本实施方式中,当操作者Op注视参考位置P1时操作者Op的面部被配置为与显示面板12的方向垂直。因此,仰角和俯角的大小的绝对值相同。
操作者Op的面部可以与显示面板12的方向垂直,使得操作者Op可容易地注视到显示面板12上显示的立体显示。然而,由于根据使用显示面板的场所可能会有布置上的限制,上述配置不限于垂直关系。在这种情况下,根据操作者Op和显示面板12的初始布置,仰角的大小和俯角的大小的绝对值不同。
例如,如图5和下面的等式1所示,基于特定的向上/向下尺寸H以及距显示面板12的最佳距离L获得仰角θH。另外,向上/向下尺寸H是当显示面板12处于安装状态时,通过在沿着显示面板12的表面的向上/向下方向上测量长度而获得的长度。另外,最佳距离L是当人经由3D眼镜注视显示面板12上显示的图像时,图像被识别为立体图像的范围内的距离。
[等式1]
θH=tan-1(H/2L)……………….(等式1)
基于仰角θH和俯角-θH,在操作者Op佩戴3D眼镜13并注视参考位置P1的状态下的水平方向(光轴中心方向)被设置为0度。然后,光源22的垂直照射角度被设置在从仰角到俯角的范围内,使得绝对值的大小为θH或更小。
已知许多人仅在向上/向下方向上移动其注视的视线,而不移动他们的头部。因此,光源22的垂直照射角度可以是在比仰角θH和俯角-θH窄许多的范围内的角度。
另外,可采用脚踏开关作为主机械手2的开关5,其他开关也可布置在地面上。在这种情况下,考虑到操作者Op在操纵过程中面向下的情况,可以将垂直照射角度设置在具有较宽向上方向的范围内。即,在这种情况下,由于操作者Op并非有意将他或她的视线避开显示面板12,因此设置进行变化以使得与操作者Op注视显示面板12的状态一样,光到达光接收表面。
如图6所示,在指示单元21中,通过与垂直照射角度的设置方法相同的方法来设置光源22的水平照射角度。即,在指示单元21中,参照基于作为显示面板12的特定尺寸的宽度尺寸W和最佳距离L由下面的等式2获得的角度θW,将光源22的水平照射角度设置在使得绝对值为角度θW或更小的范围内。另外,宽度尺寸W是通过沿着显示面板12的表面测量当安装显示面板12时在照射角度的水平方向上的长度而获得的长度。
[等式2]
θW=tan-1(W/2L)…………….(等式2)
当操作者Op的面部(视线)面向显示装置10的显示面板12时,即,当操作者Op注视显示面板12时,指示单元21被检测单元23检测到。另一方面,当操作者Op将他或她的面部(视线)朝向外超过显示面板12的边缘时,指示单元21不被检测单元23检测到。因此,检测装置20可在安装有显示装置10的状态下检测操作者Op面部的方向相对于垂直方向和水平方向的变化。
如图2所示,控制装置30经由信号线电连接到主机械手2和从机械手6,并包括主控制单元31和从控制单元32。
主控制单元31基于检测装置20的检测结果确定面部的方向是否在相对于显示装置10的预定角范围内。主控制单元31基于确定结果使从机械手6的动作模式在预定的第一控制模式和第二控制模式之间相互转变,在第二控制模式下比在第一控制模式下操作更加受到限制。
在本实施方式中,第一控制模式是操作从机械手6使得对于待处置对象执行处置的动作模式。在第一控制模式下,主机械手2的主臂3的操作被传递给从机械手6。
同时,第二控制模式是停止不是由主机械手2的主臂3的操作所引起的从机械手6的操作并将从机械手6维持在停止状态的模式。
第二控制模式被实现为防止不是由操作者Op有意的操纵所引起的从机械手6的移动。
在本实施方式中,在第二控制模式下,在控制装置30中将从主机械手2发送来的所有输入命令确定为无效命令。因此,控制装置30被控制为除了开关5的命令之外,不向从控制单元32输出命令。
另外,将从机械手6维持在停止状态的方法不限于此方法。例如,即使在阻断从主机械手2至主控制单元31的信号的方法或者阻断从从控制单元32至从机械手6的信号的方法中,也可以将从机械手6维持在停止状态。
在本实施方式中,控制装置30连接到显示装置10的显示面板12。具体地讲,主控制单元31和显示面板12彼此连接。控制装置30被配置为以文字或符号在显示面板12上显示与机械手系统1的操作有关的信息或警告。
从控制单元32基于来自主控制单元31的输入命令产生用于操作从臂7、内窥镜装置100和手术器械110的驱动信号。然后,从控制单元32将产生的信号分别输出给从臂7、内窥镜装置100和手术器械110。
接下来,将描述使用机械手系统1之前的初始化以及使用机械手系统1时的操作。图7是示出机械手系统的操作的流程图。
如图7所示,就在启动机械手系统1(参见图1)之后,将主控制单元31的动作模式设置为第二控制模式(步骤S101)。
在步骤S101,即使当操作者Op操纵主机械手2的主臂3时,从机械手6也不操作。这里,步骤S101结束,步骤S102开始。
步骤S102是参照检测单元23中的检测结果对处理进行划分的步骤。
在开始使用机械手系统1时,机械手系统1执行初始化以命令操作者Op处于朝向显示装置10的操作者Op位置。执行初始化是为了确定操作者Op和显示装置10的布置,以获得适当构造立体图像时的位置关系。
例如,机械手系统1的操作者Op坐在椅子上,使得他或她的面部面向显示装置10的显示面板12。另外,操作者Op佩戴3D眼镜13。为了使操作者Op能够注视显示面板12上显示的图像并将该图像识别为立体图像,可将操作者Op定位于适合于显示面板12的位置。例如,可以适当地设置操作者Op所坐的椅子的位置或高度。
当从安装在3D眼镜13上的光源22发射的光到达检测单元23的光接收表面25时,检测单元23可检测到指示单元21。另一方面,当从光源22发射的光没有到达检测单元23的光接收表面25时,检测单元23无法检测指示单元21。在根据本实施方式的机械手系统1中,当从安装在3D眼镜13上的光源22发射的光已经到达检测单元23的光接收表面25时,确定操作者Op正常地注视显示面板12上显示的立体图像。
在步骤S102中,主控制单元31参考检测单元23中的检测结果,并且当指示单元21未被检测单元23检测到时,步骤S103开始。当指示单元21被检测单元23检测到时,步骤S104开始。
步骤S103是主控制单元31发送消息以提示操作者Op改变操作者Op相对于显示装置10的位置或方向的步骤。
在步骤S103中,主控制单元31在显示装置10的显示面板12上显示警告。,显示在显示面板12上的警告例如是“请朝着显示器方向看”、“您佩戴3D眼镜了吗?”等。
这里,步骤S103结束,步骤S102开始。
步骤S104是等待操作者Op输入许可信号以执行从第二控制模式向第一控制模式的转变的步骤。
在步骤S104中,主控制单元31在显示面板12上显示消息(例如,“请按压脚踏开关以开始”)以提示操作者按下开关5。
步骤S104循环,直至开关5被按压并进入操作者Op的许可信号的输入待命(standby)模式。当开关5被按压时,来自开关5的返回信号输入到主控制单元31,步骤S104结束,步骤S105开始。
步骤S105是执行从第二控制模式向第一控制模式的转变步骤。
在步骤S105,在主控制单元31中,将从主机械手2发送来的所有输入命令确定为有效命令。
这里,步骤S105结束,步骤S106开始。在步骤S105之后,将从主机械手2发送来的输入命令被输出给从控制单元32。在这种状态下,当操作者Op操纵主机械手2的主臂3时,从控制单元32根据从主机械手2发送来的输入命令产生驱动信号,以将该信号输出给从机械手6。从机械手6接收从控制单元32所输出的驱动信号,并根据接收的驱动信号操作。
步骤S106是主控制单元31在第一控制模式期间检测操作者Op面部的方向使得可以操作从机械手6的步骤。
当操作者Op的面部相对于显示装置10在水平方向或垂直方向上大幅移动时,操作者Op所佩戴的3D眼镜13也与面部一体地移动。此时,从安装在3D眼镜13上的指示单元21的光源22发射的光不到达检测单元23的光接收表面25。例如,当操作者Op响应于附近的人的请求或患者状态的急速改变而大幅移动他/她的面部时,发生这样的操作。
在步骤S106中,类似于步骤S102,主控制单元31参照检测单元23的检测结果确定指示单元21是否被检测单元23检测到。
当指示单元21被检测单元23检测到时,步骤S106循环。当主控制单元31确定指示单元21未被检测单元23检测到时,步骤S106结束,步骤S107开始。
在本实施方式中,在步骤S106中,主控制单元31确定操作者Op的面部的方向是否在操作者Op适当地注视显示面板12时的角度范围内。
步骤S107是主控制单元31在显示装置10的显示面板12上显示警告的步骤。
在步骤S107中,主控制单元31将诸如“您的视线已经偏离”、“请朝着显示器执行处置”等消息数据输出给显示装置10。当这些消息显示在显示装置10的显示面板12上,能够提示操作者Op以正确的方向注视显示装置10。
另外,在步骤S107,主控制单元31可在显示装置10的显示面板12上显示诸如“请调节显示器的方向”的消息。在这种情况下,能够提示操作者Op将显示装置10移到如下位置:在该位置处,在当前状态下的操作者Op的位置处的适当地构成立体图像。
另外,在步骤S107,主控制单元31可通过声音输出消息,而非在显示装置10上显示消息。另外,除了书写的文字(视觉信息)或声音(听觉信息)之外,主控制单元31还可以具有利用操作者Op能够识别的手段来发出消息的装置。例如,在步骤S107,可考虑通过诸如振动、压力等触觉信息发送消息的配置。这里,步骤S107结束,步骤S108开始。
步骤S108是执行从第一控制模式向第二控制模式的转变的步骤。
在步骤S108,将主机械手2发送的所有输入命令确定为无效命令。然后,不把这些命令输出给从控制单元32。因此,即使当操作者Op移动主机械手2的主臂3时,从机械手6仍维持在停止状态。这里,步骤S108结束,步骤S109开始。
步骤S109是在从机械手6处于停止状态的第二控制模式期间检测操作者Op面部的方向的步骤。
在步骤S109,类似于步骤S102,主控制单元31参照检测单元23的检测结果确定指示单元21是否被检测单元23检测到。当指示单元21未被检测单元23检测到时,步骤S109循环。当指示单元21被检测单元23检测到时,步骤S109结束,步骤S110开始。
步骤S110是等待操作者Op输入许可信号以执行从第二控制模式向第一控制模式的转变的步骤。
在步骤S110,主控制单元31在显示面板12上显示消息,以提示操作者按压开关5,并进入输入待命模式以等待操作者Op输入许可信号。作为提示按下开关5的消息,例如,可提供“请按压脚踏开关以重新开始”或“返回主屏?”。
当开关5被按压时,由于来自开关5的返回信号输入至主控制单元31,步骤S105开始。当开关5未被按压时,机械手系统1的一系列处理完成。
另外,在步骤S110完成之后,可重新执行从步骤S101到步骤S110的处理。
如上所述,在本实施方式的机械手系统1中,就在启动之后,从机械手6的操作处于停止状态。然后,本实施方式的机械手系统1被配置为使得仅当操作者Op的面部适当地面对显示面板12时,从机械手6才可以操作。另外,由于通过来自安装在3D眼镜13上的光源22的光是否到达光接收表面25来检测面部的方向,因此可通过简单的处理来检测操作者Op的面部的方向。结果,根据本实施方式的机械手系统1,与检测视线的情况相比,能够简单地执行处理,增加了整个处理速度,以及降低了检测误差。
另外,在利用头戴显示器(HMD)观察待处置对象的图像的传统配置中,当操作者佩戴HMD时,操作者无法在视觉上识别除了显示在HMD上的图像之外的图像。例如,当使用专利文献1中所公开的上述机械手控制系统时,为了识别处置中所使用的器械的状态或者附近人员的状态,需要移除HMD,此时从机械手的操作被控制电路禁止。
另外,当使用HMD时,由于操作者完全注视投影在HMD上的图像并执行处置,操作者无法有效地利用在周边视野中感知的信息。因此,在执行处置的同时并观察周边的器械或人员的状态是不方便的。
相比之下,在本实施方式的机械手系统1中,操作者Op专注于操纵安装在操作者前面的显示装置10上显示的待操纵对象,并且同时可通过周边视野容易地观察周边的器械或人员的状态。当由于人员的请求或患者状态的突然改变,操作者Op将他或她的视线大幅地从显示装置10移开时,由于操作者Op的意识从待操纵对象偏离开,为了安全起见停止从机械手6。即,当操作者专注于待操纵对象时,操作者Op可在确保周边视野的同时有效地执行处置。当操作者Op的意识从待操纵对象偏离时,可安全地停止处置。
(第一修改示例)
接下来,将描述上述第一实施方式的第一修改示例。图8是示出该修改示例的检测装置的示意图。
如图8所示,该修改示例与第一实施方式的不同之处在于,检测装置20被检测装置20A代替。
检测装置20A包括被配置为发射具有高方向性的光的多个光源22A以及在第一实施方式中所描述的光接收单元24。
在多个光源22A中,光轴分别朝向指示单元21中的垂直照射角度的上端、中心和下端。
即使在修改示例所示的配置中,也获得与第一实施方式相同的效果。
另外,在修改示例中,可以提供具有不同的发射光波长或强度的光源22A1、光源22A2和光源22A3作为所述多个光源22A,光接收单元24可被配置为根据波长区分光源22A1、22A2和22A3。在这种情况下,检测装置20A可以检测操作者Op的面部是否移向显示装置10的向上或向下方向。
另外,作为该修改示例的进一步修改的示例,光轴分别朝向指示单元21中的水平照射角度的右端、中心和左端的多个光源可以代替光源22A以安装在检测装置20A上。
(第二修改示例)
接下来,将描述上述第一实施方式的第二修改示例。图9是示出修改示例的检测装置的示意图。
如图9所示,该修改示例与第一实施方式的不同之处在于,检测装置20被检测装置20B代替。
在检测装置20B中,代替光接收单元24,安装具有光接收表面25B的光接收单元24B,在该光接收表面25B处布置有多个光接收元件。
在该修改示例中,由于检测从光源22发射的光照射到多个光接收元件中的哪一个时,可以检测出光源22相对于光接收单元24B移动的方向。
(第三修改示例)
接下来,将描述上述第一实施方式的第三修改示例。图10是示出该修改示例的机械手系统的局部配置的立体图。
该修改示例与第一实施方式的不同之处在于,提供上述第二修改示例中所描述的检测装置20B,并且主控制单元31与上述第一实施方式不同地操作。
另外,第三修改示例在步骤S107中的主控制单元31的处置方面与第一实施方式不同。即,当在第一实施方式的步骤S106中确定操作者Op面部的方向没有面向显示面板12时,代替第一实施方式的步骤S107,主控制单元31在显示面板12上显示与所确定的光源22相对于光接收单元24移动的方向相反的方向的箭头符号(参见图10的标号Q1)以及诸如“请将您的面部朝向显示器”的消息。
在该修改示例中,操作者Op可通过箭头符号容易地理解操作者Op的面部优选面向哪一方向。
(第四修改示例)
接下来,将描述上述第一实施方式的第四修改示例。图11是示出该修改示例的机械手系统的局部的立体图。
如图11所示,该修改示例与第一实施方式的不同之处在于,提供上述第二修改示例中所描述的检测装置20B,以及被配置为可动地支撑显示面板12的可移动机构14安装在显示装置10处。另外,该修改示例与第一实施方式的不同之处在于,主控制单元31与上述第一实施方式不同地操作。
可移动机构14包括例如伺服电机,并在主控制单元31的控制下控制显示面板12的向上/向下向右/向左方向上的位置和方向。
当在第一实施方式的步骤S106中确定操作者Op面部的方向没有面向显示面板12时,代替第一实施方式的步骤S107,主控制单元31通过可移动机构14在与所确定的光源22相对于光接收单元24移动的方向相同的方向上移动显示面板12。
在该修改示例中,由于显示面板12根据操作者Op的面部所朝向的方向而移动,操作者Op可继续第一控制模式下的操作。
(第五修改示例)
接下来,将描述上述第一实施方式的第五修改示例。
该修改示例与第一实施方式的不同之处在于主控制单元31的操作。图12是示出该修改示例中的主控制单元31的操作的流程图。在图12中,与上述第一实施方式中的那些处理相同的处理被指派相同的符号,因此其描述将省略。
如图12所示,在步骤S108完成之后,开始测量第二控制模式下的操作时间(步骤S201)。
在步骤S201中,例如,在向第二控制模式转变的时候重置定时器以执行计数操作,或者可以启动被设置为预定时间的倒数计时器(将稍后描述)。这里,步骤S201结束,步骤S202开始。
步骤S202是检测单元23检测从机械手6处于停止状态时操作者Op面部的方向的步骤。
在步骤S202中,类似于第一实施方式的步骤S102,主控制单元31参照检测单元23的检测结果确定指示单元21是否被检测单元23检测到。
当指示单元21未被检测单元23检测到时,步骤S201再次开始。主控制单元31维持在第二控制模式,在步骤S201中,继续测量操作时间。在指示单元21被检测单元23检测到之前,操作时间继续增加。
当指示单元21被检测单元23检测到时,步骤S202结束,步骤S203开始。
步骤S203是主控制单元31基于步骤S201中测量的时间划分处置的步骤。
在步骤S203中,当测量的时间在预定时间内时,步骤S105开始,主控制单元31从第二控制模式转变为第一控制模式。
另外,当测量的时间超过预定时间时,机械手系统1结束一系列处置。同时,当继续使用机械手系统1时,再次执行从步骤S101开始的处置。在这种情况下,由于指示单元21在完成后的状态下被检测单元23检测到,操作执行至S104,对通过开关5输入的许可信号的存在进行确定。随后,执行与第一实施方式中相同的流程。
另外,将所述预定时间适当地设置为即使当视线从显示待处置对象的图像偏离时风险也较低的时间长度。
在该修改示例中,当操作者Op的视线偏离于显示面板12的时间超过预定时间时,为了执行向第一控制模式的转变,需要通过开关5输入许可信号。另外,当操作者Op的视线偏离于显示面板12的时间较短时,主控制单元31无需通过开关5输入许可信号即可转变为第一控制模式。
(第六修改示例)
接下来,将描述第一实施方式的第六修改示例。
该修改示例与第一实施方式的不同之处在于主控制单元31的操作。图13是示出此修改示例中的主控制单元31的操作的流程图。在图13中,与上述第一实施方式中的那些处理相同的处理被指派相同的符号,因此其描述将省略。
如图13所示,在此修改示例中,在步骤S108完成之后,测量主臂3的位移(步骤S301)。主臂3的位移临时存储在控制装置30中。
这里,步骤S301结束,步骤S302开始。
类似于第五修改示例的步骤S202,步骤S302是检测在从机械手6处于停止状态时操作者Op面部的方向的步骤。
当指示单元21未被检测单元23检测到时,步骤S301再次开始,主控制单元31维持为第二控制模式。然后,在步骤S301,继续测量主臂3的位移。位移继续增加,直到指示单元21被检测单元23检测到。在该修改示例中,通过将检测到的主臂3的位移的绝对值相加来获得位移,以作为移动的距离。另外,主臂3的位移可以是相对于初始位置的位置变化。另外,可针对主臂3的方向(而非主臂3的位置)的变化进行这种确定。
当指示单元21被检测单元23检测到时,步骤S302结束,步骤S303开始。
步骤S303是基于在步骤S301中测量的主臂3的位移来划分处置的步骤。
在步骤S303中,当测量的主臂3的位移小于阈值时,步骤S105开始,主控制单元31执行从第二控制模式向第一控制模式的转变。此时,无需利用开关5输入返回信号。
另外,当测量的位移为阈值或更大时,机械手系统1的一系列处置结束。
在该修改示例中,当在操作者Op的视线偏离于显示面板12之后主臂3移动了阈值或更多时,为了再次允许从机械手6的操作,需要利用开关5输入返回信号。
另外,即使当操作者Op的视线偏离于显示面板12时,如果主臂3的位移小于阈值,则当操作者Op的视线返回显示面板12时,从机械手6可被立即操作,而不必利用开关5输入返回信号。
(第七修改示例)。
接下来,将描述上述第一实施方式的第七修改示例。图14是示出该修改示例的机械手系统的局部配置的示意图。
如图14所示,该修改示例与第一实施方式的不同之处在于光源22安装在检测单元23处,并且被配置为反射从光源22发射的光的反射单元26安装在指示单元21处。
在该修改示例中,当通过检测单元23检测到从光源22发射的并且被反射单元26反射的光到达光接收表面25时,主控制单元31确定操作者Op的面部适当地朝向显示面板12。
即使在上述配置中,也获得与上述第一实施方式相同的效果。
另外,即使在该修改示例的情况下,由于反射单元26可能不是电子部件,无需为操作者Op所佩戴的3D眼镜单独供电。
(第八修改示例)
接下来,将描述上述第一实施方式的第八修改示例。图15是示出该修改示例的机械手系统的框图。
如图15所示,该修改示例与第一实施方式的主要不同在于,设置摄像单元27代替光接收单元24。作为摄像单元27,可采用CCD传感器、CMOS传感器等。
在该修改示例中,摄像单元27接收从光源22发射的光并获得图像以将该图像输出给控制装置30,其中该图像包括由来自光源22的光产生的亮部分X1以及其他部分(暗部分X2)。
控制装置30具有图像处理单元33,该图像处理单元33被配置为通过传统边缘检测等检测亮部分X1的尺寸变化并基于亮部分X1的尺寸计算摄像单元27与指示单元21之间的距离。
在该修改示例的情况下,由于可计算摄像单元27与指示单元21之间的距离,因此可以精确估计显示装置10与3D眼镜13之间的距离。因此,可确定显示装置10与3D眼镜13之间的距离是否接近能够适当地配置立体图像的最佳距离L。另外,响应于显示装置10与3D眼镜13之间的距离,可适当地选择将在显示面板12上显示的消息,并且可提示操作者Op移动到能够适合地观察到立体图像的位置。作为这种情况下的消息,例如,可提供“请靠近显示器”、“请远离显示器”等。
接下来,将描述该修改示例中的机械手系统1的摄像单元27与指示单元21之间的位置关系的初始化方法。图16至图18是说明修改示例的机械手系统中的初始化操作的示图。
在该修改示例中,机械手系统1的初始化是基于在摄像单元27的成像区域T1中显示面板12的边缘的位置,来设置矩形范围A的处理。
首先,佩戴3D眼镜13的操作者Op注视显示面板12的参考位置P1。类似于第一实施方式,显示面板12的参考位置P1是显示面板12的中心。然后,来自安装在3D眼镜13上的光源22的光照射到摄像单元27的成像区域T1的一些位置。此时,控制装置30在显示面板12上显示具有标记的图像,所述标记示出来自光源22的光在与摄像单元27的成像区域T1相似的图像上的位置。操作者Op参照显示在显示面板12上的图像,来调节显示面板12或操作者Op的位置和方向,使得来自光源22的光基本上照射到成像区域T1的中心。
随后,控制装置30在成像区域T1中设置矩形范围A,该矩形范围A的中心为亮部分X1。通过显示面板12的形状和尺寸适当地确定范围A的形状和尺寸。另外,范围A的尺寸随着亮部分X1的尺寸减小而增大,随着亮部分X1的尺寸增大而减小。这是因为,即使操作者Op面部的方向的角度变化相等,当操作者Op与显示装置10之间的距离较大时,成像区域T1上的亮部分X1的移动距离增大。
在该修改示例的情况下,当亮部分X1位于范围A的外部区域时,控制装置30确定操作者Op的视线偏离于显示面板12。另外,当亮部分X1位于范围A的内部区域时,控制装置30确定操作者Op注视显示面板12。
另外,当范围A可以被设置在摄像单元27的成像区域T1中时,无需将显示面板12的参考位置P1设置在显示面板12的中心。例如,当多个图像显示在显示面板12上并且待仔细观看的图像设置在除了显示面板12的中心之外的位置时,待仔细观看的图像所在的地方可被设置为参考位置P1。即使在这种情况下,也可如上所述执行初始化。
另外,当范围A将被设置在成像区域T1中时,如果范围A延伸到成像区域T1之外,则控制装置30可在显示装置10的显示面板12上显示表示意图(intent)的消息。因此,可提示操作者Op移动操作者Op的位置或显示装置10的位置。
(第九修改示例)
接下来,将描述上述第一实施方式的第九修改示例。图19是示出该修改示例的机械手系统的3D眼镜的配置的立体图。
如图19所示,该修改示例与第一实施方式的不同之处在于,提供上述第八修改示例中所描述的摄像单元27,并且提供包括第一指示元件和第二指示元件的指示单元21A代替指示单元21。第一指示元件由在垂直方向上彼此间隔开的多个光源22B构成。第二指示元件由在水平方向上彼此间隔开的多个光源22C构成。
在此修改示例的情况下,从多个光源22发射的所有光可照射到摄像单元27的成像区域T1,可通过光源22中的每一个检测亮部分X1的尺寸变化。因此,检测装置20可通过基于多个亮部分X1的尺寸所计算的距离来检测3D眼镜13相对于摄像单元27的距离和方向,即,3D眼镜13相对于显示装置10的距离和方向。
当3D眼镜13相对于显示面板12倾斜时,可能无法适当地构造立体图像。在该修改示例的情况下,在控制装置30中存储初始位置信息,该初始位置信息表示当适合地构造立体图像时3D眼镜13相对于显示装置10的距离和方向的范围。
当确定3D眼镜13位于作为初始位置信息存储的范围中时,主控制单元31在第一控制模式下操作。另外,当确定3D眼镜13超出作为所述位置信息存储的范围时,主控制单元31在第二控制模式下操作。如上所述,主控制单元31在动作模式间互换。另外,即使在该修改示例的情况下,当执行从第二控制模式向第一控制模式的转变时,需要操作者Op利用开关5输入许可信号。
另外,指示单元21A可包括光源22B和光源22C中的任一个。
(第十修改示例)
接下来,将描述上述第一实施方式的第十修改示例。图20是示出该修改示例的机械手系统的3D眼镜的配置的立体图。
在该修改示例中,指示单元21包括具有预定颜色或预定形状的指示器构件28,并且不包括光源22。另外,检测单元23包括与上述第八修改示例中相同的摄像单元27,并且被配置为获取包括指示器构件28的图像。
另外,主控制单元31在摄像单元27所拍摄的图像上设置与第八修改示例中相同的范围A。另外,主控制单元31通过图像处理在摄像单元27所拍摄的图像中识别具有预定颜色或预定形状的区域作为指示单元21。
即使在该修改示例中,类似于第八修改示例,当指示器构件28的位置从范围A的内部移到外部时,主控制单元31的动作模式从第一控制模式转变为第二控制模式,当指示器构件28的位置返回范围A的内部时,经由操作者Op利用开关5输入的许可信号来执行从第二控制模式向第一控制模式的转变。
在该修改示例的情况下,由于指示器构件28不是电子部件,可以以低成本制造指示器构件。
另外,当使用通过裸眼实现立体图像的显示器时,指示器构件28可附着到头戴构件上,而非3D眼镜13上。另外,指示器构件28可附着到手术中所使用的帽子或面罩上。例如,在这种情况下的指示器构件28可以是刺绣(stitchwork)、粘贴标签等。
(第十一修改示例)
接下来,将描述上述第一实施方式的第十一修改示例。图21是示出该修改示例的机械手系统的配置的示意图。
修改示例的机械手系统是主从系统,在该主从系统中操作者Op利用附接到从臂7的手动手术器械40执行处置。手动手术器械40可以是用于腹腔镜外科手术的手术钳或缝合器、能量治疗工具等。被配置为测量操作者Op的力的力测量器械41附接到从臂7,并被控制为使得从臂7响应于操作者Op的手的移动方向而移动。
在该修改示例的配置的情况下,在第二控制模式下主控制单元31相对于操作者Op的输入控制从机械手6停止。即,当操作者Op没有注视显示装置10时,即使当操作者Op意图移动手动手术器械40时,从臂7也被控制为停止且不移动。尽管输入方法和主机械手的配置不同于第一实施方式,但是基本上,修改示例可通过与第一实施方式(参见图1)中所描述的主从系统相同的方法实现,并且可获得本发明的相同效果。
(第十二修改示例)
接下来,将描述上述第一实施方式的第十二修改示例。图22是示出该修改示例的机械手系统的配置的示意图。
在该修改示例的配置的情况下,操作者Op利用主手柄45执行处置,其中通过位置传感器50获得位置/方位信息。在该修改示例中,位置传感器50是双透镜型成像传感器。由位置传感器50检测的标志(index)46附着到主手柄45。当位置传感器50检测到标志46时,获得主手柄45的位置和方位信息。
在该修改示例的配置的情况下,操作者Op操纵主手柄45而不是第一实施方式中所描述的主臂3,并对从臂7等执行操纵输入。位置传感器50获得主手柄45的位置和方位信息。
另外,类似于第八修改示例,另一标志可附着到操作者的头部,该标志的位置可由位置传感器50(摄像单元)检测。在该修改示例中,可应用与上述第八修改示例中相同的检测装置。
尽管已参照附图描述了本发明的实施方式,具体配置不限于所述实施方式,在不脱离本发明的范围的情况下具体配置包括设计变化等。
例如,第一实施方式中所描述的显示装置10可以是显示二维图像而非立体图像的显示装置10。在这种情况下,无需使用3D眼镜13。
另外,具有第一实施方式中所描述的图像拍摄单元101的内窥镜装置100可通过另一握持设备握持,而非安装在从机械手6处。另外,助手等可以握持内窥镜装置100。即,图像拍摄单元101不限于安装在从机械手6处。
另外,第一实施方式中所描述的第二控制模式可以是从机械手6按照比第一控制模式的操作速度更低操作速度进行操作的动作模式。
另外,第一实施方式中所描述的第二控制模式可以是如下动作模式:仅内窥镜装置100、手术器械110和从臂7的位置固定,内窥镜装置100、手术器械110和从臂7的远端的方向跟随主臂3的移动。
另外,在第一实施方式中,尽管第一控制模式和第二控制模式被示例性地描述为主控制单元31的动作模式,但是第一控制模式和第二控制模式可以是从控制单元32的动作模式。即,检测装置20可连接到从控制单元32,从控制单元可被配置为使得从控制单元32输出的驱动信号的存在或内容基于检测装置20的检测结果而变化。
另外,主控制单元31和从控制单元32可彼此一体地形成。
另外,当机械手系统1处于第二控制模式时,机械手系统可被配置为使得各种类型的医疗信息而不是待处置对象的图像被显示在显示面板12上。各种类型的医疗信息包括患者的标识信息、术前或术中执行的检查的结果等。
另外,第一实施方式中所描述的控制装置30可以是通用计算机。在这种情况下,主控制单元31和从控制单元32可以是利用通用处理器执行的程序。
另外,可以适当地装配第一实施方式和修改示例中所示的部件。
工业实用性
根据机械手系统,由于基于操作者的面部相对于显示装置的方向切换第一控制模式和第二控制模式,可以提供能够容易地执行处置并且降低检测误差的机械手系统。另外,当操作者专注于待操纵对象时,可确保周边视野并且可有效地执行处置。另外,当操作者的注意力从待操纵对象移开时,可安全地停止处置。
参考标号的描述
1:机械手系统
2:主机械手
3:主臂
4:位移传感器
5:开关
6:从机械手
7:从臂
8:致动器
10:显示装置
11:图像处理单元
12:面板
13:3D眼镜
14:可移动机构
20、20A、20B:检测装置
21、21A:指示单元
22:光源
22A、22B、22C:光源
22a:供电单元
23:检测单元
24、24B:光接收单元
25、25B:光接收表面
26:反射单元
27:摄像单元
28:指示器构件
30:控制装置
31:控制单元
32:控制单元
33:图像处理单元
100:内窥镜装置
101:图像拍摄单元
110:手术器械
Claims (15)
1.一种机械手系统,所述机械手系统包括:
主机械手,其被配置为基于操作者的操纵发送输入命令;
从机械手,其被配置为根据所述输入命令进行动作;
图像拍摄单元,其被配置为获取被摄体的图像;
显示装置,其放置在所述操作者的前面并且被配置为显示由所述图像拍摄单元获取的所述图像;
检测装置,其被配置为检测所述操作者的面部相对于所述显示装置的方向;以及
控制单元,其被配置为基于所述检测装置中的检测结果确定所述面部的方向是否在相对于所述显示装置的预定角度内,并基于确定结果在预定的第一控制模式和第二控制模式之间转变所述从机械手的动作模式,其中在所述第二控制模式下与所述第一控制模式相比动作更加受到限制。
2.根据权利要求1所述的机械手系统,其中所述检测装置包括:
指示单元,其能够佩戴在所述操作者上以与所述操作者的面部一起移动;以及
检测单元,其相对于所述显示装置定位并且被配置为在预定范围内检测所述指示单元,
其中当所述检测单元未在所述预定范围内检测到所述指示单元时,所述控制单元正常地使所述从机械手在所述第二控制模式下动作,当从未在所述预定范围内检测到所述指示单元的状态改变为在所述预定范围内检测到所述指示单元的状态时,所述控制单元转变为输入待命模式,等待所述操作者输入从所述第二控制模式向所述第一控制模式转变的许可信号,并且输入了所述许可信号时,执行从所述第二控制模式向所述第一控制模式的转变。
3.根据权利要求1所述的机械手系统,其中
所述第二控制模式是持续地停止所述从机械手的模式。
4.根据权利要求1至3中任一项所述的机械手系统,其中,
所述检测装置在安装有所述显示装置的状态下检测所述操作者的面部的方向在水平方向上的变化;以及
当所述检测装置检测到所述面部的方向在所述水平方向上的变化超过所述预定角度时,所述控制单元转变为所述第二控制模式。
5.根据权利要求1至4中任一项所述的机械手系统,其中
当所述控制单元确定所述面部的方向相对于所述显示装置偏离了所述预定角度的范围时,所述控制单元利用能够被所述操作者识别的方式发送消息以提示所述操作者移动所述面部或所述显示装置,使得所述面部的方向相对于所述显示装置处于所述预定角度的范围内。
6.根据权利要求1至4中任一项所述的机械手系统,其中
当所述控制单元确定所述面部的方向相对于所述显示装置偏离了所述预定角度的范围时,所述控制单元利用能够被所述操作者识别的方式发送消息以示出所述面部或所述显示装置的移动方向,以使得所述面部的方向相对于所述显示装置处于所述预定角度的范围内。
7.根据权利要求5或6所述的机械手系统,其中
所述控制单元在所述显示装置上显示所述消息。
8.根据权利要求1所述的机械手系统,其中
在所述显示装置处安装有被配置为可移动地支撑所述显示装置的可移动机构,并且
当所述控制单元确定所述面部的方向相对于所述显示装置偏离了所述预定角度的范围时,所述控制单元利用所述可移动机构移动所述显示装置,使得所述面部的方向相对于所述显示装置处于所述预定角度的范围内。
9.根据权利要求1或2所述的机械手系统,其中
所述第二控制模式是所述从机械手按照比所述第一控制模式低的动作速度进行动作的模式。
10.根据权利要求1至9中任一项所述的机械手系统,其中
所述显示装置基于双目视差在同一显示表面上显示两个图像,并且
所述检测装置的一部分安装在3D眼镜处,所述3D眼镜能够佩戴在所述操作者上并被配置为基于所述两个图像形成立体图像。
11.根据权利要求10所述的机械手系统,其中
所述检测装置检测所述3D眼镜相对于所述显示装置的距离和方向,并且
所述控制单元具有初始位置信息,所述初始位置信息示出所述距离和所述方向当中能够最佳地观察所述立体图像的距离和方向的范围,并且基于所述初始位置信息,当由所述检测装置检测到的所述3D眼镜的距离和方向在所述范围内时,所述控制单元转变为所述第一控制模式。
12.根据权利要求2至11中任一项所述的机械手系统,其中
当从所述第一控制模式转变为所述第二控制模式起的预定时间内,所述面部的方向相对于所述显示装置处于所述预定角度的范围内时,所述控制单元在没有输入所述许可信号的情况下执行从所述第二控制模式向所述第一控制模式的转变。
13.根据权利要求2至11中任一项所述的机械手系统,其中
当所述面部的方向相对于所述显示装置处于所述预定角度的范围内,同时从执行从所述第一控制模式向所述第二控制模式的转变起所述主机械手的动作量在预定动作量以内时,所述控制单元在没有输入所述许可信号的情况下执行从所述第二控制模式向所述第一控制模式的转变。
14.根据权利要求2至13中任一项所述的机械手系统,其中
所述指示单元具有预定颜色或预定形状,
所述检测单元具有摄像单元,所述摄像单元被配置为获取包括所述指示单元的图像,并且
所述控制单元在所述图像上设置预定范围,并将所述图像中具有所述预定颜色或所述预定形状的区域识别为所述指示单元。
15.根据权利要求2至13中任一项所述的机械手系统,其中
所述指示单元具有在佩戴所述指示单元的所述操作者的水平方向或垂直方向中的至少一个上彼此间隔开的多个标志元件,
所述检测单元基于所述多个标志元件的位置的检测结果来检测所述指示单元的方向。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011-156778 | 2011-07-15 | ||
JP2011156778A JP5800616B2 (ja) | 2011-07-15 | 2011-07-15 | マニピュレータシステム |
PCT/JP2012/068252 WO2013012018A1 (en) | 2011-07-15 | 2012-07-11 | Manipulator system |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103608150A true CN103608150A (zh) | 2014-02-26 |
CN103608150B CN103608150B (zh) | 2017-02-15 |
Family
ID=47558195
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201280030472.0A Active CN103608150B (zh) | 2011-07-15 | 2012-07-11 | 机械手系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US9204934B2 (zh) |
EP (1) | EP2731756B1 (zh) |
JP (1) | JP5800616B2 (zh) |
CN (1) | CN103608150B (zh) |
WO (1) | WO2013012018A1 (zh) |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104786205A (zh) * | 2015-03-24 | 2015-07-22 | 中国核电工程有限公司 | 主从机械手主动操作模拟装置 |
CN107072735A (zh) * | 2015-02-03 | 2017-08-18 | 奥林巴斯株式会社 | 医疗用机械手系统及其控制方法 |
CN108348298A (zh) * | 2016-01-21 | 2018-07-31 | 奥林巴斯株式会社 | 医疗用机械手系统 |
CN109009447A (zh) * | 2017-06-08 | 2018-12-18 | 美好罗伯特有限公司 | 医疗器具的远程操作装置 |
CN109498164A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 具有目镜的主操作台及手术机器人 |
CN109498163A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 主操作台及手术机器人 |
CN109498162A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 提升沉浸感的主操作台及手术机器人 |
CN109690428A (zh) * | 2016-09-09 | 2019-04-26 | 牧野J株式会社 | 加工系统 |
CN109922931A (zh) * | 2016-11-11 | 2019-06-21 | 精工爱普生株式会社 | 机器人控制装置、机器人、机器人系统及机器人控制方法 |
CN110712189A (zh) * | 2018-07-12 | 2020-01-21 | 发那科株式会社 | 机器人 |
CN111093551A (zh) * | 2017-08-10 | 2020-05-01 | 直观外科手术操作公司 | 远程手术系统的增加的可用器械寿命 |
CN111659952A (zh) * | 2020-05-28 | 2020-09-15 | 宁夏巨能机器人股份有限公司 | 一种基于人机协作的铸件打磨控制系统及其控制方法 |
CN111868335A (zh) * | 2018-03-28 | 2020-10-30 | 神钢建机株式会社 | 远程操作系统以及主操作装置 |
CN111886113A (zh) * | 2018-03-28 | 2020-11-03 | 索尼公司 | 控制装置、控制方法以及主从系统 |
CN112704563A (zh) * | 2020-12-25 | 2021-04-27 | 天津市第三中心医院 | 一种基于超声刀的肝胆外科的远程超声手术模拟系统 |
WO2022057474A1 (zh) * | 2020-09-16 | 2022-03-24 | 上海微创医疗机器人(集团)股份有限公司 | 医生控制台、手术机器人系统及医生控制台的控制方法 |
Families Citing this family (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP2936070A4 (en) * | 2012-12-20 | 2016-09-21 | Olympus Corp | POSITION DETECTION SENSOR AND MANIPULATOR |
WO2014156244A1 (ja) | 2013-03-28 | 2014-10-02 | オリンパス株式会社 | 医療器具及び医療システム |
JP6164964B2 (ja) | 2013-07-26 | 2017-07-19 | オリンパス株式会社 | 医療用システムおよびその制御方法 |
USD767130S1 (en) * | 2014-03-17 | 2016-09-20 | Intuitive Surgical Operations, Inc. | Surgical instrument end portion |
USD768295S1 (en) * | 2014-03-17 | 2016-10-04 | Intuitive Surgical Operations, Inc. | Surgical instrument end portion |
USD767129S1 (en) * | 2014-03-17 | 2016-09-20 | Intuitive Surgical Operations, Inc. | Surgical instrument end portion |
USD760387S1 (en) * | 2014-03-17 | 2016-06-28 | Intuitive Surgical Operations, Inc. | Surgical instrument end portion |
JP2017514608A (ja) | 2014-05-05 | 2017-06-08 | バイカリアス サージカル インク. | 仮想現実外科手術デバイス |
JP6498943B2 (ja) * | 2015-01-14 | 2019-04-10 | 株式会社アマダホールディングス | プレスブレーキ用安全監視装置、プレスブレーキ、及び安全監視方法 |
US20160231812A1 (en) * | 2015-02-06 | 2016-08-11 | The Eye Tribe Aps | Mobile gaze input system for pervasive interaction |
US10921896B2 (en) | 2015-03-16 | 2021-02-16 | Facebook Technologies, Llc | Device interaction in augmented reality |
US10905508B2 (en) * | 2015-08-25 | 2021-02-02 | Kawasaki Jukogyo Kabushiki Kaisha | Remote control robot system |
EP3335661A4 (en) * | 2015-10-09 | 2019-05-22 | Sony Corporation | SURGICAL APPARATUS, METHOD FOR SURGICAL CONTROL AND PROGRAM |
JP2019523663A (ja) * | 2016-06-03 | 2019-08-29 | コヴィディエン リミテッド パートナーシップ | ロボット外科手術装置および視聴者適合型の立体視ディスプレイの態様を制御するためのシステム、方法、およびコンピュータ可読記憶媒体 |
USD864386S1 (en) | 2016-07-14 | 2019-10-22 | Intuitive Surgical Operations, Inc. | Surgical instrument actuator end portion |
USD865164S1 (en) | 2016-07-14 | 2019-10-29 | Intuitive Surgical Operations, Inc. | Surgical instrument actuator end portion |
USD865163S1 (en) | 2016-07-14 | 2019-10-29 | Intuitive Surgical Operations, Inc. | Surgical instrument actuator end portion |
US10568703B2 (en) * | 2016-09-21 | 2020-02-25 | Verb Surgical Inc. | User arm support for use in a robotic surgical system |
WO2018165047A1 (en) * | 2017-03-06 | 2018-09-13 | Intuitive Surgical Operations, Inc. | Systems and methods for entering and exiting a teleoperational state |
WO2018217444A2 (en) * | 2017-05-25 | 2018-11-29 | Covidien Lp | Systems and methods for detection of objects within a field of view of an image capture device |
JP7197511B2 (ja) | 2017-05-25 | 2022-12-27 | コヴィディエン リミテッド パートナーシップ | 画像捕捉デバイスの視界内の物体を検出するためのシステムおよび方法 |
US11751966B2 (en) * | 2017-07-27 | 2023-09-12 | Intuitive Surgical Operations, Inc. | Medical device handle |
EP3668438A4 (en) * | 2017-08-16 | 2021-08-18 | Covidien LP | OPTIMIZATION OF PERCEPTION OF STEREOSCOPIC VISUAL CONTENT |
JP6882147B2 (ja) * | 2017-11-28 | 2021-06-02 | シュナイダーエレクトリックホールディングス株式会社 | 操作案内システム |
US20210030498A1 (en) * | 2018-02-02 | 2021-02-04 | Covidien Lp | Robotic surgical systems with user engagement monitoring |
USD884892S1 (en) | 2018-04-20 | 2020-05-19 | Intuitive Surgical Operations, Inc. | Surgical instrument backend housing |
US11048072B1 (en) * | 2019-12-31 | 2021-06-29 | Carl Zeiss Meditec Ag | Method of operating a surgical microscope and surgical microscope |
US11844585B1 (en) * | 2023-02-10 | 2023-12-19 | Distalmotion Sa | Surgical robotics systems and devices having a sterile restart, and methods thereof |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03167698A (ja) * | 1989-11-28 | 1991-07-19 | Nissan Motor Co Ltd | 運転者の運転状態検出装置 |
JPH07124165A (ja) * | 1993-11-02 | 1995-05-16 | Olympus Optical Co Ltd | 視線検出によるマニピュレータ制御システム |
JPH08224245A (ja) * | 1995-02-22 | 1996-09-03 | Olympus Optical Co Ltd | 医療用マニピュレータ |
US5876325A (en) * | 1993-11-02 | 1999-03-02 | Olympus Optical Co., Ltd. | Surgical manipulation system |
EP0776738B1 (en) * | 1992-01-21 | 2002-04-03 | Sri International | An endoscopic surgical instrument |
US20050203367A1 (en) * | 2001-06-13 | 2005-09-15 | Ahmed Syed N | Guide system |
CN102665588A (zh) * | 2009-11-13 | 2012-09-12 | 直观外科手术操作公司 | 用于微创手术系统中的手存在性探测的方法和系统 |
Family Cites Families (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0176695U (zh) * | 1987-11-11 | 1989-05-24 | ||
JP2664205B2 (ja) * | 1988-06-10 | 1997-10-15 | 株式会社日立製作所 | マニピュレータ制御システム |
JPH0511713A (ja) | 1991-07-04 | 1993-01-22 | Matsushita Electric Ind Co Ltd | 赤外線センサー付デイスプレイ |
US5436542A (en) * | 1994-01-28 | 1995-07-25 | Surgix, Inc. | Telescopic camera mount with remotely controlled positioning |
JPH08280709A (ja) | 1995-04-18 | 1996-10-29 | Olympus Optical Co Ltd | 手術用表示装置 |
JPH0980323A (ja) | 1995-09-11 | 1997-03-28 | Olympus Optical Co Ltd | 内視鏡装置 |
FR2779339B1 (fr) * | 1998-06-09 | 2000-10-13 | Integrated Surgical Systems Sa | Procede et appareil de mise en correspondance pour la chirurgie robotisee, et dispositif de mise en correspondance en comportant application |
US6459926B1 (en) * | 1998-11-20 | 2002-10-01 | Intuitive Surgical, Inc. | Repositioning and reorientation of master/slave relationship in minimally invasive telesurgery |
JP2000166873A (ja) | 1998-12-02 | 2000-06-20 | Canon Inc | 視線検出手段位置調整装置 |
US6424885B1 (en) * | 1999-04-07 | 2002-07-23 | Intuitive Surgical, Inc. | Camera referenced control in a minimally invasive surgical apparatus |
US6661571B1 (en) * | 1999-09-21 | 2003-12-09 | Olympus Optical Co., Ltd. | Surgical microscopic system |
US7607440B2 (en) * | 2001-06-07 | 2009-10-27 | Intuitive Surgical, Inc. | Methods and apparatus for surgical planning |
US6587750B2 (en) * | 2001-09-25 | 2003-07-01 | Intuitive Surgical, Inc. | Removable infinite roll master grip handle and touch sensor for robotic surgery |
JP2003205483A (ja) * | 2001-11-07 | 2003-07-22 | Sony Corp | ロボットシステム及びロボット装置の制御方法 |
JP4032410B2 (ja) * | 2001-11-09 | 2008-01-16 | ソニー株式会社 | 情報処理システムおよび情報処理方法、プログラムおよび記録媒体、並びに情報処理装置 |
JP2003260685A (ja) * | 2002-03-04 | 2003-09-16 | Seiko Epson Corp | ロボット制御方法、ロボット制御装置及び制御プログラム |
US6906328B2 (en) * | 2002-06-12 | 2005-06-14 | Koninklijke Philips Electronics N.V. | Gamma camera workflow automation |
JP2004261363A (ja) | 2003-02-28 | 2004-09-24 | Olympus Corp | 手術システム |
US20050033117A1 (en) * | 2003-06-02 | 2005-02-10 | Olympus Corporation | Object observation system and method of controlling object observation system |
JP4306397B2 (ja) * | 2003-10-08 | 2009-07-29 | 株式会社日立製作所 | 認識処理システム |
JP4042705B2 (ja) * | 2004-02-03 | 2008-02-06 | セイコーエプソン株式会社 | ロボット制御方法、ロボット制御装置、ロボット制御プログラム及び記録媒体 |
EP1584300A3 (en) * | 2004-03-30 | 2006-07-05 | Kabushiki Kaisha Toshiba | Manipulator apparatus |
US7501995B2 (en) * | 2004-11-24 | 2009-03-10 | General Electric Company | System and method for presentation of enterprise, clinical, and decision support information utilizing eye tracking navigation |
WO2006119495A2 (en) * | 2005-05-03 | 2006-11-09 | Hansen Medical, Inc. | Robotic catheter system |
US8398541B2 (en) * | 2006-06-06 | 2013-03-19 | Intuitive Surgical Operations, Inc. | Interactive user interfaces for robotic minimally invasive surgical systems |
JP4872768B2 (ja) * | 2007-04-10 | 2012-02-08 | 株式会社島津製作所 | ヘッドモーショントラッカ装置 |
JP2009045099A (ja) | 2007-08-14 | 2009-03-05 | Hoya Corp | 電子内視鏡システム |
US8160199B2 (en) * | 2007-10-12 | 2012-04-17 | Siemens Medical Solutions Usa, Inc. | System for 3-dimensional medical image data acquisition |
US8808164B2 (en) * | 2008-03-28 | 2014-08-19 | Intuitive Surgical Operations, Inc. | Controlling a robotic surgical tool with a display monitor |
JP2009244949A (ja) | 2008-03-28 | 2009-10-22 | Advanced Telecommunication Research Institute International | 操作対象の切替装置 |
US8810631B2 (en) * | 2008-04-26 | 2014-08-19 | Intuitive Surgical Operations, Inc. | Augmented stereoscopic visualization for a surgical robot using a captured visible image combined with a fluorescence image and a captured visible image |
KR100998182B1 (ko) * | 2008-08-21 | 2010-12-03 | (주)미래컴퍼니 | 수술용 로봇의 3차원 디스플레이 시스템 및 그 제어방법 |
JP5245705B2 (ja) * | 2008-10-14 | 2013-07-24 | セイコーエプソン株式会社 | 登山支援情報処理装置 |
KR101038417B1 (ko) * | 2009-02-11 | 2011-06-01 | 주식회사 이턴 | 수술 로봇 시스템 및 그 제어 방법 |
JP2011081480A (ja) * | 2009-10-05 | 2011-04-21 | Seiko Epson Corp | 画像入力システム |
US8996173B2 (en) * | 2010-09-21 | 2015-03-31 | Intuitive Surgical Operations, Inc. | Method and apparatus for hand gesture control in a minimally invasive surgical system |
US8521331B2 (en) * | 2009-11-13 | 2013-08-27 | Intuitive Surgical Operations, Inc. | Patient-side surgeon interface for a minimally invasive, teleoperated surgical instrument |
US8543240B2 (en) * | 2009-11-13 | 2013-09-24 | Intuitive Surgical Operations, Inc. | Master finger tracking device and method of use in a minimally invasive surgical system |
WO2014043619A1 (en) * | 2012-09-17 | 2014-03-20 | Intuitive Surgical Operations, Inc. | Methods and systems for assigning input devices to teleoperated surgical instrument functions |
-
2011
- 2011-07-15 JP JP2011156778A patent/JP5800616B2/ja active Active
-
2012
- 2012-07-11 WO PCT/JP2012/068252 patent/WO2013012018A1/en active Application Filing
- 2012-07-11 EP EP12814731.1A patent/EP2731756B1/en not_active Not-in-force
- 2012-07-11 CN CN201280030472.0A patent/CN103608150B/zh active Active
-
2014
- 2014-01-06 US US14/147,762 patent/US9204934B2/en active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH03167698A (ja) * | 1989-11-28 | 1991-07-19 | Nissan Motor Co Ltd | 運転者の運転状態検出装置 |
EP0776738B1 (en) * | 1992-01-21 | 2002-04-03 | Sri International | An endoscopic surgical instrument |
JPH07124165A (ja) * | 1993-11-02 | 1995-05-16 | Olympus Optical Co Ltd | 視線検出によるマニピュレータ制御システム |
US5876325A (en) * | 1993-11-02 | 1999-03-02 | Olympus Optical Co., Ltd. | Surgical manipulation system |
JPH08224245A (ja) * | 1995-02-22 | 1996-09-03 | Olympus Optical Co Ltd | 医療用マニピュレータ |
US20050203367A1 (en) * | 2001-06-13 | 2005-09-15 | Ahmed Syed N | Guide system |
CN102665588A (zh) * | 2009-11-13 | 2012-09-12 | 直观外科手术操作公司 | 用于微创手术系统中的手存在性探测的方法和系统 |
Cited By (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107072735A (zh) * | 2015-02-03 | 2017-08-18 | 奥林巴斯株式会社 | 医疗用机械手系统及其控制方法 |
CN104786205A (zh) * | 2015-03-24 | 2015-07-22 | 中国核电工程有限公司 | 主从机械手主动操作模拟装置 |
CN108348298A (zh) * | 2016-01-21 | 2018-07-31 | 奥林巴斯株式会社 | 医疗用机械手系统 |
CN109690428B (zh) * | 2016-09-09 | 2022-08-09 | 牧野J株式会社 | 加工系统 |
CN109690428A (zh) * | 2016-09-09 | 2019-04-26 | 牧野J株式会社 | 加工系统 |
CN109922931B (zh) * | 2016-11-11 | 2022-09-23 | 精工爱普生株式会社 | 机器人控制装置、机器人、机器人系统及机器人控制方法 |
CN109922931A (zh) * | 2016-11-11 | 2019-06-21 | 精工爱普生株式会社 | 机器人控制装置、机器人、机器人系统及机器人控制方法 |
US10980604B2 (en) | 2017-06-08 | 2021-04-20 | Medicaroid Corporation | Remote control apparatus for medical equipment |
CN109009447A (zh) * | 2017-06-08 | 2018-12-18 | 美好罗伯特有限公司 | 医疗器具的远程操作装置 |
CN109009447B (zh) * | 2017-06-08 | 2022-05-06 | 美好罗伯特有限公司 | 医疗器具的远程操作装置 |
CN111093551A (zh) * | 2017-08-10 | 2020-05-01 | 直观外科手术操作公司 | 远程手术系统的增加的可用器械寿命 |
CN111093551B (zh) * | 2017-08-10 | 2023-08-11 | 直观外科手术操作公司 | 远程手术系统的增加的可用器械寿命 |
US11617628B2 (en) | 2017-08-10 | 2023-04-04 | Intuitive Surgical Operations, Inc. | Increased usable instrument life in telesurgical systems |
CN111868335B (zh) * | 2018-03-28 | 2022-07-12 | 神钢建机株式会社 | 远程操作系统以及主操作装置 |
CN111868335A (zh) * | 2018-03-28 | 2020-10-30 | 神钢建机株式会社 | 远程操作系统以及主操作装置 |
CN111886113A (zh) * | 2018-03-28 | 2020-11-03 | 索尼公司 | 控制装置、控制方法以及主从系统 |
US11732439B2 (en) | 2018-03-28 | 2023-08-22 | Kobelco Construction Machinery Co., Ltd. | Remote control system and main control device |
CN110712189A (zh) * | 2018-07-12 | 2020-01-21 | 发那科株式会社 | 机器人 |
CN109498162A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 提升沉浸感的主操作台及手术机器人 |
CN109498163A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 主操作台及手术机器人 |
CN109498164A (zh) * | 2018-12-20 | 2019-03-22 | 深圳市精锋医疗科技有限公司 | 具有目镜的主操作台及手术机器人 |
CN109498162B (zh) * | 2018-12-20 | 2023-11-03 | 深圳市精锋医疗科技股份有限公司 | 提升沉浸感的主操作台及手术机器人 |
CN109498164B (zh) * | 2018-12-20 | 2023-11-03 | 深圳市精锋医疗科技股份有限公司 | 具有目镜的主操作台及手术机器人 |
CN111659952A (zh) * | 2020-05-28 | 2020-09-15 | 宁夏巨能机器人股份有限公司 | 一种基于人机协作的铸件打磨控制系统及其控制方法 |
CN111659952B (zh) * | 2020-05-28 | 2022-02-18 | 宁夏巨能机器人股份有限公司 | 一种基于人机协作的铸件打磨控制系统及其控制方法 |
WO2022057474A1 (zh) * | 2020-09-16 | 2022-03-24 | 上海微创医疗机器人(集团)股份有限公司 | 医生控制台、手术机器人系统及医生控制台的控制方法 |
CN112704563B (zh) * | 2020-12-25 | 2022-04-01 | 天津市第三中心医院 | 一种基于超声刀的肝胆外科的远程超声手术模拟系统 |
CN112704563A (zh) * | 2020-12-25 | 2021-04-27 | 天津市第三中心医院 | 一种基于超声刀的肝胆外科的远程超声手术模拟系统 |
Also Published As
Publication number | Publication date |
---|---|
WO2013012018A1 (en) | 2013-01-24 |
US9204934B2 (en) | 2015-12-08 |
EP2731756B1 (en) | 2017-05-10 |
EP2731756A1 (en) | 2014-05-21 |
EP2731756A4 (en) | 2015-08-26 |
JP2013022651A (ja) | 2013-02-04 |
CN103608150B (zh) | 2017-02-15 |
JP5800616B2 (ja) | 2015-10-28 |
US20140121834A1 (en) | 2014-05-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103608150A (zh) | 机械手系统 | |
US10638080B2 (en) | Systems and method for augmented reality ophthalmic surgical microscope projection | |
US11278369B2 (en) | Control device, control method, and surgical system | |
US20170151034A1 (en) | Display control device, display control method, display control system, and head-mounted display | |
CN110177518B (zh) | 用于在图像捕获装置的视场内检测物体的系统和方法 | |
JP2013200325A (ja) | ヘッドマウントディスプレイ | |
CN110650704A (zh) | 用于检测图像捕获装置的视野内的物体的系统和方法 | |
JP2010055266A (ja) | 3次元表示時における指示位置設定装置および方法並びにプログラム | |
EP3349643B1 (en) | Methods, systems and computer program products for determining object distances and target dimensions using light emitters | |
JP2010213878A (ja) | 眼科装置 | |
JP2016101498A (ja) | 可視映写手段を有する、眼球運動を測定する頭部装着可能デバイス | |
JP2022008645A (ja) | 非接触入力システム及び方法 | |
CN114365214A (zh) | 叠合虚拟影像于即时影像的系统与方法 | |
JP2013033336A (ja) | 位置特定装置及び車両 | |
US20170083671A1 (en) | Apparatus for maintenance support in medical technology devices | |
JP2014128493A (ja) | 視野測定装置 | |
JP2012198608A (ja) | 入力装置および入力方法 | |
US20200329949A1 (en) | Medical observation apparatus | |
JP6759937B2 (ja) | レンズ測定装置 | |
KR101139849B1 (ko) | 3차원 광학 트랙 패드 장치 및 이를 이용하는 방법 | |
WO2022162276A1 (en) | Eye tracking illumination | |
JP2011118907A (ja) | 3次元表示時における指示位置設定装置および方法並びにプログラム | |
JP5788228B2 (ja) | 3d表示処理システム | |
CN117797466A (zh) | 手持控制器的定位方法、装置及头戴式显示系统 | |
CN111759271A (zh) | 一种同视机 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |