CN113229941B - 基于增强现实的介入机器人无接触遥操系统及标定方法 - Google Patents
基于增强现实的介入机器人无接触遥操系统及标定方法 Download PDFInfo
- Publication number
- CN113229941B CN113229941B CN202110674129.0A CN202110674129A CN113229941B CN 113229941 B CN113229941 B CN 113229941B CN 202110674129 A CN202110674129 A CN 202110674129A CN 113229941 B CN113229941 B CN 113229941B
- Authority
- CN
- China
- Prior art keywords
- robot
- equipment
- augmented reality
- calibration
- electromagnetic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 230000003190 augmentative effect Effects 0.000 title claims abstract description 22
- 210000003484 anatomy Anatomy 0.000 claims abstract description 23
- 230000033001 locomotion Effects 0.000 claims abstract description 20
- 230000009466 transformation Effects 0.000 claims abstract description 18
- 238000003780 insertion Methods 0.000 claims description 12
- 230000037431 insertion Effects 0.000 claims description 12
- 210000000707 wrist Anatomy 0.000 claims description 11
- 238000002591 computed tomography Methods 0.000 claims description 6
- 238000004891 communication Methods 0.000 claims description 4
- 238000002224 dissection Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 6
- 230000007547 defect Effects 0.000 abstract description 3
- 238000007667 floating Methods 0.000 abstract description 3
- 238000001356 surgical procedure Methods 0.000 abstract description 2
- 238000005452 bending Methods 0.000 description 7
- 239000011159 matrix material Substances 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 238000004519 manufacturing process Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 206010011409 Cross infection Diseases 0.000 description 3
- 206010029803 Nosocomial infection Diseases 0.000 description 3
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 208000015181 infectious disease Diseases 0.000 description 1
- 230000002458 infectious effect Effects 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/74—Manipulators with manual electric input means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/361—Image-producing devices, e.g. surgical cameras
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/36—Image-producing devices or illumination devices not otherwise provided for
- A61B90/37—Surgical systems with images on a monitor during operation
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/101—Computer-aided simulation of surgical operations
- A61B2034/105—Modelling of the patient, e.g. for ligaments or bones
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/108—Computer aided selection or customisation of medical implants or cutting guides
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2051—Electromagnetic tracking systems
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
- A61B90/30—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure
- A61B2090/309—Devices for illuminating a surgical field, the devices having an interrelation with other surgical devices or with a surgical procedure using white LEDs
Abstract
本发明提供了一种基于增强现实的介入机器人无接触遥操系统及标定方法,该系统主要由头戴式AR设备、形状传感系统、电磁跟踪系统、连续体机器人等组成,其标定主要包括五个步骤。本发明将增强现实技术应用于柔性手术机器人,克服了以往增强现实技术只针对刚性器械显示的缺陷,为医生提供沉浸式的手术体验,进一步增加手术的安全性。在增强现实技术的辅助下对腔内解剖学结构及介入的机器人进行3D透视,采用无接触的手势识别方式对机器人进行控制,将不同的手势映射为机器人不同的运动;解决了因形状传感器基坐标系是浮动基座难以获得绝对形状信息的问题;巧妙的将AR设备和电磁跟踪系统的标定转化为AX=XB的求解问题,更加高效的求解了二者的变换关系。
Description
技术领域
本发明涉及腔内介入的技术领域,具体地,涉及基于增强现实的介入机器人无接触遥操系统及标定方法。
背景技术
当前遥操作机器人辅助的腔内介入手术要求外科医生操作杆在2D X射线引导下控制机器人,而这种接触式手术增加了外科医生的工作量并将他们暴露在潜在的传染环境中,且2D的图像缺少深度信息,不仅不够直观还增加了误判断的风险。
在申请号为201510802654.0的中国发明专利中公开了一种利用增强现实技术的手术机器人系统及其控制方法,其技术方案是针对刚性手术器械的增强现实,无法适用于柔性机器人的实时形变特性,且其手术的操作方式需要医生与操作手柄直接接触,增加了外科医生交叉感染的风险。
针对上述中的相关技术,发明人认为上述中的手术机器人系统及其控制方法存在无法对柔性机器人进行虚拟与现实叠加的增强显示且易导致医生交叉感染的问题,因此,需要提出一种技术方案以改善上述技术问题。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于增强现实的介入机器人无接触遥操系统及标定方法。
根据本发明提供的一种基于增强现实的介入机器人无接触遥操系统,包括头戴式AR设备、PC1、PC2、光栅解调仪、磁场发生器、插入管、冗余机械臂、驱动单元、连续体机器人、LED、内窥镜相机、形状传感器和电磁传感器,所述头戴式AR设备与PC1相连接,所述PC2分别与光栅解调仪、磁场发生器、冗余机械臂和驱动单元相连接。
优选地,所述形状传感器、电磁传感器、连续体机器人、插入管、冗余机械臂、驱动单元、内窥镜相机及LED组成柔性机器人。
优选地,所述头戴式AR设备将柔性机器人模型叠加到现实场景,所述柔性机器人模型叠加的对象为连续体机器人和内窥镜插入管部分导管,所述连续体机器人和内窥镜插入管部分导管总长度由形状传感器的长度所决定。
优选地,所述光栅解调仪和形状传感器构成形状传感系统;所述磁场发生器和电磁传感器构成电磁跟踪系统。
优选地,所述系统的工作流程如下:
步骤1:PC1利用术前CT扫描的二维平面图重建腔内解剖结构三维模型,设置内窥镜影像在AR设备内的最佳观测位置;
步骤2:对系统进行标定;
步骤3:PC2利用形状传感系统测量的波长对柔性机器人的形状进行重建,根据步骤2的标定信息,把重建后的形状变换到AR设备坐标系,并把变换后的数据以及内窥镜影像通过无线通信发送给PC1;
步骤4:AR设备与PC1进行实时通信,医生佩戴AR设备;
步骤5:医生通过手势识别对柔性机器人的运动进行控制。
优选地,所述步骤2包括AR设备与电磁跟踪系统的标定、AR设备与机械臂的标定、AR设备定与解剖结构的标定、形状传感器与电磁传感器的标定和AR设备与世界参考系的标定;所述步骤4在AR设备内医生可观测到柔性机器人三维形状和腔内解剖三维模型在现实场景的叠加信息,医生实时观看到内窥镜的影像。
优选地,所述步骤5中的AR设备识别医生的手势并计算腕部相对于AR设备的位置,把不同的手势解析为不同的标志位,柔性机器人接收到标志位后,根据不同的标志位进行相应的运动。
优选地,医生手的腕部靠近AR设备时,机器人前进/正向旋转/向左弯曲。
优选地,所述电磁传感器采用六自由度,通过重新定义的虚拟平面标定电磁传感器坐标系与形状传感器坐标系的关系。
本发明还提供一种基于增强现实的介入机器人无接触遥操系统的标定方法,所述方法包括上述中的一种基于增强现实的介入机器人无接触遥操系统,所述方法包括如下步骤:
S1:CT扫描腔内解剖,获取二维扫描图;
S2:用2D CT图像重建解剖结构的3D虚拟模型,作为目标点云P;
S3:柔性机器人在介入的腔体入口处进行初步的移动,用连续体机器人末端的电磁传感器采集部分解剖壁面的点云数据,作为原始云G;
S5:利用ICP算法对点云P和Q进行匹配,通过迭代求得AR设备参考系下解剖结构3D模型与实际解剖的变换关系。
与现有技术相比,本发明具有如下的有益效果:
1、本发明降低医生交叉感染的风险,采用无接触的手势识别方式对机器人进行控制,将不同的手势映射为机器人不同的运动。
2、本发明巧妙的将AR设备和电磁跟踪系统的标定转化为AX=XB的求解问题,更加高效的求解了二者的变换关系。
3、本发明将增强现实技术应用于柔性手术机器人,克服了以往增强现实技术只针对刚性器械显示的缺陷,在柔性机器人腔内介入过程中为外科医生提供沉浸式的手术体验,进一步增加手术的安全性。
4、本发明通过重新定义的虚拟平面标定电磁传感器坐标系与形状传感器坐标系的关系,解决了因形状传感器基坐标系是浮动基座难以获得绝对形状信息的问题。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明的系统图;
图2为本发明的工作流程图;
图3为本发明的各组成部分间的空间标定原理图;
图4为本发明的刚性套筒结构图;
图5为本发明的整体数据流图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
本发明提供一种基于增强现实的介入机器人无接触遥操系统及标定方法,如图1所示,主要包括:头戴式AR设备、PC1、PC2、光栅解调仪、磁场发生器、插入管、冗余机械臂、驱动单元、连续体机器人、LED、内窥镜相机、形状传感器和电磁传感器。其中,形状传感器、电磁传感器、连续体机器人、插入管、冗余机械臂、驱动单元、内窥镜相机及LED组成柔性机器人。利用AR设备将柔性机器人模型叠加到现实场景,其叠加的对象为连续体机器人和内窥镜插入管部分导管,总长度由形状传感器的长度所决定;光栅解调仪和形状传感器构成形状传感系统;磁场发生器和电磁传感器构成电磁跟踪系统。
头戴式AR设备由医生佩戴,利用AR设备的双目摄像头可识别医生的手势,并计算手腕相对于AR设备的空间位置,同时将柔性机器人和解剖结构模型叠加到现实对应的场景;PC1和AR设备连接,AR设备实时接收PC1所发送的柔性机器人形状信息和内窥镜影像,PC1实时接收AR设备识别的手势信息;PC2与磁场发生器、光栅解调仪及柔性机器人连接,实时重建柔性机器人形状,并与PC1进行无线通信;柔性体机器人共有平移、旋转和弯曲三个自由度。其中,连续体机器人为自接触式结构,采用绳驱的驱动方式,通过驱动单元内两个电机对绳子的拉伸可实现连续体机器人的左右弯曲,且冗余机械臂共有七个自由度,用于提供柔性机器人的平移和旋转运动;电磁传感器具有六自由,用于实时获取柔性机器人末端的位姿;形状传感器为多芯的光纤,嵌入柔性机器人腔内,感知机器人的形状。
工作流程如图2所示。首先,PC1利用术前CT扫描的二维平面图重建腔内解剖结构三维模型,并根据医生的操作习惯,设置内窥镜影像在AR设备内的最佳观测位置。
然后,对系统进行标定,总共包含五个方面的标定,如图3所示,分别为AR设备与电磁跟踪系统的标定、AR设备与机械臂的标定、AR设备定与解剖结构的标定、形状传感器与电磁传感器的标定以及AR设备与世界参考系的标定。通过五个标定步骤,把各部分参考系变换到AR设备坐标系下。
其次,PC2利用形状传感系统测量的波长对柔性机器人的形状进行实时的重建,根据步骤2的标定信息,把重建后的形状变换到AR设备坐标系,并把变换后的数据以及内窥镜影像通过无线通信发送给PC1。
其次,AR设备与PC1进行实时通信,同时,医生佩戴AR设备。在AR设备内医生可观测到柔性机器人三维形状和腔内解剖三维模型在现实场景的叠加信息,另外,医生还能实时观看到内窥镜的影像。
最后,医生通过手势识别对柔性机器人的运动进行控制。AR设备识别医生的手势并计算腕部相对于AR设备的位置,把不同的手势解析为不同的标志位,柔性机器人接收到标志位后,根据不同的标志位进行相应的运动。另外,当医生手的腕部靠近AR设备时,机器人前进/正向旋转/向左弯曲,反之则相反。整体的数据流如图5所示,包括实时的数据、可视化数据以及先验标定数据。
本发明巧妙的将AR设备和电磁跟踪系统的标定转化为AX=XB的求解问题,更加高效的求解了二者的变换关系,如图3所示。
首先,将六自由度电磁传感器固定在带有定位标识码的无磁标定板上。然后在AR设备的视场中移动标定板,利用AR设备的相机对定位标识码的位姿进行估计,并记录标识码和电磁传感器的位姿。最后,定位标识码的姿态估计结果和电磁传感器的位姿可用于构建如下等式:
其中,是AR设备和定位标识码的变换关系,/>是电磁传感器与定位标识码的变换关系,/>是AR设备和电磁跟踪系统基坐标系的变换关系,/>是电磁跟踪系统基坐标系和电磁传感器的变换关系。/>表示不同组别的数据。式(1)和(2)可以表示为:
AX=XB (5)
通过求解AX=XB即可得到X的值。
由于多芯光纤的形状感知部分比插入管和连续体机器人的长度之和来得短,因此形状传感器的基坐标系是一个浮动的坐标系。如何获得柔性机器人相对于AR设备坐标系的形状信息是一个巨大的挑战。本发明借助六自由度的电磁传感器,通过重新定义的虚拟平面标定电磁传感器坐标系与形状传感器坐标系的关系。进而,通过电磁跟踪系统与AR设备的标定关系把柔性机器人的形状信息变换到AR设备坐标系,如图3所示。以下为电磁传感器与形状传感器的标定过程:
将带有两个平行孔的刚性套筒固定在连续体机器人的末端,两个孔平行于刚性套筒的轴向方向。刚性套筒如图4所示,将六自由度电磁传感器(E1)固定到孔1,并将其坐标系{E1}设置为孔1的坐标系,此外,将另一个六自由度电磁传感器(E3)插入孔2。孔1和孔2的长度相同,并且电磁传感器的长度等于孔的长度。通过电磁跟踪系统可以获得两个六自由度电磁传感器的位姿TE1和TE3,并可以通过以下公式计算两个电磁传感器的关系
由于制造误差,孔1可能与孔2不平行。两个电磁传感器的Z轴分别平行于各自所在孔的轴向方向,可以得到由制造误差引起的孔1和孔2之间的角度:
其中,RE1=[xE1,yE1,zE1],RE3=[xE3,yE3,zE3],RE1和RE3分别是TE1和TE3的旋转矩阵。向量zE1和zE3的变换旋转矩阵R'可以通过罗德里格斯旋转公式求得:
其中,ω是zE1×zE3的单位向量,是ω的斜对称矩阵。R=RE1 -1R'RE1可以补偿孔1和孔2因制造所导致的平行误差。当孔2的电磁传感器(E3)拔除后,孔2就失去了参考系,因此将{E12}设置为孔2的坐标系,{E12}的原点和{E3}重合,{E12}的旋转矩阵是由{E1}的旋转矩阵经过R的变换得到。最后,孔2相对于孔1的变换关系为:
将孔2的电磁传感器替换为形状传感器,形状传感器的最后一个光纤布拉格光栅FBG位于套筒内,并将形状传感器的基坐标系{S}定义在最后一个FBG。然后,以一个平整的平面为参考面,将柔性机器人具有形状感知部分的根部固定在参考面上,在平面上对形状传感器进行校准,包括直线设置和扭转补偿校准,其中,扭转补偿过程应让形状传感器的感应部分都处于弯曲状态。校准完成后,形状传感器坐标系{S}的X-Y平面平行于参考面,同时,在不考虑制造误差的情况下,孔2和其Z轴平行。在保证柔性机器人不绕自身轴向转动的情况下,将连续体机器人末端的刚性套筒分别移动到参考面的三个点。柔性机器人上的电磁传感器在每个点的位置为P1,P2,P3,并采集第三点的旋转矩阵Rc。利用三个点建立一个虚拟平面,并找到垂直于该平面的单位矢量r:
r21=P1-P2 (10)
r32=P2-P3 (11)
r=r32×r21 (12)
如图4所示,{E12}的X轴与虚拟平面之间的角度ψ可以通过以下方程式求解:
其中,R3=RcR=[x3,y3,z3]。因为虚拟平面与参考面平行,并且形状传感器的X-Y平面与参考面平行,所以{E12}的X轴与形状传感器坐标系X-Y平面的夹角为ψ。最终,形状传感器{S}和电磁传感器坐标系{E1}的变换关系可以求得:
其中,l是电磁传感器的长度。因此,可以按照以下方式将形状重建的信息变换到AR设备的空间:
其中,C(s)为柔性机器人在形状传感器坐标系下的三维形状信息,C(s)H为柔性机器人在AR设备坐标系下的三维形状信息。
为了透视解剖结构,并将腔内解剖结构的3D虚拟模型叠加在真实场景上,需要对AR设备和解剖模型进行标定。主要的标定过程如下:
1、CT扫描腔内解剖,获取二维扫描图。
2、用2D CT图像重建解剖结构的3D虚拟模型,作为目标点云P。
3、柔性机器人在介入的腔体入口处进行初步的移动,用连续体机器人末端的电磁传感器采集部分解剖壁面的点云数据,并将其作为原始云G。
5、利用ICP算法对点云P和Q进行匹配,通过迭代求得AR设备参考系下解剖结构3D模型与实际解剖的变换关系。
为了进一步简化机器人的控制,改进传统的基于接触的主从控制方法,使用非接触手势识别方法来对柔性机器人进行遥操作控制。在本发明中,定义了三个手势来映射柔性机器人的运动,包括弯曲,平移运动和旋转运动。通过拉动柔性机器人的绳驱线索来完成弯曲,平移运动由机械臂的笛卡尔运动提供,旋转运动是通过机械臂的最后一个关节旋转实现的。
AR设备用于识别外科医生的手势,共三个手势映射到机器人的动作,包括“OPEN”,“OK”和“FINGER”。其中,“OPEN”,“FINGER”和“OK”的手势分别映射为平移运动,旋转运动和弯曲。识别手势后,实时获取手腕与AR设备的欧几里得距离,如果距离减少,则机器人将向前移动,反之亦然。类似地,旋转运动和弯曲遵循相同的规则。
由于AR设备与手腕的距离计算存在一定的噪声,需要对该数据进行滤波处理。本发明采用卡尔曼滤波器对其进行滤波,由于手腕的运动是不规律的,卡尔曼滤波器的预测模型设计为y=x。其中,x为上一时刻卡尔曼滤波器的最优估计值,y为下一时刻的预测值。
AR设备与机械臂的标定方法将定位标识码固定于机械臂末端,然后在AR设备视野内移动机械臂末端,采集机械臂姿态和定位标识的位姿,然后求解AX=XB问题。AR设备与世界参考系的标定则由AR设备自身的SLAM功能来完成。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统及其各个装置、模块、单元以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统及其各个装置、模块、单元以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的系统及其各项装置、模块、单元可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置、模块、单元也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置、模块、单元视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。
Claims (6)
1.一种基于增强现实的介入机器人无接触遥操系统,其特征在于,包括头戴式AR设备、PC1、PC2、光栅解调仪、磁场发生器、插入管、冗余机械臂、驱动单元、连续体机器人、LED、内窥镜相机、形状传感器和电磁传感器,所述头戴式AR设备与PC1相连接,所述PC2分别与光栅解调仪、磁场发生器、冗余机械臂和驱动单元相连接;
所述形状传感器、电磁传感器、连续体机器人、插入管、冗余机械臂、驱动单元、内窥镜相机及LED组成柔性机器人;
所述头戴式AR设备将柔性机器人模型叠加到现实场景,所述柔性机器人模型叠加的对象为连续体机器人和内窥镜插入管部分导管,所述连续体机器人和内窥镜插入管部分导管总长度由形状传感器的长度所决定;
所述系统的工作流程如下:
步骤1:PC1利用术前CT扫描的二维平面图重建腔内解剖结构三维模型,设置内窥镜影像在AR设备内的最佳观测位置;
步骤2:对系统进行标定;
步骤3:PC2利用形状传感系统测量的波长对柔性机器人的形状进行重建,根据步骤2的标定信息,把重建后的形状变换到AR设备坐标系,并把变换后的数据以及内窥镜影像通过无线通信发送给PC1;
步骤4:AR设备与PC1进行实时通信,医生佩戴AR设备;
步骤5:医生通过手势识别对柔性机器人的运动进行控制;
所述AR设备和电磁跟踪系统的标定转化为AX=XB的求解问题,高效的求解了二者的变换关系,具体方法如下:
首先,将六自由度电磁传感器固定在带有定位标识码的无磁标定板上;然后在AR设备的视场中移动标定板,利用AR设备的相机对定位标识码的位姿进行估计,并记录标识码和电磁传感器的位姿;最后,定位标识码的姿态估计结果和电磁传感器的位姿可用于构建如下等式:
其中,是AR设备和定位标识码的变换关系,/>是电磁传感器与定位标识码的变换关系,/>是AR设备和电磁跟踪系统基坐标系的变换关系,/>是电磁跟踪系统基坐标系和电磁传感器的变换关系;/>表示不同组别的数据;式(1)和(2)可以表示为:
AX=XB (5)
通过求解AX=XB即可得到X的值。
2.根据权利要求1所述的一种基于增强现实的介入机器人无接触遥操系统,其特征在于,所述步骤2包括AR设备与电磁跟踪系统的标定、AR设备与机械臂的标定、AR设备定与解剖结构的标定、形状传感器与电磁传感器的标定和AR设备与世界参考系的标定;所述步骤4在AR设备内医生可观测到柔性机器人三维形状和腔内解剖三维模型在现实场景的叠加信息,医生实时观看到内窥镜的影像。
3.根据权利要求1所述的一种基于增强现实的介入机器人无接触遥操系统,其特征在于,所述步骤5中的AR设备识别医生的手势并计算腕部相对于AR设备的位置,把不同的手势解析为不同的标志位,柔性机器人接收到标志位后,根据不同的标志位进行相应的运动。
4.根据权利要求3所述的一种基于增强现实的介入机器人无接触遥操系统,其特征在于,医生手的腕部靠近AR设备时,机器人前进/正向旋转/向左弯曲。
5.根据权利要求1所述的一种基于增强现实的介入机器人无接触遥操系统,其特征在于,所述电磁传感器采用六自由度,通过重新定义的虚拟平面标定电磁传感器坐标系与形状传感器坐标系的关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
PCT/CN2021/111946 WO2022188352A1 (zh) | 2021-03-08 | 2021-08-11 | 基于增强现实的介入机器人无接触遥操系统及标定方法 |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110251635.9A CN112914731A (zh) | 2021-03-08 | 2021-03-08 | 基于增强现实的介入机器人无接触遥操系统及标定方法 |
CN2021102516359 | 2021-03-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113229941A CN113229941A (zh) | 2021-08-10 |
CN113229941B true CN113229941B (zh) | 2023-05-26 |
Family
ID=76173434
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110251635.9A Pending CN112914731A (zh) | 2021-03-08 | 2021-03-08 | 基于增强现实的介入机器人无接触遥操系统及标定方法 |
CN202110674129.0A Active CN113229941B (zh) | 2021-03-08 | 2021-06-17 | 基于增强现实的介入机器人无接触遥操系统及标定方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110251635.9A Pending CN112914731A (zh) | 2021-03-08 | 2021-03-08 | 基于增强现实的介入机器人无接触遥操系统及标定方法 |
Country Status (2)
Country | Link |
---|---|
CN (2) | CN112914731A (zh) |
WO (1) | WO2022188352A1 (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112914731A (zh) * | 2021-03-08 | 2021-06-08 | 上海交通大学 | 基于增强现实的介入机器人无接触遥操系统及标定方法 |
CN115542889A (zh) * | 2021-06-30 | 2022-12-30 | 上海微觅医疗器械有限公司 | 机器人术前导航方法、系统、存储介质及计算机设备 |
CN114373046B (zh) * | 2021-12-27 | 2023-08-18 | 达闼机器人股份有限公司 | 辅助机器人运行的方法、装置及存储介质 |
CN114931437B (zh) * | 2022-07-25 | 2022-10-18 | 中国科学院自动化研究所 | 感测型连续体机器人、介入感测系统及方法 |
CN116572249B (zh) * | 2023-06-07 | 2024-01-02 | 哈尔滨理工大学 | 一种基于三模态切换机制的柔性机械臂遥操作控制方法 |
CN116999178B (zh) * | 2023-10-07 | 2024-01-12 | 北京科鹏医疗器械有限公司 | 一种经自然通道内窥镜操作的双频滤波直观主从映射方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102162738A (zh) * | 2010-12-08 | 2011-08-24 | 中国科学院自动化研究所 | 摄像头与惯性传感器组合定位定姿系统的标定方法 |
CN106648077A (zh) * | 2016-11-30 | 2017-05-10 | 南京航空航天大学 | 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统 |
CN110706279A (zh) * | 2019-09-27 | 2020-01-17 | 清华大学 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5226195B2 (ja) * | 2006-07-28 | 2013-07-03 | オリンパスメディカルシステムズ株式会社 | 内視鏡装置及び内視鏡装置の作動方法 |
CN101099657A (zh) * | 2007-07-13 | 2008-01-09 | 上海大学 | 细长柔性杆的空间形状检测装置和方法 |
CN101147668B (zh) * | 2007-11-09 | 2010-06-02 | 清华大学 | 一种无线生物体腔内图像采集系统及装置 |
WO2010110560A2 (ko) * | 2009-03-24 | 2010-09-30 | 주식회사 래보 | 증강현실을 이용한 수술 로봇 시스템 및 그 제어 방법 |
US9918659B2 (en) * | 2013-03-15 | 2018-03-20 | Intuitive Surgical Operations, Inc. | Shape sensor systems for tracking interventional instruments and mehods of use |
US9592095B2 (en) * | 2013-05-16 | 2017-03-14 | Intuitive Surgical Operations, Inc. | Systems and methods for robotic medical system integration with external imaging |
US10952600B2 (en) * | 2014-07-10 | 2021-03-23 | Covidien Lp | Endoscope system |
CN104739519B (zh) * | 2015-04-17 | 2017-02-01 | 中国科学院重庆绿色智能技术研究院 | 一种基于增强现实的力反馈手术机器人控制系统 |
CN204542390U (zh) * | 2015-04-17 | 2015-08-12 | 中国科学院重庆绿色智能技术研究院 | 一种基于增强现实的力反馈手术机器人控制系统 |
CN105266897B (zh) * | 2015-11-25 | 2018-03-23 | 上海交通大学医学院附属第九人民医院 | 一种基于增强现实的显微外科手术导航系统及导航方法 |
JP2019508174A (ja) * | 2016-03-15 | 2019-03-28 | コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. | 光ファイバー実形状感知式栄養チューブ |
US20180116732A1 (en) * | 2016-10-18 | 2018-05-03 | The Board Of Trustees Of The Leland Stanford Junior University | Real-time Three Dimensional Display of Flexible Needles Using Augmented Reality |
EP3613057A4 (en) * | 2017-04-18 | 2021-04-21 | Intuitive Surgical Operations, Inc. | GRAPHIC USER INTERFACE FOR PLANNING A PROCEDURE |
WO2019040493A1 (en) * | 2017-08-21 | 2019-02-28 | The Trustees Of Columbia University In The City Of New York | SYSTEMS AND METHODS FOR AUGMENTED REALITY GUIDANCE |
CN108406725A (zh) * | 2018-02-09 | 2018-08-17 | 华南理工大学 | 基于电磁理论与移动跟踪的力反馈人机交互系统及方法 |
CN209392094U (zh) * | 2018-06-20 | 2019-09-17 | 深圳大学 | 一种增强现实的手术系统 |
CN109758230B (zh) * | 2019-02-26 | 2021-04-13 | 中国电子科技集团公司信息科学研究院 | 一种基于增强现实技术的神经外科手术导航方法和系统 |
US11254019B2 (en) * | 2019-03-05 | 2022-02-22 | The Boeing Company | Automatic calibration for a robot optical sensor |
CN110010249B (zh) * | 2019-03-29 | 2021-04-27 | 北京航空航天大学 | 基于视频叠加的增强现实手术导航方法、系统及电子设备 |
KR102379245B1 (ko) * | 2019-04-30 | 2022-03-28 | 치루 유니버시티 오브 테크놀로지 | 웨어러블 디바이스 기반의 이동 로봇 제어 시스템 및 제어 방법 |
KR102313319B1 (ko) * | 2019-05-16 | 2021-10-15 | 서울대학교병원 | 증강현실 대장 내시경 시스템 및 이를 이용한 모니터링 방법 |
CN110711030B (zh) * | 2019-10-21 | 2021-04-23 | 北京国润健康医学投资有限公司 | 基于ar技术的股骨头坏死微创手术导航系统及导航方法 |
CN111202583A (zh) * | 2020-01-20 | 2020-05-29 | 上海奥朋医疗科技有限公司 | 跟踪手术床运动的方法、系统及介质 |
CN212466186U (zh) * | 2020-02-11 | 2021-02-05 | 中国医学科学院北京协和医院 | 一种基于增强现实技术的骨肿瘤手术辅助系统 |
CN111329587A (zh) * | 2020-02-19 | 2020-06-26 | 上海理工大学 | 利用形状传感光纤网格进行手术配准系统 |
CN112914731A (zh) * | 2021-03-08 | 2021-06-08 | 上海交通大学 | 基于增强现实的介入机器人无接触遥操系统及标定方法 |
-
2021
- 2021-03-08 CN CN202110251635.9A patent/CN112914731A/zh active Pending
- 2021-06-17 CN CN202110674129.0A patent/CN113229941B/zh active Active
- 2021-08-11 WO PCT/CN2021/111946 patent/WO2022188352A1/zh active Application Filing
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102162738A (zh) * | 2010-12-08 | 2011-08-24 | 中国科学院自动化研究所 | 摄像头与惯性传感器组合定位定姿系统的标定方法 |
CN106648077A (zh) * | 2016-11-30 | 2017-05-10 | 南京航空航天大学 | 基于实时跟踪和多源信息融合的自适应动态立体增强现实作业导航系统 |
CN110706279A (zh) * | 2019-09-27 | 2020-01-17 | 清华大学 | 基于全局地图与多传感器信息融合的全程位姿估计方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112914731A (zh) | 2021-06-08 |
CN113229941A (zh) | 2021-08-10 |
WO2022188352A1 (zh) | 2022-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113229941B (zh) | 基于增强现实的介入机器人无接触遥操系统及标定方法 | |
US20230380716A1 (en) | Systems and methods for deformation compensation using shape sensing | |
US20240065769A1 (en) | Systems and methods for non-rigid deformation of tissue for virtual navigation of interventional tools | |
CN109069217B (zh) | 图像引导外科手术中的姿势估计以及透视成像系统的校准的系统和方法 | |
JP6824967B2 (ja) | 管状網のナビゲーション | |
CN104302241B (zh) | 用于使用减小的搜索空间的医疗设备的配准系统和方法 | |
US10373719B2 (en) | Systems and methods for pre-operative modeling | |
US9629595B2 (en) | Systems and methods for localizing, tracking and/or controlling medical instruments | |
KR102301021B1 (ko) | 다중 비전 시스템의 정합을 위한 시스템 및 방법 | |
Devernay et al. | Towards endoscopic augmented reality for robotically assisted minimally invasive cardiac surgery | |
Lee et al. | From medical images to minimally invasive intervention: Computer assistance for robotic surgery | |
WO2021146339A1 (en) | Systems and methods for autonomous suturing | |
Lin et al. | ARei: Augmented-reality-assisted touchless teleoperated robot for endoluminal intervention | |
Turan et al. | Magnetic-visual sensor fusion-based dense 3d reconstruction and localization for endoscopic capsule robots | |
CN117297773A (zh) | 手术器械控制方法、手术机器人和存储介质 | |
Lu | Suture thread detection and 3D model reconstruction for automated surgical knot tying with a vision-based robotic system | |
CN117064545A (zh) | 基于增强现实的机器人腔内介入远程呈现方法及系统 | |
WO2023018684A1 (en) | Systems and methods for depth-based measurement in a three-dimensional view | |
郭晋 | Study on a Virtual Reality-based Training System for the Vascular Interventional Surgery | |
Wengert et al. | Intraoperative Guidance Using 3D Scene Reconstruction from Endoscopic Images |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |