CN113925613A - 一种腹腔镜手术持镜机器人系统 - Google Patents
一种腹腔镜手术持镜机器人系统 Download PDFInfo
- Publication number
- CN113925613A CN113925613A CN202111138355.3A CN202111138355A CN113925613A CN 113925613 A CN113925613 A CN 113925613A CN 202111138355 A CN202111138355 A CN 202111138355A CN 113925613 A CN113925613 A CN 113925613A
- Authority
- CN
- China
- Prior art keywords
- module
- surgical instrument
- laparoscope
- holding robot
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/77—Manipulators with motion or force scaling
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B2034/302—Surgical robots specifically adapted for manipulations within body cavities, e.g. within abdominal or thoracic cavities
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02P—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
- Y02P90/00—Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
- Y02P90/02—Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]
Landscapes
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Robotics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Medical Informatics (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- General Health & Medical Sciences (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Endoscopes (AREA)
Abstract
本发明公开了一种腹腔镜手术持镜机器人系统,所述系统包括持镜机器人本体、所述持镜机器人本体的末端上的腹腔镜连接件,所述腹腔镜连接件上固定设有腹腔镜,所述系统还包括语音控制系统、遥控系统与智能追踪系统;本发明的腹腔镜手术持镜机器人系统可以辅助主刀医生完成腹腔镜手术,提高持镜的稳定性。
Description
技术领域
本发明涉及智能化、自动化医疗设备的技术领域,具体涉及一种腹腔镜手术持镜机器人系统。
背景技术
随着科技的不断进步,机器人可被应用在各个领域这个。其中,在医疗领域中,尤其外科手术中,使用机器人辅助医生完成某些手术已经较为常见。但是医疗手术机器人还是存在一定的缺陷,例如智能化程度不高,稳定程度有待提高等。
发明内容
鉴于现有技术的不足,本发明旨在于提供一种腹腔镜手术持镜机器人系统。
为了实现上述目的,本发明采用的技术方案如下:
一种腹腔镜手术持镜机器人系统,所述系统包括持镜机器人本体、所述持镜机器人本体的末端上的腹腔镜连接件,所述腹腔镜连接件上固定设有腹腔镜,所述系统还包括语音控制系统、遥控系统与智能追踪系统,其中,所述语音控制系统具有语音指令识别模块、所述遥控系统具有遥控指令处理模块,所述智能追踪系统具有获取腹腔镜手术图像模块、手术器械尖端检测与分割模块、获取手术器械尖端中心模块与获取腹腔镜控制速度模块;所述系统还还包括持镜机器人逆运动学求解模块、控制持镜机器人运动模块。
需要说明的是,所述获取腹腔镜手术图像模块的输入端为所述腹腔镜视野内的真实三维空间场景,所述获取腹腔镜手术图像模块的输出端与所述手术器械尖端检测与分割模块的输入端连接;所述手术器械尖端检测与分割模块的输出端与所述获取手术尖端中心模块的输入端连接;所述获取手术尖端中心模块的输出端与所述获取腹腔镜控制速度模块的输入端连接;所述获取腹腔镜控制速度模块的输出端与所述持镜机器人逆运动学求解模块输入端连接;所述持镜机器人逆运动学求解模块的输出端与所述控制持镜机器人运动模块的输入端连接,所述控制持镜机器人运动模块的输出端为所述持镜机器人的关节角的驱动信号,用于控制所述持镜机器人的运动;其中,所述语音指令识别模块、遥控指令处理模块分别与所述持镜机器人逆运动学求解模块的输出端连接。
需要说明的是,所述获取腹腔镜手术图像模块用于通过所述腹腔镜采集患者腹腔内的图像,所述图像中包括单个或多个手术器械尖端;所述手术器械尖端检测与分割模块用于对所述单个或多个手术器械尖端进行检测、分类和分割。
需要说明的是,所述手术器械尖端检测与分割模块包括源图像预处理单元、手术器械尖端检测单元和手术器械尖端分割单元,其中,所述源图像预处理单元,用于实现所述图像的预处理,作为后续使用深度学习模型的基础;所述手术器械尖端检测单元,用于通过深度目标检测模型获取手术器械尖端的包围盒和类别;所手术器械尖端分割单元,用于通过深度目标分割模型获取手术器械尖端的轮廓。
需要说明的是,所述获取手术尖端中心模块用于根据所述手术器械尖端的检测和分割模块的结果获得手术器械尖端的中心像素点坐标。
需要说明的是,所述获取腹腔镜控制速度模块用于根据单个或多个手术器械尖端的中心像素点坐标和约束条件获得腹腔镜末端的控制速度;其中,腹腔镜末端的控制速度包含追踪手术器械尖端的控制速度,由单个或多个手术器械尖端的中心和稳定点的像素点坐标共同决定。
需要说明的是,所述持镜机器人逆运动学求解模块用于完成腹腔镜末端到持镜机器人关节的逆运动学求解;其中包括持镜机器人末端到持镜机器人关节的逆运动学求解、腹腔镜末端到持镜机器人末端的逆运动学求解。
需要说明的是,所述持镜机器人末端到持镜机器人关节的逆运动学求解包括:
正运动学方程为:
其中,[nx,ny,nz]T,[ox,oy,oz]T,[ax,ay,az]T分别表示机器人末端沿着x,y,z轴的方向向量,[px,py,pz]T表示机器人末端的位置矢量,fkine()代表正运动学方程,iTj为i号坐标系到j号坐标系的齐次变换矩阵,θ1,…,θ6依次为机器人关节1到关节6的旋转角度;
根据,第1号坐标系到末端的齐次变换矩阵也可以表示为:
根据第1号坐标系到末端的齐次变换矩阵的关系可求得4组对应的位置级逆运动学解,当已知当前时刻持镜机器人末端的齐次变换矩阵Te,通过求解方法即可解算其对应的关节角数据θ1,…,θ6;
所述腹腔镜末端到持镜机器人末端的逆运动学求解
腹腔镜末端到持镜机器人末端的逆运动学求解实际上就是个手眼标定问题。手眼标定系统中为持镜机器人末端坐标系从i时刻变换到j时刻的齐次变换矩阵,为腹腔镜末端坐标系从i时刻变换到j时刻的齐次变换矩阵,为i时刻腹腔镜末端坐标系与机器人末端坐标系之间的相对位姿变换矩阵。
进一步地,式可简化为:
其中,bRa和bta分别为bΤa的旋转矩阵与平移向量,O3×1=[0,0,0];
将式进行展开可得到腹腔镜末端到持镜机器人末端的运动学方程,即:
其中,I3×3为三阶单位矩阵;
需要说明的是,每个包围盒使用目标边框中心坐标和目标边框尺寸表示;
假设一个图像单元为Icell,深度目标检测模型预测图像单元中边界框的四个坐标(xt,yt,wt,ht)和检测到的手术器械尖端属于各个类别的概率p=(p1,p2,...,pn)(n表示手术器械的种类数量),表达式如下:
(xt,yt,wt,ht,p)=detection(Icell)
式中,detection()表示深度目标检测模型;
假设检测到的手术器械尖端的边框中心坐标表示为(xbox,ybox),宽度和高度表示为(wbox,hbox),计算公式如下:
式中,(xcell,ycell)表示单元左上角坐标,(wp,hp)表示边框的先验宽度和高度,σ()表示sigmoid函数,表达式如下:
假设检测到的手术器械尖端的类别表示为cbox,表达式如下:
cbox=argmax(p);
所述手术器械尖端分割单元中先通过深度目标分割模型获取图像各个像素点的类别,进一步计算手术器械尖端的轮廓;
手术器械尖端分割的任务也即对图像中每个像素进行分类,每个像素的类别有两种:手术器械尖端类和背景类;
假设手术器械尖端包围盒的图像为Ibox,宽度和高度为(wbox,hbox),深度目标分割模型预测图像中每个像素点(i,j)∈Ibox,i∈[1,wbox],j∈[1,hbox]属于手术器械尖端类的概率P={pij},表达式如下:
P=segmentation(Ibox)
式中,segmentation()表示深度目标分割模型;
假设像素点(i,j)的类别表示为cij,表达式如下:
cij=argmax(pij,1-pij)
利用各个像素点的类别对图像进行二值化,得到的图像为Ib,进一步使用Sobel算子计算图像的近似梯度G,以提取手术器械尖端的轮廓;
假设图像在水平方向和垂直方向的梯度分别为Gx和Gy,表达式如下:
G=|Gx|+|Gy|
式中,*表示矩阵卷积运算。另外,梯度越大的像素点越有可能是边缘。
需要说明的是,还包括出错处理模块,当所述系统中的模块或模块间出现错误,立即触发出错处理中断,直接进入出错处理模块,出错处理完成后,返回到触发出错处理中断的模块。
本发明有益效果在于,可以辅助主刀医生完成腹腔镜手术,提高持镜的稳定性。大幅度提高监视器屏幕上图像的稳定性,保证手术的顺利进行,避免对患者造成伤害,提高手术的安全性和效率。快速稳定地追踪手术器械尖端,解决腹腔镜末端运动方向与持镜助手操作方向相反的手眼不协调问题。
附图说明
图1为本发明的整体结构示意图;
图2为本发明的各个模块的框架图;
图3为本发明中手术器械尖端检测与分割模块流程图;
图4为本发明中语音指令识别模块处理框图;
图5为本发明中遥控指令处理模块处理框图;
图6为本发明中出错处理模块触发框图;
图7为本发明中智能追踪系统的控制框架图;
图8为本发明中的程序流程图。
具体实施方式
下将结合附图对本发明作进一步的描述,需要说明的是,本实施例以本技术方案为前提,给出了详细的实施方式和具体的操作过程,但本发明的保护范围并不限于本实施例。
如图1所示,本发明为一种腹腔镜手术持镜机器人系统,所述系统包括持镜机器人本体1、所述持镜机器人本体1的末端上的腹腔镜连接件2,所述腹腔镜连接件2上固定设有腹腔镜3,所述系统还包括语音控制系统4、遥控系统5与智能追踪系统,其中,所述语音控制系统4具有语音指令识别模块、所述遥控系统具5有遥控指令处理模块,所述智能追踪系统具有获取腹腔镜手术图像模块、手术器械尖端检测与分割模块、获取手术器械尖端中心模块与获取腹腔镜控制速度模块;所述系统还还包括持镜机器人逆运动学求解模块、控制持镜机器人运动模块。
需要指出的是,为了保证安全性,本系统中的语音控制系统、遥控系统的设定级别为优先级,智能追踪系统的设定级别为一般级。
如图2所示,本发明中的获取腹腔镜手术图像模块的输入端为所述腹腔镜视野内的真实三维空间场景,所述获取腹腔镜手术图像模块的输出端与所述手术器械尖端检测与分割模块的输入端连接;所述手术器械尖端检测与分割模块的输出端与所述获取手术尖端中心模块的输入端连接;所述获取手术尖端中心模块的输出端与所述获取腹腔镜控制速度模块的输入端连接;所述获取腹腔镜控制速度模块的输出端与所述持镜机器人逆运动学求解模块输入端连接;所述持镜机器人逆运动学求解模块的输出端与所述控制持镜机器人运动模块的输入端连接,所述控制持镜机器人运动模块的输出端为所述持镜机器人的关节角的驱动信号,用于控制所述持镜机器人的运动;其中,所述语音指令识别模块、遥控指令处理模块分别与所述持镜机器人逆运动学求解模块的输出端连接。
实施例
本发明系统中的各个功能模块详解:
获取腹腔镜手术图像模块
获取腹腔镜手术图像模块的输入为持镜机器人末端执行器固定的腹腔镜视野内的真实三维空间场景,输出端与所述手术器械尖端检测与分割模块连接。
用于通过持镜机器人末端执行器固定的腹腔镜采集患者腹腔内的图像,所述图像中包括单个或多个手术器械尖端。
手术器械尖端检测与分割模块
手术器械尖端检测与分割模块输入端与所述获取腹腔镜手术图像模块连接,输出端与所述获取手术尖端中心模块连接。
用于通过深度学习模型实现腹腔镜手术图像中单个或多个手术器械尖端的检测、分类和分割。
特别地,手术器械尖端检测与分割模块模块包括源图像预处理单元、手术器械尖端检测单元和手术器械尖端分割单元。
源图像预处理单元,用于实现原始腹腔镜手术图像的预处理,作为后续使用深度学习模型的基础。
手术器械尖端检测单元,用于通过深度目标检测模型获取手术器械尖端的包围盒和类别。
可选地,每个包围盒使用目标边框中心坐标和目标边框尺寸表示。
假设一个图像单元为Icell,深度目标检测模型预测图像单元中边界框的四个坐标(xt,yt,wt,ht)和检测到的手术器械尖端属于各个类别的概率p=(p1,p2,...,pn)(n表示手术器械的种类数量),表达式如下:
(xt,yt,wt,ht,p)=detection(Icell) (1)
式中,detection()表示深度目标检测模型。
假设检测到的手术器械尖端的边框中心坐标表示为(xbox,ybox),宽度和高度表示为(wbox,hbox),计算公式如下:
式中,(xcell,ycell)表示单元左上角坐标,(wp,hp)表示边框的先验宽度和高度,σ()表示sigmoid函数,表达式如下:
假设检测到的手术器械尖端的类别表示为cbox,表达式如下:
cbox=argmax(p) (4)
手术器械尖端分割单元,用于通过深度目标分割模型获取手术器械尖端的轮廓。首先通过深度目标分割模型获取图像各个像素点的类别,进一步计算手术器械尖端的轮廓。
手术器械尖端分割的任务也即对图像中每个像素进行分类,可选地,每个像素的类别有两种:手术器械尖端类和背景类。
假设手术器械尖端包围盒的图像为Ibox,宽度和高度为(wbox,hbox),深度目标分割模型预测图像中每个像素点(i,j)∈Ibox,i∈[1,wbox],j∈[1,hbox]属于手术器械尖端类的概率P={pij},表达式如下:
P=segmentation(Ibox) (5)
式中,segmentation()表示深度目标分割模型。
假设像素点(i,j)的类别表示为cij,表达式如下:
cij=argmax(pij,1-pij) (6)
可选地,利用各个像素点的类别对图像进行二值化,得到的图像为Ib,进一步使用Sobel算子计算图像的近似梯度G,以提取手术器械尖端的轮廓。
假设图像在水平方向和垂直方向的梯度分别为Gx和Gy,表达式如下:
G=|Gx|+|Gy| (8)
式中,*表示矩阵卷积运算。另外,梯度越大的像素点越有可能是边缘。
可选地,如图3所示,通过融合深度目标检测模型和分割单元的深度目标分割模型,得到图像到单个或多个手术器械尖端的检测、分类和分割结果的端到端深度学习模型,提高模块的计算效率。
获取手术尖端中心模块
获取手术尖端中心模块输入端与所述手术器械尖端检测与分割模块连接,输出端与所述获取腹腔镜控制速度模块连接。
用于根据手术器械尖端的检测和分割结果解算手术器械尖端的中心像素点坐标。
可选地,根据手术器械尖端的轮廓计算轮廓的一阶图像矩,进一步计算手术器械尖端的灰度重心。
假设手术器械尖端图像为If,(xi,yi)∈If,i∈[1,N]为If上的任意像素点坐标,该手术器械尖端图像的重心可表示为:
获取腹腔镜控制速度模块
获取腹腔镜控制速度模块输入端与所述获取手术尖端中心模块连接,输出端与所述持镜机器人逆运动学求解模块连接。
用于根据单个或多个手术器械尖端的中心像素点坐标和约束条件解算腹腔镜末端的控制速度。
特别地,腹腔镜末端的控制速度包含追踪手术器械尖端的控制速度,由单个或多个手术器械尖端的中心和稳定点的像素点坐标共同决定。
特别地,约束条件至少包括保证腹腔镜在安全可达范围内的约束。
语音指令识别模块
用于通过语音识别模块采集主刀医生的语音,进一步识别主刀医生的语音指令,最后根据语音指令实施相应操作。
特别地,语音指令识别模块包括语音识别单元和多个指令处理单元。
特别地,指令处理单元至少包括:停止指令处理单元、退出指令处理单元、图像视野移动指令处理单元、图像视野旋转指令处理单元。
语音识别单元,用于过滤非指令的语音,识别主刀医生的语音指令,进一步根据语音指令的类别进入相应的指令处理单元。
停止指令处理单元,用于暂停持镜机器人的运动。
退出指令处理单元,用于退出语音控制子系统,激活智能追踪子系统。
图像视野移动指令处理单元,用于根据图像视野的期望移动方向和距离计算期望的腹腔镜末端三维空间位姿,输出端与所述持镜机器人逆运动学求解模块连接。
图像视野旋转指令处理单元,用于根据图像视野的期望旋转方向和角度计算期望的腹腔镜末端三维空间位姿,输出端与所述持镜机器人逆运动学求解模块连接。
遥控指令处理模块
用于实现医生通过遥控设备触发指令,根据指令实施相应操作。
特别地,遥控指令处理模块包括触发检测单元和多个指令处理单元。
特别地,指令处理单元至少包括:停止指令处理单元、退出指令处理单元、手术视野调整指令处理单元。
触发检测单元,用于检测医生在遥控设备上的操作,进一步根据指令的类别进入相应的指令处理单元。
停止指令处理单元,用于暂停持镜机器人的运动。
退出指令处理单元,用于退出遥控子系统,激活智能追踪子系统。
手术视野调整指令处理单元,用于调整腹腔镜镜头的位姿,以调整手术视野,输出端与所述持镜机器人逆运动学求解模块连接。
持镜机器人逆运动学求解模块
持镜机器人逆运动学求解模块输入端与所述获取腹腔镜控制速度模块、语音指令识别模块、遥控指令处理模块连接,输出端与所述控制持镜机器人运动模块连接。
用于完成腹腔镜末端到持镜机器人关节的逆运动学求解。
特别地,腹腔镜末端到持镜机器人关节的逆运动学求解包括:腹腔镜末端到持镜机器人末端的逆运动学求解、持镜机器人末端到持镜机器人关节的逆运动学求解。
持镜机器人末端到持镜机器人关节的逆运动学求解
为了实现持镜机器人末端的6DOF旋转和平移运动,本专利的持镜机器人也是设置为6-DOF,其正运动学方程为:
其中,[nx,ny,nz]T,[ox,oy,oz]T,[ax,ay,az]T分别表示机器人末端沿着x,y,z轴的方向向量,[px,py,pz]T表示机器人末端的位置矢量,fkine()代表正运动学方程,iTj为i号坐标系到j号坐标系的齐次变换矩阵,θ1,…,θ6依次为机器人关节1到关节6的旋转角度。
根据,第1号坐标系到末端的齐次变换矩阵也可以表示为:
根据式(11)的关系可求得4组对应的位置级逆运动学解,具体流程如图6所示。因此,当已知当前时刻持镜机器人末端的齐次变换矩阵Te,通过上述求解方法即可解算其对应的关节角数据θ1,…,θ6。
腹腔镜末端到持镜机器人末端的逆运动学求解
腹腔镜末端到持镜机器人末端的逆运动学求解实际上就是个手眼标定问题。手眼标定系统中为持镜机器人末端坐标系从i时刻变换到j时刻的齐次变换矩阵,为腹腔镜末端坐标系从i时刻变换到j时刻的齐次变换矩阵,为i时刻腹腔镜末端坐标系与机器人末端坐标系之间的相对位姿变换矩阵。
进一步地,式可简化为:
其中,bRa和bta分别为bΤa的旋转矩阵与平移向量,O3×1=[0,0,0]。
将式进行展开可得到腹腔镜末端到持镜机器人末端的运动学方程,即:
其中,I3×3为三阶单位矩阵。
特别地,腹腔镜末端到持镜机器人末端的逆运动学求解具有远程运动中心约束。
可选地,通过持镜机器人的关节角测量单元获取实时关节角,进一步实现持镜机器人末端到持镜机器人关节的速度级逆运动学求解。
上述的速度级逆运动学可表示为:
控制持镜机器人运动模块
控制持镜机器人运动模块输入端与所述持镜机器人逆运动学求解模块连接,输出端为持镜机器人关节角的驱动信号,用以控制持镜机器人运动。
用于根据解算得到的期望关节角控制持镜机器人运动。
出错处理模块
出错处理模块与系统模块连接,系统模块中或模块间一旦出现错误,立即触发出错处理中断,直接进入出错处理模块,出错处理完成后,返回到触发出错处理中断的模块。
用于处理系统模块中或模块间出现的错误。
特别地,出错处理模块至少包括异常出错处理单元、关节角限位出错处理单元和停止指令出错处理单元。
异常出错处理单元,用于处理系统模块中或模块间出现的异常错误。
关节角限位出错处理单元,持镜机器人逆运动学求解模块中,解算得到的关节角超出持镜机器人的关节角限位,触发出错处理中断,系统进入关节角限位出错处理单元,完成超出关节角限位的出错处理。
可选地,关节限位出错处理单元的出错处理方式为,控制持镜机器人返回初始状态,重新进行逆运动学求解。
停止指令出错处理单元,持镜机器人运动过程中,主刀医生发出停止的语音指令或通过遥控设备触发停止指令,持镜机器人运动与停止指令发生冲突,触发出错处理中断,系统进入停止指令出错处理单元,根据特定策略完成运动与停止指令冲突的出错处理。
可选地,停止指令出错处理单元的出错处理策略为,判断持镜机器人当前状态是否在安全范围内:如果是,则执行停止指令;否则,控制持镜机器人继续运动到安全范围内,再执行停止指令。
对于本领域的技术人员来说,可根据以上描述的技术方案以及构思,做出其它各种相应的改变以及变形,而所有的这些改变以及变形都应该属于本发明权利要求的保护范围之内。
Claims (10)
1.一种腹腔镜手术持镜机器人系统,所述系统包括持镜机器人本体、所述持镜机器人本体的末端上的腹腔镜连接件,所述腹腔镜连接件上固定设有腹腔镜,其特征在于,所述系统还包括语音控制系统、遥控系统与智能追踪系统,其中,所述语音控制系统具有语音指令识别模块、所述遥控系统具有遥控指令处理模块,所述智能追踪系统具有获取腹腔镜手术图像模块、手术器械尖端检测与分割模块、获取手术器械尖端中心模块与获取腹腔镜控制速度模块;所述系统还还包括持镜机器人逆运动学求解模块、控制持镜机器人运动模块。
2.根据权利要求1所述的腹腔镜手术持镜机器人系统,其特征在于,
所述获取腹腔镜手术图像模块的输入端为所述腹腔镜视野内的真实三维空间场景,所述获取腹腔镜手术图像模块的输出端与所述手术器械尖端检测与分割模块的输入端连接;所述手术器械尖端检测与分割模块的输出端与所述获取手术尖端中心模块的输入端连接;所述获取手术尖端中心模块的输出端与所述获取腹腔镜控制速度模块的输入端连接;所述获取腹腔镜控制速度模块的输出端与所述持镜机器人逆运动学求解模块输入端连接;所述持镜机器人逆运动学求解模块的输出端与所述控制持镜机器人运动模块的输入端连接,所述控制持镜机器人运动模块的输出端为所述持镜机器人的关节角的驱动信号,用于控制所述持镜机器人的运动;其中,所述语音指令识别模块、遥控指令处理模块分别与所述持镜机器人逆运动学求解模块的输出端连接。
3.根据权利要求2所述的腹腔镜手术持镜机器人系统,其特征在于,所述获取腹腔镜手术图像模块用于通过所述腹腔镜采集患者腹腔内的图像,所述图像中包括单个或多个手术器械尖端;所述手术器械尖端检测与分割模块用于对所述单个或多个手术器械尖端进行检测、分类和分割。
4.根据权利要求3所述的腹腔镜手术持镜机器人系统,其特征在于,所述手术器械尖端检测与分割模块包括源图像预处理单元、手术器械尖端检测单元和手术器械尖端分割单元,其中,所述源图像预处理单元,用于实现所述图像的预处理,作为后续使用深度学习模型的基础;所述手术器械尖端检测单元,用于通过深度目标检测模型获取手术器械尖端的包围盒和类别;所手术器械尖端分割单元,用于通过深度目标分割模型获取手术器械尖端的轮廓。
5.根据权利要求2所述的腹腔镜手术持镜机器人系统,其特征在于,所述获取手术尖端中心模块用于根据所述手术器械尖端的检测和分割模块的结果获得手术器械尖端的中心像素点坐标。
6.根据权利要求2所述的腹腔镜手术持镜机器人系统,其特征在于,所述获取腹腔镜控制速度模块用于根据单个或多个手术器械尖端的中心像素点坐标和约束条件获得腹腔镜末端的控制速度;其中,腹腔镜末端的控制速度包含追踪手术器械尖端的控制速度,由单个或多个手术器械尖端的中心和稳定点的像素点坐标共同决定。
7.根据权利要求2所述的腹腔镜手术持镜机器人系统,其特征在于,所述持镜机器人逆运动学求解模块用于完成腹腔镜末端到持镜机器人关节的逆运动学求解;其中包括持镜机器人末端到持镜机器人关节的逆运动学求解、腹腔镜末端到持镜机器人末端的逆运动学求解。
8.根据权利要求7所述的腹腔镜手术持镜机器人系统,其特征在于,所述持镜机器人末端到持镜机器人关节的逆运动学求解包括:
正运动学方程为:
其中,[nx,ny,nz]T,[ox,oy,oz]T,[ax,ay,az]T分别表示机器人末端沿着x,y,z轴的方向向量,[px,py,pz]T表示机器人末端的位置矢量,fkine()代表正运动学方程,iTj为i号坐标系到j号坐标系的齐次变换矩阵,θ1,…,θ6依次为机器人关节1到关节6的旋转角度;
根据,第1号坐标系到末端的齐次变换矩阵也可以表示为:
根据第1号坐标系到末端的齐次变换矩阵的关系可求得4组对应的位置级逆运动学解,当已知当前时刻持镜机器人末端的齐次变换矩阵Te,通过求解方法即可解算其对应的关节角数据θ1,…,θ6;
所述腹腔镜末端到持镜机器人末端的逆运动学求解
腹腔镜末端到持镜机器人末端的逆运动学求解实际上就是个手眼标定问题。手眼标定系统中为持镜机器人末端坐标系从i时刻变换到j时刻的齐次变换矩阵,为腹腔镜末端坐标系从i时刻变换到j时刻的齐次变换矩阵,为i时刻腹腔镜末端坐标系与机器人末端坐标系之间的相对位姿变换矩阵。
进一步地,式可简化为:
其中,bRa和bta分别为bΤa的旋转矩阵与平移向量,O3×1=[0,0,0];
将式进行展开可得到腹腔镜末端到持镜机器人末端的运动学方程,即:
其中,I3×3为三阶单位矩阵;
9.根据权利要求4所述的腹腔镜手术持镜机器人系统,其特征在于,每个包围盒使用目标边框中心坐标和目标边框尺寸表示;
假设一个图像单元为Icell,深度目标检测模型预测图像单元中边界框的四个坐标(xt,yt,wt,ht)和检测到的手术器械尖端属于各个类别的概率p=(p1,p2,...,pn)(n表示手术器械的种类数量),表达式如下:
(xt,yt,wt,ht,p)=detection(Icell)
式中,detection()表示深度目标检测模型;
假设检测到的手术器械尖端的边框中心坐标表示为(xbox,ybox),宽度和高度表示为(wbox,hbox),计算公式如下:
式中,(xcell,ycell)表示单元左上角坐标,(wp,hp)表示边框的先验宽度和高度,σ()表示sigmoid函数,表达式如下:
假设检测到的手术器械尖端的类别表示为cbox,表达式如下:
cbox=argmax(p);
所述手术器械尖端分割单元中先通过深度目标分割模型获取图像各个像素点的类别,进一步计算手术器械尖端的轮廓;
手术器械尖端分割的任务也即对图像中每个像素进行分类,每个像素的类别有两种:手术器械尖端类和背景类;
假设手术器械尖端包围盒的图像为Ibox,宽度和高度为(wbox,hbox),深度目标分割模型预测图像中每个像素点(i,j)∈Ibox,i∈[1,wbox],j∈[1,hbox]属于手术器械尖端类的概率P={pij},表达式如下:
P=segmentation(Ibox)
式中,segmentation()表示深度目标分割模型;
假设像素点(i,j)的类别表示为cij,表达式如下:
cij=argmax(pij,1-pij)
利用各个像素点的类别对图像进行二值化,得到的图像为Ib,进一步使用Sobel算子计算图像的近似梯度G,以提取手术器械尖端的轮廓;
假设图像在水平方向和垂直方向的梯度分别为Gx和Gy,表达式如下:
G=|Gx|+|Gy|
式中,*表示矩阵卷积运算。另外,梯度越大的像素点越有可能是边缘。
10.根据权利要求1所述的腹腔镜手术持镜机器人系统,其特征在于,还包括出错处理模块,当所述系统中的模块或模块间出现错误,立即触发出错处理中断,直接进入出错处理模块,出错处理完成后,返回到触发出错处理中断的模块。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111138355.3A CN113925613B (zh) | 2021-09-27 | 2021-09-27 | 一种腹腔镜手术持镜机器人系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111138355.3A CN113925613B (zh) | 2021-09-27 | 2021-09-27 | 一种腹腔镜手术持镜机器人系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113925613A true CN113925613A (zh) | 2022-01-14 |
CN113925613B CN113925613B (zh) | 2023-07-07 |
Family
ID=79277158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111138355.3A Active CN113925613B (zh) | 2021-09-27 | 2021-09-27 | 一种腹腔镜手术持镜机器人系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113925613B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114366313A (zh) * | 2022-03-21 | 2022-04-19 | 杭州华匠医学机器人有限公司 | 一种基于腹腔镜手术器械位姿的持镜机器人控制方法 |
CN115607285A (zh) * | 2022-12-20 | 2023-01-17 | 长春理工大学 | 一种单孔腹腔镜定位装置及方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100204713A1 (en) * | 2006-02-03 | 2010-08-12 | The European Atomic Energy Community (Euratom) | Medical robotic system |
CN105055028A (zh) * | 2015-08-19 | 2015-11-18 | 哈尔滨工业大学 | 一种微创外科手术机器人远心定位执行机构及设计方法 |
US20160166343A1 (en) * | 2014-10-30 | 2016-06-16 | The Chinese University Of Hong Kong | Robotic system |
CN106333715A (zh) * | 2016-09-27 | 2017-01-18 | 微创(上海)医疗机器人有限公司 | 腹腔镜手术系统 |
CN107028663A (zh) * | 2017-04-18 | 2017-08-11 | 中国科学院重庆绿色智能技术研究院 | 一种新型主从式手术机器人控制方法 |
CN107374727A (zh) * | 2017-07-28 | 2017-11-24 | 重庆金山医疗器械有限公司 | 一种微创外科手术机器人简化运动学模型的建模方法 |
-
2021
- 2021-09-27 CN CN202111138355.3A patent/CN113925613B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20100204713A1 (en) * | 2006-02-03 | 2010-08-12 | The European Atomic Energy Community (Euratom) | Medical robotic system |
US20160166343A1 (en) * | 2014-10-30 | 2016-06-16 | The Chinese University Of Hong Kong | Robotic system |
CN105055028A (zh) * | 2015-08-19 | 2015-11-18 | 哈尔滨工业大学 | 一种微创外科手术机器人远心定位执行机构及设计方法 |
CN106333715A (zh) * | 2016-09-27 | 2017-01-18 | 微创(上海)医疗机器人有限公司 | 腹腔镜手术系统 |
CN107028663A (zh) * | 2017-04-18 | 2017-08-11 | 中国科学院重庆绿色智能技术研究院 | 一种新型主从式手术机器人控制方法 |
CN107374727A (zh) * | 2017-07-28 | 2017-11-24 | 重庆金山医疗器械有限公司 | 一种微创外科手术机器人简化运动学模型的建模方法 |
Non-Patent Citations (1)
Title |
---|
付宜利;潘博;李康;: "内窥镜操作机器人结构设计及运动学仿真", 机械设计, no. 01, pages 65 - 68 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114366313A (zh) * | 2022-03-21 | 2022-04-19 | 杭州华匠医学机器人有限公司 | 一种基于腹腔镜手术器械位姿的持镜机器人控制方法 |
CN115607285A (zh) * | 2022-12-20 | 2023-01-17 | 长春理工大学 | 一种单孔腹腔镜定位装置及方法 |
CN115607285B (zh) * | 2022-12-20 | 2023-02-24 | 长春理工大学 | 一种单孔腹腔镜定位装置及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113925613B (zh) | 2023-07-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107813310B (zh) | 一种基于双目视觉多手势机器人控制方法 | |
Kang et al. | Visual perception and modeling for autonomous apple harvesting | |
CN113925613B (zh) | 一种腹腔镜手术持镜机器人系统 | |
JP5647155B2 (ja) | 内側距離形状関係を使用する身体特徴検出及び人間姿勢推定 | |
WO2020221311A1 (zh) | 基于可穿戴设备的移动机器人控制系统及控制方法 | |
JP2022542241A (ja) | ロボット装置からの視覚的出力を補強するシステム及び方法 | |
CN115070781B (zh) | 一种物体抓取方法及双机械臂协作系统 | |
CN113499094A (zh) | 一种依靠视觉及力反馈引导的心脏彩超检查装置和方法 | |
Xiao et al. | Robotic autonomous trolley collection with progressive perception and nonlinear model predictive control | |
Bui et al. | A deep learning-based autonomous robot manipulator for sorting application | |
Zhang et al. | Visual servo control of endoscope-holding robot based on multi-objective optimization: System modeling and instrument tracking | |
Han et al. | Grasping control method of manipulator based on binocular vision combining target detection and trajectory planning | |
CN114310957A (zh) | 用于医疗检测的机器人系统及检测方法 | |
CN108170160A (zh) | 一种利用单目视觉和机载传感器旋翼无人机自主抓取方法 | |
Lin et al. | Cloud robotic grasping of Gaussian mixture model based on point cloud projection under occlusion | |
Zhou et al. | Visual servo control system of 2-DOF parallel robot | |
Huang et al. | An autonomous throat swab sampling robot for nucleic acid test | |
Tian et al. | A Vision-Based Target Localization Method for Robot-Assisted Sonography | |
Li | A Design of Robot System for Rapidly Sorting Express Carton with Mechanical Arm Based on Computer Vision Technology | |
Crnokic et al. | Artificial neural networks-based simulation of obstacle detection with a mobile robot in a virtual environment | |
Sigalas et al. | Visual estimation of attentive cues in HRI: the case of torso and head pose | |
CN114391793A (zh) | 一种内窥镜视野自主控制方法、系统及介质 | |
Yun et al. | Development of action-recognition technology using LSTM based on skeleton data | |
Wang et al. | Object Grabbing of Robotic Arm Based on OpenMV Module Positioning | |
Li et al. | Visual servo control of industrial robot based on convolutional neural network |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |