CN115349952A - 面向动态手术路径引导的引导型三维虚拟夹具生成方法 - Google Patents
面向动态手术路径引导的引导型三维虚拟夹具生成方法 Download PDFInfo
- Publication number
- CN115349952A CN115349952A CN202210778943.1A CN202210778943A CN115349952A CN 115349952 A CN115349952 A CN 115349952A CN 202210778943 A CN202210778943 A CN 202210778943A CN 115349952 A CN115349952 A CN 115349952A
- Authority
- CN
- China
- Prior art keywords
- dimensional
- point
- point cloud
- curve
- points
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000005457 optimization Methods 0.000 claims abstract description 29
- 230000008713 feedback mechanism Effects 0.000 claims abstract description 12
- 230000009467 reduction Effects 0.000 claims abstract description 12
- 230000006870 function Effects 0.000 claims description 37
- 238000013507 mapping Methods 0.000 claims description 35
- 230000009466 transformation Effects 0.000 claims description 27
- 230000008569 process Effects 0.000 claims description 12
- 230000033001 locomotion Effects 0.000 claims description 11
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 9
- 238000004590 computer program Methods 0.000 claims description 6
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 230000005484 gravity Effects 0.000 claims description 5
- 238000013016 damping Methods 0.000 claims description 3
- 230000007613 environmental effect Effects 0.000 abstract description 7
- 238000012549 training Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 238000001727 in vivo Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000011835 investigation Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 210000000056 organ Anatomy 0.000 description 2
- 230000000737 periodic effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002674 endoscopic surgery Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/30—Surgical robots
- A61B34/35—Surgical robots for telesurgery
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/70—Manipulators specially adapted for use in surgery
- A61B34/76—Manipulators having means for providing feel, e.g. force or tactile feedback
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/10—Computer-aided planning, simulation or modelling of surgical operations
- A61B2034/107—Visualisation of planned trajectories or target regions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Surgery (AREA)
- Physics & Mathematics (AREA)
- Molecular Biology (AREA)
- Theoretical Computer Science (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Heart & Thoracic Surgery (AREA)
- Robotics (AREA)
- General Physics & Mathematics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Endoscopes (AREA)
Abstract
本发明提供一种面向动态手术路径引导的引导型三维虚拟夹具生成方法、系统、存储介质和电子设备,涉及虚拟夹具技术领域。本发明中,通过关键点的位置确定局部区域,对局部区域进行追踪,来减少三维关键点的错误追踪;结合内窥镜图像的纹理信息和形状信息,一定程度上避免体内环境特征的不明显带来的影响;在降维后的点云上通过构造优化函数对三维关键点进行精确定位,避免了不同视角下造成的曲线形状不一致性。更进一步的,沿着跟踪得到的三维曲线,建立包含引力与粘滞阻力的虚拟力场,即引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制精准引导手术器械的移动轨迹。
Description
技术领域
本发明涉及虚拟夹具技术领域,具体涉及一种面向动态手术路径引导的引导型三维虚拟夹具生成方法、系统、存储介质和电子设备。
背景技术
自主手术机器人远程手术的出现,解决了医疗资源分布不均的问题,通过跟踪三维关键点,进而跟踪手术路径,可以提高远程手术指导的质量和手术机器人自主操作的能力。
其中,虚拟夹具常以力交互的形式应用于体内手术场景,以解决非周期性运动的手术器械控制问题,如手术过程中器官的保护、目标的引导、避障的约束等,从而保障手术过程的安全精准。
由于现有技术中,术前规划的手术路径不能在术中进行实时更新,使得主刀医生对术前规划的手术路径在手术过程中难以找到对应位置,对术中手术路径发生的偏移无法视觉上直观加以判断,加大了主刀医生操控机器人的难度。这也直接影响了虚拟夹具,尤其是引导型虚拟夹具无法实现对手术三维路径的精准引导。
发明内容
(一)解决的技术问题
针对现有技术的不足,本发明提供了一种面向动态手术路径引导的引导型三维虚拟夹具生成方法、系统、存储介质和电子设备,解决了无法实现对手术三维路径的精准引导的技术问题。
(二)技术方案
为实现以上目的,本发明通过以下技术方案予以实现:
一种面向动态手术路径引导的引导型三维虚拟夹具生成方法,包括:
S1、读取内窥镜图像,根据医生的选择获取当前帧图像上的手术路径曲线,并获取该手术路径曲线经过的若干第一二维关键点;
S2、跟踪当前帧图像上包含第一二维关键点的第一局部区域,获取下一帧图像上的第二局部区域;
S3、根据内窥镜图像与点云之间的映射关系,分别将第一局部区域映射到第一局部点云上、第二局部区域映射到第二局部点云上;并确定第一二维关键点在第一局部点云上的第一三维关键点,通过坐标变换得到第二局部点云上的第二三维关键点;
S4、将第一局部点云进行降维,获取第一二维点云,并获取第一三维关键点在第一二维点云上的第二二维关键点;
将第二局部点云进行降维,获取第二二维点云,并获取第二三维关键点在第二二维点云上的第三二维关键点;
根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标;
S5、根据降维前后点云之间的映射关系,获取每一个跟踪得到的关键点的三维坐标,并进行曲线拟合,最终跟踪得到三维曲线;
S6、沿着跟踪得到的三维曲线,建立引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制引导手术器械的移动轨迹。
优选的,所述S6具体包括:
S61、将手术器械实时的三维位置信息、以及前述步骤获取的点云转换到同一坐标系下,获取三维曲线上离手术器械末端pins最近的点pnearest,以及两点之间的相对距离xd;
S62、建立关于pins的人工矢量场:
定义三维曲线上所有点包含在点集Vr中,求取Vr的子点集Vp={v|||pins-v||≤||pins-pnearest||+Δr},其中Δr为额外考察半径;
其中,g为pins的人工矢量场;g(||pins-v||)为人工矢量长度函数,n(pins,v)为由点pins指向点v的向量,当v对应不同组织时,设立不同的人工矢量长度函数g(||pins-v||),满足条件 card(Vp)是子集Vp中元素的个数;
S63、建立包含引力与粘滞阻力的虚拟力场:
优选的,所述S2包括
S22、采用光流法对图像I(k-1),I(k)进行特征点的特征匹配,获取图像I(k)上与pc(k-1)对应的第二局部区域的中心pc(k),
优选的,所述S3包括:
Pi(k-1)=ψ(pi(k-1))
ω=([X 1]T[X 1])-1[X 1]TY
其中,0T=(0,0,0);
优选的,所述S31中对内窥镜图像进行深度估计,得到与内窥镜图像相对应的深度图像,所使用的双目深度估计网络具有快速过学习的能力,能够利用自监督信息不断适应新场景,具体包括:
S311、获取双目内窥镜影像,采用当前双目深度估计网络的编码器网络提取当前帧图像的多尺度特征;
S312、采用当前双目深度估计网络的解码器网络,对多尺度特征进行融合,获取当前帧图像中每个像素点的视差;
S313、根据相机内外参数,将视差转化为深度并作为当前帧图像的结果输出;
S314、在不引入外部真值的条件下,利用自监督损失更新当前双目深度估计网络的参数,用于下一帧图像的深度估计。
优选的,所述S4中的优化函数是指:
φ(Pi(k-1))表示第i个第二二维关键点Pi(k-1)的特征描述子,是一个向量;φ(Pi(k))表示中第i个第三二维关键点Pi(k)的邻域点的特征描述子,是一个向量;||·||表示向量的模;
其中,g(Pi(k))为夹角的余弦值,具体计算如下:
a=(Pi+1(k)-Pi(k))T,b=(Pi-1(k)-Pi(k))T
所述S4中根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标,包括:
通过最小化优化函数可以得到一组理想的关键点Pi。
优选的,所述S5中进行曲线拟合,最终跟踪得到三维曲线,包括:
采用B样条曲线方程对线条进行插值拟合,其中B样条曲线的总方程为:
其中,Pi是控制曲线的特征点,Fi,k(t)表示k阶B样条基函数,通过曲线插值拟合实现三维曲线跟踪;
优选的,所述S1中的第一二维关键点获取过程包括:
对于曲线上的点,曲线上第j个像素点的曲率为:
一种面向动态手术路径引导的引导型三维虚拟夹具生成系统,包括:
选择模块,用于读取内窥镜图像,根据医生的选择获取当前帧图像上的手术路径曲线,并获取该手术路径曲线经过的若干第一二维关键点;
跟踪模块,用于跟踪当前帧图像上包含第一二维关键点的第一局部区域,获取下一帧图像上的第二局部区域;
映射模块,用于根据内窥镜图像与点云之间的映射关系,分别将第一局部区域映射到第一局部点云上、第二局部区域映射到第二局部点云上;并确定第一二维关键点在第一局部点云上的第一三维关键点,通过坐标变换得到第二局部点云上的第二三维关键点;
优化模块,用于将第一局部点云进行降维,获取第一二维点云,并获取第一三维关键点在第一二维点云上的第二二维关键点;
将第二局部点云进行降维,获取第二二维点云,并获取第二三维关键点在第二二维点云上的第三二维关键点;
根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标;
拟合模块,用于根据降维前后点云之间的映射关系,获取每一个跟踪得到的关键点的三维坐标,并进行曲线拟合,最终跟踪得到三维曲线;
引导模块,用于沿着跟踪得到的三维曲线,建立引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制引导手术器械的移动轨迹。
一种存储介质,其存储有用于面向动态手术路径引导的引导型三维虚拟夹具生成的计算机程序,其中,所述计算机程序使得计算机执行如上所述的引导型三维虚拟夹具生成方法。
一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如上所述的引导型三维虚拟夹具生成方法。
(三)有益效果
本发明提供了一种面向动态手术路径引导的引导型三维虚拟夹具生成方法、系统、存储介质和电子设备。与现有技术相比,具备以下有益效果:
本发明中,通过关键点的位置确定局部区域,对局部区域进行追踪,来减少三维关键点的错误追踪;结合内窥镜图像的纹理信息和形状信息,一定程度上避免体内环境特征的不明显带来的影响;在降维后的点云上通过构造优化函数对三维关键点进行精确定位,避免了不同视角下造成的曲线形状不一致性。更进一步的,沿着跟踪得到的三维曲线,建立包含引力与粘滞阻力的虚拟力场,即引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制精准引导手术器械的移动轨迹。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种面向动态手术路径引导的引导型三维虚拟夹具生成方法的流程示意图;
图2为本发明实施例提供的一种网络训练架构示意图;
图3为本发明实施例提供的一种左、右视差获取示意图;
图4为本发明实施例提供的一种网络应用示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本申请实施例通过提供一种面向动态手术路径引导的引导型三维虚拟夹具生成方法、系统、存储介质和电子设备,解决了无法实现对手术三维路径的精准引导的技术问题。
本申请实施例中的技术方案为解决上述技术问题,总体思路如下:
本发明实施例提出了一种面向动态手术路径引导的引导型三维虚拟夹具生成方法,主要应用但不局限于主要应用于微创内腔镜手术场景,可以提高远程手术指导的质量和手术机器人自主操作的能力。在手术过程中手感对于主刀医生操控而言十分重要,力反馈能够有效帮助医生解决非周期性运动的手术器械控制问题,如手术过程中器官的保护、目标的引导、避障的约束等,从而保障手术过程的安全精准。
本发明实施例基于体内柔性环境三维重构算法,指导医生在二维图片上绘制出初始手术路径,由计算机利用术中图像进行实时三维点云重建,以此更新三维手术路径,最终建立动态三维手术路径。构建包含引力与粘滞阻力的虚拟力场,即引导型虚拟夹具,通过力反馈机制引导医生沿着预先设定的路径操控手术机器人系统。在手术过程中提高主刀医生操控机器人的手感,有效帮助主刀医生沿着预先设定的手术路径完成手术,实现符合医生操控意图的人机共融操控。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
实施例:
如图1所示,本发明实施例提供了一种面向动态手术路径引导的引导型三维虚拟夹具生成方法,包括:
S1、读取内窥镜图像,根据医生的选择获取当前帧图像上的手术路径曲线,并获取该手术路径曲线经过的若干第一二维关键点;
S2、跟踪当前帧图像上包含第一二维关键点的第一局部区域,获取下一帧图像上的第二局部区域;
S3、根据内窥镜图像与点云之间的映射关系,分别将第一局部区域映射到第一局部点云上、第二局部区域映射到第二局部点云上;并确定第一二维关键点在第一局部点云上的第一三维关键点,通过坐标变换得到第二局部点云上的第二三维关键点;
S4、将第一局部点云进行降维,获取第一二维点云,并获取第一三维关键点在第一二维点云上的第二二维关键点;
将第二局部点云进行降维,获取第二二维点云,并获取第二三维关键点在第二二维点云上的第三二维关键点;
根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标;
S5、根据降维前后点云之间的映射关系,获取每一个跟踪得到的关键点的三维坐标,并进行曲线拟合,最终跟踪得到三维曲线;
S6、沿着跟踪得到的三维曲线,建立引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制引导手术器械的移动轨迹。
本发明实施例中,通过关键点的位置确定局部区域,对局部区域进行追踪,来减少三维关键点的错误追踪;结合内窥镜图像的纹理信息和形状信息,一定程度上避免体内环境特征的不明显带来的影响;在降维后的点云上通过构造优化函数对三维关键点进行精确定位,避免了不同视角下造成的曲线形状不一致性。更进一步的,沿着跟踪得到的三维曲线,建立包含引力与粘滞阻力的虚拟力场,即引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制精准引导手术器械的移动轨迹。
下面将结合具体内容详细介绍上述方案的各个步骤:
在步骤S1中,取内窥镜图像,根据医生的选择获取当前帧图像上的手术路径曲线,并获取该手术路径曲线经过的若干第一二维关键点。
所述S1中的第一二维关键点获取过程包括:
对于曲线上的点,曲线上第j个像素点的曲率为:
本步骤中,(主刀)医生通过在术中影像进行三维曲线的标记,用于后续在三维点云上进行曲线的显示与更新,保证了信息传递的直观性与准确性,提高了手术效率。并且根据曲线的曲率确定关键点,对关键点追踪保证了计算速度。
在步骤S2中,跟踪当前帧图像上包含第一二维关键点的第一局部区域,获取下一帧图像上的第二局部区域;具体包括
S22、采用光流法对图像I(k-1),I(k)进行特征点的特征匹配,获取图像I(k)上与pc(k-1)对应的第二局部区域的中心pc(k),
本发明实施例通过关键点的位置确定局部区域,对局部区域进行追踪,来减少三维关键点的错误追踪。
在步骤S3中,根据内窥镜图像与点云之间的映射关系,分别将第一局部区域映射到第一局部点云上、第二局部区域映射到第二局部点云上;并确定第一二维关键点在第一局部点云上的第一三维关键点,通过坐标变换得到第二局部点云上的第二三维关键点。
本步骤实际上是对三维关键点的初始定位,三维关键点的初始定位可以通过以下两个步骤实现。
首先,根据内窥镜图像与点云之间的映射关系,利用二维关键点的位置确定其在点云上对应的三维关键点;其次,可以将局部区域内的组织近似看成刚体,利用三维仿射变换求解点云之间的变换矩阵,通过坐标变换得到目标点云上的三维关键点。
相应的,所述S3具体包括:
Pi(k-1)=ψ(pi(k-1))
ω=([X 1]T[X 1])-1[X 1]TY
其中,0T=(0,0,0);
特别的,所述S31中对内窥镜图像进行深度估计,得到与内窥镜图像相对应的深度图像,所使用的双目深度估计网络具有快速过学习的能力,能够利用自监督信息不断适应新场景,具体包括:
S311、获取双目内窥镜影像,采用当前双目深度估计网络的编码器网络提取当前帧图像的多尺度特征;
S312、采用当前双目深度估计网络的解码器网络,对多尺度特征进行融合,获取当前帧图像中每个像素点的视差;
S313、根据相机内外参数,将视差转化为深度并作为当前帧图像的结果输出;
S314、在不引入外部真值的条件下,利用自监督损失更新当前双目深度估计网络的参数,用于下一帧图像的深度估计。
上述获取深度图像方法利用连续帧的相似性,将一对双目图像上的过拟合思想扩展到时间序列上的过拟合,通过在线学习不断更新模型参数,能在各种双目内窥镜手术环境下得到高精度的组织深度。
具体而言,网络模型的预训练阶段抛弃了传统的训练模式,采用元学习的思路,让网络学习某一张图像去预测另外一张图像的深度,从而计算损失进行网络更新,可有效促进网络对新场景的泛化性和提升对低纹理复杂光照的鲁棒性,同时大幅减少了后续过拟合所需时间。
如图2所示,通过元学习方式训练获取所述双目深度估计网络对应的初始模型参数,具体包括:
在步骤S311中,如图3所示,获取双目内窥镜影像,采用当前双目深度估计网络的编码器网络提取当前帧图像的多尺度特征。
示例性的,本步骤中双目深度估计网络的编码器选定采用ResNet18网络,用于对内窥镜图像提取5个尺度的特征图。
在步骤S312中,如图3所示,采用当前双目深度估计网络的解码器网络,对多尺度特征进行融合,获取当前帧图像中每个像素点的视差;具体包括:
采用所述解码器将粗尺度特征图经过卷积块和上采样,与细尺度特征图拼接,再次经过卷积块进行特征融合,其中结合reflection padding、卷积层、非线性激活单元ELU构建所述卷积块;
根据网络分辨率最高的输出直接计算视差:
d=k·(sigmoid(conv(Y))-0.5)
其中,d表示像素点的视差估计值;k为预先设定的最大视差范围,Y是分辨率最高的输出,conv是卷积层,sigmoid进行范围归一化。
在步骤S313中,根据相机内外参数,将视差转化为深度并作为当前帧图像的结果输出。
本步骤中将视差转化为深度是指:
其中,D为像素点的深度估计值;fx,cx2,cx1为双目相机内参;b为基线长度,即双目相机外参。
在步骤S314中,如图4所示,在不引入外部真值的条件下,利用自监督损失更新当前双目深度估计网络的参数,用于下一帧图像的深度估计。
其中,自监督损失包括:
(1)几何一致性损失Ddiff(p):
通过训练损失中加入几何一致性约束实现,保证网络对于硬件的泛用性,实现自主适应手术内窥镜等非常规双目图像。
其中,p表示有效像素点,P表示有效像素点集合;It和I′t分别表示原图和重构图像,λi和λs为平衡参数,SSIMtt′表示图像结构相似度;
总结来说,上述获取深度图像的方法将每一帧双目图像的深度估计作为独立的任务,实时过拟合得到适用于当前帧的高精度模型;且通过在线学习能快速学习新场景从而获得高精度深度估计结果。
在步骤S4中,将第一局部点云进行降维,获取第一二维点云,并获取第一三维关键点在第一二维点云上的第二二维关键点;
将第二局部点云进行降维,获取第二二维点云,并获取第二三维关键点在第二二维点云上的第三二维关键点;
根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标。
本步骤实际上是对三维关键点的精确定位。为了保证曲线动态变化时候的准确性,需要对曲线上的关键点的初始位置进行优化。
本步骤中首先结合内窥镜图像的纹理信息和形状信息,一定程度上避免体内环境特征的不明显带来的影响;其次在降维后的点云上通过构造优化函数对三维关键点进行精确定位,避免了不同视角下造成的曲线形状不一致性。
然后根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标,包括:
所述优化函数是指:
φ(Pi(k-1))表示第i个第二二维关键点Pi(k-1)的特征描述子,是一个向量;φ(Pi(k))表示中第i个第三二维关键点Pi(k)的邻域点的特征描述子,是一个向量;||·||表示向量的模;
其中,g(Pi(k))为夹角的余弦值,具体计算如下:
a=(Pi+1(k)-Pi(k))T,b=(Pi-1(k)-Pi(k))T。
通过最小化优化函数可以得到一组理想的关键点Pi。
本发明实施例利用三维仿射变换得到变换矩阵后,结合内窥镜图像的纹理信息和形状信息,通过构造优化函数对三维关键点进行精确定位,一定程度上避免体内环境特征的不明显对追踪结果的影响。
在步骤S5中,根据降维前后点云之间的映射关系,获取每一个跟踪得到的关键点的三维坐标,并进行曲线拟合,最终跟踪得到三维曲线。
本步骤中具体采用B样条曲线方程对线条进行插值拟合,其中B样条曲线的总方程为:
其中,Pi是控制曲线的特征点,Fi,k(t)表示k阶B样条基函数,通过曲线插值拟合实现三维曲线跟踪。
在步骤S6中,沿着跟踪得到的三维曲线,建立引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制引导手术器械的移动轨迹;具体包括:
S61、将手术器械实时的三维位置信息、以及前述步骤获取的点云转换到同一坐标系下,采用K近邻算法搜索获取三维曲线上离手术器械末端pins最近的点pnearest,以及两点之间的相对距离xd,由此判断手术器械是否偏离预先设定的手术路径曲线;
具体而言,主刀医生在手术过程中,手术器械实时的三维位置信息pins由光学传感器测量得出,并经过相对位置的坐标转换,将手术器械三维位置和深度估计后得到的三维曲线位置转换到同一坐标系下。
S62、建立关于pins的人工矢量场:
定义三维曲线上所有点包含在点集Vr中,求取Vr的子点集Vp={v|||pins-v||≤||pins-pnearest||+Δr},其中Δr为额外考察半径;
其中,g为pins的人工矢量场;g(||pins-v||)为人工矢量长度函数,n(pins,v)为由点pins指向点v的向量,当v对应不同组织时,设立不同的人工矢量长度函数g(||pins-v||),满足条件 card(Vp)是子集Vp中元素的个数;
S63、建立包含引力与粘滞阻力的虚拟力场:
本发明实施例通过触力反馈技术建立主刀医生与机器人的人机触力交互机制,在空间中构建引导型虚拟夹具,实现对主刀医生移动轨迹的精准引导,保障主刀医生能按照预定轨迹操控机器人。在手术精度提升的基础上,主刀医生无需佩戴其他设备,防止干扰医生手术操作。
本发明实施例提供了一种面向动态手术路径引导的引导型三维虚拟夹具生成系统,包括:
选择模块,用于读取内窥镜图像,根据医生的选择获取当前帧图像上的手术路径曲线,并获取该手术路径曲线经过的若干第一二维关键点;
跟踪模块,用于跟踪当前帧图像上包含第一二维关键点的第一局部区域,获取下一帧图像上的第二局部区域;
映射模块,用于根据内窥镜图像与点云之间的映射关系,分别将第一局部区域映射到第一局部点云上、第二局部区域映射到第二局部点云上;并确定第一二维关键点在第一局部点云上的第一三维关键点,通过坐标变换得到第二局部点云上的第二三维关键点;
优化模块,用于将第一局部点云进行降维,获取第一二维点云,并获取第一三维关键点在第一二维点云上的第二二维关键点;
将第二局部点云进行降维,获取第二二维点云,并获取第二三维关键点在第二二维点云上的第三二维关键点;
根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标;
拟合模块,用于根据降维前后点云之间的映射关系,获取每一个跟踪得到的关键点的三维坐标,并进行曲线拟合,最终跟踪得到三维曲线;
引导模块,用于沿着跟踪得到的三维曲线,建立引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制引导手术器械的移动轨迹。
本发明实施例提供了一种存储介质,其存储有用于面向动态手术路径引导的引导型三维虚拟夹具生成的计算机程序,其中,所述计算机程序使得计算机执行如上所述的引导型三维虚拟夹具生成方法。
本发明实施例提供了一种电子设备,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如上所述的引导型三维虚拟夹具生成方法。
可理解的是,本发明实施例提供的面向动态手术路径引导的引导型三维虚拟夹具生成系统、存储介质和电子设备与本发明实施例提供的面向动态手术路径引导的引导型三维虚拟夹具生成方法相对应,其有关内容的解释、举例和有益效果等部分可以参考引导型三维虚拟夹具生成方法中的相应部分,此处不再赘述。
综上所述,与现有技术相比,具备以下有益效果:
1、本发明实施例中,通过关键点的位置确定局部区域,对局部区域进行追踪,来减少三维关键点的错误追踪;结合内窥镜图像的纹理信息和形状信息,一定程度上避免体内环境特征的不明显带来的影响;在降维后的点云上通过构造优化函数对三维关键点进行精确定位,避免了不同视角下造成的曲线形状不一致性。更进一步的,沿着跟踪得到的三维曲线,建立包含引力与粘滞阻力的虚拟力场,即引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制精准引导手术器械的移动轨迹。
2、本步骤中,(主刀)医生通过在术中影像进行三维曲线的标记,用于后续在三维点云上进行曲线的显示与更新,保证了信息传递的直观性与准确性,提高了手术效率。并且根据曲线的曲率确定关键点,对关键点追踪保证了计算速度。
3、本发明实施例利用三维仿射变换得到变换矩阵后,结合内窥镜图像的纹理信息和形状信息,通过构造优化函数对三维关键点进行精确定位,一定程度上避免体内环境特征的不明显对追踪结果的影响。
4、双目深度估计网络模型的预训练阶段抛弃了传统的训练模式,采用元学习的思路,让网络学习某一张图像去预测另外一张图像的深度,从而计算损失进行网络更新,可有效促进网络对新场景的泛化性和提升对低纹理复杂光照的鲁棒性,同时大幅减少了后续过拟合所需时间。
5、本发明实施中,将每一帧双目图像的深度估计作为独立的任务,实时过拟合得到适用于当前帧的高精度模型;且通过在线学习能快速学习新场景从而获得高精度深度估计结果。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种面向动态手术路径引导的引导型三维虚拟夹具生成方法,其特征在于,包括:
S1、读取内窥镜图像,根据医生的选择获取当前帧图像上的手术路径曲线,并获取该手术路径曲线经过的若干第一二维关键点;
S2、跟踪当前帧图像上包含第一二维关键点的第一局部区域,获取下一帧图像上的第二局部区域;
S3、根据内窥镜图像与点云之间的映射关系,分别将第一局部区域映射到第一局部点云上、第二局部区域映射到第二局部点云上;并确定第一二维关键点在第一局部点云上的第一三维关键点,通过坐标变换得到第二局部点云上的第二三维关键点;
S4、将第一局部点云进行降维,获取第一二维点云,并获取第一三维关键点在第一二维点云上的第二二维关键点;
将第二局部点云进行降维,获取第二二维点云,并获取第二三维关键点在第二二维点云上的第三二维关键点;
根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标;
S5、根据降维前后点云之间的映射关系,获取每一个跟踪得到的关键点的三维坐标,并进行曲线拟合,最终跟踪得到三维曲线;
S6、沿着跟踪得到的三维曲线,建立引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制引导手术器械的移动轨迹。
2.如权利要求1所述的引导型三维虚拟夹具生成方法,其特征在于,所述S6具体包括:
S61、将手术器械实时的三维位置信息、以及前述步骤获取的点云转换到同一坐标系下,获取三维曲线上离手术器械末端pins最近的点pnearest,以及两点之间的相对距离xd;
S62、建立关于pins的人工矢量场:
定义三维曲线上所有点包含在点集Vr中,求取Vr的子点集Vp={v|‖pins-v‖≤‖pins-pnearest‖+Δr},其中Δr为额外考察半径;
其中,g为pins的人工矢量场;g(‖pins-v‖)为人工矢量长度函数,n(pins,v)为由点pins指向点v的向量,当v对应不同组织时,设立不同的人工矢量长度函数g(‖pins-v‖),满足条件 card(Vp)是子集Vp中元素的个数;
S63、建立包含引力与粘滞阻力的虚拟力场:
3.如权利要求1或者2所述的引导型三维虚拟夹具生成方法,其特征在于,所述S2包括
S22、采用光流法对图像I(k-1),I(k)进行特征点的特征匹配,获取图像I(k)上与pc(k-1)对应的第二局部区域的中心pc(k),
4.如权利要求3所述的引导型三维虚拟夹具生成方法,其特征在于,所述S3包括:
Pi(k-1)=ψ(pi(k-1))
ω=([X 1]T[X 1])-1[X 1]TY
其中,0T=(0,0,0);
5.如权利要求4所述的引导型三维虚拟夹具生成方法,其特征在于,所述S31中对内窥镜图像进行深度估计,得到与内窥镜图像相对应的深度图像,所使用的双目深度估计网络具有快速过学习的能力,能够利用自监督信息不断适应新场景,具体包括:
S311、获取双目内窥镜影像,采用当前双目深度估计网络的编码器网络提取当前帧图像的多尺度特征;
S312、采用当前双目深度估计网络的解码器网络,对多尺度特征进行融合,获取当前帧图像中每个像素点的视差;
S313、根据相机内外参数,将视差转化为深度并作为当前帧图像的结果输出;
S314、在不引入外部真值的条件下,利用自监督损失更新当前双目深度估计网络的参数,用于下一帧图像的深度估计。
6.如权利要求1或者2所述的引导型三维虚拟夹具生成方法,其特征在于,所述S4中的优化函数是指:
φ(Pi(k-1))表示第i个第二二维关键点Pi(k-1)的特征描述子,是一个向量;φ(Pi(k))表示中第i个第三二维关键点Pi(k)的邻域点的特征描述子,是一个向量;‖·‖表示向量的模;
其中,g(Pi(k))为夹角的余弦值,具体计算如下:
a=(Pi+1(k)-Pi(k))T,b=(Pi-1(k)-Pi(k))T
所述S4中根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标,包括:
通过最小化优化函数可以得到一组理想的关键点Pi。
7.如权利要求6所述的引导型三维虚拟夹具生成方法,其特征在于,所述S5中进行曲线拟合,最终跟踪得到三维曲线,包括:
采用B样条曲线方程对线条进行插值拟合,其中B样条曲线的总方程为:
其中,Pi是控制曲线的特征点,Fi,k(t)表示k阶B样条基函数,通过曲线插值拟合实现三维曲线跟踪;
和/或所述S1中的第一二维关键点获取过程包括:
对于曲线上的点,曲线上第j个像素点的曲率为:
8.一种面向动态手术路径引导的引导型三维虚拟夹具生成系统,其特征在于,包括:
选择模块,用于读取内窥镜图像,根据医生的选择获取当前帧图像上的手术路径曲线,并获取该手术路径曲线经过的若干第一二维关键点;
跟踪模块,用于跟踪当前帧图像上包含第一二维关键点的第一局部区域,获取下一帧图像上的第二局部区域;
映射模块,用于根据内窥镜图像与点云之间的映射关系,分别将第一局部区域映射到第一局部点云上、第二局部区域映射到第二局部点云上;并确定第一二维关键点在第一局部点云上的第一三维关键点,通过坐标变换得到第二局部点云上的第二三维关键点;
优化模块,用于将第一局部点云进行降维,获取第一二维点云,并获取第一三维关键点在第一二维点云上的第二二维关键点;
将第二局部点云进行降维,获取第二二维点云,并获取第二三维关键点在第二二维点云上的第三二维关键点;
根据第二二维关键点和第三二维关键点,通过最小化预设的优化函数,获取跟踪得到的关键点在二维点云上的二维坐标;
拟合模块,用于根据降维前后点云之间的映射关系,获取每一个跟踪得到的关键点的三维坐标,并进行曲线拟合,最终跟踪得到三维曲线;
引导模块,用于沿着跟踪得到的三维曲线,建立引导型虚拟夹具,所述引导型虚拟夹具通过力反馈机制引导手术器械的移动轨迹。
9.一种存储介质,其特征在于,其存储有用于面向动态手术路径引导的引导型三维虚拟夹具生成的计算机程序,其中,所述计算机程序使得计算机执行如权利要求1~7任一项所述的引导型三维虚拟夹具生成方法。
10.一种电子设备,其特征在于,包括:
一个或多个处理器;
存储器;以及
一个或多个程序,其中所述一个或多个程序被存储在所述存储器中,并且被配置成由所述一个或多个处理器执行,所述程序包括用于执行如权利要求1~7任一项所述的引导型三维虚拟夹具生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210778943.1A CN115349952A (zh) | 2022-07-04 | 2022-07-04 | 面向动态手术路径引导的引导型三维虚拟夹具生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210778943.1A CN115349952A (zh) | 2022-07-04 | 2022-07-04 | 面向动态手术路径引导的引导型三维虚拟夹具生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115349952A true CN115349952A (zh) | 2022-11-18 |
Family
ID=84030726
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210778943.1A Pending CN115349952A (zh) | 2022-07-04 | 2022-07-04 | 面向动态手术路径引导的引导型三维虚拟夹具生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115349952A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116473673A (zh) * | 2023-06-20 | 2023-07-25 | 浙江华诺康科技有限公司 | 内窥镜的路径规划方法、装置、系统和存储介质 |
CN117953165A (zh) * | 2024-03-26 | 2024-04-30 | 合肥工业大学 | 基于神经辐射场的人脸新视图合成方法和系统 |
-
2022
- 2022-07-04 CN CN202210778943.1A patent/CN115349952A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116473673A (zh) * | 2023-06-20 | 2023-07-25 | 浙江华诺康科技有限公司 | 内窥镜的路径规划方法、装置、系统和存储介质 |
CN116473673B (zh) * | 2023-06-20 | 2024-02-27 | 浙江华诺康科技有限公司 | 内窥镜的路径规划方法、装置、系统和存储介质 |
CN117953165A (zh) * | 2024-03-26 | 2024-04-30 | 合肥工业大学 | 基于神经辐射场的人脸新视图合成方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115349952A (zh) | 面向动态手术路径引导的引导型三维虚拟夹具生成方法 | |
Mahmoud et al. | ORBSLAM-based endoscope tracking and 3D reconstruction | |
Li et al. | Unsupervised-learning-based continuous depth and motion estimation with monocular endoscopy for virtual reality minimally invasive surgery | |
Song et al. | Dynamic reconstruction of deformable soft-tissue with stereo scope in minimal invasive surgery | |
JP2021530061A (ja) | 画像処理方法及びその装置、電子機器並びにコンピュータ可読記憶媒体 | |
Lee et al. | From medical images to minimally invasive intervention: Computer assistance for robotic surgery | |
WO2010046802A1 (en) | Image-based localization method and system | |
Wei et al. | Stereo dense scene reconstruction and accurate localization for learning-based navigation of laparoscope in minimally invasive surgery | |
Wong et al. | A quasi-spherical triangle-based approach for efficient 3-D soft-tissue motion tracking | |
CN108090954A (zh) | 基于图像特征的腹腔环境地图重建与腹腔镜定位的方法 | |
CN110368089A (zh) | 一种支气管内窥镜三维导航方法 | |
Li et al. | Learning laparoscope actions via video features for proactive robotic field-of-view control | |
Luo et al. | Evolutionarily optimized electromagnetic sensor measurements for robust surgical navigation | |
US9080844B2 (en) | Linking of microscopes for analysis of objects comprising tool marks | |
Lin et al. | SuPerPM: A Large Deformation-Robust Surgical Perception Framework Based on Deep Point Matching Learned from Physical Constrained Simulation Data | |
Cabras et al. | Comparison of methods for estimating the position of actuated instruments in flexible endoscopic surgery | |
CN116503457A (zh) | 基于双目内窥镜的在线自监督学习深度估计方法 | |
CN115330678A (zh) | 面向手术安全保障的禁止区域型三维虚拟夹具生成方法 | |
CN115252992A (zh) | 基于结构光立体视觉的气管插管导航系统 | |
CN116439825B (zh) | 面向微创术中辅助决策的体内三维信息测量系统 | |
Luo | A new electromagnetic-video endoscope tracking method via anatomical constraints and historically observed differential evolution | |
Liu et al. | Pose estimation via structure-depth information from monocular endoscopy images sequence | |
Luo et al. | A comparison of modified evolutionary computation algorithms with applications to three-dimensional endoscopic camera motion tracking | |
CN115345913B (zh) | 一种三维模型的配准方法、内窥镜设备及装置 | |
CN115359216A (zh) | 面向微创关键轨迹导航的体内三维曲线动态跟踪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |