CN111260765B - 一种显微手术术野的动态三维重建方法 - Google Patents
一种显微手术术野的动态三维重建方法 Download PDFInfo
- Publication number
- CN111260765B CN111260765B CN202010033521.2A CN202010033521A CN111260765B CN 111260765 B CN111260765 B CN 111260765B CN 202010033521 A CN202010033521 A CN 202010033521A CN 111260765 B CN111260765 B CN 111260765B
- Authority
- CN
- China
- Prior art keywords
- point cloud
- surgical instrument
- model
- field
- operation area
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 56
- 238000002406 microsurgery Methods 0.000 title abstract description 7
- 238000012545 processing Methods 0.000 claims abstract description 14
- 238000005070 sampling Methods 0.000 claims description 21
- 230000033001 locomotion Effects 0.000 claims description 17
- 239000011159 matrix material Substances 0.000 claims description 15
- 238000005259 measurement Methods 0.000 claims description 9
- 230000004927 fusion Effects 0.000 claims description 7
- 230000008569 process Effects 0.000 claims description 7
- 230000009466 transformation Effects 0.000 claims description 7
- 238000010586 diagram Methods 0.000 claims description 5
- 238000009499 grossing Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 description 9
- 239000013598 vector Substances 0.000 description 9
- 238000004364 calculation method Methods 0.000 description 8
- 238000005516 engineering process Methods 0.000 description 6
- 239000004973 liquid crystal related substance Substances 0.000 description 4
- 210000003477 cochlea Anatomy 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000002059 diagnostic imaging Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000001356 surgical procedure Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G06T5/70—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/12—Edge-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20028—Bilateral filtering
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computer Graphics (AREA)
- Image Processing (AREA)
Abstract
本发明实施例公开了一种显微手术术野的动态三维重建方法,涉及计算机视觉领域,所述方法包括:获取深度相机的深度图和红外灰度图,并计算手术术野的点云数据;对所述点云数据进行去噪处理和去抖处理;利用点云分割模型对点云数据进行分割,获取术区点云团和手术器械点云团;利用求解稠密形变场的方法对术区点云团进行处理,得到术区点云模型;利用手术器械的分段轮廓信息对手术器械点云团进行处理,得到手术器械点云模型;融合上述术区点云模型和手术器械点云模型,得到全局点云模型,根据所述全局点云模型获取深度相机在当前视角下的三维重建结果并输出。本发明实施例能够较好的重建出具有高动态特性的手术器械。
Description
技术领域
本发明实施例涉及计算机视觉领域,具体涉及一种显微手术术野的动态三维重建方法。
背景技术
三维重建是计算机视觉和计算机图形学的基础研究课题。近些年,随着医学影像技术和智能化手术辅助设备的发展,面向手术术野、手术平台及手术设备的三维重建技术因其能够辅助手术,提供丰富的可视化信息以及协助远程手术而受到了人们越来越高的关注。但同时,手术过程中极低的容错率、严苛的光照条件以及高动态特性给当前的三维重建技术提出了新的挑战。
针对动态场景三维重建问题,一些科研人员尝试了使用模板的方法辅助动态场景的三维重建,但是这些方法往往需要事先进行复杂而繁琐的建模工作以及相应的配准对齐过程。除此之外,还有一些基于非刚体逐点变形场计算的方法,此类方法力图求解当前点云与上一帧点云或全局点云间各匹配点之间的一一变换关系,尽管这些方法取得了不错的成效,但是这些单一的方法难以适用在高动态场景以及存在相机抖动的环境中,且这类问题在对精度要求较高的医学三维重建中尤为突出。
以人工耳蜗显微手术的三维重建为例,人工耳蜗植入过程中,术野中存在静态或者动态移动的刚性手术支架,也存在着非刚性移动的器械或者人体组织,同时就整体而言,各部分的移动也是不一致的,这使得传统的静态或者低动态场景的单一三维重建技术和姿态估算方法已不再适用。
发明内容
本发明实施例的目的在于提供一种显微手术术野的动态三维重建方法,用以解决现有单一三维重建技术和姿态估算方法不适用于对精度要求较高的医学三维重建的问题。
为实现上述目的,本发明实施例主要提供如下技术方案:
本发明实施例提供了一种显微手术术野的动态三维重建方法,
所述方法包括:获取深度相机的深度图和红外灰度图,并计算手术术野的点云数据;对所述点云数据进行去噪处理和去抖处理;利用点云分割模型对点云数据进行分割,获取术区点云团和手术器械点云团;利用求解稠密形变场的方法对术区点云团进行处理,得到术区点云模型;利用手术器械的分段轮廓信息对手术器械点云团进行处理,得到手术器械点云模型;融合上述术区点云模型和手术器械点云模型,得到全局点云模型,根据所述全局点云模型获取深度相机在当前视角下的三维重建结果并输出。
进一步地,所述方法还包括:当所述深度图和红外灰度图的帧位置属性为第一帧时,将预设的相机姿态数据赋予所述深度图和红外灰度图,计算深度图中每一个像素对应在深度相机坐标系下的点云数据,直接对点云数据进行分割。
进一步地,对所述点云数据进行去抖处理,具体包括:计算相机在当前图像与前一帧图像之间的惯性测量元件数据,对所述惯性测量元件的数据求积分,得到深度相机在t时刻相对于t-1时刻的姿态变换矩阵,利用所述姿态变换矩阵对当前点云数据进行相机去抖动处理,得到相机参考坐标系下的点云数据。
进一步地,所述得到术区点云模型,具体包括:构建术区三维参考模型;求取术区三维参考模型到当前帧的稠密形变场参数;根据所述稠密形变场参数将当前帧的点云融合到术区三维参考模型中;根据相机的实时图像更新形变场参数,对术区三维参考模型进行持续点云融合和更新,得到术区点云模型。
进一步地,所述得到手术器械点云模型,具体包括:构建手术器械参考模型;提取手术器械的分段轮廓信息;计算手术器械点云中每个像素与各轮廓边之间的关联系数矩阵;构造联合代价函数求取各轮廓边和手术器械点云的变形参数;根据形变参数将当前点云融合到手术器械参考模型中;根据相机的实时图像更新变形参数,对手术器械参考模型进行持续点云融合和更新,得到手术器械参考模型。
进一步地,所述构建手术器械参考模型,具体包括:当红外灰度图的帧位置属性为第一帧时,直接将当前帧得到的手术器械的点云团作为手术器械参考模型;反之,对手术器械点云团的表面进行均匀采样,并以采样点为节点创建手术器械表面节点图。
进一步地,所述提取手术器械的分段轮廓信息,具体包括:在红外灰度图中提取手术器械上的红外标记点的二维质心坐标,并通过反投影获取红外标记点在当前相机坐标系下的三维坐标,从而获取手术器械中分段轮廓边的位置。
进一步地,所述计算手术器械点云中每个像素与各轮廓边之间的关联系数矩阵,具体包括:计算轮廓边距离手术器械表面节点图中采样节点之间的最短欧式距离,将所述最短欧式距离与设定阈值的大小进行比较,且结合轮廓边与采样节点的运动一致性确定每个采样节点与各轮廓边之间的关联系数。
进一步地,所述构造联合代价函数,具体包括:根据节点变形影响下的点云匹配误差函数、轮廓移动影响下的点云匹配误差函数以及二者的误差平滑项构造联合代价函数。
本发明实施例提供的技术方案至少具有如下优点:
本发明实施例使用点云分割模型对术野进行点云分割,采用惯性测量元件对相机进行去抖处理,然后对其中的非刚性手术术区和分段刚性手术器械分别进行三维重建,其中,采用红外跟踪技术对器械的分段刚性轮廓进行跟踪,并将跟踪的轮廓信息作为约束加入到点云匹配和变形场估算过程中,能够精确地重建出高动态移动的手术器械,采用求解稠密形变场的方法进行手术术区的重建,该方法能精确的重建出高动态的手术术野。
附图说明
图1为本发明实施例提供的一种面向手术术野的动态三维重建方法流程示意图。
图2为本发明中对手术器械点云团进行处理的流程示意图。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效。
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、接口、技术之类的具体细节,以便透彻理解本发明。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本发明。在其它情况中,省略对众所周知的系统、电路以及方法的详细说明,以免不必要的细节妨碍本发明的描述。
本发明提出的一种面向手术术野的动态三维重建方法,包括:
一种显微手术术野的动态三维重建方法,其特征在于,包括:
步骤1:获取深度相机的深度图和红外灰度图,并计算手术术野的点云数据;
详细地,在执行本方法之前需要离线对深度相机进行标定以获取相机内参矩阵K,并离线训练基于术区的点云分割模型ω。优选的可使用张正友标定法对相机内参进行标定。点云分割模型ω可以准确分割和分类点云簇中的手术器械点云团和手术术区点云团。其中,点云是在和目标表面特性的海量点集合,结合激光测量和摄影测量原理得到点云,包括XYZ三维坐标、激光反射强度和RGB颜色信息。
当深度图和红外灰度图的帧位置属性为第一帧时,将预设的相机姿态数据赋予所述深度图和红外灰度图,计算深度图中每一个像素对应在深度相机坐标系下的点云数据,直接对点云数据进行分割。具体地,设深度图为Dt,红外灰度图为Gt,若当前帧为第一帧,即t=1,则赋予当前图像预设的相机姿态数据,若t>1,则计算相机在当前帧与前一帧之间的惯性测量元件数据It。
计算手术术野的点云数据即计算当前深度图Dt中每一个像素对应在深度相机坐标系下的点云数据,点云数据包括每个点的三维坐标和归一化法向量,三维坐标vi(u)的计算公式如下:
vi(u)=Dt(u)K-1[u,1]T
其中,vi(u)为像素点i对应的三维坐标,Dt(u)为其深度,u(x,y)为其在二维图像上的坐标。
法向量ni(u)的计算公式如下:
ni(u)=(vi(x+1,y)-vi(x,y))×(vi(x,y+1)-vi(x,y))
再对法向量进行归一化处理以获取整张图像的点云数据,归一化处理的公式为:
步骤2:对点云数据进行去噪处理和去抖处理;
在实际应用中去噪处理可以采用双边滤波的方法对点云进行滤波去噪。
去抖处理包括:对惯性测量元件的数据It求积分,得到深度相机在t时刻相对于t-1时刻的姿态变换矩阵H,并利用该姿态变换矩阵对当前点云数据进行相机去抖动处理,得到相机参考坐标系下的点云数据,包括点云的三维坐标信息和法向量信息其中i代表点云中体素的索引序号。
步骤3:利用点云分割模型对点云数据进行分割,获取术区点云团和手术器械点云团;
此处的点云分割模型为步骤1中训练出的点云分割模型ω,将点云数据输入到ω模型中,优选的可以使用基于PointNet训练的点云分割网络对点云数据进行分类和分割,得到手术器械的点云团和手术术区的点云团
步骤4:利用求解稠密形变场的方法对术区点云团进行处理,得到术区点云模型;
详细地,构建术区三维参考模型;求取术区三维参考模型到当前帧的稠密形变场参数;根据稠密形变场参数将当前帧的点云融合到术区三维参考模型中;根据相机的实时图像更新形变场参数,对术区三维参考模型进行持续点云融合和更新,得到术区点云模型。
在实际应用中,上述步骤可以为:
若手术器械的点云团中的t=1时,将当前点云数据代表的手术术区作为三维参考模型若t>1时,则首先需要计算三维参考模型到当前点云的稠密形变场参数优选的可以使用Dynamic Fusion形变场求解方法求解 中包含了参考模型和当前点云之间的逐点位姿映射矩阵在一些优选的实施例中,选用稠密非刚性ICP算法进行变形场参数求解,然后将当前点云数据融合到参考模型中去。融合的公式为:
其中, 分别代表当前点云中索引号为i的体素的三维坐标和法向量,和是其在参考模型中对应体素点的三维坐标和法向量。根据融合后的点云数据更新手术术区模型。
步骤5:利用手术器械的分段轮廓信息对手术器械点云团进行处理,得到手术器械点云模型;
具体地,包括:构建手术器械参考模型;提取手术器械的分段轮廓信息;计算手术器械点云中每个像素与各轮廓边之间的关联系数矩阵;构造联合代价函数求取各轮廓边和手术器械点云的形变参数;根据形变参数将当前点云融合到手术器械参考模型中;根据相机的实时图像更新变形参数,对手术器械参考模型进行持续点云融合和更新,得到手术器械参考模型。
上述步骤在实际的应用中,可以表述为:
当红外灰度图Gt的帧位置属性为第一帧时,即t=1时,直接将当前帧得到的手术器械的点云团作为手术器械参考模型
反之,t>1时,对手术器械点云团的表面进行均匀采样,并以采样点为节点创建手术器械表面节点图。
在红外灰度图Gt中提取手术器械上的红外标记点的二维质心坐标,并通过反投影获取红外标记点在当前相机坐标系下的三维坐标从而获取手术器械中分段轮廓边的位置,其中,n代表红外标记点的序号。
进一步地,计算点云中每个采样节点ni与各轮廓边之间的关联系数其中,m为轮廓边的个数。具体地方式为:计算轮廓边距离手术器械表面节点图中采样节点ni之间的最短欧式距离d,将最短欧式距离d与设定阈值∝的大小进行比较,且结合轮廓边与采样节点的运动一致性确定每个采样节点与各轮廓边之间的关联系数。若某个轮廓边距离节点ni的最短欧式距离d小于设定阈值∝=0.05,且与节点ni拥有一致的运动,则赋值相应的系数为1。
其中,运动一致性定义如下:
其中,Tbm代表轮廓边m上的累计运动,Tni代表节点上的累计运动,它们已经在模型被求解出来,为运动一致性设定阈值,优选地为0.02。
上述关联系数可以认为是采样节点与手术器械轮廓边之间的权重系数,基于此,再通过插值计算每个点云像素与轮廓边之间的权重系数,具体计算方法如下:
其中,为手术器械点云中的某个像素vk的权重系数,是其相邻的采样点ni的权重系数,为像素vk周围的K最近邻采样点,K=4;πi,k是采样点ni对像素vk的影响系数,它符合均值为0,方差为σ2的高斯分布,即距离像素vk越近的采样点对其权重系数的影响越大,优选地σ2=0.02。
更进一步地,构造联合代价函数,具体包括:
根据节点变形影响下的点云匹配误差函数、轮廓移动影响下的点云匹配误差函数以及二者的误差平滑项构造联合代价函数。
具体地,联合代价函数的公式为:
其中Evoxel是考虑了节点变形影响下的点云匹配误差函数,误差为匹配点对沿着法向量上的投影差,具体计算方法如下:
其中代表当前点云与前一时刻点云之间的匹配点对;为处考虑了临近节点形变影响的表达, 为相应的法向量, 表示与j节点关联的形变矩阵,φi,j为相应节点的影响系数,其与πi,k满足同分布。
Eskeleton是考虑了轮廓边移动影响下的点云匹配误差函数,具体计算方法如下:
为处考虑了轮廓移动影响的表达 为相应的法向量, 表示与j轮廓边关联的形变矩阵,ζi,j为相应轮廓边的影响系数,其也与πi,k满足同分布。
Esmooth是前两项的误差平滑项,具体计算方法如下:
根据上述联合代价函数Et求取轮廓边和点云的形变参数Ψt(Tn,Tb),根据求得的形变参数,将当前帧点云融入到上一帧参考关键帧模型中从而获取新的手术器械参考模型即上文所述的手术器械点云模型。
步骤6:融合上述术区点云模型和手术器械点云模型,得到全局点云模型,根据全局点云模型获取深度相机在当前视角下的三维重建结果并输出。
其中,使用TSDF方法构建出具有全局术野的全局点云表面模型,在此之前需要对体素TSDFi的值进行归一化处理,具体地:
本实施例中整个术野的三维模型是通过体素块以TSDF值的存储方式保存的,一般每个体素块含有N3个体素,一般N=256,体素i的TSDF值计算方法如下:
TSDFi=di(u)-pi(u)
其中,di(u)为体素i距离相机中心的距离,pi(u)为该体素与相机光心连线上,该体素与上一帧三维模型中三维表面的距离。最后需要把该体素TSDFi的值归一化到-1到1之间:
其中,maxtrancation为该体素与相机光心连线上最大TSDFi值。
在使用TSDF方法构建出具有全局术野的全局点云表面模型后,根据光线投影法获取深度相机在当前视角下的三维重建结果并输出。
本发明实施例使用点云分割模型对术野进行点云分割,采用惯性测量元件对相机进行去抖处理,然后对其中的非刚性手术术区和分段刚性手术器械分别进行三维重建,其中,采用红外跟踪技术对器械的分段刚性轮廓进行跟踪,并将跟踪的轮廓信息作为约束加入到点云匹配和变形场估算过程中,能够精确地重建出高动态移动的手术器械,采用求解稠密形变场的方法进行手术术区的重建,该方法能精确的重建出高动态的手术术野。
本领域技术人员应该可以意识到,在上述一个或多个示例中,本发明所描述的功能可以用硬件与软件组合来实现。当应用软件时,可以将相应功能存储在计算机可读介质中或者作为计算机可读介质上的一个或多个指令或代码进行传输。计算机可读介质包括计算机存储介质和通信介质,其中通信介质包括便于从一个地方向另一个地方传送计算机程序的任何介质。存储介质可以是通用或专用计算机能够存取的任何可用介质。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的技术方案的基础之上,所做的任何修改、等同替换、改进等,均应包括在本发明的保护范围之内。
Claims (9)
1.一种显微手术术野的动态三维重建方法,其特征在于,所述方法包括:
获取深度相机的深度图和红外灰度图,并计算手术术野的点云数据;
对所述点云数据进行去噪处理和去抖处理;
利用点云分割模型对点云数据进行分割,获取术区点云团和手术器械点云团;
利用求解稠密形变场的方法对术区点云团进行处理,得到术区点云模型;
利用手术器械的分段轮廓信息对手术器械点云团进行处理,得到手术器械点云模型;
融合上述术区点云模型和手术器械点云模型,得到全局点云模型,根据所述全局点云模型获取深度相机在当前视角下的三维重建结果并输出。
2.如权利要求1所述的一种显微手术术野的动态三维重建方法,其特征在于,所述方法还包括:当所述深度图和红外灰度图的帧位置属性为第一帧时,将预设的相机姿态数据赋予所述深度图和红外灰度图,计算深度图中每一个像素对应在深度相机坐标系下的点云数据,直接对点云数据进行分割。
3.如权利要求1所述的一种显微手术术野的动态三维重建方法,其特征在于,对所述点云数据进行去抖处理,具体包括:
计算相机在当前图像与前一帧图像之间的惯性测量元件数据,对所述惯性测量元件的数据求积分,得到深度相机在t时刻相对于t-1时刻的姿态变换矩阵,利用所述姿态变换矩阵对当前点云数据进行相机去抖动处理,得到相机参考坐标系下的点云数据。
4.如权利要求1所述的一种显微手术术野的动态三维重建方法,其特征在于,所述得到术区点云模型,具体包括:
构建术区三维参考模型;
求取术区三维参考模型到当前帧的稠密形变场参数;
根据所述稠密形变场参数将当前帧的点云融合到术区三维参考模型中;
根据相机的实时图像更新形变场参数,对术区三维参考模型进行持续点云融合和更新,得到术区点云模型。
5.如权利要求1所述的一种显微手术术野的动态三维重建方法,其特征在于,所述得到手术器械点云模型,具体包括:
构建手术器械参考模型;
提取手术器械的分段轮廓信息;
计算手术器械点云中每个像素与各轮廓边之间的关联系数矩阵;
构造联合代价函数求取各轮廓边和手术器械点云的变形参数;
根据形变参数将当前点云融合到手术器械参考模型中;
根据相机的实时图像更新变形参数,对手术器械参考模型进行持续点云融合和更新,得到手术器械参考模型。
6.如权利要求5所述的一种显微手术术野的动态三维重建方法,其特征在于,所述构建手术器械参考模型,具体包括:
当红外灰度图的帧位置属性为第一帧时,直接将当前帧得到的手术器械的点云团作为手术器械参考模型;
反之,对手术器械点云团的表面进行均匀采样,并以采样点为节点创建手术器械表面节点图。
7.如权利要求5所述的一种显微手术术野的动态三维重建方法,其特征在于,所述提取手术器械的分段轮廓信息,具体包括:
在红外灰度图中提取手术器械上的红外标记点的二维质心坐标,并通过反投影获取红外标记点在当前相机坐标系下的三维坐标,从而获取手术器械中分段轮廓边的位置。
8.如权利要求5所述的一种显微手术术野的动态三维重建方法,其特征在于,所述计算手术器械点云中每个像素与各轮廓边之间的关联系数矩阵,具体包括:
计算轮廓边距离手术器械表面节点图中采样节点之间的最短欧式距离,将所述最短欧式距离与设定阈值的大小进行比较,且结合轮廓边与采样节点的运动一致性确定每个采样节点与各轮廓边之间的关联系数。
9.如权利要求5所述的一种显微手术术野的动态三维重建方法,其特征在于,所述构造联合代价函数,具体包括:
根据节点变形影响下的点云匹配误差函数、轮廓移动影响下的点云匹配误差函数以及二者的误差平滑项构造联合代价函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010033521.2A CN111260765B (zh) | 2020-01-13 | 2020-01-13 | 一种显微手术术野的动态三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010033521.2A CN111260765B (zh) | 2020-01-13 | 2020-01-13 | 一种显微手术术野的动态三维重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111260765A CN111260765A (zh) | 2020-06-09 |
CN111260765B true CN111260765B (zh) | 2023-04-28 |
Family
ID=70950430
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010033521.2A Active CN111260765B (zh) | 2020-01-13 | 2020-01-13 | 一种显微手术术野的动态三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111260765B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112288689B (zh) * | 2020-10-09 | 2024-03-22 | 浙江清华长三角研究院 | 一种显微手术成像过程中术区三维重建方法及系统 |
CN112294453B (zh) * | 2020-10-12 | 2022-04-15 | 浙江未来技术研究院(嘉兴) | 一种显微手术术野三维重建系统及方法 |
CN117408908B (zh) * | 2023-12-15 | 2024-03-15 | 南京邮电大学 | 一种基于深度神经网络的术前与术中ct图像自动融合方法 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106952347A (zh) * | 2017-03-28 | 2017-07-14 | 华中科技大学 | 一种基于双目视觉的超声手术辅助导航系统 |
WO2018129715A1 (zh) * | 2017-01-13 | 2018-07-19 | 浙江大学 | 一种同时定位与稠密三维重建方法 |
CN110010249A (zh) * | 2019-03-29 | 2019-07-12 | 北京航空航天大学 | 基于视频叠加的增强现实手术导航方法、系统及电子设备 |
WO2019165194A1 (en) * | 2018-02-23 | 2019-08-29 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
WO2019174377A1 (zh) * | 2018-03-14 | 2019-09-19 | 大连理工大学 | 一种基于单目相机的三维场景稠密重建方法 |
CN110349249A (zh) * | 2019-06-26 | 2019-10-18 | 华中科技大学 | 基于rgb-d数据的实时稠密重建方法及系统 |
CN110415342A (zh) * | 2019-08-02 | 2019-11-05 | 深圳市唯特视科技有限公司 | 一种基于多融合传感器的三维点云重建装置与方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10432913B2 (en) * | 2017-05-31 | 2019-10-01 | Proximie, Inc. | Systems and methods for determining three dimensional measurements in telemedicine application |
-
2020
- 2020-01-13 CN CN202010033521.2A patent/CN111260765B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018129715A1 (zh) * | 2017-01-13 | 2018-07-19 | 浙江大学 | 一种同时定位与稠密三维重建方法 |
CN106952347A (zh) * | 2017-03-28 | 2017-07-14 | 华中科技大学 | 一种基于双目视觉的超声手术辅助导航系统 |
WO2019165194A1 (en) * | 2018-02-23 | 2019-08-29 | Kaarta, Inc. | Methods and systems for processing and colorizing point clouds and meshes |
WO2019174377A1 (zh) * | 2018-03-14 | 2019-09-19 | 大连理工大学 | 一种基于单目相机的三维场景稠密重建方法 |
CN110010249A (zh) * | 2019-03-29 | 2019-07-12 | 北京航空航天大学 | 基于视频叠加的增强现实手术导航方法、系统及电子设备 |
CN110349249A (zh) * | 2019-06-26 | 2019-10-18 | 华中科技大学 | 基于rgb-d数据的实时稠密重建方法及系统 |
CN110415342A (zh) * | 2019-08-02 | 2019-11-05 | 深圳市唯特视科技有限公司 | 一种基于多融合传感器的三维点云重建装置与方法 |
Non-Patent Citations (1)
Title |
---|
王君臣 ; 王田苗 ; 徐源 ; 方礼明 ; .基于ICP算法的手术导航三维配准技术.北京航空航天大学学报.2009,(04),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN111260765A (zh) | 2020-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109003325B (zh) | 一种三维重建的方法、介质、装置和计算设备 | |
CN111260765B (zh) | 一种显微手术术野的动态三维重建方法 | |
US6047078A (en) | Method for extracting a three-dimensional model using appearance-based constrained structure from motion | |
US11210804B2 (en) | Methods, devices and computer program products for global bundle adjustment of 3D images | |
Stoll et al. | Fast articulated motion tracking using a sums of gaussians body model | |
CN108615246B (zh) | 提高视觉里程计系统鲁棒性和降低算法计算消耗的方法 | |
Chowdhury et al. | Face reconstruction from monocular video using uncertainty analysis and a generic model | |
CN108053437B (zh) | 基于体态的三维模型获取方法及装置 | |
Clarkson et al. | Using photo-consistency to register 2D optical images of the human face to a 3D surface model | |
CN113610889B (zh) | 一种人体三维模型获取方法、装置、智能终端及存储介质 | |
JP4395689B2 (ja) | 画像データ処理方法およびモデリング装置 | |
CN113269862A (zh) | 场景自适应的精细三维人脸重建方法、系统、电子设备 | |
WO2019164502A1 (en) | Methods, devices and computer program products for generating 3d models | |
CN112734890A (zh) | 基于三维重建的人脸替换方法及装置 | |
WO2023116430A1 (zh) | 视频与城市信息模型三维场景融合方法、系统及存储介质 | |
CN111680573B (zh) | 人脸识别方法、装置、电子设备和存储介质 | |
CN112862736B (zh) | 一种基于点的实时三维重建与优化方法 | |
CN114387392A (zh) | 一种根据人影重建三维人体姿态的方法 | |
US6931145B1 (en) | Method and apparatus for measuring motion of an object surface by multi-resolution analysis using a mesh model | |
CN115018890A (zh) | 一种三维模型配准方法及系统 | |
Sekkati et al. | Concurrent 3-D motion segmentation and 3-D interpretation of temporal sequences of monocular images | |
CN113256693A (zh) | 基于K-means与正态分布变换的多视角配准方法 | |
Li et al. | ImTooth: Neural Implicit Tooth for Dental Augmented Reality | |
Jian et al. | Realistic face animation generation from videos | |
CN109587469A (zh) | 基于人工智能识别的影像处理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
TR01 | Transfer of patent right |
Effective date of registration: 20240311 Address after: 314050 9F, No. 705, Asia Pacific Road, Nanhu District, Jiaxing City, Zhejiang Province Patentee after: ZHEJIANG YANGTZE DELTA REGION INSTITUTE OF TSINGHUA University Country or region after: China Address before: No.152 Huixin Road, Nanhu District, Jiaxing City, Zhejiang Province 314000 Patentee before: ZHEJIANG FUTURE TECHNOLOGY INSTITUTE (JIAXING) Country or region before: China |
|
TR01 | Transfer of patent right |