CN111080778B - 一种双目内窥镜软组织图像的在线三维重建方法 - Google Patents
一种双目内窥镜软组织图像的在线三维重建方法 Download PDFInfo
- Publication number
- CN111080778B CN111080778B CN201911336446.0A CN201911336446A CN111080778B CN 111080778 B CN111080778 B CN 111080778B CN 201911336446 A CN201911336446 A CN 201911336446A CN 111080778 B CN111080778 B CN 111080778B
- Authority
- CN
- China
- Prior art keywords
- image
- neural network
- network model
- deep neural
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20228—Disparity calculation for image-based rendering
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种双目内窥镜软组织图像的在线三维重建方法,先根据当前采集到的最近一段时间内的双目内窥镜软组织图像序列对深度神经网络模型进行训练并进行在线调整,再利用调整好的深度神经网络模型估计后续帧的双目内窥镜软组织图像的视差,然后通过视差和相机参数得到内窥镜图像像素点的三维空间坐标,从而获得目标区域的三维形态坐标,完成三维图像的在线重建;最后又通过后续帧图像间隔的更新深度神经网络模型,确保重建精度。
Description
技术领域
本发明属于图像处理技术领域,更为具体地讲,涉及一种双目内窥镜软组织图像的在线三维重建方法。
背景技术
传统的开胸手术方式需要剖开胸腔,锯断胸骨,对患者的呼吸功能产生巨大影响。由于胸骨切口张力较高,使得体质较差的患者,术后恢复十分困难。如今,微创手术方式不仅能够降低手术的风险,更能减少病人治疗的痛苦。内窥镜是微创手术中重要的信号采集方式,医生不再需要开胸,仅需在胸壁上打3个小孔,分别放置胸腔镜成像装置、超声波手术刀以及手术废弃物吸收装置对病人进行手术,这样减少了病人的创伤和痛苦,也缩短了术后的康复时间。
近年来,内窥镜手术越来越多地应用于心脏外科手术。然而传统内窥镜无法产生直观的三维形态信息,只有经过长期培训的医师才能熟练地利用其进行关键部位的手术。现有内窥镜在使用过程中缺少图像深度感,容易导致医生在手术过程中对重要的解剖结构及其相对的位置产生视觉上的误判,或者致使医生难以准确地判断进刀位置的深浅而操作失误。
为了给手术医生提供准确、实时的三维形态信息,国内外学者尝试通过内窥镜获取的立体图像,对立体图像进行三维重建以获得目标区域表面的三维形态。这种方法可以解决无法植入大型三维扫描设备到微创手术空间的问题。这种三维重建方法主要通过相机标定、立体校正、立体匹配来得到图像像素点的三维空间信息,从而重建出目标区域的三维形态。为此,国内外研究人员利用多种经典的空间形变模型对目标区域进行三维重构。例如W.Lau等在文献《Stereo-based endoscopic tracking of cardiac surfacedeformation》中使用的B样条模型,D.Stoyanov等在文献《A practical approach towardsaccurate dense 3-D depth recovery for robotic laparoscopic surgery》中使用的分片双线性映射模型,以及R.Richa等在文献《Threedimensional motion tracking forbeating heart surgery using a thin-plate spline deformable model》中使用的薄板样条模型等。然而上述模型通常较为复杂,很难实时应用。而利用一些简单的形变模型虽然可以满足实时性要求,但难以准确描述目标区域的形变从而难以获得精确的三维重建结果。
如今,深度学习的快速发展为对立体内窥镜图片进行快速高精度的三维重建方法带来了新思路。越来越多学者以立体图像为输入,用深度学习模型计算出左右图像之间的视差图,从而获取图像的深度信息。Godard在《Unsupervised Monocular DepthEstimation with Left-Right Consistency》中以立体图像对作为输入,通过非监督方法训练出一个自编码模型用于深度估计,Andrea Pilzer等在《Unsupervised AdversarialDepth Estimation using Cycled Generative Networks》中使用生成对抗网络模型来估计深度。Antal B在文献《Automatic 3D point set reconstruction from stereoendoscopic images using deep neural network》中使用监督学习的方法训练出一个神经网络,该网络以图像像素亮度作为输入,输出立体内窥镜图像对应的深度图。Ke Xu在文献《Unsupervised binocular depth prediction network for laparoscopic surgery》中使用自编码器对双目腹腔镜图片进行深度估计,从而重建出腹腔手术部位的三维表面。这些训练好的深度学习模型能够快速计算出输入图像的深度信息,然而这些方法都需要预先存储大量同一目标区域的图片作为模型的训练集去训练模型,再将训练好的模型用于计算目标区域深度,在计算目标深度的过程中模型不再更新。但在对视频序列的三维重建过程中,短时间间隔的视频帧有一定相似性,而长时间间隔的视频帧之间会有较大差异,所以视频开始时采用的深度估计模型经过一段时间后在对视频帧估计深度时误差会逐渐增大,此时就需要根据当前的视频情况更新模型。
发明内容
本发明的目的在于克服现有技术的不足,提供一种双目内窥镜软组织图像的在线三维重建方法,用深度学习网络替代立体匹配,利用深度学习模型学习左右图像像素关系,找出左右图像间的视差,进而根据相机参数和视差完成三维重建。
为实现上述发明目的,本发明一种双目内窥镜软组织图像的在线三维重建方法,其特征在于,包括以下步骤:
(1)、双目内窥镜标定;
对双目内窥镜的两个相机进行各自标定,以及两相机之间进行立体标定,从而获得两个相机的内部参数矩阵及两相机之间的外部参数矩阵;
(2)、图像采集及预处理;
利用双目内窥镜对目标软组织进行图像采集,然后将左右两个相机采集的同一帧图像标记为图像对,再对图像对进行调整,使图像对共面行对准,即左右图像之间仅包括水平视差,没有垂直视差;
(3)、训练深度神经网络模型
(3.1)、设置深度神经网络模型的最大训练次数N;设置数据集D,用于存储一轮训练需要的K组图像对;设置损失函数阈值T;初始化深度神经网络模型;
(3.2)、按照步骤(2)所述方法获取K组图像对,并存储在数据集D;
(3.3)、从数据集D中选出一帧图像对开始输入至深度神经网络模型,通过深度神经网络模型计算出左右图像的视差图;
(3.4)、对左图像的每个像素点按视差图对应位置的像素值作为平移量进行平移,重建出右图像;
(3.5)、构建深度神经网络模型的损失函数l;
(3.5.1)、根据重建的右图像与右相机采集的右图像,构建重建损失函数lr;
其中I(i,j)表示右相机采集的右图像中坐标为(i,j)的像素点的像素值,I'(i,j)表示重建的右图像中坐标为(i,j)的像素点的像素值;
(3.5.2)、对视差图施加一个平滑约束,构成平滑损失函数ls;
其中Ex(i,j)表示视差图沿x方向上的梯度图像中坐标为(i,j)的像素点的像素值,Ey(i,j)表示视差图沿y方向上的梯度图像中坐标为(i,j)的像素点的像素值;
(3.5.3)、重建损失函数和平滑损失函数构成模型损失函数l;
l=αrlr+αsls
其中,αr、αs分别表示重建损失函数和视差平滑损失函数的系数;
(3.6)、设置步长P;以模型损失函数值最小为优化目标,利用随机梯度下降法计算模型损失函数的负梯度方向,再将负梯度方向与步长P的乘积作为深度神经网络模型的权重更新量,然后通过反向传播算法更新整个模型权重,从而更新深度神经网络模型;
(3.7)、重复步骤(3.3)-(3.6),利用数据集D中后K-1帧图像对继续训练深度神经网络模型,完成本轮训练;
(3.8)、本轮训练完成后,判断当前本轮训练次数是否到达最大训练次数N,或本轮训练完成后模型损失函数值是否小于阈值T,如果满足,则训练停止并清空数据集D,再进入步骤(4);否则,将当前训练次数增加1,然后返回至步骤(3.3),再次利用数据集D进行下一轮的训练;
(4)、计算K帧之后的图像对的视差图并进行在线重建
(4.1)、将第K+1帧左右图像按照步骤(2)的方法处理成图像对,将当前帧图像对输入至训练后的深度神经网络模型,计算出当前帧图像对的视差图,同时保存第K+1帧图像对保存至数据集D;
(4.2)、计算视差图中某像素点的深度d;
其中,e为该像素点的像素值,b为基线距离,f为相机焦距;
(4.3)、图像的在线重建
根据每个像素点的深度d恢复出对应像素点的三维坐标,再根据每个像素点的三维坐标重建出三维图像;
(4.4)、判断数据集D中的图像对数量是否达到K组,如果未达到,则按照步骤(4.1)-(4.3)所述方法进行下一帧的处理;如果达到,则利用数据集D中的K组图像对按照步骤(3.3)-(3.8)的方法更新深度神经网络模型。
本发明的发明目的是这样实现的:
本发明一种双目内窥镜软组织图像的在线三维重建方法,先根据当前采集到的最近一段时间内的双目内窥镜软组织图像序列对深度神经网络模型进行训练并进行在线调整,再利用调整好的深度神经网络模型估计后续帧的双目内窥镜软组织图像的视差,然后通过视差和相机参数得到内窥镜图像像素点的三维空间坐标,从而获得目标区域的三维形态坐标,完成三维图像的在线重建;最后又通过后续帧图像间隔的更新深度神经网络模型,确保重建精度。
同时,本发明一种双目内窥镜软组织图像的在线三维重建方法还具有以下有益效果:
(1)、本发明避免了用耗时的传统立体匹配技术来获取深度图,而是利用深层神经网络模型学习双目内窥镜图像对之间的像素关系,生成左右图像之间的视差图,再利用视差图基于相机参数重建出软组织的三维表面。
(2)、本发明与传统的基于大批量人工标注数据集的深度学习算法相比,本方法对模型的在线训练和更新提高了模型重建精度和重建实时性,同时也提高了模型在不同场景的灵活性。
附图说明
图1是本发明一种双目内窥镜软组织图像的在线三维重建方法流程图;
图2是深度神经网络模型架构图;
图3是深度神经网络模型的训练流程图。
具体实施方式
下面结合附图对本发明的具体实施方式进行描述,以便本领域的技术人员更好地理解本发明。需要特别提醒注意的是,在以下的描述中,当已知功能和设计的详细描述也许会淡化本发明的主要内容时,这些描述在这里将被忽略。
实施例
图1是本发明一种双目内窥镜软组织图像的在线三维重建方法流程图。
在本实施例中,如图1所示,本发明一种双目内窥镜软组织图像的在线三维重建方法,包括以下步骤:
S1、双目内窥镜标定;
对双目内窥镜的两个相机使用张氏标定法进行单目标定,得到左右相机的参数矩阵,再进行立体标定,从而获得两相机之间的外部参数矩阵;
S2、图像采集及预处理;
利用双目内窥镜对目标软组织进行图像采集,采集到的单张图像(左图或者右图)形状为512×256×1,然后将左右两个相机采集的同一帧图像标记为图像对,再使用Bouguet立体校正方法对图像对进行调整,使图像对共面行对准,即左右图像之间仅包括水平视差,没有垂直视差,再将共面行对准的左右图像按通道拼接成形状为512×256×2图像对作为深度神经网络模型的输入(也是训练样本);
S3、训练深度神经网络模型
在本实施例中,深度神经网络模型主要由编码器和解码器构成,如2所示,编码器由一个卷积层、一个最大池化层和四个卷积层构成。第一个卷积层的卷积核大小为7×7,滑动步长为2,输出为输出通道数为64;最大池化层滤波器大小为3×3,滑动步长为2,输出为/>输出通道数为64;后面四个卷积层每个卷积层使用大小为3×3,滑动步长为2的卷积核,每层输出分别为:/>(输出通道数为256)、/>(输出通道数为512)、/>(输出通道数为1024)、/>(输出通道数为2048);另外,编码器每一层操作后面都采用Relu激活函数。解码器由六个反卷积层和一个卷积层构成:每个反卷积层都采用一组大小为3×3,滑动步长为2的滤波器和Relu激活函数。解码器第一个反卷积层的输入来自编码器的输出/>反卷积输出通道数为512。从解码器第二个反卷积层到第六个反卷积层,每个反卷积层的输入都是前一层反卷积层的输出与对应的跳跃连接层按通道拼接形成的向量,每个反卷积层对应的跳跃连接层分别为:/> 每层输出的通道数分别为256、128、64、32、16;解码器最后一层卷积层滤波器大小为3×3,滑动步长为1,输出通道数为1,采用sigmoid激活函数。
如图3所示,具体训练过程为:
S3.1、设置深度神经网络模型的最大训练次数N为30;设置数据集D,用于存储一轮训练需要的200组图像对;设置损失函数阈值T为0.5;初始化深度神经网络模型;
S3.2、按照步骤S2所述方法获取200组图像对,并存储在数据集D;
S3.3、从数据集D中选出一帧图像对开始输入至深度神经网络模型,通过深度神经网络模型计算出左右图像的视差图;
S3.4、对左图像的每个像素点按视差图对应位置的像素值作为平移量进行平移,重建出右图像(或者对右图像的每个像素点按视差图对应位置的像素值作为平移量进行平移,重建出左图像);
S3.5、构建深度神经网络模型的损失函数l;
S3.5.1、根据重建的右图像与右相机采集的右图像,构建重建损失函数lr;
其中I(i,j)表示右相机采集的右图像中坐标为(i,j)的像素点的像素值,I'(i,j)表示重建的右图像中坐标为(i,j)的像素点的像素值(若步骤S3.4重建的是左图像,则重建损失则是根据重建的左图像与左相机采集的左图像构建);
S3.5.2、对视差图施加一个平滑约束,以减少视差噪声,构成平滑损失函数ls;
其中Ex(i,j)表示视差图沿x方向上的梯度图像中坐标为(i,j)的像素点的像素值,Ey(i,j)表示视差图沿y方向上的梯度图像中坐标为(i,j)的像素点的像素值;
S3.5.3、重建损失函数和平滑损失函数构成模型损失函数l;
l=αrlr+αsls
其中,αr、αs分别表示重建损失函数和视差平滑损失函数的系数,分别设置为0.8和0.5;
S3.6、设置步长P为0.0001;以模型损失函数值最小为优化目标,利用随机梯度下降法计算模型损失函数的负梯度方向,再将负梯度方向与步长P的乘积作为深度神经网络模型的权重更新量,然后通过反向传播算法更新整个模型权重,从而更新深度神经网络模型;
S3.7、重复步骤S3.3-S3.6,利用数据集D中后199帧图像对继续训练深度神经网络模型,完成本轮训练;
S3.8、本轮训练完成后,判断当前本轮训练次数是否到达最大训练次数30,或本轮训练完成后模型损失函数值是否小于阈值0.5,如果满足,则训练停止并清空数据集D,再进入步骤S4;否则,将当前训练次数增加1,然后返回至步骤S3.3,再次利用数据集D进行下一轮的训练;
S4、计算整个视频第200帧之后的图像对的视差图并进行在线重建
S4.1、将第201帧左右图像按照步骤S2的方法处理成图像对,再将处理后的当前帧图像对输入至训练后的深度神经网络模型,计算出当前帧图像对的视差图,同时保存当前帧图像对保存至数据集D;
S4.2、计算视差图中某像素点的深度d;
其中,e为该像素点的像素值,b为基线距离,f为相机焦距;
S4.3、图像的在线重建
根据每个像素点的深度d恢复出对应像素点的三维坐标,再根据每个像素点的三维坐标重建出三维图像;
S4.4、判断数据集D中的图像对数量是否达到200组,如果未达到,则按照步骤S4.1-S4.3所述方法进行下一帧的处理;如果达到,则利用数据集D中的200组图像对按照步骤S3.3-S3.8的方法更新深度神经网络模型。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领域的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (1)
1.一种双目内窥镜软组织图像的在线三维重建方法,其特征在于,包括以下步骤:
(1)、双目内窥镜标定;
对双目内窥镜的两个相机进行各自标定,以及两相机之间进行立体标定,从而获得两个相机的内部参数矩阵及两相机之间的外部参数矩阵;
(2)、图像采集及预处理;
利用双目内窥镜对目标软组织进行图像采集,然后将左右两个相机采集的同一帧图像标记为图像对,再对图像对进行调整,使图像对共面行对准,即左右图像之间仅包括水平视差,没有垂直视差;
(3)、训练深度神经网络模型
(3.1)、设置深度神经网络模型的最大训练次数N;设置数据集D,用于存储一轮训练需要的K组图像对;设置损失函数阈值T;初始化深度神经网络模型;
(3.2)、按照步骤(2)所述方法获取K组图像对,并存储在数据集D;
(3.3)、从数据集D中选出一帧图像对开始输入至深度神经网络模型,通过深度神经网络模型计算出左右图像的视差图;
(3.4)、对左图像的每个像素点按视差图对应位置的像素值作为平移量进行平移,重建出右图像;
(3.5)、构建深度神经网络模型的损失函数l;
(3.5.1)、根据重建的右图像与右相机采集的右图像,构建重建损失函数lr;
其中I(i,j)表示右相机采集的右图像中坐标为(i,j)的像素点的像素值,I'(i,j)表示重建的右图像中坐标为(i,j)的像素点的像素值;
(3.5.2)、对视差图施加一个平滑约束,构成平滑损失函数ls;
其中Ex(i,j)表示视差图沿x方向上的梯度图像中坐标为(i,j)的像素点的像素值,Ey(i,j)表示视差图沿y方向上的梯度图像中坐标为(i,j)的像素点的像素值;
(3.5.3)、重建损失函数和平滑损失函数构成模型损失函数l;
l=αrlr+αsls
(3.6)、设置步长P;以模型损失函数值最小为优化目标,利用随机梯度下降法计算模型损失函数的负梯度方向,再将负梯度方向与步长P的乘积作为深度神经网络模型的权重更新量,然后通过反向传播算法更新整个模型权重,从而更新深度神经网络模型;
(3.7)、重复步骤(3.3)-(3.6),利用数据集D中后K-1帧图像对继续训练深度神经网络模型,完成本轮训练;
(3.8)、本轮训练完成后,判断当前本轮训练次数是否到达最大训练次数N,或本轮训练完成后模型损失函数值是否小于阈值T,如果满足,则训练停止并清空数据集D,再进入步骤(4);否则,将当前训练次数增加1,然后返回至步骤(3.3),再次利用数据集D进行下一轮的训练;
(4)、计算K帧之后的图像对的视差图并进行在线重建
(4.1)、将第K+1帧左右图像按照步骤(2)的方法处理成图像对,将当前帧图像对输入至训练后的深度神经网络模型,计算出当前帧图像对的视差图,同时保存第K+1帧图像对保存至数据集D;
(4.2)、计算视差图中某像素点的深度d;
其中,e为该像素点的像素值,b为基线距离,f为相机焦距;
(4.3)、图像的在线重建
根据每个像素点的深度d恢复出对应像素点的三维坐标,再根据每个像素点的三维坐标重建出三维图像;
(4.4)、判断数据集D中的图像对数量是否达到K组,如果未达到,则按照步骤(4.1)-(4.3)所述方法进行下一帧的处理;如果达到,则利用数据集D中的K组图像对按照步骤(3.3)-(3.8)的方法更新深度神经网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911336446.0A CN111080778B (zh) | 2019-12-23 | 2019-12-23 | 一种双目内窥镜软组织图像的在线三维重建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911336446.0A CN111080778B (zh) | 2019-12-23 | 2019-12-23 | 一种双目内窥镜软组织图像的在线三维重建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111080778A CN111080778A (zh) | 2020-04-28 |
CN111080778B true CN111080778B (zh) | 2023-03-31 |
Family
ID=70316803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911336446.0A Active CN111080778B (zh) | 2019-12-23 | 2019-12-23 | 一种双目内窥镜软组织图像的在线三维重建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111080778B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348940B (zh) * | 2020-10-19 | 2022-11-01 | 深圳硅基智控科技有限公司 | 基于光流获得组织腔体三维图像的处理方法 |
CN112614152B (zh) * | 2020-12-22 | 2022-03-25 | 电子科技大学 | 一种基于深度特征学习的软组织表面运动跟踪方法 |
CN112819777B (zh) * | 2021-01-28 | 2022-12-27 | 重庆西山科技股份有限公司 | 一种双目内窥镜辅助显示方法、系统、装置和存储介质 |
CN113435573B (zh) * | 2021-06-07 | 2022-04-29 | 华中科技大学 | 内窥镜图像的视差预测模型建立方法及深度估计方法 |
CN114533111A (zh) * | 2022-01-12 | 2022-05-27 | 电子科技大学 | 一种基于惯性导航系统的三维超声重建系统 |
CN115049791B (zh) * | 2022-08-12 | 2022-11-04 | 山东鲁晟精工机械有限公司 | 结合图像处理的数控车床工件三维建模方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631931A (zh) * | 2015-12-21 | 2016-06-01 | 电子科技大学 | 一种低复杂度的心脏表面三维形态在线建模系统及方法 |
CN109091099A (zh) * | 2018-05-11 | 2018-12-28 | 上海交通大学 | 双目视觉的高清微型电子内窥镜系统 |
CN109598754A (zh) * | 2018-09-29 | 2019-04-09 | 天津大学 | 一种基于深度卷积网络的双目深度估计方法 |
CN110033465A (zh) * | 2019-04-18 | 2019-07-19 | 天津工业大学 | 一种应用于双目内窥镜医学图像的实时三维重建方法 |
CN110335222A (zh) * | 2019-06-18 | 2019-10-15 | 清华大学 | 基于神经网络的自修正弱监督双目视差提取方法及装置 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10168667B2 (en) * | 2015-08-31 | 2019-01-01 | City University Of Hong Kong | Fast generation of digital holograms |
-
2019
- 2019-12-23 CN CN201911336446.0A patent/CN111080778B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105631931A (zh) * | 2015-12-21 | 2016-06-01 | 电子科技大学 | 一种低复杂度的心脏表面三维形态在线建模系统及方法 |
CN109091099A (zh) * | 2018-05-11 | 2018-12-28 | 上海交通大学 | 双目视觉的高清微型电子内窥镜系统 |
CN109598754A (zh) * | 2018-09-29 | 2019-04-09 | 天津大学 | 一种基于深度卷积网络的双目深度估计方法 |
CN110033465A (zh) * | 2019-04-18 | 2019-07-19 | 天津工业大学 | 一种应用于双目内窥镜医学图像的实时三维重建方法 |
CN110335222A (zh) * | 2019-06-18 | 2019-10-15 | 清华大学 | 基于神经网络的自修正弱监督双目视差提取方法及装置 |
Non-Patent Citations (3)
Title |
---|
Method study on three-dimensional image rebuilding based on ISAR sequences;Dong Li等;《2011 International Conference on Electronics, Communications and Control (ICECC)》;第4375 - 4377页 * |
基于深度学习的双目内窥镜图像重建研究;陈虹蓉;《cnki优秀硕士学位论文全文库 医药卫生科技辑》(第01期);第E060-14页 * |
基于深度学习的双目视觉测距方法研究与实现;邓志康;《cnki优秀硕士学位论文全文库 信息科技辑》(第12期);第I138-649页 * |
Also Published As
Publication number | Publication date |
---|---|
CN111080778A (zh) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111080778B (zh) | 一种双目内窥镜软组织图像的在线三维重建方法 | |
JP5153620B2 (ja) | 連続的にガイドされる内視鏡と関係する画像を重ね合わせるためのシステム | |
CN110033465B (zh) | 一种应用于双目内窥镜医学图像的实时三维重建方法 | |
Stoyanov et al. | Dense 3D depth recovery for soft tissue deformation during robotically assisted laparoscopic surgery | |
CN110992431B (zh) | 一种双目内窥镜软组织图像的联合三维重建方法 | |
CN108618749B (zh) | 基于便携式数字化眼底照相机的视网膜血管三维重建方法 | |
CN108765392B (zh) | 一种基于滑动窗口的消化道内镜病变检测和识别方法 | |
JP2015531607A (ja) | 3次元物体を追跡するための方法 | |
CN112614169B (zh) | 基于深度学习网络的2d/3d脊椎ct层级配准方法 | |
CN112802185B (zh) | 面向微创手术空间感知的内窥镜图像三维重构方法和系统 | |
CN112598649B (zh) | 基于生成对抗网络的2d/3d脊椎ct非刚性配准方法 | |
JP7363883B2 (ja) | 画像処理の方法、デバイス及びコンピュータ可読記憶媒体 | |
CN108090954A (zh) | 基于图像特征的腹腔环境地图重建与腹腔镜定位的方法 | |
CN114399527A (zh) | 单目内窥镜无监督深度和运动估计的方法及装置 | |
CN109068035B (zh) | 一种智能微相机阵列内窥成像系统 | |
CN112261399B (zh) | 胶囊内窥镜图像三维重建方法、电子设备及可读存储介质 | |
CN101632570A (zh) | 医用内窥镜标定方法 | |
CN115619790B (zh) | 一种基于双目定位的混合透视方法、系统及设备 | |
CN114298986A (zh) | 一种基于多视点无序x光片的胸腔骨骼三维构建方法及系统 | |
CN114617527A (zh) | 一种腹腔镜立体成像方法及系统 | |
KR101657285B1 (ko) | 초음파 치료 시뮬레이션시스템 | |
Lo et al. | Real-time intra-operative 3D tissue deformation recovery | |
WO2024050918A1 (zh) | 内窥镜定位方法、电子设备和非暂态计算机可读存储介质 | |
CN112330603A (zh) | 基于软组织表面形变估计组织内部目标运动的系统与方法 | |
CN111640127A (zh) | 一种用于骨科的精准临床诊断导航方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |