CN112435211A - 一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法 - Google Patents
一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法 Download PDFInfo
- Publication number
- CN112435211A CN112435211A CN202010915397.2A CN202010915397A CN112435211A CN 112435211 A CN112435211 A CN 112435211A CN 202010915397 A CN202010915397 A CN 202010915397A CN 112435211 A CN112435211 A CN 112435211A
- Authority
- CN
- China
- Prior art keywords
- contour
- representing
- image
- scale
- vertex
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B34/00—Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
- A61B34/20—Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
- A61B2034/2046—Tracking techniques
- A61B2034/2065—Tracking using image or pattern recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/513—Sparse representations
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Surgery (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Life Sciences & Earth Sciences (AREA)
- Radiology & Medical Imaging (AREA)
- Robotics (AREA)
- Quality & Reliability (AREA)
- Biomedical Technology (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明提出了一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法,包括以下步骤:第一步:基于双边滤波器增强自适应RPCA分解所获得的低秩图像的边缘轮廓,然后基于梯度算子提取边缘轮廓信息,并通过形态学运算获得目标的轮廓形状;第二步:通过提取轮廓形状上顶点的多尺度几何特征描述子,使其对轮廓形状的尺度、大小、旋转变化鲁棒;第三步:利用FFT对轮廓形状的稠密特征描述子降维,通过计算两个轮廓的特征矩阵间的距离大小来衡量不同轮廓间的相似程度,根据目标轮廓形状,在内窥镜图像序列中对目标轮廓形状进行匹配、跟踪,在每一帧中计算获得目标轮廓形状;第四步:基于时空连续性原理,运用目标轮廓形状的关键张量空间对目标轮廓的跟踪、匹配结果进行优化。
Description
技术领域
本发明涉及图像处理领域,具体涉及一种能够针对内窥镜图像序列中软组织表面轮廓实现鲁棒、精准的轮廓形状提取、稠密特征点描述、及轮廓形状匹配的方法。
背景技术
AR/MR手术导航系统取得了巨大的成功。然而,由于一些技术上的困难,它们在消化内镜和腹腔镜检查中很少被应用。首先,软组织表面光滑,纹理稀疏,表面轮廓相似度很高。现有的特征提取方法大多无法获得软组织表面的稠密特征描述,这将给单眼视觉的二维/三维重建带来明显的误差。因此,AR/MR手术导航系统在软组织二维/三维重建与术前三维模型之间难以获得准确的非刚性配准。其次,软组织在导航过程中经常发生各种变形,尤其是消化器官。它会严重影响基于特征点提取和匹配的软组织表面跟踪。因此,现有的方法大多难以解决可变形目标表面的精确鲁棒跟踪问题。作为AR/MR手术导航的关键步骤,软组织表面轮廓的致密特征提取和特征点匹配已经成为消化内镜导航系统的核心技术挑战。
现有的AR/MR手术导航系统中,软组织表面纹理稀疏,缺乏有意义的特征点,难以对软组织表面进行跟踪。然而,软组织表面的轮廓形状特征非常重要,可以作为一种稳定的特征来改善其二维/三维重建过程。目前,二维/三维重建中常用的特征提取方法主要有:尺度不变特征变换(Scale Invariant Feature Transform,SIFT)、加速鲁棒特征(SpeededUp Robust Features,SURF)、快速定向旋转简(Oriented FAST and Rotated BRIEF,ORB)、Harris角、方向梯度直方图(Histogram of Oriented Gridients,HOG)等。轮廓形状提取方法主要有以下几种:(1)经典的边缘提取方法,如Robert算子,Sobel算子、Prewitt算子、Laplace算子、Canny算子;(2)基于学习的轮廓形状提取方法。目标跟踪/匹配方法主要有:(1)经典方法跟踪方法,如Lucas-Kanade光流跟踪,KCF、DCF;(2)基于深度学习的目标跟踪方法。虽然现有的方法在很多场景中已经取得了很大成功,但现有的目标跟踪方法大多都是针对目标的将目标与背景区分开或使用边界框来预测目标在一帧中的位置。它可以只找到目标的全局位置,很难实现鲁邦跟踪和特征匹配。
发明内容
本发明要解决的技术问题是:克服现有轮廓检测过程中对噪声、高光敏感的问题,提供一种能够针对内窥镜图像序列中软组织表面轮廓实现鲁棒、精准的轮廓形状提取、稠密特征点描述、及轮廓形状匹配的方法,该方法满足了不同场景的要求,应用范围广。
本发明采用的技术方案为:一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法,包括以下步骤:
第一步:基于双边滤波器增强自适应RPCA分解所获得的低秩图像的边缘轮廓,减少图像中的干扰,然后基于梯度算子提取边缘轮廓信息,并通过形态学运算获得目标的轮廓形状;
第二步:通过提取轮廓形状上顶点的多尺度几何特征描述子:包括:轮廓上相关三个顶点与轮廓几何中心点构成的两个三角形面积(Triangular Signed Area,TSA)、轮廓上当前顶点与相邻两个顶点构成三角形的几何中心点与当前顶点的距离(Contour CentroidDistance,CCD)、计算多边形边长的比例(Ratio of the Edge Lengths of Polygons,REP)、多边形的角度大小(Polygon Multiple Angles,PMA)构造轮廓形状的稠密特征描述子,使其对轮廓形状的尺度、大小、旋转变化鲁棒;
第三步:利用FFT对轮廓形状的稠密特征描述子降维,通过计算两个轮廓的特征矩阵间的距离大小来衡量不同轮廓间的相似程度,根据目标轮廓形状,在内窥镜图像序列中对目标轮廓形状进行匹配、跟踪,在每一帧中计算获得目标轮廓形状;
第四步:根据第三步的跟踪结果,基于时空连续性原理,运用目标轮廓形状的关键张量空间对目标轮廓的跟踪、匹配结果进行优化。
进一步的,所述步骤1中,针对低秩图像利用Sobel梯度算子提取目标稳定的边缘轮廓信息,首先基于自适应RPCA获得图像的低秩结果,低秩矩阵分解公式为:
其中,O(L,S,Y)代表目标函数,||·||1表示1-范数,||·||*代表核范数,L代表低秩矩阵,S代表稀疏矩阵,M代表迭代计算过程中的中间结果,H代表检测获得的高光图像,μ代表经验常数,代表M-L-S矩阵的Forbenius范数,<Y,M-L-S>代表迭代计算过程中的残差结果,代表矩阵S的1-范数,其中m,n分别代表矩阵的行数和列数,||S-H||2表示稀疏结果与检测到的高光图像之间的相似性度量,λl代表低秩控制参数,λs代表稀疏控制参数,Y为基于残差M-L-S的拉格朗日乘子矩阵,ζ代表残差控制条件,η表示迭代终止条件;低秩图像能够消除内窥镜图像中高光带来的影响,将图像中包含高光信息、扰动信息、噪声信息全部分解到稀疏结果矩阵中,将图像中稳定部分、主成分分解到低秩结果矩阵中。
进一步的,所述步骤1中,基于两个高斯滤波器将低秩图像中不稳定的抖动边缘信息消除,同时保留稳定的边缘轮廓信息,其计算公式如下:
其中,BF代表保边滤波函数,L代表低秩矩阵, Lp和Lq分别表示像素p和q的强度,代表空间高斯权重算子,代表像素范围域高斯权重算子,Wp代表归一化算子,i,j代表图像中像素的坐标位置,k,l代表与i,j坐标点临近的坐标点,σ代表高斯函数的参数,BL代表保边滤波后的结果图像。
进一步的,所述步骤1中,获得低秩图像的双边滤波结果,针对滤波后图像,对其进行梯度运算,找到图像中梯度信息:
其中,Gx,Gy分别代表x和y方向梯度,分别代表x方向和y方向导数,BL代表保边滤波后的结果图像,M′代表梯度的幅值大小,m,n分别代表图像的长、宽,θ代表梯度的方向角度大小,i,j代表图像像素坐标位置。
进一步的,所述步骤1中,计算结束后,获得图像的轮廓集合:C={E1,E2,E3,...,Et},t代表图像中包含的轮廓数量,Ei表示一个小的轮廓;针对细小的边缘轮廓线进行形态学闭运算,并对细微的边缘轮廓线进行空洞填充,最后,基于4-邻域的连通域准则最终获得目标的最外围轮廓顶点;其计算过程如下所示:
进一步的,所述步骤2中,软组织表面轮廓形状的多尺度稠密几何特征提取具体为:
(1)根据前一个轮廓自适应调整当前轮廓的大小、尺度,使得两个轮廓的大小、尺度保持一致,针对前一个轮廓的最外围包围轮廓线Cp={p1,p2,p3,…,pr},Cp代表前一个轮廓,pr代表轮廓上的坐标顶点,r代表轮廓上顶点的个数,及当前轮廓的包围轮廓线Cc={p1,p2,p3,…,ps},Cc代表当前轮廓,ps代表轮廓上的坐标顶点,s代表当前轮廓上顶点的个数;首先,求出轮廓的最小包围矩形的坐标:
BOX(Cp)=[Xp,Yp,Wp,Hp],
BOX(Cc)=[Xc,Yc,Wc,Hc],
β=sqrt((size(BOX(Cp)))/(size(BOX(Cc))),
其中,Cp代表前一个轮廓形状,Cc代表当前轮廓形状,BOX代表最小矩形函数,Xp,Yp,Wp,Hp分别代表前一个轮廓的起始坐标x,y位置信息和长度、宽度,Xc,Yc,Wc,Hc分别代表当前轮廓的起始坐标x,y位置信息和长度、宽度,β代表前一个轮廓的最小外接矩形与当前轮廓的最小外接矩形面积大小的倍数,size代表获得图像大小的函数,/代表除运算;
然后根据β的数值范围对当前轮廓进行自适应处理,其计算公式如下所示:
其中,β代表前一个轮廓的最小外接矩形与当前轮廓的最小外接矩形面积大小的倍数,Wc,Hc分别代表当前轮廓的长宽大小,ki代表自适应调整前轮廓中包含的顶点个数,kn代表自适应调整后轮廓中包含的顶点个数,Nc代表自适应处理后轮廓的最小包围矩形,自适应处理后重新计算获得新的轮廓顶点H={p1,p2,p3,…,pm’},m’代表轮廓中包含的顶点坐标的个数;
(2)针对轮廓顶点提取多尺度稠密几何特征描述子:TSA、CCD、REP、PMA;
多尺度TSA:TSA的几何特征包括:R和Q,其中R和Q分别表示由轮廓上的相关的三个顶点和轮廓的几何中心点这四个点构成的两个三角形的面积大小,针对轮廓H={p1,p2,p3,…,pm’},首先对轮廓上的顶点进行采样处理,然后计算两个三角形R:piopω和Q:piopφ的面积大小,其中φ=i-h(k′),ω=i+h(k′),h(k′)=2k′-1,1≤k′≤ts,o代表轮廓的几何中心坐标,其计算过程如下所述:
S′=S(H)={p1,p2,p3,...,pm′},
ts=log2(size(S′)),
其中,τ代表采样的基数,一般取64,n′代表计算获得的需要针对顶点进行采样后的顶点个数,Δd代表对轮廓顶点进行采样时的间隔大小,//代表求整运算,S表示对轮廓点进行采样的函数,xc,yc分别代表轮廓顶点的中心坐标,分别代表两个三角形的面积计算结果的集合,ts代表根据轮廓坐标顶点数量计算其特征提取的尺度大小,size代表计算轮廓的坐标顶点数量的函数,pi表示轮廓形状上的一个顶点,o代表轮廓的中心坐标点,size代表获得图像大小的函数,xi,yi分别代表轮廓顶点的坐标,R1 i(pi)代表轮廓顶点pi在尺度为1时与相邻顶点构成的三角形piopω的面积大小,Q1 i(pi)代表轮廓顶点pi在尺度为1时与相邻顶点构成的三角形piopφ的面积大小;
R和Q分别代表两个三角形的面积:Δpiopω和Δpiopφ,ω代表沿着当前顶点顺时针方向的下一个轮廓顶点,φ代表沿着当前顶点逆时针方向的下一个轮廓顶点;其中φ=i-h(k′),ω=i+h(k′),h(k′)=2k′-1,1≤k′≤ts,代表三角形:piopω的面积计算函数,该三角形面积的计算公式如下:
多尺度CCD:通过计算当前顶点与三角形pφpipω的几何中心顶点之间的距离,计算过程如下:
其中,D(pi)代表计算两个顶点之间的欧式距离,xi和yi代表顶点pi的坐标,xc和yc代表三角形pφpipω的几何中心坐标,D(p1 i)代表尺度为1时三角形几何中心坐标与轮廓顶点坐标间的欧式距离,ts代表尺度大小,最终计算轮廓顶点的多尺度CCD特征描述符:MCCD;多尺度REP特征:通过计算多边形pφpipωo边长长度的比值大小获得;边长比值对轮廓的尺度和旋转变化鲁棒,其计算公式如下所述:
其中,φ代表i-h(k),ω代表i-h(k),h(k)=2k-1,κ,λ,μ,η,ρ分别代表多边形pφpipωo的边长大小,xc,yc分别代表轮廓的几何中心坐标,o代表轮廓的几何中心坐标,最后计算获得多尺度为每个点代表特征描述符:
多尺度PMA特征:通过计算多边形pφpipωo在多个尺度下的角度大小来获得轮廓顶点的多尺度角度特征,计算公式如下所述:
α=arccos(pipφ·pipω/|pipφ|×|pipω|)×180/π,
β=arccos(pφpω·opω/|pφpω|×|opω|)×180/π,
γ=arccos(pφo·pωo/|pφo|×|pωo|)×180/π,
δ=arccos(pωo·pωpφ/|pωo|×|pωpφ|)×180/π,
∈=arccos(pφpi·pφpω/|pipφ|×|pφpω|)×180/π,
其中,α,β,γ,δ,∈分别代表四边形pφpipωo的四个内角角度大小,pipφ,pipω,pφpω,opω,pφo,pωo分别代表四边形pφpipωo的四条边和两条对角线;然后,计算获得每个顶点的多尺度PMA特征描述符:
最后,提取轮廓顶点的13个多尺度几何特征,将轮廓顶点pi的多尺度特征描述子表示为:Mi={MTSA(pi),MCCD(pi),MREP(pi),MPMA(pi)},1<i<m′,m′代表轮廓上顶点的个数。
进一步的,所述步骤3中,特征描述子矩阵降维:
根据上述轮廓特征描述矩阵,首先对每一列向量进行归一化,归一化公式如下所示:
其中Mi代表轮廓坐标顶点,r′代表矩阵的列数,pi的多尺度特征描述矩阵,M矩阵中的值被规范化为-1到1;然后利用FFT对特征描述矩阵降维处理;然后分别得到前一轮廓和当前轮廓的稠密特征描述子矩阵:
Fp f=|{Mp 1,M,...,Mp L}T|,
Fc f=|{Mc 1,Mc 2,...,Mc L}T|,
其中Mp 1代表前一个轮廓顶点1的多尺度几何特征描述子,T代表矩阵转置,Mc 1代表当前轮廓顶点1的多尺度几何特征描述子,Fp f表示前一帧的轮廓形状的特征提取结果,Fc f表示当前帧的轮廓形状的特征提取结果,L代表特征描述矩阵降维后的维数大小;然后,通过计算两个特征向量之间的欧氏距离,来测量不同轮廓之间的相似程度,结果越大,代表两个轮廓之间的差异越大,反之亦然,相似性度量计算公式为:
其中Dp f表示前一帧的轮廓形状的特征提取结果,Dc f表示当前帧的轮廓形状的特征提取结果,L代表矩阵的行数,r′代表矩阵的列数。
进一步的,所述步骤4中,优化跟踪、匹配结果具体包括:根据步骤三的结果,针对轮廓形状的全局匹配结果,基于目标关键张量空间中的目标轮廓形状匹配结果进行优化;对于内窥镜下的图像序列F:
F={I1,I2,I3...Is’},
每一帧图像Ii包含若干个轮廓形状:s’为图像序列的数量;
Ii={C1,C2,C3...Ck’},Ck’为图像中包含的所有轮廓的数量。
对于每一个目标轮廓形状:Ct,计算每一帧Ii中对应的目标轮廓结果,然后构造关键张量空间Tc,其中Tc表示目标轮廓Ct的关键张量空间:Tc={Ct 1,Ct 2,Ct 3...Ct q’},q’代表张量空间中目标的模板数量。如果全局匹配结果显示目标变形或遮挡大于阈值,将更新目标Ct的关键张量空间Tc,最后,将优化内镜图像序列中目标轮廓形状的匹配关系。
本发明的原理在于:
(1)现有的轮廓检测方法对于噪声敏感的问题。基于低秩图像能够对噪声、高光鲁棒,并通过双边滤波来增强边缘信息,本发明提出了一种边缘信息增强、提取新方法。
(2)本发明提出一种新的轮廓形状多尺度稠密特征提取方法,该方法通过提取轮廓顶点的多尺度几何特征来描述轮廓形状的变化,这些特征对于旋转、尺度、形变鲁棒。
(3)本发明通过FFT提取的特征矩阵降维,通过计算降维矩阵的欧式距离度量不同轮廓之间的相似程度。
(4)通过构造目标轮廓的关键张量空间,对内窥镜图像序列中目标轮廓的匹配结果进行优化。
本发明与现有技术相比的优点在于:
1、本发明的方法中提出了一种新的轮廓提取方法,首先基于自适应鲁棒主成分分析来获得图像的低秩结果,并利用双边滤波来增强图像中的边缘部分,该方法克服了传统边缘检测方法对于噪声、高光敏感的问题。
2、本发明的方法中提出了一种多尺度稠密的几何特征描述子提取方法,它提取轮廓形状的稠密特征描述,其能够对旋转、尺度、形变鲁棒。
3、本发明的方法通过关键张量来优化目标轮廓的匹配结果,能自适应场景的变化,并适用于不同的微创手术场景。
附图说明
图1为本发明方法实现流程图;
图2为本发明中图像轮廓提取流程图;
图3为本发明中自适应RPCA矩阵分解的内窥镜图像序列中高光去除方法总体流程图;
图4为本发明中迭代优化RPCA矩阵分解过程的流程图;
图5为原始内窥镜图像序列与本发明高光去除后的效果示意图;(a)为原始内窥镜图像序列;(b)为Sobel算子轮廓检测结果;(c)为Laplacian算子轮廓检测结果;(d)Canny算子轮廓检测结果;(e)为DOG算子轮廓检测结果;(f)为本发明的轮廓检测结果。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅为本发明的一部分实施例,而不是全部的实施例,基于本发明中的实施例,本领域的普通技术人员在不付出创造性劳动的前提下所获得的所有其他实施例,都属于本发明的保护范围。
如图1-4所示,本发明能够针对内窥镜图像序列中软组织表面轮廓实现鲁棒、精准的轮廓形状提取、稠密特征点描述、及轮廓形状匹配的方法,实现步骤如下:
1、目标轮廓形状提取。参见图2,本发明提出了一种在低秩空间中利用梯度算子提取目标稳定的边缘轮廓信息,该方法首先基于自适应RPCA分解获得原始内窥镜图像的低秩结果,参见图3,该低秩矩阵分解公式为:针对低秩图像利用Sobel梯度算子提取目标稳定的边缘轮廓信息,首先基于本发明的自适应RPCA获得图像的低秩结果,该低秩矩阵分解公式为:
其中,O(L,S,Y)代表目标函数,||·||1表示1-范数,||·||*代表核范数,L代表低秩矩阵,S代表稀疏矩阵,M代表迭代计算过程中的中间结果,H代表检测获得的高光图像,μ代表经验常数,代表M-L-S矩阵的Forbenius范数,<Y,M-L-S>代表迭代计算过程中的残差结果,代表矩阵S的1-范数,其中m,n分别代表矩阵的行数和列数,||S-H||2表示稀疏结果与检测到的高光图像之间的相似性度量,λ1代表低秩控制参数,λs代表稀疏控制参数,Y为基于残差M-L-S的拉格朗日乘子矩阵,ζ代表残差控制条件,η表示迭代终止条件。低秩图像能够消除内窥镜图像中高光带来的影响,将图像中包含高光信息、扰动信息、噪声信息全部分解到稀疏结果矩阵中,将图像中稳定部分、主成分分解到低秩结果矩阵中。低秩结果能够消除内窥镜图像中高光带来的影响,将图像中包含高光信息、扰动信息、噪声信息全部分解到稀疏结果矩阵中,将图像中稳定部分、主要成分分解到低秩结果矩阵中。
此时低秩结果中保留了图像中最稳定的组成部分,其图像中并没有包含任何具有显著变化的特征变化,而且低秩图像大多呈现一种模糊效果。但是,消化类器官软组织具有非常突出的轮廓变化,为此,本发明基于两个高斯滤波器将低秩图像中不稳定的抖动边缘信息消除的同时保留稳定的边缘轮廓信息。之后利用保边滤波器对低秩图像处理,消除图像中扰动信息,获得稳定的边缘轮廓信息。针对滤波后图像,基于梯度算子实现边缘梯度信息提取。其计算公式如下:
其中,BF代表保边滤波函数, Lp和Lq分别表示像素p和q的强度,代表空间高斯权重算子,代表像素范围域高斯权重算子,Wp代表归一化算子,i,j代表图像中像素的坐标位置,k,l代表i,j坐标点临近的坐标点,σ代表高斯函数的参数,BL代表保边滤波后的结果图像。针对BL图像,本发明对其进行梯度运算,找到图像中梯度信息,
其中,Gx,Gy分别代表方向梯度,BL代表保边滤波后的结果图像,M代表梯度的幅值大小,m,n代表图像的大小,θ代表梯度的方向。
计算结束后,获得图像的轮廓集合:C={E1,E2,E3,...,Et},然后,基于形态学运算,对细小的边缘轮廓线形态学闭运算,并对细微的边缘轮廓线进行空洞填充,最后,基于4-邻域的连通域准则最终获得目标的包围轮廓顶点。其计算过程为:
根据前一个轮廓自适应调整当前轮廓的大小、尺度,使得两个轮廓的大小、尺度保持一致,针对前一个轮廓的最外围包围轮廓线Cp={p1,p2,p3,…,pr},Cp代表前一个轮廓,pr代表轮廓上的坐标顶点,r代表轮廓上顶点的个数,及当前轮廓的包围轮廓线Cc={p1,p2,p3,…,ps},Cc代表当前轮廓,ps代表轮廓上的坐标顶点,s代表当前轮廓上顶点的个数;首先,求出轮廓的最小包围矩形的坐标:
BOX(Cp)=[Xp,Yp,Wp,Hp],
BOX(Cc)=[Xc,Yc,Wc,Hc],
β=sqrt((size(BOX(Cp)))/(size(BOX(Cc))),
其中,Cp代表前一个轮廓形状,Cc代表当前轮廓形状,BOX代表最小矩形函数,Xp,Yp,Wp,Hp分别代表前一个轮廓的起始坐标x、y位置信息和长度、宽度,Xc,Yc,Wc,Hc分别代表当前轮廓的起始坐标x、y位置信息和长度、宽度,β代表前一个轮廓的最小外接矩形与当前轮廓的最小外接矩形面积大小的倍数,size代表获得图像大小的函数,/代表除运算;
2、然后根据β的数值范围对当前轮廓进行自适应处理,其计算公式如下所示:
其中,β代表前一个轮廓的最小外接矩形与当前轮廓的最小外接矩形面积大小的倍数,Wc,Hc分别代表当前轮廓的长宽大小,Ki代表自适应调整前轮廓中包含的顶点个数,Kn代表自适应调整后轮廓中包含的顶点个数,Nc代表自适应处理后轮廓的最小包围矩形的大小,自适应处理后重新计算获得新的轮廓顶点H={p1,p2,p3,…,pm},m代表轮廓中包含的顶点坐标的个数;
针对轮廓顶点提取多尺度稠密几何特征描述子:TSA、CCD、REP、PMA。
多尺度TSA:TSA的几何特征包括:R和Q,其中R和Q分别表示由轮廓上的三个顶点和轮廓的几何中心点这四个点构成的两个三角形的面积大小,针对轮廓H={p1,p2,p3,…,pm},首先对轮廓上的顶点进行采样处理,然后本发明计算两个三角形R:piopω和Q:piopφ,其中φ=i-h(k),ω=i+h(k),h(k)=2k-1,1≤k≤ts,ts=log2(size(S′)),o代表轮廓的几何中心坐标,计算公式,如下所示:
S=S(H)={p1,p2,p3,...,pu},
ts=log2(size(S)),
其中,τ代表采样的基数,一般取64,n′代表计算获得的需要针对顶点进行采样后的顶点个数,Δd代表对轮廓顶点进行采样时的间隔大小,//代表求整运算,S表示对轮廓点进行采样的函数,xc,yc分别代表轮廓顶点的中心坐标,分别代表两个三角形的面积计算结果的集合,ts代表根据轮廓坐标顶点数量计算其特征提取的尺度大小,size代表计算轮廓的坐标顶点数量的函数,pi表示轮廓形状上的一个顶点,o代表轮廓的中心坐标点,size代表获得图像大小的函数,xi,yi分别代表轮廓顶点的坐标,R1 i(pi)代表轮廓顶点pi在尺度为1时与相邻顶点构成的三角形piopω的面积大小,Q1 i(pi)代表轮廓顶点pi在尺度为1时与相邻顶点构成的三角形piopφ的面积大小;
R和Q分别代表两个三角形的面积:Δpiopω和Δpiopφ,ω代表沿着当前顶点顺时针方向的下一个轮廓顶点,φ代表沿着当前顶点逆时针方向的下一个轮廓顶点;其中其中φ=i+h(k),ω=i+h(k),h(k)=2k-1,1≤k≤ts,代表三角形:piopω的面积计算函数,该三角形面积的计算公式如下:
多尺度CCD:通过计算当前顶点与三角形pφpipω的几何中心顶点之间的距离,计算过程如下:
其中,D(pi)代表计算两个顶点之间的欧式距离,xi和yi代表顶点pi的坐标,xc和yc代表三角形pφpipω的几何中心坐标,D(p1 i)代表尺度为1时三角形几何中心坐标与轮廓顶点坐标间的欧式距离,ts代表尺度大小,最终计算轮廓顶点的多尺度CCD特征描述符:MCCD;多尺度REP特征:通过计算多边形pφpipωo边长长度的比值大小获得;边长比值可以对轮廓的尺度和旋转变化鲁棒,其计算公式如下所述:
其中,φ代表i-h(k),ω代表i+h(k),h(k)=2k-1,κ,λ,μ,η,ρ分别代表多边形pφpipωo的边长大小,xc,yc分别代表轮廓的几何中心坐标,最后计算获得多尺度为每个点代表特征描述符:
多尺度PMA特征:通过计算多边形pφpipωo在多个尺度下的角度大小来获得轮廓顶点的多尺度角度特征,计算公式如下所述:
α=arccos(pipφ·pipω/|pipφ|×|pipω|)×180/π,
β=arccos(pφpω·opω/|pφpω|×|opω|)×180/π,
γ=arccos(pφo·pωo/|pφo|×|pωo|)×180/π,
δ=arccos(pωo·pωpφ/|pωo|×|pωpφ|)×180/π,
∈=arccos(pφpi·pφpω/|pipφ|×|pφpω|)×180/π,
其中,α,β,γ,δ,∈分别代表四边形pφpipωo的四个内角角度大小,pipφ,pipω,pφpω,opω,pφo,pωo分别代表四边形pφpipωo的四条边和两条对角线;然后,计算获得每个顶点的多尺度PMA特征描述符:
然后,本发明得到每个顶点的多尺度PMA特征描述符:
最后,提取轮廓顶点的13个多尺度几何特征,将轮廓顶点pi的多尺度特征描述子表示为:Mi={MTSA(pi),MCCD(pi),MREP(pi),MPMA(pi)},1<i<m,m代表轮廓上顶点的个数。
3、轮廓稠密特征描述子矩阵降维。根据上述轮廓特征描述矩阵,首先对每一列向量进行归一化,归一化公式如下所示:根据上述轮廓特征描述矩阵,首先对每一列向量进行归一化,归一化公式如下所示:
其中Mi代表轮廓坐标顶点,r′代表矩阵的列数,pi的多尺度特征描述矩阵,M矩阵中的值被规范化为-1到1;然后利用FFT对特征描述矩阵降维处理;然后分别得到前一轮廓和当前轮廓的稠密特征描述子矩阵:
Fp f=|{Mp 1,M,...,Mp L}T|,
Fc f=|{Mc 1,Mc 2,...,Mc L}T|,
其中Mp 1代表前一个轮廓顶点1的多尺度几何特征描述子,T代表矩阵转置,Mc 1代表当前轮廓顶点1的多尺度几何特征描述子,Fp f表示前一帧的轮廓形状的特征提取结果,Fc f表示当前帧的轮廓形状的特征提取结果,L代表特征描述矩阵降维后的维数大小;然后,通过计算两个特征向量之间的欧氏距离,来测量不同轮廓之间的相似程度,结果越大,代表两个轮廓之间的差异越大,反之亦然,相似性度量计算公式为:
其中Dp f表示前一帧的轮廓形状的特征提取结果,Dc f表示当前帧的轮廓形状的特征提取结果,L代表矩阵的行数,r′代表矩阵的列数。
4、优化轮廓跟踪、匹配结果。最后,针对轮廓形状的全局匹配结果,基于目标关键张量空间中的目标轮廓形状匹配结果进行优化。
对于内窥镜下的图像序列F:F={I1,I2,I3...Is’},每一帧图像Ii包含若干个轮廓形状:s’为图像序列的数量;Ii={C1,C2,C3...Ck’},Ck’为图像中包含的所有轮廓的数量。
对于每一个目标轮廓形状:Ct,计算每一帧Ii中对应的目标轮廓结果,然后构造关键张量空间Tc,其中Tc表示目标轮廓Ct的关键张量空间:Tc={Ct 1,Ct 2,Ct 3...Ct q,},q’代表张量空间中目标的模板数量。如果全局匹配结果显示目标变形或遮挡大于阈值,将更新目标Ct的关键张量空间Tc,最后,将优化内镜图像序列中目标轮廓形状的匹配关系。
内窥镜图像中轮廓提取结束后,通过计算轮廓间的相似度大小,在内窥镜图像序列中检测目标轮廓,最终实现软组织表面轮廓提取、跟踪,其结果如图5所示。其中(a)代表原始图像;(b)代表拉普拉斯算子;(c)代表Canny算子;(d)代表高斯差分算子;(e)代表本发明的结果。
实验使用的设备为Python、Intel(R)i7 8700K CPU(4.8GHz,8核)和32GB RAM,运行在Windows 10 64位系统上。
本发明未详细阐述的技术内容属于本领域技术人员的公知技术。
尽管上面对本发明说明性的具体实施方式进行了描述,以便于本技术领的技术人员理解本发明,但应该清楚,本发明不限于具体实施方式的范围,对本技术领域的普通技术人员来讲,只要各种变化在所附的权利要求限定和确定的本发明的精神和范围内,这些变化是显而易见的,一切利用本发明构思的发明创造均在保护之列。
Claims (8)
1.一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法,其特征在于,包括以下步骤:
第一步:基于双边滤波器增强自适应RPCA分解所获得的低秩图像的边缘轮廓,减少图像中的干扰,然后基于梯度算子提取边缘轮廓信息,并通过形态学运算获得目标的轮廓形状;
第二步:通过提取轮廓形状上顶点的多尺度几何特征描述子:包括:轮廓上相关三个顶点与轮廓几何中心点构成的两个三角形面积TSA、轮廓上当前顶点与相邻两个顶点构成三角形的几何中心点与当前顶点的距离CCD、计算多边形边长的比例REP、多边形的角度大小PMA来构造轮廓形状的稠密特征描述子,使其对轮廓形状的尺度、大小、旋转变化鲁棒;
第三步:利用FFT对轮廓形状的稠密特征描述子降维,通过计算两个轮廓的特征矩阵间的距离大小来衡量不同轮廓间的相似程度,根据目标轮廓形状,在内窥镜图像序列中对目标轮廓形状进行匹配、跟踪,在每一帧中计算获得目标轮廓形状;
第四步:根据第三步的跟踪结果,基于时空连续性原理,运用目标轮廓形状的关键张量空间对目标轮廓的跟踪、匹配结果进行优化。
2.根据权利要求1所述的一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法,其特征在于:
所述步骤1中,针对低秩图像利用Sobel梯度算子提取目标稳定的边缘轮廓信息,首先基于自适应RPCA获得图像的低秩结果,低秩矩阵分解公式为:
其中,O(L,S,Y)代表目标函数,||·||1表示1-范数,||·||*代表核范数,L代表低秩矩阵,S代表稀疏矩阵,M代表迭代计算过程中的中间结果,H代表检测获得的高光图像,μ代表经验常数,代表M-L-S矩阵的Forbenius范数,<Y,M-L-S>代表迭代计算过程中的残差结果,代表矩阵S的1-范数,其中m,n分别代表矩阵的行数和列数,||S-H||2表示稀疏结果与检测到的高光图像之间的相似性度量,λ1代表低秩控制参数,λs代表稀疏控制参数,Y为基于残差M-L-S的拉格朗日乘子矩阵,ζ代表残差控制条件,η表示迭代终止条件;低秩图像能够消除内窥镜图像中高光带来的影响,将图像中包含高光信息、扰动信息、噪声信息全部分解到稀疏结果矩阵中,将图像中稳定部分、主成分分解到低秩结果矩阵中。
6.根据权利要求1所述的一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法,其特征在于:
所述步骤2中,软组织表面轮廓形状的多尺度稠密几何特征提取具体为:
(1)根据前一个轮廓自适应调整当前轮廓的大小、尺度,使得两个轮廓的大小、尺度保持一致,针对前一个轮廓的最外围包围轮廓线Cp={p1,p2,p3,…,pr},Cp代表前一个轮廓,pr代表轮廓上的坐标顶点,r代表轮廓上顶点的个数,及当前轮廓的包围轮廓线Cc={p1,p2,p3,…,ps},Cc代表当前轮廓,ps代表轮廓上的坐标顶点,s代表当前轮廓上顶点的个数;首先,求出轮廓的最小包围矩形的坐标:
BOX(Cp)=[Xp,Yp,Wp,Hp],
BOX(Cc)=[Xc,Yc,Wc,Hc],
β=sqrt((size(BOX(Cp)))/(size(BOX(Cc))),
其中,Cp代表前一个轮廓形状,Cc代表当前轮廓形状,BOX代表最小矩形函数,Xp,Yp,Wp,Hp分别代表前一个轮廓的起始坐标x,y位置信息和长度、宽度,Xc,Yc,Wc,Hc分别代表当前轮廓的起始坐标x,y位置信息和长度、宽度,β代表前一个轮廓的最小外接矩形与当前轮廓的最小外接矩形面积大小的倍数,size代表获得图像大小的函数,/代表除运算;
然后根据β的数值范围对当前轮廓进行自适应处理,其计算公式如下所示:
其中,β代表前一个轮廓的最小外接矩形与当前轮廓的最小外接矩形面积大小的倍数,Wc,Hc分别代表当前轮廓的长宽大小,ki代表自适应调整前轮廓中包含的顶点个数,kn代表自适应调整后轮廓中包含的顶点个数,Nc代表自适应处理后轮廓的最小包围矩形,自适应处理后重新计算获得新的轮廓顶点H={p1,p2,p3,…,pm’},m’代表轮廓中包含的顶点坐标的个数;
(2)针对轮廓顶点提取多尺度稠密几何特征描述子:TSA、CCD、REP、PMA;
多尺度TSA:TSA的几何特征包括:R和Q,其中R和Q分别表示由轮廓上的相关的三个顶点和轮廓的几何中心点这四个点构成的两个三角形的面积大小,针对轮廓H={p1,p2,p3,…,pm’},首先对轮廓上的顶点进行采样处理,然后计算两个三角形R:piopω和Q:piopφ的面积大小,其中φ=i-h(k′),ω=i+h(k′),h(k′)=2k′-1,1≤k′≤ts,ts=log2(size(S′)),o代表轮廓的几何中心坐标,其计算过程如下所述:
S′=S(H)={p1,p2,p3,...,pm′},
ts=log2(size(S′)),
其中,τ代表采样的基数,一般取64,n′代表计算获得的需要针对顶点进行采样后的顶点个数,Δd代表对轮廓顶点进行采样时的间隔大小,//代表求整运算,S表示对轮廓点进行采样的函数,xc,yc分别代表轮廓顶点的中心坐标,分别代表两个三角形的面积计算结果的集合,ts代表根据轮廓坐标顶点数量计算其特征提取的尺度大小,size代表计算轮廓的坐标顶点数量的函数,pi表示轮廓形状上的一个顶点,o代表轮廓的中心坐标点,size代表获得图像大小的函数,xi,yi分别代表轮廓顶点的坐标,R1 i(pi)代表轮廓顶点pi在尺度为1时与相邻顶点构成的三角形piopω的面积大小,Q1 i(pi)代表轮廓顶点pi在尺度为1时与相邻顶点构成的三角形piopφ的面积大小;
R和Q分别代表两个三角形的面积:Δpiopω和Δpiopφ,ω代表沿着当前顶点顺时针方向的下一个轮廓顶点,φ代表沿着当前顶点逆时针方向的下一个轮廓顶点;其中φ=i-h(k′),ω=i+h(k′),h(k′)=2k′-1,1≤k′≤ts,代表三角形:piopω的面积计算函数,该三角形面积的计算公式如下:
多尺度CCD:通过计算当前顶点与三角形pφpipω的几何中心顶点之间的距离,计算过程如下:
其中,D(pi)代表计算两个顶点之间的欧式距离,xi,yi代表顶点pi的坐标,xc,yc代表三角形pφpipω的几何中心坐标,D(p1 i)代表尺度为1时三角形几何中心坐标与轮廓顶点坐标间的欧式距离,ts代表尺度大小,最终计算轮廓顶点的多尺度CCD特征描述符:MCCD;
多尺度REP特征:通过计算多边形pφpipωo边长长度的比值大小获得;边长比值对轮廓的尺度和旋转变化鲁棒,其计算公式如下所述:
其中,φ代表i-h(k),ω代表i+h(k),h(k)=2k-1,κ,λ,μ,η,ρ分别代表多边形pφpipωo的边长大小,xc,yc分别代表轮廓的几何中心坐标,o代表轮廓的几何中心坐标,最后计算获得多尺度为每个点代表特征描述符:
多尺度PMA特征:通过计算多边形pφpipωo在多个尺度下的角度大小来获得轮廓顶点的多尺度角度特征,计算公式如下所述:
α=arccos(pipφ·pipω/|pipφ|×|pipω|)×180/π,
β=arccos(pφpω·opω/|pφpω|×|opω|)×180/π,
Y=arccos(pφo·pωo/|pφo|×|pωo|)×180/π,
δ=arccos(pωo·pωpφ/|pωo|×|pωpφ|)×180/π,
∈=arccos(pφpi·pφpω/|pipφ|×|pφpω|)×180/π,
其中,α,β,γ,δ,∈分别代表四边形pφpipωo的四个内角角度大小,pipφ,pipω,pφpω,opω,pφo,pωo分别代表四边形pφpipωo的四条边和两条对角线;然后,计算获得每个顶点的多尺度PMA特征描述符:
最后,提取轮廓顶点的13个多尺度几何特征,将轮廓顶点pi的多尺度特征描述子表示为:Mi={MTSA(pi),MCCD(pi),MREP(pi),MPMA(pi)},1<i<m′,m′代表轮廓上顶点的个数。
7.根据权利要求1所述的一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法,其特征在于:所述步骤3中,特征描述子矩阵降维:
根据上述轮廓特征描述矩阵,首先对每一列向量进行归一化,归一化公式如下所示:
其中Mi代表轮廓坐标顶点,r′代表矩阵的列数,pi的多尺度特征描述矩阵,M矩阵中的值被规范化为-1到1;然后利用FFT对特征描述矩阵降维处理;然后分别得到前一轮廓和当前轮廓的稠密特征描述子矩阵:
Fp f=|{Mp 1,M,...,Mp L}T|,
Fc f=|{Mc 1,Mc 2,...,Mc L}T|,
其中Mp 1代表前一个轮廓顶点1的多尺度几何特征描述子,T代表矩阵转置,Mc 1代表当前轮廓顶点1的多尺度几何特征描述子,Fp f表示前一帧的轮廓形状的特征提取结果,Fc f表示当前帧的轮廓形状的特征提取结果,L代表特征描述矩阵降维后的维数大小;然后,通过计算两个特征向量之间的欧氏距离,来测量不同轮廓之间的相似程度,结果越大,代表两个轮廓之间的差异越大,反之亦然,相似性度量计算公式为:
其中Dp f表示前一帧的轮廓形状的特征提取结果,Dc f表示当前帧的轮廓形状的特征提取结果,L代表矩阵的行数,r′代表矩阵的列数。
8.根据权利要求1所述的一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法,其特征在于:所述步骤4中,优化跟踪、匹配结果具体包括:根据步骤三的结果,针对轮廓形状的全局匹配结果,基于目标关键张量空间中的目标轮廓形状匹配结果进行优化;对于内窥镜下的图像序列F:
F={I1,I2,I3...Is’},
每一帧图像Ii包含若干个轮廓形状:s’为图像序列数量;
Ii={C1,C2,C3...Ck’},k’为图像中包含的所有轮廓的数量;对于每一个目标轮廓形状:Ct,计算每一帧Ii中对应的目标轮廓结果,然后构造关键张量空间Tc,其中Tc表示目标轮廓Ct的关键张量空间:Tc={Ct 1,Ct 2,Ct 3...Ct q’},q’代表张量空间中目标的模板数量;如果全局匹配结果显示目标变形或遮挡大于阈值,将更新目标Ct的关键张量空间Tc,最后,将优化内镜图像序列中目标轮廓形状的匹配关系。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010915397.2A CN112435211B (zh) | 2020-09-03 | 2020-09-03 | 一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010915397.2A CN112435211B (zh) | 2020-09-03 | 2020-09-03 | 一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112435211A true CN112435211A (zh) | 2021-03-02 |
CN112435211B CN112435211B (zh) | 2022-04-26 |
Family
ID=74689971
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010915397.2A Active CN112435211B (zh) | 2020-09-03 | 2020-09-03 | 一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112435211B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113569876A (zh) * | 2021-08-31 | 2021-10-29 | 东软睿驰汽车技术(沈阳)有限公司 | 图像特征提取方法、装置和电子设备 |
CN117315288A (zh) * | 2023-11-28 | 2023-12-29 | 图兮数字科技(北京)有限公司 | 目标对象的轮廓确定方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639935A (zh) * | 2009-09-07 | 2010-02-03 | 南京理工大学 | 基于几何活动轮廓目标跟踪的数字人连续切片图像分割方法 |
CN107093184A (zh) * | 2017-04-11 | 2017-08-25 | 湖北理工学院 | 一种基于稀疏特征和形状相关性的超声图像序列分割方法 |
CN108256394A (zh) * | 2016-12-28 | 2018-07-06 | 中林信达(北京)科技信息有限责任公司 | 一种基于轮廓梯度的目标跟踪方法 |
-
2020
- 2020-09-03 CN CN202010915397.2A patent/CN112435211B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101639935A (zh) * | 2009-09-07 | 2010-02-03 | 南京理工大学 | 基于几何活动轮廓目标跟踪的数字人连续切片图像分割方法 |
CN108256394A (zh) * | 2016-12-28 | 2018-07-06 | 中林信达(北京)科技信息有限责任公司 | 一种基于轮廓梯度的目标跟踪方法 |
CN107093184A (zh) * | 2017-04-11 | 2017-08-25 | 湖北理工学院 | 一种基于稀疏特征和形状相关性的超声图像序列分割方法 |
Non-Patent Citations (1)
Title |
---|
RANYANG LI 等: "Specular Reflections Removal for Endoscopic Image Sequences With Adaptive-RPCA Decomposition", 《IEEE TRANSACTIONS ON MEDICAL IMAGING》 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113569876A (zh) * | 2021-08-31 | 2021-10-29 | 东软睿驰汽车技术(沈阳)有限公司 | 图像特征提取方法、装置和电子设备 |
CN117315288A (zh) * | 2023-11-28 | 2023-12-29 | 图兮数字科技(北京)有限公司 | 目标对象的轮廓确定方法、装置、电子设备及存储介质 |
CN117315288B (zh) * | 2023-11-28 | 2024-02-13 | 图兮数字科技(北京)有限公司 | 目标对象的轮廓确定方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112435211B (zh) | 2022-04-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3695384B1 (en) | Point cloud meshing method, apparatus, device and computer storage media | |
CN109522908B (zh) | 基于区域标签融合的图像显著性检测方法 | |
Duan et al. | 3D point cloud denoising via deep neural network based local surface estimation | |
CN110334762B (zh) | 一种基于四叉树结合orb和sift的特征匹配方法 | |
CN107424171B (zh) | 一种基于分块的抗遮挡目标跟踪方法 | |
CN106228544B (zh) | 一种基于稀疏表示和标签传播的显著性检测方法 | |
CN103310453B (zh) | 一种基于子图像角点特征的快速图像配准方法 | |
US8798377B2 (en) | Efficient scale-space extraction and description of interest points | |
CN104915965A (zh) | 一种摄像机跟踪方法及装置 | |
Zhang et al. | Estimation of motion parameters from blurred images | |
CN112435211B (zh) | 一种内窥镜图像序列中轮廓稠密特征点描述和匹配的方法 | |
WO2017070923A1 (zh) | 一种人脸识别方法和装置 | |
Chen et al. | Fast defocus map estimation | |
CN109410246B (zh) | 基于相关滤波的视觉跟踪的方法及装置 | |
CN110570394A (zh) | 医学图像分割方法、装置、设备及存储介质 | |
CN106934398B (zh) | 基于超像素聚类和稀疏表示的图像去噪方法 | |
CN103761768A (zh) | 一种三维重建的立体匹配方法 | |
CN109064402B (zh) | 基于增强非局部总变分模型先验的单幅图像超分辨率重建方法 | |
CN107451595A (zh) | 基于混合算法的红外图像显著性区域检测方法 | |
Okorie et al. | Region-based image registration for remote sensing imagery | |
Moradi et al. | Deformable registration using scale space keypoints | |
CN110458876A (zh) | 基于sar-sift特征的多时相polsar图像配准方法 | |
CN113935925B (zh) | 气动光学效应空变模糊图像复原方法及系统 | |
CN108334851B (zh) | 基于各向异质性的快速极化sar图像分割方法 | |
CN106056551A (zh) | 基于局部相似样例学习的稀疏去噪方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |