CN113205553A - 一种基于三通道特征融合的光条纹中心提取方法 - Google Patents

一种基于三通道特征融合的光条纹中心提取方法 Download PDF

Info

Publication number
CN113205553A
CN113205553A CN202110320796.9A CN202110320796A CN113205553A CN 113205553 A CN113205553 A CN 113205553A CN 202110320796 A CN202110320796 A CN 202110320796A CN 113205553 A CN113205553 A CN 113205553A
Authority
CN
China
Prior art keywords
image
light stripe
light
original
stripe
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110320796.9A
Other languages
English (en)
Inventor
祝振敏
吴子伟
郑卫华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
East China Jiaotong University
Original Assignee
East China Jiaotong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by East China Jiaotong University filed Critical East China Jiaotong University
Priority to CN202110320796.9A priority Critical patent/CN113205553A/zh
Publication of CN113205553A publication Critical patent/CN113205553A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • G06T7/66Analysis of geometric attributes of image moments or centre of gravity
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/20Image enhancement or restoration using local operators
    • G06T5/30Erosion or dilatation, e.g. thinning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/194Segmentation; Edge detection involving foreground-background segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20056Discrete and fast Fourier transform, [DFT, FFT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20064Wavelet transform [DWT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30172Centreline of tubular or elongated structure

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Geometry (AREA)
  • Image Analysis (AREA)

Abstract

一种基于三通道特征融合的光条纹中心提取方法,该方法包括:搭建基于双目结构光的视觉测量系统:对原始结构光条纹图像I_ Original 进行高斯滤波处理以消除噪声和高光带来的影响,通过Gabor滤波器、HOG特征描述器以及LBP算子得到原始结构光条纹图像的三通道特征图,对图像进行了像素增强,并对不连续的区域进行填充,得到条纹中心线。本发明相比传统的方法时长更短,且平滑度更好。

Description

一种基于三通道特征融合的光条纹中心提取方法
技术领域
本发明属于视觉非接触式测量领域,一种基于三通道特征融合的光条纹中心提取方法。
背景技术
在视觉测量以及目标物体表面形貌三维重构的过程中,通过视差图像并结合相机标定参数即可得到目标对象的三维尺寸信息,因此视差图像的求取有着重要的意义。为了得到视差图像,必须找到对应的特征点,并进行匹配。传统的双目视觉测量技术严重依赖于左右图像中目标对象的纹理信息和颜色特征来确定特征点。对于不同的目标对象和不同的环境光照,特征点的提取结果有较大的差异。主动视觉测量方法主要依赖于结构光,作为一种非接触测量技术,结构光传感器通过主动在被测目标对象表面投射激光条纹来获取大量有效数据,具有结构简单,成本低和精度高等优点,并且该过程不受物体表面纹理信息和颜色特征的干扰。由于光条纹中心点包含了特征点的信息以及激光器、相机和被测对象三者之间的空间位置关系,因此光条纹中心点坐标的精确提取对系统的标定以及被测对象的三维重构和尺寸测量至关重要。本发明在对比几何中心法,灰度重心法以及Steger算法的基础上提取出了一种基于三通道特征的光条中心提取算法。三种通道的特征图像分别包含了光条纹的局部信息和全局信息,且对0级工件的测量精度为0.2709mm
发明内容
发明旨在通过一种基于三通道的结构光条纹中心提取方法,进而完成目标物体重构,实现对目标物体三维重构和尺寸测量的高精度测量。本发明通过如下技术方案实现:
一种基于三通道特征融合的光条纹中心提取方法,包括:
(1) 采集原始的结构光条纹图像I_ Original ,并对其进行滤波处理;
(2) 分别在三种特征描述因子下得到光条纹的三种特征图像;
(3) 融合三种特征图像,提取光条区域并提取中心线。
1.在本发明中,为了消除成像过程中高光对目标物体表面特征信息提取带来的影响,首先在CCD相机前添加了偏振装置。其次将七线结构光引入测量系统更进一步削弱物体表面纹理对特征提取和匹配带来的影响。
2.本发明采用三种特征因子Gabor、LBP以及HOG对目标物体的原始结构光条纹图像进行处理,得到对应的三通道特征图像I_ Gabor I_ HOG I_ LBP ,其对应的过程如下:
① 原始结构光条纹图像Gabor特征提取
Gabor变换属于加窗傅里叶小波变换,其对图像纹理信息的提取可以在不同尺度和多个方向上实现。由于该滤波器对结构光条纹图像中的亮度变化具有鲁棒性,因此该滤波器在一定程度上能应对图像中光照变化和噪声的影响。并且Gabor函数相仿与人眼视野的感受,所以其在目标物体纹理特征提取方面有很大的优势。借助二维高斯函数对一些具有一定频率和方向的正弦平面波进行调制得到一个复正弦函数,即为二维Gabor函数,该函数能够实现条纹图像局部频域特征的提取。
一个二维正态分布函数如式(1)所示。
Figure 572834DEST_PATH_IMAGE001
其中,ab、σx、σyρ为常数,ab分别为随机变量xy的均值,σx和σy为两者的方差,ρ为两者之间的相关系数。Gabor函数本质就是用一个abρ均等于0的二维高斯函数对一个正弦平面波调制得到的,此时的式(1)可以转变为式(2)。
Figure 841004DEST_PATH_IMAGE002
因此Gabor函数的复数形式可以表示为式(3)。
Figure 364389DEST_PATH_IMAGE003
其中:
Figure 794234DEST_PATH_IMAGE004
该函数的实数部分和虚数部分为公式(5)所示。
Figure 35859DEST_PATH_IMAGE005
在该公式中,λ代表余弦因子的波长,θ为Gabor核函数方向,Ψ为相位偏移,γ为空间的宽高比并且指定了Gabor函数决定的椭圆,其为0.5。σ高斯函数标准差,它与平行和抑制区条纹的数量成正比。1/λ为余弦因子的频率,σ/λ的比值决定了半响应空间带宽d,带宽d如公式(6)所示。
Figure 842141DEST_PATH_IMAGE006
又有:
Figure 485612DEST_PATH_IMAGE007
Ψ=0°和Ψ=90°依次返回Gabor滤波器的实部和虚部,Gabor滤波器的实部是偶数对称的。采用Gabor滤波器的实部来完成光条纹的特征提取。根据文献[77],本文采用30°定向分离角,即θ分别取0°,30°,60°,90°和120°,150°,并采用如下频率:
Figure 820778DEST_PATH_IMAGE008
其中,i=1,2,…,log2(N c/8),N c,其中N c是图像的宽度,且其为2的幂次方。因此有:
Figure 549700DEST_PATH_IMAGE009
因此,通过Gabor滤波器的实部对I_ Original 进行特征提取即得其第一个通道的特征图像I_ Gabor
② 原始结构光条纹图像HOG特征提取
HOG特征中包含的条纹梯度幅值以及方向密度能够很好的表示其表象和形状,条纹区域中某一灰度值为I(x,y)的像素点(x,y),其梯度如式(10)所示。
Figure 628515DEST_PATH_IMAGE010
该像素点在水平方向和竖直方向的梯度分别为G x (x,y)和G y (x,y),因此其梯度幅值M(x,y)和梯度方向α (x,y)为式(11)所示。
Figure 657650DEST_PATH_IMAGE011
为了削弱光照对光条纹图像带来的影响,本文首先通过公式(12)所示的Gamma压缩对原始的结构光条纹图像进行归一化操作。
Figure 429297DEST_PATH_IMAGE012
对于结构光条纹图像来说,当gamma>1时,图像较亮的区域得以拉伸,较暗的区域则相反,当gamma<1时,情况相反。本发明选取的gamma值为0.5。
通过HOG特征提取常用的算子[-1 0 1] T和[1 0 -1]T对结构光条纹图像进行卷积运算可求得G x (x,y)和G y (x,y),将两个梯度分量带入公式(11)即可求解出该条纹图像范围内每一点像素的梯度大小和方向。对于采集到的大小为1200×1920的结构光条纹图像,首先将8 pixel×8 pixel定义为一个Cell,该 Cell 里面的梯度方向α (x,y)又被分为 9 个区间(bin),即产生9个方向块。经过M(x,y)对每个像素点的梯度方向计数进行加权处理,则每个Cell里的像素点落在每一个方向块i的计数Num_i (i=1,2,3,…,9)通过公式(13)可以统计得出。
Figure 379936DEST_PATH_IMAGE013
其次将2×2个单元定为一个块,用以8个像素为步长的滑窗对结构光条纹图像进行扫描,由此可以计算出在本文采集的结构光条纹图像中特征总数为36×149×239个,这1281996个特征即为本文结构光条纹最终的HOG特征,此时通过HOG对I_ Original 进行特征提取即得其第二个通道的特征图像I_ HOG
③ 原始结构光条纹图像LBP特征提取
圆形邻域LBP特征算子的邻域范围可被任意扩大,因此更能适应目标图像尺寸的变化。对于一个给定的邻域半径为R,采样点个数为p的圆形算子,该算子可以表示为LBP p R 。根据具体的情况,调整采样区域的半径可使LBP特征能够更好得满足结构光条纹图像中不同尺寸和频率的纹理特征,则邻域内的第p个像素点坐标与中心点坐标(x c, y c )的关系如式(14)。
Figure 262441DEST_PATH_IMAGE014
其中,R是采样的半径,p是第p个采样点,P为总采样的个数。对于计算出的非整数像素值,本文采用插值法计算得到对应的插值点来代表该像素点的整数像素值。考虑到初始LBP特征存在的不足之处,本发明采用圆形LBP特征算子对结构光条纹进行特征提取。当P=8时,经过式(14)得到的(x c, y c )为256个,与结构光条纹图像的灰度等级相对应,因此采样点的个数定为8,通常情况下P是R 的8倍。此时即得到光条图像的第三个通道特征图I_ LBP
3. 融合三通道特这个图象,对该图像进行灰度增强,提取出光条所在区域并对其中的不连续区域进行灰度填充,最后利用骨架细化法得到光条中心线。
① 三通道特征融合
由于上述三个特征描述因子下得到的特征图像对应着RGB通道,因此将三者的权重设为1,融合的过程如公式(15)所示。
Figure 614925DEST_PATH_IMAGE015
其中, I_ final 为最终的三通道特征融合光条纹图像。其中I_ Gabor I_ HOG I_ LBP 这三个通道光条特征对应的权重分别为ɷ 1ɷ 2ɷ 3
② 光条纹所在区域提取
通过三个通道特征提取并分别对三幅特征图像赋予相同的权重可以得出最终的特征融合图像。另外本发明首先对I_final进行像素强度增强,其次求出整幅结构光条纹图像中的灰度最大值I max。考虑到光条纹的能量比较强,通过多次实验本发明以灰度最大值的80%作为阈值,将光条纹从背景信息中分割出来。从背景图像中分割出的光条区域内存在不连续的现象,因此发明采用灰度膨胀算法对此进行填充,即结合光条图像中的对象边界对间断区域实现像素添加。
③ 光条中心线提取
通过三个通道特征提取并分别对三幅特征图像赋予相同的权重可以得出最终的特征融合图像。另外本发明首先对I_ final 进行像素强度增强,其次求出整幅结构光条纹图像中的灰度最大值I max。考虑到光条纹的能量比较强,因此通过多次实验本发明以灰度最大值的80%作为阈值,可将光条纹从背景信息中分割出来。从背景图像中分割出的光条区域内存在不连续的现象,因此采用灰度膨胀算法对此进行填充,即结合光条图像中的对象边界对间断区域实现像素添加。
本发明提出了一种基于三通道特征的光条中心提取算法,相较于其他三种现存的算法,该算法在条纹中心线平滑度以及提取时间上都具有一定的优势。将该提取方法应用于传统的双目视觉测量系统中,可以达到较高的测量精度。
附图说明
图1为Gabor滤波器对应的光条纹第一通道特征图I_ Gabor
图2为HOG特征描述器对应的光条纹第二通道特征图I_ HOG
图3为LBP算子对应的光条纹第三通道特征图I_ LBP
图4为光条中心线提取过程。
具体实施方式
本发明提出了一种基于三通道特征融合的光条纹中心提取算法,将该方法对应光条纹的中心提取效果与传统的方法相比,并将其用于目标物体的三维重构和尺寸测量。通过光条提取时长以及三维还原的效果和尺寸测量的精度来验证本发明的可行性。从具体的测量结果对比发现,本发明相比传统的方法时长更短,且平滑度更好。
具体实施方式一:光条纹提取时长对比
通过相机捕获原始光条纹图像,并经过Gabor、LBP以及HOG这三种特征描述因子下得到光条纹的三种特征图像,并对三种图像进行融合,得到最终的光条中心线。从与几何中心法、灰度重心法以及Steger算法对应的光条中心提取时长的比较,以及与提取精度相对较高的Steger算法对应光条平滑程度的比较验证了本发明在提取时长和提取平滑度方面都具有优势。
表1:四种方法对应的光条中心提取时长
Figure 337899DEST_PATH_IMAGE016
表2:光条提取效果平滑度分析
Figure 775834DEST_PATH_IMAGE017
选取精度为0级的量块,其标准的尺寸为100×35(mm)。通过左右相机同时捕获原始结构光条纹,并通过上述方案提取左右目标图像中的光条中心线,同时匹配左右图像中相对应的中心点,完成目标对象长边和短边尺寸的测量。
表3:目标物体长边测量结果
Figure 196451DEST_PATH_IMAGE018
表4:目标物体短边测量结果
Figure 669021DEST_PATH_IMAGE019

Claims (1)

1.一种基于三通道特征融合的光条纹中心提取方法,其特征在于,包括:
S1.搭建基于双目结构光的视觉测量系统,该系统包含:CCD相机、激光器以及计算机和偏振装置,激光器投射光条纹在被测物体表面的同时相机捕获原始结构光条纹图像I_ Original
S2.对原始结构光条纹图像I_ Original 进行高斯滤波处理以消除噪声和高光带来的影响,
S3.通过Gabor滤波器、HOG特征描述器以及LBP算子得到原始结构光条纹图像的三通道特征图I_ Gabor I_ HOG 以及I_ LBP ,并对该三通道的图像进行特征融合得到最终的结构光条纹特征图像I_ final
S4.对I_ final 进行像素增强,以整幅图像中最大灰度值I max 的80%为阈值将光条区域从背景信息中分割出来,
S5.利用灰度膨胀算法对条纹的不连续区域进行填充,结合骨架细化法得到条纹中心线并将其映射到原始的结构光条纹图像中,
S6.将光条纹的中心坐标(x c,y c)映射到原结构光条纹图像即完成结构光条纹的中心提取,其步骤如下:
S31通过Gabor滤波器得到原始光条纹图像的特征图I_ Gabor :
Gabor函数是由一定频率和方向的正弦平面波组成,并经由二维高斯函数调制的复正弦函数,Gabor滤波器对光条纹图像中的亮度变化具有鲁棒性,因此能够在给定区域内提取出结构光条纹图像的局部频域特征,该函数复数形式可以表示为式(1),
Figure 895504DEST_PATH_IMAGE001
该函数的实数部分和虚数部分为公式(2)所示,
Figure 812645DEST_PATH_IMAGE002
λ代表余弦因子的波长,(x’,y’)为像素值在该位置的导数,θ为Gabor核函数方向,ψ为相位偏移,γ为空间的宽高比并且指定了Gabor函数决定的椭圆,其通常为0.5,σ为高斯函数标准差,它与平行和抑制区条纹的数量成正比,Gabor滤波器的实部是偶数对称的因此采用其实部来完成光条纹的特征提取,即可得到原始光条纹第一个通道的特征图像I_ Gabor
S32通过HOG特征描述器提取得到原始光条纹图像的特征图I_ HOG :
HOG特征中包含的条纹梯度幅值以及方向密度能够很好的表示其表象和形状,条纹区域中某一灰度值为I(x,y)的像素点(x,y),其梯度如式(3)所示,
Figure 592382DEST_PATH_IMAGE003
该像素点在gard(I)为该像素点的梯度,水平方向和竖直方向的梯度分别为G x (x,y)和G y (x,y),因此其梯度幅值M(x,y)和梯度方向α (x,y)为式(4)所示,
Figure 987591DEST_PATH_IMAGE004
为了削弱光照对光条纹图像带来的影响,首先通过公式(5)所示的Gamma压缩对原始的结构光条纹图像进行归一化操作,
Figure 270805DEST_PATH_IMAGE005
对于结构光条纹图像来说,当gamma>1时,图像中较亮区域会被拉伸,较暗的区域则相反,当gamma<1时,情况相反,对于采集到的大小为m×n的结构光条纹图像,本文首先定义一个大小为d*d的单元,该单元里面的梯度方向α (x,y)又被分为q个区间,即产生q个方向块,经过M(x,y)对每个像素点的梯度方向计数进行加权处理,则每个单元里的像素点落在每一个方向块i的计数Num_i (i=1,2,3,…,9)通过公式(6)可以统计得出,
Figure 93267DEST_PATH_IMAGE006
其次用以d个像素为步长的滑窗对结构光条纹图像进行扫描,即可得到原始光条纹第二个通道的特征图像I_ HOG
S33通过LBP特征算子提取得到原始结构光条纹图像的特征图I_ LBP :
圆形LBP算子能够更好得满足结构光条纹图像中不同尺寸和频率的纹理特征,对于一个给定的邻域半径为R,采样点个数为p的圆形算子,P为总采样个数,其邻域内的第p个像素点坐标与中心点坐标(x c, y c )的关系如式(7),
Figure 360301DEST_PATH_IMAGE007
对于计算出的非整数像素值,采用插值法计算得到对应的插值点即可代表该像素点的整数像素值;通过该特征提取即可得到原始光条纹第三个通道的特征图像I_ LBP
S33通过图像融合算法得到最终的光条纹特征图像I_ final ,并对其进行处理:融合的过程如公式(8)所示,
Figure 559201DEST_PATH_IMAGE008
其中,I_ final 为最终的三通道特征融合光条纹图像;其中I_ Gabor I_ HOG I_ LBP 这三个通道光条特征对应的权重分别为ɷ 1ɷ 2ɷ 3;且权重设为1,
S41对I_ final 进行像素强度增强,求出整幅结构光条纹图像中的灰度最大值I max,以灰度最大值的80%作为阈值,将光条纹从背景信息中分割出来,从背景图像中分割出的光条区域内存在不连续的现象,采用灰度膨胀算法对此进行填充,即结合光条图像中的对象边界对间断区域实现像素添加,此时的光条纹已经变成了一个联通的区域,通过骨架细化方法即可提取出光条纹中心,采用骨架细化方法前,对膨胀后的光条纹进行二值化处理是必要的,处理后的图像为S,计算S的欧几里德距离变换,如公式(9)所示,
Figure 228079DEST_PATH_IMAGE009
其中,(x i 0,y j 0)(i=1,2,…1200;j=1,2,…,1920)为膨胀后的结构光条纹图像中与非零元素(x i ,y j )相邻的某一零元素的坐标,两者之间的距离即为欧式距离,通过该公式此时可以得到任意零元素与其相邻的非零元素的最短距离D以及该非零元素的位置L,用矩阵[D,L]来表示,然后将[D,L]进行取反操作得到-[D,L]矩阵,其次对S进行n(n=∞)次形态学处理,直至图像不再发生变化,移除位于光条纹对象边界上的像素,但不改变光条纹的连续性和欧拉数,则剩余的像素即为光条纹的骨架化图像Skel,此时光条纹的中心坐标(x c,y c)可以表示为式(10),
Figure 690285DEST_PATH_IMAGE010
S61将(x c,y c)映射到原结构光条纹图像即完成光条的中心提取。
CN202110320796.9A 2021-03-25 2021-03-25 一种基于三通道特征融合的光条纹中心提取方法 Pending CN113205553A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110320796.9A CN113205553A (zh) 2021-03-25 2021-03-25 一种基于三通道特征融合的光条纹中心提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110320796.9A CN113205553A (zh) 2021-03-25 2021-03-25 一种基于三通道特征融合的光条纹中心提取方法

Publications (1)

Publication Number Publication Date
CN113205553A true CN113205553A (zh) 2021-08-03

Family

ID=77025691

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110320796.9A Pending CN113205553A (zh) 2021-03-25 2021-03-25 一种基于三通道特征融合的光条纹中心提取方法

Country Status (1)

Country Link
CN (1) CN113205553A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972345A (zh) * 2022-07-29 2022-08-30 南通永安纺织有限公司 基于自适应均值漂移聚类的纱线染色质量评估方法及系统
CN117314793A (zh) * 2023-11-28 2023-12-29 中国建筑第五工程局有限公司 基于bim模型的建筑施工数据采集方法

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114972345A (zh) * 2022-07-29 2022-08-30 南通永安纺织有限公司 基于自适应均值漂移聚类的纱线染色质量评估方法及系统
CN117314793A (zh) * 2023-11-28 2023-12-29 中国建筑第五工程局有限公司 基于bim模型的建筑施工数据采集方法
CN117314793B (zh) * 2023-11-28 2024-02-09 中国建筑第五工程局有限公司 基于bim模型的建筑施工数据采集方法

Similar Documents

Publication Publication Date Title
Bai et al. Quadtree-based multi-focus image fusion using a weighted focus-measure
CN104657984B (zh) 三维超声乳腺全容积图像感兴趣区域的自动提取方法
Zhang et al. Multi-focus image fusion algorithm based on focused region extraction
CN109523506B (zh) 基于视觉显著图像特征增强的全参考立体图像质量客观评价方法
CN110544233B (zh) 基于人脸识别应用的深度图像质量评价方法
CN104574393A (zh) 一种三维路面裂缝图像生成系统和方法
Lv et al. Build 3D Scanner System based on Binocular Stereo Vision.
CN108596975A (zh) 一种针对弱纹理区域的立体匹配算法
CN106780476A (zh) 一种基于人眼立体视觉特性的立体图像显著性检测方法
Sharma et al. Edge detection using Moore neighborhood
CN113205553A (zh) 一种基于三通道特征融合的光条纹中心提取方法
Duan et al. Multifocus image fusion with enhanced linear spectral clustering and fast depth map estimation
CN106204570A (zh) 一种基于非因果分数阶梯度算子的角点检测方法
CN104574312A (zh) 标靶图像求圆心的方法和装置
CN116802688A (zh) 用于图像内对应分析的设备和方法
Li et al. A 3D shape retrieval method for orthogonal fringe projection based on a combination of variational image decomposition and variational mode decomposition
Bao et al. Step edge detection method for 3d point clouds based on 2d range images
CN109345570B (zh) 一种基于几何形状的多通道三维彩色点云配准方法
CN117315210B (zh) 一种基于立体成像的图像虚化方法及相关装置
CN102521811A (zh) 基于各向异性扩散和互信息匀质性测度的sar图像降斑方法
CN107341808B (zh) 基于车辙图像的模拟月壤硬度视觉检测系统及测量方法
Kaur et al. Image fusion on digital images using Laplacian pyramid with DWT
Wang et al. LBP-based edge detection method for depth images with low resolutions
KR102445865B1 (ko) 영상기반 토목 구조물 실시간 변위 계측 시스템, 방법, 및 상기 방법을 실행시키기 위한 컴퓨터 판독 가능한 프로그램을 기록한 기록 매체
Cao et al. Enhanced edge detection for 3d crack segmentation and depth measurement with laser data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20210803