CN110728282A - 基于动态测量的自适应标定方法 - Google Patents

基于动态测量的自适应标定方法 Download PDF

Info

Publication number
CN110728282A
CN110728282A CN201910961547.0A CN201910961547A CN110728282A CN 110728282 A CN110728282 A CN 110728282A CN 201910961547 A CN201910961547 A CN 201910961547A CN 110728282 A CN110728282 A CN 110728282A
Authority
CN
China
Prior art keywords
points
matching
highlight
calibration
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201910961547.0A
Other languages
English (en)
Inventor
乔玉晶
赵宇航
张思远
贾保明
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harbin University of Science and Technology
Original Assignee
Harbin University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harbin University of Science and Technology filed Critical Harbin University of Science and Technology
Priority to CN201910961547.0A priority Critical patent/CN110728282A/zh
Publication of CN110728282A publication Critical patent/CN110728282A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • G06F18/232Non-hierarchical techniques
    • G06F18/2321Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
    • G06F18/23213Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/462Salient features, e.g. scale invariant feature transforms [SIFT]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Image Analysis (AREA)

Abstract

本发明视觉测量基于动态测量的自适应标定方法属于光学测量与视觉检测领域;该方法包括以下几个步骤:全局阈值法去除高光;局部阈值恢复物体纹理梯度;sift算法确定两幅标定图像匹配的特征点对;利用冒泡法对每组特征匹配点距离大小进行排序,设定各特征点欧式距离方差值为阀值,对匹配出特征点进行筛选;最后将筛选出的特征点取8对作为求解基础矩阵的输入点,求解标定参数,最终完成标定。本发明方法通过去高光处理、恢复物体纹理梯度性、筛选匹配点等方法,解决了在实际变化场景中对运动物体自适应标定时鲁棒性差的问题。

Description

基于动态测量的自适应标定方法
技术领域
本发明属于光学测量与视觉检测领域,具体涉及了基于动态测量的自适应标定方法。
背景技术
近年来,机器视觉与视觉检测技术已经应用在许多领域中,如大型零部件测量、工业流水线检测等领域,视觉检测不但能减少人工费用,同时也能提高检测精度,避免了由检测人员产生的过失误差。
在通常的自适应标定研究中,研究重心主要放在精度低弱鲁棒的问题上,其主要原因是自标定输入点的对极约束不强而导致。因此,在视觉标定中,有必要寻找到一种即能够保证计算精度又能提高鲁棒性的自适应标定方法。
为了实现更有效、快速、精确的标定方法,本次发明提出了基于动态测量的自适应标定方法,该方法可以在保证物体纹理梯度性的基础上去除高光区域,并能筛选出优质特征匹配点作为基础矩阵的输入点,从而提高算法鲁棒性,采用所提方法进行自适应标定,标定效果更加明显。
发明内容
针对上述问题,本发明公开了基于动态测量的自适应标定方法,该发明包括测量任务与目标分析,每个环节都对视觉自标定的稳定性、精准度与通用性等方面产生影响。
本发明的目的是这样实现的:
基于动态测量的自适应标定方法,其特征在于包括以下步骤:
步骤a:采用全局阈值法对图像去除高光;
步骤b:采用局部阈值法恢复图像纹理梯度性;
步骤c:利用sift算法对两幅标定图像进行特征点匹配;
步骤d:采用冒泡法对匹配出的特征点进行距离大小排序;
步骤e:确定合适的阈值,对匹配出的特征点进行筛选;
步骤f:将筛选出的特征点取8对作为求解基础矩阵的输入点,求解标定参数,最终完成标定。
根据权利1所述的基于动态测量的自适应标定方法,其特征在于,所述步骤a、b具体为:
采用无监督聚类分割法Kmeans确定高光区域;
确定高光与非高光区域内像素均值,将非高光区域均值与高光区域均值做比值,
得出比例缩放系数,利用得到的比例缩放系数与高光区域内的像素点相乘,降低高光区域内像素点的值;
考察高光区域内任意一像素点与其8邻域上各点之间的比值,从8个比值中选取最大值作为比例系数,利用得到比例系数与邻域上各像素点相乘,保证去高光后物体表面的纹理梯度性。
根据权利1所述的基于动态测量的自适应标定方法,其特征在于,所述步骤c具体为:
sift算法中尺度空间极值检测,采用的是DOG算子,其数学表达式是:
D(x,y,σ)=[G(x,y,kσ)-G(x,y,σ)]*I(x,y)=L(x,y,kσ)-L(x,y,σ)
其中I(x,y)为图像矩阵,G(x,y,σ)为变尺度的高斯卷积核,x、y表示像素点位置,σ为尺度因子,尺度因子将尺度空间分为a个部分,设定相邻两层图像的尺度因子比例系数为
Figure BDA0002229088900000011
sift算法中精确定位关键点的方法,是对关键点处的尺度空间函数D(x,y,σ)进行泰勒展开,并对其进行计算极值,其数学表达式是:
Figure BDA0002229088900000012
其中(x,y,σ)为偏移量。
sift算法中关键点方向匹配原则是利用有限差分搜索图像的梯度幅值与方向,其幅值与方向公式是:
Figure BDA0002229088900000021
Figure BDA0002229088900000022
sift算法中生成特征描述符是以关键点为中心的图像局部信息,主要是通过以关键点为中心的4×4个子区域进行上述方向统计得到,由于每个子区域共有8个方向,所以描述符共有128维的特征向量。
sift算法中特征匹配采用欧式距离作为相似性度量方式实现特征匹配,当相邻的匹配点距离比值小于阀值时,认为匹配成功,否则匹配失败。
根据权利1所述的基于动态测量的自适应标定方法,其特征在于,所述步骤d、e具体为:
计算每对标定图像特征点的欧式距离,其数学表达式是:
Figure BDA0002229088900000023
其中ui、ui-1为匹配到任意两个像素点u轴分量,vi、vi-1为匹配到任意两个像素点v轴分量,di为匹配到任意两个像素点之间的距离。
对欧式距离进行大小排序,以全部像素点之间的欧式距离的方差值作为阀值,对匹配到的像素点进行筛选。
根据权利1所述的基于动态测量的自适应标定方法,其特征在于,所述步骤f具体为:
根据权利3中筛选出的特征点取8组作为基础矩阵F的输入点m'、m,该匹配点必满足公式m'Fm=0,当对F中一个参数做非零参数归一化时,其包含8个参数,为线性方程,秩为2,当输入点数大于等于8对时,其有唯一解。
有益效果:
本发明提出了基于动态测量的自适应标定方法,研究了自适应标定中基础矩阵输入匹配点的选取问题,其具体原理过程主要有,采用全局阈值法对图像去除高光,局部阈值法恢复物体纹理梯度性,再利用sift算法对摄像机获取的两幅图像完成角点匹配,然后将匹配出的角点做欧式距离计算,利用冒泡法对匹配出的角点进行排序,设定各角点欧式距离的方差值为阀值,对匹配出的角点进行筛选,最后将筛选出的匹配点中的8对作为求解基础矩阵的输入点,求解标定参数,最终完成标定,该方法提高了双目自适应标定的鲁棒性。该研究为实现对于运动物体自适应视觉标定研究奠定了牢固的理论基础,提供了强大的技术支持。
附图说明
图1是本发明基于动态测量的自适应标定方法的算法流程图;
图2是本发明基于动态测量的自适应标定方法所用标准测试集图像;
图3是本发明基于动态测量的自适应标定方法步骤a、b去高光后图像;
图4是本发明基于动态测量的自适应标定方法步骤c、d、e优化后图像;
具体实施方式
下面结合附图对本发明的具体实施方式作进一步详细描述。
具体实施例一
本实施例的基于动态测量的自适应标定方法,流程图如图1所示,该方法包括以下步骤:
步骤a:采用全局阈值法对图像去除高光;
步骤b:采用局部阈值法恢复图像纹理梯度;
步骤c:利用sift算法对两幅标定图像进行特征点匹配;
步骤d:采用冒泡法对匹配出的特征点进行距离大小排序;
步骤e:确定合适的阈值,对匹配出的特征点进行筛选;
步骤f:将筛选出的特征点取8对作为求解基础矩阵的输入点,求解标定参数,最终完成标定。
具体实施例二
本实例的基于动态测量的自适应标定方法,在具体实施例一的基础上,进一步限定步骤a、步骤b、步骤c、步骤d、步骤e、步骤f、的具体操作步骤。其中:
所述步骤a、b具体为:
采用无监督聚类分割法Kmeans确定高光区域;
确定高光与非高光区域内像素均值,将非高光区域均值与高光区域均值做比值,
得出比例缩放系数,利用得到的比例缩放系数与高光区域内的像素点相乘,降低高光区域内像素点的值;
考察高光区域内任意一像素点与其8邻域上各点之间的比值,从8个比值中选取最大值作为比例系数,利用得到比例系数与邻域上各像素点相乘,保证去高光后物体表面的纹理梯度性。
所述步骤c具体为:
sift算法中尺度空间极值检测,采用的是DOG算子,其数学表达式是:
D(x,y,σ)=[G(x,y,kσ)-G(x,y,σ)]*I(x,y)=L(x,y,kσ)-L(x,y,σ)
其中I(x,y)为图像矩阵,G(x,y,σ)为变尺度的高斯卷积核,x、y表示像素点位置,σ为尺度因子,尺度因子将尺度空间分为a个部分,设定相邻两层图像的尺度因子比例系数为
Figure BDA0002229088900000031
sift算法中精确定位关键点的方法,是对关键点处的尺度空间函数D(x,y,σ)进行泰勒展开,并对其进行计算极值,其数学表达式是:
Figure BDA0002229088900000032
其中(x,y,σ)为偏移量。
sift算法中关键点方向匹配原则是利用有限差分搜索图像的梯度幅值与方向,其幅值与方向公式是:
Figure BDA0002229088900000034
sift算法中生成特征描述符是以关键点为中心的图像局部信息,主要是通过以关键点为中心的4×4个子区域进行上述方向统计得到,由于每个子区域共有8个方向,所以描述符共有128维的特征向量。
sift算法中特征匹配采用欧式距离作为相似性度量方式实现特征匹配,当相邻的匹配点距离比值小于阀值时,认为匹配成功,否则匹配失败。
所述步骤d、e具体为:
计算每对标定图像特征点的欧式距离,其数学表达式是:
Figure BDA0002229088900000041
其中ui、ui-1为匹配到任意两个像素点u轴分量,vi、vi-1为匹配到任意两个像素点v轴分量,di为匹配到任意两个像素点之间的距离。
所述步骤f具体为:
根据权利3中筛选出的特征点取8组作为基础矩阵F的输入点m'、m,该匹配点必满足公式m'Fm=0,当对F中一个参数做非零参数归一化时,其包含8个参数,为线性方程,秩为2,当输入点数大于等于8对时,其有唯一解。

Claims (5)

1.基于动态测量的自适应标定方法,其特征在于包括以下步骤:
步骤a:采用全局阈值法对图像去除高光;
步骤b:采用局部阈值法恢复图像纹理梯度;
步骤c:利用sift算法对两幅标定图像进行特征点匹配;
步骤d:采用冒泡法对匹配出的特征点进行距离大小排序;
步骤e:确定合适的阈值,对匹配出的特征点进行筛选;
步骤f:将筛选出的特征点取8对作为求解基础矩阵的输入点,求解标定参数,最终完成标定。
2.根据权利要求1所述的基于动态测量的自适应标定方法,其特征在于,所述步骤a、b具体为:
(1)采用无监督聚类分割法Kmeans确定高光区域;
(2)确定高光与非高光区域内像素均值,将非高光区域均值与高光区域均值做比值,得出比例缩放系数,利用得到的比例缩放系数与高光区域内的像素点相乘,降低高光区域内像素点的值;
(3)考察高光区域内任意一像素点与其8邻域上各点之间的比值,从8个比值中选取最大值作为比例系数,利用得到比例系数与邻域上各像素点相乘,保证去高光后物体表面的纹理梯度性。
3.根据权利要求1所述的基于动态测量的自适应标定方法,其特征在于,所述步骤c具体为:
sift算法中尺度空间极值检测,采用的是DOG算子,其数学表达式是:
D(x,y,σ)=[G(x,y,kσ)-G(x,y,σ)]*I(x,y)=L(x,y,kσ)-L(x,y,σ)
其中I(x,y)为图像矩阵,G(x,y,σ)为变尺度的高斯卷积核,x、y表示像素点位置,σ为尺度因子,尺度因子将尺度空间分为a个部分,设定相邻两层图像的尺度因子比例系数为
Figure FDA0002229088890000011
sift算法中精确定位关键点的方法,是对关键点处的尺度空间函数D(x,y,σ)进行泰勒展开,并对其进行计算极值,其数学表达式是:
Figure FDA0002229088890000012
其中(x,y,σ)为偏移量。
sift算法中关键点方向匹配原则是利用有限差分搜索图像的梯度幅值与方向,其幅值与方向公式是:
Figure FDA0002229088890000013
Figure FDA0002229088890000014
sift算法中生成特征描述符是以关键点为中心的图像局部信息,主要是通过以关键点为中心的4×4个子区域进行上述方向统计得到,由于每个子区域共有8个方向,所以描述符共有128维的特征向量。
sift算法中特征匹配采用欧式距离作为相似性度量方式实现特征匹配,当相邻的匹配点距离比值小于阀值时,认为匹配成功,否则匹配失败。
4.根据权利要求1所述的基于动态测量的自适应标定方法,其特征在于,所述步骤d、e具体为:
计算每对标定图像特征点的欧式距离,其数学表达式是:
Figure FDA0002229088890000015
其中ui、ui-1为匹配到任意两个像素点u轴分量,vi、vi-1为匹配到任意两个像素点v轴分量,di为匹配到任意两个像素点之间的距离。
对欧式距离进行大小排序,以全部像素点之间的欧式距离的方差值作为阀值,对匹配到的像素点进行筛选。
5.根据权利要求1所述的基于动态测量的自适应标定方法,其特征在于,所述步骤f具体为:
根据权利3中筛选出的特征点取8组作为基础矩阵F的输入点m'、m,该匹配点必满足公式m'Fm=0,当对F中一个参数做非零参数归一化时,其包含8个参数,为线性方程,秩为2,当输入点数大于等于8对时,其有唯一解。
CN201910961547.0A 2019-10-11 2019-10-11 基于动态测量的自适应标定方法 Pending CN110728282A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910961547.0A CN110728282A (zh) 2019-10-11 2019-10-11 基于动态测量的自适应标定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910961547.0A CN110728282A (zh) 2019-10-11 2019-10-11 基于动态测量的自适应标定方法

Publications (1)

Publication Number Publication Date
CN110728282A true CN110728282A (zh) 2020-01-24

Family

ID=69220947

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910961547.0A Pending CN110728282A (zh) 2019-10-11 2019-10-11 基于动态测量的自适应标定方法

Country Status (1)

Country Link
CN (1) CN110728282A (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110188836A1 (en) * 2008-05-28 2011-08-04 Mirriad Limited Apparatus and Method for Identifying Insertion Zones in Video Material and for Inserting Additional Material into the Insertion Zones
CN102176243A (zh) * 2010-12-30 2011-09-07 浙江理工大学 一种基于可见光和红外摄像机的目标测距方法
CN102445165A (zh) * 2011-08-05 2012-05-09 南京航空航天大学 基于单幅彩色编码光栅的立体视觉测量方法
CN107133976A (zh) * 2017-04-24 2017-09-05 浙江大学 一种获取三维高光谱信息的方法和装置
JP2017157971A (ja) * 2016-02-29 2017-09-07 株式会社リコー 画像処理装置、画像処理方法、およびプログラム
CN109523541A (zh) * 2018-11-23 2019-03-26 五邑大学 一种基于视觉的金属表面细微缺陷检测方法
CN109727290A (zh) * 2018-12-26 2019-05-07 南京理工大学 基于单目视觉三角测距法的变焦相机动态标定方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20110188836A1 (en) * 2008-05-28 2011-08-04 Mirriad Limited Apparatus and Method for Identifying Insertion Zones in Video Material and for Inserting Additional Material into the Insertion Zones
CN102176243A (zh) * 2010-12-30 2011-09-07 浙江理工大学 一种基于可见光和红外摄像机的目标测距方法
CN102445165A (zh) * 2011-08-05 2012-05-09 南京航空航天大学 基于单幅彩色编码光栅的立体视觉测量方法
JP2017157971A (ja) * 2016-02-29 2017-09-07 株式会社リコー 画像処理装置、画像処理方法、およびプログラム
CN107133976A (zh) * 2017-04-24 2017-09-05 浙江大学 一种获取三维高光谱信息的方法和装置
CN109523541A (zh) * 2018-11-23 2019-03-26 五邑大学 一种基于视觉的金属表面细微缺陷检测方法
CN109727290A (zh) * 2018-12-26 2019-05-07 南京理工大学 基于单目视觉三角测距法的变焦相机动态标定方法

Similar Documents

Publication Publication Date Title
CN107301654B (zh) 一种多传感器的高精度即时定位与建图方法
CN110148162B (zh) 一种基于复合算子的异源图像匹配方法
CN112017225B (zh) 一种基于点云配准的深度图像匹配方法
CN109211198B (zh) 一种基于三目视觉的智能目标检测和测量系统和方法
CN111126174A (zh) 一种用于机器人抓取零件的视觉检测方法
CN107862319B (zh) 一种基于邻域投票的异源高分光学影像匹配误差剔除方法
EP3025273B1 (en) Keypoint identification
CN114529613A (zh) 一种圆阵列标定板的特征点高精度坐标提取方法
CN110634137A (zh) 一种基于视觉感知的桥梁变形的监测方法、装置及设备
CN109410248B (zh) 一种基于r-K算法的浮选泡沫运动特征提取方法
CN112215079B (zh) 一种全局多阶段目标跟踪方法
CN111652790A (zh) 一种亚像素图像配准方法
CN111145198B (zh) 一种基于快速角点检测的非合作目标运动估计方法
KR20080056149A (ko) 미지 품질의 패턴을 사용하여 기준 이미지를 생성하기 위한시스템 및 방법
CN113112396A (zh) 导电粒子的检测方法
CN116958837A (zh) 基于无人机的市政设施故障检测系统
CN115311293B (zh) 一种印刷品图案的快速匹配方法
CN117218054A (zh) 一种恒星背景下的空间目标检测方法
CN112070811A (zh) 一种基于连续域蚁群算法改进的图像配准方法
CN111340134A (zh) 一种基于局部动态规整的快速模板匹配方法
CN110728282A (zh) 基于动态测量的自适应标定方法
CN116468621A (zh) 一种一键式数字化航空影像数据处理方法
CN116206139A (zh) 一种基于局部自卷积的无人机图像升尺度匹配方法
Xu et al. A robust close-range photogrammetric system for industrial metrology
CN114255398A (zh) 一种卫星视频图像的特征提取与匹配的方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20200124