CN110119670A - 一种基于Harris角点检测的视觉导航方法 - Google Patents
一种基于Harris角点检测的视觉导航方法 Download PDFInfo
- Publication number
- CN110119670A CN110119670A CN201910212751.2A CN201910212751A CN110119670A CN 110119670 A CN110119670 A CN 110119670A CN 201910212751 A CN201910212751 A CN 201910212751A CN 110119670 A CN110119670 A CN 110119670A
- Authority
- CN
- China
- Prior art keywords
- point
- image
- characteristic image
- angle point
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于Harris角点检测的视觉导航方法。本发明包括以下步骤:步骤1、建立绝对坐标系,并在坐标系内人为设置多个标定点,同时保证标定点间隔设置在机器人移动路径上;步骤2、使得移动机器人在移动过程中可自动使用安装于其底部的视频采集装置对移动路径上的地面纹理进行录像;步骤3、当移动机器人开始运动时,实时提取视频中的特定帧图像作为相应位置的特征图像,进而形成一系列移动机器人移动路径上的特征图像,同时进行仿射变换得到新的特征图像,记为特征图像库。本发明剔除偏离整体分布趋势较大的误匹配点对,有效地提高了匹配精度和性能,从而提升了对移动机器人定位与导航的精准度。
Description
技术领域
本发明涉及移动机器人技术领域,具体涉及一种基于Harris角 点检测的视觉导航方法。
背景技术
视觉导航是目前移动机器人领域中的热点。随着机器人的发展, 其应用领域愈加广泛,目前机器人的导航方式主要有磁条导航、惯性 导航、激光导航和超声波导航等。
磁条导航需要在机器人移动路径上铺设磁条,精度较低,且突出 地面的磁条易损坏;惯性导航利用陀螺仪测得角加速度,加速度计获 得线加速度,通过角加速度和线加速度进行二次积分分别得到角度和 位置,但是随着时间的累积,惯性导航累积误差增大,需辅助其他设 备予以校正,且高精度的惯性导航器件成本较高;激光导航具有光束 窄、平行性好、散射小、测距方向分辨率高等优点,但需要在移动路 径两边添加反光板,对反光板的安装精度要求较高,且对其他光源敏 感,不适于室外作业;超声波导航的工作原理与激光类似,通常是由 超声波传感器的发射探头发射出超声波,超声波在介质中遇到障碍物 而返回到接收装置,其具有成本低廉、采集信息速率快、距离分辨率 高等优点,长期以来被广泛地应用到移动机器人的导航定位中,而且 它采集环境信息时不需要复杂的图像配备技术,因此测距速度快、实 时性好,但超声波传感器也易受到如天气条件、环境光照及障碍物阴 影、表面粗糙度等外界环境条件的影响。
发明内容
本发明的目的在于提供一种基于Harris角点检测的视觉导航方 法,用以解决上述背景技术中提出的问题。为了实现上述目的,本发 明解决其技术问题所采用的技术方案包括以下步骤:
步骤1、建立绝对坐标系,并在坐标系内人为设置多个标定点, 同时保证标定点间隔设置在机器人移动路径上;
步骤2、使得移动机器人在移动过程中可自动使用安装于其底部 的视频采集装置对移动路径上的地面纹理进行录像;
步骤3、当移动机器人开始运动时,实时提取视频中的特定帧图 像作为相应位置的特征图像,进而形成一系列移动机器人移动路径上 的特征图像,同时进行仿射变换得到新的特征图像,记为特征图像库; 若当前位置特征图像纹理与标定点特征图像纹理无重叠处时,则与特 征图像库中的上一帧图像进行图像配准,以得到当前位置坐标;
若当前位置特征图像纹理与标定点特征图像纹理有重叠时,则对 二者进行图像配准,以得到当前位置坐标;
若当前位置特征图像与标定点特征图像进行配准,则在配准完成 后,将仿射变换后的当前位置特征图像与标定点特征图像进行糅合, 得到兼具两张图像特征的新图像作为新的标定点特征图像。
通过上述步骤,可以实现移动机器人的视觉导航工作,其中所使 用的图像配准算法如下所述:
Harris角点检测法是一种基于图像灰度的检测方法,主要是通 过计算每个像素邻域的灰度变化矩阵C来检测角点,定义矩阵C为:
其中,Ix为x方向的梯度,Iy为y方向的梯度。设α、β为矩阵C 的特征值,当α和β都小于最小阈值时,检测到的点为平坦区域点; 当α和β都大于最大阈值时,表示沿着任意方向移动,图像的灰度都 将导致明显的变化,检测到的点为角点;其余α和β的值,检测到的 点均为边缘点;
为了计算方便,采用矩阵的行列式det和矩阵的迹tr来代替α和 β,则有
det(C)=αβ
tr(C)=α+β
同时定义角点响应函数M为:
M=det(C)-ktr2(C)
其中k的取值范围为0.04~0.06。当M的值大于一定的阈值,并 在周围8个方向上取到局部极大值时,则判定该点是角点。
由于标定点图像与当前位置特征图像之间的差异可能较大,错误 的匹配在分布上没有一定的规律,从而需要对提取到的角点进行一定 的筛选,尽量消除错误匹配,减小离群点对整体的影响,这里运用聚 类法粗筛选匹配角点。通过聚类法粗筛选出的匹配角点在一定程度上 缩小了角点匹配的范围,减小了计算量,提高了匹配精度。
本发明提出的角点匹配算法实现步骤如下:
⑴假设从标定点图像和当前位置特征图像中运用聚类法提取的 角点分别为{(ai,bi),i=1,2,…,m}和{(cj,dj),j=1,2,…,n},其中m、n 分别为两幅图像中提取的角点个数,这里为方便计算使得m和n的 值相等。点(ai,bi)和点(cj,dj)分别随着i和j的变化顺序排列,这样就 构成了任意两点之间的一一对应。
⑵定义相对位置函数作为精匹配准则,并将标准方差的思想运用 其中。通过对标定点图像和当前位置特征图像中匹配角点的位置关系 进行相似性比较,以删除偏离整体分布较大的误匹配点对,该相对位 置函数定义为:
其中,(ai,bi)和(aj,bj)为标定点图像中的任意两个角点,(ci,di和(cj,dj)为当前位置特征图像中对应的任意两个角点。该函数描述的 是两幅图像中任意两点距离之比,通过利用标准差来检测数据的离散 程度,以删除偏离整体分布较大的点。对于两幅图像中的任意一组对 应的角点,运用上式得到m(m-1)/2个函数值,将相应函数值记为 Ai,i=1,2,…,m(m-1)/2。
⑶对上述求得的所有函数值Ai求标准差,记为B0。
为了判定标定点图像和当前位置特征图像中各点之间的位置关 系,需要设置相关系数ε1,使得当B0<ε1时,说明两幅图像中对应点 之间的位置关系近似一致,此时保留两幅图像中对应的角点对;当 B0>ε1时,说明两幅图像中至少存在一组匹配点的对应位置偏离较 大,需要剔除其中偏离最大的匹配点,此时匹配的角点个数为m-1 个。由于每个角点都将被剔除一次,所以共有m种可能。对于每一 种可能,通过相对位置函数计算都将得到(m-1)(m-2)/2个函数值。
⑷对上述每一种可能求得的所有函数值求标准方差,记为Cj,j= 1,2,…,m。
从上述求得的所有标准方差中选取最小的一个,记为Cmin。此时, 需要设置另一个相关系数ε2来判定两幅图像中各点的对应关系,使得 当Cmin<ε2×B0时,表示两幅图像中对应点之间的位置关系近似一 致,这时保留两幅图像中对应的角点对;当Cmin>ε2×B0时,表示 存在误匹配点,需要从m-1个角点中剔除一个,剩余m-2个角 点,共有m-1种可能。然后对每一种可能求得m-1个标准方差, 取最小值后与ε2×B0比较大小,按上述方式循环下去,直到剩余的角 点对数少于4对为止,记录此时两幅图像中的匹配角点。
⑸假定最终有效的匹配角点个数为t,则移动机器人在x方向上 的位移为在y方向上的位移为
本发明有益效果如下:
本发明提出了一种基于Harris角点检测的视觉导航方法,通过 人为标定点消除了惯性导航带来的累计误差,使得定位误差是可控的, 与标定点的间隔距离成正比。当增加标定点时,只需要对此处地面拍 摄一张图像,并指定此时对应的绝对坐标,因此当相机分辨率能分清 楚地面纹理时是不需要对拍摄图像进行任何附加处理的。同时,在移 动机器人每次经过标定点时,会用当前位置图像信息更新已保存的标 定点图像信息,从而能够自适应地面磨损等情况。在图像配准的过程 中,通过对Harris角点检测算子的研究,采用聚类法进行粗匹配, 并以相对位置函数作为精匹配准则,剔除偏离整体分布趋势较大的误匹配点对,有效地提高了匹配精度和性能,从而提升了对移动机器人 定位与导航的精准度。
具体实施方式
本发明提出了一种基于Harris角点检测的视觉导航方法,实现 了对移动机器人的定位与导航,下面结合相关步骤进行详细说明:
步骤1、建立绝对坐标系,在移动机器人运动前,在坐标系内人 为设置多个标定点,同时保证标定点间隔设置在移动路径上,而且每 个人为设定的标定点的绝对坐标均为已知;
步骤2、将摄像头安装在移动机器人车体底部或其他避光处,使 得移动机器人在移动过程中可自动对移动路径上的地面纹理进行录 像,而且事先将每个标定点的地面纹理进行拍摄,进行仿射变换后存 储于移动机器人的存储器中,用来进行图像配准;对标定点图像进行 仿射变换:
其中,点(x,y)经仿射变换后变为点(x′,y′),为实矩阵, tx和ty为平移量,同时采用双线性插值法来重建非整数坐标点的像素 值;
步骤3、当移动机器人开始运动时,实时读取视频中的N帧图像, 提取每间隔K=kt(其中k为10的倍数,t为匹配时间)帧图像作 为相应位置的特征图像,进而形成一系列移动机器人移动路径上的特 征图像,同时进行仿射变换得到新的特征图像,记为特征图像库;
若当前位置特征图像纹理与标定点图像纹理无重叠处时,则与特 征图像库中的上一帧图像进行图像配准,以得到当前位置坐标;若当 前位置特征图像纹理与标定点图像纹理有重叠时,则对二者进行图像 配准,以得到当前位置坐标;这里使用基于Harris的角点检测算法 实现图像配准工作,相关方法如下所述:
Harris角点检测法是一种基于图像灰度的检测方法,主要是通 过计算每个像素邻域的灰度变化矩阵C来检测角点,定义矩阵C为:
其中,Ix为x方向的梯度,Iy为y方向的梯度。设α、β为矩阵C 的特征值,当α和β都很小时,检测到的点为平坦区域点;当α和β之 间只有一个较小而另一个较大时,检测到的点为边缘点;当α和β都 较大时,表示沿着任意方向移动,图像的灰度都将导致明显的变化,检测到的点为角点。为了计算方便,采用矩阵的行列式det和矩阵的 迹tr来代替α和β,则有
det(C)=αβ
tr(C)=α+β
同时定义角点响应函数M为:
M=det(C)-ktr2(C)
其中k的取值范围为0.04~0.06。
当M的值大于一定的阈值,并在周围8个方向上取到局部极大 值时,则判定该点是角点。阈值选择一般取决于图像的清晰度以及角 点强弱等因素,当图像较清晰、角点特征较强时,阈值一般取得大一 些;当图像较模糊、角点特征较弱时,阈值一般取得小一些。
由于标定点图像与当前位置特征图像之间的差异可能较大,错误 的匹配在分布上没有一定的规律,从而需要对提取到的角点进行一定 的筛选,尽量消除错误匹配,减小离群点对整体的影响。聚类方法是 一种理想的多变量统计技术,是研究分类的一种多元统计方法,其基 本思想是:把大量的数据样本分成不同的几类,在同一类中样本相似 性最大,而在不同类中样本的相似性最小。通常在所研究的一批样本 之间存在不同程度的相似性,即可以根据相似性找出样本之间相似程 度的统计量,以统计量作为划分类型的依据,使得在同一聚类之间最 小化,而在不同聚类之间最大化。
运用聚类法粗筛选匹配角点的主要思路为:对尺寸同样大小的标 定点图像和当前位置特征图像进行高斯滤波,并进行膨胀处理,以去 除图像的边界;然后将两幅图像放置于同一坐标系中并重叠在一起, 把图像中的匹配角点用直线相连接,则斜率相同或相近的直线对应为 正确的匹配角点;由于直线的斜率可以是负无穷大到正无穷大之间的 任意一个数,数据分散且难以处理,故使用反正切函数来计算直线倾 斜角的弧度值,将此函数返回的值作为相似程度的统计量,并在匹配 点集中找到一个包含某弧度值最多的邻域,则该邻域内的匹配角点即 为粗筛选出的匹配角点。
通过聚类法粗筛选出的匹配角点在一定程度上缩小了角点匹配 的范围,减小了计算量,提高了匹配精度。本发明提出的角点匹配算 法实现步骤如下:
a)假设从标定点图像和当前位置特征图像中运用聚类法提取的角点 分别为{(ai,bi),i=1,2,…,m}和{(cj,dj),j=1,2,…,n},其中m、n分 别为两幅图像中提取的角点个数,这里为方便计算使得m和n的 值相等。点(ai,bi)和点(cj,dj)分别随着i和j的变化顺序排列,这 样就构成了任意两点之间的一一对应。
b)定义相对位置函数作为精匹配准则,并将标准方差的思想运用其 中。通过对标定点图像和当前位置特征图像中匹配角点的位置关 系进行相似性比较,以删除偏离整体分布较大的误匹配点对,该 相对位置函数定义为:
其中,(ai,bi)和(aj,bj)为标定点图像中的任意两个角点,(ci,di)和 (cj,dj)为当前位置特征图像中对应的任意两个角点。该函数描述 的是两幅图像中任意两点距离之比,通过利用标准差来检测数据 的离散程度,以删除偏离整体分布较大的点。对于两幅图像中的 任意一组对应的角点,运用上式得到m(m-1)/2个函数值,将相 应函数值记为Ai,i=1,2,…,m(m-1)/2。
c)对上述求得的所有函数值Ai求标准差,记为B0。
d)为了判定标定点图像和当前位置特征图像中各点之间的位置关系, 需要设置相关系数ε1,使得当B0<ε1时,说明两幅图像中对应点 之间的位置关系近似一致,此时保留两幅图像中对应的角点对; 当B0>ε1时,说明两幅图像中至少存在一组匹配点的对应位置偏 离较大,需要剔除其中偏离最大的匹配点,此时匹配的角点个数 为m-1个。由于每个角点都将被剔除一次,所以共有m种可能。 对于每一种可能,通过相对位置函数计算都将得到(m-1)(m-2)/2个函数值。
e)对上述每一种可能求得的所有函数值求标准方差,记为Cj,j= 1,2,…,m。
f)从上述求得的所有标准方差中选取最小的一个,记为Cmin。此时, 需要设置另一个相关系数ε2来判定两幅图像中各点的对应关系, 使得当Cmin<ε2×B0时,表示两幅图像中对应点之间的位置关系 近似一致,这时保留两幅图像中对应的角点对;当Cmin>ε2×B0时,表示存在误匹配点,需要从m-1个角点中剔除一个,剩余 m-2个角点,共有m-1种可能。然后对每一种可能求得m-1 个标准方差,取最小值后与ε2×B0比较大小,按上述方式循环下 去,直到剩余的角点对数少于4对为止,记录此时两幅图像中的 匹配角点。
g)假定最终有效的匹配角点个数为t,则移动机器人在x方向上的 位移为在y方向上的位移为
1)若当前位置特征图像与标定点图像进行配准,则在配准完成后, 将仿射变换后的当前位置特征图像与标定点图像进行糅合,得到 兼具两张图像特征的新图像作为新的标定点图像,并继续跳转到 步骤4)进行后续的图像配准工作,最终实现移动机器人的定位与导航。
Claims (3)
1.一种基于Harris角点检测的视觉导航方法,其特征在于包括以下步骤:
步骤1、建立绝对坐标系,并在坐标系内人为设置多个标定点,同时保证标定点间隔设置在机器人移动路径上;
步骤2、使得移动机器人在移动过程中可自动使用安装于其底部的视频采集装置对移动路径上的地面纹理进行录像;
步骤3、当移动机器人开始运动时,实时提取视频中的特定帧图像作为相应位置的特征图像,进而形成一系列移动机器人移动路径上的特征图像,同时进行仿射变换得到新的特征图像,记为特征图像库;若当前位置特征图像纹理与标定点特征图像纹理无重叠处时,则与特征图像库中的上一帧图像进行图像配准,以得到当前位置坐标;
若当前位置特征图像纹理与标定点特征图像纹理有重叠时,则对二者进行图像配准,以得到当前位置坐标;
若当前位置特征图像与标定点特征图像进行配准,则在配准完成后,将仿射变换后的当前位置特征图像与标定点特征图像进行糅合,得到兼具两张图像特征的新图像作为新的标定点特征图像。
2.根据权利要求1所述的一种基于Harris角点检测的视觉导航方法,其特征在于图像的配准描述如下所述:
通过计算每个像素邻域的灰度变化矩阵C来检测角点,定义矩阵C为:
其中,Ix为x方向的梯度,Iy为y方向的梯度;设α、β为矩阵C的特征值,当α和β都小于最小阈值时,检测到的点为平坦区域点;当α和β都大于最大阈值时,表示沿着任意方向移动,图像的灰度都将导致明显的变化,检测到的点为角点;其余α和β的值,检测到的点均为边缘点;
采用矩阵的行列式det和矩阵的迹tr来代替α和β,则有
det(C)=αβ
tr(C)=α+β
同时定义角点响应函数M为:
M=det(C)-ktr2(C)
其中k的取值范围为0.04~0.06;当M的值大于一定的阈值,并在周围8个方向上取到局部极大值时,则判定该点是角点。
3.根据权利要求2所述的一种基于Harris角点检测的视觉导航方法,其特征在于运用聚类法粗筛选匹配角点,具体实现步骤如下:
(1)假设从标定点图像和当前位置特征图像中运用聚类法提取的角点分别为{(ai,bi),i=1,2,…,m}和{(cj,dj),j=1,2,…,n},其中m、n分别为两幅图像中提取的角点个数,为方便计算使得m和n的值相等;点(ai,bi)和点(cj,dj)分别随着i和j的变化顺序排列,从而构成了任意两点之间的一一对应;
(2)定义相对位置函数作为精匹配准则,通过对标定点图像和当前位置特征图像中匹配角点的位置关系进行相似性比较,以删除偏离整体分布较大的误匹配点对,该相对位置函数定义为:
其中,(ai,bi)和(aj,bj)为标定点图像中的任意两个角点,(ci,di)和(cj,dj)为当前位置特征图像中对应的任意两个角点;对于两幅图像中的任意一组对应的角点,运用上式得到m(m-1)/2个函数值,将相应函数值记为Ai,i=1,2,…,m(m-1)/2;
(3)对步骤(2)求得的所有函数值Ai求标准差,记为B0;
为了判定标定点图像和当前位置特征图像中各点之间的位置关系,需要设置相关系数ε1,使得当B0<ε1时,说明两幅图像中对应点之间的位置关系一致,此时保留两幅图像中对应的角点对;当B0>ε1时,说明两幅图像中至少存在一组匹配点的对应位置偏离较大,需要剔除其中偏离最大的匹配点,此时匹配的角点个数为m-1个;由于每个角点都将被剔除一次,所以共有m种可能;对于每一种可能,通过相对位置函数计算都将得到(m-1)(m-2)/2个函数值;
(4)对步骤(3)每一种可能求得的所有函数值求标准方差,记为Cj,j=1,2,…,m;
从上述求得的所有标准方差中选取最小的一个,记为Cmin;此时,需要设置另一个相关系数ε2来判定两幅图像中各点的对应关系,使得当Cmin<ε2×B0时,表示两幅图像中对应点之间的位置关系一致,这时保留两幅图像中对应的角点对;当Cmin>ε2×B0时,表示存在误匹配点,需要从m-1个角点中剔除一个,剩余m-2个角点,共有m-1种可能;然后对每一种可能求得m-1个标准方差,取最小值后与ε2×B0比较大小,按上述方式循环下去,直到剩余的角点对数少于4对为止,记录此时两幅图像中的匹配角点;
(5)假定最终有效的匹配角点个数为t,则移动机器人在x方向上的位移为在y方向上的位移为
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910212751.2A CN110119670A (zh) | 2019-03-20 | 2019-03-20 | 一种基于Harris角点检测的视觉导航方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910212751.2A CN110119670A (zh) | 2019-03-20 | 2019-03-20 | 一种基于Harris角点检测的视觉导航方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110119670A true CN110119670A (zh) | 2019-08-13 |
Family
ID=67520500
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910212751.2A Pending CN110119670A (zh) | 2019-03-20 | 2019-03-20 | 一种基于Harris角点检测的视觉导航方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110119670A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110515884A (zh) * | 2019-09-04 | 2019-11-29 | 西安工业大学 | 基于图像分析的施工现场钢筋测距装置 |
CN112738532A (zh) * | 2020-12-29 | 2021-04-30 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 一种基于高斯滤波的dct块效应现象消除方法 |
CN113029168A (zh) * | 2021-02-26 | 2021-06-25 | 杭州海康机器人技术有限公司 | 基于地面纹理信息的地图构建方法和系统及移动机器人 |
CN113743424A (zh) * | 2021-09-15 | 2021-12-03 | 昆明理工大学 | 一种全尾砂动态絮凝沉降图像特征点提取的dbscan聚类分析方法 |
CN118154595A (zh) * | 2024-05-10 | 2024-06-07 | 陕西正鑫工程材料股份有限公司 | 一种用于高铁吊围栏配件的视觉检测方法及系统 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101840507A (zh) * | 2010-04-09 | 2010-09-22 | 江苏东大金智建筑智能化系统工程有限公司 | 基于角点特征不变量和图论聚类的目标跟踪方法 |
CN102298698A (zh) * | 2011-05-30 | 2011-12-28 | 河海大学 | 基于角点与边缘信息融合的遥感图像飞机检测方法 |
CN104867126A (zh) * | 2014-02-25 | 2015-08-26 | 西安电子科技大学 | 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法 |
US9390506B1 (en) * | 2015-05-07 | 2016-07-12 | Aricent Holdings Luxembourg S.A.R.L. | Selective object filtering and tracking |
CN106996777A (zh) * | 2017-04-21 | 2017-08-01 | 合肥井松自动化科技有限公司 | 一种基于地面图像纹理的视觉导航方法 |
-
2019
- 2019-03-20 CN CN201910212751.2A patent/CN110119670A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101840507A (zh) * | 2010-04-09 | 2010-09-22 | 江苏东大金智建筑智能化系统工程有限公司 | 基于角点特征不变量和图论聚类的目标跟踪方法 |
CN102298698A (zh) * | 2011-05-30 | 2011-12-28 | 河海大学 | 基于角点与边缘信息融合的遥感图像飞机检测方法 |
CN104867126A (zh) * | 2014-02-25 | 2015-08-26 | 西安电子科技大学 | 基于点对约束和三角形网的有变化区域的合成孔径雷达图像配准方法 |
US9390506B1 (en) * | 2015-05-07 | 2016-07-12 | Aricent Holdings Luxembourg S.A.R.L. | Selective object filtering and tracking |
CN106996777A (zh) * | 2017-04-21 | 2017-08-01 | 合肥井松自动化科技有限公司 | 一种基于地面图像纹理的视觉导航方法 |
Non-Patent Citations (1)
Title |
---|
钟涛等: "基于Harris角点检测的图像配准新算法", 《中国医学影像学杂志》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110515884A (zh) * | 2019-09-04 | 2019-11-29 | 西安工业大学 | 基于图像分析的施工现场钢筋测距装置 |
CN110515884B (zh) * | 2019-09-04 | 2023-02-03 | 西安工业大学 | 基于图像分析的施工现场钢筋测距装置 |
CN112738532A (zh) * | 2020-12-29 | 2021-04-30 | 哈尔滨工业大学芜湖机器人产业技术研究院 | 一种基于高斯滤波的dct块效应现象消除方法 |
CN113029168A (zh) * | 2021-02-26 | 2021-06-25 | 杭州海康机器人技术有限公司 | 基于地面纹理信息的地图构建方法和系统及移动机器人 |
CN113743424A (zh) * | 2021-09-15 | 2021-12-03 | 昆明理工大学 | 一种全尾砂动态絮凝沉降图像特征点提取的dbscan聚类分析方法 |
CN113743424B (zh) * | 2021-09-15 | 2023-06-27 | 昆明理工大学 | 全尾砂动态絮凝沉降中絮体动态沉降分散程度定量表征方法 |
CN118154595A (zh) * | 2024-05-10 | 2024-06-07 | 陕西正鑫工程材料股份有限公司 | 一种用于高铁吊围栏配件的视觉检测方法及系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119670A (zh) | 一种基于Harris角点检测的视觉导航方法 | |
CN111462200B (zh) | 一种跨视频行人定位追踪方法、系统及设备 | |
Sochor et al. | Traffic surveillance camera calibration by 3d model bounding box alignment for accurate vehicle speed measurement | |
US5801970A (en) | Model-based feature tracking system | |
Naimark et al. | Circular data matrix fiducial system and robust image processing for a wearable vision-inertial self-tracker | |
CN102612704B (zh) | 用于提供针对图像的至少一个特征的描述符的方法和用于匹配特征的方法 | |
US7336296B2 (en) | System and method for providing position-independent pose estimation | |
CN109211198B (zh) | 一种基于三目视觉的智能目标检测和测量系统和方法 | |
CN106651942A (zh) | 基于特征点的三维旋转运动检测与旋转轴定位方法 | |
CN108981672A (zh) | 基于单目机器人与测距传感器结合的舱门实时定位方法 | |
SG191452A1 (en) | Automatic calibration method and apparatus | |
CN112115980A (zh) | 基于光流跟踪和点线特征匹配的双目视觉里程计设计方法 | |
Cvišić et al. | Recalibrating the KITTI dataset camera setup for improved odometry accuracy | |
CN1820282A (zh) | 图像处理装置 | |
CN114022560A (zh) | 标定方法及相关装置、设备 | |
Aeschliman et al. | Tracking vehicles through shadows and occlusions in wide-area aerial video | |
Miksch et al. | Automatic extrinsic camera self-calibration based on homography and epipolar geometry | |
CN110097064B (zh) | 一种建图方法及装置 | |
Kruger et al. | In-factory calibration of multiocular camera systems | |
CN112712566B (zh) | 基于结构参数在线校正的双目立体视觉传感器测量方法 | |
CN113888583A (zh) | 一种视觉跟踪准确性的实时判断方法及装置 | |
CN111964681B (zh) | 一种巡检机器人的实时定位系统 | |
CN116883897A (zh) | 一种低分辨率目标识别方法 | |
CN111598956A (zh) | 标定方法、装置和系统 | |
Trusheim et al. | Cooperative image orientation considering dynamic objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190813 |
|
RJ01 | Rejection of invention patent application after publication |