CN112085117B - 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法 - Google Patents

一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法 Download PDF

Info

Publication number
CN112085117B
CN112085117B CN202010976289.6A CN202010976289A CN112085117B CN 112085117 B CN112085117 B CN 112085117B CN 202010976289 A CN202010976289 A CN 202010976289A CN 112085117 B CN112085117 B CN 112085117B
Authority
CN
China
Prior art keywords
determining
vectors
value
point
pairs
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010976289.6A
Other languages
English (en)
Other versions
CN112085117A (zh
Inventor
王松
胡燕祝
李家乐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Posts and Telecommunications
Original Assignee
Beijing University of Posts and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Posts and Telecommunications filed Critical Beijing University of Posts and Telecommunications
Priority to CN202010976289.6A priority Critical patent/CN112085117B/zh
Publication of CN112085117A publication Critical patent/CN112085117A/zh
Application granted granted Critical
Publication of CN112085117B publication Critical patent/CN112085117B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/751Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及基于MTLBP‑Li‑KAZE‑R‑RANSAC的机器人运动监测视觉信息融合方法,是一种对国防军事和民用领域机器人运动监测的的分布式视觉信息融合的方法,属于目标跟踪领域,其特征在于采用如下步骤:(1)确定中心元素LBP值;(2)确定每一子区域内的8维描述向量;(3)计算两个描述向量之间的近似欧式距离;(4)进行图像的匹配点对,确定图像间投影变换的参数矩阵;(5)对剩下的特征点对进行dv操作;(6)确定采样迭代次数;(7)确定似然比;(8)确定最佳阈值。本发明相较于传统的识别方法有着高精度、高效率、低延时的特点,大大提高目标识别的速度。对于错误数据的识别和剔除有着较为准确的判断,提高精确信息的置信度,获得更准确的识别结果。

Description

一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信 息融合方法
技术领域
本发明涉及目标跟踪领域,主要是一种国防军事和民用领域中机器人运动监测的分布式视觉信息的融合方法。
背景技术
目标识别追踪,在无人驾驶,国防军事等领域有着重要的应用实践,对于传统的目标追踪通常是利用红外或其它机器视觉手段标记出目标对应的关键点或关键部分,然后通过对关键点标志的检测,或者测标志在空间中的位置或者其动态背景的变换,结合RANSAC算法从而实现对于目标物体的追踪,但是由于旋转角度或者光线背景的变化、目标物体由远及近的状态变化导致的其形态大小的改变,容易导致关键点或关键部分的丢失或变化,或者在获取目标信息的数据集时,容易产生大量异常数据需要从中剔除,不然极其容易导致对于目标的跟踪失败。并且由于实时的数据获取需要采样大量的数据模型,传统的系统处理速度达不到实时性的要求,从而产生识别延迟,亦对于目标物体的追踪容易失败。对于以上问题,拟提出一种基于MTLBP和Li-KAZE以及R-RANSAC算法的视觉信息融合方法,来改善和解决以上的不足,从而达到高精度、高效率、低延时的目的。
此种方法针对图像的尺度变换、仿射变换等几何变换有着较为准确的识别,MTLBP算子在同尺度不同角度上纹理特征提取,增加特征点的来源,提高模型泛化力。Li-KAZE算子具有尺度不变特性和旋转不变特性,在图像特征点提取中具有较好的效果。获取的关键帧通过图像特征点匹配后,采用R-RANSAC算法对错误的匹配点进行剔除,提高算法到的精确度,保证视觉信息的准确性。本方法相较于传统方法有着较为准确匹配识别率和实时性。
发明内容
针对上述现有技术中存在的问题,本发明要解决的技术问题是提供一种基于MTLBP-Li-KAZE-R- RANSAC的机器人运动监测视觉信息融合方法,其具体流程如图1所示。
技术方案实施步骤如下:
(1)确定中心元素的LBP值LBP(xc,yc):
在视觉信息中确定一定大小的像素邻域,设定一组阈值gi(i=0,1,2,…,n),以中心像素与周围邻域像素之差的绝对值|ip-ic|,与gi比较,当|ip-ic|大于设定阈值时,则该位置标记为1,否则标记为0,。比较后,顺时针排列得到的二进制数,得到该中心像素的LBP值LBP(xc,yc):
Figure BDA0002685916160000021
式中,(xc,yc)、ic是中心像素的位置和灰度值,p、ip为中心像素邻域内的采样点和灰度值,符号函数
Figure BDA0002685916160000022
(2)确定每一子区域内的m维描述向量d:
确定机器人运动监测视觉信息的特征点,以特征点为圆心,尺度参数为σi,取半径为12σi的圆形区域作为特征点邻域,对其进行核为2.5σi的高斯加权,然后将其划分为5个圆环子区域,宽度为4σi,有σi重叠环。之后确定每一子区域的m维描述向量d:
d=(∑Lx,∑Ly,∑|Lx|,∑|Ly|,∑Lxx,∑Lyy,∑|Lxx|,∑|Lyy|)
式中,Lx,Ly,Lxx,Lyy分别为滤波视觉信息图像L的一阶与二阶微分,|Lx|,|Ly|,|Lxx|,|Lyy| 为对应的绝对值。
生成n个m维子向量,经过归一化,最终得到n×m维的特征向量。
(3)计算两个描述向量之间的近似欧式距离L2(x,y):
首先,在m×n维空间中,计算两向量间的街区距离L1(x,y):
Figure BDA0002685916160000023
接着计算两向量间的棋盘距离L
Figure BDA0002685916160000024
确定两向量间的近似欧式距离L2
L2=α(L1+L)
在上述式子中,x,y分别表示两个同维度的向量,i为向量中的第i维,表达式中的α为一个与维度相关的实数,α的表达式为:
Figure BDA0002685916160000031
式中,m×n是向量维数。
(4)进行图像的匹配点对,确定两图像间投影变换的参数矩阵H:
Figure BDA0002685916160000032
式中,a1、a2、a4、a5是表示特征匹配点对内两个特征点的尺度变换和旋转变换比例的数值,a3、 a6表示特征匹配点对内两个特征点的平移距离,a7和a8为水平方向和竖直方向的形变量,a9为常数值1。在图像的匹配过程中,从I对预匹配点对中随机选取n对初始匹配点对,在选取的点对中,需每个图像中任意n-1个点不在一条直线上。
(5)对剩下I-n对特征点(ai,ai')进行dv操作:
dv=d(a’i,Hai)
若dv小于阈值T,则认为该特征匹配对为内点,否则为外点。设当前最佳估计内点数目Ni为0,比较当前内点数目,若大于Ni则当前转换关系H为当前最佳矩阵估计,更新Ni的值。
(6)确定采样迭代次数N:
Figure BDA0002685916160000033
假设至少有一次采样的n对点均为内点的概率为p,ε为一次采样为误匹配点对的概率,S是每次迭代使用的匹配点对数目,当ε未知的时候,在计算过程中动态估计ε和N的值,当迭代次数达到N后,保留变换H和当前的内点集,并停止迭代。
(7)确定似然比λi
遍历所选择的数据集中的数据,计算约束条件下似然函数的最大值和无约束条件下似然函数的最大值,之后确定似然比λi
Figure BDA0002685916160000043
式中,i为数据总数,xr为数据集中的数据,Hg为假设模型为正确,Hb为假设模型为错误。
通过λi与阈值H比较,确定数据集中的数据是否与模型匹配。若λi大于阈值H,则模型被认为不精确,舍弃后继续检测下一个样本点。
(8)确定最佳阈值H*
Figure BDA0002685916160000041
Figure BDA0002685916160000042
式中,ms为模型检测每个样本所花费的平均时间,p(1|Hg)为随机选取一个点以匹配当前模型的概率,p(1|Hb)为随机选取一个点不满足当前模型的概率,设:
p(1|Hb)=ρ;p(0|Hb)=1-ρ
p(1|Hg)=1-δ;p(0|Hg)=δ
本发明比现有技术具有的优点:
(1)本方法采用MTLBP和Li-KAZE算子,相较于传统的识别方法有着高精度、高效率、低延时的特点,可以大大提高目标识别的速度。
(2)本方法相较于传统方法有着较为准确匹配识别率和实时性。对于错误数据的识别和剔除有着较为准确的判断,从而提高精确信息的置信度,获得更为准确的识别结果。
附图说明
为了更好的理解本发明,下面结合附图作进一步的说明。
图1是建立基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法的步骤流程图;
图2是建立基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法流程图;
图3是利用本发明对四组机器人运动监测视觉信息进行融合的结果;
具体实施方案
下面通过实施案例对本发明作进一步详细说明。
本实施案例选用的数据集一共有1000组样本,其中从网上搜素随机选取,包含科技、植物、动物等各个方面的图片有700组,自己实际拍摄的照片有300组,包含各个角度,各个环境条件,之后将来源不同的两类图片进行随机混合,进行样本的信息融合。
本发明所提供的机器人运动监测视觉信息融合方法整体流程图如1所示,具体步骤如下:
(1)确定中心元素的LBP值LBP(xc,yc):
在视觉信息中确定一定大小的像素邻域,设定一组阈值gi(i=0,1,2,…,n),以中心像素与周围邻域像素之差的绝对值|ip-ic|,与gi比较,当|ip-ic|大于设定阈值时,则该位置标记为1,否则标记为0,。比较后,顺时针排列得到的二进制数,得到该中心像素的LBP值LBP(xc,yc):
Figure BDA0002685916160000051
式中,(xc,yc)、ic是中心像素的位置和灰度值,p、ip为中心像素邻域内的采样点和灰度值,符号函数
Figure BDA0002685916160000052
(2)确定每一子区域内的8维描述向量d:
确定机器人运动监测视觉信息的特征点,以特征点为圆心,尺度参数为σi,取半径为12σi的圆形区域作为特征点邻域,对其进行核为2.5σi的高斯加权,然后将其划分为5个圆环子区域,宽度为4σi,有σi重叠环。之后确定每一子区域的8维描述向量d:
d=(∑Lx,∑Ly,∑|Lx|,∑|Ly|,∑Lxx,∑Lyy,∑|Lxx|,∑|Lyy|)
式中,Lx,Ly,Lxx,Lyy分别为滤波视觉信息图像上L的一阶与二阶微分,|Lx|,|Ly|,|Lxx|,|Lyy| 为对应的绝对值。
生成5个8维子向量,经过归一化,最终得到40维的特征向量。
(3)计算两个描述向量之间的近似欧式距离L2(x,y):
首先,在40维空间中,计算两向量间的街区距离L1(x,y):
Figure BDA0002685916160000061
接着计算两向量间的棋盘距离L
Figure BDA0002685916160000062
确定两向量间的近似欧式距离L2
L2=α(L1+L)
在上述式子中,x,y分别表示两个同维度的向量,i为向量中的第i维,表达式中的α为一个与维度相关的实数,α的表达式为:
Figure BDA0002685916160000063
式中,新特征维数为40,因此α为0.595。
(4)进行图像的匹配点对,确定两图像间投影变换的参数矩阵H:
Figure BDA0002685916160000064
式中,a1、a2、a4、a5是表示特征匹配点对内两个特征点的尺度变换和旋转变换比例的数值,a3、 a6表示特征匹配点对内两个特征点的平移距离,a7和a8为水平方向和竖直方向的形变量,a9为常数值1。在图像的匹配过程中,从I对预匹配点对中随机选取4对初始匹配点对,在选取的点对中,需每个图像中任意3个点不在一条直线上。
(5)对剩下I-4对特征点(ai,a’i)进行dv操作:
dv=d(a’i,Hai)
若dv小于阈值T,则认为该特征匹配对为内点,否则为外点。设当前最佳估计内点数目Ni为0,比较当前内点数目,若大于Ni则当前转换关系H为当前最佳矩阵估计,更新Ni的值。
(6)确定采样迭代次数N:
Figure BDA0002685916160000071
假设至少有一次采样的4对点均为内点的概率为p,ε为一次采样为误匹配点对的概率,S是每次迭代使用的匹配点对数目,在本设计中,S=4,ε=0.8,则迭代次数N=320后,迭代结束,保留变换H 和当前的内点集。
(7)确定似然比λi
遍历所选择的数据集中的数据,计算约束条件下似然函数的最大值和无约束条件下似然函数的最大值,之后确定似然比λi
Figure BDA0002685916160000072
式中,i为数据总数,xr为数据集中的数据,Hg为假设模型为正确,Hb为假设模型为错误。
通过λi与阈值H比较,确定数据集中的数据是否与模型匹配。若λi大于阈值H,则模型被认为不精确,舍弃后继续检测下一个样本点。
(8)确定最佳阈值H*
Figure BDA0002685916160000073
Figure BDA0002685916160000074
式中,ms为模型检测每个样本所花费的平均时间,p(1|Hg)为随机选取一个点以匹配当前模型的概率,p(1|Hb)为随机选取一个点不满足当前模型的概率,设:
p(1|Hb)=ρ;p(0|Hb)=1-ρ
p(1|Hg)=1-δ;p(0|Hg)=δ
为了验证本发明对机器人运动监测视觉信息融合的准确性,对本发明进行了四组信息融合实验,实验结果如图3所示。由图3所知,本发明建立的基于MTLBP-Li-KAZE-R-RANSAC的算法对机器人运动监测视觉信息融合的准确率均保持在94%以上,能够在保证实时性的上达到较高的准确率和实时性。这表明本发明建立的基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法是有效的,为准确快速建立视觉信息的融合提供了一种很好的方法,具有一定的实用性。

Claims (1)

1.一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法,其特征在于:(1)确定中心元素LBP值;(2)确定每一子区域内的8维描述向量;(3)计算两个描述向量之间的近似欧式距离;(4)进行图像的匹配点对,确定图像间投影变换的参数矩阵;(5)对剩下的特征点对进行dv操作;(6)确定采样迭代次数;(7)确定似然比;(8)确定最佳阈值;具体包括以下八个步骤:
步骤一:确定中心元素的LBP值LBP(xc,yc):
在视觉信息中确定一定大小的像素邻域,设定一组阈值gi(i=0,1,2,…,n),以中心像素与周围邻域像素之差的绝对值|ip-ic|,与gi比较,当|ip-ic|大于设定阈值时,则位置标记为1,否则标记为0,比较后,顺时针排列得到的二进制数,得到该中心像素的LBP值LBP(xc,yc):
Figure FDA0003756456440000011
式中,(xc,yc)、ic是中心像素的位置和灰度值,p、ip为中心像素邻域内的采样点和灰度值,符号函数
Figure FDA0003756456440000012
步骤二:确定每一子区域内的m维描述向量d:
确定机器人运动监测视觉信息的特征点,以特征点为圆心,尺度参数为σi,取半径为12σi的圆形区域作为特征点邻域,对其进行核为2.5σi的高斯加权,然后将其划分为5个圆环子区域,宽度为4σi,有σi重叠环;之后确定每一子区域的m维描述向量d:
d=(∑Lx,∑Ly,∑|Lx|,∑|Ly|,∑Lxx,∑Lyy,∑|Lxx|,∑|Lyy|);
式中,Lx,Ly,Lxx,Lyy分别为滤波视觉信息图像L的一阶与二阶微分,|Lx|,|Ly|,|Lxx|,|Lyy|为对应的绝对值;
生成n个m维子向量,经过归一化,最终得到n×m维的特征向量;
步骤三:计算两个描述向量之间的近似欧式距离L2(x,y):
首先,在m×n维空间中,计算两向量间的街区距离L1(x,y):
Figure FDA0003756456440000013
接着计算两向量间的棋盘距离L
Figure FDA0003756456440000021
确定两向量间的近似欧式距离L2
L2=α(L1+L);
在上述式子中,x,y分别表示两个同维度的向量,i为向量中的第i维,表达式中的α为一个与维度相关的实数,α的表达式为:
Figure FDA0003756456440000022
式中,m×n是向量维数;
步骤四:进行图像的匹配点对,确定两图像间投影变换的转换关系H:
Figure FDA0003756456440000023
式中,a1、a2、a4、a5是表示特征匹配点对内两个特征点的尺度变换和旋转变换比例的数值,a3、a6表示特征匹配点对内两个特征点的平移距离,a7和a8为水平方向和竖直方向的形变量,a9为常数值1;在图像的匹配过程中,从I对预匹配点对中随机选取n对初始匹配点对,在选取的点对中,需每个图像中任意n-1个点不在一条直线上;
步骤五:对剩下I-n对特征点(ai,a′i)进行dv操作:
dv=D(a′i,Hai);
其中,若dv小于阈值T,则认为该特征匹配对为内点,否则为外点,设当前最佳估计内点数目Ni为0,比较当前内点数目,若大于Ni则当前转换关系H为当前最佳矩阵估计,更新Ni的值;
步骤六:确定采样迭代次数N:
Figure FDA0003756456440000024
假设至少有一次采样的n对点均为内点的概率为p,ε为一次采样为误匹配点对的概率,S是每次迭代使用的匹配点对数目,当ε未知的时候,在计算过程中动态估计ε和N的值,当迭代次数达到N后,保留变换H和当前的内点集,并停止迭代;
步骤七:确定似然比λi
遍历所选择的数据集中的数据,计算约束条件下似然函数的最大值和无约束条件下似然函数的最大值,之后确定似然比λi
Figure FDA0003756456440000031
式中,i为数据总数,xr为数据集中的数据,Hg为假设模型为正确,Hb为假设模型为错误;
通过λi与阈值E比较,确定数据集中的数据是否与模型匹配;若λi大于阈值E,则模型被认为不精确,舍弃后继续检测下一个样本点;
步骤八:确定最佳阈值H*
Figure FDA0003756456440000032
Figure FDA0003756456440000033
式中,ms为模型检测每个样本所花费的平均时间,p(1|Hg)为随机选取一个点以匹配当前模型的概率,p(1|Hb)为随机选取一个点不满足当前模型的概率,设:
Figure FDA0003756456440000034
CN202010976289.6A 2020-09-16 2020-09-16 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法 Active CN112085117B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010976289.6A CN112085117B (zh) 2020-09-16 2020-09-16 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010976289.6A CN112085117B (zh) 2020-09-16 2020-09-16 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法

Publications (2)

Publication Number Publication Date
CN112085117A CN112085117A (zh) 2020-12-15
CN112085117B true CN112085117B (zh) 2022-08-30

Family

ID=73737977

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010976289.6A Active CN112085117B (zh) 2020-09-16 2020-09-16 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法

Country Status (1)

Country Link
CN (1) CN112085117B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113989125B (zh) * 2021-12-27 2022-04-12 武汉楚精灵医疗科技有限公司 内镜图像的拼接方法、装置、计算机设备及存储介质
CN116824183B (zh) * 2023-07-10 2024-03-12 北京大学 基于多重特征描述符的图像特征匹配方法和装置

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102938147A (zh) * 2012-09-21 2013-02-20 西北工业大学 一种基于快速鲁棒特征的低空无人机视觉定位方法
CN104596519B (zh) * 2015-02-17 2017-06-13 哈尔滨工业大学 基于ransac算法的视觉定位方法
CN106056122B (zh) * 2016-05-26 2019-05-17 中山大学 一种基于kaze特征点的图像区域复制粘贴篡改检测方法
CN106469465A (zh) * 2016-08-31 2017-03-01 深圳市唯特视科技有限公司 一种基于灰度和深度信息的三维人脸重建方法

Also Published As

Publication number Publication date
CN112085117A (zh) 2020-12-15

Similar Documents

Publication Publication Date Title
CN106530347B (zh) 一种稳定的高性能圆特征检测方法
CN106355577B (zh) 基于特征状态与全局一致性的快速图像匹配方法及系统
CN104200495B (zh) 一种视频监控中的多目标跟踪方法
CN110598535B (zh) 一种监控视频数据中使用的人脸识别分析方法
Garg et al. Delta descriptors: Change-based place representation for robust visual localization
CN110490158B (zh) 一种基于多级模型的鲁棒人脸对齐方法
CN111310662B (zh) 一种基于集成深度网络的火焰检测识别方法及系统
WO2022218396A1 (zh) 图像处理方法、装置和计算机可读存储介质
CN112085117B (zh) 一种基于MTLBP-Li-KAZE-R-RANSAC的机器人运动监测视觉信息融合方法
Etezadifar et al. A new sample consensus based on sparse coding for improved matching of SIFT features on remote sensing images
CN110222661B (zh) 一种用于运动目标识别及跟踪的特征提取方法
CN112329662B (zh) 基于无监督学习的多视角显著性估计方法
CN110766782A (zh) 基于多无人机视觉协同的大型施工场景实时重构方法
CN108921872B (zh) 一种适用于长程跟踪的鲁棒性视觉目标跟踪方法
CN111898428A (zh) 一种基于orb的无人机特征点匹配方法
CN112652003A (zh) 一种基于ransac测度优化的三维点云配准方法
CN105447869B (zh) 基于粒子群优化算法的摄像机自标定方法及装置
CN111199558A (zh) 一种基于深度学习的图像匹配方法
CN113095385A (zh) 一种基于全局和局部特征描述的多模图像匹配方法
CN112364881A (zh) 一种进阶采样一致性图像匹配算法
CN110246165B (zh) 提高可见光图像与sar图像配准速度的方法及系统
CN112418250B (zh) 一种复杂3d点云的优化匹配方法
CN111339342B (zh) 一种基于角度三元中心损失的三维模型检索方法
CN104484647B (zh) 一种高分辨率遥感图像云高度检测方法
CN113888603A (zh) 基于光流跟踪和特征匹配的回环检测及视觉slam方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant