CN116051815B - 一种基于单目摄像头的目标定位方法及系统 - Google Patents

一种基于单目摄像头的目标定位方法及系统 Download PDF

Info

Publication number
CN116051815B
CN116051815B CN202310331377.4A CN202310331377A CN116051815B CN 116051815 B CN116051815 B CN 116051815B CN 202310331377 A CN202310331377 A CN 202310331377A CN 116051815 B CN116051815 B CN 116051815B
Authority
CN
China
Prior art keywords
camera
monocular
frame
point
points
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202310331377.4A
Other languages
English (en)
Other versions
CN116051815A (zh
Inventor
赵�权
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Huanyu Zhongheng Technology Co ltd
Original Assignee
Sichuan Huanyu Zhongheng Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Huanyu Zhongheng Technology Co ltd filed Critical Sichuan Huanyu Zhongheng Technology Co ltd
Priority to CN202310331377.4A priority Critical patent/CN116051815B/zh
Publication of CN116051815A publication Critical patent/CN116051815A/zh
Application granted granted Critical
Publication of CN116051815B publication Critical patent/CN116051815B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • G06V10/245Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

本发明涉及摄影技术领域,具体而言,涉及一种基于单目摄像头的目标定位方法及系统,该方法的步骤包括:通过人员配置的单目摄像头获取单目图像;利用ORB算法提取所述单目图像的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点;基于初始地图点进行动态追踪,以实现人员定位。本实施例仅用一个单目摄像头采集图像,相较于双目或者多目视觉定位系统,无需解决双目视觉中的两摄像头间的基线长度和特征点匹配难的问题,也不会产生很大的畸变,在相机安装、视场调整、相机参数标定等方面也都比双目视觉有优势,并且解决了单目摄像头无法获取深度信息的问题。

Description

一种基于单目摄像头的目标定位方法及系统
技术领域
本发明涉及摄影技术领域,具体而言,涉及一种基于单目摄像头的目标定位方法及系统。
背景技术
近年随着人员位置技术需求的不断增长,催生了人员定位技术的不断发展。传统卫星定位系统,如全球定位系统(GPS)、北斗定位系统等,在室外空旷环境中拥有较高的定位精度,但卫星定位信号很容易受到遮蔽或干扰,导致卫星定位系统在很多特定环境(如企业内部、矿洞内部、限制电子信号覆盖区域)中定位不准甚至无法定位。由于视觉信息具有无电磁干扰、环境限制等特点,因此在室内环境中,机器视觉定位技术被广泛关注。由于单目视觉只能实现二维平面目标点运动参数测量,而双目或者多目摄像头视觉可以获取目标点的三维坐标,因此目前在定位技术中多采用双目或多目摄像头。但是,在多目摄像头使用过程中发现,视觉传感器之间立体匹配困难,测量视场范围小,且摄像头价格昂贵,采用多个摄像头会导致成本较高。
发明内容
本发明的目的在于提供一种基于单目摄像头的目标定位方法及系统,本发明仅用一个单目摄像头采集图像,相较于双目或者多目视觉定位系统,无需解决双目视觉中的两摄像头间的基线长度和特征点匹配难的问题,也不会产生很大的畸变,在相机安装、视场调整、相机参数标定等方面也都比双目视觉有优势,并且解决了单目摄像头无法获取深度信息的问题。
本发明的实施例通过以下技术方案实现:
一方面,一种基于单目摄像头的目标定位方法,该方法的步骤包括:
步骤1:通过人员配置的单目摄像头获取单目图像;
步骤2:利用ORB算法提取所述单目图像中参考帧与当前帧的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点;
步骤3:基于初始地图点进行目标动态追踪;
在步骤3中,所述基于初始地图点进行目标动态追踪包括:
步骤31:从当前帧中确定出目标点,获取所述目标点的坐标;
步骤32:将所述目标点投影至下一帧,获取所述目标点在所述下一帧中投影点的坐标;
步骤33:对所述投影点的坐标进行平差优化,更新初始地图点。
本发明对图像进行预矫正,保证了图像的质量,方便后续地图点初始化与动态视觉追踪。
可选的,所述预设矫正参数包括矫正函数和相机内参。
可选的,在步骤2中,利用ORB算法提取所述单目图像中参考帧与当前帧的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点包括:
步骤21:定义参考帧和当前帧;
步骤22:分别对参考帧和当前帧使用ORB算法提取特征点并计算描述子;
步骤23:将所述参考帧的特征点与当前帧的特征点进行匹配,计算出参考帧与当前帧的相对位姿;
步骤24:对匹配成功的特征点的集合进行3D重构,得到初始地图点。
本发明采用ORB算法提取特征,兼顾了单目视觉跟踪过程中的效率和精度。
可选的,在步骤23中,计算出参考帧与当前帧的相对位姿包括:
步骤231:根据参考帧和当前帧上的对应匹配特征点的集合,构建多个虚拟相机模型;
步骤232:计算基础矩阵和单应矩阵,从多个虚拟相机模型中确定出最佳虚拟相机模型;
步骤233:根据所述最佳虚拟相机模型计算参考帧与当前帧的相对位姿。
本发明选用最优模型进行位姿估计,进一步保证了单目视觉跟踪过程中的效率和精度。
可选的,所述投影点的坐标为:
Figure SMS_2
其中,/>
Figure SMS_6
、/>
Figure SMS_9
、/>
Figure SMS_3
分别为当前帧中第i个目标点的X轴坐标、Y轴坐标、Z轴坐标,/>
Figure SMS_5
、/>
Figure SMS_8
、/>
Figure SMS_10
分别为下一帧中单目摄像头观测第i个投影点时的水平旋转角、俯仰角、距离,/>
Figure SMS_1
、/>
Figure SMS_4
、/>
Figure SMS_7
分别为投影点的X轴坐标、Y轴坐标、Z轴坐标。
另一方面,一种基于单目摄像头的目标定位系统,包括:
获取模块,用于通过人员配置的单目摄像头获取单目图像;
初始化模块,用于利用ORB算法提取所述单目图像中参考帧与但全国帧的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点;
动态定位模块,用于基于所述初始地图点进行动态追踪。
本发明实施例的技术方案至少具有如下优点和有益效果:
本实施例仅用一台视觉成像设备(单目摄像头)采集图像,相较于其他动态定位、双目视觉或多目视觉动态定位,无需解决双目视觉中的两摄像头间的基线长度和特征点匹配难的问题,也不会产生很大的畸变,在安装、视场调整、相机参数标定等方面也都比双目视觉有优势,并且解决了单目摄像头无法获取深度信息的问题。
附图说明
图1为本发明提供的一种基于单目摄像头的目标定位方法的流程示意图;
图2为本发明提供的一种基于单目摄像头的目标定位方系统的示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本发明实施例的组件可以以各种不同的配置来布置和设计。
如图1所示,图1为本发明提供的一种基于单目摄像头的目标定位方法的流程示意图。
目标定位方法包括步骤:
步骤1:通过人员配置的单目摄像头获取单目图像;
具体的,所述单目摄像头包括但不限于安全帽摄像头、胸挂式摄像头、手机上的摄像头;所述配置方式包括但不限于穿戴、手持。
更为具体的,步骤1中,通过人员配置的单目摄像头获取单目图像包括:步骤11,获取单目摄像头采集的视觉范围特征点;步骤12,根据预设矫正参数对所述视觉范围特征点进行矫正并分配至图像网络坐标,得到单目图像。
其中,视觉范围特征点为视觉内可观察的点,如图2所示。
其中,所述预设矫正参数包括矫正函数和相机内参,具体的,所述矫正函数可以是opencv中矫正函数中的任一种。
本实施例采用上述方法对图像进行矫正,以保证图像具有很好的质量,方便后续的地图点初始化与动态视觉追踪。
步骤2:利用ORB算法提取所述单目图像中参考帧与当前帧的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点。
在本发明实施例中,在步骤2中,利用ORB算法提取所述单目图像的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点包括:步骤21:定义参考帧和当前帧;步骤22:分别对参考帧和当前帧使用ORB算法提取特征点并计算描述子;步骤23:将所述参考帧的特征点与当前帧的特征点进行匹配,计算出参考帧与当前帧的相对位姿;步骤24:对匹配成功的特征点集进行3D重构,得到初始地图点,以实现地图点初始化。
具体的,分别对参考帧和当前帧使用ORB算法提取特征点并计算特征点描述子包括:采用FAST特征检测算子获取参考帧和当前帧的特征点,并采用BRIEF算法计算描述子;构建图像金字塔,并利用四叉树分配算法均匀化特征点,得到特征点描述子。
进一步的,将所述参考帧的特征点与当前帧的特征进行匹配包括:根据参考帧与当前帧的特征点描述子,计算特征点之间的汉明距离,按照汉明距离比较特征点相似程度并进行排序,相似程度最高即汉明距离最小的特征点为匹配成功的特征点。
更为具体的,计算出参考帧与当前帧的相对位姿包括:步骤231:根据参考帧和当前帧上的对应匹配特征点集,构建多个虚拟相机模型;步骤232:通过计算基础矩阵和单应矩阵,对比多个虚拟相机模型中当前帧和参考帧的误差值确定出最佳虚拟相机模型从而获得最佳虚拟相机模型计算参考帧与当前帧的相对位姿。
还需要说明的是,单应矩阵和基础矩阵用于还原运动,通过单应矩阵和基础矩阵来获取参考帧的位姿,根据参考帧的位姿和当前帧的位姿。虚拟相机模型包括但不限于参考帧模型、恒速模型,通过比重投影误差的大小来确定最佳(误差最小)虚拟相机模型,示例性地,当误差最小的虚拟相机模型为是参考帧模型,通过该模型计算参考帧与当前帧相对位姿的方法为:将参考帧的位姿作为当前帧的位姿的初始值(加速收敛),通过优化重投影误差来获得准确的相对位姿。
本实施例采用ORB算法提取特征并直接匹配估计位姿,ORB算法是将FAST角点检测与BRIEF特征描述结合一种算法改进,兼顾了单目视觉跟踪过程中的效率和精度。
步骤3,基于初始地图点进行目标动态追踪。
在本发明实施例中,在步骤3中,所述基于初始地图点进行目标动态追踪包括:步骤31:从当前帧中确定出目标点,获取所述目标点的坐标;步骤32:将所述目标点投影至下一帧,获取所述目标点在所述下一帧中投影点的坐标;步骤33:对所述投影点的坐标进行平差优化,更新初始地图点,其中,视觉范围特征点经过步骤2筛选得到的点。
更为具体的,所述投影点的坐标为:
Figure SMS_12
其中,/>
Figure SMS_16
、/>
Figure SMS_19
、/>
Figure SMS_11
分别为当前帧中第i个目标点的X轴坐标、Y轴坐标、Z轴坐标,/>
Figure SMS_14
、/>
Figure SMS_17
、/>
Figure SMS_20
分别为下一帧中单目摄像头观测第i个投影点时的水平旋转角、俯仰角、距离,/>
Figure SMS_13
、/>
Figure SMS_15
、/>
Figure SMS_18
分别为投影点的X轴坐标、Y轴坐标、Z轴坐标。
通过上述方法,对优化初始地图点使初始数据误差达到最小,从而获得精确的目标位置。
为了更好地理解,地图点初始化以及基于初始地图点进行动态追踪的过程,下面进行详细阐述。
1)设摄像头(人员)的初始坐标(初始坐标为假设获取不需要真实坐标)为(
Figure SMS_22
,/>
Figure SMS_25
Figure SMS_27
),第一帧中第i个目标点的坐标为(/>
Figure SMS_23
,/>
Figure SMS_26
,/>
Figure SMS_28
),设第一帧中观测第i个目标点(视觉范围内一个特征对应一个目标点坐标)时的水平旋转角(以坐标x轴正方向为0角度,左转为正,右转为负)、俯仰角(仰角为正,俯角为负)、距离分别为/>
Figure SMS_29
,/>
Figure SMS_21
,/>
Figure SMS_24
,则第一帧第i个目标点(参考点)的坐标为:
Figure SMS_30
通过上述公式可以确定摄像头第一帧初始位置拍摄的画面中每个目标点的投影点坐标。
2)设第二帧中摄像机观测第一帧第i个目标点时的水平旋转角、俯仰角、距离分别为
Figure SMS_31
,/>
Figure SMS_32
,/>
Figure SMS_33
,则第二帧中摄像机由第一帧第i个目标点确定的投影点的坐标为:
Figure SMS_34
通过第一帧确定第二帧中每个目标点的投影点坐标。
3)设第一帧中观测目标点个数为
Figure SMS_35
,则第二帧中摄像机平差后的坐标为:
Figure SMS_36
从而筛选出合格适用的目标点坐标。
4)设第三帧中摄像机观测第i个目标点时的水平旋转角、俯仰角、距离分别为
Figure SMS_37
Figure SMS_38
,/>
Figure SMS_39
,则第三帧中,以第二帧摄像机坐标(/>
Figure SMS_40
, />
Figure SMS_41
, />
Figure SMS_42
)(由第二帧中第j个目标点确定)(1≤j≤/>
Figure SMS_43
)为基准计算第三帧中第i个目标点的坐标为:
Figure SMS_44
由此计算出第三帧中摄像机观测的第i个目标点平差后的坐标为:
Figure SMS_45
依据第二帧已经筛选出的平差优化后的目标点坐标可以确定第三帧的位置。
5)在上述基础上,设摄像机第k帧中观测的目标点个数为
Figure SMS_48
,摄像机第k帧中观测的第i(1≤i≤/>
Figure SMS_49
)个目标点平差后的坐标为(/>
Figure SMS_51
,/>
Figure SMS_47
,/>
Figure SMS_50
)(已计算),设摄像机第k + 1帧中观测第k帧中第i个目标点时的水平旋转角、俯仰角、距离分别为/>
Figure SMS_52
,/>
Figure SMS_53
,/>
Figure SMS_46
,则第k+1帧中摄像机由第k帧第i个目标点(参考点)确定的坐标为:
Figure SMS_54
则第k+1帧中摄像机平差后的坐标为:
Figure SMS_55
之后每个点坐标都可以按照上述公式以此挨个确定该位置的投影目标点坐标并筛选出适用的点坐标。
6)设摄像机第k+2帧中观测的目标点个数为
Figure SMS_57
,观测第i个目标点时的水平旋转角、俯仰角、距离分别为/>
Figure SMS_60
,/>
Figure SMS_62
,/>
Figure SMS_56
。则第k+2帧中,以第k+1帧中摄像机坐标(/>
Figure SMS_59
,/>
Figure SMS_61
Figure SMS_63
)(由第k+1帧中第j个目标点确定的)(1≤j≤/>
Figure SMS_58
)为基准计算的第k+2帧第i个目标坐标为:
Figure SMS_64
由此可得摄像机第k+2帧中观测第i个目标点平差后的坐标为:
Figure SMS_65
这样由前面第k+1帧中摄像机位置的计算公式可以得到第k+3帧中摄像机平差后的坐标。
通过上述方法可实现相机位置(人员位置)的动态视觉追踪,达到了单目摄像头的人员定位效果。
综上,本发明实施例提供了一种基于单目摄像头的目标定位方法,该方法仅用一个单目摄像头采集图像,相较于其他动态定位、双目视觉或多目视觉动态定位,无需解决双目视觉中的两摄像头间的基线长度和特征点匹配难的问题,也不会产生很大的畸变,在安装、视场调整、相机参数标定等方面也都比双目视觉有优势,并且通过上述投影过程并利用几何三角化和反深度(inverse depth)方法解决了单目摄像头无法获取深度信息的问题。
如图2所示,图2为本发明提供的一种基于单目摄像头的目标定位方系统的示意图。
在一些实施方式中,一种基于单目摄像头的目标定位系统,包括:获取模块,用于通过人员配置的单目摄像头获取单目图像;初始化模块,用于利用ORB算法提取所述单目图像的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点;动态定位模块,用于基于所述初始地图点进行动态追踪。
本发明实施例所提供的一种基于单目摄像头的目标定位系统与上述实施例所提供的一种基于单目摄像头的目标定位方法出于相同的发明构思,关于本发明实施例中各个模块更加具体的工作原理参考上述实施例,在本发明实施例中不做赘述。
以上仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (5)

1.一种基于单目摄像头的目标定位方法,其特征在于,该方法的步骤包括:
步骤1:通过配置的单目摄像头获取单目图像;
步骤2:利用ORB算法提取所述单目图像中参考帧与当前帧的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点;
步骤3:基于初始地图点进行目标动态追踪;
在步骤2中,利用ORB算法提取所述单目图像中参考帧与当前帧的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点包括:
步骤21:定义参考帧和当前帧;
步骤22:分别对参考帧和当前帧使用ORB算法提取特征点并计算描述子;
步骤23:将所述参考帧的特征点与当前帧的特征点进行匹配,计算出参考帧与当前帧的相对位姿;
步骤24:对匹配成功的特征点的集合进行3D重构,得到初始地图点;
在步骤3中,所述基于所述初始地图点进行目标动态追踪包括:
步骤31:从当前帧中确定出目标点,获取所述目标点的坐标;
步骤32:将所述目标点投影至下一帧,获取所述目标点在所述下一帧中投影点的坐标;
步骤33:对所述投影点的坐标进行平差优化,更新初始地图点;
其中,所述投影点的坐标为:
Figure QLYQS_1
其中,
Figure QLYQS_2
分别为当前帧中第i个目标点的X轴坐标、Y轴坐标、Z轴坐标,
Figure QLYQS_3
分别为下一帧中单目摄像头观测第i个投影点时的水平旋转角、俯仰角、距离。
2.根据权利要求1所述的一种基于单目摄像头的目标定位方法,其特征在于,在步骤1中,通过人员配置的单目摄像头获取单目图像包括:
步骤11:获取单目摄像头采集的视觉范围特征点;
步骤12:根据预设矫正参数对所述视觉范围特征点进行矫正并分配至图像网络坐标,得到单目图像。
3.根据权利要求2所述的一种基于单目摄像头的目标定位方法,其特征在于,所述预设矫正参数包括矫正函数和相机内参。
4.根据权利要求1所述的一种基于单目摄像头的目标定位方法,其特征在于,在步骤23中,计算出参考帧与当前帧的相对位姿包括:
步骤231:根据参考帧和当前帧上的对应匹配特征点的集合,构建多个虚拟相机模型;
步骤232:计算基础矩阵和单应矩阵,从多个虚拟相机模型中确定出最佳虚拟相机模型;
步骤233:根据所述最佳虚拟相机模型计算参考帧与当前帧的相对位姿。
5.一种基于单目摄像头的目标定位系统,适用于权利要求1-4任一所述的方法,其特征在于,包括:
获取模块,用于通过人员配置的单目摄像头获取单目图像;
初始化模块,用于利用ORB算法提取所述单目图像的ORB特征,并进行特征匹配,根据特征匹配结果进行3D重构,得到初始地图点;
动态定位模块,用于基于所述初始地图点进行动态追踪。
CN202310331377.4A 2023-03-31 2023-03-31 一种基于单目摄像头的目标定位方法及系统 Active CN116051815B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310331377.4A CN116051815B (zh) 2023-03-31 2023-03-31 一种基于单目摄像头的目标定位方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310331377.4A CN116051815B (zh) 2023-03-31 2023-03-31 一种基于单目摄像头的目标定位方法及系统

Publications (2)

Publication Number Publication Date
CN116051815A CN116051815A (zh) 2023-05-02
CN116051815B true CN116051815B (zh) 2023-06-20

Family

ID=86118552

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310331377.4A Active CN116051815B (zh) 2023-03-31 2023-03-31 一种基于单目摄像头的目标定位方法及系统

Country Status (1)

Country Link
CN (1) CN116051815B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109693235A (zh) * 2017-10-23 2019-04-30 中国科学院沈阳自动化研究所 一种仿人眼视觉跟踪装置及其控制方法
CN110807809A (zh) * 2019-10-25 2020-02-18 中山大学 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN114693799A (zh) * 2020-12-31 2022-07-01 杭州海康威视数字技术股份有限公司 参数标定方法、目标物体跟踪方法、设备和系统
CN114972491A (zh) * 2022-05-16 2022-08-30 美的集团(上海)有限公司 视觉slam方法、电子设备、存储介质及产品
CN115661270A (zh) * 2022-12-22 2023-01-31 陕西欧卡电子智能科技有限公司 一种用于毫米波雷达与鱼眼摄像头的在线标定方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2622576A4 (en) * 2010-10-01 2017-11-08 Saab AB Method and apparatus for solving position and orientation from correlated point features in images
CN107610175A (zh) * 2017-08-04 2018-01-19 华南理工大学 基于半直接法和滑动窗口优化的单目视觉slam算法
CN115471748A (zh) * 2022-08-30 2022-12-13 华南理工大学 一种面向动态环境的单目视觉slam方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109693235A (zh) * 2017-10-23 2019-04-30 中国科学院沈阳自动化研究所 一种仿人眼视觉跟踪装置及其控制方法
CN110807809A (zh) * 2019-10-25 2020-02-18 中山大学 基于点线特征和深度滤波器的轻量级单目视觉定位方法
CN114693799A (zh) * 2020-12-31 2022-07-01 杭州海康威视数字技术股份有限公司 参数标定方法、目标物体跟踪方法、设备和系统
CN114972491A (zh) * 2022-05-16 2022-08-30 美的集团(上海)有限公司 视觉slam方法、电子设备、存储介质及产品
CN115661270A (zh) * 2022-12-22 2023-01-31 陕西欧卡电子智能科技有限公司 一种用于毫米波雷达与鱼眼摄像头的在线标定方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Monocular 3D Object Detection: An Extrinsic Parameter Free Approach;Yunsong Zhou等;《CVPR2021》;7556-7566 *
基于视觉的无人机自主导航系统设计;刘建梅;《中国优秀硕士学位论文全文数据库 (工程科技Ⅱ辑)》(第04期);C031-38 *

Also Published As

Publication number Publication date
CN116051815A (zh) 2023-05-02

Similar Documents

Publication Publication Date Title
CN108765498B (zh) 单目视觉跟踪方法、装置及存储介质
CN112894832B (zh) 三维建模方法、装置、电子设备和存储介质
CN110728715B (zh) 一种智能巡检机器人摄像机角度自适应调整方法
CN110285793B (zh) 一种基于双目立体视觉系统的车辆智能测轨迹方法
CN110070615B (zh) 一种基于多相机协同的全景视觉slam方法
CN108734744B (zh) 一种基于全站仪的远距离大视场双目标定方法
CN106529495B (zh) 一种飞行器的障碍物检测方法和装置
TWI555379B (zh) 一種全景魚眼相機影像校正、合成與景深重建方法與其系統
CN109919911B (zh) 基于多视角光度立体的移动三维重建方法
CN107886547B (zh) 一种鱼眼相机标定方法及系统
CN106408601B (zh) 一种基于gps的双目融合定位方法及装置
CN109035309A (zh) 基于立体视觉的双目摄像头与激光雷达间的位姿配准方法
CN106971408B (zh) 一种基于时空转换思想的摄像机标定方法
CN111220126A (zh) 一种基于点特征和单目相机的空间物体位姿测量方法
CN110889873A (zh) 一种目标定位方法、装置、电子设备及存储介质
CN106033614B (zh) 一种强视差下的移动相机运动目标检测方法
CN114283203B (zh) 一种多相机系统的标定方法及系统
CN110782498B (zh) 一种视觉传感网络的快速通用标定方法
CN111854636B (zh) 一种多相机阵列三维检测系统和方法
EP4073756A1 (en) A method for measuring the topography of an environment
CN112884841A (zh) 一种基于语义目标的双目视觉定位方法
CN111105467A (zh) 一种图像标定方法、装置及电子设备
CN102890821A (zh) 红外摄像机标定方法及系统
CN116051815B (zh) 一种基于单目摄像头的目标定位方法及系统
CN116804537A (zh) 一种双目测距系统及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant