CN112348869A - 通过检测和标定恢复单目slam尺度的方法 - Google Patents
通过检测和标定恢复单目slam尺度的方法 Download PDFInfo
- Publication number
- CN112348869A CN112348869A CN202011286583.0A CN202011286583A CN112348869A CN 112348869 A CN112348869 A CN 112348869A CN 202011286583 A CN202011286583 A CN 202011286583A CN 112348869 A CN112348869 A CN 112348869A
- Authority
- CN
- China
- Prior art keywords
- depth
- camera
- marker
- scale
- slam
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 47
- 238000001514 detection method Methods 0.000 title claims abstract description 20
- 239000003550 marker Substances 0.000 claims abstract description 52
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 31
- 230000009466 transformation Effects 0.000 claims abstract description 17
- 238000005457 optimization Methods 0.000 claims abstract description 13
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000013135 deep learning Methods 0.000 claims description 12
- 101000664407 Neisseria meningitidis serogroup B (strain MC58) Surface lipoprotein assembly modifier 2 Proteins 0.000 claims description 6
- 238000012549 training Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 abstract description 9
- 238000011084 recovery Methods 0.000 abstract description 5
- 230000000007 visual effect Effects 0.000 abstract description 3
- 238000010586 diagram Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000012821 model calculation Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/536—Depth or shape recovery from perspective effects, e.g. by using vanishing points
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种通过检测和标定恢复单目SLAM尺度的方法,其通过对相机的标定,通过透视变换计算得出在视平面上的点距相机第一深度,检测设定Marker,通过深度学习模块检测设定Marker距相机第二深度,将第一深度和第二深度加入SLAM后端优化的过程中,得到单目SLAM的尺度,以实现对单目SLAM尺度的恢复,其中的计算过程得到有效简化,有效降低了算法复杂度和相关计算量。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种通过检测和标定恢复单目SLAM尺度的方法。
背景技术
单目相机在拍摄照片时会丢失一个维度,目前可以通过相机的高度和道路的信息恢复尺度。传统恢复单目SLAM尺度的方案依赖于路标识别和道路几何模型计算的精度,计算复杂,且计算量极大。
发明内容
针对以上问题,本发明提出一种通过检测和标定恢复单目SLAM尺度的方法。
为实现本发明的目的,提供一种通过检测和标定恢复单目SLAM尺度的方法,包括如下步骤:
S10,通过对相机的标定,并通过透视变换计算得出在视平面上的点距相机第一深度;
S20,检测设定Marker,通过深度学习模块检测设定Marker距相机第二深度;
S30,将第一深度和第二深度加入SLAM后端优化的过程中,得到单目SLAM的尺度。
在一个实施例中,步骤S10,通过对相机的标定,通过透视变换计算得出在视平面上的点距相机第一深度包括:
S11,选用针孔相机模型,利用张友正相机标定方法,得出相机的内参矩阵和畸变矩阵;
S12,根据内参矩阵和畸变矩阵将图片投影到一个新的视平面,检测在视平面上的点距相机第一深度。
具体地,步骤S11中,通过结合标定板的方法,将相机平面投影到车身的顶视图中,以得到一个新的视平面。
在一个实施例中,步骤S20,检测设定Marker,通过深度学习模块检测设定Marker距相机第二深度包括:
S21,选择一张特定的矩阵彩色图画作为设定Marker,并把设定Marker摆在地面上采集多个方向上多组数据作为深度学习模块的训练集;
S22,选择开源YOLO算法对训练集进行训练,以从各个角度识别设定marker,通过距离要素恢复尺度,得到设定Marker距相机第二深度。
具体地,步骤S22中,开源YOLO算法将当前画面中矩阵Marker的四个角的像素坐标,以Marker 4个点的像素坐标。
在一个实施例中,步骤S30,将第一深度和第二深度加入SLAM后端优化的过程中,得到单目SLAM的尺度包括:
S31,利用步骤S10中经过标定的相机运行ORB_SLAM2算法,通过特征点匹配得到相对尺度s;
S32,当在实时图像中检测到设定Marker时,按照步骤S22得到Marker 4个点的像素坐标,通过步骤S12的透视变换得到这4个点的第一检测深度值;
S33,在SLAM算法中通过像素匹配的方法查询这4个点在SLAM算法中的相机坐标系下的值得到一个尺度不确定的第二检测深度值,对比第一检测深度值和第二检测深度值,得到SLAM算法中的尺度在真实世界中的单位,以确定单目SLAM的尺度。
上述通过检测和标定恢复单目SLAM尺度的方法,通过对相机的标定,通过透视变换计算得出在视平面上的点距相机第一深度,检测设定Marker,通过深度学习模块检测设定Marker距相机第二深度,将第一深度和第二深度加入SLAM后端优化的过程中,得到单目SLAM的尺度,以实现对单目SLAM尺度的恢复,其中的计算过程得到有效简化,有效降低了算法复杂度和相关计算量。
附图说明
图1是一个实施例的通过检测和标定恢复单目SLAM尺度的方法流程图;
图2是一个实施例的相机针孔模型示意图;
图3是一个实施例的透视变换示意图;
图4是一个实施例的ORB_SLAM2算法框架示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
参考图1所示,图1为一个实施例的通过检测和标定恢复单目SLAM(同步定位与地图绘制)尺度的方法流程图,包括如下步骤:
S10,通过对相机的标定,并通过透视变换计算得出在视平面上的点距相机第一深度。
该步骤能够进行相机标定,通过对相机的标定,可通过透视变换计算得出在平面上的点距相机的深度(第一深度)。
S20,检测设定Marker(标记),通过深度学习模块检测设定Marker距相机第二深度。
该步骤能够实现特定Marker(设定Marker)的检测,通过深度学习模块,能够检测和识别到地面上的Marker。
S30,将第一深度和第二深度加入SLAM后端优化的过程中,得到单目SLAM的尺度。
该步骤可以实现单目SLAM尺度的恢复,将步骤S10和步骤S20计算得出的深度加入SLAM后端优化的过程中,得出一个最优解,即单目SLAM的尺度。
上述通过检测和标定恢复单目SLAM尺度的方法,通过对相机的标定,通过透视变换计算得出在视平面上的点距相机第一深度,检测设定Marker,通过深度学习模块检测设定Marker距相机第二深度,将第一深度和第二深度加入SLAM后端优化的过程中,得到单目SLAM的尺度,以实现对单目SLAM尺度的恢复,其中的计算过程得到有效简化,有效降低了算法复杂度和相关计算量。
在一个实施例中,步骤S10,通过对相机的标定,通过透视变换计算得出在视平面上的点距相机第一深度包括:
S11,选用针孔相机模型,利用张友正相机标定方法,得出相机的内参矩阵和畸变矩阵;
S12,根据内参矩阵和畸变矩阵将图片投影到一个新的视平面,检测在视平面上的点距相机第一深度。
具体地,步骤S11中,通过结合标定板的方法,将相机平面投影到车身的顶视图中,以得到一个新的视平面。
在一个示例中,相机的参数表达可以参考图2所示,具有如下关系:
K=[fx cx fy cy];
D=[k1 k2 k3 p1 p2];
其中K表示内参矩阵,D表示畸变矩阵,fx,fy表示焦距的参数,具体地fx表示焦距的参数的第一维坐标参数,fy表示焦距的参数的第二维坐标参数,焦距就是真空与图像平面(投影屏幕)的距离,焦距的度量是针对像素的。cx,cy表示主点偏移,主点偏移就是主点位置相对于图像平面(投影面)的位置,具体地cx表示主点偏移的第一维坐标参数,cy表示主点偏移的第二维坐标参数。k1、k2和k3是径向畸变参数,p1和p2是切向畸变参数。
透视变换(Perspective Transformation)是将图片投影到一个新的视平面,它是二维坐标系(x,y)到三维坐标系(X,Y,Z),再到另一个二维坐标系(x’,y’)空间的映射。在本示例中,可通过结合标定板的方法,将相机平面投影到车身的顶视图中,投影示意图可以参考图3所示。其中第一个二维坐标系指的是原始图片上的某个像素点;三维坐标系指的是这个像素点对应的世界坐标系下的三维点;第二个二维坐标系指的是对应的新的视平面的像素点。
在一个实施例中,步骤S20,检测设定Marker,通过深度学习模块检测设定Marker距相机第二深度包括:
S21,选择一张特定的矩阵彩色图画作为设定Marker,并把设定Marker摆在地面上采集多个方向上多组数据(即从各个角度和方向拍摄marker的图片)作为深度学习模块的训练集;
S22,选择开源YOLO算法对训练集进行训练,以从各个角度识别设定marker,通过距离要素恢复尺度,得到设定Marker距相机第二深度。
本实施例选择开源YOLO算法,相比其他算法,YOLO算法速度快,对目标的检测准确率高,在本实施例中,YOLO算法将当前画面中矩阵Marker的四个角的像素坐标,相应的训练的结果是能从各个角度识别这个marker,因为marker中的距离要素是已知的,因而可以通过距离要素恢复尺度。
具体地,步骤S22中,开源YOLO算法将当前画面中矩阵Marker的四个角的像素坐标,以Marker 4个点的像素坐标。
在一个实施例中,步骤S30,将第一深度和第二深度加入SLAM后端优化的过程中,得到单目SLAM的尺度包括:
S31,利用步骤S10中经过标定的相机运行ORB_SLAM2算法,通过特征点匹配得到相对尺度s;
S32,当在实时图像中检测到设定Marker时,按照步骤S22得到Marker 4个点的像素坐标,通过步骤S12的透视变换得到这4个点的第一检测深度值;
S33,在SLAM算法中通过像素匹配的方法查询这4个点在SLAM算法中的相机坐标系下的值得到一个尺度不确定的第二检测深度值,对比第一检测深度值和第二检测深度值,得到SLAM算法中的尺度在真实世界中的单位,以确定单目SLAM的尺度。
具体地,本实施例利用步骤S10中经过标定的相机运行ORB_SLAM2算法,通过特征点匹配将得到一个尺度s,但是这个尺度s的单位不确定,ORB_SLAM2算法的框架可以参考图4所示,其中从匹配的结果中可以分解得到一个相对尺度s,尺度s就是一个距离比,从这个距离比再结合YOLO算法的结果可以得到最终的绝对距离。
进一步地,在实时图像检测到Marker时,按照步骤S22得到Marker 4个点的像素坐标,再通过步骤S12的透视变换得到这个4个点的深度。然后在SLAM算法中通过像素匹配的方法查询这4个点在SLAM算法中的相机坐标系下的值得到一个尺度不确定的深度值。通过两个值得对比优化可以得到SLAM算法中的尺度在真实世界中的单位。其中,4个点的深度可以指在新的透视面中的三维坐标,一般第三个值称为深度。
进一步地,对比第一检测深度值和第二检测深度值,可以进行优化处理,得到SLAM算法中的尺度在真实世界中的单位,优化的方法如下:从4个值中任意抽2个,共有6个组合,每个组合都可以用来恢复尺度,在本实施例中采用6组结果取平均的方式得到最后的结果。
本实施例采用标定和检测的方法,只需要在SLAM运行后在道路上摆放一个预先设定的Marker,也无需采集稠密的点就可以恢复尺度,其具有计算量小,算法复杂度低的优点。
进一步地,经过实际测试,在8G内存的PC上,能够实时运行系统,尺度恢复的准确度>90%,满足一般要求。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
需要说明的是,本申请实施例所涉及的术语“第一\第二\第三”仅仅是区别类似的对象,不代表针对对象的特定排序,可以理解地,“第一\第二\第三”在允许的情况下可以互换特定的顺序或先后次序。应该理解“第一\第二\第三”区分的对象在适当情况下可以互换,以使这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。
本申请实施例的术语“包括”和“具有”以及它们任何变形,意图在于覆盖不排他的包含。例如包含了一系列步骤或模块的过程、方法、装置、产品或设备没有限定于已列出的步骤或模块,而是可选地还包括没有列出的步骤或模块,或可选地还包括对于这些过程、方法、产品或设备固有的其它步骤或模块。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (6)
1.一种通过检测和标定恢复单目SLAM尺度的方法,其特征在于,包括如下步骤:
S10,通过对相机的标定,并通过透视变换计算得出在视平面上的点距相机第一深度;
S20,检测设定Marker,通过深度学习模块检测设定Marker距相机第二深度;
S30,将第一深度和第二深度加入SLAM后端优化的过程中,得到单目SLAM的尺度。
2.根据权利要求1所述的通过检测和标定恢复单目SLAM尺度的方法,其特征在于,步骤S10,通过对相机的标定,通过透视变换计算得出在视平面上的点距相机第一深度包括:
S11,选用针孔相机模型,利用张友正相机标定方法,得出相机的内参矩阵和畸变矩阵;
S12,根据内参矩阵和畸变矩阵将图片投影到一个新的视平面,检测在视平面上的点距相机第一深度。
3.根据权利要求2所述的通过检测和标定恢复单目SLAM尺度的方法,其特征在于,步骤S11中,通过结合标定板的方法,将相机平面投影到车身的顶视图中,以得到一个新的视平面。
4.根据权利要求2所述的通过检测和标定恢复单目SLAM尺度的方法,其特征在于,步骤S20,检测设定Marker,通过深度学习模块检测设定Marker距相机第二深度包括:
S21,选择一张特定的矩阵彩色图画作为设定Marker,并把设定Marker摆在地面上采集多个方向上多组数据作为深度学习模块的训练集;
S22,选择开源YOLO算法对训练集进行训练,以从各个角度识别设定marker,通过距离要素恢复尺度,得到设定Marker距相机第二深度。
5.根据权利要求4所述的通过检测和标定恢复单目SLAM尺度的方法,其特征在于,步骤S22中,开源YOLO算法将当前画面中矩阵Marker的四个角的像素坐标,以Marker 4个点的像素坐标。
6.根据权利要求5所述的通过检测和标定恢复单目SLAM尺度的方法,其特征在于,步骤S30,将第一深度和第二深度加入SLAM后端优化的过程中,得到单目SLAM的尺度包括:
S31,利用步骤S10中经过标定的相机运行ORB_SLAM2算法,通过特征点匹配得到相对尺度s;
S32,当在实时图像中检测到设定Marker时,按照步骤S22得到Marker 4个点的像素坐标,通过步骤S12的透视变换得到这4个点的第一检测深度值;
S33,在SLAM算法中通过像素匹配的方法查询这4个点在SLAM算法中的相机坐标系下的值得到一个尺度不确定的第二检测深度值,对比第一检测深度值和第二检测深度值,得到SLAM算法中的尺度在真实世界中的单位,以确定单目SLAM的尺度。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011286583.0A CN112348869A (zh) | 2020-11-17 | 2020-11-17 | 通过检测和标定恢复单目slam尺度的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011286583.0A CN112348869A (zh) | 2020-11-17 | 2020-11-17 | 通过检测和标定恢复单目slam尺度的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112348869A true CN112348869A (zh) | 2021-02-09 |
Family
ID=74364003
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011286583.0A Pending CN112348869A (zh) | 2020-11-17 | 2020-11-17 | 通过检测和标定恢复单目slam尺度的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112348869A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348868A (zh) * | 2020-11-06 | 2021-02-09 | 养哇(南京)科技有限公司 | 一种通过检测和标定恢复单目slam尺度的方法及系统 |
CN112837361A (zh) * | 2021-03-05 | 2021-05-25 | 浙江商汤科技开发有限公司 | 一种深度估计方法及装置、电子设备和存储介质 |
CN113625271A (zh) * | 2021-07-29 | 2021-11-09 | 中汽创智科技有限公司 | 基于毫米波雷达和双目相机的同时定位与建图方法 |
US12002253B2 (en) | 2021-11-29 | 2024-06-04 | Automotive Research & Testing Center | Feature point integration positioning system, feature point integration positioning method and non-transitory computer-readable memory |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
US20160330434A1 (en) * | 2015-05-08 | 2016-11-10 | Lite-On Electronics (Guangzhou) Limited | Control method of a depth camera |
CN107437261A (zh) * | 2017-07-14 | 2017-12-05 | 梅卡曼德(北京)机器人科技有限公司 | 深度图像获取方法 |
CN110223383A (zh) * | 2019-06-17 | 2019-09-10 | 重庆大学 | 一种基于深度图修补的植物三维重建方法及系统 |
CN111145238A (zh) * | 2019-12-12 | 2020-05-12 | 中国科学院深圳先进技术研究院 | 单目内窥镜图像的三维重建方法、装置及终端设备 |
CN111862120A (zh) * | 2020-07-22 | 2020-10-30 | 苏州大学 | 一种单目slam尺度恢复的方法 |
-
2020
- 2020-11-17 CN CN202011286583.0A patent/CN112348869A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103247075A (zh) * | 2013-05-13 | 2013-08-14 | 北京工业大学 | 基于变分机制的室内环境三维重建方法 |
US20160330434A1 (en) * | 2015-05-08 | 2016-11-10 | Lite-On Electronics (Guangzhou) Limited | Control method of a depth camera |
CN107437261A (zh) * | 2017-07-14 | 2017-12-05 | 梅卡曼德(北京)机器人科技有限公司 | 深度图像获取方法 |
CN110223383A (zh) * | 2019-06-17 | 2019-09-10 | 重庆大学 | 一种基于深度图修补的植物三维重建方法及系统 |
CN111145238A (zh) * | 2019-12-12 | 2020-05-12 | 中国科学院深圳先进技术研究院 | 单目内窥镜图像的三维重建方法、装置及终端设备 |
CN111862120A (zh) * | 2020-07-22 | 2020-10-30 | 苏州大学 | 一种单目slam尺度恢复的方法 |
Non-Patent Citations (5)
Title |
---|
RAFAEL MUÑOZ-SALINAS: "SPM-SLAM: Simultaneous localization and mapping with squared planar markers", 《PATTERN RECOGNITION》, no. 86, pages 156 - 171, XP055923603, DOI: 10.1016/j.patcog.2018.09.003 * |
向奉卓;李广云;王力;王安成;俞德崎;: "具备尺度恢复的单目视觉里程计方法", 测绘科学技术学报, no. 05 * |
周珈琪;时轮;孟凡雨;: "基于伺服机构的单目视觉深度测量算法", 机械设计与研究, no. 04, 20 August 2020 (2020-08-20) * |
李晓晗: "单目视觉SLAM物体关联尺度恢复", 第21届中国系统仿真技术及其应用学术年会论文集》, pages 339 - 343 * |
王潇榕;白国振;郎俊;: "基于单目SLAM的实时场景三维重建", 农业装备与车辆工程, no. 10 * |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112348868A (zh) * | 2020-11-06 | 2021-02-09 | 养哇(南京)科技有限公司 | 一种通过检测和标定恢复单目slam尺度的方法及系统 |
CN112837361A (zh) * | 2021-03-05 | 2021-05-25 | 浙江商汤科技开发有限公司 | 一种深度估计方法及装置、电子设备和存储介质 |
CN113625271A (zh) * | 2021-07-29 | 2021-11-09 | 中汽创智科技有限公司 | 基于毫米波雷达和双目相机的同时定位与建图方法 |
CN113625271B (zh) * | 2021-07-29 | 2023-10-27 | 中汽创智科技有限公司 | 基于毫米波雷达和双目相机的同时定位与建图方法 |
US12002253B2 (en) | 2021-11-29 | 2024-06-04 | Automotive Research & Testing Center | Feature point integration positioning system, feature point integration positioning method and non-transitory computer-readable memory |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108510530B (zh) | 一种三维点云匹配方法及其系统 | |
JP6507730B2 (ja) | 座標変換パラメータ決定装置、座標変換パラメータ決定方法及び座標変換パラメータ決定用コンピュータプログラム | |
CN112348869A (zh) | 通过检测和标定恢复单目slam尺度的方法 | |
US9519968B2 (en) | Calibrating visual sensors using homography operators | |
CN110031829B (zh) | 一种基于单目视觉的目标精准测距方法 | |
CN112801074B (zh) | 一种基于交通摄像头的深度图估计方法 | |
CN111784775B (zh) | 一种标识辅助的视觉惯性增强现实注册方法 | |
CN107424196B (zh) | 一种基于弱标定多目相机的立体匹配方法、装置及系统 | |
CN110827361B (zh) | 基于全局标定架的相机组标定方法及装置 | |
CN111996883B (zh) | 一种检测公路路面宽度的方法 | |
CN114862973B (zh) | 基于固定点位的空间定位方法、装置、设备及存储介质 | |
US20150254854A1 (en) | Camera calibration method and apparatus using a color-coded structure | |
JP2000207693A (ja) | 車載用障害物検出装置 | |
CN115830135A (zh) | 一种图像处理方法、装置及电子设备 | |
JP2011232965A (ja) | 平面領域検出装置及びステレオカメラシステム | |
TWI682361B (zh) | 路面影像重建與載具定位之方法與系統 | |
CN110197104B (zh) | 基于车辆的测距方法及装置 | |
CN114219850A (zh) | 一种应用360全景环视技术的车辆测距系统 | |
CN113723432B (zh) | 一种基于深度学习的智能识别、定位追踪的方法及系统 | |
CN112633143B (zh) | 图像处理系统、方法、头戴设备、处理设备及存储介质 | |
CN115272417A (zh) | 图像数据的处理方法、图像处理设备以及可读存储介质 | |
CN114511637A (zh) | 一种基于构造强特征的弱特征物体图像三维重建系统及方法 | |
CN110674817B (zh) | 一种基于双目摄像头的车牌防伪的方法及装置 | |
CN109690555A (zh) | 基于曲率的脸部检测器 | |
CN114766039A (zh) | 对象检测方法、对象检测设备、终端设备、以及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |