CN116047440A - 一种端到端的毫米波雷达与摄像头外参标定方法 - Google Patents
一种端到端的毫米波雷达与摄像头外参标定方法 Download PDFInfo
- Publication number
- CN116047440A CN116047440A CN202310321706.7A CN202310321706A CN116047440A CN 116047440 A CN116047440 A CN 116047440A CN 202310321706 A CN202310321706 A CN 202310321706A CN 116047440 A CN116047440 A CN 116047440A
- Authority
- CN
- China
- Prior art keywords
- radar
- coordinate system
- camera
- coordinates
- millimeter wave
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 28
- 239000011159 matrix material Substances 0.000 claims description 40
- 238000003062 neural network model Methods 0.000 claims description 30
- 238000007781 pre-processing Methods 0.000 claims description 8
- 238000013528 artificial neural network Methods 0.000 claims description 7
- 230000006870 function Effects 0.000 claims description 6
- 230000009466 transformation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000007476 Maximum Likelihood Methods 0.000 claims description 2
- 238000012614 Monte-Carlo sampling Methods 0.000 claims description 2
- 238000003384 imaging method Methods 0.000 claims description 2
- 238000011426 transformation method Methods 0.000 claims description 2
- 230000000644 propagated effect Effects 0.000 claims 1
- 230000001131 transforming effect Effects 0.000 claims 1
- 239000002184 metal Substances 0.000 description 8
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/88—Radar or analogous systems specially adapted for specific applications
- G01S13/93—Radar or analogous systems specially adapted for specific applications for anti-collision purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Electromagnetism (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种涉及多传感器联合标定技术领域的端到端的毫米波雷达与摄像头外参标定方法,通过将每个毫米波雷达与一个摄像头固定形成一个雷达摄像头模组,再使用各个雷达摄像头模组采集同一个目标的雷达数据与摄像头数据,利用一个训练好的外参估计神经网络模型即可将采集到的雷达数据与摄像头数据转换为对应雷达摄像头模组的毫米波雷达与摄像头的空间外参。本发明的外参标定方法无需进行一般毫米波雷达与摄像头标定所需的人工标定,简化了毫米波雷达与摄像头的标定流程,提高了毫米波雷达与摄像头外参的标定效率与标定精度。
Description
技术领域
本发明涉及多传感器联合标定技术领域,尤其涉及一种端到端的毫米波雷达与摄像头外参标定方法。
背景技术
随着机器人与无人驾驶技术的普及及应用,多传感器融合感知可有效提高机器人在碰撞检测、路径规划等任务上的表现。而在多传感器融合中,不同传感器的空间外参转换关系是其重要参数。在毫米波雷达与摄像头的外参标定领域中,目前常用的方案为 PnP 加后期标定参数微调的两阶段标定方案,其属于目标级优化方案。且两个阶段各自的精度均会影响传感器标定的最终精度。在参数微调阶段时,一般需要人工干预以提升标定精度来达到一个较好的标定性能。
因此,现有的毫米波雷达与摄像头的外参标定方法存在标定流程复杂、标定精度需依赖人工经验的问题。
发明内容
本发明所要解决的技术问题在于提供一种端到端的毫米波雷达与摄像头外参标定方法,可以解决现有的毫米波雷达与摄像头的外参标定方法存在标定流程复杂、标定精度差的问题。
为解决上述技术问题,本发明采用如下所述的技术方案:
一种端到端的毫米波雷达与摄像头外参标定方法,其包括有如下步骤:S10、利用多个雷达摄像头模组采集一个目标的数据,其中,每个雷达摄像头模组包括有一个毫米波雷达和一个摄像头;S20、对摄像头进行内参标定,并分别对采集到的雷达点云数据和摄像头图片数据做数据预处理,得到目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标;S30、根据目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标,利用LM_PnP算法计算雷达坐标系到像素坐标系的外参参数,得到真实旋转矩阵R gt 与真实平移矩阵T gt ;S40、组建外参估计神经网络模型N,采用目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标对外参估计神经网络模型N进行训练及计算,得到预测旋转矩阵R pred 、预测平移矩阵T pred 以及关联点权重W pred ;S50、建立一个可用于端到端学习外参参数的概率PnP神经网络结构M,利用目标在雷达坐标系内的坐标、目标在像素坐标系内的坐标、真实旋转矩阵R gt 、真实平移矩阵T gt 、预测旋转矩阵R pred 、预测平移矩阵T pred 以及关联点权重W pred ,计算得到预测重投影误差后验概率;S60、利用预测重投影误差后验概率与真实重投影误差概率分布的KL散度计算外参估计神经网络模型N的训练误差,并用SGD优化器将该训练误差反向传播,更新外参估计神经网络模型N的权重;S70、重复执行步骤S40至步骤S60,进行迭代训练,直至训练误差达到收敛要求时停止训练,得到训练好的外参估计神经网络模型N;S80、利用训练好的外参估计神经网络模型N,将各个雷达摄像头模组采集到的雷达点云数据和摄像头图片数据转换为对应雷达摄像头模组的毫米波雷达与摄像头的空间外参。
本发明的有益技术效果在于:上述的端到端的毫米波雷达与摄像头外参标定方法,通过将每个毫米波雷达与一个摄像头固定形成一个雷达摄像头模组,再使用各个雷达摄像头模组采集同一个目标的雷达数据与摄像头数据,利用一个训练好的外参估计神经网络模型即可将采集到的雷达数据与摄像头数据转换为对应雷达摄像头模组的毫米波雷达与摄像头的空间外参。本发明的外参标定方法无需进行一般毫米波雷达与摄像头标定所需的人工标定,简化了毫米波雷达与摄像头的标定流程,提高了毫米波雷达与摄像头外参的标定效率与标定精度。
附图说明
图1为本发明的端到端的毫米波雷达与摄像头外参标定方法的流程示意图。
具体实施方式
为使本领域的普通技术人员更加清楚地理解本发明的目的、技术方案和优点,以下结合附图和实施例对本发明做进一步的阐述。
如图1所示,在本发明一个实施例中,端到端的毫米波雷达与摄像头外参标定方法包括有步骤S10~步骤S80:
S10、利用多个雷达摄像头模组采集一个目标的数据,其中,每个雷达摄像头模组包括有一个毫米波雷达和一个摄像头;
S20、对摄像头进行内参标定,并分别对采集到的雷达点云数据和摄像头图片数据做数据预处理,得到目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标;
S30、根据目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标,利用LM_PnP算法计算雷达坐标系到像素坐标系的外参参数,得到真实旋转矩阵R gt 与真实平移矩阵T gt ;
S40、组建外参估计神经网络模型N,采用目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标对外参估计神经网络模型N进行训练及计算,得到预测旋转矩阵R pred 、预测平移矩阵T pred 以及关联点权重W pred ;
S50、建立一个可用于端到端学习外参参数的概率PnP神经网络结构M,利用目标在雷达坐标系内的坐标、目标在像素坐标系内的坐标、真实旋转矩阵R gt 、真实平移矩阵T gt 、预测旋转矩阵R pred 、预测平移矩阵T pred 以及关联点权重W pred ,计算得到预测重投影误差后验概率;
S60、利用预测重投影误差后验概率与真实重投影误差概率分布的KL散度计算外参估计神经网络模型N的训练误差,并用SGD优化器将该训练误差反向传播,更新外参估计神经网络模型N的权重;
S70、重复执行步骤S40至步骤S60,进行迭代训练,直至训练误差达到收敛要求时停止训练,得到训练好的外参估计神经网络模型N;
S80、利用训练好的外参估计神经网络模型N,将各个雷达摄像头模组采集到的雷达点云数据和摄像头图片数据转换为对应雷达摄像头模组的毫米波雷达与摄像头的空间外参。
步骤S10进一步包括:
1.1 将一个毫米波雷达与一个摄像头固定安装于一个统一的结构上,组成一个雷达摄像头模组,此时,毫米波雷达与摄像头具有固定的外参参数。重复上述操作,将每一个毫米波雷达与一个摄像头固定形成一个雷达摄像头模组,得到多个雷达摄像头模组。
1.2 遥控一个尺寸较小(如0.1m*0.1m*0.1m)的金属小车(目标),在雷达摄像头模组前以及毫米波雷达与摄像头的公共视野内不断运动,直到金属小车已经运动过的区域已完全覆盖公共视野。期间,保持采集毫米波雷达点云及每帧对应的时间,以及采集摄像头图片及每帧数据所对应的时间,得到与雷达摄像头模组对应毫米波雷达点云与摄像头图片。
步骤S20进一步包括:
2.4 利用毫米波雷达所采集的毫米波雷达点云每包点云所对应的时间、摄像头所采集的摄像头图片每包图片所对应的时间做时间同步,并选择相应包的毫米波雷达点云中目标在雷达坐标系内的坐标与相应包的摄像头图片中目标在像素坐标系内的坐标作为在第i时刻毫米波雷达与摄像头观测的位置,即金属小车在第i时刻的雷达坐标系点云坐标和像素坐标系图像坐标。
2.5 不断重复步骤2.1-2.4,完成各个雷达摄像头模组的摄像头内参标定,以及完成对各个雷达摄像头模组采集的毫米波雷达点云数据和摄像头图片数据的预处理,得到与各个雷达摄像头模组相对应的金属小车在雷达坐标系内的坐标和金属小车在像素坐标系内的坐标。
步骤S30进一步包括:
3.2 建立最小化投影误差的目标函数F,利用LM(Levenberg–Marquardt,列文伯格-马夸尔特)优化器求解得到优化后的真实旋转矩阵与真实平移矩阵,该真实旋转矩阵与真实平移矩阵作为对应的雷达摄像头模组的真实外参:
步骤S40进一步包括:
4.2 分别在位姿特征后链接由多层全连接层构成的旋转矩阵预测分支、多层全连接层构成的平移矩阵预测分支以及多层全连接层构成的关联点权重预测分支,分别得到旋转向量、平移向量以及关联点权重向量,形成外参估计神经网络模型N。
4.3 随机抽取k包同一个雷达摄像头模组采集得到的目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标作为输入数据,对外参估计神经网络模型N进行训练及计算,得到对应雷达摄像头模组中毫米波雷达与摄像头的预测旋转矩阵R pred 、预测平移矩阵T pred 以及关联点权重,表示雷达坐标系点云坐标与像素坐标系图像坐标所对应点的关联权重值。
步骤S50进一步包括:
其中X表示像素坐标系图像坐标(即目标在像素坐标系内的坐标)到雷达坐标系点云坐标(即目标在雷达坐标系内的坐标)的匹配,y表示雷达坐标系到像素坐标系位姿变换的预测重投影误差,表示雷达坐标系点云坐标与像素坐标系图像坐标所对应点的关联权重值,N points 表示雷达摄像头模组采集到目标的次数,似然函数最大值处对应最合理的重投影误差。
步骤S60进一步包括:
步骤S80进一步包括:分别对各个雷达摄像头模组采集到的雷达点云数据和摄像头图片数据进行数据预处理,得到与各个雷达摄像头模组相对应的雷达坐标系点云坐标和像素坐标系图像坐标;分别将各个雷达摄像头模组对应的雷达坐标系点云坐标和像素坐标系图像坐标输入训练好的外参估计神经网络模型N中,得到各个雷达摄像头模组对应的旋转矩阵R、平移矩阵T。
本发明的端到端的毫米波雷达与摄像头外参标定方法,通过将每个毫米波雷达与一个摄像头固定形成一个雷达摄像头模组,再使用各个雷达摄像头模组采集同一个目标的雷达数据与摄像头数据,利用一个训练好的外参估计神经网络模型即可将采集到的雷达数据与摄像头数据转换为对应雷达摄像头模组的毫米波雷达与摄像头的空间外参。本发明的外参标定方法无需进行一般毫米波雷达与摄像头标定所需的人工标定,简化了毫米波雷达与摄像头的标定流程,提高了毫米波雷达与摄像头外参的标定效率与标定精度。
以上所述仅为本发明的优选实施例,而非对本发明做任何形式上的限制。本领域的技术人员可在上述实施例的基础上施以各种等同的更改和改进,凡在权利要求范围内所做的等同变化或修饰,均应落入本发明的保护范围之内。
Claims (9)
1.一种端到端的毫米波雷达与摄像头外参标定方法,其特征在于,所述端到端的毫米波雷达与摄像头外参标定方法包括有如下步骤:
S10、利用多个雷达摄像头模组采集一个目标的数据,其中,每个雷达摄像头模组包括有一个毫米波雷达和一个摄像头;
S20、对摄像头进行内参标定,并分别对采集到的雷达点云数据和摄像头图片数据做数据预处理,得到目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标;
S30、根据目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标,利用LM_PnP算法计算雷达坐标系到像素坐标系的外参参数,得到真实旋转矩阵R gt 与真实平移矩阵T gt ;
S40、组建外参估计神经网络模型N,采用目标在雷达坐标系内的坐标和目标在像素坐标系内的坐标对外参估计神经网络模型N进行训练及计算,得到预测旋转矩阵R pred 、预测平移矩阵T pred 以及关联点权重W pred ;
S50、建立一个可用于端到端学习外参参数的概率PnP神经网络结构M,利用目标在雷达坐标系内的坐标、目标在像素坐标系内的坐标、真实旋转矩阵R gt 、真实平移矩阵T gt 、预测旋转矩阵R pred 、预测平移矩阵T pred 以及关联点权重W pred ,计算得到预测重投影误差后验概率;
S60、利用预测重投影误差后验概率与真实重投影误差概率分布的KL散度计算外参估计神经网络模型N的训练误差,并用SGD优化器将该训练误差反向传播,更新外参估计神经网络模型N的权重;
S70、重复执行步骤S40至步骤S60,进行迭代训练,直至训练误差达到收敛要求时停止训练,得到训练好的外参估计神经网络模型N;
S80、利用训练好的外参估计神经网络模型N,将各个雷达摄像头模组采集到的雷达点云数据和摄像头图片数据转换为对应雷达摄像头模组的毫米波雷达与摄像头的空间外参。
3.如权利要求1所述的端到端的毫米波雷达与摄像头外参标定方法,其特征在于,所述步骤S20进一步包括:
S21、利用棋盘格、matlab软件对各个雷达摄像头模组的摄像头进行内参标定,得到对应的内参K与畸变系数D;
5.如权利要求1所述的端到端的毫米波雷达与摄像头外参标定方法,其特征在于,所述步骤S40进一步包括:
S42、分别在位姿特征后链接由多层全连接层构成的旋转矩阵预测分支、多层全连接层构成的平移矩阵预测分支以及多层全连接层构成的关联点权重预测分支,分别得到旋转向量、平移向量以及关联点权重向量,形成外参估计神经网络模型N;
6.如权利要求1所述的端到端的毫米波雷达与摄像头外参标定方法,其特征在于,所述步骤S50进一步包括:
其中,X表示像素坐标系图像坐标到雷达坐标系点云坐标的匹配,y表示雷达坐标系到像素坐标系位姿变换的预测重投影误差,N points 表示雷达摄像头模组采集到目标的次数;
9.如权利要求1所述的端到端的毫米波雷达与摄像头外参标定方法,其特征在于,所述步骤S80进一步包括:分别对各个雷达摄像头模组采集到的雷达点云数据和摄像头图片数据进行数据预处理,得到与各个雷达摄像头模组相对应的雷达坐标系点云坐标和像素坐标系图像坐标;分别将各个雷达摄像头模组对应的雷达坐标系点云坐标和像素坐标系图像坐标输入训练好的外参估计神经网络模型N中,得到各个雷达摄像头模组对应的旋转矩阵R、平移矩阵T。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310321706.7A CN116047440B (zh) | 2023-03-29 | 2023-03-29 | 一种端到端的毫米波雷达与摄像头外参标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310321706.7A CN116047440B (zh) | 2023-03-29 | 2023-03-29 | 一种端到端的毫米波雷达与摄像头外参标定方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116047440A true CN116047440A (zh) | 2023-05-02 |
CN116047440B CN116047440B (zh) | 2023-06-09 |
Family
ID=86133490
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310321706.7A Active CN116047440B (zh) | 2023-03-29 | 2023-03-29 | 一种端到端的毫米波雷达与摄像头外参标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116047440B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117784121A (zh) * | 2024-02-23 | 2024-03-29 | 四川天府新区北理工创新装备研究院 | 一种路侧传感器联合标定方法、系统及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113359097A (zh) * | 2021-06-21 | 2021-09-07 | 北京易航远智科技有限公司 | 一种毫米波雷达和相机联合标定的方法 |
CN114076918A (zh) * | 2020-08-20 | 2022-02-22 | 北京万集科技股份有限公司 | 毫米波雷达、激光雷达与相机联合标定方法和装置 |
WO2022048493A1 (zh) * | 2020-09-04 | 2022-03-10 | 华为技术有限公司 | 摄像头外参标定的方法与装置 |
CN115018929A (zh) * | 2022-05-31 | 2022-09-06 | 东南大学 | 一种面向摄像头与毫米波雷达融合感知的多传感器时空协同标定方法 |
CN115097442A (zh) * | 2022-08-24 | 2022-09-23 | 陕西欧卡电子智能科技有限公司 | 基于毫米波雷达的水面环境地图构建方法 |
WO2022262160A1 (zh) * | 2021-06-18 | 2022-12-22 | 上海商汤临港智能科技有限公司 | 传感器标定方法及装置、电子设备和存储介质 |
CN115661270A (zh) * | 2022-12-22 | 2023-01-31 | 陕西欧卡电子智能科技有限公司 | 一种用于毫米波雷达与鱼眼摄像头的在线标定方法 |
-
2023
- 2023-03-29 CN CN202310321706.7A patent/CN116047440B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114076918A (zh) * | 2020-08-20 | 2022-02-22 | 北京万集科技股份有限公司 | 毫米波雷达、激光雷达与相机联合标定方法和装置 |
WO2022048493A1 (zh) * | 2020-09-04 | 2022-03-10 | 华为技术有限公司 | 摄像头外参标定的方法与装置 |
WO2022262160A1 (zh) * | 2021-06-18 | 2022-12-22 | 上海商汤临港智能科技有限公司 | 传感器标定方法及装置、电子设备和存储介质 |
CN113359097A (zh) * | 2021-06-21 | 2021-09-07 | 北京易航远智科技有限公司 | 一种毫米波雷达和相机联合标定的方法 |
CN115018929A (zh) * | 2022-05-31 | 2022-09-06 | 东南大学 | 一种面向摄像头与毫米波雷达融合感知的多传感器时空协同标定方法 |
CN115097442A (zh) * | 2022-08-24 | 2022-09-23 | 陕西欧卡电子智能科技有限公司 | 基于毫米波雷达的水面环境地图构建方法 |
CN115661270A (zh) * | 2022-12-22 | 2023-01-31 | 陕西欧卡电子智能科技有限公司 | 一种用于毫米波雷达与鱼眼摄像头的在线标定方法 |
Non-Patent Citations (2)
Title |
---|
刘今越;唐旭;贾晓辉;杨冬;李铁军;: "三维激光雷达-相机间外参的高效标定方法", 仪器仪表学报, no. 11 * |
王庆等: "基于三维标定板的相机 激光雷达联合标定方法", 《中国惯性技术学报》, vol. 31, no. 1 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117784121A (zh) * | 2024-02-23 | 2024-03-29 | 四川天府新区北理工创新装备研究院 | 一种路侧传感器联合标定方法、系统及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN116047440B (zh) | 2023-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111076733B (zh) | 一种基于视觉与激光slam的机器人室内建图方法及系统 | |
CN105856230B (zh) | 一种可提高机器人位姿一致性的orb关键帧闭环检测slam方法 | |
CN105809687B (zh) | 一种基于图像中边沿点信息的单目视觉测程方法 | |
CN114399554B (zh) | 一种多相机系统的标定方法及系统 | |
CN112184824B (zh) | 一种相机外参标定方法、装置 | |
CN112068154A (zh) | 一种激光建图定位方法、装置、存储介质及电子设备 | |
CN106056643B (zh) | 一种基于点云的室内动态场景slam方法及系统 | |
US20110044504A1 (en) | Information processing device, information processing method and program | |
CN107577451B (zh) | 多Kinect人体骨架坐标变换方法及处理设备、可读存储介质 | |
CN114862932B (zh) | 基于bim全局定位的位姿修正方法及运动畸变矫正方法 | |
CN116047440B (zh) | 一种端到端的毫米波雷达与摄像头外参标定方法 | |
CN113108773A (zh) | 一种融合激光与视觉传感器的栅格地图构建方法 | |
CN111862214A (zh) | 计算机设备定位方法、装置、计算机设备和存储介质 | |
CN113129373B (zh) | 一种基于卷积神经网络的室内移动机器人视觉定位方法 | |
WO2022021661A1 (zh) | 一种基于高斯过程的视觉定位方法、系统及存储介质 | |
CN114549629A (zh) | 水下单目视觉估计目标三维位姿的方法 | |
CN113888629A (zh) | 一种基于rgbd相机的快速物体三维位姿估计方法 | |
CN114047766B (zh) | 面向室内外场景长期应用的移动机器人数据采集系统及方法 | |
CN111812978A (zh) | 一种多无人机协作slam方法与系统 | |
CN111553954B (zh) | 一种基于直接法单目slam的在线光度标定方法 | |
CN113240670A (zh) | 带电作业场景下针对待作业物体的图像分割方法 | |
CN114083545B (zh) | 一种基于视觉感知的运动物体机器人抓取方法及装置 | |
CN117523206B (zh) | 一种基于跨源点云与多模态信息的自动化装配方法 | |
Chen et al. | Research on Door‐Opening Strategy Design of Mobile Manipulators Based on Visual Information and Azimuth | |
CN117333463A (zh) | 一种排水管网检测方法、系统、计算机设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |