CN116482627A - 一种基于毫米波雷达和单目相机的联合标定方法 - Google Patents
一种基于毫米波雷达和单目相机的联合标定方法 Download PDFInfo
- Publication number
- CN116482627A CN116482627A CN202310412830.4A CN202310412830A CN116482627A CN 116482627 A CN116482627 A CN 116482627A CN 202310412830 A CN202310412830 A CN 202310412830A CN 116482627 A CN116482627 A CN 116482627A
- Authority
- CN
- China
- Prior art keywords
- millimeter wave
- data
- coordinate system
- radar
- wave radar
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000012545 processing Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 21
- 238000004590 computer program Methods 0.000 claims description 7
- 238000001514 detection method Methods 0.000 claims description 7
- 230000004927 fusion Effects 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 4
- 230000008034 disappearance Effects 0.000 claims description 3
- 238000001914 filtration Methods 0.000 claims description 3
- 239000002184 metal Substances 0.000 claims description 3
- 238000012216 screening Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 238000013519 translation Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 2
- 238000004519 manufacturing process Methods 0.000 abstract 1
- 230000001360 synchronised effect Effects 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 5
- 238000007405 data analysis Methods 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000036544 posture Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/40—Means for monitoring or calibrating
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S13/00—Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
- G01S13/86—Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
- G01S13/867—Combination of radar systems with cameras
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Networks & Wireless Communication (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明提供了一种基于毫米波雷达和单目相机的联合标定方法,包括以下步骤:步骤1,对毫米波雷达的数据进行解析;步骤2,对毫米波雷达的数据进行处理;步骤3,进行毫米波雷达与相机在线标定。本发明方法无需制作标定物体,单人就可完成标定,简单快捷,通过调整触发程序时间,可以对不同位置的运动物体进行标定,达到不同精度要求的标定效果,同时标定不受制于环境的限制,不受自然光影响,特征通过人为识别,精度好,雷达数据和图像数据同步对齐,实时性好。
Description
技术领域
本发明属于高级辅助驾驶领域(ADAS),尤其涉及一种基于毫米波雷达和单目相机的联合标定方法。
背景技术
实现ADAS的技术主要有三类,分别是基于视觉传感器、毫米波雷达和激光雷达。由于成本限制因素,国内主要使用前两种方式。视觉传感器和毫米波雷达实现对ADAS功能的原理不同:毫米波雷达主要是通过对目标物发送电磁波并接收回波来获得目标物体的距离、速度和角度。视觉方案稍复杂,以单目视觉方案为例,它需要先进行目标识别,然后根据目标在图像中的像素大小来估算目标的距离。这两类技术各有优劣。总体来讲,摄像头方案成本低,可以识别不同的物体,在物体高度与宽度测量精度、车道线识别、行人识别准确度等方面有优势,是实现车道偏离预警、交通标志识别等功能不可缺少的传感器,但作用距离和测距精度不如毫米波雷达,并且容易受光照、天气等因素的影响。毫米波雷达受光照和天气因素影响较小,测距精度高,但难以识别车道线、交通标志等元素。另外,毫米波雷达通过多普勒偏移的原理能够实现更高精度的目标速度探测。于是就有了第三种方案,将摄像头和雷达进行融合,相互配合共同构成汽车的感知系统,取长补短,实现更稳定可靠的ADAS功能。而毫米波雷达与相机的联合标定是毫米波雷达与相机数据融合的重要保证。由于毫米波雷达数据点具有稀疏,噪声较多的特性,因此毫米波雷达和相机的联合标定在工业上显得尤为重要,因此急需研究一种毫米波雷达与相机联合标定的方法。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于毫米波雷达和单目相机的联合标定方法,提高了摄像头和雷达采样目标点的匹配、融合、多目标的关联,通过建立精确的毫米波雷达坐标系、三维世界坐标系、摄像机坐标系、图像坐标系和像素坐标系之间的坐标转换关系完成标定。
所述方法包括如下步骤:
步骤1,对毫米波雷达的数据进行解析;
步骤2,对毫米波雷达的数据进行处理;
步骤3,进行毫米波雷达与相机在线标定。
步骤1包括:计算机接收的毫米波雷达信号通过CAN-bus网络完成,(CAN-bus总线技术,全称为“控制器局域网总线技术”),通过USBCAN接口卡,将雷达信号通过USB总线连接到计算机,再根据CAN协议接收到的每一个CAN标准帧进行解析,所述CAN标准帧包括目标与雷达的距离、角度、相对速度、信号的反射强度以及每个目标的ID号。
步骤1中,计算机接收到的每个目标信号数据是unsigned cha类型的数组Data[8][8],每个雷达目标信息存储在Data[0]~Data[7]中,用lsb表示最低有效位,msb表示最高有效位;角度信息由Data[1]的低5位与Data[2]的高5位组成;距离信息由Data[2]的低3位Data[2]组成;相对速度信息由Data[6]的低6位与Data[7]组成;将从最低有效位到最高有效位的数据组合成一个完整的二进制数,然后转化为融合所需的十进制信息。
步骤2包括:第一步,确定毫米波雷达的检测范围,确定以毫米波雷达为中心横轴x方向和纵轴y方向的距离,滤去无效目标点;第二步,选用探测有效目标生命目标周期的方法来确定受金属障碍物干扰,或系统噪声原因产生的空目标,使用出现、持续、消失三个阶段表示,当目标出现和持续的时间过短时(一般小于2秒则判定为时间过短),将目标滤去;完成以上两步后,毫米波雷达数据点只剩下有效的目标物,选用DBSCAN聚类算法对数据进行降维,最终每一个目标物仅由一个点代表。
步骤3包括:同时启动相机和毫米波雷达采集数据,并每隔Y1(一般取值为20)秒触发一次标定过程,通过手动标定和筛选完成标定,如果当前帧数据未检测到目标点,选择遗弃,进行下一Y1秒的标定,在这Y1秒内用户能够在毫米波雷达与相机视野里摆放目标物,或者使目标物运动来增加标定的精确性。
步骤3中,令相机坐标系为OXcYcZc,毫米波雷达坐标系为OXrYrZr;
相机X轴正方向向右,Y轴正方向竖直向下,Z轴正方向为相机中心向前;
雷达X轴正方向延雷达中心向前,Y轴正方向向左,Z轴正方向竖直向上;
设定相机坐标系原点与毫米波雷达坐标原点的距离分别为XoffsetYoffsetZoffset,OXrYrZr坐标系在OXcYcZc坐标系下的姿态为(α,β,λ),α,β,λ分别表示俯仰角pitch,航向角yaw,翻滚角roll;在Xc轴的旋转矩阵为Rx,在Yc轴的旋转矩阵为Ry,在Zc轴的旋转矩阵为Rz,则由毫米波雷达坐标系转换为相机坐标系的关系式为:
Pc=R*Pr+T(1)
其中Pc表示点P在相机坐标系下的坐标,PR表示点P在雷达坐标系的坐标,Pr表示统一朝向后雷达点的坐标,R表示从雷达坐标系转换到相机坐标系下的旋转矩阵,T表示雷达坐标系到相机坐标系的平移矩阵,其中:
R=Rz*Ry*Rx(2)
由于毫米波的Zr为0,也就是相机坐标系的Yc为0,所以旋转能够退化为平面XOZ绕Y轴旋转,将(1)式写成矩阵形式:
将相机坐标系下的坐标投影到像素坐标系,如下式:
其中Zc为尺度因子,fx,fy,cx,cy为相机内参,通过相机标定得出,再通过手动调节参数,使雷达点与目标物体中心重叠,生成标定的变换矩阵。
本发明还提供了一种存储介质,存储有计算机程序或指令,当所述计算机程序或指令被运行时,实现所述一种基于毫米波雷达和单目相机的联合标定方法。
本发明主要采用以下技术方案:
毫米波雷达数据解析,计算机接收的毫米波雷达信号通过CAN-bus网络完成,通过USBCAN接口卡,将雷达信号通过USB总线连接到计算机,再根据CAN协议接收到的每一个CAN标准帧包括目标与雷达的距离、角度、相对速度、信号的反射强度以及每个目标的ID号等信息进行解析。
毫米波雷达数据处理技术,在实际测量结果中,毫米波雷达信号目标中有很大一部分是干扰信号目标,包括空目标、无效信号目标和静止目标,本发明通过设定算法可有效滤去以上干扰信号目标。经过有效数据选取后,当自然环境出存在一个体积较大的目标标或者目标保持运动状态且各部位姿势不一致时,雷达检测结果中会呈现出是一堆距离、速度、方位都十分相近的目标点,因此,在选取有效目标信息的过程中,使用DBSCAN聚类算法对检测结果进行初步处理,根据距离、速度的相似度将检测结果中一堆相近的小目标点聚集成一个目标整体,过滤整合一部分无效信息。
毫米波雷达与相机在线标定技术,本发明通过实时获得雷达数据和图片数据,并通过手动调节参数,实现目标的匹配与融合从而实现标定。
本发明方法具有如下有益效果:
(1)无需制作标定物体,单人就可完成标定,简单快捷。
(2)通过调整触发程序时间,可以对不同位置的运动物体进行标定,达到不同精度要求的标定效果。
(3)标定不受制于环境的限制,不受自然光影响,特征通过人为识别,精度好
(4)雷达数据和图像数据同步对齐,实时性好。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是毫米波雷达的数据解析流程。
图2是毫米波雷达数据处理流程图。
图3是毫米波雷达与相机在线标定流程图。
图4是在线标定示意图。
具体实施方式
图1是毫米波雷达的数据解析流程,接收到的每个目标信号数据是unsigned char类型的数组Data[8][8],每个雷达目标信息存储在Data[0]~Data[7]中。其中,lsb表示最低有效位,msb表示最高有效位。黄色区域表示角度信息,由Data[1]的低5位与Data[2]的高5位组成;绿色区域表示距离信息,由Data[2]的低3位与Data[2]组成;蓝色区域表示相对速度信息,由Data[6]的低6位与Data[7]组成。将从最低有效位到最高有效位的数据组合成一个完整的二进制数,然后转化为融合所需的十进制信息。解析过程以角度为例,角度的二进制信息为a=(Data[1])<<5&(Data[2]>>3),若a的首位为1,则表示角度为负数,需要先求原码的反码,补码,再转化为十进制数,最后乘以相应的比例,得到雷达数据的解析值。同理,其余指标也由该种方式计算出。
图2是毫米波雷达数据处理流程图,首先确定毫米波雷达的检测范围,即确定以毫米波雷达为中心x方向和y方向的距离,以此来滤去大部分无效目标点;其次滤去受金属障碍物干扰,或系统噪声原因产生的空目标,此处选用探测有效目标生命目标周期的方法来确定,使用出现、持续、消失三个阶段表示,当目标出现和持续的时间过短时,将其滤去;完成以上两步后,毫米波雷达数据点只剩下有效的目标物,但因对同一目标物毫米波雷达可能会返回多个目标点,此时多个目标点表示为一个物体,为提高标定效率选用DBSCAN聚类算法对数据进行降维,最终每一个目标物仅由一个点代表。
图3是毫米波雷达与相机在线标定流程图,首先同时启动相机和毫米波雷达采集数据;并每隔20s触发一次标定程序,通过手动标定和筛选完成标定,若该帧数据未检测到目标点,选择遗弃,进行下一20秒的标定,在这20秒内用户可在毫米波雷达与相机视野里摆放目标物,或者使目标物运动来增加标定的精确性,20秒的设定是便于当标定人员只有一人时且需要模拟运动目标物标定的需求。标定次数可随用户决定,所有标定数据会以日志的形式保存。
图4是在线标定示意图,通过手动调节滑动窗口参数,使左边的毫米波数据点到达相机中目标物的中心位置,完成标定。
以下为标定参数理论说明。
令相机坐标系为OXcYcZc,毫米波雷达坐标系为OXrYrZr。相机X轴正方向向右,Y轴正方向竖直向下,Z轴正方向为相机中心向前。雷达X轴正方向延雷达中心向前,Y轴正方向向左,Z轴正方向竖直向上。
设定相机坐标系原点与毫米波雷达坐标原点的距离分别为XoffsetYoffsetZoffset,OXrYrZr坐标系在OXcYcZc坐标系下的姿态为(α,β,λ),α,β,λ分别表示俯仰角pitch,航向角yaw,翻滚角roll;在Xc轴的旋转矩阵为Rx,在Yc轴的旋转矩阵为Ry,在Zc轴的旋转矩阵为Rz,则由毫米波雷达坐标系转换为相机坐标系的关系式为:
Pc=R*Pr+T (1)
其中Pc表示点P在相机坐标系下的坐标,PR表示点P在雷达坐标系的坐标,Pr表示统一朝向后雷达点的坐标,R表示从雷达坐标系转换到相机坐标系下的旋转矩阵,T表示雷达坐标系到相机坐标系的平移矩阵,其中:
R=Rz*Ry*Rx (2)
由于毫米波的Zr为0,也就是相机坐标系的Yc为0,所以旋转可以退化为平面XOZ绕Y轴旋转,将(1)式写成矩阵形式:
将相机坐标系下的坐标投影到像素坐标系,如下式:
其中Zc为尺度因子,fx,fy,cx,cy为相机内参,通过相机标定得出,综上通过手动调节参数,使雷达点与目标物体中心重叠,可以生成标定的变换矩阵。
具体实现中,本申请提供计算机存储介质以及对应的数据处理单元,其中,该计算机存储介质能够存储计算机程序,所述计算机程序通过数据处理单元执行时可运行本发明提供的一种基于毫米波雷达和单目相机的联合标定方法的发明内容以及各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(read-only memory,ROM)或随机存储记忆体(random access memory,RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术方案可借助计算机程序以及其对应的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以计算机程序即软件产品的形式体现出来,该计算机程序软件产品可以存储在存储介质中,包括若干指令用以使得一台包含数据处理单元的设备(可以是个人计算机,服务器,单片机。MUU或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本发明提供了一种基于毫米波雷达和单目相机的联合标定方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (7)
1.一种基于毫米波雷达和单目相机的联合标定方法,其特征在于,包括以下步骤:
步骤1,对毫米波雷达的数据进行解析;
步骤2,对毫米波雷达的数据进行处理;
步骤3,进行毫米波雷达与相机在线标定。
2.根据权利要求1所述的方法,其特征在于,步骤1包括:计算机接收的毫米波雷达信号通过CAN-bus网络完成,通过USBCAN接口卡,将雷达信号通过USB总线连接到计算机,再根据CAN协议接收到的每一个CAN标准帧进行解析,所述CAN标准帧包括目标与雷达的距离、角度、相对速度、信号的反射强度以及每个目标的ID号。
3.根据权利要求2所述的方法,其特征在于,步骤1中,计算机接收到的每个目标信号数据是unsigned cha类型的数组Data[8][8],每个雷达目标信息存储在Data[0]~Data[7]中,用lsb表示最低有效位,msb表示最高有效位;角度信息由Data[1]的低5位与Data[2]的高5位组成;距离信息由Data[2]的低3位Data[2]组成;相对速度信息由Data[6]的低6位与Data[7]组成;将从最低有效位到最高有效位的数据组合成一个完整的二进制数,然后转化为融合所需的十进制信息。
4.根据权利要求3所述的方法,其特征在于,步骤2包括:第一步,确定毫米波雷达的检测范围,确定以毫米波雷达为中心横轴x方向和纵轴y方向的距离,滤去无效目标点;第二步,选用探测有效目标生命目标周期的方法来确定受金属障碍物干扰,或系统噪声原因产生的空目标,使用出现、持续、消失三个阶段表示,当目标出现和持续的时间过短时,将目标滤去;完成以上两步后,毫米波雷达数据点只剩下有效的目标物,选用DBSCAN聚类算法对数据进行降维,最终每一个目标物仅由一个点代表。
5.根据权利要求4所述的方法,其特征在于,步骤3包括:同时启动相机和毫米波雷达采集数据,并每隔Y1秒触发一次标定过程,通过手动标定和筛选完成标定,如果当前帧数据未检测到目标点,选择遗弃,进行下一Y1秒的标定,在这Y1秒内用户能够在毫米波雷达与相机视野里摆放目标物,或者使目标物运动来增加标定的精确性。
6.根据权利要求5所述的方法,其特征在于,步骤3中,令相机坐标系为OXcYcZc,毫米波雷达坐标系为OXrYrZr;
相机X轴正方向向右,Y轴正方向竖直向下,Z轴正方向为相机中心向前;
雷达X轴正方向延雷达中心向前,Y轴正方向向左,Z轴正方向竖直向上;
设定相机坐标系原点与毫米波雷达坐标原点的距离分别为XoffsetYoffsetZoffset,OXrYrZr坐标系在OXcYcZc坐标系下的姿态为(α,β,λ),α,β,λ分别表示俯仰角pitch,航向角yaw,翻滚角roll;在Xc轴的旋转矩阵为Rx,在Yc轴的旋转矩阵为Ry,在Zc轴的旋转矩阵为Rz,则由毫米波雷达坐标系转换为相机坐标系的关系式为:
Pc=R*Pr+T (1)
其中Pc表示点P在相机坐标系下的坐标,PR表示点P在雷达坐标系的坐标,Pr表示统一朝向后雷达点的坐标,R表示从雷达坐标系转换到相机坐标系下的旋转矩阵,T表示雷达坐标系到相机坐标系的平移矩阵,其中:
R=Rz*Ry*Rx (2)
由于毫米波的Zr为0,也就是相机坐标系的Yc为0,所以旋转能够退化为平面XOZ绕Y轴旋转,将(1)式写成矩阵形式:
将相机坐标系下的坐标投影到像素坐标系,如下式:
其中Zc为尺度因子,fx,fy,cx,cy为相机内参,通过相机标定得出,再通过调节参数,使雷达点与目标物体中心重叠,生成标定的变换矩阵。
7.一种存储介质,其特征在于,存储有计算机程序或指令,当所述计算机程序或指令被运行时,实现如权利要求1至6中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310412830.4A CN116482627A (zh) | 2023-04-18 | 2023-04-18 | 一种基于毫米波雷达和单目相机的联合标定方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310412830.4A CN116482627A (zh) | 2023-04-18 | 2023-04-18 | 一种基于毫米波雷达和单目相机的联合标定方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116482627A true CN116482627A (zh) | 2023-07-25 |
Family
ID=87213194
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310412830.4A Pending CN116482627A (zh) | 2023-04-18 | 2023-04-18 | 一种基于毫米波雷达和单目相机的联合标定方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116482627A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117784121A (zh) * | 2024-02-23 | 2024-03-29 | 四川天府新区北理工创新装备研究院 | 一种路侧传感器联合标定方法、系统及电子设备 |
-
2023
- 2023-04-18 CN CN202310412830.4A patent/CN116482627A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117784121A (zh) * | 2024-02-23 | 2024-03-29 | 四川天府新区北理工创新装备研究院 | 一种路侧传感器联合标定方法、系统及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111027401B (zh) | 一种摄像头和激光雷达融合的端到端目标检测方法 | |
WO2022022694A1 (zh) | 自动驾驶环境感知方法及系统 | |
CN111462237B (zh) | 利用多源信息构建四通道虚拟图像的目标距离检测方法 | |
CN113359097B (zh) | 一种毫米波雷达和相机联合标定的方法 | |
CN107092021B (zh) | 车载激光雷达三维扫描方法、地物分类方法及系统 | |
CN110988912A (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
CN111257892A (zh) | 一种用于车辆自动驾驶的障碍物检测方法 | |
CN110794406A (zh) | 多源传感器数据融合系统和方法 | |
CN114155501A (zh) | 一种无人车在烟雾遮挡环境下的目标检测方法 | |
CN116482627A (zh) | 一种基于毫米波雷达和单目相机的联合标定方法 | |
CN116978009A (zh) | 基于4d毫米波雷达的动态物体滤除方法 | |
CN117115784A (zh) | 目标数据融合的车辆检测方法及检测装置 | |
Li et al. | Pedestrian liveness detection based on mmwave radar and camera fusion | |
CN110992398A (zh) | 一种激光雷达与红外探测系统图像融合跟踪与抗干扰方法 | |
CN115267756A (zh) | 一种基于深度学习目标检测的单目实时测距方法 | |
CN113888463A (zh) | 车轮转角的检测方法、装置、电子设备及存储介质 | |
CN114384486A (zh) | 一种数据处理方法及装置 | |
CN115082712B (zh) | 一种基于雷视融合的目标检测方法、装置和可读存储介质 | |
CN116642490A (zh) | 基于混合地图的视觉定位导航方法、机器人及存储介质 | |
CN113895482B (zh) | 基于轨旁设备的列车测速方法及装置 | |
CN112651405B (zh) | 目标检测方法及装置 | |
CN113177966B (zh) | 基于速度聚类统计的三维扫描相干激光雷达点云处理方法 | |
CN112529011B (zh) | 目标检测方法及相关装置 | |
CN113762271A (zh) | 基于不规则卷积核神经网络模型的sar图像语义分割方法和系统 | |
CN112766100A (zh) | 一种基于关键点的3d目标检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |