CN114280599A - 基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法 - Google Patents

基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法 Download PDF

Info

Publication number
CN114280599A
CN114280599A CN202111351146.7A CN202111351146A CN114280599A CN 114280599 A CN114280599 A CN 114280599A CN 202111351146 A CN202111351146 A CN 202111351146A CN 114280599 A CN114280599 A CN 114280599A
Authority
CN
China
Prior art keywords
millimeter wave
wave radar
coordinate system
data
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202111351146.7A
Other languages
English (en)
Inventor
周文倩
李涛
田盟刚
贺欣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Genture Electronics Co ltd
Shaanxi Provincial Transport Planning Design and Research Institute Co Ltd
Original Assignee
Genture Electronics Co ltd
Shaanxi Provincial Transport Planning Design and Research Institute Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Genture Electronics Co ltd, Shaanxi Provincial Transport Planning Design and Research Institute Co Ltd filed Critical Genture Electronics Co ltd
Priority to CN202111351146.7A priority Critical patent/CN114280599A/zh
Publication of CN114280599A publication Critical patent/CN114280599A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Traffic Control Systems (AREA)

Abstract

本发明涉及一种基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,属于智能车辆检测技术领域,包括毫米波雷达与高角度相机采集数据,毫米波雷达坐标与像素坐标的转换,数据的时空匹配与融合,融合数据的存储与显示。本发明使用毫米波雷达和高角度相机采集数据,通过坐标转换和时间空间数据匹配,将毫米波雷达数据与图像数据融合,通过融合数据对车辆检测模型进行训练,提高了车辆检测模型的灵敏性和准确性;高视角采集与平视视角不同,本发明世界坐标系的选取适用于高视角的机动车辆检测,坐标转换准确,误差小;结合雷达与视频数据的优点,稳定性高,受天气环境因素影响小,抗干扰能力强。

Description

基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法
技术领域
本发明涉及一种基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,属于智能车辆检测技术领域。
背景技术
多传感器信息融合环境感知技术在提高道路环境感知能力方面具有举足轻重的作用,在目标探测方面,与传统单一的感知相比,多传感器信息融合设备的道路环境信息获取能力更高、更准确、更兼容。多传感器融合可以利用红外、相机、声纳、雷达、激光测距等传感器的不同传感优势,尽可能准确、完整地获取周围环境的感知信息。
智能交通系统是道路有序运行的重要保证,基于毫米波雷达的同步定位及融合定位技术是智能交通系统的关键技术。
相比激光雷达,毫米波雷达具有探测性能稳定、作用距离较长,穿透雾、烟、灰尘的能力强,具有全天候全天时的特点,基于毫米波雷达及相机,对获取的数据进行时间空间融合,使该系统可以实现实时、可靠地检测前方道路环境,从而对机动车辆进行精确识别与显示。
发明内容
为了解决上述技术问题,本发明提供一种基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,其具体技术方案如下:
包括以下步骤:
步骤1:毫米波雷达采集检测数据,所述检测数据包括机动车辆与毫米波雷达的直线距离、角度信息和径向速度以及每帧雷达数据的时间信息;
步骤2:高角度相机采集视频数据;
步骤3:数据处理:包括检测数据的坐标转换与校正
步骤3.1:将车辆的毫米波雷达坐标转换为车辆在图像中的像素坐标;
步骤3.2:向训练好的车辆检测模型输入视频数据直接获得机动车辆的像素坐标;
步骤3.3:根据实际毫米波雷达和高角度相机安装角度进行坐标校正;
步骤4:数据匹配与融合
步骤4.1:对毫米波雷达坐标转换的车辆像素坐标与视频数据经过车辆检测模型获得的像素坐标进行时间匹配;
步骤4.2:对毫米波雷达坐标转换的车辆像素坐标与视频数据经过车辆检测模型获得的像素坐标进行空间匹配;
步骤4.3:将时间匹配和空间匹配均成功的数据进行融合;
步骤5:融合数据的存储与显示:对最终匹配成功的结果进行存储,并将完成数据融合后的图像输出。
进一步的,所述步骤3设毫米波雷达在相机正上方H0处,两传感器相距小于10cm,将H0忽略,一起固定在离地面高度为H处,与水平面垂直方向的倾斜角度为α,α的余角记为θ,设检测车辆高度为定值Hcar,步骤3.1的具体步骤为:
步骤3.1.1:建立坐标系
步骤3.1.1.1:建立毫米波雷达坐标系Or-XrYr,以毫米波雷达为原点Or,Xr轴与相机的光轴平行,Yr轴与水平面平行且垂直于Yr轴,用(Xr,Yr)表示其在毫米波雷达坐标系中坐标值;
步骤3.1.1.2:建立相机坐标系Oc-XcYcZc,以光心为坐标原点Oc,Xc轴和Yc轴分别平行于图像平面的两条垂直边,相机的光轴为Zc轴,用(Xc,Yc,Zc)表示其在相机坐标系中坐标值;
步骤3.1.1.3:建立世界坐标系Ow-XwYwZw,以经过相机设备并垂直于水平地面的交点为Ow,Yw 垂直于水平面,Xw位于水平面且与相机坐标系的Xc轴平行,Zw位于水平面且与相机坐标系的Yc 轴平行,用(Xw,Yw,Zw)表示其在世界坐标系中坐标值;
步骤3.1.1.4:建立图像坐标系Oi-XY,以图像平面的中心为坐标原点Oi,X轴和Y轴分别平行于图像平面的两条垂直边,用(x,y)表示其坐标值;
步骤3.1.1.5:建立像素坐标系O-UV,以图像平面的左上角顶点为原点O,U轴和V轴分别平行于图像平面的两条垂直边,用(u,v)表示其坐标值,所述像素坐标系就是以像素为单位的图像坐标系;
步骤3.1.2:坐标转换
步骤3.1.2.1:将世界坐标系转化为相机坐标系,具体公式如下:
Figure BDA0003353833200000021
Figure BDA0003353833200000022
Figure BDA0003353833200000023
其中,R为3×3的正交单位矩阵,描述旋转关系,T为三维平移向量,描述平移关系;OT为三维零向量,即OT=[0 0 0];
步骤3.1.2.2:相机坐标系转化为图像坐标系,具体公式如下:
Figure BDA0003353833200000031
其中,f为相机焦距;
步骤3.1.2.3:图像坐标系转化为像素坐标系,具体公式如下:
Figure BDA0003353833200000032
其中,A为内参矩阵,通过张正友相机标定法获得;
步骤3.1.2.4:雷达坐标系转换为世界坐标系,具体公式如下:
Figure BDA0003353833200000033
步骤3.1.2.5:毫米波雷达坐标转换为像素坐标,根据公式(1)至公式(6),推知转换关系如下:
Figure BDA0003353833200000034
进一步的,所述坐标校正的对象包括:相机的俯角,相机的投影中心点,图像序列的帧宽和帧高,得到校正后的机动车辆的像素坐标。
进一步的,所述步骤3.2采用yolo网络模型,对paddle框架进行训练,得到车辆检测模型,所述车辆检测模型提供车辆的像素预测框坐标。
进一步的,所述步骤4的时间匹配具体步骤为:
步骤4.1.1:设置毫米波雷达的采样频率和相机的采样频率,所述毫米波雷达的采样频率大于相机的采样频率;
步骤4.1.2:以毫米波雷达的时刻为基准,获取毫米波雷达的时刻前后两帧图像的时刻数据,将雷达数据的时间信息与两帧图像的时间信息进行差值比较,保留差值较小的图像数据。
进一步的,所述步骤4的空间匹配与数据融合具体步骤为:将坐标转换后的像素坐标与车辆预测模型提供的车辆像素预测框进行比较,如果坐标转换后的像素坐标包含在预测框内,则判定为同一车辆信息,进行数据融合,所述数据融合将匹配后的数据利用OpenCV库函数一起显示在图片上。
本发明的有益效果是:本发明使用毫米波雷达和高角度相机采集数据,通过坐标转换和时间空间数据匹配,将毫米波雷达数据与图像数据融合,通过融合数据对车辆检测模型进行训练,提高了车辆检测模型的灵敏性和准确性;高视角采集与平视视角不同,本发明世界坐标系的选取适用于高视角的机动车辆检测,坐标转换准确,误差小;结合雷达与视频数据的优点,稳定性高,受天气光线等环境因素影响小,抗干扰能力强。
附图说明
图1是本发明的数据采集与处理方法的流程示意图,
图2是本发明的毫米波雷达坐标系、相机坐标系和世界坐标系的立体视角示意图,
图3是本发明的相机坐标系和世界坐标系侧视图,
图4是本发明的世界坐标系俯视图,
图5是本发明的毫米波雷达坐标系、相机坐标系和图像坐标系的关系示意图,
图6是本发明的图像坐标系和像素坐标系的关系示意图,
图7是本发明的测试效果图。
具体实施方式
下面结合附图和具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
如图1所示,本发明的基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,包括以下步骤:
步骤1:毫米波雷达采集检测数据,所述检测数据包括机动车辆与毫米波雷达的直线距离、角度信息和径向速度以及每帧雷达数据的时间信息;
步骤2:高角度相机采集视频数据;
步骤3:数据处理,将坐标数据进行转换并进行校正
步骤3.1:将车辆的毫米波雷达坐标转换为车辆在图像中的像素坐标,毫米波雷达坐标无法直接转换成像素坐标,因此通过将毫米波雷达转换成世界坐标系,间接转换成像素坐标。
步骤3.1.1:建立坐标系
步骤3.1.1.1:如图2所示,以毫米波雷达为原点建立毫米波雷达坐标系Or-XrYr,以毫米波雷达为原点Or,Xr轴与相机的光轴平行,Yr轴与水平面平行且垂直于Yr轴,用(Xr,Yr)表示其在毫米波雷达坐标系中坐标值;
步骤3.1.1.2:建立相机坐标系Oc-XcYcZc,以光心为坐标原点Oc,Xc轴和Yc轴分别平行于图像平面的两条垂直边,相机的光轴为Zc轴,用(Xc,Yc,Zc)表示其在相机坐标系中坐标值;
步骤3.1.1.3:建立世界坐标系Ow-XwYwZw,世界坐标系俯视图如图4所示,以经过相机设备并垂直于水平地面的交点为Ow,Yw垂直于水平面,Xw位于水平面且与相机坐标系的Xc轴平行,Zw 位于水平面且与相机坐标系的Yc轴平行,用(Xw,Yw,Zw)表示其在世界坐标系中坐标值,相机坐标系和世界坐标系侧视图如图3所示;
步骤3.1.1.4:建立图像坐标系Oi-XY,以图像平面的中心为坐标原点Oi,X轴和Y轴分别平行于图像平面的两条垂直边,用(x,y)表示其坐标值,毫米波雷达坐标系、相机坐标系和图像坐标系的关系如图5所示;
步骤3.1.1.5:建立像素坐标系O-UV,以图像平面的左上角顶点为原点O,U轴和V轴分别平行于图像平面的两条垂直边,用(u,v)表示其坐标值,所述像素坐标系就是以像素为单位的图像坐标系,图像坐标系和像素坐标系的关系如图6;
步骤3.1.2:坐标转换
步骤3.1.2.1:将世界坐标系转化为相机坐标系,具体公式如下:
Figure BDA0003353833200000051
Figure BDA0003353833200000052
Figure BDA0003353833200000053
其中,R为3×3的正交单位矩阵,描述旋转关系,T为三维平移向量,描述平移关系;OT为三维零向量,即OT=[0 0 0];
步骤3.1.2.2:相机坐标系转化为图像坐标系,具体公式如下:
Figure BDA0003353833200000061
其中,f为相机焦距;
步骤3.1.2.3:图像坐标系转化为像素坐标系,具体公式如下:
Figure BDA0003353833200000062
其中,A为内参矩阵,通过张正友相机标定法获得;
步骤3.1.2.4:雷达坐标系转换为世界坐标系,具体公式如下:
Figure BDA0003353833200000063
步骤3.1.2.5:毫米波雷达坐标转换为像素坐标,根据公式(1)至公式(6),推知毫米波雷达坐标与像素坐标的转换关系如下:
Figure BDA0003353833200000064
步骤3.2:向训练好的车辆检测模型输入视频数据直接获得机动车辆的像素坐标;
步骤3.3:根据实际毫米波雷达和高角度相机安装角度进行坐标校正;
步骤4:数据匹配与融合
步骤4.1:对毫米波雷达坐标转换的车辆像素坐标与视频数据经过车辆检测模型获得的像素坐标进行时间匹配:设置毫米波雷达的采样频率和相机的采样频率,毫米波雷达的采样频率大于相机的采样频率;设毫米波雷达采样频率为80hz,摄像头采样频率为30fps,即雷达数据采样间隔时间约为83.33ms,每秒约12帧;摄像头采样间隔约为33.33ms,每秒30帧,以毫米波雷达的时刻为基准,获取毫米波雷达的时刻前后两帧图像的时刻数据,将雷达数据的时间信息与两帧图像的时间信息进行差值比较,保留差值较小的图像数据;
步骤4.2:对毫米波雷达坐标转换的车辆像素坐标与视频数据经过车辆检测模型获得的像素坐标进行空间匹配:将坐标转换后的像素坐标与车辆预测模型提供的车辆像素预测框进行比较,如果坐标转换后的像素坐标包含在预测框内,则判定为同一车辆信息,进行空间匹配;
步骤4.3:将时间匹配和空间匹配均成功的数据进行数据融合;
步骤5:融合数据的存储与显示:对最终匹配成功的结果进行存储,并将完成数据融合后的图像输出,利用OpenCV库函数将匹配后数据一起显示在图片上,如图7所示是本实施例的测试效果图。
以上述依据本发明的理想实施例为启示,通过上述的说明内容,相关工作人员完全可以在不偏离本项发明技术思想的范围内,进行多样的变更以及修改。本项发明的技术性范围并不局限于说明书上的内容,必须要根据权利要求范围来确定其技术性范围。

Claims (6)

1.一种基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,其特征在于:包括以下步骤:
步骤1:毫米波雷达采集检测数据,所述检测数据包括机动车辆与毫米波雷达的直线距离、角度信息和径向速度以及每帧雷达数据的时间信息;
步骤2:高角度相机采集视频数据;
步骤3:数据处理:包括检测数据的坐标转换与校正
步骤3.1:将车辆的毫米波雷达坐标转换为车辆在图像中的像素坐标;
步骤3.2:向训练好的车辆检测模型输入视频数据直接获得机动车辆的像素坐标;
步骤3.3:根据实际毫米波雷达和高角度相机安装角度进行坐标校正;
步骤4:数据匹配与融合
步骤4.1:对毫米波雷达坐标转换的车辆像素坐标与视频数据经过车辆检测模型获得的像素坐标进行时间匹配;
步骤4.2:对毫米波雷达坐标转换的车辆像素坐标与视频数据经过车辆检测模型获得的像素坐标进行空间匹配;
步骤4.3:将时间匹配和空间匹配均成功的数据进行融合;
步骤5:融合数据的存储与显示:对最终匹配成功的结果进行存储,并将完成数据融合后的图像输出。
2.根据权利要求1所述的基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,其特征在于:所述步骤3设毫米波雷达在相机正上方H0处,两传感器相距小于10cm,将H0忽略,一起固定在离地面高度为H处,与水平面垂直方向的倾斜角度为α,α的余角记为θ,设检测车辆高度为定值Hcar,步骤3.1的具体步骤为:
步骤3.1.1:建立坐标系
步骤3.1.1.1:建立毫米波雷达坐标系Or-XrYr,以毫米波雷达为原点Or,Xr轴与相机的光轴平行,Yr轴与水平面平行且垂直于Yr轴,用(Xr,Yr)表示其在毫米波雷达坐标系中坐标值;
步骤3.1.1.2:建立相机坐标系Oc-XcYcZc,以光心为坐标原点Oc,Xc轴和Yc轴分别平行于图像平面的两条垂直边,相机的光轴为Zc轴,用(Xc,Yc,Zc)表示其在相机坐标系中坐标值;
步骤3.1.1.3:建立世界坐标系Ow-XwYwZw,以经过相机设备并垂直于水平地面的交点为Ow,Yw垂直于水平面,Xw位于水平面且与相机坐标系的Xc轴平行,Zw位于水平面且与相机坐标系的Yc轴平行,用(Xw,Yw,Zw)表示其在世界坐标系中坐标值;
步骤3.1.1.4:建立图像坐标系Oi-XY,以图像平面的中心为坐标原点Oi,X轴和Y轴分别平行于图像平面的两条垂直边,用(x,y)表示其坐标值;
步骤3.1.1.5:建立像素坐标系O-UV,以图像平面的左上角顶点为原点O,U轴和V轴分别平行于图像平面的两条垂直边,用(u,v)表示其坐标值,所述像素坐标系就是以像素为单位的图像坐标系;
步骤3.1.2:坐标转换
步骤3.1.2.1:将世界坐标系转化为相机坐标系,具体公式如下:
Figure FDA0003353833190000021
Figure FDA0003353833190000022
Figure FDA0003353833190000023
其中,R为3×3的正交单位矩阵,描述旋转关系,T为三维平移向量,描述平移关系;OT为三维零向量,即OT=[0 0 0];
步骤3.1.2.2:相机坐标系转化为图像坐标系,具体公式如下:
Figure FDA0003353833190000024
其中,f为相机焦距;
步骤3.1.2.3:图像坐标系转化为像素坐标系,具体公式如下:
Figure FDA0003353833190000025
其中,A为内参矩阵,通过张正友相机标定法获得;
步骤3.1.2.4:雷达坐标系转换为世界坐标系,具体公式如下:
Figure FDA0003353833190000031
步骤3.1.2.5:毫米波雷达坐标转换为像素坐标,根据公式(1)至公式(6),推知转换关系如下:
Figure FDA0003353833190000032
3.根据权利要求1所述的基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,其特征在于:所述坐标校正的对象包括:相机的俯角,相机的投影中心点,图像序列的帧宽和帧高,得到校正后的机动车辆的像素坐标。
4.根据权利要求1所述的基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,其特征在于:所述步骤3.2采用yolo网络模型,对paddle框架进行训练,得到车辆检测模型,所述车辆检测模型提供车辆的像素预测框坐标。
5.根据权利要求1所述的基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,其特征在于:所述步骤4的时间匹配具体步骤为:
步骤4.1.1:设置毫米波雷达的采样频率和相机的采样频率,所述毫米波雷达的采样频率大于相机的采样频率;
步骤4.1.2:以毫米波雷达的时刻为基准,获取毫米波雷达的时刻前后两帧图像的时刻数据,将雷达数据的时间信息与两帧图像的时间信息进行差值比较,保留差值较小的图像数据。
6.根据权利要求1所述的基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法,其特征在于:所述步骤4的空间匹配具体步骤为:将坐标转换后的像素坐标与车辆预测模型提供的车辆像素预测框进行比较,如果坐标转换后的像素坐标包含在预测框内,则判定为同一车辆信息,进行数据融合,所述数据融合将匹配后的数据利用OpenCV库函数一起显示在图片上。
CN202111351146.7A 2021-11-15 2021-11-15 基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法 Pending CN114280599A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111351146.7A CN114280599A (zh) 2021-11-15 2021-11-15 基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111351146.7A CN114280599A (zh) 2021-11-15 2021-11-15 基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法

Publications (1)

Publication Number Publication Date
CN114280599A true CN114280599A (zh) 2022-04-05

Family

ID=80869381

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111351146.7A Pending CN114280599A (zh) 2021-11-15 2021-11-15 基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法

Country Status (1)

Country Link
CN (1) CN114280599A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114842643A (zh) * 2022-04-20 2022-08-02 深圳市旗扬特种装备技术工程有限公司 视频车辆检测模型在线更新方法、装置及雷视融合系统
CN117218089A (zh) * 2023-09-18 2023-12-12 中南大学 一种沥青路面构造深度检测方法
CN117611638A (zh) * 2023-12-07 2024-02-27 北京擎锋精密科技有限公司 一种基于图像处理的车辆行人多目标跟踪方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114842643A (zh) * 2022-04-20 2022-08-02 深圳市旗扬特种装备技术工程有限公司 视频车辆检测模型在线更新方法、装置及雷视融合系统
CN117218089A (zh) * 2023-09-18 2023-12-12 中南大学 一种沥青路面构造深度检测方法
CN117218089B (zh) * 2023-09-18 2024-04-19 中南大学 一种沥青路面构造深度检测方法
CN117611638A (zh) * 2023-12-07 2024-02-27 北京擎锋精密科技有限公司 一种基于图像处理的车辆行人多目标跟踪方法
CN117611638B (zh) * 2023-12-07 2024-05-17 北京擎锋精密科技有限公司 一种基于图像处理的车辆行人多目标跟踪方法

Similar Documents

Publication Publication Date Title
CN112180373B (zh) 一种多传感器融合的智能泊车系统和方法
CN114280599A (zh) 基于毫米波雷达与视频数据的坐标转换匹配车辆检测方法
CN111046743B (zh) 一种障碍物信息标注方法、装置、电子设备和存储介质
CN102737236B (zh) 一种基于多模态传感器数据自动获取车辆训练样本方法
US7218758B2 (en) Drive supporting device
CN110842940A (zh) 一种建筑测量机器人多传感器融合三维建模方法及系统
US11380111B2 (en) Image colorization for vehicular camera images
KR101255461B1 (ko) 도로시설물 자동 위치측정 방법
CN111768332A (zh) 一种车载环视实时3d全景图像的拼接方法及图形采集装置
CN111323767B (zh) 一种夜间无人车障碍物检测系统与方法
JP5539250B2 (ja) 接近物体検知装置及び接近物体検知方法
US11663832B2 (en) Method and system for detecting and analyzing objects
Kinzig et al. Real-time seamless image stitching in autonomous driving
CN110415299B (zh) 一种运动约束下基于设定路牌的车辆位置估计方法
WO2021003896A1 (zh) 基于微波与视频的多目标信息融合及可视化展示方法
CN116978010A (zh) 图像标注方法和装置、存储介质和电子设备
CN114998436A (zh) 对象标注方法、装置、电子设备及存储介质
CN114141055B (zh) 一种智能泊车系统的泊车位检测装置和检测方法
JP3419968B2 (ja) 画像認識装置及び方法
CN113239948B (zh) 一种面向毫米波雷达与视频图像的数据融合方法及系统
TWI797596B (zh) 偵測物件並標記距離的方法與系統
CN113538377B (zh) 一种基于全景环视的驾考车直角转弯压线检测方法和系统
CN114004957B (zh) 增强现实图片的生成方法、装置、设备和存储介质
CN115690219A (zh) 一种复杂环境下运行列车三维信息的检测方法及系统
CN117115426A (zh) 基于3d的障碍物标注方法、装置及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination