CN116128962A - 基于单目视觉的车辆3d定位方法,装置,汽车及存储介质 - Google Patents
基于单目视觉的车辆3d定位方法,装置,汽车及存储介质 Download PDFInfo
- Publication number
- CN116128962A CN116128962A CN202211646727.8A CN202211646727A CN116128962A CN 116128962 A CN116128962 A CN 116128962A CN 202211646727 A CN202211646727 A CN 202211646727A CN 116128962 A CN116128962 A CN 116128962A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- target
- detection
- real
- camera
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供基于单目视觉的车辆3D定位方法,装置,汽车及存储介质,通过对所获取的单目摄像头实时采集图像,经多任务识别模型进行处理,得到第一目标信息;在获取所述单目摄像头对应的参数信息,结合所述第一目标数据计算所述目标车辆的第二目标信息,最后根据所述第二目标信息对所述目标车辆进行跟踪。在纹理较少的环境中,仍能够获得准确率较高的相机位姿,进而能够获得准确率较高的车辆位姿,能够减小由于环境的纹理变化给车辆定位带来的影响,极大地提高了车辆定位系统的鲁棒性。通过车身侧边线检测与车辆检测使用同尺度特征层,每个特征点位对应一套检测结果,无需采用后续匹配,提升目标跟踪效率。
Description
技术领域
本发明涉及车辆位置检测和跟踪技术领域,尤其是涉及一种基于单目视觉的车辆3D定位方法,装置,汽车及存储介质。
背景技术
在ADAS(Advanced DrivingAssistance System,高级驾驶辅助系统)单目视觉中,准确的检测前方车辆是ADAS系统必不可少的功能,是路径规划、运动预测、碰撞避免等功能的前提。而2D(二维)的前车检测已不能满足进一步提高ADAS系统智能化的需求,因此需要研究单目视觉中前车3D(三维)框检测技术。
利用车辆三维信息作为训练数据,通过回归算法得到车辆3D。单张R G B图的3 D(三维)目标检测《Monocular 3D Object Detection and BOX Fitting trained end-to-end using intersecton over union loss》输入单张RGB图,直接通过一个CNN(Convolutional Neural Networks,卷积神经网络)输出预测目标类别、2D(二维)框位置、目标距离、目标偏角、3D框的长宽高、3D框八个顶点投影到2D的坐标位置,通过NMS(Non-Maximum Suppression,非极大值抑制)提取最佳2D框,3D BOXFitting转化成目标类别、2D框、3D框三个信息,和标注的groundtruth(真值,真实有效的值)一一对应,优化IOUloss进行网络回归训练。该方法需要标注数据具有长、宽、高、朝向等groundtruth信息。
然而,现实中,基于深度学习的方法通过训练得到目标3D检测框是需要大量的groundtruth数据作为前提的,若数据较少,训练得到的模型往往会过拟合,泛化能力弱。在一般道路情况下,前方车辆较多,若采集数据时,没有配合激光雷达数据融合,仅拼接单目摄像机很难获取前方车辆的长、宽、高实际物理尺寸与朝向信息。而激光雷达成本高,并且需要将激光雷达与单目摄像机进行联合标定后,后期还需进一步做数据融合,才能获取前方车辆的相关的长、宽、高实际物理尺寸与朝向信息。因此,前车的三维数据信息很难采集获取,难以满足训练数据需求。通过深度学习的方法训练得到目标3D框,则需要大量很难采集获取的前车三维数据信息。且经过标定的三维数据信息普适性较差,在更换摄像头(内参变化)或安装位置有偏差(外参变化)时,会严重影响模型的使用效果。
发明内容
针对上述技术问题,本发明提出一种基于单目视觉的车辆3D定位方法,装置,汽车及存储介质,采用基于卷积神经网络多任务联合的单目车辆3D目标检测及跟踪的手段,将车身关键点回归、侧身边线角度回归、车身姿态分类、目标检测及特征向量生成融合在一起,允许一定程度的遮挡也可以精准获取目标车辆的3D目标框,抗干扰能力较强,可以有效对目标车辆3D进行检测和跟踪。
具体的,本发明提供的一种基于单目视觉的车辆3D检测及跟踪方法,包括步骤:
S1:获取单目摄像头的实时采集图像,所述实时采集图像包括所述车辆的所述单目摄像头对前方至少一个目标车辆的实时采集图像。
S2:根据所述实时采集图像,通过多任务识别模型进行处理,得到第一目标信息,所述第一目标信息包括所述目标车辆对应的2D全车身框,目标车辆特征向量,目标车辆车身姿态和目标车辆车身侧边线信息。
S3:获取所述单目摄像头对应的参数信息,结合所述第一目标数据计算所述目标车辆的第二目标信息,所述第二目标信息包括目标车辆3D全车身框。
S4:根据所述第二目标信息对所述目标车辆进行跟踪。
其中,所述步骤S2中通过多任务识别模型进行处理,得到第一目标信息,具体包括:
S21:通过卷积神经网络模型对所述实时采集图像进行预处理,获得热力图。
S22:筛选热力图中高于预设阈值的特征点作为目标特征数据,获取所述特征点对应的车辆类型参数,根据CenterNet目标检测算法,计算得2D检测框分类列表。
S23:对于每一2D检测框输出对应位置的车身姿态信息,经过argmax算子得到目标车辆的姿态;若姿态为Front_Side或Rear_Side,进行侧边线检测,获得侧边线端点A和B的坐标;否则,返回S22,直到所有目标车辆检测框处理完毕。
所述步骤S21中预处理,具体包括:
对所述实时采集图像根据摄像头分辨率比例及网络结构参数,设置卷积神经网络模型输入端的图像尺寸。
根据所述卷积神经网络模型输入端的图像尺寸比例,对所述多层特征节点归一化处理;采用幽灵模块进行图像特征线性变换获得幽灵特征,再通过BiFPN特征融合算法对不同尺度的幽灵特征加权值进行融合,输出多层特征节点;对所述多层特征节点归一化处理,获得热力图。
所述步骤S3计算所述目标车辆的第二目标信息,具体包括:
S31:分别标定摄像机的内外参数,建立图像坐标到以相机投影为原点地平面车辆坐标系。
S32:选取2D检测框底边端点及中点,相应获得地平面车辆坐标系下的目标车辆检测框端点和中点的坐标映射。
S33:分别计算地平面车辆坐标系下的目标车辆3D坐标系参数,所述3D坐标系参数至少包括车辆长度,车辆宽度,车辆高度以及相对原点的角度。
所述步骤S4具体包括:根据deepsort目标跟踪方法对3D目标进行跟踪。
作为另一优选的,本发明还提供一种基于单目视觉的车辆3D检测及跟踪装置,所述装置至少包括:
第一获取模块,用于获取单目摄像头的实时采集图像,所述实时采集图像包括所述车辆的所述单目摄像头对前方至少一个目标车辆的实时采集图像。
第一计算单元,用于根据所述实时采集图像,通过多任务识别模型进行处理,得到第一目标信息,所述第一目标信息包括所述目标车辆对应的2D全车身框,目标车辆特征向量,目标车辆车身姿态和目标车辆车身侧边线信息。
第二获取模块,用于获取所述单目摄像头对应的参数信息。
第二计算单元,结合所述单目摄像头对应的参数信息和第一目标数据,计算目标车辆的第二目标信息。
跟踪单元,根据所述第二目标信息通过deepsort目标跟踪方法进行3D目标跟踪。
其中,所述第一计算单元,还包括:
预处理模块,通过卷积神经网络模型对实时采集图像进行预处理。
数据筛选模块,用于对预处理模块获得的热力图中高于预设阈值的特征点进行选择作为目标特征数据。
第一检测模块,用于获取所述特征点对应的车辆类型参数,并根据CenterNet目标检测算法,计算得2D检测框分类列表。
第二检测模块,对于每一2D检测框输出对应位置的车身姿态信息,经过argmax算子得到目标车辆的姿态;若姿态为Front_Side或Rear_Side,则进行侧边线检测,获得侧边线端点A和B的坐标。
其中,所述第二计算单元,还包括:
标定模块,用于标定摄像机的内外参数,并建立图像坐标到以相机投影为原点地平面车辆坐标系;
坐标映射模块,用于根据所选取的2D检测框底边端点及中点,相应获得地平面车辆坐标系下的目标车辆检测框端点和中点的坐标映射;
参数计算模块,计算地平面车辆坐标系下的目标车辆3D坐标系参数,所述3D坐标系参数至少包括车辆长度,车辆宽度,车辆高度以及相对原点的角度。
作为另一优选的,本发明还提供一种汽车,安装有单目相机,还配置有基于单目视觉的车辆3D检测及跟踪装置,所述装置采用如上所述基于单目视觉的车辆3D检测及跟踪方法对所述单目相机实时采集的所述汽车前方至少一个目标车辆的实时图像进行处理。
作为另一优选的,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述基于单目视觉的车辆3D检测及跟踪方法。
综上所述,本发明提供基于单目视觉的车辆3D定位方法,装置,汽车及存储介质,通过对所获取的单目摄像头实时采集图像,经多任务识别模型进行处理,得到第一目标信息;在获取所述单目摄像头对应的参数信息,结合所述第一目标数据计算所述目标车辆的第二目标信息,最后根据所述第二目标信息对所述目标车辆进行跟踪。
与现有技术相比,本发明实施例具有以下有益效果:
(1)本发明利用车辆上的单目相机在车辆移动时实时采集图像,并提取图像中的特征点以及特征线,利用该特征点以及特征线获取车辆的2D框图,进而相应获得地平面车辆坐标系下的目标车辆检测框端点和中点的坐标映射,从而获得目标车辆3D坐标系参数,在图像跟踪的过程中基于特征点和特征线的融合优化获得单目相机的优化后的相机位姿,在纹理较少的环境中,仍能够获得准确率较高的相机位姿,进而能够获得准确率较高的车辆位姿,能够减小由于环境的纹理变化给车辆定位带来的影响,极大地提高了车辆定位系统的鲁棒性。
(2)本发明通过车身侧边线检测与车辆检测使用同尺度特征层,每个特征点位对应一套检测结果,无需采用后续匹配。
(3)本发明中的车侧边线检测,抗干扰能力较强,允许一定程度的遮挡。车身姿态分类任务,使得各种场景可以针对性地被处理。
(4)本发明中可输出前车目标在当前车辆3D坐标系中的长方体目标。本发明将车辆3D检测与特征检测合并完成,提升目标跟踪效率。
附图说明
图1为本发明所述基于单目视觉的车辆3D检测及跟踪方法流程图。
图2为本发明所述卷积神经网络模型图。
图3为本发明所述幽灵模块原理图。
图4为本发明一实施例中的车身侧边线计算方法示意图。
图5为本发明另一实施例中的车身侧边线计算方法示意图。
图6为本发明另一实施例中的车身侧边线计算方法示意图。
图7为本发明另一实施例中的目标特征向量输出示意图。
图8为本发明另一实施例中的车辆坐标系示意图。
图9为本发明另一实施例中的图像至车辆坐标系映射示意图。
图10为本发明另一实施例中的前车侧边线不可见情况,投影分析示意图。
具体实施方式
为了使本技术领域的人员更好地理解本发明方案,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明提供的一种基于单目视觉的车辆3D检测及跟踪方法,包括步骤:
S1:获取单目摄像头的实时采集图像,所述实时采集图像包括所述车辆的所述单目摄像头对前方至少一个目标车辆的实时采集图像。
S2:根据所述实时采集图像,通过多任务识别模型进行处理,得到第一目标信息,所述第一目标信息包括所述目标车辆对应的2D全车身框,目标车辆特征向量,目标车辆车身姿态和目标车辆车身侧边线信息。
S3:获取所述单目摄像头对应的参数信息,结合所述第一目标数据计算所述目标车辆的第二目标信息,所述第二目标信息包括目标车辆3D全车身框。
S4:根据所述第二目标信息对所述目标车辆进行跟踪。
其中,所述步骤S2中通过多任务识别模型进行处理,得到第一目标信息,具体包括:
S21:通过卷积神经网络模型对所述实时采集图像进行预处理,获得热力图。
其中预处理具体包括:对所述实时采集图像根据摄像头分辨率比例及网络结构参数,设置卷积神经网络模型输入端的图像尺寸;根据所述卷积神经网络模型输入端的图像尺寸比例,对所述多层特征节点归一化处理;采用幽灵模块进行图像特征线性变换获得幽灵特征,再通过BiFPN特征融合算法对不同尺度的幽灵特征加权值进行融合,输出多层特征节点;对所述多层特征节点归一化处理,获得热力图。
如图2-3所示,所述卷积神经网络模型包括:输入单元,主干网络,特征融合和多任务检测,具体的:
输入单元,获取单目摄像头实时采集的图像。
主干网络,使用基于幽灵模块(GhostNet)的ResNet网络结构。幽灵模块通过已有的特征通过简单的线性变换得到幽灵特征。上图中Output的下半部分。相比mobilenet,幽灵模块可以用更少的运算,可以通过适当减少卷积特征层来降低计算量,带来更丰富的特征表达,适合在对实时性要求较高的自动驾驶领域应用。
特征融合:使用Google推出的BiFPN特征融合算法。与直接堆叠不同尺度的特征的传统做法不同的是,BiFPN 可以给不同尺度特征加权值进行融合,让网络自行学习不同输入特征的权重。BiFPN应用方法简单易用,在特征融合过程中可以根据检测任务复杂度及硬件计算能力多次使用BiFPN,以3层BiFPN为例,如图4所示。
多任务检测:可选择一个(如P3_out)、多个或全部BiFPNs的输出特征节点进行检测。选择部分输出特征层时可将其它输出特征节点删除。
下面以使用P3_out进行多任务检测为例介绍本发明中的多任务检测功能:
Input:参考应用摄像头分辨率比例及网络结构设计input尺寸。假设摄像头分辨率1920x1080,即,宽:长=3:2;如上网络结构要求输入长宽需为128的倍数。综上可设定input尺寸(示例尺寸,包括但不限于):
Input_w = 128*6 = 768;
Input_h = 128*4 = 512;
设定P3_out特征输出层数P3_out_c = 192,根据input尺寸可得P3_out尺寸为:
P3_out_chw = [P3_out_c, Input_w/8, Input_w/8] = [192, 96, 64]。
S22:筛选热力图中高于预设阈值的特征点作为目标特征数据,获取所述特征点对应的车辆类型参数,根据CenterNet目标检测算法计算得所述特征点分布热力图,目标中心相对特征点偏差回归值和目标框宽高回归值,进而计算得到2D检测框分类列表,并将2D检测框记录在所述热力图上对应坐标位置。
其中, 2D目标检测使用centerNet算法。每个车辆类型(设定10个分类,不限于10个分类)对应一个输出序列(热力图、中心偏差回归、宽高回归),热力图使用focal_loss损失函数,中心偏差回归和宽高回归使用L2损失函数。
2D检测框分类列表使用6分类softmax结构,使用交叉熵损失函数。
车身姿态分类 | 说明 |
Front | 只见车头(视线方向正对车头) |
Rear | 只见车尾(视线方向正对车尾) |
Left_Side | 只见侧身(目标车身方向与视线方向垂直),车头向左 |
Right_Side | 只见侧身(目标车身方向与视线方向垂直),车头向右 |
Front_Side | 可见车头+侧身 |
Rear_Side | 可见车尾+侧身 |
S23:对于每一2D检测框输出对应位置的车身姿态信息,经过argmax算子得到目标车辆的姿态;若姿态为Front_Side或Rear_Side,进行侧边线检测,获得侧边线端点A和B的坐标;否则,返回S22,直到所有目标车辆检测框处理完毕。
所述侧边线检测过程汇中,每个特征位置(96 x 64)对应一个检测结果。本发明使用L2损失函数确定侧边线,具体的,提供三种确定车身侧边线的方案:
方案一:
如图4所示,设侧边线端点A和B所在线段中点C相对中心特征点F的坐标偏差(reg_x, reg_y),间距线段长度L,线段相对x轴角度R,取值范围[0, 1],计算侧边线检测公式为:
C_x = Fx + reg_x;
C_y = Fy + reg_y;
A_x = C_x - length/2 * cos(angle*180°);
A_y = C_y + length/2 * sin(angle*180°);
B_x = C_x + length/2 * cos(angle*180°);
B_y = C_y - length/2 * sin(angle*180°)。
此方案的优点:不依赖2D检测框的准确性。
方案二:
如图5所示,以侧边线端点A和B所在线段两端在2D检测框上为先验信息,输出底边线端点的底边相对位置比例reg_x,其中,0表示在底线左端,1表示在底线右端,侧边线端点的侧边相对位置reg_y,其中,[0, 0.5]表示在框左侧,0在上,0.5在下;(0.5, 1]表示在框右侧,0.5在上,1在下;计算侧边线检测公式为:
A_x = Box_x + Box_w * reg_x;
A_y = Box_y + Box_h;
当reg_y ≤ 0.5时,
B_x = Box_x;
B_y = Box_y + Box_h * reg_y;
当reg_y > 0.5时,
B_x = Box_x + Box_w;
B_y = Box_y + Box_h * (reg_y – 0.5)。
此方案的优点:利用了2D检测框的信息;回归任务量少。
方案三:
如图6所示,所述侧边线检测,包括:
以侧边线端点A和B所在线段两端在2D检测框上为先验信息,输出底边线端点的底边相对位置比例reg_x,其中,0表示在底线左端,1表示在底线右端;线段相对x轴r,取值范围[0, 1];计算侧边线检测公式为:
A_x = Box_x + Box_w * reg_x;
A_y = Box_y + Box_h;
当angle < 90°时,
B_x = Box_x + Box_w;
B_y = Box_y + Box_h - Box_w * (1 - reg_x) * tan(angle*180°);
当angle > 90°时,
B_x = Box_x;
B_y = Box_y + Box_h + Box_w * reg_x * tan(angle*180°)。
此方案的优点:如图6所示,前车姿态为Front_Side或Rear_Side时,侧边线方向(angle)明显。且前视可见侧边线时,angle取值不可能为以0.5(即90°)为中心的小邻域内,因此不会存在跳变情况;端点A可通过尾灯或车头大灯外侧垂线与框相交得到,特征明显;angle和reg_x取值范围均为[0, 1],便于网络回归学习。
特征输出如图7所示。每个特征位置(96 x 64)对应一个n维特征向量。以n=64为例(应用中不限于该数值)。训练时,参考arcface算法,特征向量后接跟踪ID分类器,类别数量即为训练样本集ID数量,保证训练集中同个ID的目标投影聚集到同个ID类别,不同ID目标投影到不同的ID类别。以此方式,可获得具有具有个体差异性的目标特征向量。保存模型时,仅保存至目标特征向量输出为止。
本发明上述中步骤S3计算所述目标车辆的第二目标信息,具体包括:
S31:分别标定摄像机的内外参数,建立图像坐标到以相机投影为原点地平面车辆坐标系,如图8所示。
S32:选取2D检测框底边端点及中点,相应获得地平面车辆坐标系下的目标车辆检测框端点和中点的坐标映射。
设E点为框底线在不可见车侧边一方的端点,得到车辆坐标系下:A’(A’_x,A’_y),B’(B’_x, B’_y),E’(E’_x, E’_y);分别计算车辆长度,车辆宽度,车辆高度、前方车辆角度及A’坐标,得当前车辆3D坐标系。
S33:取2D检测框底边端点A,E点及中点 M(M_x,M_y),分别计算地平面车辆坐标系下的目标车辆3D坐标系参数,所述3D坐标系参数至少包括车辆长度,车辆宽度,车辆高度以及相对原点的角度。
所述步骤S4具体包括:根据deepsort目标跟踪方法对3D目标进行跟踪。
优选的,在本实施例中,假设摄像头为针孔模型摄像头,若不是,可进行畸变矫正转换至针孔模型画面。即如图9所示,计算图像地面上点在车辆坐标系中相应坐标映射,E点为框底线在不可见车侧边一方的端点。得到车辆坐标系下:A’(A’_x,A’_y),B’(B’_x, B’_y),E’(E’_x, E’_y)
然后,计算得:
车辆长度:
。
相对于车辆坐标系x轴,前方车辆角度:(取值范围(-90°, 90°),左偏角度为正,右偏角度为负) :
。
由于车尾框是在同一距离在摄像头上投影,根据小孔成像原理知图像坐标中的宽高比与实际宽高比一致,得车辆高度:
。
表示图像坐标系中两点的欧氏距离。
当前车朝向 θ >0时,车尾框底线右侧端点E可近似认为是真实E_r在直线x = A_x上的投影。得,车辆宽度:
。
结合前方车辆姿态分类,继而可得前车朝向与当前车朝向(x轴方向)的角度θ_final :
当car_pose = Front_Side 时,θ_final =θ + 180°。
当car_pose = Rear_Side 时(如图9中示例),θ_final =θ。
综上,依据前车长宽高、车辆方向及A’坐标,即得当前车辆3D坐标系(在图7坐标系中增加垂直地面向上的z轴)中的长方体目标,直到所有车辆检测框处理完毕。
在步骤S33中计算地平面车辆坐标系下的目标车辆3D坐标系参数,具体过程为:
取车2D框底边端点A,E及中点 M(M_x,M_y),如图10所示:
计算中点 M(M_x,M_y)公式为:
M_x = Box_x + Box_w / 2。
M_y = Box_y + Box_h。
M点在车辆坐标系中的投影M’( M’_x,M’_y),得:
。
A’, E’间距离: 。
假设前车身长:宽 = 3:1,得:
当car_pose = Front时,θ_final =θ + 180°;car_W = dis(A’, E’);
。
当car_pose = Rear 时,θ_final =θ ;car_W = dis(A’, E’);
;car_L = 3 * car_W。
当car_pose = Left_Side 时,θ_final =θ + 90°;car_L = dis(A’, E’);
;car_W =car_L/3。
当car_pose = Right_Side 时,
θ_final =θ + 270°;car_L = dis(A’, E’);
;car_W =car_L/3。
可见,依据前车长宽高、车辆方向及A’坐标,即得当前车辆3D坐标系中的长方体目标。
作为另一优选的,本发明还提供一种基于单目视觉的车辆3D检测及跟踪装置,所述装置至少包括:
第一获取模块,用于获取单目摄像头的实时采集图像,所述实时采集图像包括所述车辆的所述单目摄像头对前方至少一个目标车辆的实时采集图像。
第一计算单元,用于根据所述实时采集图像,通过多任务识别模型进行处理,得到第一目标信息,所述第一目标信息包括所述目标车辆对应的2D全车身框,目标车辆特征向量,目标车辆车身姿态和目标车辆车身侧边线信息。
第二获取模块,用于获取所述单目摄像头对应的参数信息。
第二计算单元,结合所述单目摄像头对应的参数信息和第一目标数据,计算目标车辆的第二目标信息。
跟踪单元,根据所述第二目标信息通过deepsort目标跟踪方法进行3D目标跟踪。
其中,所述第一计算单元,还包括:
预处理模块,通过卷积神经网络模型对实时采集图像进行预处理。
数据筛选模块,用于对预处理模块获得的热力图中高于预设阈值的特征点进行选择作为目标特征数据。
第一检测模块,用于获取所述特征点对应的车辆类型参数,并根据CenterNet目标检测算法,计算得2D检测框分类列表。
第二检测模块,对于每一2D检测框输出对应位置的车身姿态信息,经过argmax算子得到目标车辆的姿态;若姿态为Front_Side或Rear_Side,则进行侧边线检测,获得侧边线端点A和B的坐标。
其中,所述第二计算单元,还包括:
标定模块,用于标定摄像机的内外参数,并建立图像坐标到以相机投影为原点地平面车辆坐标系。
坐标映射模块,用于根据所选取的2D检测框底边端点及中点,相应获得地平面车辆坐标系下的目标车辆检测框端点和中点的坐标映射。
参数计算模块,计算地平面车辆坐标系下的目标车辆3D坐标系参数,所述3D坐标系参数至少包括车辆长度,车辆宽度,车辆高度以及相对原点的角度。
作为另一优选的,本发明还提供一种汽车,安装有单目相机,还配置有基于单目视觉的车辆3D检测及跟踪装置,所述装置采用如上所述基于单目视觉的车辆3D检测及跟踪方法对所述单目相机实时采集的所述汽车前方至少一个目标车辆的实时图像进行处理。
作为另一优选的,本发明还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如上所述基于单目视觉的车辆3D检测及跟踪方法。
尽管这里已经参考附图描述了示例实施例,应理解上述示例实施例仅仅是示例性的,并且不意图将本发明的范围限制于此。本领域普通技术人员可以在其中进行各种改变和修改,而不偏离本发明的范围和精神。所有这些改变和修改意在被包括在所附权利要求所要求的本发明的范围之内。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。例如,以上所描述的设备实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个设备,或一些特征可以忽略,或不执行。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的一些模块的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
虽然对本发明的描述是结合以上具体实施例进行的,但是,熟悉本技术领域的人员能够根据上述的内容进行许多替换、修改和变化是显而易见的。因此,所有这样的替代、改进和变化都包括在附后的权利要求的精神和范围内。
Claims (10)
1.一种基于单目视觉的车辆3D检测及跟踪方法,其特征在于,包括步骤:
S1:获取单目摄像头的实时采集图像,所述实时采集图像包括所述车辆的所述单目摄像头对前方至少一个目标车辆的实时采集图像;
S2:根据所述实时采集图像,通过多任务识别模型进行处理,得到第一目标信息,所述第一目标信息包括所述目标车辆对应的2D全车身框,目标车辆特征向量,目标车辆车身姿态和目标车辆车身侧边线信息;
S3:获取所述单目摄像头对应的参数信息,结合所述第一目标数据计算所述目标车辆的第二目标信息,所述第二目标信息包括目标车辆3D全车身框;
S4:根据所述第二目标信息对所述目标车辆进行跟踪。
2.根据权利要求1所述的基于单目视觉的车辆3D检测及跟踪方法,其特征在于,所述步骤S2中通过多任务识别模型进行处理,得到第一目标信息,具体包括:
S21:通过卷积神经网络模型对所述实时采集图像进行预处理,获得热力图;
S22:筛选热力图中高于预设阈值的特征点作为目标特征数据,获取所述特征点对应的车辆类型参数,根据CenterNet目标检测算法,计算得2D检测框分类列表;
S23:对于每一2D检测框输出对应位置的车身姿态信息,经过argmax算子得到目标车辆的姿态;若姿态为Front_Side或Rear_Side,进行侧边线检测,获得侧边线端点A和B的坐标;否则,返回S22,直到所有目标车辆检测框处理完毕。
3.根据权利要求2所述的基于单目视觉的车辆3D检测及跟踪方法,其特征在于,所述步骤S21中预处理,具体包括:
对所述实时采集图像根据摄像头分辨率比例及网络结构参数,设置卷积神经网络模型输入端的图像尺寸;
根据所述卷积神经网络模型输入端的图像尺寸比例,对所述多层特征节点归一化处理;采用幽灵模块进行图像特征线性变换获得幽灵特征,再通过BiFPN特征融合算法对不同尺度的幽灵特征加权值进行融合,输出多层特征节点;对所述多层特征节点归一化处理,获得热力图。
4.根据权利要求3所述的基于单目视觉的车辆3D检测及跟踪方法,其特征在于,所述步骤S3计算所述目标车辆的第二目标信息,具体包括:
S31:分别标定摄像机的内外参数,建立图像坐标到以相机投影为原点地平面车辆坐标系;
S32:选取2D检测框底边端点及中点,相应获得地平面车辆坐标系下的目标车辆检测框端点和中点的坐标映射;
S33:分别计算地平面车辆坐标系下的目标车辆3D坐标系参数,所述3D坐标系参数至少包括车辆长度,车辆宽度,车辆高度以及相对原点的角度。
5.根据权利要求4所述的基于单目视觉的车辆3D检测及跟踪方法,其特征在于,所述步骤S4具体包括:根据deepsort目标跟踪方法对3D目标进行跟踪。
6.根据权利要求1-5任一所述基于单目视觉的车辆3D检测及跟踪方法的装置,其特征在于,所述装置至少包括:
第一获取模块,用于获取单目摄像头的实时采集图像,所述实时采集图像包括所述车辆的所述单目摄像头对前方至少一个目标车辆的实时采集图像;
第一计算单元,用于根据所述实时采集图像,通过多任务识别模型进行处理,得到第一目标信息,所述第一目标信息包括所述目标车辆对应的2D全车身框,目标车辆特征向量,目标车辆车身姿态和目标车辆车身侧边线信息;
第二获取模块,用于获取所述单目摄像头对应的参数信息;
第二计算单元,结合所述单目摄像头对应的参数信息和第一目标数据,计算目标车辆的第二目标信息;
跟踪单元,根据所述第二目标信息通过deepsort目标跟踪方法进行3D目标跟踪。
7.根据权利要求6所述的装置,其特征在于,所述第一计算单元,还包括:
预处理模块,通过卷积神经网络模型对实时采集图像进行预处理;
数据筛选模块,用于对预处理模块获得的热力图中高于预设阈值的特征点进行选择作为目标特征数据;
第一检测模块,用于获取所述特征点对应的车辆类型参数,并根据CenterNet目标检测算法,计算得2D检测框分类列表;
第二检测模块,对于每一2D检测框输出对应位置的车身姿态信息,经过argmax算子得到目标车辆的姿态;若姿态为Front_Side或Rear_Side,则进行侧边线检测,获得侧边线端点坐标。
8.根据权利要求7所述的装置,其特征在于,
所述第二计算单元,还包括:
标定模块,用于标定摄像机的内外参数,并建立图像坐标到以相机投影为原点地平面车辆坐标系;
坐标映射模块,用于根据所选取的2D检测框底边端点及中点,相应获得地平面车辆坐标系下的目标车辆检测框端点和中点的坐标映射;
参数计算模块,计算地平面车辆坐标系下的目标车辆3D坐标系参数,所述3D坐标系参数至少包括车辆长度,车辆宽度,车辆高度以及相对原点的角度。
9.一种汽车,安装有单目相机,其特征在于,还配置有基于单目视觉的车辆3D检测及跟踪装置,所述装置采用如权利要求1-5中任一所述基于单目视觉的车辆3D检测及跟踪方法对所述单目相机实时采集的所述汽车前方至少一个目标车辆的实时图像进行处理。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述基于单目视觉的车辆3D检测及跟踪方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211646727.8A CN116128962A (zh) | 2022-12-21 | 2022-12-21 | 基于单目视觉的车辆3d定位方法,装置,汽车及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211646727.8A CN116128962A (zh) | 2022-12-21 | 2022-12-21 | 基于单目视觉的车辆3d定位方法,装置,汽车及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116128962A true CN116128962A (zh) | 2023-05-16 |
Family
ID=86310925
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211646727.8A Pending CN116128962A (zh) | 2022-12-21 | 2022-12-21 | 基于单目视觉的车辆3d定位方法,装置,汽车及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116128962A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117553695A (zh) * | 2024-01-11 | 2024-02-13 | 摩斯智联科技有限公司 | 基于宽高比抑制噪声计算车辆高度的方法、装置及计算机存储介质 |
-
2022
- 2022-12-21 CN CN202211646727.8A patent/CN116128962A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117553695A (zh) * | 2024-01-11 | 2024-02-13 | 摩斯智联科技有限公司 | 基于宽高比抑制噪声计算车辆高度的方法、装置及计算机存储介质 |
CN117553695B (zh) * | 2024-01-11 | 2024-05-03 | 摩斯智联科技有限公司 | 计算车辆高度的方法、装置及计算机存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
US11461912B2 (en) | Gaussian mixture models for temporal depth fusion | |
CN108596081B (zh) | 一种基于雷达和摄像机融合的车辆行人探测方法 | |
CN112396650B (zh) | 一种基于图像和激光雷达融合的目标测距系统及方法 | |
CN110073362A (zh) | 用于车道标记检测的系统及方法 | |
Pantilie et al. | Real-time obstacle detection in complex scenarios using dense stereo vision and optical flow | |
CN108645375B (zh) | 一种用于车载双目系统快速车辆测距优化方法 | |
US20210287022A1 (en) | Method for estimating a relative position of an object in the surroundings of a vehicle and electronic control unit for a vehicle and vehicle | |
KR102264152B1 (ko) | 첨단 센서 데이터와 카메라 영상을 gtl 하는 방법 및 시스템 | |
CN111310708A (zh) | 交通信号灯状态识别方法、装置、设备和存储介质 | |
CN110610130A (zh) | 一种多传感器信息融合的输电线路机器人导航方法及系统 | |
US11281916B2 (en) | Method of tracking objects in a scene | |
CN116128962A (zh) | 基于单目视觉的车辆3d定位方法,装置,汽车及存储介质 | |
El Bouazzaoui et al. | Enhancing RGB-D SLAM performances considering sensor specifications for indoor localization | |
CN115187941A (zh) | 目标检测定位方法、系统、设备及存储介质 | |
CN111353481A (zh) | 基于激光点云与视频图像的道路障碍物识别方法 | |
CN114648639B (zh) | 一种目标车辆的检测方法、系统及装置 | |
Chavan et al. | Obstacle detection and avoidance for automated vehicle: A review | |
Lim et al. | MSDPN: Monocular depth prediction with partial laser observation using multi-stage neural networks | |
CN115761164A (zh) | 逆透视ipm图像生成的方法和装置 | |
WO2024131200A1 (zh) | 基于单目视觉的车辆3d定位方法、装置及汽车 | |
Beemelmanns et al. | Multicorrupt: A multi-modal robustness dataset and benchmark of lidar-camera fusion for 3d object detection | |
Tao et al. | 3D object detection algorithm based on multi-sensor segmental fusion of frustum association for autonomous driving | |
CN112598736A (zh) | 一种基于地图构建的视觉定位方法及装置 | |
CN117593650B (zh) | 基于4d毫米波雷达与sam图像分割的动点滤除视觉slam方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |