CN114821499A - 目标分类方法 - Google Patents
目标分类方法 Download PDFInfo
- Publication number
- CN114821499A CN114821499A CN202210439476.XA CN202210439476A CN114821499A CN 114821499 A CN114821499 A CN 114821499A CN 202210439476 A CN202210439476 A CN 202210439476A CN 114821499 A CN114821499 A CN 114821499A
- Authority
- CN
- China
- Prior art keywords
- radar
- trace
- point
- classification
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000000007 visual effect Effects 0.000 claims abstract description 89
- 238000013136 deep learning model Methods 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000001514 detection method Methods 0.000 claims description 86
- 238000011156 evaluation Methods 0.000 claims description 21
- 238000002834 transmittance Methods 0.000 claims description 11
- 238000012545 processing Methods 0.000 claims description 10
- 238000013507 mapping Methods 0.000 claims description 9
- 230000003044 adaptive effect Effects 0.000 claims description 4
- 238000006073 displacement reaction Methods 0.000 claims description 3
- 230000001131 transforming effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002592 echocardiography Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 229910052739 hydrogen Inorganic materials 0.000 description 1
- 239000001257 hydrogen Substances 0.000 description 1
- 125000004435 hydrogen atom Chemical class [H]* 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S7/00—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
- G01S7/02—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
- G01S7/41—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
- G01S7/417—Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section involving the use of neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/254—Fusion techniques of classification results, e.g. of results related to same input data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/40—Image enhancement or restoration using histogram techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Probability & Statistics with Applications (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Radar Systems Or Details Thereof (AREA)
Abstract
本发明提供一种目标分类方法,包括:将雷达坐标系和图像坐标系进行标定;对雷达信号进行噪声滤除以得到点云信号,同时对图像数据进行去雾以得到精去雾图像;对点云信号进行聚类、去噪以得到多组点迹集合,同时利用深度学习模型对精去雾图像进行训练以获取视觉分类结果;获取点迹集合的参数信息;对点迹集合进行分类以获取雷达分类结果;将雷达分类结果与视觉分类结果进行融合以得到最终的分类结果。本申请提供的分类方法拥有多个数据源,对雷达信号去噪、分类以获取雷达分类结果,并对图像数据去雾、训练以获取视觉分类结果,最后将雷达分类结果和视觉分类结果融合,避免了误分类的情况,提高了目标识别的精度,提高了目标分类的可靠性和准确性。
Description
技术领域
本申请涉及目标检测和分类技术领域,具体涉及一种目标分类方法。
背景技术
传统的毫米波雷达数据仅包含距离、方位角和速度信息,这些信息可以用于辅助计算机视觉进行目标检测任务,但对于目标分类任务而言数据维度仍然不足以对目标进行分类,而4D毫米波雷达的出现使得使用雷达数据进行目标分类变为可能,这是因为4D毫米波雷达的探测信息包含距离、方位角、速度和俯仰角,对于探测目标来说,在空间上从平面空间拓展到立体空间,可以有效地判断目标的形状和空间特征。此外,4D毫米波雷达提供了更稠密的点云和点迹信息,可以基于这些信息进行目标分类。
4D毫米波雷达虽然相对于过去雷达有着明显进步,但仍存在点云数据稀疏、小目标识别精度不高等问题。对于目标分类任务而言,本领域有一些专家提出使用4D毫米波雷达的多帧点迹和目标长宽高信息进行概率计算并分类,但仅使用4D毫米波雷达数据进行分类,获取的数据具有一定局限性,对于相似目标的处理能力较差,并且其依靠经验调整阈值,会导致额外的不稳定因素;此外,在精度上仅依靠概率计算,还是存在误分类的风险。
所以当下亟需提出一种新的目标分类方法来解决数据源单一、目标识别精度不高、目标误分类等问题,从而为业界提供新的思路,具有重要意义且十分必要。
发明内容
本申请提供了一种目标分类方法,可以解决目标分类的数据源单一、目标识别精度不高、目标误分类等问题中的至少一个问题。
一方面,本申请实施例提供了一种目标分类方法,包括:
利用毫米波雷达获取检测区域中的待测目标的雷达信号,同时,利用摄像头获取检测区域中的待测目标的图像数据;
将雷达坐标系和图像坐标系进行标定,统一坐标系;
对所述雷达信号进行噪声滤除以得到点云信号,同时对所述图像数据进行处理以得到精去雾图像;
对所述点云信号进行聚类、去噪以得到多组点迹集合,同时利用深度学习模型对所述精去雾图像进行训练以获取视觉分类结果,其中,所述视觉分类结果包括:视觉检测框和视觉分类置信度;
获取所述点迹集合的参数信息,其中,所述参数信息包括:待测目标的长度、宽度、高度、多普勒速度和雷达反射强度;
根据所述点迹集合的参数信息和预设的参数阈值区间,对所述点迹集合进行分类以获取雷达分类结果,并计算待测目标的雷达分类置信度,其中,雷达分类结果包括:雷达检测框;
将所述雷达分类结果与所述视觉分类结果进行融合以得到最终的分类结果。
可选的,在所述目标分类方法中,所述对毫米波雷达回传的雷达信号进行噪声滤除以得到点云信号,同时对摄像头回传的图像数据进行处理以得到精去雾图像的步骤包括:
对所述雷达信号进行傅里叶变换以将所述雷达信号从时域转换到频域;
利用OS-CFAR算法对所述雷达信号进行自适应噪声去除;
将所述雷达信号映射到三维坐标系中以得到点云信号;
对所述图像数据进行去雾处理。
可选的,在所述目标分类方法中,所述对所述图像数据进行去雾处理的步骤包括:
对所述图像数据进行大气光值估计以得到大气光的估计值;
对所述图像数据进行透射率粗估计以得到粗去雾图像;
利用导向滤波方法对所述粗去雾图像进行透射率精估计以得到所述精去雾图像。
可选的,在所述目标分类方法中,所述对所述图像数据进行大气光值估计以得到大气光的估计值的步骤包括:
第一步骤:将所述图像数据均分成四个矩形区域;其中,所述图像数据满足如下大气散射模型:
I(p)=t(p)J(p)+(1-t(p))A
其中,I(p)为有雾图像,J(p)为无雾图像,t(p)为透射率,A为大气光;
第二步骤:根据各所述矩形区域的像素值的平均值和标准差,获取各所述矩形区域的像素值的平均值与各所述矩形区域的像素值的标准差的差值,选出差值最大的矩形区域;
第三步骤:以差值最大的矩形区域作为新的图像数据,并对新的图像数据重复执行所述第一步骤和所述第二步骤,直至当前差值最大的矩形区域的面积小于预设的面积阈值,此时,将面积小于预设的面积阈值的矩形区域最亮点的像素值作为大气光的估计值。
可选的,在所述目标分类方法中,所述对所述点云信号进行聚类、去噪以得到多组点迹集合,同时利用深度学习模型对所述精去雾图像进行训练以获取视觉分类结果的步骤包括:
利用DBSCAN算法对所述点云信号进行聚类以得到多个点迹集合;
对检测区域的边界位置的部分点迹集合进行剔除以滤除障碍物,其中,需要剔除的所述部分点迹集合包括至少20个信号点;
对所述点迹集合进行编组以给各所述点迹集合赋予对应的ID;
采用深度学习模型对所述精去雾图像进行训练以对待测目标进行检测与分类以获取所述视觉分类结果,其中,所述视觉分类结果包括:视觉目标检测框和视觉分类置信度;所述深度学习模型为YOLOX-S模型。
可选的,在所述目标分类方法中,所述获取所述点迹集合的参数信息,其中,所述参数信息包括:长度、宽度、高度、速度和雷达反射强度的步骤包括:
将所述点迹集合从雷达坐标系映射到平面坐标系中;
在当前帧中,将各所述点迹集合的聚类中心设置为虚拟测量点,并以当前帧中的所述虚拟测量点为测量基点;
分别检测后两帧中的各所述虚拟测量点是否发生偏移;若后两帧中的任意一所述虚拟测量点发生偏移,则对发生位移的所述虚拟测量点分别进行平移直至与当前帧中的测量基点的位置重合;
分别获取各所述点迹集合在x轴和y轴上的最大值和最小值,其中,在x轴上的最大值记为xi_max,在x轴上的最小值记为xi_min,在y轴上的最大值记为yi_max,在y轴上的最小值记为yi_min,其中,i为大于或者等于1的整数;
根据xi_max和xi_min,获取各所述点迹集合的宽度,同时根据yi_max和yi_min获取各所述点迹集合的长度;
将各所述点迹集合从平面坐标系映射到三维坐标系中,获取各所述点迹集合在z轴上的最大值以作为各所述点迹集合的高度,其中,在z轴上的最大值记为zi_max;
获取各所述点迹集合的多普勒速度和雷达反射强度。
可选的,在所述目标分类方法中,所述根据所述点迹集合的参数信息和预设的参数阈值区间,对待测目标进行分类以获取雷达分类结果,并计算待测目标的雷达分类置信度的步骤包括:
根据各所述点迹集合的长度、宽度和高度,获取各所述点迹集合的长宽比和宽高比,所述参数阈值区间包括:第一阈值区间、第二阈值区间、第三阈值区间、第四阈值区间、第五阈值区间、第六阈值区间和第七阈值区间;
将各所述点迹集合的长宽比分别与第一阈值区间进行比较、将各所述点迹集合的宽高比分别与第二阈值区间进行比较以及将各所述点迹集合的雷达反射强度分别与第三阈值区间进行比较,以区分所述点迹集合为车辆目标还是行人目标;
利用卡尔曼滤波器对所有点迹集合进行预测,以对所述车辆目标和/或所述行人目标保持跟踪;
根据当前帧图像以及前两帧图像,获取待测目标的雷达分类置信度。
可选的,在所述目标分类方法中,所述根据当前帧图像以及前两帧图像,获取待测目标的雷达分类置信度的步骤包括:
分别获取当前帧图像的评价指标以及前两帧图像的评价指标,并根据当前帧图像的评价指标以及前两帧图像的评价指标,获取标准差,其中,所述标准差满足如下公式:
根据所述标准差,获取标准误差,所述标准误差满足如下公式:
其中,SEM为标准误差;
根据样本均值、标准误差和预设的置信区间的下限阈值,获取标准分,其中,标准分满足如下公式:
其中,z为标准分;SEM为标准误差;a为预设的置信区间的下限阈值,并且a=0.5;
根据标准分,查询正态分布表以获取待测目标的雷达分类置信度。
可选的,在所述目标分类方法中,在将各所述点迹集合的长宽比分别与第一阈值区间进行比较、将各所述点迹集合的宽高比分别与第二阈值区间进行比较以及将各所述点迹集合的雷达反射强度分别与第三阈值区间进行比较,以区分所述点迹集合为车辆目标还是行人目标之后,以及,在利用卡尔曼滤波器对所有点迹集合进行预测,以对所述车辆目标和/或所述行人目标保持跟踪之前,还包括如下步骤:
若所述点迹集合为车辆目标,则判断所述点迹集合的长度是否位于所述第四阈值区间内;若所述点迹集合的长度位于所述第四阈值区间内,则判定所述点迹集合为小型四轮车辆;若所述点迹集合的长度低于所述第四阈值区间的下限,则判定所述点迹集合为二轮车辆;若所述点迹集合的长度超出所述第四阈值区间的上限,则判定所述点迹集合为大型四轮车辆;
若待测目标为行人目标,则判断所述点迹集合的长宽比是否位于所述第五阈值区间内,并且所述点迹集合的宽高比是否位于所述第六阈值区间内,并且所述点迹集合的多普勒速度是否位于所述第七阈值区间内;若所述点迹集合的长宽比位于所述第五阈值区间内,以及,所述点迹集合的宽高比位于所述第六阈值区间内,以及,所述点迹集合的多普勒速度位于所述第七阈值区间内,则判定所述点迹集合为移动行人。
可选的,在所述目标分类方法中,所述将所述雷达分类结果与所述视觉分类结果进行融合以得到最终的分类结果的步骤包括:
根据所述视觉检测框和所述雷达检测框,获取所述视觉检测框和所述雷达检测框的重叠面积,并根据所述重叠面积,获取所述重叠面积与所述视觉检测框和所述雷达检测框的面积总和的重叠比值;
若所述重叠比值大于0.7,则保留对应的视觉检测框和雷达检测框,并比较保留下来的视觉检测框对应的视觉分类置信度和雷达检测框对应的雷达分类置信度;若待测目标的分类类别相同,并且视觉分类置信度和雷达分类置信度的均值大于0.7,则保留对应的所述雷达分类结果和对应的所述视觉分类结果以作为最终的分类结果;
若所述重叠比值大于0.3并且小于0.7,则比较对应的视觉分类置信度和雷达分类置信度;若所述视觉分类置信度大于所述雷达分类置信度,则保留所述视觉检测框作为最终的分类结果;
若所述重叠比值小于0.3,则判断检测区域中存在所述视觉检测框还是存在所述雷达检测框;若存在所述视觉检测框,则将所述视觉检测框对应的所述视觉分类结果作为最终的分类结果;若存在所述雷达检测框,则将所述雷达检测框对应的所述雷达分类结果作为最终的分类结果。
综上所述,本发明提供了一种目标分类方法,包括:将雷达坐标系和图像坐标系进行标定;对雷达信号进行噪声滤除以得到点云信号,同时对图像数据进行处理以得到精去雾图像;对所述点云信号进行聚类、去噪以得到多组点迹集合,同时利用深度学习模型对所述精去雾图像进行训练以获取视觉分类结果;获取所述点迹集合的参数信息;对所述点迹集合进行分类以获取雷达分类结果;将所述雷达分类结果与所述视觉分类结果进行融合以得到最终的分类结果。本申请提出的目标分类方法拥有多个数据源,对雷达信号去噪、分类以获取雷达分类结果,并对图像数据去雾、训练以获取视觉分类结果,最后将雷达分类结果和视觉分类结果融合,避免了不同目标误分类的情况,提高了目标识别精度,提高了目标分类的可靠性和准确性。
附图说明
为了更清楚地说明本申请具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的目标分类方法的流程图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在不做出创造性劳动的前提下所获得的所有其它实施例,都属于本申请保护的范围。
在本申请的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电气连接;可以是直接相连,也可以通过中间媒介间接相连,还可以是两个元件内部的连通,可以是无线连接,也可以是有线连接。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
此外,下面所描述的本申请不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本申请实施例提供了一种目标分类方法,请参考图1,图1是本发明实施例的目标分类方法的流程图,所述目标分类方法包括:
S10:利用毫米波雷达获取检测区域中的待测目标的雷达信号,同时,利用摄像头获取检测区域中的待测目标的图像数据。
S20:根据毫米波雷达返回雷达信号(数据)的情况,将雷达坐标系和图像坐标系进行标定,统一坐标系,使二者处于同一水平面,以便后续进行融合。
S30:对所述雷达信号进行噪声滤除以得到点云信号,同时对所述图像数据进行处理以得到精去雾图像。具体的,对所述雷达信号进行噪声滤除,同时对所述图像数据去雾的步骤可以包括:
步骤S30.1:对所述雷达信号进行傅里叶变换以将所述雷达信号从时域转换到频域;
步骤S30.2:利用OS-CFAR算法对所述雷达信号进行自适应噪声去除,本实施例中,可以是进行自适应阈值去除虚警;
步骤S30.3:将所述雷达信号映射到三维坐标系中以得到点云信号;
步骤S30.4:对所述图像数据进行去雾处理,其中,摄像头采集的图像数据为固定尺寸的图像帧,对于能见度较为敏感(例如雾天、强光、夜晚等),在图像数据回传后进行图像去雾处理可以提高目标识别可靠性和精度,在本实施例中,摄像头可以使用双目相机。
进一步的,对所述图像数据进行去雾处理的步骤可以包括:
步骤S30.41:对所述图像数据进行大气光值估计以得到大气光的估计值。优选的,对所述图像数据进行大气光值估计以得到大气光的估计值的步骤可以包括:
步骤S30.411:将所述图像数据均分成四个矩形区域;其中,所述图像数据满足如下大气散射模型:
I(p)=t(p)J(p)+(1-t(p))A
其中,I(p)为有雾图像,J(p)为无雾图像,t(p)为透射率,A为大气光;
步骤S30.412:根据各所述矩形区域的像素值的平均值和标准差,获取各所述矩形区域的像素值的平均值与各所述矩形区域的像素值的标准差的差值,选出差值最大的矩形区域;
步骤S30.413:以差值最大的矩形区域作为新的图像数据,并对新的图像数据重复执行所述步骤S30.411和所述步骤S30.412,直至当前差值最大的矩形区域的面积小于预设的面积阈值,此时,将面积小于预设的面积阈值的矩形区域最亮点的像素值作为大气光的估计值。
步骤S30.42:对所述图像数据进行透射率粗估计以得到粗去雾图像。具体的,对所述图像数据进行透射率粗估计,给定一个透射率初始值t(p)0,带入大气散射模型,得到初次的去雾结果J(p)0,即:
取得结果后进行反复迭代,并使用一个损失函数来评估对比度误差和信息丢失程度,公式如下:
E=Econtrast+λEloss;
其中,E为总损失;Econtrast为对比度度误差;Eloss为图像信息损失;c∈{r,g,b}为某一像素通道;和为Jc(p)和Ic(p)在图像B中的均值;Nb是图像B中的像素数量;hc(i)为输入图像c通道像素i的直方图值;αc和βc为像素值截断边界;总损失E为对比度误差和图像信息损失的加权和;λ为权重。
公式中t由如下公式算出:
步骤S30.43:利用导向滤波方法对所述粗去雾图像进行透射率精估计,得出最终透射率值,并将其带入所述大气散射模型,得到最终的所述精去雾图像。
在本实施例中,步骤S30的主要目的是分别剔除雷达信号、图像数据的噪声干扰,将前景目标独立并便于检测。
S40:对所述点云信号进行聚类、去噪以得到多组点迹集合,同时利用深度学习模型对所述精去雾图像进行训练以获取视觉分类结果,其中,所述视觉分类结果包括:视觉检测框和视觉分类置信度。具体的,对所述点云信号进行聚类、去噪以得到多组点迹集合,同时利用深度学习模型对所述精去雾图像进行训练以获取视觉分类结果的步骤可以包括:
S40.1:利用DBSCAN算法对所述点云信号进行聚类以得到多个点迹集合;
S40.2:对检测区域的边界位置的部分点迹集合进行剔除以进一步滤除非必要目标以及建筑、植被等障碍物回波,其中,所述边界位置可以是检测区域的边界20%区域内;需要剔除的所述部分点迹集合包括至少20个信号点;
S40.3:对所述点迹集合进行编组以给各所述点迹集合赋予对应的ID;
S40.4:采用深度学习模型对所述精去雾图像进行训练以对待测目标进行检测与分类以获取所述视觉分类结果,其中,所述视觉分类结果包括:视觉目标检测框和视觉分类置信度;所述深度学习模型为YOLOX-S模型。在步骤S40.4实施之前,可以先利用YOLOX-S模型对BDD100K自动驾驶数据集进行训练,可以进行实时的道路目标检测并分类,然后本步骤中再使用经过训练的YOLOX-S模型对所述精去雾图像进行训练。
S50:获取所述点迹集合的参数信息,其中,所述参数信息包括:待测目标的长度、宽度、高度、多普勒速度和雷达反射强度。具体的,获取所述点迹集合的参数信息的步骤可以包括:
S50.1:将所述点迹集合从雷达坐标系映射到平面坐标系中;
S50.2:在当前帧中,将各所述点迹集合的聚类中心设置为虚拟测量点,并以当前帧中的所述虚拟测量点为测量基点;
S50.3:分别检测后两帧中的各所述虚拟测量点是否发生偏移;若后两帧中的任意一所述虚拟测量点发生偏移,则对发生位移的所述虚拟测量点分别进行平移直至与当前帧中的测量基点的位置重合;
S50.4:分别获取各所述点迹集合在x轴和y轴上的最大值和最小值,其中,在x轴上的最大值记为xi_max,在x轴上的最小值记为xi_min,在y轴上的最大值记为yi_max,在y轴上的最小值记为yi_min,其中,i为大于或者等于1的整数;
S50.5:计算xi_max与xi_min的差值,将此差值作为各所述点迹集合的宽度,同时计算yi_max与yi_min的差值,将此差值作为各所述点迹集合的长度;
S50.6:将各所述点迹集合从平面坐标系映射到三维坐标系中,获取各所述点迹集合在z轴上的最大值以作为各所述点迹集合的高度,其中,在z轴上的最大值记为zi_max;
S50.7:获取各所述点迹集合的多普勒速度和雷达反射强度。
S60:根据所述点迹集合的参数信息和预设的参数阈值区间,对所述点迹集合进行分类以获取雷达分类结果,并计算待测目标的雷达分类置信度,其中,雷达分类结果包括:雷达检测框;在本实施例中,所述参数阈值区间包括:第一阈值区间、第二阈值区间、第三阈值区间、第四阈值区间、第五阈值区间、第六阈值区间和第七阈值区间。具体的,根据所述点迹集合的参数信息和预设的参数阈值区间,对待测目标进行分类以获取雷达分类结果,并计算待测目标的雷达分类置信度的步骤包括:
S60.1:根据各所述点迹集合的长度、宽度和高度,获取各所述点迹集合的长宽比和宽高比;
S60.2:将各所述点迹集合的长宽比分别与第一阈值区间进行比较、将各所述点迹集合的宽高比分别与第二阈值区间进行比较以及将各所述点迹集合的雷达反射强度分别与第三阈值区间进行比较,以区分所述点迹集合为车辆目标还是行人目标。例如,所述第一阈值区间可以设置为0.8~2.0,所述第二阈值区间可以设置为0.5~1.5,所述第三阈值区间可以设置为3.5dBsm~6.8dBsm,若各所述点迹集合的长宽比超出所述第一阈值区间的上限,并且各所述点迹集合的宽高比位于所述第二阈值区间内,并且各所述点迹集合(待测目标)的雷达反射强度位于所述第三阈值区间内,则判定所述点迹集合为车辆目标(待测目标)为车辆目标;若所述点迹集合不是车辆目标,则判定为行人目标。
进一步的,在步骤S60.2之后,以及,在步骤S60.3之前,还可以对车辆目标以及行人目标进一步判定,主要可以包括如下步骤:
若所述点迹集合为车辆目标,则判断所述点迹集合的长度是否位于所述第四阈值区间(例如2m~6m)内;若所述点迹集合的长度位于所述第四阈值区间内,则判定所述点迹集合为小型四轮车辆;若所述点迹集合的长度超出所述第四阈值区间的上限,则判定所述点迹集合为大型四轮车辆;若所述点迹集合的长度低于所述第四阈值区间的下限,则判定所述点迹集合为二轮车辆。进一步的,还可以进一步判定二轮车辆是摩托车还是电动车还是自行车。具体的,预设一个速度阈值区间(例如10.0km/s~35.0km/s),若所述点迹集合的多普勒速度位于10.0km/s~35.0km/s速度阈值区间内,则判定该二轮车辆是电动车;若所述点迹集合的多普勒速度低于10.0km/s,则判定该二轮车辆是自行车;若所述点迹集合的多普勒速度高于35.0km/s,则判定该二轮车辆是摩托车。
若待测目标为行人目标,则继续判断所述点迹集合的长宽比是否位于所述第五阈值区间(例如0.8~1.2)内,并且所述点迹集合的宽高比是否位于所述第六阈值区间(例如0.2~0.45)内,并且所述点迹集合的多普勒速度是否位于所述第七阈值区间(0.5m/s~5m/s)内;若所述点迹集合的长宽比位于所述第五阈值区间内,以及,所述点迹集合的宽高比位于所述第六阈值区间内,以及,所述点迹集合的多普勒速度位于所述第七阈值区间内,以及,所述点迹集合的长度和宽度均小于或者等于1m,以及所述点迹集合的高度位于1.0m~2.5m之间,则判定所述点迹集合为移动行人,否则判定所述点迹集合为非移动行人/站立行人(非移动行人/站立行人(所述点迹集合)的多普勒速度小于0.5m/s)。
在本实施例中,若上述条件全部不符合的点迹集合则判定为无分类目标。
S60.3:利用卡尔曼滤波器对所有点迹集合进行预测,以对所述车辆目标和/或所述行人目标保持跟踪;
S60.4:根据当前帧图像以及前两帧图像,获取待测目标的雷达分类置信度。
较佳的,根据当前帧图像以及前两帧图像,获取待测目标的雷达分类置信度的步骤包括:
S60.41:分别获取当前帧图像的评价指标以及前两帧图像的评价指标,并根据当前帧图像的评价指标以及前两帧图像的评价指标,获取标准差,其中,所述标准差满足如下公式:
其中,S为标准差;n为样本个数,并且n=3;Xj为评价指标的样本值,并且Xj∈(0,1),j=1,2,3;为评价指标的样本均值;在本实施例中,Xj(评价指标)是通过判断当前检测框内(当前帧图像)物体是否和标签一致得到的;若当前检测框内(当前帧图像)物体与标签一致,则Xj(评价指标)标记为1;若当前检测框内(当前帧图像)物体与标签不一致,则Xj(评价指标)标记为0。
S60.42:根据所述标准差,获取标准误差,所述标准误差满足如下公式:
其中,SEM为标准误差;
S60.43:根据样本均值、标准误差和预设的置信区间的下限阈值,获取标准分,其中,标准分满足如下公式:
其中,z为标准分;SEM为标准误差;a为预设的置信区间的下限阈值,并且a=0.5;
S60.44:根据标准分,查询正态分布表以获取待测目标的雷达分类置信度。
S70:将所述雷达分类结果与所述视觉分类结果进行融合以得到最终的分类结果。具体的,将所述雷达分类结果与所述视觉分类结果进行融合以得到最终的分类结果的步骤可以包括:
S70.1:根据所述视觉检测框和所述雷达检测框,获取所述视觉检测框和所述雷达检测框的重叠面积,并根据所述重叠面积,获取所述重叠面积与所述视觉检测框和所述雷达检测框的面积总和的重叠比值;
S70.2:(1)若所述重叠比值大于0.7,则保留对应的视觉检测框和雷达检测框,并比较保留下来的视觉检测框对应的视觉分类置信度和雷达检测框对应的雷达分类置信度;若待测目标的分类类别相同,并且视觉分类置信度和雷达分类置信度的均值大于0.7,则保留对应的所述雷达分类结果和对应的所述视觉分类结果以作为最终的分类结果;(2)若所述重叠比值大于0.3并且小于0.7,则比较对应的视觉分类置信度和雷达分类置信度;若所述视觉分类置信度大于所述雷达分类置信度,则保留所述视觉检测框作为最终的分类结果;(3)若所述重叠比值小于0.3,则判断检测区域中存在所述视觉检测框还是存在所述雷达检测框;若存在所述视觉检测框,则判定为雷达漏检,将所述视觉检测框对应的所述视觉分类结果作为最终的分类结果;若存在所述雷达检测框,则判定为视觉漏检,将所述雷达检测框对应的所述雷达分类结果作为最终的分类结果。
综上所述,本申请实施例提供了一种目标分类方法,包括:利用毫米波雷达获取检测区域中的待测目标的雷达信号;将雷达坐标系和图像坐标系进行标定;对所述雷达信号进行噪声滤除以得到点云信号,同时对所述图像数据进行处理以得到精去雾图像;对所述点云信号进行聚类、去噪以得到多组点迹集合,同时利用深度学习模型对所述精去雾图像进行训练以获取视觉分类结果;获取所述点迹集合的参数信息;对所述点迹集合进行分类以获取雷达分类结果;将所述雷达分类结果与所述视觉分类结果进行融合以得到最终的分类结果。本申请提出的目标分类方法结合计算机视觉和4D毫米波雷达进行多传感器融合分类,拥有多个数据源,对雷达信号去噪、分类以获取雷达分类结果,并对图像数据去雾、训练以获取视觉分类结果,最后将雷达分类结果和视觉分类结果融合,可进行全天候、全时的实时目标分类,避免了不同目标误分类的情况,多数据源互相补足,提高了目标识别精度,提高了目标分类的可靠性和准确性,也提高了目标检测和分类的鲁棒性和稳定性。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本申请创造的保护范围之中。
Claims (10)
1.一种目标分类方法,其特征在于,包括:
利用毫米波雷达获取检测区域中的待测目标的雷达信号,同时,利用摄像头获取检测区域中的待测目标的图像数据;
将雷达坐标系和图像坐标系进行标定,统一坐标系;
对所述雷达信号进行噪声滤除以得到点云信号,同时对所述图像数据进行处理以得到精去雾图像;
对所述点云信号进行聚类、去噪以得到多组点迹集合,同时利用深度学习模型对所述精去雾图像进行训练以获取视觉分类结果,其中,所述视觉分类结果包括:视觉检测框和视觉分类置信度;
获取所述点迹集合的参数信息,其中,所述参数信息包括:待测目标的长度、宽度、高度、多普勒速度和雷达反射强度;
根据所述点迹集合的参数信息和预设的参数阈值区间,对所述点迹集合进行分类以获取雷达分类结果,并计算待测目标的雷达分类置信度,其中,雷达分类结果包括:雷达检测框;
将所述雷达分类结果与所述视觉分类结果进行融合以得到最终的分类结果。
2.根据权利要求1所述的目标分类方法,其特征在于,所述对毫米波雷达回传的雷达信号进行噪声滤除以得到点云信号,同时对摄像头回传的图像数据进行处理以得到精去雾图像的步骤包括:
对所述雷达信号进行傅里叶变换以将所述雷达信号从时域转换到频域;
利用OS-CFAR算法对所述雷达信号进行自适应噪声去除;
将所述雷达信号映射到三维坐标系中以得到点云信号;
对所述图像数据进行去雾处理。
3.根据权利要求2所述的目标分类方法,其特征在于,所述对所述图像数据进行去雾处理的步骤包括:
对所述图像数据进行大气光值估计以得到大气光的估计值;
对所述图像数据进行透射率粗估计以得到粗去雾图像;
利用导向滤波方法对所述粗去雾图像进行透射率精估计以得到所述精去雾图像。
4.根据权利要求3所述的目标分类方法,其特征在于,所述对所述图像数据进行大气光值估计以得到大气光的估计值的步骤包括:
第一步骤:将所述图像数据均分成四个矩形区域;其中,所述图像数据满足如下大气散射模型:
I(p)=t(p)J(p)+(1-t(p))A
其中,I(p)为有雾图像,J(p)为无雾图像,t(p)为透射率,A为大气光;
第二步骤:根据各所述矩形区域的像素值的平均值和标准差,获取各所述矩形区域的像素值的平均值与各所述矩形区域的像素值的标准差的差值,选出差值最大的矩形区域;
第三步骤:以差值最大的矩形区域作为新的图像数据,并对新的图像数据重复执行所述第一步骤和所述第二步骤,直至当前差值最大的矩形区域的面积小于预设的面积阈值,此时,将面积小于预设的面积阈值的矩形区域最亮点的像素值作为大气光的估计值。
5.根据权利要求1所述的目标分类方法,其特征在于,所述对所述点云信号进行聚类、去噪以得到多组点迹集合,同时利用深度学习模型对所述精去雾图像进行训练以获取视觉分类结果的步骤包括:
利用DBSCAN算法对所述点云信号进行聚类以得到多个点迹集合;
对检测区域的边界位置的部分点迹集合进行剔除以滤除障碍物,其中,需要剔除的所述部分点迹集合包括至少20个信号点;
对所述点迹集合进行编组以给各所述点迹集合赋予对应的ID;
采用深度学习模型对所述精去雾图像进行训练以对待测目标进行检测与分类以获取所述视觉分类结果,其中,所述视觉分类结果包括:视觉目标检测框和视觉分类置信度;所述深度学习模型为YOLOX-S模型。
6.根据权利要求1所述的目标分类方法,其特征在于,所述获取所述点迹集合的参数信息,其中,所述参数信息包括:长度、宽度、高度、速度和雷达反射强度的步骤包括:
将所述点迹集合从雷达坐标系映射到平面坐标系中;
在当前帧中,将各所述点迹集合的聚类中心设置为虚拟测量点,并以当前帧中的所述虚拟测量点为测量基点;
分别检测后两帧中的各所述虚拟测量点是否发生偏移;若后两帧中的任意一所述虚拟测量点发生偏移,则对发生位移的所述虚拟测量点分别进行平移直至与当前帧中的测量基点的位置重合;
分别获取各所述点迹集合在x轴和y轴上的最大值和最小值,其中,在x轴上的最大值记为xi_max,在x轴上的最小值记为xi_min,在y轴上的最大值记为yi_max,在y轴上的最小值记为yi_min,其中,i为大于或者等于1的整数;
根据xi_max和xi_min,获取各所述点迹集合的宽度,同时根据yi_max和yi_min获取各所述点迹集合的长度;
将各所述点迹集合从平面坐标系映射到三维坐标系中,获取各所述点迹集合在z轴上的最大值以作为各所述点迹集合的高度,其中,在z轴上的最大值记为zi_max;
获取各所述点迹集合的多普勒速度和雷达反射强度。
7.根据权利要求1所述的目标分类方法,其特征在于,所述根据所述点迹集合的参数信息和预设的参数阈值区间,对待测目标进行分类以获取雷达分类结果,并计算待测目标的雷达分类置信度的步骤包括:
根据各所述点迹集合的长度、宽度和高度,获取各所述点迹集合的长宽比和宽高比,所述参数阈值区间包括:第一阈值区间、第二阈值区间、第三阈值区间、第四阈值区间、第五阈值区间、第六阈值区间和第七阈值区间;
将各所述点迹集合的长宽比分别与第一阈值区间进行比较、将各所述点迹集合的宽高比分别与第二阈值区间进行比较以及将各所述点迹集合的雷达反射强度分别与第三阈值区间进行比较,以区分所述点迹集合为车辆目标还是行人目标;
利用卡尔曼滤波器对所有点迹集合进行预测,以对所述车辆目标和/或所述行人目标保持跟踪;
根据当前帧图像以及前两帧图像,获取待测目标的雷达分类置信度。
8.根据权利要求7所述的目标分类方法,其特征在于,所述根据当前帧图像以及前两帧图像,获取待测目标的雷达分类置信度的步骤包括:
分别获取当前帧图像的评价指标以及前两帧图像的评价指标,并根据当前帧图像的评价指标以及前两帧图像的评价指标,获取标准差,其中,所述标准差满足如下公式:
根据所述标准差,获取标准误差,所述标准误差满足如下公式:
其中,SEM为标准误差;
根据样本均值、标准误差和预设的置信区间的下限阈值,获取标准分,其中,标准分满足如下公式:
其中,z为标准分;SEM为标准误差;a为预设的置信区间的下限阈值,并且a=0.5;
根据标准分,查询正态分布表以获取待测目标的雷达分类置信度。
9.根据权利要求7所述的目标分类方法,其特征在于,在将各所述点迹集合的长宽比分别与第一阈值区间进行比较、将各所述点迹集合的宽高比分别与第二阈值区间进行比较以及将各所述点迹集合的雷达反射强度分别与第三阈值区间进行比较,以区分所述点迹集合为车辆目标还是行人目标之后,以及,在利用卡尔曼滤波器对所有点迹集合进行预测,以对所述车辆目标和/或所述行人目标保持跟踪之前,还包括如下步骤:
若所述点迹集合为车辆目标,则判断所述点迹集合的长度是否位于所述第四阈值区间内;若所述点迹集合的长度位于所述第四阈值区间内,则判定所述点迹集合为小型四轮车辆;若所述点迹集合的长度低于所述第四阈值区间的下限,则判定所述点迹集合为二轮车辆;若所述点迹集合的长度超出所述第四阈值区间的上限,则判定所述点迹集合为大型四轮车辆;
若待测目标为行人目标,则判断所述点迹集合的长宽比是否位于所述第五阈值区间内,并且所述点迹集合的宽高比是否位于所述第六阈值区间内,并且所述点迹集合的多普勒速度是否位于所述第七阈值区间内;若所述点迹集合的长宽比位于所述第五阈值区间内,以及,所述点迹集合的宽高比位于所述第六阈值区间内,以及,所述点迹集合的多普勒速度位于所述第七阈值区间内,则判定所述点迹集合为移动行人。
10.根据权利要求1所述的目标分类方法,其特征在于,所述将所述雷达分类结果与所述视觉分类结果进行融合以得到最终的分类结果的步骤包括:
根据所述视觉检测框和所述雷达检测框,获取所述视觉检测框和所述雷达检测框的重叠面积,并根据所述重叠面积,获取所述重叠面积与所述视觉检测框和所述雷达检测框的面积总和的重叠比值;
若所述重叠比值大于0.7,则保留对应的视觉检测框和雷达检测框,并比较保留下来的视觉检测框对应的视觉分类置信度和雷达检测框对应的雷达分类置信度;若待测目标的分类类别相同,并且视觉分类置信度和雷达分类置信度的均值大于0.7,则保留对应的所述雷达分类结果和对应的所述视觉分类结果以作为最终的分类结果;
若所述重叠比值大于0.3并且小于0.7,则比较对应的视觉分类置信度和雷达分类置信度;若所述视觉分类置信度大于所述雷达分类置信度,则保留所述视觉检测框作为最终的分类结果;
若所述重叠比值小于0.3,则判断检测区域中存在所述视觉检测框还是存在所述雷达检测框;若存在所述视觉检测框,则将所述视觉检测框对应的所述视觉分类结果作为最终的分类结果;若存在所述雷达检测框,则将所述雷达检测框对应的所述雷达分类结果作为最终的分类结果。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210439476.XA CN114821499A (zh) | 2022-04-25 | 2022-04-25 | 目标分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210439476.XA CN114821499A (zh) | 2022-04-25 | 2022-04-25 | 目标分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114821499A true CN114821499A (zh) | 2022-07-29 |
Family
ID=82507110
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210439476.XA Pending CN114821499A (zh) | 2022-04-25 | 2022-04-25 | 目标分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114821499A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116148801A (zh) * | 2023-04-18 | 2023-05-23 | 深圳市佰誉达科技有限公司 | 一种基于毫米波雷达的目标检测方法及系统 |
CN117789161A (zh) * | 2023-12-08 | 2024-03-29 | 广州耀配汽车配件有限公司 | 一种基于目标快速识别的安全监测系统 |
-
2022
- 2022-04-25 CN CN202210439476.XA patent/CN114821499A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116148801A (zh) * | 2023-04-18 | 2023-05-23 | 深圳市佰誉达科技有限公司 | 一种基于毫米波雷达的目标检测方法及系统 |
CN117789161A (zh) * | 2023-12-08 | 2024-03-29 | 广州耀配汽车配件有限公司 | 一种基于目标快速识别的安全监测系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992683B (zh) | 一种基于动态图像感知的交叉口盲区预警方法及系统 | |
CN114821499A (zh) | 目标分类方法 | |
CN112215306B (zh) | 一种基于单目视觉与毫米波雷达融合的目标检测方法 | |
JP5868586B2 (ja) | ビデオ画像に基づく道路特性分析、車線検出、および車線逸脱防止方法および装置 | |
CN112329623A (zh) | 雾天能见度检测与能见度安全等级划分预警方法 | |
CN112597839B (zh) | 基于车载毫米波雷达的道路边界检测方法 | |
CN110826412B (zh) | 高速公路能见度检测系统和方法 | |
CN111580131A (zh) | 三维激光雷达智能车在高速公路上识别车辆的方法 | |
CN112699267B (zh) | 车辆车型的识别方法 | |
CN114495064A (zh) | 一种基于单目深度估计的车辆周围障碍物预警方法 | |
CN115993597A (zh) | 一种视觉雷达感知融合方法及终端设备 | |
CN112927283A (zh) | 测距方法及装置、存储介质及电子设备 | |
CN113281782A (zh) | 一种基于无人驾驶车的激光雷达雪点滤除方法 | |
CN110413942B (zh) | 车道线方程筛选方法及其筛选模块 | |
CN115187941A (zh) | 目标检测定位方法、系统、设备及存储介质 | |
CN107506739B (zh) | 一种夜间前向车辆检测及测距方法 | |
CN114296095A (zh) | 自动驾驶车辆的有效目标提取方法、装置、车辆及介质 | |
CN114675295A (zh) | 一种障碍物判定的方法、装置、设备及存储介质 | |
CN111332306A (zh) | 一种基于机器视觉的交通道路感知辅助驾驶预警装置 | |
CN114812435B (zh) | 一种车辆三维点云数据滤波方法 | |
CN108830182B (zh) | 一种基于级联卷积神经网络的道线检测方法 | |
CN111414857A (zh) | 一种基于视觉的多特征融合的前方车辆检测方法 | |
CN110826468A (zh) | 一种辅助驾驶的基于车道线检测的车辆检测测距方法 | |
CN113962301B (zh) | 一种多源输入信号融合的路面质量检测方法及系统 | |
CN115116034A (zh) | 一种夜间行人检测方法、装置及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |