CN114814810A - 行人检测方法 - Google Patents

行人检测方法 Download PDF

Info

Publication number
CN114814810A
CN114814810A CN202210381130.9A CN202210381130A CN114814810A CN 114814810 A CN114814810 A CN 114814810A CN 202210381130 A CN202210381130 A CN 202210381130A CN 114814810 A CN114814810 A CN 114814810A
Authority
CN
China
Prior art keywords
target
pedestrian
radar
detection
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210381130.9A
Other languages
English (en)
Inventor
李保江
冯博询
杨德钲
王明明
顾炎飚
岳玉涛
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Jiangsu Jicui Depth Perception Technology Research Institute Co ltd
Original Assignee
Jiangsu Jicui Depth Perception Technology Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Jiangsu Jicui Depth Perception Technology Research Institute Co ltd filed Critical Jiangsu Jicui Depth Perception Technology Research Institute Co ltd
Priority to CN202210381130.9A priority Critical patent/CN114814810A/zh
Publication of CN114814810A publication Critical patent/CN114814810A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/04Systems determining presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/41Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00 using analysis of echo signal for target characterisation; Target signature; Target cross-section
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/23Clustering techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/02Preprocessing
    • G06F2218/04Denoising
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

本发明提供一种行人检测方法,包括:利用雷达散射截面积特征聚类算法获取待测目标的点云信号;利用DBSCAN密度聚类算法对点云信号进行去噪、聚类处理;生成初始检测框;在视觉坐标系中得到初始检测框映射的雷达检测框;采用行人数据库对目标检测模型进行训练;利用目标检测模型生成视觉边界框;对雷达检测框和视觉边界框进行数据融合,确定所述待测目标是否是行人目标。本申请将帧内雷达散射截面积(RCS)特征聚类算法获取点云信号和DBSCAN密度聚类算法对所述点云信号去噪、聚类融合,可以有效以及精准地去噪以及保留点云信号中的有效信号,提高了行人目标检测的准确性,同时也满足了自动驾驶的行人检测任务中的实时性要求。

Description

行人检测方法
技术领域
本申请涉及目标检测技术领域,具体涉及一种行人检测方法。
背景技术
近年来,自动驾驶成为了汽车行业发展的热点之一,其不但能有效地保障交通安全,同时还能为无自行驾驶汽车能力的人员提供驾驶服务,产生巨大的社会和经济价值,越来越多的企业和科研机构积极参与并推动自动驾驶的发展。同时,考虑到车外行人的安全问题,行人检测技术成为自动驾驶中一项重要的研究方向和极富挑战性的研究课题。
行人检测通常需要找出图像或视频帧中所有的行人,包括位置、距离信息和大小,一旦行人目标检测错误则会造成交通事故,从而造成严重后果,所以对行人检测的准确性要求极高。传统的行人检测技术多采用摄像头或激光雷达等单一传感器进行检测。传统的单一传感器检测方法无法对周围环境获得综合性的理解,进而降低检测精度。例如,单一摄像头覆盖范围较广、监测的信息量大,但是其数据计算量大,并且无法直接获得行人距离信息,系统实时性较差。针对单一传感器信息感知完整性以及可靠性差的问题,业界提出了多传感器融合的行人检测方法,这些方法虽然在算法设计及硬件设计上都不尽相同,但检测精度还有提升空间。
此外,目前的行人检测算法在处理一帧图像时通常需要花费超过2秒甚至更久的时间,导致行人目标的检测反馈响应不及时,无法满足现实行人检测任务中实时性要求。
因此,现亟需一种新的行人检测方法来解决目前自动驾驶领域的行人检测技术不够精准以及行人目标检测反馈不能及时响应等问题,对交通安全领域的发展具有重要意义。
发明内容
本申请提供了一种行人检测方法,可以解决目前行人检测技术不够精准以及行人目标的检测反馈响应不及时等问题。
一方面,本申请实施例提供了一种行人检测方法,包括:
利用毫米波雷达对目标区域进行扫描,并利用雷达散射截面积特征聚类算法获取待测目标的点云信号;
利用DBSCAN密度聚类算法对所述点云信号进行去噪、聚类处理;
根据所述点云信号,在雷达坐标系中生成初始检测框;
将雷达坐标系与视觉坐标系配准,并将所述初始检测框从雷达坐标系转化到视觉坐标系,以获取所述初始检测框在视觉坐标系中映射的雷达检测框;
采用行人数据库作为正样本对目标检测模型进行训练,同时通过在不含有行人的图像中随机采样一定尺寸的窗口作为负样本参加训练;
根据所述雷达检测框,利用经过训练的所述目标检测模型检测相机拍摄到的目标区域的待测目标的图像信号,以针对所述图像信号生成视觉边界框;
对所述雷达检测框和所述视觉边界框进行数据融合,确定所述待测目标是否是行人目标。
可选的,在所述行人检测方法中,所述利用DBSCAN密度聚类算法对所述点云信号进行去噪、聚类处理的步骤包括:
预设邻域半径阈值和数量阈值,其中,所述邻域半径阈值记为Eps,所述数量阈值记为MinPts;
根据所述Eps和所述MinPts,对所有的点云信号进行聚类迭代,以将所有的点云信号分成三类:核心点、边界点和噪声点;
将各组中的所述核心点分别组成一个点群;
将各所述边界点按一定的规则分配到各所述点群中,并删除噪声点。
可选的,在所述行人检测方法中,所述根据所述雷达检测框,利用经过训练的所述目标检测模型检测相机拍摄到的目标区域的待测目标的图像信号,以针对所述图像信号生成视觉边界框的步骤包括:
利用毫米波雷达对目标区域进行扫描,同时利用经过训练的所述目标检测模型采用滑动窗口法检测所述图像信号,以针对所述图像信号生成视觉边界框,其中,所述目标检测模型采用所述滑动窗口法对图像进行扫描的扫描起点与所述雷达检测框的左上顶点重合。
可选的,在所述行人检测方法中,所述对所述雷达检测框和所述视觉边界框进行数据融合,确定所述待测目标是否是行人目标的步骤包括:
计算得到所述雷达检测框和所述视觉边界框的矩形相似度;
若所述矩形相似度大于或者等于0.7,则判断所述待测目标是行人目标;
其中,所述矩形相似度满足如下公式:
Figure BDA0003591842900000031
其中,Sim为所述矩形相似度,S1为所述雷达检测框的面积,S2为所述视觉边界框的面积。
可选的,在所述行人检测方法中,利用双目相机获取所述目标区域的待测目标的图像信号。
可选的,在所述行人检测方法中,所述目标检测模型为Faster-RCNN分类器。
可选的,在所述行人检测方法中,所述行人数据库为Caltech行人数据库或者Daimler行人数据库。
本申请技术方案,至少包括如下优点:
(1)本申请利用毫米波雷达对目标区域进行逐帧扫描,相比单传感器,本申请的检测方法更加准确,适应性、鲁棒性、可靠性、穿透力及稳定性均更强,成本较低,适合大规模应用推广。
(2)本申请通过利用雷达散射截面积特征聚类算法获取待测目标的点云信号,并利用DBSCAN密度聚类算法对所述点云信号进行去噪、聚类处理,实现了帧内雷达散射截面积(RCS)特征聚类算法获取点云信号与DBSCAN密度聚类算法对所述点云信号去噪的融合,可以有效以及精准地去噪以及保留点云信号中的有效信号。
(3)本申请通过融合目标检测模型视觉感知与雷达信息,由毫米波雷达的点云信号为视觉检测提供指导,可以有效加速行人目标窗口的检测,处理每帧均用不到2秒的时间,满足自动驾驶的行人检测任务中的实时性要求。
(4)本申请通过对所述雷达检测框和所述视觉边界框进行数据融合,来判断所述待测目标是否是行人目标,采用点云初步检测信息(雷达检测框)验证视觉检测的效果,为行人检测的置信度提供了可信依据。
附图说明
为了更清楚地说明本申请具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本申请的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的行人检测方法的流程图;
图2是本发明实施例的有效信号从雷达坐标系转换到视觉坐标系的示意图;
图3是本发明实施例的采用滑动窗口法检测待测目标的示意图。
具体实施方式
下面将结合附图,对本申请中的技术方案进行清楚、完整的描述,显然,所描述的实施例是本申请的一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在不做出创造性劳动的前提下所获得的所有其它实施例,都属于本申请保护的范围。
在本申请的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本申请的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
在本申请的描述中,需要说明的是,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电气连接;可以是直接相连,也可以通过中间媒介间接相连,还可以是两个元件内部的连通,可以是无线连接,也可以是有线连接。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本申请中的具体含义。
此外,下面所描述的本申请不同实施方式中所涉及的技术特征只要彼此之间未构成冲突就可以相互结合。
本申请实施例提供了一种行人检测方法,请参考图1,图1是本发明实施例的行人检测方法的流程图,所述行人检测方法包括:
S10:利用毫米波雷达对目标区域进行扫描,并利用雷达散射截面积(Radarcross-section,RCS)特征聚类算法获取待测目标的点云信号。具体的,雷达截面积是指雷达的反射截面积,雷达波照射到物体表面依原路径返回的电磁波越少,雷达截面积越小,雷达对目标的信号特征就越小,探测距离也越短。雷达散射截面积行人特征聚类的具体标准如下:假设P是帧内随机取得的雷达数据探测点,要探测该点的雷达截面积,给出雷达相关参数:发射功率Pt,发射和接收天线增益G,波长λ,目标到雷达的距离R,则该点的雷达截面积(RCS)满足如下公式:RCS(dBsm)=10lgσ,其中,
Figure BDA0003591842900000051
PDr=Pr/4πR2
Figure BDA0003591842900000052
根据实验经验数据表明,待测行人目标的雷达截面积明显较小,区别于道路上其他物体,一般数值为-3dBsm到+3dBsm,在此数值范围内的认为是初始备选的所述点云信号。
本申请利用毫米波雷达对目标区域进行逐帧扫描,相比单传感器,本申请的检测方法更加准确,适应性、鲁棒性、可靠性、穿透力及稳定性均更强,成本较低,适合大规模应用推广。
S20:利用DBSCAN密度聚类算法对所述点云信号进行去噪、聚类处理。具体的,利用DBSCAN密度聚类算法对所述点云信号进行去噪、聚类处理的步骤可以包括:
第一步骤:预设邻域半径阈值和数量阈值,其中,所述邻域半径阈值记为Eps,所述数量阈值记为MinPts;
第二步骤:根据所述Eps和所述MinPts,对所有的点云信号进行聚类迭代,以将所有的点云信号分成三类:核心点、边界点和噪声点;
第三步骤:将各组中的所述核心点分别组成一个点群;
第四步骤:将各所述边界点按一定的规则分配到各所述点群中,并删除噪声点。
具体的,在本实施例中,根据预设的所述Eps和所述MinPts,对某个未处理的点云信号进行判断,若其Eps邻域内的数据点的数量大于所述MinPts,则标记为核心点,并标记上对应的点群编号,同时将其Eps邻域内的所有点都标记为同一点群编号;若其半径Eps内的数据点的数量小于所述MinPts,但是该点落在某核心点的Eps邻域内,则将该所述点云信号归类为边界点,一个边界点可能同时落入一个或多个核心点的Eps邻域;若其Eps邻域内的数据点的数量小于所述MinPts,则将该点标记为噪声点,并继续处理下一个点;然后对该点邻域内的点依次进行处理,各自判断是否为核心点,并将其中属于核心点的数据点(点云信号)的Eps邻域内的数据点加入对应的点群中并进行核心点判断;以上述方式不断扩张,直到该点群内所有数据点都处理完毕,从而得到一个包含核心点和边界点的最大化的点群。之后再寻找下一个点群,重复上述操作,依次类推处理完毕所有数据点,则聚类完成。其中,输出的每个数据点都标记上相应的点群编号或噪声点,最后剔除噪声点。在本实施例中,利用DBSCAN密度聚类算法提取行人目标点群,记录其雷达物理信息,如角速度,距离等。
在本实施例中,通过利用雷达散射截面积特征聚类算法获取待测目标的点云信号,并利用DBSCAN密度聚类算法对所述点云信号进行去噪、聚类处理,实现了帧内雷达散射截面积(RCS)特征聚类算法获取点云信号与DBSCAN密度聚类算法对所述点云信号去噪的融合,可以有效、精准地对所述点云信号去噪以及保留所述点云信号中的有效信号。
S30:根据所述点云信号,在雷达坐标系中生成初始检测框。具体的,对聚类后的目标点群先在雷达坐标系内建立初始检测框(最小外接矩形),其中,最小外接矩形的四个顶点依次记作A(X1,Y1),B(X2,Y2),C(X3,Y3),D(X4,Y4)。
S40:将雷达坐标系与视觉坐标系配准,并将所述初始检测框从雷达坐标系转化到视觉坐标系,以获取所述初始检测框在视觉坐标系中映射的雷达检测框。具体的,转化后的所述雷达检测框的四个顶点依次记作A’(X1’,Y1’),B’(X2,Y2),C’(X3’,Y3’),D’(X4’,Y4’)。
在本实施例中,雷达坐标系与视觉坐标系配准标准为旋转和平移,雷达坐标系(Xc,Yc,Zc)、视觉坐标系(Xr,Yr,Zr)则满足如下公式:
Figure BDA0003591842900000071
其中,R为3×3的转换矩阵,(t1,t2,t3)为平移向量,在本实施例中,若信号点以二维坐标表示的,则可以默认该信号点在Z轴上对应的坐标为0。
请参考图2,图2是本发明实施例的有效信号从雷达坐标系转换到视觉坐标系的示意图,图2展示了毫米波雷达和摄像头的相对位置;(Xc,Yc,Zc)为雷达坐标系;(Xr,Yr,Zr)为视觉坐标系;o-uv表示图像数组坐标系,原点为图像左上角。视觉坐标系和雷达坐标系以米为测量单位,图像数组坐标系以像素数为基本单位,图2中点p代表目标点,p'为p对应的图像像素点,通过p在视觉坐标系和雷达坐标系中的坐标,可以将两个坐标系统联系起来;n为雷达点的数量。图像数组坐标系、视觉坐标系则满足如下公式:
Figure BDA0003591842900000072
U=[u1u2…un]’,V=[v1v2…vn]’;
空间转换矩阵T满足如下公式:
Figure BDA0003591842900000073
矩阵P满足如下公式:
Figure BDA0003591842900000074
S50:采用行人数据库作为正样本对目标检测模型进行训练,同时通过在不含有行人的图像中随机采样一定尺寸的窗口作为负样本参加训练。具体的,所述目标检测模型为Faster-RCNN分类器;所述行人数据库为Caltech行人数据库或者Daimler行人数据库。在本实施例中,采用行人数据库作为正样本对目标检测模型进行训练,同时通过在不含有行人的图像中随机采样一定尺寸的窗口作为负样本参加训练的步骤可以包括:
第一步骤:准备Caltech行人数据库或者Daimler行人数据库作为正样本,将行人数据库输入Faster-RCNN分类器用以产生训练样本,同时通过在不含有行人的图像中随机采样一定尺寸的窗口作为负样本参加训练,正样本含有行人,负样本不含行人,对于包含行人的正样本,需标出行人窗口;
第二步骤:对于含有行人的正样本,将采样窗口的左上顶点与行人窗口的左上角重合,然后从该位置向右下方划定一定尺寸大小的窗口,本实施例可以选取范围在16×16至256×256的尺寸的窗口作为采样窗口。在此过程中,若采样窗口的面积与该行人窗口的面积重合的比例大于或者等于0.7,则记为正样本;若采样窗口的面积与该行人窗口的面积重合的比例小于0.7,则记作负样本;其中,采样窗口的面积与该行人窗口的面积重合的比例满足如下公式:
Figure BDA0003591842900000081
其中,X为采样窗口的面积与该行人窗口的面积重合的比例;S为采样窗口的面积,Bgt为行人窗口的面积。
本实施例在不含有行人目标的图像中随机采样一定尺寸的窗口作为负样本参加训练,可以提高分类器(目标检测模型)的性能,对识别错误的作为难例再进行强化训练。
S60:根据所述雷达检测框,利用经过训练的所述目标检测模型检测相机拍摄到的目标区域的待测目标的图像信号,以针对所述图像信号生成视觉边界框,其中,所述目标检测模型采用所述滑动窗口法对图像进行扫描的扫描起点与所述雷达检测框的左上顶点重合。具体的,利用双目相机获取所述目标区域的待测目标的图像信号。请参考图3,图3是本发明实施例的采用滑动窗口法检测待测目标的示意图,步骤S60需要毫米波雷达和相机配合操作,具体步骤可以为:使用毫米波雷达对目标区域进行扫描,同时利用经过训练的目标检测模型采用滑动窗口法检测待测目标,窗口尺寸随机,本实施例可以选取范围在16×16至256×256尺寸的窗口作为滑动窗口。为了提高速度,避免冗余计算,本实施例直接将扫描起点设置为经毫米波雷达获取的点云信号经过步骤S10-步骤S40处理之后得到的所述雷达检测框的左上顶点A’,从左至右,从上至下依次扫描,如果图像内包含某个行人目标的像素点落在该窗口中,则该窗口判别存在行人目标,依次类推,直至覆盖整帧图像,输出完整的视觉边界框;如果没有检测到行人目标,则认定该帧图像中不包含行人目标,并继续扫描下一帧图像。
在本实施例中,通过融合目标检测模型视觉感知与雷达信息,由毫米波雷达的点云信号的雷达检测框为视觉检测提供指导,可以有效加速行人目标窗口的检测,处理每帧均用不到2秒的时间,满足自动驾驶的行人检测任务中的实时性要求。
S70:对所述雷达检测框和所述视觉边界框进行数据融合,确定所述待测目标是否是行人目标。具体的,对所述雷达检测框和所述视觉边界框进行数据融合,确定所述待测目标是否是行人目标的步骤可以包括:
计算得到所述雷达检测框和所述视觉边界框的矩形相似度;
若所述矩形相似度大于或者等于0.7,则判断所述待测目标是行人目标,认为检测结果可信,并将待测目标的信息反馈给毫米波雷达;
其中,所述矩形相似度满足如下公式:
Figure BDA0003591842900000091
其中,Sim为所述矩形相似度,S1为所述雷达检测框的面积,S2为所述视觉边界框的面积。
在本实施例中,通过对所述雷达检测框和所述视觉边界框进行数据融合,来判断所述待测目标是否是行人目标,采用点云初步检测信息(雷达检测框)验证视觉检测的效果,为行人检测的置信度提供了可信依据。
显然,上述实施例仅仅是为清楚地说明所作的举例,而并非对实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。而由此所引伸出的显而易见的变化或变动仍处于本申请创造的保护范围之中。

Claims (7)

1.一种行人检测方法,其特征在于,包括:
利用毫米波雷达对目标区域进行扫描,并利用雷达散射截面积特征聚类算法获取待测目标的点云信号;
利用DBSCAN密度聚类算法对所述点云信号进行去噪、聚类处理;
根据所述点云信号,在雷达坐标系中生成初始检测框;
将雷达坐标系与视觉坐标系配准,并将所述初始检测框从雷达坐标系转化到视觉坐标系,以获取所述初始检测框在视觉坐标系中映射的雷达检测框;
采用行人数据库作为正样本对目标检测模型进行训练,同时通过在不含有行人的图像中随机采样一定尺寸的窗口作为负样本参加训练;
根据所述雷达检测框,利用经过训练的所述目标检测模型检测相机拍摄到的目标区域的待测目标的图像信号,以针对所述图像信号生成视觉边界框;
对所述雷达检测框和所述视觉边界框进行数据融合,确定所述待测目标是否是行人目标。
2.根据权利要求1所述的行人检测方法,其特征在于,所述利用DBSCAN密度聚类算法对所述点云信号进行去噪、聚类处理的步骤包括:
预设邻域半径阈值和数量阈值,其中,所述邻域半径阈值记为Eps,所述数量阈值记为MinPts;
根据所述Eps和所述MinPts,对所有的点云信号进行聚类迭代,以将所有的点云信号分成三类:核心点、边界点和噪声点;
将各组中的所述核心点分别组成一个点群;
将各所述边界点按一定的规则分配到各所述点群中,并删除噪声点。
3.根据权利要求1所述的行人检测方法,其特征在于,所述根据所述雷达检测框,利用经过训练的所述目标检测模型检测相机拍摄到的目标区域的待测目标的图像信号,以针对所述图像信号生成视觉边界框的步骤包括:
利用毫米波雷达对目标区域进行扫描,同时利用经过训练的所述目标检测模型采用滑动窗口法检测所述图像信号,以针对所述图像信号生成视觉边界框,其中,所述目标检测模型采用所述滑动窗口法对图像进行扫描的扫描起点与所述雷达检测框的左上顶点重合。
4.根据权利要求1所述的行人检测方法,其特征在于,所述对所述雷达检测框和所述视觉边界框进行数据融合,确定所述待测目标是否是行人目标的步骤包括:
计算得到所述雷达检测框和所述视觉边界框的矩形相似度;
若所述矩形相似度大于或者等于0.7,则判断所述待测目标是行人目标;
其中,所述矩形相似度满足如下公式:
Figure FDA0003591842890000021
其中,Sim为所述矩形相似度,S1为所述雷达检测框的面积,S2为所述视觉边界框的面积。
5.根据权利要求1所述的行人检测方法,其特征在于,利用双目相机获取所述目标区域的待测目标的图像信号。
6.根据权利要求1所述的行人检测方法,其特征在于,所述目标检测模型为Faster-RCNN分类器。
7.根据权利要求1所述的行人检测方法,其特征在于,所述行人数据库为Caltech行人数据库或者Daimler行人数据库。
CN202210381130.9A 2022-04-12 2022-04-12 行人检测方法 Pending CN114814810A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210381130.9A CN114814810A (zh) 2022-04-12 2022-04-12 行人检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210381130.9A CN114814810A (zh) 2022-04-12 2022-04-12 行人检测方法

Publications (1)

Publication Number Publication Date
CN114814810A true CN114814810A (zh) 2022-07-29

Family

ID=82535307

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210381130.9A Pending CN114814810A (zh) 2022-04-12 2022-04-12 行人检测方法

Country Status (1)

Country Link
CN (1) CN114814810A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116687386A (zh) * 2023-08-07 2023-09-05 青岛市畜牧工作站(青岛市畜牧兽医研究所) 牛体形数据综合校准的雷达探测系统及方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116687386A (zh) * 2023-08-07 2023-09-05 青岛市畜牧工作站(青岛市畜牧兽医研究所) 牛体形数据综合校准的雷达探测系统及方法
CN116687386B (zh) * 2023-08-07 2023-10-31 青岛市畜牧工作站(青岛市畜牧兽医研究所) 牛体形数据综合校准的雷达探测系统及方法

Similar Documents

Publication Publication Date Title
CN111352112B (zh) 基于视觉、激光雷达和毫米波雷达的目标检测方法
CN111045000A (zh) 监测系统和方法
US10909395B2 (en) Object detection apparatus
CN110794406B (zh) 多源传感器数据融合系统和方法
Zhang et al. Background filtering and vehicle detection with roadside lidar based on point association
CN112346463B (zh) 一种基于速度采样的无人车路径规划方法
CN108596117B (zh) 一种基于二维激光测距仪阵列的场景监控方法
CN113936198A (zh) 低线束激光雷达与相机融合方法、存储介质及装置
CN114495064A (zh) 一种基于单目深度估计的车辆周围障碍物预警方法
CN115376109B (zh) 障碍物检测方法、障碍物检测装置以及存储介质
CN114089329A (zh) 一种基于长短焦相机与毫米波雷达融合的目标检测方法
CN113743171A (zh) 目标检测方法及装置
CN112464812A (zh) 一种基于车辆的凹陷类障碍物检测方法
CN116229408A (zh) 一种图像信息与激光雷达点云信息融合的目标识别方法
CN116310679A (zh) 多传感器融合目标检测方法、系统、介质、设备及终端
CN114140539A (zh) 一种室内物体的位置获取方法和装置
CN115588040A (zh) 一种基于全视图成像点坐标统计定位系统及方法
CN114295139A (zh) 一种协同感知定位方法及系统
CN117115784A (zh) 目标数据融合的车辆检测方法及检测装置
CN114814810A (zh) 行人检测方法
CN114137564A (zh) 一种室内物体自动标识定位方法和装置
CN113988197A (zh) 基于多相机、多激光雷达的联合标定及目标融合检测方法
CN112150448B (zh) 图像处理方法、装置及设备、存储介质
Deng et al. Joint calibration of dual lidars and camera using a circular chessboard
CN111126363B (zh) 自动驾驶车辆的物体识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination