CN112949782A - 一种目标检测方法、装置、设备及存储介质 - Google Patents
一种目标检测方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN112949782A CN112949782A CN202110458834.7A CN202110458834A CN112949782A CN 112949782 A CN112949782 A CN 112949782A CN 202110458834 A CN202110458834 A CN 202110458834A CN 112949782 A CN112949782 A CN 112949782A
- Authority
- CN
- China
- Prior art keywords
- point cloud
- detected
- target
- cloud data
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
Abstract
本发明实施例公开了一种目标检测方法、装置、设备及存储介质,通过获取待检测图像和待检测点云数据,并根据所述待检测图像确定目标检测框和精准空间区域信息;根据各所述目标检测框筛选所述待检测点云数据,获得目标点云数据;根据各所述目标点云数据和精准空间区域信息确定目标待检测信息;基于所述目标待检测信息和预确定的目标检测网络模型确定所述待检测图像和待检测点云数据中对象的对象信息,解决了目标检测过程中由于点云数据中高度信息缺失或者误差大的原因导致的识别结果不准确的问题,过滤待检测点云数据中的杂波和噪音等无效数据,消除了点云数据高度信息缺失和数据量较少的影响,提高了目标识别的准确度。
Description
技术领域
本发明实施例涉及图像处理技术领域,尤其涉及一种目标检测方法、装置、设备及存储介质。
背景技术
随着生活水平的提高,越来越多的汽车走入了家庭生活,为人们的生活提供了极大的便利性。为了向车辆驾驶人员提供路况风险提醒,或者为自动驾驶路径规划提供可靠信息,在汽车行驶过程中准确识别车辆附近的人、车、动物等对象也变得越来越重要。目前汽车行驶过程中通常通过车载传感器进行对象识别。常见的车载传感器有摄像头,激活雷达和毫米波雷达。激光雷达工作时受天气和大气影响大,在大雨、浓烟、浓雾等坏天气里,衰减急剧加大,传播距离大受影响。并且,由于激光雷达的波束极窄,在空间搜索目标非常困难,只能在较小的范围内搜索、捕获目标。而毫米波雷达可以弥补激光雷达的缺陷。
毫米波指波长介于1~10mm的电磁波,毫米波雷达则指工作在毫米波波段的雷达。毫米波的波长介于厘米波和光波之间,因此毫米波兼有微波制导和光电制导的优点。使用在汽车上时其抗环境干扰能力强,可以满足车辆对全天气候的适应性的要求。并且毫米波本身的特性,决定了毫米波雷达传感器器件尺寸小、重量轻等特性,弥补了摄像头等传感器的缺点,使得其在车载应用方面有着很大的优势。但是,毫米波雷达点云(处理后的雷达反射信息)中存在噪音和杂波,并且存在高度信息误差大,或者直接缺失的问题,导致目标识别结果不准确。
发明内容
本发明提供一种目标检测方法、装置、设备及存储介质,以实现对目标的准确识别。
第一方面,本发明实施例提供了一种目标检测方法,所述目标检测方法包括:
获取待检测图像和待检测点云数据,并根据所述待检测图像确定目标检测框和精准空间区域信息;
根据各所述目标检测框筛选所述待检测点云数据,获得目标点云数据;
根据各所述目标点云数据和精准空间区域信息确定目标待检测信息;
基于所述目标待检测信息和预确定的目标检测网络模型确定所述待检测图像和待检测点云数据中对象的对象信息。
第二方面,本发明实施例还提供了一种目标检测装置,该目标检测装置包括:
获取模块,用于获取待检测图像和待检测点云数据,并根据所述待检测图像确定目标检测框和精准空间区域信息;
筛选模块,用于根据各所述目标检测框筛选所述待检测点云数据,获得目标点云数据;
目标信息确定模块,用于根据各所述目标点云数据和精准空间区域信息确定目标待检测信息;
对象信息确定模块,用于基于所述目标待检测信息和预确定的目标检测网络模型确定所述待检测图像和待检测点云数据中对象的对象信息。
第三方面,本发明实施例还提供了一种计算机设备,该设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例中任一所述的一种目标检测方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例中任一所述的一种共目标检测方法。
本发明实施例提供了一种目标检测方法、装置、设备及存储介质,通过获取待检测图像和待检测点云数据,并根据所述待检测图像确定目标检测框和精准空间区域信息;根据各所述目标检测框筛选所述待检测点云数据,获得目标点云数据;根据各所述目标点云数据和精准空间区域信息确定目标待检测信息;基于所述目标待检测信息和预确定的目标检测网络模型确定所述待检测图像和待检测点云数据中对象的对象信息,解决了目标检测过程中由于点云数据中高度信息缺失或者误差大的原因导致的识别结果不准确的问题,通过对待检测图像进行处理,得到目标检测框和精准空间区域信息,然后根据目标检测框筛选待检测点云数据,过滤待检测点云数据中的杂波和噪音等无效数据,得到有用的目标点云数据,通过对精准空间区域信息和待目标待检测信息在识别过程中进行融合,消除了点云数据高度信息缺失和数据量较少的影响,提高了目标识别的准确度。
附图说明
图1是本发明实施例一中的一种目标检测方法的流程图;
图2是本发明实施例二中的一种目标检测方法的流程图;
图3是本发明实施例二中的一种检测点高度增强后的可视化效果展示图;
图4是本发明实施例二中的一种标准点云数据和精准空间区域信息的拼接示例图;
图5是本发明实施例三中的一种目标检测装置的结构示意图;
图6是本发明实施例四中的一种计算机设备的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚,下面将结合附图对本申请实施例方式作进一步地详细描述。应当明确,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本申请保护的范围。
下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
在本申请的描述中,需要理解的是,术语“第一”、“第二”、“第三”等仅用于区别类似的对象,而不必用于描述特定的顺序或先后次序,也不能理解为指示或暗示相对重要性。对于本领域的普通技术人员而言,可以根据具体情况理解上述术语在本申请中的具体含义。此外,在本申请的描述中,除非另有说明,“多个”是指两个或两个以上。“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
实施例一
图1给出了本申请实施例一提供的一种目标检测方法的流程图,本实施例可适用于在根据图像进行目标识别检测时得到准确识别结果的情况。该方法可以由计算机设备执行,该计算机设备可以是两个或多个物理实体构成,也可以是一个物理实体构成。一般而言,计算机设备可以是笔记本、台式计算机以及智能平板等。
需要说明的是,本实施例所提供的目标检测方法由计算机设备执行,计算机设备可以安装在车辆上,相应的,本实施例实现目标检测方法的应用环境可描述为:车辆在行驶过程中,通过车辆上安装的摄像头采集图像,以及毫米波雷达采集毫米波点云数据,通过对图像和点云数据进行处理,对图像和点云数据中对象所在矩形框的相关信息进行预测,进而得到对象对应的信息。然后可以根据对象信息提示驾驶员,或者在自动驾驶中根据对象信息进行路线规划,避免车辆事故发生。现有实现方案中,通过点云数据进行目标检测时,直接通过点云数据进行检测。该种目标检测方法所检测到的对象由于点云数据的高度信息缺失、噪音、杂波等因素的影响,导致对待检测点云数据中对象的识别不准确,无法准确地对待检测图像中的对象进行识别。
本实施例提供的目标检测方法能够准确识别对象,通过对待检测图像和待检测点云数据进行处理以及融合,确定对象在待检测图像和待检测点云数据中所对应的对象信息,实现对对象的准确检测,以此克服现有技术方案所存在的问题。
如图1所示,本实施例一提供的一种目标检测方法,具体包括如下步骤:
S110、获取待检测图像和待检测点云数据,并根据待检测图像确定目标检测框和精准空间区域信息。
在本实施例中,待检测图像具体可以理解为通过图像采集装置采集的、需要进行目标识别的图像。待检测点云数据具体可以理解为需要进行目标识别的点云数据,点云数据由雷达采集。点云数据在同一空间参考系下表达目标空间分布和目标表面特性的海量点集合,点云的属性包括空间分辨率、点位精度、表面法向量等。目标检测框具体可以理解为对待检测图像中可能存在目标的位置进行框选的检测框。本申请实施例中的检测框采用3D检测框,相比2D检测框包含的信息更多,检测结果更加准确。精准空间区域信息具体可以理解为对图像特征中的空间区域信息进行细分所得到的细致区域的信息。
具体的,待检测图像由图像采集装置采集,图像采集装置可以是照相机、摄像机等可以进行图像采集的设备。本申请实施例以安装在车辆上的图像采集装置为例,图像采集装置的数量可以是一个或者多个。车辆在前方、后方、侧方等位置均可以安装一个或多个图像采集装置,采集车辆周围的环境信息。待检测点云数据由雷达进行采集,本申请实施例以毫米波雷达为例,在车辆上安装一个或者多个毫米波雷达采集车辆周围的环境信息。图像采集装置和雷达采集数据后,可以实时的传输给执行目标检测方法的计算机设备,也可以传输到云端、数据库等存储空间中进行存储,在需要进行目标检测时从存储空间中获取。
图像采集装置和毫米波雷达的数量均为一个时,将其采集时刻设置为同一采集时刻,将同一采集时刻采集的待检测图像和待检测点云数据作为一组数据,进行后续的目标检测。当图像采集装置或毫米波雷达的数量不止一个时,根据图像采集装置和毫米雷达波的位置将一个或者多个待检测图像和待检测点云数据进行匹配,得到一组待检测图像和待检测点云数据,将其作为一组数据,进行后续的数据融合。例如,将车辆前方的图像采集装置采集的待检测图像和车辆前方的毫米波雷达采集的待检测点云数据作为一组数据。
需要知道的是,由于图像采集装置和毫米波雷达在技术限制上导致了图像采集装置和毫米波雷达的采集频率可能存在不一致的情况(即图像采集装置和毫米波雷达的采集频率无法设计成一致的),同样也是将一个图像采集装置和一个毫米波雷达所采集的数据作为一组数据。例如,毫米雷达波的采样周期为50ms,即采样帧速率为20帧/秒,而图像采集装置的采样帧速率为25帧/秒。为了保证数据的可靠性,以图像采集装置采样速率为基准,图像采集装置每采一帧图像,选取毫米波雷达上一帧缓存的数据,即完成共同采样一帧雷达与视觉融合的数据,从而保证了毫米波雷达数据和图像采集装置数据时间上的同步。
接上述描述,在获取了待检测图像后,通过预先训练好的神经网络模型对待检测图像进行目标识别,得到可能存在对象的目标检测框。对象的类别可以是人、自行车、电动车、汽车、背景等。通过神经网络模型获得目标检测框的同时还可以获得精准空间区域信息。精准空间区域信息的确定方式可以是通过特征抽取器和反卷积模块进行处理后得到。
S120、根据各目标检测框筛选待检测点云数据,获得目标点云数据。
在本实施例中,目标点云数据具体可以理解为从待检测点云数据中筛选出来有用的点云数据。在确定待检测图像中的各目标检测框后,可以认为可能存在对象的位置已经确定,在进行后续目标检测时,仅需要此处的点云数据即可,其他位置的点云数据为空气地面反射所形成的噪音或者杂波,因此通过目标检测框筛选待检测点云数据,将在目标检测框内的点云数据确定为目标点云数据。
S130、根据各目标点云数据和精准空间区域信息确定目标待检测信息。
在本实施例中,目标待检测信息具体可以理解为通过融合图像和点云数据所得到的信息,用于最终进行目标检测。将目标点云数据和精准空间区域信息在空间和时间上对齐,并进行特征融合,得到目标待检测信息。由于雷达所采集的点云数据量较少,所以将从图像采集装置采集的待检测图像中包含的精准空间区域信息与目标点云数据进行融合,弥补了点云数据量较少的缺陷。
S140、基于目标待检测信息和预确定的目标检测网络模型确定待检测图像和待检测点云数据中对象的对象信息。
在本实施例中,目标检测网络模型可进行对象识别的神经网络模型,本申请实施例中的目标检测网络模型在对对象进行识别时,可以输出预测的对象所在位置的检测框,以及对象所属类别。对象信息具体可以理解为用于描述对象的信息,例如,对象所在的位置,对象所属的类别(车、人等)。
目标检测网络模型预先通过对大量图像进行训练得到。本申请中的目标检测网络模型在现有的CenterNet模型框架上进行改进,使用5个回归头(regression head),可以预测5种类型的信息,如热力图、尺寸信息、深度信息、3D朝向信息和偏移量,相比于现有技术中仅预测3种信息(热力图、尺寸信息和偏移量),预测结果包含的信息更加全面,结果更加准确。
具体的,预先对目标检测网络模型进行训练,在训练过程中根据损失函数不断调整模型的参数,最终得到符合要求的目标检测网络模型,完成训练。训练好的目标检测网络模型可以直接输入数据,根据学习经验得到预测结果。将目标待检测信息输入预先训练好的目标检测网络模型中,由目标检测网络模型根据学习经验进行结果预测,得到对象所在的位置、所属类别等对象信息。
进一步地,对象信息至少包括:归属类别以及对象的位置信息。
本发明实施例提供了一种目标检测方法,通过获取待检测图像和待检测点云数据,并根据待检测图像确定目标检测框和精准空间区域信息;根据各目标检测框筛选待检测点云数据,获得目标点云数据;根据各目标点云数据和精准空间区域信息确定目标待检测信息;基于目标待检测信息和预确定的目标检测网络模型确定待检测图像和待检测点云数据中对象的对象信息,解决了目标检测过程中由于点云数据中高度信息缺失或者误差大的原因导致的识别结果不准确的问题,通过对待检测图像进行处理,得到目标检测框和精准空间区域信息,然后根据目标检测框筛选待检测点云数据,过滤待检测点云数据中的杂波和噪音等无效数据,得到有用的目标点云数据,通过对精准空间区域信息和待目标待检测信息在识别过程中进行融合,消除了点云数据高度信息缺失和数据量较少的影响,提高了目标识别的准确度。
实施例二
图2为本发明实施例二提供的一种目标检测方法的流程图。本实施例的技术方案在上述技术方案的基础上进一步细化,具体主要包括如下步骤:
S210、获取待检测图像和待检测点云数据。
S220、将待检测图像作为输入数据输入到目标检测网络模型中。
具体的,本申请实施例中对待检测图像进行初步处理的神经网络模型与最终进行目标检测的神经网络模型为同一个目标检测网络模型。在实际应用中也可以不使用同一个网络模型,只要达到相同的检测目的即可。将待检测图像输入到目标检测网络模型中,由目标检测网络模型根据预先学习的经验进行预测。
S230、根据目标检测网络模型的输出结果确定目标检测框和精准空间区域信息。
具体的,待检测图像输入到目标检测网络模型中后,首先通过特征抽取器进行处理,提取到一个粗略的空间区域信息。进行特征抽取可以使用FCN-8、DLA、HGLS等卷积神经网络。然后将特征抽取后得到的粗略的空间区域信息输入到反卷积模块中,获得对粗略的空间区域信息进行细分的精准空间区域信息,反卷积模块通过对粗略的空间区域信息进行上采样,得到精准空间区域信息。精准空间区域信息分别输入到5个回归头中你,预测热力图信息、立体尺寸信息、深度信息、中心点偏移量和立体朝向信息。根据预测得到的5种信息进行分析处理,得到3D检测框和类别。将3D检测框作为目标检测框。
S240、针对待检测点云数据中的每个检测点,根据检测点对应的点云距离,确定检测点对应的点云高度。
在本实施例中,待检测点云数据中包含了一个或者多个检测点,每个探测到的雷达点为一个检测点。点云距离具体可以理解为雷达点与本车辆的距离;点云高度具体可以理解为检测点在空间中的高度,例如,检测点对应的是一个行人,其身高为点云高度。
具体的,对于点检测点云数据中的每个检测点,均需进行同样的数据处理,判断其是否为目标点云数据。点云数据中包含了每个检测点的点云距离等信息,通过对点云数据的分析,可以确定每个检测点对应的点云距离。点云距离通过雷达DSP即可计算,计算雷达点与本车辆的距离时,可以选择车辆上的某一点作为起始点,例如,将车辆中心与雷达点的距离作为点云距离。在确定点云距离后,根据点云距离计算点云高度。计算点云高度的方式可以是通过给定的计算公式进行计算,或者根据数据分析算法进行计算。
作为本实施例的一个可选实施例,本可选实施例进一步将根据检测点对应的点云距离,确定检测点对应的点云高度优化为:基于点云距离结合给定的距离确定公式,确定检测点对应的点云高度。
将点云距离带入到距离确定公式中,计算得到此检测点对应的点云高度。点云距离在不同的范围时,所采用的距离确定公式也不相同。
在计算点云高度时,假设物体垂直地面,根据点云距离反推点云高度,点云高度的上限为3m。示例性的,本申请实施例提供一种短距情况下的距离确定公式:h=-d*np.tan(ELEVATION_FOV_SR/2);其中,h为点云高度,d为点云距离,np.tan是正切函数,ELEVATION_FOV_SR/2为正切角度。d小于或等于70m时为短距。D大于70m时为长距,本申请实施例提供一种长距情况下的距离确定公式:h=-d*np.tan(ELEVATION_FOV_FR/2);其中,h为点云高度,d为点云距离,np.tan是正切函数,ELEVATION_FOV_FR/2为正切角度。
需要知道的是,正切角度是根据实验标定测量得到的,其与雷达、摄像头安装的位置和角度有关。优选的,本申请实施例中提供一组具体数值,用于计算点云高度:ELEVATION_FOV_SR=20,ELEVATION_FOV_FR=14。
S250、将检测点按照点云高度进行高度增强,得到增强柱。
在本实施例中,增强柱具体可以理解为检测点在进行高度增强后,得到的柱状的数据。检测点为一个点数据,其不具备高度,将检测点数据进行高度增强,即检测点为二维数据,将点云高度作为此点在立体空间中延伸的高度,得到增强柱。
示例性的,图3为本发明实施例所提供的一种检测点高度增强后的可视化效果展示图。其中,增强柱11的数量取决于检测点的数量(即取决于雷达点的数量),图中仅示例性的画出7个增强柱,实际中数量可以更多或者更少。
S260、将增强柱与各目标检测框进行比较,确定符合条件的目标点云数据。
增强柱具有一定高度,目标检测框在图像中也具有一定高度。出现在目标检测框中的增强柱为符合条件的目标点云数据,此部分数据为有用的雷达数据。在进行后续的特征融合时,仅融合符合条件的目标点云数据,其余数据可能是噪音、杂波等无效数据。
作为本实施例的一个可选实施例,本可选实施例进一步将将增强柱与各目标检测框进行比较,确定符合条件的各目标点云数据优化为:
A、从各目标检测框中选定一个作为当前待比较检测框。
在本实施例中,当前待比较检测框具体可以理解为当前需要与增强柱进行比较的检测框。当目标检测框有多个时,需要依次与增强柱进行匹配,所以,首先选择一个目标检测框作为当前待比较检测框进行后续的比较操作,当此目标检测框完成比较后,再选择下一个目标检测框作为新的当前待比较检测框。
B、将增强柱与当前待比较检测框进行比较。
当前待比较检测框具备检测框信息,如检测框所在的位置,增强柱同时具备位置信息,比较增强柱和当前待比较检测框的位置。
C、如果当前待比较检测框中存在增强柱,则将增强柱确定为目标点云数据;否则,返回当前待比较检测框的选定操作,直至全部目标检测框均被选定。
如果当前待比较检测框中出现了增强柱,此增强柱被选中,作为后续融合的候选点,将此增强柱作为目标点云数据。增强柱有一部分出现在当前待比较检测框中,即认为当前待比较检测框中存在增强柱。
S270、将各目标点云数据进行空间坐标变换,获得标准点云数据。
在本实施例中,标准点云数据具体可以理解为与待检测图像空间对齐的点云数据。目标点云数据和待检测图像由于采集时间等原因可能导致空间不一致。因此,需要将目标点云数据与待检测图像进行空间对齐。根据目标点云数据相对本车辆的位置,将目标点云数据转换到以车辆为原点的车辆坐标系中。由于图像和雷达采集时间不完全一致,使用固定原点的世界坐标系中转,以对应不同时刻的车辆坐标系;根据给定的相机内参和外参矩阵(Intrinsic&Extrinsic Matrices),将车辆坐标系映射到相机坐标,得到标准点云数据。其中,相机的内参和外参矩阵与相机有关,相机确定不再调整参数后,内参和外参矩阵相应确定。
可以知道的是,标准点云数据的确定过程为:目标点云数据的坐标从雷达坐标系转换到车辆坐标系下,然后转换到世界坐标系下,经由世界坐标系转换为图像采集时刻的车辆坐标系下对应的坐标,最后将其转换为相机坐标系下的坐标,得到标准点云数据。获得标准点云数据的过程即为将雷达柱投影到图像空间的过程。
S280、将标准点云数据和精准空间区域信息进行拼接,得到目标待检测信息。
具体的,标准点云数据通常为4维信息,包括了:(x,y,Vx,Vy),其中x,y是障碍物距离本车辆的位置信息,Vx,Vy是障碍物的速度。精准空间区域信息是经过特征抽取器和反卷积模块处理后得到的信息,其也是高维信息,例如,精准空间区域信息为64维信息。将标准点云数据和精准空间区域信息进行拼接,是将64维信息与4维信息进行拼接,得到68维的目标待检测信息。进行拼接的目的是将点云数据和图像数据进行融合,即在图像上对应位置增加4维的雷达信息,得到目标待检测信息。通过将标准点云数据与精准空间区域信息进行拼接,实现了特征中融合,在原有的点云数据基础上,增加了图像数据,解决了点云数据量较少导致的目标检测结果不准确的问题。
示例性的,图4提供了一种标准点云数据和精准空间区域信息的拼接示例图,图中包括了目标点云数据21,增强柱22、精准空间区域信息23,标准点云数据24。目标点云数据21进行空间坐标变换,得到标准点云数据24,标准点云数据24与精准空间区域信息23空间对齐,可以通过拼接实现特征融合。增强柱22是不符合条件的点云数据,其有可能是噪音或者杂波,不进行特征融合。图中仅示例性的画出了两个目标点云数据21和增强柱22,实际数量可以更多或者更少。
S290、基于目标待检测信息和预确定的目标检测网络模型确定待检测图像和待检测点云数据中对象的对象信息。
将特征融合后的目标待检测信息输入到目标检测网络模型中,检测待检测图像和待检测点云数据中的对象,实现对对象对应的对象信息的预测,例如,预测对象位置,以及预测对象所归属类别。
本发明实施例提供了一种目标检测方法,通过获取待检测图像和待检测点云数据,并根据待检测图像确定目标检测框和精准空间区域信息;根据各目标检测框筛选待检测点云数据,获得目标点云数据;根据各目标点云数据和精准空间区域信息确定目标待检测信息;基于目标待检测信息和预确定的目标检测网络模型确定待检测图像和待检测点云数据中对象的对象信息,解决了目标检测过程中由于点云数据中高度信息缺失或者误差大的原因导致的识别结果不准确的问题,通过对待检测图像进行处理,得到目标检测框和精准空间区域信息,然后根据目标检测框筛选待检测点云数据,过滤待检测点云数据中的杂波和噪音等无效数据,得到有用的目标点云数据。通过对点云数据进行高度增强,然后筛选出目标点云数据,因此,目标点云数据为具有高度信息的点云数据,避免了点云数据高度缺失。通过对精准空间区域信息和目标点云数据在识别过程中进行融合,消除了点云数据数量较少的影响,提高了目标识别的准确度。
实施例三
图5为本发明实施例三提供的一种目标检测装置的结构示意图,该装置包括:获取模块31、筛选模块32、目标信息确定模块33和对象信息确定模块34。
其中,获取模块31,用于获取待检测图像和待检测点云数据,并根据所述待检测图像确定目标检测框和精准空间区域信息;筛选模块32,用于根据各所述目标检测框筛选所述待检测点云数据,获得目标点云数据;目标信息确定模块33,用于根据各所述目标点云数据和精准空间区域信息确定目标待检测信息;对象信息确定模块34,用于基于所述目标待检测信息和预确定的目标检测网络模型确定所述待检测图像和待检测点云数据中对象的对象信息。
本发明实施例提供了一种目标检测装置,通过获取待检测图像和待检测点云数据,并根据待检测图像确定目标检测框和精准空间区域信息;根据各目标检测框筛选待检测点云数据,获得目标点云数据;根据各目标点云数据和精准空间区域信息确定目标待检测信息;基于目标待检测信息和预确定的目标检测网络模型确定待检测图像和待检测点云数据中对象的对象信息,解决了目标检测过程中由于点云数据中高度信息缺失或者误差大的原因导致的识别结果不准确的问题,通过对待检测图像进行处理,得到目标检测框和精准空间区域信息,然后根据目标检测框筛选待检测点云数据,过滤待检测点云数据中的杂波和噪音等无效数据,得到有用的目标点云数据,通过对精准空间区域信息和待目标待检测信息在识别过程中进行融合,消除了点云数据高度信息缺失和数据量较少的影响,提高了目标识别的准确度。
进一步地,获取模块31,包括:
输入单元,用于将所述待检测图像作为输入数据输入到目标检测网络模型中;
输出单元,用于根据所述目标检测网络模型的输出结果确定目标检测框和精准空间区域信息。
进一步地,筛选模块32,包括:
高度确定单元,用于针对所述待检测点云数据中的每个检测点,根据所述检测点对应的点云距离,确定所述检测点对应的点云高度;
增强单元,用于将所述检测点按照所述点云高度进行高度增强,得到增强柱;
比较单元,用于将所述增强柱与各所述目标检测框进行比较,确定符合条件的目标点云数据。
进一步地,高度确定单元,具体用于基于所述点云距离结合给定的距离确定公式,确定所述检测点对应的点云高度。
进一步地,比较单元,具体用于从各所述目标检测框中选定一个作为当前待比较检测框;将所述增强柱与所述当前待比较检测框进行比较;如果所述当前待匹配检测框中存在所述增强柱,则将所述增强柱确定为目标点云数据;否则,返回当前待比较检测框的选定操作,直至全部目标检测框均被选定。
进一步地,目标信息确定模块33,包括:
坐标变换单元,用于将各所述目标点云数据进行空间坐标变换,获得标准点云数据;
拼接单元,用于将所述标准点云数据和精准空间区域信息进行拼接,得到目标待检测信息。
本发明实施例所提供的目标检测装置可执行本发明任意实施例所提供的目标检测方法,具备执行方法相应的功能模块和有益效果。
实施例四
图6为本发明实施例四提供的一种计算机设备的结构示意图,如图6所示,该设备包括处理器40、存储器41、输入装置42和输出装置43;设备中处理器40的数量可以是一个或多个,图6中以一个处理器40为例;设备中的处理器40、存储器41、输入装置42和输出装置43可以通过总线或其他方式连接,图6中以通过总线连接为例。
存储器41作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本发明实施例中的目标检测方法对应的程序指令/模块(例如,目标检测装置中的获取模块31、筛选模块32、目标信息确定模块33和对象信息确定模块34)。处理器40通过运行存储在存储器41中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的目标检测方法。
存储器41可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器41可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器41可进一步包括相对于处理器40远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置42可用于接收输入的数字或字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入。输出装置43可包括显示屏等显示设备。
实施例五
本发明实施例五还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种目标检测方法,该方法包括:
获取待检测图像和待检测点云数据,并根据所述待检测图像确定目标检测框和精准空间区域信息;
根据各所述目标检测框筛选所述待检测点云数据,获得目标点云数据;
根据各所述目标点云数据和精准空间区域信息确定目标待检测信息;
基于所述目标待检测信息和预确定的目标检测网络模型确定所述待检测图像和待检测点云数据中对象的对象信息。
当然,本发明实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的目标检测方法中的相关操作。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
值得注意的是,上述目标检测装置的实施例中,所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明的保护范围。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (10)
1.一种目标检测方法,其特征在于,包括:
获取待检测图像和待检测点云数据,并根据所述待检测图像确定目标检测框和精准空间区域信息;
根据各所述目标检测框筛选所述待检测点云数据,获得目标点云数据;
根据各所述目标点云数据和精准空间区域信息确定目标待检测信息;
基于所述目标待检测信息和预确定的目标检测网络模型确定所述待检测图像和待检测点云数据中对象的对象信息。
2.根据权利要求1所述的方法,其特征在于,所述根据所述待检测图像确定目标检测框和精准空间区域信息,包括:
将所述待检测图像作为输入数据输入到目标检测网络模型中;
根据所述目标检测网络模型的输出结果确定目标检测框和精准空间区域信息。
3.根据权利要求1所述的方法,其特征在于,所述根据各所述目标检测框筛选所述待检测点云数据,获得目标点云数据,包括:
针对所述待检测点云数据中的每个检测点,根据所述检测点对应的点云距离,确定所述检测点对应的点云高度;
将所述检测点按照所述点云高度进行高度增强,得到增强柱;
将所述增强柱与各所述目标检测框进行比较,确定符合条件的目标点云数据。
4.根据权利要求3所述的方法,其特征在于,所述根据所述检测点对应的点云距离,确定所述检测点对应的点云高度,包括:
基于所述点云距离结合给定的距离确定公式,确定所述检测点对应的点云高度。
5.根据权利要求3所述的方法,其特征在于,所述将所述增强柱与各所述目标检测框进行比较,确定符合条件的目标点云数据,包括:
从各所述目标检测框中选定一个作为当前待比较检测框;
将所述增强柱与所述当前待比较检测框进行比较;
如果所述当前待匹配检测框中存在所述增强柱,则将所述增强柱确定为目标点云数据;否则,
返回当前待比较检测框的选定操作,直至全部目标检测框均被选定。
6.根据权利要求1所述的方法,其特征在于,所述根据各所述目标点云数据和精准空间区域信息确定目标待检测信息,包括:
将各所述目标点云数据进行空间坐标变换,获得标准点云数据;
将所述标准点云数据和精准空间区域信息进行拼接,得到目标待检测信息。
7.根据权利要求1-6任一项所述的方法,其特征在于,所述对象信息至少包括:归属类别以及所述对象的位置信息。
8.一种目标检测装置,其特征在于,包括:
获取模块,用于获取待检测图像和待检测点云数据,并根据所述待检测图像确定目标检测框和精准空间区域信息;
筛选模块,用于根据各所述目标检测框筛选所述待检测点云数据,获得目标点云数据;
目标信息确定模块,用于根据各所述目标点云数据和精准空间区域信息确定目标待检测信息;
对象信息确定模块,用于基于所述目标待检测信息和预确定的目标检测网络模型确定所述待检测图像和待检测点云数据中对象的对象信息。
9.一种计算机设备,其特征在于,所述设备包括:
一个或多个处理器;
存储器,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-7中任一所述的目标检测方法。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110458834.7A CN112949782A (zh) | 2021-04-27 | 2021-04-27 | 一种目标检测方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110458834.7A CN112949782A (zh) | 2021-04-27 | 2021-04-27 | 一种目标检测方法、装置、设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112949782A true CN112949782A (zh) | 2021-06-11 |
Family
ID=76233561
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110458834.7A Pending CN112949782A (zh) | 2021-04-27 | 2021-04-27 | 一种目标检测方法、装置、设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112949782A (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113344917A (zh) * | 2021-07-28 | 2021-09-03 | 浙江华睿科技股份有限公司 | 一种检测方法、装置、电子设备及存储介质 |
CN113902927A (zh) * | 2021-12-09 | 2022-01-07 | 北京车网科技发展有限公司 | 一种融合了图像与点云信息的综合信息处理方法 |
CN114241011A (zh) * | 2022-02-22 | 2022-03-25 | 阿里巴巴达摩院(杭州)科技有限公司 | 目标检测方法、装置、设备及存储介质 |
CN114581361A (zh) * | 2021-06-28 | 2022-06-03 | 广州极飞科技股份有限公司 | 物体形态测量方法、装置、设备及存储介质 |
CN115223110A (zh) * | 2022-07-08 | 2022-10-21 | 苏州万集车联网技术有限公司 | 目标检测方法、装置、计算机设备和存储介质 |
CN115620182A (zh) * | 2022-12-20 | 2023-01-17 | 成都鹰谷米特科技有限公司 | 一种信号处理方法、装置、终端及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108868268A (zh) * | 2018-06-05 | 2018-11-23 | 西安交通大学 | 基于点到面距离和互相关熵配准的无人车位姿估计方法 |
CN110988912A (zh) * | 2019-12-06 | 2020-04-10 | 中国科学院自动化研究所 | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 |
CN111340797A (zh) * | 2020-03-10 | 2020-06-26 | 山东大学 | 一种激光雷达与双目相机数据融合检测方法及系统 |
-
2021
- 2021-04-27 CN CN202110458834.7A patent/CN112949782A/zh active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108868268A (zh) * | 2018-06-05 | 2018-11-23 | 西安交通大学 | 基于点到面距离和互相关熵配准的无人车位姿估计方法 |
CN110988912A (zh) * | 2019-12-06 | 2020-04-10 | 中国科学院自动化研究所 | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 |
CN111340797A (zh) * | 2020-03-10 | 2020-06-26 | 山东大学 | 一种激光雷达与双目相机数据融合检测方法及系统 |
Non-Patent Citations (1)
Title |
---|
RAMIN NABATI ET AL.: "CenterFusion: Center-based Radar and Camera Fusion for 3D Object Detection", 《ARXIV:2011.04841V1 [CS.CV]》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114581361A (zh) * | 2021-06-28 | 2022-06-03 | 广州极飞科技股份有限公司 | 物体形态测量方法、装置、设备及存储介质 |
CN113344917A (zh) * | 2021-07-28 | 2021-09-03 | 浙江华睿科技股份有限公司 | 一种检测方法、装置、电子设备及存储介质 |
CN113344917B (zh) * | 2021-07-28 | 2021-11-23 | 浙江华睿科技股份有限公司 | 一种检测方法、装置、电子设备及存储介质 |
CN113902927A (zh) * | 2021-12-09 | 2022-01-07 | 北京车网科技发展有限公司 | 一种融合了图像与点云信息的综合信息处理方法 |
CN114241011A (zh) * | 2022-02-22 | 2022-03-25 | 阿里巴巴达摩院(杭州)科技有限公司 | 目标检测方法、装置、设备及存储介质 |
CN115223110A (zh) * | 2022-07-08 | 2022-10-21 | 苏州万集车联网技术有限公司 | 目标检测方法、装置、计算机设备和存储介质 |
CN115620182A (zh) * | 2022-12-20 | 2023-01-17 | 成都鹰谷米特科技有限公司 | 一种信号处理方法、装置、终端及存储介质 |
CN115620182B (zh) * | 2022-12-20 | 2023-03-07 | 成都鹰谷米特科技有限公司 | 一种信号处理方法、装置、终端及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112949782A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN110988912B (zh) | 自动驾驶车辆的道路目标与距离检测方法、系统、装置 | |
CN113379805B (zh) | 一种交通节点的多信息资源融合处理方法 | |
CN112101092A (zh) | 自动驾驶环境感知方法及系统 | |
CN112215306B (zh) | 一种基于单目视觉与毫米波雷达融合的目标检测方法 | |
CN112693466A (zh) | 一种车辆环境感知传感器性能测评系统及方法 | |
CN112562093B (zh) | 目标检测方法、电子介质和计算机存储介质 | |
CN110873879A (zh) | 一种多源异构传感器特征深度融合的装置及方法 | |
CN111123262B (zh) | 自动驾驶3d建模方法、装置及系统 | |
CN111860072A (zh) | 泊车控制方法、装置、计算机设备及计算机可读存储介质 | |
CN116310679A (zh) | 多传感器融合目标检测方法、系统、介质、设备及终端 | |
CN113627373A (zh) | 一种基于雷视融合探测的车辆识别方法 | |
CN113255444A (zh) | 图像识别模型的训练方法、图像识别方法和装置 | |
CN112740225A (zh) | 一种路面要素确定方法及装置 | |
CN114639085A (zh) | 交通信号灯识别方法、装置、计算机设备和存储介质 | |
CN113159198A (zh) | 一种目标检测方法、装置、设备及存储介质 | |
CN112801024B (zh) | 一种检测信息处理方法和装置 | |
CN114037972A (zh) | 目标检测方法、装置、设备及可读存储介质 | |
CN117130010A (zh) | 用于无人驾驶的障碍物感知方法、系统及无人驾驶汽车 | |
CN115151836A (zh) | 用于探测车辆周围环境中的移动对象的方法和机动车辆 | |
CN113610143B (zh) | 一种点云噪点的分类方法、装置、设备及存储介质 | |
CN115359332A (zh) | 基于车路协同的数据融合方法、装置、电子设备及系统 | |
CN115248443A (zh) | 基于激光雷达的地图构建方法、系统、设备及存储介质 | |
CN114973195A (zh) | 基于多信息融合的车辆追踪方法、装置及系统 | |
CN115620244A (zh) | 基于车路协同的图像检测方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |