CN117095371A - 一种目标检测方法及检测装置 - Google Patents

一种目标检测方法及检测装置 Download PDF

Info

Publication number
CN117095371A
CN117095371A CN202210514673.3A CN202210514673A CN117095371A CN 117095371 A CN117095371 A CN 117095371A CN 202210514673 A CN202210514673 A CN 202210514673A CN 117095371 A CN117095371 A CN 117095371A
Authority
CN
China
Prior art keywords
point cloud
frame
target object
target
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210514673.3A
Other languages
English (en)
Inventor
尹轩宇
黄凯宁
戴恒晨
陈琳元
刘博聪
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sankuai Online Technology Co Ltd
Original Assignee
Beijing Sankuai Online Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sankuai Online Technology Co Ltd filed Critical Beijing Sankuai Online Technology Co Ltd
Priority to CN202210514673.3A priority Critical patent/CN117095371A/zh
Publication of CN117095371A publication Critical patent/CN117095371A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本说明书公开了一种目标检测方法及检测装置,该目标检测的方法包括:获取无人驾驶设备采集到的历史帧点云序列;将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,并根据检测结果,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置;将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据;根据所述叠加点云数据,在所述当前点云中检测所述目标对象。

Description

一种目标检测方法及检测装置
技术领域
本说明书涉及无人驾驶领域,尤其涉及一种目标检测方法及检测装置。
背景技术
随着无人驾驶技术的发展,目标检测在无人驾驶过程中发挥着至关重要的作用,在无人驾驶设备行驶过程中,通常需要借助激光雷达(Lidar),相机(Camera),毫米波雷达(Millimeter Wave Radar)等多种传感器的数据来获取周围的路面信息,车辆信息以及交通信息,从而使无人驾驶设备实现安全行驶。
然而,在目标检测的过程中无人驾驶设备本身以及周围目标对象的移动都会对目标检测结果造成一定的影响,甚至造成无人驾驶设备行驶过程中的安全隐患,而目前的目标检测的方法,都无法有效的解决无人驾驶设备本身以及周围目标对象的移动对目标检测结果造成的偏差,也就无法保证目标检测的准确性。
因此,如何避免目标检测过程中无人驾驶设备本身以及周围目标对象的移动会对目标检测结果造成的影响,提高目标检测的准确性,是一个亟待解决的问题。
发明内容
本说明书提供一种目标检测方法及检测装置,以部分的解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种目标检测方法,所述方法应用于执行无人配送业务,包括:
获取无人驾驶设备采集到的历史帧点云序列;
将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,并根据检测结果,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置;
将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据;
根据所述叠加点云数据,在所述当前点云中检测所述目标对象。
可选地,将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据,具体包括:
若所述预测位置与检测出的所述目标对象在所述当前点云中的位置之间的偏差小于预设阈值,则将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定所述叠加点云数据。
可选地,将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据,具体包括:
若所述预测位置与检测出的所述目标对象在所述当前点云中的位置之间的偏差大于预设阈值,则将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述检测出的所述目标对象在所述当前点云中的位置上,确定检测出的所述目标对象在所述当前点云中的位置上的叠加点云数据。
可选地,将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据,具体包括:
通过所述目标检测模型,确定待检测的目标对象在所述历史帧点云序列中的每帧历史点云内对应的目标检测框;
将所述历史帧点云序列中至少一帧历史点云内所述目标检测框中的点云数据,叠加至所述目标对象在所述当前点云内对应的目标检测框中,确定在所述当前点云中所述预测位置上的叠加点云数据。
可选地,所述方法还包括:
根据所述叠加点云数据,对所述目标对象在当前点云内对应的目标检测框进行优化,得到优化后的目标检测框;
根据所述优化后的目标检测框,对所述目标对象进行目标检测。
可选地,将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,并根据检测结果,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置,具体包括:
将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,确定所述待检测的目标对象在所述历史帧点云序列中每帧历史点云内对应的位置;
根据所述目标对象在每帧历史点云中的位置,确定所述目标对象在每帧历史点云中的移动轨迹;
根据所述移动轨迹,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置。
可选地,所述目标检测模型包括:第一子网络和第二子网络;
将所述历史帧点云序列输入预设的目标检测模型中,以通过所述第一子网络,对待检测的目标对象进行目标检测,并根据检测结果,通过所述第二子网络,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置。
本说明书提供了一种目标检测装置,所述装置应用于执行无人配送业务,包括:
获取模块,获取无人驾驶设备采集到的历史帧点云序列;
预测模块,将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,并根据检测结果,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置;
叠加模块,将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据;
检测模块,根据所述叠加点云数据,在所述当前点云中检测所述目标对象。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述目标检测的方法。
本说明书提供了一种无人驾驶设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述目标检测的方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
本说明书通过目标检测模型,确定待检测目标对象在无人驾驶设备采集到的每一帧历史点云中的位置,并根据该目标对象在每一帧历史点云中的位置对当前时刻目标对象在历史点云中的位置进行预测,根据该预测位置以及检测出的所述目标对象在所述当前点云中的位置,来确定当前时刻该目标对象在历史点云中的目标位置,进而根据该目标位置进行目标检测。
从上述方法可以看出,本说明书在确定当前时刻目标对象在点云中的位置时,会根据该目标对象在之前若干帧历史点云中的位置,对目标对象在当前点云中的位置进行预测,而不是仅基于对当前时刻采集的当前点云中目标对象的识别结果,来对目标对象进行检测的,而后可以将之前若干帧的点云数据叠加至当前的预测位置上,从而使当前点云更加稠密,从而避免在目标检测过程中无人驾驶设备本身的移动以及目标对象的移动对无人驾驶设备的检测结果造成的影响,从而提高了目标检测结果的准确性。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中提供的一种目标检测方法的流程示意图;
图2为本说明书提供的一种目标检测模型示意图;
图3为本说明书提供的一种目标检测装置的示意图;
图4为本说明书提供的一种对应于图1的无人驾驶设备的示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中提供的一种目标检测方法的流程示意图,包括以下步骤:
S101:获取无人驾驶设备采集到的历史帧点云序列。
在无人驾驶设备执行诸如物流配送、交通出行、货物运输等业务的过程中,通常会通过自身装载的传感器(如:视觉摄像机、毫米波雷达、超声波雷达、激光雷达等),对周围的目标对象(如车辆、行人等)进行目标检测,以获取目标对象的位置、行驶方向、以及尺寸等信息,无人驾驶设备可以根据这些信息,与周围的目标对象保持安全的行驶距离和行驶速度,从而保证无人驾驶设备安全、顺利地到达指定地点。
基于此,本说明书提供了一种目标检测方法,使无人驾驶设备能够准确地检测出目标对象的行驶信息,从而保证无人驾驶设备的行驶安全。其中,无人驾驶设备获取到的每一帧的历史点云可以是无人驾驶设备通过自身装载的传感器在相应的历史时刻采集到的,而每一帧的历史点云按照时序进行排列以后,可以得到无人驾驶设备由每一帧的历史点云构成的历史帧点云序列。
在本说明书中,无人驾驶设备获取到的历史帧点云可以是无人驾驶设备通过自身装载的激光雷达获取到的三维点云,而该三维点云中的每一个点云都具有一定的空间坐标信息,当然,也可以是无人驾驶设备通过自身装载的相机等设备采集到的二维图像,本说明书对此不做具体限定。
本说明书提供的目标检测方法可以用于无人驾驶设备在行驶过程中对周围障碍物的位置、尺寸及行驶方向进行检测,该无人驾驶设备具体可应用于通过无人驾驶设备进行配送的领域,如,使用无人驾驶设备进行快递、物流、外卖等配送的业务场景。而本说明书中提到的无人驾驶设备可以包括:无人驾驶汽车,移动机器人,无人物流配送车等。
S102:将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,并根据检测结果,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置。
无人驾驶设备可以将上述历史帧点云序列输入预先的目标检测模型当中,通过该目标检测模型,确定待检测的目标对象在历史帧点云序列中每帧历史点云内对应的位置。
具体的,为了准确地确定出目标对象的位置、行驶方向以及尺寸信息,无人驾驶设备在通过自身装载的激光雷达进行目标检测的过程中,可以通过该目标检测模型,确定目标对象在无人驾驶设备通过激光雷达获取到的历史帧点云序列中每一帧的点云数据中对应的目标检测框。其中,由于无人驾驶设备通过激光雷达获取到的点云数据是三维的,所以该目标检测框可以是包含有至少部分待检测目标对象对应的点云的三维边界框,无人驾驶设备可以将边界框的中心位置作为目标对象在该时刻对应的位置,该目标检测框中包含的各个点云即为目标对象在该时刻的历史点云中所对应的点云,而该边界框各边的长度信息即可认为是该目标对象所对应的尺寸信息。
当然,无人驾驶设备也可以通过其他方式来确定目标对象在历史点云中的位置,例如,无人驾驶设备可以对历史点云进行语义分析,确定点云数据中每一个点云属于目标对象的概率,以此来确定目标对象对应的点云,进而根据目标对象对应的点云,来确定该目标对象在历史点云中的位置。其他的方式,在此就不详细举例说明了。
在本说明书中,上述目标检测模型可以是由第一子网络和第二子网络两部分构成,其中,第一子网络用于确定待检测的目标对象在历史帧点云序列中每帧历史点云内对应的位置,将历史帧点云序列输入预先的目标检测模型当中后,即可通过该目标检测模型的第一子网络,确定待检测的目标对象在历史帧点云序列中每帧历史点云内对应的位置。该目标的第二子网络用于预测所述目标对象在无人驾驶设备当前时刻采集的当前点云中的位置,关于第二子网络的内容具体将在下文进行详细描述,此处不做过多赘述。
在实际应用中,需要事先对上述目标检测模型进行训练,方可将其部署在无人驾驶设备中来确定检测目标对应的目标检测结果。其中,用于训练目标检测模型的执行主体,可以是指服务器或诸如台式电脑、笔记本电脑等指定设备,待模型训练完成后将其部署在无人驾驶设备中。
当然,训练上述目标检测模型的执行主体也可以是装载于无人驾驶设备内部的嵌入式车载电脑,这样一来,可以直接在无人驾驶设备上对目标检测模型进行训练,待训练完成后,无人驾驶设备可以直接应用该目标检测模型来进行目标检测。为了便于描述,下面仅以服务器作为模型训练的执行主体为例,对目标检测模型的训练进行说明。
在对目标检测模型进行训练时,服务器可以根据无人驾驶设备的历史行驶记录,获取到无人驾驶设备历史行驶过程中通过自身装载的传感器所采集到的历史帧点云序列,并将该历史帧点云序列输入到待训练的目标检测模型中,以确定历史目标对象在该历史帧点云序列中每帧历史点云内对应的位置,并根据历史目标对象在每帧历史点云中的位置,预测历史目标对象在无人驾驶设备在历史时刻采集的该时刻点云中的位置,作为历史预测位置。而后,服务器可以根据该历史预测位置,以及检测出的目标对象在该时刻历史点云中的位置,确定目标对象在该时刻历史点云中的历史目标位置,进而根据该历史目标位置,对历史目标对象进行目标检测。
服务器可以以最小化目标检测模型对历史目标对象的预估检测结果与该历史检测对象实际标注的检测结果之间的偏差为目标,对该目标识别模型进行训练,直至该目标检测模型满足训练目标,其中,训练目标可以为:目标检测模型收敛至预设阈值范围内,或者,达到预设训练次数,以保证目标检测模型准确的获得检测对象的检测结果,预设阈值范围和预设训练次数可以跟据实际情况进行设定,本说明书不做具体限定。
无人驾驶设备确定目标对象在每帧历史点云中的位置后,可以通过目标检测模型的第二子网络,根据目标对象在每帧历史点云中的位置,预测该目标对象在无人驾驶设备当前时刻采集的当前点云中的位置。具体的,在无人驾驶设备通过自身装载的激光雷达进行目标检测时,无人驾驶设备可以通过目标检测模型的第二子网络,根据目标对象对应的目标检测框在每帧历史点云中的位置,确定出该目标检测框在点云数据中的移动轨迹,而该移动轨迹可以用来表示目标对象在点云数据中的移动趋势,也就是说,该移动轨迹中包含有每一帧点云数据中目标检测框对应的位置,而后,无人驾驶设备可以根据该移动轨迹,来对该目标检测框当前时刻在点云数据中的位置进行预测,并将其作为目标对象在当前点云中的预测位置。
由于在无人驾驶设备在获取目标对象的位置的过程中,无人驾驶设备本身的移动以及目标对象的移动会对检测结果产生一定的影响,例如,在无人驾驶设备通过激光雷达获取点云数据时,在激光雷达发射激光信号,到激光雷达接收到通过目标对象反射回去的激光信号的过程中,无人驾驶设备本身以及检测目标都有可能发生一定的位移,而这些位移会导致无人驾驶设备检测出的目标对象在当前点云中的位置之间出现一定的误差,这些误差会影响到对待检测目标对象的检测精度,甚至会导致无人驾驶设备发生安全隐患。
因此,无人驾驶设备可以根据目标对象在无人驾驶设备当前时刻通过激光雷达采集到的点云数据中的预测位置,以及检测出的目标对象在当前点云中的位置,确定该目标对象在无人驾驶设备当前时刻通过激光雷达采集的点云数据中的目标位置,以此来避免无人驾驶设备本身的位移以及待检测目标对象的位移对检测结果的影响。
具体的,无人驾驶设备可以通过目标检测模型的第二子网络,根据上述预测位置与检测出的目标对象在当前点云中的位置之间的偏差,来确定该目标对象在无人驾驶设备当前时刻通过激光雷达采集的点云数据中的目标位置,如果该目标对象当前时刻的预测位置与无人驾驶设备检测出的目标对象在当前点云中的位置之间的偏差小于预设阈值,说明无人驾驶设备对该目标对象的预测位置是准确的,则无人驾驶设备可以将该目标对象的预测位置作为该目标对象在无人驾驶设备当前时刻采集的点云数据中的目标位置。其中,上述预设阈值可以根据实际情况进行设定,本说明书对此不做限定。
进一步地,无人驾驶设备可以通过上述预测位置,对该目标对象在点云数据中的移动轨迹进行更新,这样当下一时刻无人驾驶设备确定该目标对象在点云数据中的预测位置时,可以通过上述更新后的该目标对象在点云数据中的移动轨迹来进行确定,进而使最终确定的目标对象在无人驾驶设备采集到的点云数据中的目标位置更加准确。
而如果该目标对象当前时刻在点云数据中的预测位置与检测出的目标对象在当前点云中的位置之间的偏差大于预设阈值,说明当前时刻对目标对象的检测出现误差(如该目标对象可能被其他目标对象遮挡,或者目标检测模型识别到该目标对象周围的其他的目标对象),所以当前时刻的该目标对象对应的预测位置是不准确的,并不能将其作为该检测对象在无人驾驶设备通过激光雷达采集到的点云数据中的目标位置,因此,此时无人驾驶设备可以将检测出的目标对象在当前点云中的位置作为该目标对象当前时刻的目标位置。
S103:将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据。
无人驾驶设备确定出目标对象在当前采集到的点云中的目标位置后,可以根据该目标位置,来对目标对象进行目标检测。
具体的,当目标对象当前时刻的预测位置与无人驾驶设备检测出的目标对象在当前点云中的位置之间的偏差小于预设阈值时,此时目标对象在当前点云中的目标位置即为上述预测位置,在无人驾驶设备通过激光雷达采集到的点云数据进行目标检测时,为了使当前时刻的点云数据更加稠密,从而提升目标检测结果的精度,此时无人驾驶设备可以将当前帧之前至少一帧中目标对象对应的目标检测框中的点云数据,通过坐标转换矩阵叠加至当前时刻该目标检测框在点云数据中的预测位置上,这样就得到了当前时刻通过多帧叠加后的叠加点云数据,而后通过识别模型的第二子网络,根据该叠加点云数据对目标检测框进行优化,从而得到优化后的目标检测框。
当目标对象当前时刻的预测位置与无人驾驶设备检测出的目标对象在当前点云中的位置之间的偏差大于预设阈值时,此时目标检测框在无人驾驶采集到的点云数据中的目标位置为无人驾驶设备检测出的目标对象在当前点云中的位置,因此无人驾驶设备可以直接通过识别模型的第二子网络对当前时刻的目标检测框进行优化,从而得到优化后的目标检测框。
S104:根据所述叠加点云数据,在所述当前点云中检测所述目标对象
在得到优化后的目标检测框后,无人驾驶设备可以根据该优化后的目标检测框,确定该目标对象在当前时刻的位置、行驶方向、尺寸信息等数据,以对其进行目标检测,从而根据检测结果来对无人驾驶设备的进行控制,保证其安全行驶。
需要说明的是,在无人驾驶设备行驶过程中可能会出现多个待检测目标对象,相应的,每一帧的点云数据中也可能会包含多个检测目标对象对应的目标检测框,在本说明书中,针对无人驾驶设备周围每一个目标对象都可以通过上述相同的方法进行目标检测,以获得无人驾驶设备周围每一个对象的目标检测结果,本说明书对此不做过多赘述。
具体来说,本说明书中提供的目标检测方法可以分为如下几个步骤,首先,无人驾驶设备通过第一子网络获得目标对象在历史帧点云序列的每帧历史点云中对应的目标检测框。其次根据该目标检测框,来确定目标对象在每帧历史点云中的移动轨迹,并将在每一帧历史点云中的位置与该移动轨迹进行匹配,从而预测出目标对象在下一帧历史点云中的位置,并对该移动轨迹进行更新。而后将之前若干帧的历史点云叠加至当前帧的点云上,得到叠加后的多帧点云数据。最后通过第二子网络,根据叠加后的多帧点云数据进行目标检测。
为了便于理解,本说明书还提供了一种目标检测模型的示意图,如图2所示。
图2为本说明书提供的一种目标检测模型示意图。
从图2可以看出,该目标检测模型由第一子网络和第二子网络两部分构成,其中,无人驾驶设备将历史点云输入目标检测模型后,通过该目标检测模型的第一子网络获取目标对象在历史点云中的目标检测框,进而根据该目标检测框在每一帧历史点云中的位置,确定该目标检测框的历史移动轨迹,而后通过该目标检测模型的第二子网络,确定该目标检测框的目标位置,并根据该目标位置对目标检测框进行优化,最后无人驾驶设备可以根据优化后的目标检测框的位置,对目标对象进行目标检测。
在当前采用的目标检测方法中,通常仅基于对无人驾驶设备在当前时刻采集的当前点云中目标对象所处的位置进行目标检测,所以目标检测过程中无人驾驶设备本身的移动以及目标对象的移动势必会对无人驾驶设备的检测结果造成的影响,而本方案则不仅仅基于当前时刻采集的当前点云中目标对象的位置,而是还根据之前采集的若干帧历史点云中目标对象的位置,预测出目标对象在当前点云中的预测位置,并将之前若干帧的点云叠加至当前帧上,使当前的点云数据更加稠密,以此来对目标对象进行目标检测,这就避免了在目标检测过程中无人驾驶设备本身的移动以及目标对象的移动对无人驾驶设备的检测结果造成的影响,提高了目标检测结果的准确性。
以上为本说明书的一个或多个实施目标检测的方法,基于同样的思路,本说明书还提供了相应的目标检测装置,如图3所示。
图3为本说明书提供的一种目标检测装置的示意图,包括:
获取模块301,用于获取无人驾驶设备采集到的历史帧点云序列;
预测模块302,用于将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,并根据检测结果,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置;
叠加模块303,用于将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据;
检测模块304,用于根据所述叠加点云数据,在所述当前点云中检测所述目标对象。
可选地,所述叠加模块303具体用于,若所述预测位置与检测出的所述目标对象在所述当前点云中的位置之间的偏差小于预设阈值,则将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定所述叠加点云数据。
可选地,所述叠加模块303具体用于,若所述预测位置与检测出的所述目标对象在所述当前点云中的位置之间的偏差大于预设阈值,则将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述检测出的所述目标对象在所述当前点云中的位置上,确定检测出的所述目标对象在所述当前点云中的位置上的叠加点云数据。
可选地,所述叠加模块303具体用于,通过所述目标检测模型,确定待检测的目标对象在所述历史帧点云序列中的每帧历史点云内对应的目标检测框;将所述历史帧点云序列中至少一帧历史点云内所述目标检测框中的点云数据,叠加至所述目标对象在所述当前点云内对应的目标检测框中,确定在所述当前点云中所述预测位置上的叠加点云数据。
可选地,所述叠加模块303还用于,根据所述叠加点云数据,对所述目标对象在当前点云内对应的目标检测框进行优化,得到优化后的目标检测框;根据所述优化后的目标检测框,对所述目标对象进行目标检测。
可选地,所述预测模块302具体用于,将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,确定所述待检测的目标对象在所述历史帧点云序列中每帧历史点云内对应的位置;根据所述目标对象在每帧历史点云中的位置,确定所述目标对象在每帧历史点云中的移动轨迹;根据所述移动轨迹,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置。
可选地,所述目标检测模型包括:第一子网络和第二子网络;将所述历史帧点云序列输入预设的目标检测模型中,以通过所述第一子网络,对待检测的目标对象进行目标检测,并根据检测结果,通过所述第二子网络,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的一种目标检测方法。
本说明书还提供了图4所示的一种对应于图1的无人驾驶设备的示意结构图。如图4所述,在硬件层面,该无人驾驶设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的目标检测方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书的实施例可提供为方法、系统、或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。

Claims (10)

1.一种目标检测的方法,其特征在于,所述方法应用于无人配送领域,包括:
获取无人驾驶设备采集到的历史帧点云序列;
将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,并根据检测结果,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置;
将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据;
根据所述叠加点云数据,在所述当前点云中检测所述目标对象。
2.如权利要求1所述的方法,其特征在于,将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据,具体包括:
若所述预测位置与检测出的所述目标对象在所述当前点云中的位置之间的偏差小于预设阈值,则将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定所述叠加点云数据。
3.如权利要求1所述的方法,其特征在于,将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据,具体包括:
若所述预测位置与检测出的所述目标对象在所述当前点云中的位置之间的偏差大于预设阈值,则将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述检测出的所述目标对象在所述当前点云中的位置上,确定检测出的所述目标对象在所述当前点云中的位置上的叠加点云数据。
4.如权利要求1所述的方法,其特征在于,将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据,具体包括:
通过所述目标检测模型,确定待检测的目标对象在所述历史帧点云序列中的每帧历史点云内对应的目标检测框;
将所述历史帧点云序列中至少一帧历史点云内所述目标检测框中的点云数据,叠加至所述目标对象在所述当前点云内对应的目标检测框中,确定在所述当前点云中所述预测位置上的叠加点云数据。
5.如权利要求4所述的方法,其特征在于,所述方法还包括:
根据所述叠加点云数据,对所述目标对象在当前点云内对应的目标检测框进行优化,得到优化后的目标检测框;
根据所述优化后的目标检测框,对所述目标对象进行目标检测。
6.如权利要求1所述的方法,其特征在于,将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,并根据检测结果,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置,具体包括:
将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,确定所述待检测的目标对象在所述历史帧点云序列中每帧历史点云内对应的位置;
根据所述目标对象在每帧历史点云中的位置,确定所述目标对象在每帧历史点云中的移动轨迹;
根据所述移动轨迹,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置。
7.如权利要求1~6任一项所述的方法,其特征在于,所述目标检测模型包括:第一子网络和第二子网络;
将所述历史帧点云序列输入预设的目标检测模型中,以通过所述第一子网络,对待检测的目标对象进行目标检测,并根据检测结果,通过所述第二子网络,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置。
8.一种目标检测装置,其特征在于,所述装置应用于执行无人配送业务,包括:
获取模块,获取无人驾驶设备采集到的历史帧点云序列;
预测模块,将所述历史帧点云序列输入预设的目标检测模型中,对待检测的目标对象进行目标检测,并根据检测结果,预测所述目标对象在所述无人驾驶设备当前时刻采集的当前点云中的位置,作为预测位置;
叠加模块,将所述历史帧点云序列中的至少一帧历史点云内所述目标对象处的点云数据,叠加至所述当前点云的所述预测位置上,确定在所述当前点云中所述预测位置上的叠加点云数据;
检测模块,根据所述叠加点云数据,在所述当前点云中检测所述目标对象。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种无人驾驶设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
CN202210514673.3A 2022-05-11 2022-05-11 一种目标检测方法及检测装置 Pending CN117095371A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210514673.3A CN117095371A (zh) 2022-05-11 2022-05-11 一种目标检测方法及检测装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210514673.3A CN117095371A (zh) 2022-05-11 2022-05-11 一种目标检测方法及检测装置

Publications (1)

Publication Number Publication Date
CN117095371A true CN117095371A (zh) 2023-11-21

Family

ID=88774063

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210514673.3A Pending CN117095371A (zh) 2022-05-11 2022-05-11 一种目标检测方法及检测装置

Country Status (1)

Country Link
CN (1) CN117095371A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118134985A (zh) * 2024-05-08 2024-06-04 中国空气动力研究与发展中心低速空气动力研究所 一种基于稠密时序的复杂冰形三维重构方法及介质

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN118134985A (zh) * 2024-05-08 2024-06-04 中国空气动力研究与发展中心低速空气动力研究所 一种基于稠密时序的复杂冰形三维重构方法及介质
CN118134985B (zh) * 2024-05-08 2024-07-09 中国空气动力研究与发展中心低速空气动力研究所 一种基于稠密时序的复杂冰形三维重构方法及介质

Similar Documents

Publication Publication Date Title
US20230100814A1 (en) Obstacle trajectory prediction method and apparatus
CN111190427B (zh) 一种轨迹规划的方法及装置
CN112766468B (zh) 一种轨迹预测方法、装置、存储介质及电子设备
CN111076739B (zh) 一种路径规划的方法及装置
CN110262486B (zh) 一种无人驾驶设备运动控制方法及装置
CN111062372B (zh) 一种预测障碍物轨迹的方法及装置
CN111288971B (zh) 一种视觉定位方法及装置
CN111127551B (zh) 一种目标检测的方法及装置
CN112036462B (zh) 一种模型训练以及目标检测的方法及装置
CN113968243B (zh) 一种障碍物轨迹预测方法、装置、设备及存储介质
CN116740361B (zh) 一种点云分割方法、装置、存储介质及电子设备
CN111126362A (zh) 一种预测障碍物轨迹的方法及装置
CN111797711A (zh) 一种模型训练的方法及装置
CN112327864A (zh) 一种无人驾驶设备的控制方法及控制装置
CN116309823A (zh) 一种位姿的确定方法、装置、设备及存储介质
CN111192303A (zh) 一种点云数据处理方法及装置
CN117095371A (zh) 一种目标检测方法及检测装置
CN113887351B (zh) 一种用于无人驾驶的障碍物检测方法及障碍物检测装置
CN114332201A (zh) 一种模型训练、目标检测的方法以及装置
CN117333508A (zh) 一种目标跟踪方法、装置、设备及介质
CN112818968A (zh) 一种目标物分类方法及装置
CN114148350B (zh) 一种无人设备的控制方法及装置
CN112393723B (zh) 一种定位方法、设备、介质及无人设备
CN111881817B (zh) 一种提取特定区域的方法、装置、存储介质及电子设备
CN114299147A (zh) 一种定位方法、装置、存储介质及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination