CN116452911A - 目标检测模型训练方法及装置、目标检测方法及装置 - Google Patents
目标检测模型训练方法及装置、目标检测方法及装置 Download PDFInfo
- Publication number
- CN116452911A CN116452911A CN202310317602.9A CN202310317602A CN116452911A CN 116452911 A CN116452911 A CN 116452911A CN 202310317602 A CN202310317602 A CN 202310317602A CN 116452911 A CN116452911 A CN 116452911A
- Authority
- CN
- China
- Prior art keywords
- target
- historical
- network
- training
- scene images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012549 training Methods 0.000 title claims abstract description 183
- 238000001514 detection method Methods 0.000 title claims abstract description 149
- 238000000034 method Methods 0.000 title claims abstract description 77
- 230000004927 fusion Effects 0.000 claims abstract description 65
- 235000004522 Pentaglottis sempervirens Nutrition 0.000 claims abstract description 50
- 240000004050 Pentaglottis sempervirens Species 0.000 claims abstract description 26
- 239000011159 matrix material Substances 0.000 claims description 38
- 238000012545 processing Methods 0.000 claims description 27
- 238000004590 computer program Methods 0.000 claims description 19
- 238000013507 mapping Methods 0.000 claims description 13
- 230000009466 transformation Effects 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 12
- 238000006243 chemical reaction Methods 0.000 claims description 9
- 230000015654 memory Effects 0.000 description 19
- 238000010586 diagram Methods 0.000 description 16
- 238000004364 calculation method Methods 0.000 description 15
- 230000008569 process Effects 0.000 description 15
- 238000005065 mining Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000000694 effects Effects 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 230000014509 gene expression Effects 0.000 description 6
- 238000004422 calculation algorithm Methods 0.000 description 5
- 230000000007 visual effect Effects 0.000 description 5
- 230000006872 improvement Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000011176 pooling Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000007499 fusion processing Methods 0.000 description 2
- 238000002955 isolation Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 238000013475 authorization Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004806 packaging method and process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 239000000758 substrate Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本公开提供了一种目标检测模型训练方法及装置、目标检测方法及装置,可以应用于智能驾驶、自动驾驶、环境感知等技术领域。该目标检测模型训练方法包括:利用至少一组历史场景图像以及各组历史场景图像中目标样本物体的历史位姿信息训练第一基础网络,得到经训练的单帧检测网络;将至少一组历史场景图像输入单帧检测网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征样本矩阵,并将至少一组鸟瞰视角特征样本矩阵存储至数据库中;利用至少一组鸟瞰视角特征样本矩阵,以及与至少一组历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络,得到经训练的多帧融合网络。
Description
技术领域
本公开涉及智能驾驶、自动驾驶、环境感知等技术领域,具体涉及一种目标检测模型训练方法及装置、目标检测方法及装置、设备、介质和程序产品。
背景技术
在自动驾驶领域中,多种场景下都需要准确预测驾驶环境中车辆周围物体的位姿信息,以供车端做出决策。基于视频流的3D目标检测算法得到了较好的应用,例如,该算法可利用一定数量的先前帧图像进行多帧融合预测,能够有效地挖掘时序特征,得到更加准确的检测结果。
在实现本公开构思的过程中,发明人发现相关技术中至少存在如下问题:由于采用的连续帧数量越大,能越有效地挖掘时序信息,得到更加准确的结果。但与此同时,随着连续帧数量的提升,算法的显存、内存与运算代价也成倍提升,在现有计算硬件的限制下,无法使用很高数量的连续帧完成模型训练,而采用较少数量的连续帧训练得到的检测模型表现效果往往不佳。
发明内容
鉴于上述问题,本公开提供了一种目标检测模型训练方法及装置、目标检测方法及装置、设备、介质和程序产品。
本公开的一个方面,提供了一种目标检测模型训练方法,包括:
利用至少一组历史场景图像以及各组历史场景图像中目标样本物体的历史位姿信息训练第一基础网络,得到经训练的单帧检测网络,其中,各组历史场景图像是按照预定时间间隔连续采集得到的,历史场景图像用于表征目标车辆的历史驾驶环境;
将至少一组历史场景图像输入单帧检测网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征样本矩阵,并将至少一组鸟瞰视角特征样本矩阵存储至数据库中;
利用至少一组鸟瞰视角特征样本矩阵,以及与至少一组历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络,得到经训练的多帧融合网络,其中,各目标历史位姿信息与各组历史场景图像中的目标历史场景图像关联,训练得到的单帧检测网络和多帧融合网络组成目标检测模型。
根据本公开的实施例,其中,利用至少一组鸟瞰视角特征样本矩阵,以及与至少一组历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络包括:
对至少一组鸟瞰视角特征样本矩阵进行特征增强处理,得到与至少一组历史场景图像关联的至少一组特征增强样本数据;
将特征增强样本数据输入第二基础网络,输出目标历史场景图像中目标样本物体的第一预测位姿信息;
计算目标历史位姿信息和第一预测位姿信息的第一位姿误差,直至第一位姿误差小与第一预设阈值,得到经训练的多帧融合网络。
根据本公开的实施例,其中:
对鸟瞰视角特征样本矩阵进行特征增强处理包括:对鸟瞰视角特征样本矩阵中的多个元素的进行预定类型的元素变换,预定类型的元素变换包括以下之一:以预定坐标轴为基准对多个元素进行位置翻转、以预定中心点为基准对多个元素进行位置旋转、按照预定比例对多个元素的数值进行缩放变更。
根据本公开的实施例,其中,利用至少一组历史场景图像以及各组历史场景图像中目标样本物体的历史位姿信息训练第一基础网络包括:
将至少一组历史场景图像输入第一基础网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征训练矩阵;
将至少一组鸟瞰视角特征训练矩阵输入位姿结果输出网络,输出各组历史场景图像中目标样本物体的第二预测位姿信息;
计算第二预测位姿信息和历史位姿信息的第二位姿误差,直至第二位姿误差小与第二预设阈值,得到经训练的单帧检测网络。
根据本公开的实施例,其中,第一基础网络包括二维特征提取层和三维特征转换映射层;
将至少一组历史场景图像输入第一基础网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征训练矩阵包括:
将历史场景图像输入二维特征提取层,输出历史场景图像的二维图像场景特征;
将历史场景图像的二维图像场景特征输入三维特征转换映射层,输出与历史场景图像关联的鸟瞰视角特征训练矩阵。
根据本公开的实施例,其中,目标样本物体的历史位姿信息包括:目标样本物体的中心点的历史位置坐标、目标样本物体的三维尺寸、目标样本物体的历史方向角,其中,历史方向角用于表征:目标样本物体的第一历史行驶方向和目标车辆的第二历史行驶方向之间的夹角。
本公开的另一个方面提供了一种目标检测方法,包括:
将目标场景图像输入单帧检测网络,输出与目标场景图像关联的目标鸟瞰视角特征矩阵;
获取与多帧先前场景图像对应的多个先前鸟瞰视角特征矩阵,其中,多帧先前场景图像是按照预定时间间隔连续采集得到的,目标场景图像的采集时间晚于多帧先前场景图像的采集时间,先前鸟瞰视角特征矩阵是通过单帧检测网络对先前场景图像处理得到的;
将目标鸟瞰视角特征矩阵和多个先前鸟瞰视角特征矩阵输入多帧融合网络,输出目标场景图像中目标物体的目标预测位姿信息,其中,单帧检测网络和多帧融合网络是利用上述目标检测模型训练方法训练得到的。
根据本公开的实施例,还包括:将目标鸟瞰视角特征矩阵存储至数据库中。
本公开的另一个方面提供了一种目标检测模型训练装置,包括:
第一训练模块,用于利用至少一组历史场景图像以及各组历史场景图像中目标样本物体的历史位姿信息训练第一基础网络,得到经训练的单帧检测网络,其中,各组历史场景图像是按照预定时间间隔连续采集得到的,历史场景图像用于表征目标车辆的历史驾驶环境;
输出模块,用于将至少一组历史场景图像输入单帧检测网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征样本矩阵,并将至少一组鸟瞰视角特征样本矩阵存储至数据库中;
第二训练模块,用于利用至少一组鸟瞰视角特征样本矩阵,以及与至少一组历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络,得到经训练的多帧融合网络,其中,各目标历史位姿信息与各组历史场景图像中的目标历史场景图像关联,训练得到的单帧检测网络和多帧融合网络组成目标检测模型。
本公开的另一个方面提供了一种目标检测装置,包括:
单帧检测模块,用于将目标场景图像输入单帧检测网络,输出与目标场景图像关联的目标鸟瞰视角特征矩阵;
获取模块,用于获取与多帧先前场景图像对应的多个先前鸟瞰视角特征矩阵,其中,多帧先前场景图像是按照预定时间间隔连续采集得到的,目标场景图像的采集时间晚于多帧先前场景图像的采集时间,先前鸟瞰视角特征矩阵是通过单帧检测网络对先前场景图像处理得到的;
多帧融合模块,用于将目标鸟瞰视角特征矩阵和多个先前鸟瞰视角特征矩阵输入多帧融合网络,输出目标场景图像中目标物体的目标预测位姿信息,其中,单帧检测网络和多帧融合网络是利用上述目标检测模型训练方法训练得到的。
本公开的另一个方面提供了一种电子设备,包括:一个或多个处理器;存储器,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行上述目标检测模型训练方法或目标检测方法。
本公开的另一个方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行上述目标检测模型训练方法或目标检测方法。
本公开的另一个方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现上述目标检测模型训练方法或目标检测方法。
根据本公开的实施例,通过上述两阶段的多帧融合训练策略,在第一阶段训练得到单帧检测网络,用于进行单帧特征的挖掘,计算并存储鸟瞰视角特征;在第二阶段训练得到单帧融合网络,用于对多帧输入鸟瞰视角特征进行融合与挖掘,得到最终的输出结果,完成了整体模型的训练。由于采用分阶段训练的策略,在第一阶段无需引入多帧的处理策略,避免造成模型运算量与显存占用的成倍提升。在单帧检测网络训练完成后,通过对训练数据集的图像进行前向推理,输出每帧图像对应的鸟瞰视角特征,保存的鸟瞰视角特征会作为第二阶段多帧融合网络的输入,进行多帧时序特征的挖掘。通过采取将单帧与多帧训练隔离开的策略,这样就可以在多帧训练阶段省去单帧前向推理的骨干网计算,减少显存与运算量。同时,在多帧融合网络训练阶段,由于无需进行鸟瞰视角特征的计算(第一阶段输出的鸟瞰视角特征被预先存储),可以使用较多数量的连续帧进行模型训练,从而可以在第二阶段使用更多的连续帧提升模型表现,训练得到的模型预测效果更佳。可见,通过本公开实施例的训练方法,可降低计算量,避免对计算资源的过度消耗,并能够提升模型使用的连续帧数量,释放多帧融合策略的优势,在有限的计算硬件条件下更易取得优秀的模型表现。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的目标检测模型训练方法、目标检测方法、装置、设备、介质和程序产品的应用场景图;
图2示意性示出了根据本公开实施例的目标检测模型训练方法的流程图;
图3示意性示出了根据本公开实施例的目标检测模型训练方法的原理图;
图4示意性示出了根据本公开实施例的目标检测方法的流程图;
图5示意性示出了根据本公开实施例的目标检测方法的原理图;
图6示意性示出了根据本公开实施例的目标检测模型训练装置的结构框图;
图7示意性示出了根据本公开实施例的目标检测装置的结构框图;
图8示意性示出了根据本公开实施例的适于实现目标检测模型训练方法或目标检测方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了所述特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
在本公开的实施例中,所涉及的数据(例如,包括但不限于用户个人信息)的收集、更新、分析、处理、使用、传输、提供、公开、存储等方面,均符合相关法律法规的规定,被用于合法的用途,且不违背公序良俗。特别地,对用户个人信息采取了必要措施,防止对用户个人信息数据的非法访问,维护用户个人信息安全、网络安全和国家安全。
在本公开的实施例中,在获取或采集用户个人信息之前,均获取了用户的授权或同意。
本公开的实施例提供了一种目标检测模型训练方法,包括:
利用至少一组历史场景图像以及各组历史场景图像中目标样本物体的历史位姿信息训练第一基础网络,得到经训练的单帧检测网络,其中,各组历史场景图像是按照预定时间间隔连续采集得到的,历史场景图像用于表征目标车辆的历史驾驶环境;
将至少一组历史场景图像输入单帧检测网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征样本矩阵,并将至少一组鸟瞰视角特征样本矩阵存储至数据库中;
利用至少一组鸟瞰视角特征样本矩阵,以及与至少一组历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络,得到经训练的多帧融合网络,其中,各目标历史位姿信息与各组历史场景图像中的目标历史场景图像关联,训练得到的单帧检测网络和多帧融合网络组成目标检测模型。
图1示意性示出了根据本公开实施例的目标检测模型训练方法、目标检测方法、装置、设备、介质和程序产品的应用场景图;
如图1所示,根据该实施例的应用场景100可以包括车辆101、服务器102。车辆101和服务器102之间可通过网络进行通信,网络可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
车辆101中安装有自动驾驶模块,用于引导车辆实现自动驾驶。车辆101中安装有图像采集设备,例如摄像头,用于采集车辆101行驶过程中的周围环境图像,也可安装源头雷达,用于采集车辆101周围环境点云数据。
服务器102可以是提供各种服务的服务器,例如可以是后台管理服务器,可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
在本公开实施例的应用场景下,车辆101在历史行驶过程中,通过其中安装的图像采集设备采集得到周围环境的视频流场景图像(多张连续帧)。这些图像可作为后续模型训练的样本数据。模型训练可在服务器102中进行,服务器102获取到样本场景图像,可通过执行本公开实施例的模型训练方法,基于获取的视频流图像训练得到目标检测模型。
模型训练好之后可用于辅助车辆101实现自动驾驶,例如,车辆101在自动驾驶过程中将,通过其中安装的图像采集设备采集到周围环境的视频流场景图像(连续帧),将场景图像发送至服务器102,服务器102在接收到场景图像后,可基于用户请求将场景图像输入训练好的目标检测模型,通过目标检测模型输出障碍物的位姿信息并返回至车辆101中的自动驾驶模块,以便车辆101中的自动驾驶模块根据识别到周围环境中的障碍物位姿信息辅助车辆101实现自动驾驶。
图2示意性示出了根据本公开实施例的目标检测模型训练方法的流程图。
如图2所示,该实施例的目标检测模型训练方法包括操作S201~操作S203。
在操作S201,利用至少一组历史场景图像以及各组历史场景图像中目标样本物体的历史位姿信息训练第一基础网络,得到经训练的单帧检测网络,其中,各组历史场景图像是按照预定时间间隔连续采集得到的,历史场景图像用于表征目标车辆的历史驾驶环境,目标车辆的历史驾驶环境中包括至少一个样本物体(如行人、自行车、机动车等可动障碍物)。
在操作S202,将至少一组历史场景图像输入单帧检测网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征样本矩阵,并将至少一组鸟瞰视角特征样本矩阵存储至数据库中。
在操作S203,利用至少一组鸟瞰视角特征样本矩阵,以及与至少一组历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络,得到经训练的多帧融合网络,其中,各目标历史位姿信息与各组历史场景图像中的目标历史场景图像关联,训练得到的单帧检测网络和多帧融合网络组成目标检测模型。其中,目标历史场景图像可以是各组历史场景图像中最晚时间采集的一张图像,即该组图像中的最后一张图像,可以用目标历史场景图像中目标样本物体的目标历史位姿信息作为训练第二基础网络的标签。
根据本公开的实施例,目标车辆可以是当前所关注的无人驾驶车辆,无人驾驶车辆在行驶过程中,需要得到周围环境中物体的位姿信息,通过物体的位姿信息结合其他感知信息(如红绿灯状态、道路指示信息等)实现无人车辆的自动驾驶。
在目标车辆中可以安装有图像采集设备,例如摄像头,用于采集车辆行驶过程中的周围驾驶环境图像。本公开实施例的上述训练方法训练得到的模型用于实现驾驶环境图像中的目标检测,以得到物体的位姿信息。需要说明的是,本公开实施例的上述训练方法为基于视频流,即基于多帧场景图像进行处理的方法。即,各组历史场景图像均是通过图像采集设备按照预定时间间隔连续采集得到的,不同组的历史场景图像可以是关联同一类驾驶场景,也可以是关联不同类的驾驶场景。例如,第一组历史场景图像为目标车辆于1月3日在乡村道路中行驶时连续采集得到10帧图像,第二组历史场景图像为目标车辆于1月4日在同一条乡村道路中行驶时连续采集得到10帧图像,第三组历史场景图像为目标车辆于1月4日在城市道路中行驶时连续采集得到10帧图像等等。
各组历史场景图像中目标样本物体的历史位姿信息作为各组历史场景图像的标签,用于训练第一基础网络,得到单帧检测网络。其中,目标样本物体的历史位姿信息包括:目标样本物体的中心点的历史位置坐标(Location)、目标样本物体的三维尺寸(Dimension,例如物体外接框的长、宽、高)、目标样本物体的历史方向角(Yaw),其中,历史方向角用于表征:目标样本物体的第一历史行驶方向和目标车辆的第二历史行驶方向之间的夹角。这三组位姿参数可以完全描述3D场景中的一个刚性目标物体的位姿信息。
本公开实施例中训练得到的目标检测模型在进行信息检测的过程中,首先对图像信号提取2D特征,再通过3D投影与体素池化操作将2D特征映射到鸟瞰图视角(BEV视角),得到更加直观的BEV特征,再利用一定数量的先前帧图像进行多帧融合预测,能够有效地挖掘时序特征,得到更加准确的检测结果。即,通过同时对一定数量的连续帧图像进行特征挖掘,得到多帧BEV特征图,再将其拼接起来通过后续网络,得到最终输出。
在模型训练的过程中,采用的连续帧数量越大,能越有效地挖掘时序信息,训练得到的模型预测效果更佳。但与此同时,常规训练策略中,训练时为了保证计算梯度,在多帧融合训练阶段,需要先计算得到多个先前帧的BEV特征(直接加载历史BEV特征无法体现梯度,需要在训练过程中实时推理计算),再和当前帧进行融合训练,因此,计算量较大。随着连续帧数量的提升,算法的显存、内存与运算代价也成倍提升,在现有计算硬件的限制下,无法使用很高数量的连续帧完成模型训练,而采用较少数量的连续帧训练得到的检测模型表现效果往往不佳,限制了多帧融合3D检测算法的表现。
基于此,本公开的实施例为了能缓解计算资源的限制,利用更大数量的连续帧进行模型训练,提出一种两阶段的多帧融合训练策略:即,单帧训练与多帧训练隔离的策略。
具体地,第一阶段为上述操作S201、操作S202。首先利用至少一组历史场景图像以及各组历史场景图像的标签(目标样本物体的历史位姿信息)训练单帧检测网络,并利用训练好的网络输出中间结果:鸟瞰视角特征样本矩阵特征(BEV特征),并存储在数据库中。
第二阶段为上述操作S203,直接从数据库中读取至少一组鸟瞰视角特征样本矩阵特征(BEV特征),以及数据标签(目标历史场景图像中目标样本物体的目标历史位姿信息)进行多帧融合网络的训练。
训练得到的单帧检测网络和多帧融合网络组成最终的目标检测模型,用于物体位姿信息的检测。
根据本公开的实施例,通过上述两阶段的多帧融合训练策略,在操作S201、操作S202执行第一阶段的训练,训练得到单帧检测网络,用于进行单帧特征的挖掘,并用于计算并存储BEV特征图;并通过上述操作S203执行第二阶段的训练,训练得到单帧融合网络,用于对多帧输入BEV特征进行融合与挖掘,得到最终的输出结果,完成了整体模型的训练。
由于采用分阶段训练的策略,在第一阶段无需引入多帧的处理策略,避免造成模型运算量与显存占用的成倍提升。在单帧检测网络训练完成后,通过对训练数据集的图像进行前向推理,输出每帧图像对应的BEV特征,保存的BEV特征会作为第二阶段多帧融合网络的输入,进行多帧时序特征的挖掘。通过采取将单帧与多帧训练隔离开的策略,这样就可以在多帧训练阶段省去单帧前向推理的骨干网计算,减少显存与运算量。同时,在多帧融合网络训练阶段,由于无需进行BEV特征的计算(第一阶段输出的BEV特征被预先存储),可以使用较多数量的连续帧进行模型训练,从而可以在第二阶段使用更多的连续帧提升模型表现,训练得到的模型预测效果更佳。可见,通过本公开实施例的训练方法,可降低计算量,避免对计算资源的过度消耗,并能够提升模型使用的连续帧数量,释放多帧融合策略的优势,在有限的计算硬件条件下更易取得优秀的模型表现。
根据本公开的实施例,具体地,在第二阶段利用至少一组鸟瞰视角特征样本矩阵,以及与至少一组历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络包括以下操作11~操作13。
操作11,对至少一组鸟瞰视角特征样本矩阵进行特征增强处理,得到与至少一组历史场景图像关联的至少一组特征增强样本数据.
操作12,将特征增强样本数据输入第二基础网络,输出目标历史场景图像中目标样本物体的第一预测位姿信息。
操作13,计算目标历史位姿信息和第一预测位姿信息的第一位姿误差,并基于第一位姿误差对网络参数进行调优,如此迭代,直至第一位姿误差小与第一预设阈值,得到经训练的多帧融合网络。
根据本公开的实施例,在第二阶段直接读取第一阶段输出的BEV特征对第二基础网络进行训练,由于BEV特征相比原始输入图像具有更高程度的信息抽象,因此直接对其进行特征提取往往会造成过拟合现象,导致模型表现下降。为此,本公开实施例提出配套的训练策略,对多帧输入BEV特征进行BEV视角下的数据增强,以缓解过拟合现象,提升模型表现。即,首先对对鸟瞰视角特征样本矩阵进行特征增强处理,得到特征增强样本数据,利用数据增强后的特征增强样本数据来训练第二基础网络。
根据本公开的实施例,通过提出配套的模型训练策略,引入数据增强策略,模型训练可以快速收敛,并且获得更强的泛化能力,解决过拟合问题,在现有计算资源下达到最佳的模型训练效果。
根据本公开的实施例,进一步地,对鸟瞰视角特征样本矩阵进行BEV特征增强处理可包括:对鸟瞰视角特征样本矩阵中的多个元素的进行预定类型的元素变换。
具体地,预定类型的元素变换可包括:
以预定坐标轴为基准对多个元素进行位置翻转,如,BEV视图分别沿X、Y轴的概率性翻转。
以预定中心点为基准对多个元素进行位置旋转。如,BEV视图的概率性随机旋转。
按照预定比例对多个元素的数值进行缩放变更,如,BEV视图的概率性随机缩放。
其中,每一种增强策略(预定类型的元素变换)都需要实现对与目标物体关联的目标元素进行相应的几何变换,体现在目标元素的标注值发生变化,以提高模型的泛化能力。
图3示意性示出了根据本公开实施例的目标检测模型训练方法的原理图。
以下结合图3,对本公开实施例的目标检测模型训练方法进行示例性说明。
如图3所示,在模型训练的第一阶段,利用历史场景图像以及历史场景图像中目标样本物体的历史位姿信息(样本图像+标签)训练第一基础网络。
根据本公开的实施例,在第一阶段的训练中,为了完成模型的训练,增加位姿结果输出网络。需要说明的是,本公开实施例由于采用分阶段隔离的训练策略,在第一阶段需要位姿结果输出网络辅助完成训练过程,模型训练完成后,在测试应用过程中无需位姿结果输出网络。
第一阶段的训练过程具体包括以下操作21~操作23:
操作21,将至少一组历史场景图像输入第一基础网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征训练矩阵。
如图3所示,第一基础网络包括二维特征提取层和三维特征转换映射层。基于此网络结构,通过第一基础网络输出鸟瞰视角特征训练矩阵包括:
首先,将历史场景图像输入二维特征提取层,通过二维特征提取层对图像进行二维特征提取,输出历史场景图像的二维图像场景特征;
之后,将历史场景图像的二维图像场景特征输入三维特征转换映射层,通过三维特征转换映射层输出与历史场景图像关联的鸟瞰视角特征训练矩阵。具体而言,首先对二维图像场景特征转换为三维图像场景特征,即将提取到的2D图像特征变换为3D相机视锥空间特征;之后将三维图像场景特征映射至鸟瞰图(BEV)视角,即利用体素池化根据相机视锥特征和映射后的3D相机视锥空间构建BEV空间特征,得到更加直观的BEV特征。
操作22,将至少一组鸟瞰视角特征训练矩阵输入位姿结果输出网络,输出各组历史场景图像中目标样本物体的第二预测位姿信息。
操作23,计算第二预测位姿信息和历史位姿信息的第二位姿误差,并基于第二位姿误差对网络参数进行调优,如此迭代,直至第二位姿误差小与第二预设阈值,得到经训练的单帧检测网络。
如图3所示,在完成第一阶段的训练后,将训练样本中的多个单帧样本图像分别依次输入训练好的单帧检测网络,利用单帧检测网络输出中间结果:鸟瞰视角特征样本矩阵特征(与多个单帧图像一一对应的多个BEV视角特征),并存储在数据库中。
如图3所示,在第二阶段的训练过程中,直接从数据库中读取至少一组鸟瞰视角特征样本矩阵特征(多个单帧BEV视角特征),并结合数据标签(目标历史场景图像中目标样本物体的目标历史位姿信息)进行多帧融合网络的训练。在训练过程中,采用了对BEV视角特征进行特征增强处理的策略。该阶段训练的具体方法可参考前述实施例中有关第二阶段的训练方法的描述,在此不再赘述。
本公开的另一个方面提供了一种目标检测方法,图4示意性示出了根据本公开实施例的目标检测方法的流程图。图5示意性示出了根据本公开实施例的目标检测方法的原理图。以下结合图4、图5对本公开实施例的方法进行说明。其中,在该目标检测方法中利用的单帧检测网络和多帧融合网络是利用前述实施例的目标检测模型训练方法训练得到的。
如图4所示,该实施例的目标检测方法包括操作S401~操作S403。
在操作S401,将目标场景图像输入单帧检测网络,输出与目标场景图像关联的目标鸟瞰视角特征矩阵;
在操作S402,获取与多帧先前场景图像对应的多个先前鸟瞰视角特征矩阵,其中,多帧先前场景图像是按照预定时间间隔连续采集得到的,目标场景图像的采集时间晚于多帧先前场景图像的采集时间,先前鸟瞰视角特征矩阵是通过单帧检测网络对先前场景图像处理得到的;
在操作S403,将目标鸟瞰视角特征矩阵和多个先前鸟瞰视角特征矩阵输入多帧融合网络,输出目标场景图像中目标物体的目标预测位姿信息。
在得到目标物体的目标位姿信息后,可将其返回至目标车辆中的自动驾驶模块,以便车辆中的自动驾驶模块通过物体的位姿信息结合其他感知信息(如红绿灯状态、道路指示信息等)实现无人车辆的自动驾驶。
根据本公开的实施例,上述目标检测方法为基于视频流(多帧图像)的处理策略。针对每一个当前帧的预测结果都融合了多个先前帧的预测信息,进行多帧时序特征的挖掘,以得到更加准确的预测结果。
该目标检测方法也分为两个预测阶段,在第一阶段用于单帧图像信息的提取,在第二阶段用于多帧特征的融合。
如图5所示,在第一阶段,针对每个当前帧,执行操作S401,通过单帧检测网络输出与目标场景图像关联的目标鸟瞰视角特征矩阵。具体可以是首先对图像信号提取2D特征,再通过3D投影与体素池化操作将2D特征映射到鸟瞰图视角(BEV视角),得到更加直观的当前帧BEV特征。
如图5所示,在第二阶段,进行特征融合处理前,首先通过操作S402,获取与多帧先前场景图像对应的多个先前鸟瞰视角特征矩阵(先前帧BEV特征),之后,执行操作S403,将第一阶段输出的当前帧BEV特征和获取到的多个先前帧BEV特征通过多帧融合网络进行特征融合,更好地挖掘时序特征,输出目标场景图像中目标物体的目标预测位姿信息。
其中,在第一阶段,针对每个当前帧得到其目标鸟瞰视角特征矩阵(BEV特征)后,可以将BEV特征存储在数据库中,便于后续处理过程的调用。由于每个当前帧的BEV特征都被及时存储在数据库中,随着时间的推移,数据库中存储了大量先前帧的BEV特征结果。在模型的应用阶段,因模型已经得到了充分的训练,无需考虑计算梯度的要求,在后续帧的融合处理阶段中,直接调用先前帧的BEV特征结果,也可以得到较佳的预测效果,如此,省去了针对每个先前帧再进行推理计算的过程,降低了计算机资源的消耗,便于快速得出预测结果,在自动驾驶这种时效性要求较高的场景下,该方法具有更好的实用性。
基于上述目标检测模型训练方法,本公开还提供了一种目标检测模型训练装置。以下将结合图6对该装置进行详细描述。
图6示意性示出了根据本公开实施例的目标检测模型训练装置的结构框图。
如图6所示,该实施例的目标检测模型训练装置600,包括第一训练模块601、输出模块602、第二训练模块603。
其中,第一训练模块601,用于利用至少一组历史场景图像以及各组历史场景图像中目标样本物体的历史位姿信息训练第一基础网络,得到经训练的单帧检测网络,其中,各组历史场景图像是按照预定时间间隔连续采集得到的,历史场景图像用于表征目标车辆的历史驾驶环境。
输出模块602,用于将至少一组历史场景图像输入单帧检测网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征样本矩阵,并将至少一组鸟瞰视角特征样本矩阵存储至数据库中。
第二训练模块603,用于利用至少一组鸟瞰视角特征样本矩阵,以及与至少一组历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络,得到经训练的多帧融合网络,其中,各目标历史位姿信息与各组历史场景图像中的目标历史场景图像关联,训练得到的单帧检测网络和多帧融合网络组成目标检测模型。
根据本公开的实施例,通过上述目标检测模型训练装置600可实现两阶段的多帧融合训练策略,通过第一训练模块601、输出模块602执行第一阶段的训练,训练得到单帧检测网络,用于进行单帧特征的挖掘,并用于计算并存储BEV特征图;并通过第二训练模块603执行第二阶段的训练,训练得到单帧融合网络,用于对多帧输入BEV特征进行融合与挖掘,得到最终的输出结果,完成了整体模型的训练。
由于采用分阶段训练的策略,在第一阶段通过第一训练模块601执行的过程中无需引入多帧的处理策略,避免造成模型运算量与显存占用的成倍提升。在单帧检测网络训练完成后,通过输出模块602对训练数据集的图像进行前向推理,输出每帧图像对应的BEV特征,保存的BEV特征会作为第二阶段多帧融合网络的输入,通过第二训练模块603进行多帧时序特征的挖掘。通过采取将单帧与多帧训练隔离开的策略,这样就可以在多帧训练阶段省去单帧前向推理的骨干网计算,减少显存与运算量。同时,在第二训练模块603执行多帧融合网络训练阶段,由于无需进行BEV特征的计算(第一阶段输出的BEV特征被预先存储),可以使用较多数量的连续帧进行模型训练,从而可以在第二阶段使用更多的连续帧提升模型表现,训练得到的模型预测效果更佳,可降低计算量,避免对计算资源的过度消耗,并能够提升模型使用的连续帧数量,释放多帧融合策略的优势,在有限的计算硬件条件下更易取得优秀的模型表现。
根据本公开的实施例,其中,第二训练模块603包括特征增强单元、第一输出单元、第一计算单元。
其中,特征增强单元,用于对至少一组鸟瞰视角特征样本矩阵进行特征增强处理,得到与至少一组历史场景图像关联的至少一组特征增强样本数据;第一输出单元,用于将特征增强样本数据输入第二基础网络,输出目标历史场景图像中目标样本物体的第一预测位姿信息;第一计算单元,用于计算目标历史位姿信息和第一预测位姿信息的第一位姿误差,直至第一位姿误差小与第一预设阈值,得到经训练的多帧融合网络。
根据本公开的实施例,其中:特征增强单元包括特征增强子单元,用于对鸟瞰视角特征样本矩阵中的多个元素的进行预定类型的元素变换,预定类型的元素变换包括以下之一:以预定坐标轴为基准对多个元素进行位置翻转、以预定中心点为基准对多个元素进行位置旋转、按照预定比例对多个元素的数值进行缩放变更。
根据本公开的实施例,其中,第一训练模块601包括第二输出单元、第三输出单元、第二计算单元。
其中,第二输出单元,用于将至少一组历史场景图像输入第一基础网络,输出与至少一组历史场景图像关联的至少一组鸟瞰视角特征训练矩阵;第三输出单元,用于将至少一组鸟瞰视角特征训练矩阵输入位姿结果输出网络,输出各组历史场景图像中目标样本物体的第二预测位姿信息;第二计算单元,用于计算第二预测位姿信息和历史位姿信息的第二位姿误差,直至第二位姿误差小与第二预设阈值,得到经训练的单帧检测网络。
根据本公开的实施例,其中,第一基础网络包括二维特征提取层和三维特征转换映射层。
第二输出单元包括二维特征提取子单元、特征转换映射子单元。
其中,二维特征提取子单元,用于将历史场景图像输入二维特征提取层,输出历史场景图像的二维图像场景特征;特征转换映射子单元,用于将历史场景图像的二维图像场景特征输入三维特征转换映射层,输出与历史场景图像关联的鸟瞰视角特征训练矩阵。
根据本公开的实施例,其中,目标样本物体的历史位姿信息包括:目标样本物体的中心点的历史位置坐标、目标样本物体的三维尺寸、目标样本物体的历史方向角,其中,历史方向角用于表征:目标样本物体的第一历史行驶方向和目标车辆的第二历史行驶方向之间的夹角。
图7示意性示出了根据本公开实施例的目标检测装置的结构框图。
如图7所示,该实施例目标检测装置700,包括单帧检测模块701、获取模块702、多帧融合模块703。
其中,单帧检测模块701,用于将目标场景图像输入单帧检测网络,输出与目标场景图像关联的目标鸟瞰视角特征矩阵。
获取模块702,用于获取与多帧先前场景图像对应的多个先前鸟瞰视角特征矩阵,其中,多帧先前场景图像是按照预定时间间隔连续采集得到的,目标场景图像的采集时间晚于多帧先前场景图像的采集时间,先前鸟瞰视角特征矩阵是通过单帧检测网络对先前场景图像处理得到的。
多帧融合模块703,用于将目标鸟瞰视角特征矩阵和多个先前鸟瞰视角特征矩阵输入多帧融合网络,输出目标场景图像中目标物体的目标预测位姿信息,其中,单帧检测网络和多帧融合网络是利用上述目标检测模型训练方法训练得到的。
根据本公开的实施例,上述装置还包括存储模块,用于将目标鸟瞰视角特征矩阵存储至数据库中。
根据本公开的实施例,第一训练模块601、输出模块602、第二训练模块603,或者单帧检测模块701、获取模块702、多帧融合模块70中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。根据本公开的实施例,第一训练模块601、输出模块602、第二训练模块603,或者单帧检测模块701、获取模块702、多帧融合模块70中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,第一训练模块601、输出模块602、第二训练模块603,或者单帧检测模块701、获取模块702、多帧融合模块70中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图8示意性示出了根据本公开实施例的适于实现目标检测模型训练方法或目标检测方法的电子设备的方框图。
如图8所示,根据本公开实施例的电子设备800包括处理器801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。处理器801例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器801还可以包括用于缓存用途的板载存储器。处理器801可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 803中,存储有电子设备800操作所需的各种程序和数据。处理器801、ROM802以及RAM 803通过总线804彼此相连。处理器801通过执行ROM 802和/或RAM 803中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,所述程序也可以存储在除ROM 802和RAM 803以外的一个或多个存储器中。处理器801也可以通过执行存储在所述一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备800还可以包括输入/输出(I/O)接口805,输入/输出(I/O)接口805也连接至总线804。电子设备800还可以包括连接至输入/输出(I/O)接口805的以下部件中的一项或多项:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至输入/输出(I/O)接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的;也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 802和/或RAM 803和/或ROM 802和RAM 803以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的目标检测模型训练方法或目标检测方法。
在该计算机程序被处理器801执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分809被下载和安装,和/或从可拆卸介质811被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被处理器801执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。
Claims (13)
1.一种目标检测模型训练方法,包括:
利用至少一组历史场景图像以及各组所述历史场景图像中目标样本物体的历史位姿信息训练第一基础网络,得到经训练的单帧检测网络,其中,各组所述历史场景图像是按照预定时间间隔连续采集得到的,所述历史场景图像用于表征目标车辆的历史驾驶环境;
将至少一组所述历史场景图像输入所述单帧检测网络,输出与至少一组所述历史场景图像关联的至少一组鸟瞰视角特征样本矩阵,并将所述至少一组鸟瞰视角特征样本矩阵存储至数据库中;
利用所述至少一组鸟瞰视角特征样本矩阵,以及与至少一组所述历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络,得到经训练的多帧融合网络,其中,各所述目标历史位姿信息与各组所述历史场景图像中的目标历史场景图像关联,训练得到的所述单帧检测网络和所述多帧融合网络组成目标检测模型。
2.根据权利要求1所述的方法,其中,利用所述至少一组鸟瞰视角特征样本矩阵,以及与至少一组所述历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络包括:
对所述至少一组鸟瞰视角特征样本矩阵进行特征增强处理,得到与所述至少一组历史场景图像关联的至少一组特征增强样本数据;
将所述特征增强样本数据输入第二基础网络,输出所述目标历史场景图像中目标样本物体的第一预测位姿信息;
计算所述目标历史位姿信息和所述第一预测位姿信息的第一位姿误差,直至所述第一位姿误差小与第一预设阈值,得到经训练的多帧融合网络。
3.根据权利要求2所述的方法,其中:
对所述鸟瞰视角特征样本矩阵进行特征增强处理包括:对所述鸟瞰视角特征样本矩阵中的多个元素的进行预定类型的元素变换,所述预定类型的元素变换包括以下之一:以预定坐标轴为基准对所述多个元素进行位置翻转、以预定中心点为基准对所述多个元素进行位置旋转、按照预定比例对所述多个元素的数值进行缩放变更。
4.根据权利要求1所述的方法,其中,利用至少一组历史场景图像以及各组所述历史场景图像中目标样本物体的历史位姿信息训练第一基础网络包括:
将所述至少一组历史场景图像输入所述第一基础网络,输出与至少一组所述历史场景图像关联的至少一组鸟瞰视角特征训练矩阵;
将所述至少一组鸟瞰视角特征训练矩阵输入位姿结果输出网络,输出各组所述历史场景图像中目标样本物体的第二预测位姿信息;
计算所述第二预测位姿信息和所述历史位姿信息的第二位姿误差,直至所述第二位姿误差小与第二预设阈值,得到经训练的单帧检测网络。
5.根据权利要求4所述的方法,其中,所述第一基础网络包括二维特征提取层和三维特征转换映射层;
将所述至少一组历史场景图像输入所述第一基础网络,输出与至少一组所述历史场景图像关联的至少一组鸟瞰视角特征训练矩阵包括:
将所述历史场景图像输入所述二维特征提取层,输出所述历史场景图像的二维图像场景特征;
将所述历史场景图像的二维图像场景特征输入所述三维特征转换映射层,输出与所述历史场景图像关联的鸟瞰视角特征训练矩阵。
6.根据权利要求1所述的方法,其中,
所述目标样本物体的历史位姿信息包括:所述目标样本物体的中心点的历史位置坐标、所述目标样本物体的三维尺寸、所述目标样本物体的历史方向角,其中,所述历史方向角用于表征:所述目标样本物体的第一历史行驶方向和所述目标车辆的第二历史行驶方向之间的夹角。
7.一种目标检测方法,包括:
将目标场景图像输入单帧检测网络,输出与所述目标场景图像关联的目标鸟瞰视角特征矩阵;
获取与多帧先前场景图像对应的多个先前鸟瞰视角特征矩阵,其中,所述多帧先前场景图像是按照预定时间间隔连续采集得到的,所述目标场景图像的采集时间晚于所述多帧先前场景图像的采集时间,所述先前鸟瞰视角特征矩阵是通过所述单帧检测网络对所述先前场景图像处理得到的;
将所述目标鸟瞰视角特征矩阵和所述多个先前鸟瞰视角特征矩阵输入多帧融合网络,输出所述目标场景图像中目标物体的目标预测位姿信息,其中,所述单帧检测网络和所述多帧融合网络是利用权利要求1~6中所述的方法训练得到的。
8.根据权利要求7所述的方法,还包括:
将所述目标鸟瞰视角特征矩阵存储至数据库中。
9.一种目标检测模型训练装置,包括:
第一训练模块,用于利用至少一组历史场景图像以及各组所述历史场景图像中目标样本物体的历史位姿信息训练第一基础网络,得到经训练的单帧检测网络,其中,各组所述历史场景图像是按照预定时间间隔连续采集得到的,所述历史场景图像用于表征目标车辆的历史驾驶环境;
输出模块,用于将至少一组所述历史场景图像输入所述单帧检测网络,输出与至少一组所述历史场景图像关联的至少一组鸟瞰视角特征样本矩阵,并将所述至少一组鸟瞰视角特征样本矩阵存储至数据库中;
第二训练模块,用于利用所述至少一组鸟瞰视角特征样本矩阵,以及与至少一组所述历史场景图像关联的至少一个目标历史位姿信息训练第二基础网络,得到经训练的多帧融合网络,其中,各所述目标历史位姿信息与各组所述历史场景图像中的目标历史场景图像关联,训练得到的所述单帧检测网络和所述多帧融合网络组成目标检测模型。
10.一种目标检测装置,包括:
单帧检测模块,用于将目标场景图像输入单帧检测网络,输出与所述目标场景图像关联的目标鸟瞰视角特征矩阵;
获取模块,用于获取与多帧先前场景图像对应的多个先前鸟瞰视角特征矩阵,其中,所述多帧先前场景图像是按照预定时间间隔连续采集得到的,所述目标场景图像的采集时间晚于所述多帧先前场景图像的采集时间,所述先前鸟瞰视角特征矩阵是通过所述单帧检测网络对所述先前场景图像处理得到的;
多帧融合模块,用于将所述目标鸟瞰视角特征矩阵和所述多个先前鸟瞰视角特征矩阵输入多帧融合网络,输出所述目标场景图像中目标物体的目标预测位姿信息,其中,所述单帧检测网络和所述多帧融合网络是利用权利要求1~6中所述的方法训练得到的。
11.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~6或7~8中任一项所述的方法。
12.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~6或7~8中任一项所述的方法。
13.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1~6或7~8中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310317602.9A CN116452911A (zh) | 2023-03-29 | 2023-03-29 | 目标检测模型训练方法及装置、目标检测方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310317602.9A CN116452911A (zh) | 2023-03-29 | 2023-03-29 | 目标检测模型训练方法及装置、目标检测方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116452911A true CN116452911A (zh) | 2023-07-18 |
Family
ID=87126701
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310317602.9A Pending CN116452911A (zh) | 2023-03-29 | 2023-03-29 | 目标检测模型训练方法及装置、目标检测方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116452911A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117392396A (zh) * | 2023-12-08 | 2024-01-12 | 安徽蔚来智驾科技有限公司 | 跨模态目标状态的检测方法、设备、智能设备和介质 |
-
2023
- 2023-03-29 CN CN202310317602.9A patent/CN116452911A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117392396A (zh) * | 2023-12-08 | 2024-01-12 | 安徽蔚来智驾科技有限公司 | 跨模态目标状态的检测方法、设备、智能设备和介质 |
CN117392396B (zh) * | 2023-12-08 | 2024-03-05 | 安徽蔚来智驾科技有限公司 | 跨模态目标状态的检测方法、设备、智能设备和介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102523886B1 (ko) | 스몰 타깃 검출 방법 및 장치 | |
US10650236B2 (en) | Road detecting method and apparatus | |
US11482014B2 (en) | 3D auto-labeling with structural and physical constraints | |
EP4152204A1 (en) | Lane line detection method, and related apparatus | |
KR102539942B1 (ko) | 궤적 계획 모델을 훈련하는 방법, 장치, 전자 기기, 저장 매체 및 프로그램 | |
CN111461981B (zh) | 点云拼接算法的误差估计方法和装置 | |
CN115540896B (zh) | 路径规划方法、装置、电子设备和计算机可读介质 | |
CN112258519A (zh) | 一种高精度地图制作中道路的让行线自动化提取方法及装置 | |
EP4307219A1 (en) | Three-dimensional target detection method and apparatus | |
CN116452911A (zh) | 目标检测模型训练方法及装置、目标检测方法及装置 | |
US11651191B2 (en) | Methods, apparatuses, and computer program products using a repeated convolution-based attention module for improved neural network implementations | |
CN115249266A (zh) | 航路点位置预测方法、系统、设备及存储介质 | |
CN115144868A (zh) | 一种适用于端到端自动驾驶的感知及导航定位融合的方法 | |
CN111382695A (zh) | 用于检测目标的边界点的方法和装置 | |
US11699234B2 (en) | Semantic segmentation ground truth correction with spatial transformer networks | |
CN116844129A (zh) | 多模态特征对齐融合的路侧目标检测方法、系统及装置 | |
CN117372991A (zh) | 基于多视角多模态融合的自动驾驶方法及系统 | |
CN114802261A (zh) | 泊车控制方法、障碍物识别模型训练方法、装置 | |
Sharma et al. | Deep Learning-Based Object Detection and Classification for Autonomous Vehicles in Different Weather Scenarios of Quebec, Canada | |
CN114627400A (zh) | 一种车道拥堵检测方法、装置、电子设备和存储介质 | |
CN115507873B (zh) | 基于公交车尾红绿灯的路径规划方法、装置、设备和介质 | |
CN114419338B (zh) | 图像处理方法、装置、计算机设备和存储介质 | |
CN114898585B (zh) | 基于路口多视角的车辆轨迹预测规划方法及系统 | |
CN116740682B (zh) | 车辆泊入路线信息生成方法、装置、电子设备和可读介质 | |
CN111383337B (zh) | 用于识别对象的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |