CN113033715A - 目标检测模型训练方法和目标车辆检测信息生成方法 - Google Patents

目标检测模型训练方法和目标车辆检测信息生成方法 Download PDF

Info

Publication number
CN113033715A
CN113033715A CN202110562119.8A CN202110562119A CN113033715A CN 113033715 A CN113033715 A CN 113033715A CN 202110562119 A CN202110562119 A CN 202110562119A CN 113033715 A CN113033715 A CN 113033715A
Authority
CN
China
Prior art keywords
feature
sample
sample image
information
detection information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110562119.8A
Other languages
English (en)
Other versions
CN113033715B (zh
Inventor
王刚
黄立宏
倪凯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Heduo Technology Guangzhou Co ltd
Original Assignee
HoloMatic Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by HoloMatic Technology Beijing Co Ltd filed Critical HoloMatic Technology Beijing Co Ltd
Priority to CN202110562119.8A priority Critical patent/CN113033715B/zh
Publication of CN113033715A publication Critical patent/CN113033715A/zh
Application granted granted Critical
Publication of CN113033715B publication Critical patent/CN113033715B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Abstract

本公开的实施例公开了目标检测模型训练方法和目标车辆检测信息生成方法。该方法的一具体实施方式包括:对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像,其中,训练样本包括预标注的样本图像和样本标签组;将样本标签组、第一样本图像和第二样本图像输入至待训练目标检测模型,得到检测信息;对检测信息进行重复性校验,得到校验后的检测信息;对校验后的检测信息进行融合校验,得到融合校验后的检测信息;基于融合校验后的检测信息和样本标签组,生成损失值;响应于确定损失值不满足预定条件,调整待训练目标检测模型中的相关参数。该实施方式可以提高目标检测的效率。

Description

目标检测模型训练方法和目标车辆检测信息生成方法
技术领域
本公开的实施例涉及计算机技术领域,具体涉及目标检测模型训练方法、装置、电子设备和计算机可读介质。
背景技术
目标检测模型,是用于自动驾驶领域的一项基础检测技术。目前,常用的方法是将路况图像作为模型训练的样本进行目标检测模型的训练。
然而,当采用上述方式进行目标检测模型训练时,经常会存在如下技术问题:
第一,对分辨率较高的图像进行目标检测,会产生较多的图像特征信息,导致目标检测效率的降低,从而,导致影响目标检测的实时性,使得目标检测模型不能较好地应用于对数据实时性要求较高的自动驾驶领域;
第二,对分辨率较低的图像中的目标进行目标检测时,由于目标在图形中占据的像素点较少、分辨率较低,从而,导致容易出现一个目标对应多个检测结果的情况,进而降低目标检测的准确性。
发明内容
本公开的内容部分用于以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。本公开的内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
本公开的一些实施例提出了目标检测模型训练方法、装置、电子设备和计算机可读介质,来解决以上背景技术部分提到的技术问题中的一项或多项。
第一方面,本公开的一些实施例提供了一种目标检测模型训练方法,该方法包括:对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像,其中,上述训练样本包括上述预标注的样本图像和样本标签组;将上述样本标签组、上述第一样本图像和上述第二样本图像输入至待训练目标检测模型,得到检测信息;对上述检测信息进行重复性校验,得到校验后的检测信息;对上述校验后的检测信息进行融合校验,得到融合校验后的检测信息;基于上述融合校验后的检测信息和上述样本标签组,生成损失值;响应于确定上述损失值不满足预定条件,调整上述待训练目标检测模型中的相关参数。
在一些实施例中,其中,所述基于所述特征中心点坐标值的损失值、所述特征中心点坐标偏移量的损失值、所述分类损失值、所述预测损失值、所述特征区域预测宽度值和特征区域预测高度值的损失值,生成所述损失值,包括:
基于所述特征中心点坐标值的损失值、所述特征中心点坐标偏移量的损失值、所述分类损失值、所述预测损失值、所述特征区域预测宽度值和特征区域预测高度值的损失值,通过以下公式生成所述损失值:
Figure 98797DEST_PATH_IMAGE001
其中,
Figure 579719DEST_PATH_IMAGE002
表示所述损失值,
Figure 421773DEST_PATH_IMAGE003
表示所述特征中心点坐标值的损失值,
Figure 613720DEST_PATH_IMAGE004
表示所述特征区域预测宽度值和特征区域预测高度值的损失值,
Figure 490409DEST_PATH_IMAGE005
表示所述特征中心点坐标偏移量的损失值,
Figure 375189DEST_PATH_IMAGE006
表示所述分类损失值,
Figure 203074DEST_PATH_IMAGE007
表示所述预测损失值,
Figure 198712DEST_PATH_IMAGE008
表示所述特征信息组中特征信息的数量,
Figure 664328DEST_PATH_IMAGE009
表示预设的尺寸权重,
Figure 720009DEST_PATH_IMAGE010
表示预设的偏移量权重,
Figure 38120DEST_PATH_IMAGE011
表示预设的分类损失值权重,
Figure 571870DEST_PATH_IMAGE012
表示预设的预测损失值权重。
第二方面,本公开的一些实施例提供了一种目标检测模型训练装置,装置包括:图像处理单元,被配置成对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像,其中,上述训练样本包括上述预标注的样本图像和样本标签组;输入单元,被配置成将上述样本标签组、上述第一样本图像和上述第二样本图像输入至待训练目标检测模型,得到检测信息;重复性校验单元,被配置成对上述检测信息进行重复性校验,得到校验后的检测信息;融合校验单元,被配置成对上述校验后的检测信息进行融合校验,得到融合校验后的检测信息;生成单元,被配置成基于上述融合校验后的检测信息和上述样本标签组,生成损失值;调整单元,被配置成响应于确定上述损失值不满足预定条件,调整上述待训练目标检测模型中的相关参数。
第三方面,本公开的一些实施例提供了一种目标车辆检测信息生成方法,包括:获取车辆车载相机拍摄的场景图;将上述场景图输入至目标检测模型中,以生成目标车辆检测信息,其中,上述目标检测模型通过如上述目标检测模型训练方法生成。
第四方面,本公开的一些实施例提供了一种目标车辆检测信息生成装置,包括:获取单元,被配置成获取车辆车载相机拍摄的场景图;生成单元,被配置成将上述场景图输入至目标检测模型中,以生成目标车辆检测信息,其中,上述目标检测模型通过如上述目标检测模型训练方法生成。
第五方面,本公开的一些实施例提供了一种电子设备,包括:一个或多个处理器;存储装置,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述第一方面任一实现方式所描述的方法。
第六方面,本公开的一些实施例提供了一种计算机可读介质,其上存储有计算机程序,其中,程序被处理器执行时实现上述第一方面任一实现方式所描述的方法。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的目标检测模型训练方法,可以缩短目标检测的时间,提高目标检测的实时性。具体来说,造成降低目标检测实时性的原因在于:对分辨率较高的图像进行目标检测,会产生较多的图像特征信息,导致目标检测效率的降低。基于此,本公开的一些实施例的目标检测模型训练方法,首先,考虑了存在图像分辨率较高的因素。因此,引入了第一样本图像和第二样本图像。其中,第一样本图像和第二样本图像可以是通过对同一样本图像(例如,分辨率较高的图像)进行不同的图像处理后生成的不同属性(例如,像素、分辨率、大小、颜色等属性)的图像。然后,利用第一样本图像和第二样本图像训练目标检测模型,使得目标检测模型可以从不同属性方向对样本图像进行目标检测。之后,对上述检测信息进行重复性校验,得到校验后的检测信息。可以避免从不同属性方向对样本图像进行目标检测时产生重复的图像特征。从而,可以从减少重复图像特征的方面提高目标检测的效率。而后,对上述校验后的检测信息进行融合校验,得到融合校验后的检测信息。通过对不同属性方向的样本图像目标检测后产生的图像特征进行融合校验,可以使融合校验后的检测信息同时具有不同属性方向的样本图像的图像特征。因此,融合校验后的检测信息可以用于表征目标检测模型对上述样本图像检测的结果。上述实现方式可以利用不同属性方向的样本图像替代图像分辨率较高得图像进行目标检测,减少产生的图像的特征信息,提高目标检测的效率。从而,可以提高目标检测的实时性。进而,使得目标检测模型可以较好地应用于自动驾驶领域。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,元件和元素不一定按照比例绘制。
图1是本公开的一些实施例的目标检测模型训练方法的一个应用场景的示意图;
图2是本公开的一些实施例的目标车辆检测信息生成方法的一个应用场景的示意图;
图3是根据本公开的目标检测模型训练方法的一些实施例的流程图;
图4是根据本公开的目标检测模型训练方法的另一些实施例的流程图;
图5是根据本公开的目标车辆检测信息生成方法的一些实施例的流程图;
图6是根据本公开的目标检测模型训练装置的一些实施例的结构示意图;
图7是适于用来实现本公开的一些实施例的电子设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例。相反,提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面将参考附图并结合实施例来详细说明本公开。
图1是本公开的一些实施例的障碍物信息生成方法的一个应用场景的示意图。
在图1的应用场景中,首先,计算设备101可以对训练样本102包括的预标注的样本图像1021进行图像处理,得到第一样本图像103和第二样本图像104,其中,上述训练样本102包括上述预标注的样本图像1021和样本标签组1022。接着,计算设备101可以将上述样本标签组1022、上述第一样本图像103和上述第二样本图像104输入至待训练目标检测模型105,得到检测信息106。然后,计算设备101可以对上述检测信息106进行重复性校验,得到校验后的检测信息107。而后,计算设备101可以对上述校验后的检测信息107进行融合校验,得到融合校验后的检测信息108。之后,计算设备101可以基于上述融合校验后的检测信息108和上述样本标签组1022,生成损失值109。最后,计算设备101可以响应于确定上述损失值109不满足预定条件,调整上述待训练目标检测模型105中的相关参数。
需要说明的是,上述计算设备101可以是硬件,也可以是软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以安装在上述所列举的硬件设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的计算设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的计算设备。
下面参考图2,图2是本公开的一些实施例的目标车辆检测信息生成方法的一个应用场景的示意图。
在图2的应用场景中,首先,计算设备201可以获取车辆车载相机拍摄的场景图202。然后,计算设备201可以将上述场景图202输入至目标检测模型203中,以生成目标车辆检测信息204,其中,上述目标检测模型203通过上述目标检测模型训练方法生成。
需要说明的是,上述计算设备201可以是硬件,也可以是软件,也可以是与上述计算设备101相同的硬件或软件。当计算设备为硬件时,可以实现成多个服务器或终端设备组成的分布式集群,也可以实现成单个服务器或单个终端设备。当计算设备体现为软件时,可以安装在上述所列举的硬件设备中。其可以实现成例如用来提供分布式服务的多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图2中的计算设备的数目仅仅是示意性的。根据实现需要,可以具有任意数目的计算设备。
继续参考图3,示出了根据本公开的目标检测模型训练方法的一些实施例的流程300。该目标检测模型训练方法的流程300,包括以下步骤:
步骤301,对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像。
在一些实施例中,目标检测模型训练方法的执行主体(如图1所示的计算设备101)可以对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像。其中,上述训练样本包括上述预标注的样本图像和样本标签组。上述训练样本可以是预先获取的训练样本。上述预标注的样本图像可以是带有标记框的图像。该标记框可以是人工标记的。上述图像处理可以是通过缩放算法(例如,线性差值算法、最近邻算法等)对图像进行缩放。上述第一样本图像和第二样本图像可以分别表征通过不同的缩放算法对上述预标注的样本图像进行处理后得到的样本图像。
在一些实施例的一些可选的实现方式中,上述执行主体对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像,可以包括以下步骤:
第一步,对训练样本包括的预标注的样本图像进行图像缩放处理,得到第一样本图像。其中,可以利用缩放函数(例如,resize(尺度函数))对上述样本图像进行图像缩放处理。
若样本图像的分辨率较高,那么缩放处理后的图像也可以具有较高的分辨率。例如,图像中存在一些大型目标(例如,距离拍摄装置较近的物体)。由于图像分辨率较高(例如,分辨率大于800),直接处理会产生较多的图像特征(例如,容易检测出较多的特征点)。因此会导致样本图像目标检测的效率降低。由此,可以通过图像缩放的方式,降低图像的分辨率和图像大小等图像属性。提升目标检测的效率。
第二步,对上述训练样本包括的预标注的样本图像进行图像裁剪处理,得到第二样本图像。其中,可以利用图像裁剪函数(例如,crop,裁剪函数)对上述样本图像进行图像裁剪处理。
若样本图像的分辨率不高,样本图像中的待检测目标(例如,车辆)所占据的像素点也较少。那么,由于待检测目标较小(例如,车辆距离较远导致车辆在图像中占据的像素点较少),待检测目标的图像特征也相对较少,对此种样本图像进行目标检测容易产生较多干扰特征。需要进行较多的处理步骤减少干扰特征。因此会导致降低目标检测的效率。由此,可以通过图像裁剪的方式,裁剪去样本图像中不属于待检测目标的部分。从而减少干扰特征的生成。进而提升目标检测的效率。
步骤302,将样本标签组、第一样本图像和第二样本图像输入至待训练目标检测模型,得到检测信息。
在一些实施例中,上述执行主体可以将上述样本标签组、上述第一样本图像和上述第二样本图像输入至待训练目标检测模型,得到检测信息。其中,上述样本标签组中的样本标签可以用于表征预标注的样本图像中标记框所标记图像的属性(例如,图像的分辨率,大小,颜色等),也可以用于表征标记框中图像区域的物体信息(例如,车辆型号)。上述样本标签组中样本标签的数量可以用于表征上述预标注的样本图像中标记框的数量(即,也可以表征该样本图像中物体信息的数量)。上述待训练目标检测模型可以是深度学习模型(例如,卷积神经网络)。上述检测信息可以包括上述待训练目标检测模型对上述第一样本图像和第二样本图像的检测结果。
步骤303,对检测信息进行重复性校验,得到校验后的检测信息。
在一些实施例中,上述执行主体可以对上述检测信息进行重复性校验,得到校验后的检测信息。其中,上述重复性校验可以是通过重复性校验算法(例如,RelationNetwork,关联网络算法)去除检测信息中重复的特征信息。
步骤304,对校验后的检测信息进行融合校验,得到融合校验后的检测信息。
在一些实施例中,上述执行主体可以对上述校验后的检测信息进行融合校验,得到融合校验后的检测信息。上述融合校验可以是通过特征融合校验的算法(例如,非极大抑制算法)对上述校验后的检测信息进行融合校验,得到融合校验后的检测信息。
步骤305,基于融合校验后的检测信息和样本标签组,生成损失值。
在一些实施例中,上述执行主体可以基于上述融合校验后的检测信息和上述样本标签组,生成损失值。其中,上述融合校验后的检测信息可以包括多个检测框的角点坐标值。该角点坐标值可以是检测框的左上角或右上角在图像坐标系中的坐标值。该图像坐标系可以是以图像的任意一个角为原点,过原点以图像的两条边为横轴和纵轴建立的。上述样本标签组中的样本标签可以包括预标注的检测框的角点坐标值。由此,可以确定对应属性的检测框的角点坐标值的距离值,以此作为该检测框的损失值。最后可以将各个检测框的损失值的平均值确定为上述损失值。
步骤306,响应于确定损失值不满足预定条件,调整待训练目标检测模型中的相关参数。
在一些实施例中,上述执行主体可以响应于确定上述损失值不满足预定条件,调整上述待训练目标检测模型中的相关参数。其中,上述预定条件可以是损失值小于预设阈值(例如,0.1)。损失值不满足预定条件可以表上述征待训练目标检测模型未训练完成。
可选地,响应于确定上述损失值满足上述预定条件,将上述待训练目标检测模型确定为目标检测模型。其中,上述损失值满足上述预定条件,可以表征上述待训练目标检测模型训练完成。
本公开的上述各个实施例具有如下有益效果:通过本公开的一些实施例的目标检测模型训练方法,可以缩短目标检测的时间,提高目标检测的实时性。具体来说,造成降低目标检测实时性的原因在于:对分辨率较高的图像进行目标检测,会产生较多的图像特征信息,导致目标检测效率的降低。基于此,本公开的一些实施例的目标检测模型训练方法,首先,考虑了存在图像分辨率较高的因素。因此,引入了第一样本图像和第二样本图像。其中,第一样本图像和第二样本图像可以是通过对同一样本图像(例如,分辨率较高的图像)进行不同的图像处理后生成的不同属性(例如,像素、分辨率、大小、颜色等属性)的图像。然后,利用第一样本图像和第二样本图像训练目标检测模型,使得目标检测模型可以从不同属性方向对样本图像进行目标检测。之后,对上述检测信息进行重复性校验,得到校验后的检测信息。可以避免从不同属性方向对样本图像进行目标检测时产生重复的图像特征。从而,可以从减少重复图像特征的方面提高目标检测的效率。而后,对上述校验后的检测信息进行融合校验,得到融合校验后的检测信息。通过对不同属性方向的样本图像目标检测后产生的图像特征进行融合校验,可以使融合校验后的检测信息同时具有不同属性方向的样本图像的图像特征。因此,融合校验后的检测信息可以用于表征目标检测模型对上述样本图像检测的结果。上述实现方式可以利用不同属性方向的样本图像替代图像分辨率较高得图像进行目标检测,减少产生的图像的特征信息,提高目标检测的效率。从而,可以提高目标检测的实时性。进而,使得目标检测模型可以较好地应用于自动驾驶领域。
进一步参考图4,其示出了目标检测模型训练方法的另一些实施例的流程400,该目标检测模型训练方法的流程400,包括以下步骤:
步骤401,对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像。
在一些实施例中,步骤401的具体实现方式及所带来的技术效果可以参考图3对应的那些实施例中的步骤301,在此不再赘述。
步骤402,将样本标签组和第一样本图像输入至待训练目标检测模型包括的第一目标检测网络中,得到第一检测信息。
在一些实施例中,上述执行主体(如图1所示的计算设备101)可以将上述样本标签组和上述第一样本图像输入至上述待训练目标检测模型包括的第一目标检测网络中,得到第一检测信息。其中,上述待训练目标检测模型可以包括第一目标检测网络和第二目标检测网络,上述检测信息可以包括第一检测信息和第二检测信息。上述第一检测信息可以用于表征上述第一目标检测网络对上述第一样本图像检测的结果。
在一些实施例的一些可选的实现方式中,上述第一目标检测网络可以包括区域候选子网络、分类模块和目标数目个卷积层。上述执行主体将样本标签组和第一样本图像输入至待训练目标检测模型包括的第一目标检测网络中,得到第一检测信息,可以包括以下步骤:
第一步,利用上述目标数目个卷积层,对上述第一样本图像进行下采样,得到第一下采样特征图组。其中,上述目标数目个卷积层可以是预设的卷积层数。例如,4层卷积层。
第二步,对上述第一下采样特征图组中满足第一预设条件的第一下采样特征图进行上采样,得到第一上采样特征图组。其中,上述第一预设条件可以是:下采样的倍数为预设倍数阈值组的第一下采样特征图。例如,下采样预设倍数阈值组为:[8,16,32]。最终,可以通过线性插值的方法对上述第一下采样特征图组中下采样倍数分别为[8,16,32]的第一下采样特征图进行上采样。
第三步,将上述第一上采样特征图组中分辨率最大的第一上采样特征图输入至上述区域候选子网络,得到区域特征图。其中,上述区域候选子网络可以用于确定采样特征图中的感兴趣区域。
第四步,对上述区域特征图进行信息预测,得到特征信息组。其中,上述特征信息组中的特征信息可以包括:特征中心点坐标值、特征区域预测宽度值、特征区域预测高度值和特征中心点坐标偏移量。可以通过多尺度预测方法对上述区域特征图进行信息预测,得到特征信息组。
第五步,将上述特征信息组中包括的特征中心点坐标值、特征区域预测宽度值、特征区域预测高度值和特征中心点坐标偏移量满足第二预设条件的特征信息映射至上述区域特征图中,得到映射后的区域特征图。其中,上述第二预设条件可以是:特征信息所表征的特征区域存在对应的图像属性。该图像属性可以用于表征图像中的车辆属于大型车辆还是小型车辆等。该第二预设条件可以用于选出图像区域中包括目标信息(例如,车辆的信息)的特征信息。上述第一目标检测网络还可以包括特征映射层,用于将上述特征信息映射至上述区域特征图中,得到映射后的区域特征图。上述特征信息可以是多个目标检测框。该多个目标检测框可以用于表征图像中被检测到的多个目标。
第六步,对上述映射后的区域特征图进行裁剪处理,得到区域特征子图组。其中,上述裁剪处理可以是将上述区域特征图中的多个目标检测框裁剪成单独的区域特征图。上述区域特征图组中的区域特征图可以用于表征图像中一个目标所在区域的图像特征。
第七步,将上述区域特征子图组输入至上述分类模块,得到第一预测信息。其中,上述分类模块(例如,Region-Convolutional Neural Networks,目标检测-深度学习网络)可以用于对上述区域特征子图组中的各个区域特征子图进行分类。上述第一预测信息可以用于表征分类后的区域特征子图的类别。
步骤403,将样本标签组和第二样本图像输入至待训练目标检测模型包括的第二目标检测网络中,得到第二检测信息。
在一些实施例中,上述执行主体可以将上述样本标签组和上述第二样本图像输入至上述待训练目标检测模型包括的第二目标检测网络中,得到第二检测信息。其中,上述第二检测信息可以用于表征上述第二目标检测网络对上述第二样本图像检测的结果。另外,上述第二目标检测网络可以是与上述第一目标检测网络具有相同结构的网络。具体的,上述待训练目标检测模型中设置两个目标检测网络,可以用于同时对上述第一样本图像和第二样本图像进行目标检测。以提升目标检测的效率。由于上述第一样本图像和第二样本图像的图像属性不同,同时对上述第一样本图像和第二样本图像进行目标检测可以从不同图像属性方面进行目标检测,以确保目标检测结果的准确度。
步骤404,对检测信息进行重复性校验,得到校验后的检测信息。
步骤405,对校验后的检测信息进行融合校验,得到融合校验后的检测信息。
在一些实施例中,步骤404-405的具体实现方式及所带来的技术效果可以参考图3对应的那些实施例中的步骤303-304,在此不再赘述。
步骤406,基于融合校验后的检测信息和上述样本标签组,生成损失值。
在一些实施例中,上述执行主体可以基于上述融合校验后的检测信息和上述样本标签组,生成损失值,其中,上述融合校验后的检测信息还可以包括上述特征信息组。上述样本标签组中的样本标签可以包括标注中心点坐标值,标注区域宽度值,标注区域高度值。可以包括以下步骤:
第一步,确定上述特征信息包括的特征中心点坐标值的损失值。可以通过损失函数(例如,Focal Loss,像素级逻辑回归损失函数)生成特征中心点坐标值的损失值。
第二步,确定上述特征信息包括的特征区域预测宽度值和特征区域预测高度值的损失值。其中,该损失值可以是由特征区域预测宽度值和特征区域预测高度值共同生成的。首先可以确定一个特征区域的特征区域预测宽度值和标注区域宽度值的差值,特征区域预测高度值和标注区域高度值的差值。然后可以将两个差值的和确定为一个特征区域总差值。最后,可以将多个特征区域总差值的平均值确定为特征信息的损失值。
第三步,确定上述特征信息包括的特征中心点坐标偏移量的损失值。其中,可以通过以下公式确定上述特征信息组中特征信息包括的特征中心点坐标偏移量的损失值:
Figure 423151DEST_PATH_IMAGE013
其中,
Figure 180891DEST_PATH_IMAGE014
表示上述特征中心点坐标偏移量的损失值。
Figure 983369DEST_PATH_IMAGE008
表示上述特征信息组中特征信息的数量。
Figure 586389DEST_PATH_IMAGE015
表示附加偏移量。
Figure 292176DEST_PATH_IMAGE016
表示序号。
Figure 456704DEST_PATH_IMAGE017
表示上述特征信息组中第
Figure 247942DEST_PATH_IMAGE016
个特征信息对应的附加偏移量。
Figure 654653DEST_PATH_IMAGE018
表示上述样本标签组中样本标签包括的标注中心点坐标值。
Figure 214947DEST_PATH_IMAGE019
表示上述样本标签组中第
Figure 547446DEST_PATH_IMAGE016
个样本标签包括的标注中心点坐标值。
Figure 294822DEST_PATH_IMAGE020
表示下采样的倍数。
Figure 974065DEST_PATH_IMAGE021
表示上述样本标签组中第
Figure 654445DEST_PATH_IMAGE016
个样本标签包括的标注中心点坐标值转换到下采样的特征图中的坐标值。
Figure 393731DEST_PATH_IMAGE022
把表示上述特征信息组中特征信息包括的特征中心点坐标值。
Figure 129868DEST_PATH_IMAGE023
表示上述特征信息组中第
Figure 347223DEST_PATH_IMAGE016
个特征信息包括的特征中心点坐标值。
Figure 882110DEST_PATH_IMAGE024
表示与上述特征中心点坐标值对应的特征区域预测宽度值。
Figure 792297DEST_PATH_IMAGE025
表示与上述特征信息组中第
Figure 248686DEST_PATH_IMAGE016
个特征信息包括的特征中心点坐标值对应的特征区域预测宽度值。
Figure 33846DEST_PATH_IMAGE026
表示与上述特征中心点坐标值对应的特征区域预测高度值。
Figure 157660DEST_PATH_IMAGE027
表示与上述特征信息组中第
Figure 504327DEST_PATH_IMAGE016
个特征信息包括的特征中心点坐标值对应的特征区域预测高度值。
通过上述三个损失值,可以用于判断特征区域是否为目标区域。当特征区域不是目标区域时,调整上述待训练目标检测模型中的参数,以使得待训练目标检测模型对目标区域的识别度更高,提高目标检测的准确性。
第四步,确定上述第一预测信息的分类损失值。其中,可以通过损失函数(例如,Focal Loss,像素级逻辑回归损失函数)生成损失值。
第五步,确定上述第一预测信息的预测损失值。其中,可以通过损失函数(例如,Smooth L1一级平滑函数)确定上述第一预测信息的预测损失值。
通过上述两个损失值,可以用于对特征区域进行细粒度的划分。从而,避免一个特征区域对应多个检测框的情况。
第六步,基于上述特征中心点坐标值的损失值、上述特征中心点坐标偏移量的损失值、上述分类损失值、上述预测损失值、上述特征区域预测宽度值和特征区域预测高度值的损失值,生成上述损失值。其中,基于上述特征中心点坐标值的损失值、上述特征中心点坐标偏移量的损失值、上述分类损失值、上述预测损失值、上述特征区域预测宽度值和特征区域预测高度值的损失值,通过以下公式生成上述损失值:
Figure 713592DEST_PATH_IMAGE001
其中,
Figure 305372DEST_PATH_IMAGE002
表示上述损失值。
Figure 549272DEST_PATH_IMAGE003
表示上述特征中心点坐标值的损失值。
Figure 801262DEST_PATH_IMAGE004
表示上述特征区域预测宽度值和特征区域预测高度值的损失值。
Figure 763402DEST_PATH_IMAGE005
表示上述特征中心点坐标偏移量的损失值。
Figure 624785DEST_PATH_IMAGE006
表示上述分类损失值。
Figure 988770DEST_PATH_IMAGE007
表示上述预测损失值。
Figure 411661DEST_PATH_IMAGE008
表示上述特征信息组中特征信息的数量。
Figure 392256DEST_PATH_IMAGE009
表示预设的尺寸权重。
Figure 60260DEST_PATH_IMAGE010
表示预设的偏移量权重。
Figure 13172DEST_PATH_IMAGE011
表示预设的分类损失值权重。
Figure 138123DEST_PATH_IMAGE012
表示预设的预测损失值权重。
上述公式及其相关内容作为本公开的实施例的一个发明点,解决了背景技术提及的技术问题二“对分辨率较低的图像中的目标进行目标检测时,由于目标在图形中占据的像素点较少、分辨率较低,从而,导致容易出现一个目标对应多个检测结果的情况,进而降低目标检测的准确性。”。导致降低目标检测的准确性的因素往往如下:对占据图像中像素点较少的目标进行目标检测时,由于目标占据像素点较少、分辨率较低,从而,导致容易出现一个目标对应多个检测结果的情况。如果解决了上述因素,就能提高目标检测的准确度。为了达到这一效果,首先,考虑了常用的卷积网络在卷积的过程中不断的进行下采样,导致图像的分辨率降低,使得对小目标的检测不准确。因此,对下采样的采样特征图组进行了筛选。然后,对筛选出来的采样特征图进行上采样。之后,将上采样后分辨率最高的特征图输入至上述区域候选子网络,用于对该特征图进行特征区域选择以生成区域特征图。而后,通过上述特征中心点坐标值的损失值、特征区域预测宽度值和特征区域预测高度值的损失值和特征中心点坐标偏移量的损失值,可以用于提升目标检测模型判断特征区域是否为目标区域的检测功能,以及对检测出的目标区域进行初步分类。当特征区域不是目标区域时,调整上述待训练目标检测模型中的参数。使得待训练目标检测模型对目标区域的识别度更高,提高目标检测的准确性。接着,通过上述分类损失值和预测损失值,可以在上述调整目标检测模型的参数的基础上再次调整目标检测模型的参数,使得进一步提升目标检测模型对目标区域的检测能力和分类能力。由此可以在上述初步分类的基础上对检测出的目标区域进行再次分类。从而,充分体现出目标检测区域与分类的类别之间的对应关系,避免一个特征区域对应多个检测框的情况。最后,通过对上述五个损失函数的值进行加权求和,得到总的损失值。上述总的损失值可以用于对上述不同方面的损失值统筹兼顾,以此综合的调整上述待训练目标检测模型的参数。由此,进一步提升目标检测的准确性。因此,上述实现方式可以避免出现一个目标对应多个检测结果的情况。从而,提高目标检测的准确性。
步骤407,响应于确定损失值不满足预定条件,调整待训练目标检测模型中的相关参数。
在一些实施例中,步骤407的具体实现方式及所带来的技术效果可以参考图3对应的那些实施例中的步骤306,在此不再赘述。
从图4中可以看出,与图3对应的一些实施例的描述相比,图4对应的一些实施例中的目标检测模型训练方法的流程400体现了生成检测信息和损失值的步骤。通过上述方法训练生成的目标检测模型在进行目标检测时,可以避免出现一个目标对应多个检测结果的情况。从而,可以提高目标检测的准确性。
接着参考图5,示出了根据本公开的目标车辆检测信息生成方法的一些实施例的流500。该目标车辆检测信息生成方法,包括以下步骤:
步骤501,获取车辆车载相机拍摄的场景图。
在一些实施例中,目标车辆检测信息生成方法的执行主体(如图2所示的计算设备201)可以通过有线方式或无线方式获取车辆车载相机拍摄的场景图。其中,所示场景图可以是在车辆行驶过程中,车辆正前方的图像。
步骤502,将场景图输入至目标检测模型中,以生成目标车辆检测信息。
在一些实施例中,上述执行主体可以将上述场景图输入至目标检测模型中,以生成目标车辆检测信息。其中,上述目标检测模型可以是通过本公开任意实施例中的用于目标检测模型训练方法生成的。该目标检测模型可以用于对场景图进行检测,以生成目标车辆检测信息。上述目标车辆检测信息可以用于表征上述车载相机所在的车辆正前方道路上的其他车辆属性。该属性可以是车辆的类型(例如,卡车,公交车,大车,小车等)。
通过上述目标检测模型的参与生成的目标车辆检测信息,可以提高目标车辆检测信息生成的效率,以及避免一个目标对应多个检测结果的情况的发生。从而,提高生成目标车辆检测信息的准确性。
进一步参考图6,作为对上述各图所示方法的实现,本公开提供了一种目标检测模型训练装置的一些实施例,这些装置实施例与图3所示的那些方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图6所示,一些实施例的目标检测模型训练装置600包括:图像处理单元601、输入单元602、重复性校验单元603、融合校验单元604、生成单元605和调整单元606。图像处理单元601,被配置成对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像,其中,上述训练样本包括上述预标注的样本图像和样本标签组。输入单元602,被配置成将上述样本标签组、上述第一样本图像和上述第二样本图像输入至待训练目标检测模型,得到检测信息。重复性校验单元603,被配置成对上述检测信息进行重复性校验,得到校验后的检测信息。融合校验单元604,被配置成对上述校验后的检测信息进行融合校验,得到融合校验后的检测信息。生成单元605,被配置成基于上述融合校验后的检测信息和上述样本标签组,生成损失值。调整单元606,被配置成响应于确定上述损失值不满足预定条件,调整上述待训练目标检测模型中的相关参数。
可以理解的是,该装置600中记载的诸单元与参考图3描述的方法中的各个步骤相对应。由此,上文针对方法描述的操作、特征以及产生的有益效果同样适用于装置600及其中包含的单元,在此不再赘述。
下面参考图7,其示出了适于用来实现本公开的一些实施例的电子设备(例如图1中的计算设备101)700的结构示意图。图7示出的电子设备仅仅是一个示例,不应对本公开的实施例的功能和使用范围带来任何限制。
如图7所示,电子设备700可以包括处理装置(例如中央处理器、图形处理器等)701,其可以根据存储在只读存储器(ROM)702中的程序或者从存储装置708加载到随机访问存储器(RAM)703中的程序而执行各种适当的动作和处理。在RAM 703中,还存储有电子设备700操作所需的各种程序和数据。处理装置701、ROM 702以及RAM 703通过总线704彼此相连。输入/输出(I/O)接口705也连接至总线704。
通常,以下装置可以连接至I/O接口705:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置706;包括例如液晶显示器(LCD)、扬声器、振动器等的输出装置707;包括例如磁带、硬盘等的存储装置708;以及通信装置709。通信装置709可以允许电子设备700与其他设备进行无线或有线通信以交换数据。虽然图7示出了具有各种装置的电子设备700,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。图7中示出的每个方框可以代表一个装置,也可以根据需要代表多个装置。
特别地,根据本公开的一些实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的一些实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的一些实施例中,该计算机程序可以通过通信装置709从网络上被下载和安装,或者从存储装置708被安装,或者从ROM 702被安装。在该计算机程序被处理装置701执行时,执行本公开的一些实施例的方法中限定的上述功能。
需要说明的是,本公开的一些实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开的一些实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开的一些实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述装置中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像,其中,上述训练样本包括上述预标注的样本图像和样本标签组;将上述样本标签组、上述第一样本图像和上述第二样本图像输入至待训练目标检测模型,得到检测信息;对上述检测信息进行重复性校验,得到校验后的检测信息;对上述校验后的检测信息进行融合校验,得到融合校验后的检测信息;基于上述融合校验后的检测信息和上述样本标签组,生成损失值;响应于确定上述损失值不满足预定条件,调整上述待训练目标检测模型中的相关参数。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的一些实施例的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)——连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开的一些实施例中的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括图像处理单元、输入单元、重复性校验单元、融合校验单元、生成单元和调整单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,调整单元还可以被描述为“调整上述待训练目标检测模型中的相关参数的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
以上描述仅为本公开的一些较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开的实施例中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开的实施例中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (10)

1.一种目标检测模型训练方法,包括:
对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像,其中,所述训练样本包括所述预标注的样本图像和样本标签组;
将所述样本标签组、所述第一样本图像和所述第二样本图像输入至待训练目标检测模型,得到检测信息;
对所述检测信息进行重复性校验,得到校验后的检测信息;
对所述校验后的检测信息进行融合校验,得到融合校验后的检测信息;
基于所述融合校验后的检测信息和所述样本标签组,生成损失值;
响应于确定所述损失值不满足预定条件,调整所述待训练目标检测模型中的相关参数。
2.根据权利要求1所述的方法,其中,所述方法还包括:
响应于确定所述损失值满足所述预定条件,将所述待训练目标检测模型确定为目标检测模型。
3.根据权利要求1所述的方法,其中,所述对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像,包括:
对训练样本包括的预标注的样本图像进行图像缩放处理,得到第一样本图像;
对所述训练样本包括的预标注的样本图像进行图像裁剪处理,得到第二样本图像。
4.根据权利要求1所述的方法,其中,所述待训练目标检测模型包括第一目标检测网络和第二目标检测网络,所述检测信息包括第一检测信息和第二检测信息;以及
所述将所述样本标签组、所述第一样本图像和所述第二样本图像输入至待训练目标检测模型,得到检测信息,包括:
将所述样本标签组和所述第一样本图像输入至所述待训练目标检测模型包括的第一目标检测网络中,得到第一检测信息;
将所述样本标签组和所述第二样本图像输入至所述待训练目标检测模型包括的第二目标检测网络中,得到第二检测信息。
5.根据权利要求4所述的方法,其中,所述第一目标检测网络包括区域候选子网络、分类模块和目标数目个卷积层;以及
所述将所述样本标签组和所述第一样本图像输入至所述待训练目标检测模型包括的第一目标检测网络中,得到第一检测信息,包括:
利用所述目标数目个卷积层,对所述第一样本图像进行下采样,得到第一下采样特征图组;
对所述第一下采样特征图组中满足第一预设条件的第一下采样特征图进行上采样,得到第一上采样特征图组;
将所述第一上采样特征图组中分辨率最大的第一上采样特征图输入至所述区域候选子网络,得到区域特征图;
对所述区域特征图进行信息预测,得到特征信息组,其中,所述特征信息组中的特征信息包括:特征中心点坐标值、特征区域预测宽度值、特征区域预测高度值和特征中心点坐标偏移量;
将所述特征信息组中包括的特征中心点坐标值、特征区域预测宽度值、特征区域预测高度值和特征中心点坐标偏移量满足第二预设条件的特征信息映射至所述区域特征图中,得到映射后的区域特征图;
对所述映射后的区域特征图进行裁剪处理,得到区域特征子图组;
将所述区域特征子图组输入至所述分类模块,得到第一预测信息。
6.根据权利要求5所述的方法,其中,所述基于所述融合校验后的检测信息和所述样本标签组,生成损失值,包括:
确定所述特征信息包括的特征中心点坐标值的损失值;
确定所述特征信息包括的特征区域预测宽度值和特征区域预测高度值的损失值;
确定所述特征信息包括的特征中心点坐标偏移量的损失值;
确定所述第一预测信息的分类损失值;
确定所述第一预测信息的预测损失值;
基于所述特征中心点坐标值的损失值、所述特征中心点坐标偏移量的损失值、所述分类损失值、所述预测损失值、所述特征区域预测宽度值和特征区域预测高度值的损失值,生成所述损失值。
7.一种目标车辆检测信息生成方法,包括:
获取车辆车载相机拍摄的场景图;
将所述场景图输入至目标检测模型中,以生成目标车辆检测信息,其中,所述目标检测模型通过如权利要求1-7之一所述的方法生成。
8.一种目标检测模型训练装置,包括:
图像处理单元,被配置成对训练样本包括的预标注的样本图像进行图像处理,得到第一样本图像和第二样本图像,其中,所述训练样本包括所述预标注的样本图像和样本标签组;
输入单元,被配置成将所述样本标签组、所述第一样本图像和所述第二样本图像输入至待训练目标检测模型,得到检测信息;
重复性校验单元,被配置成对所述检测信息进行重复性校验,得到校验后的检测信息;
融合校验单元,被配置成对所述校验后的检测信息进行融合校验,得到融合校验后的检测信息;
生成单元,被配置成基于所述融合校验后的检测信息和所述样本标签组,生成损失值;
调整单元,被配置成响应于确定所述损失值不满足预定条件,调整所述待训练目标检测模型中的相关参数。
9.一种目标车辆检测信息生成装置,包括:
获取单元,被配置成获取车辆车载相机拍摄的场景图;
生成单元,被配置成将所述场景图输入至目标检测模型中,以生成目标车辆检测信息,其中,所述目标检测模型通过如权利要求1-7之一所述的方法生成。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一或权利要求7所述的方法。
CN202110562119.8A 2021-05-24 2021-05-24 目标检测模型训练方法和目标车辆检测信息生成方法 Active CN113033715B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110562119.8A CN113033715B (zh) 2021-05-24 2021-05-24 目标检测模型训练方法和目标车辆检测信息生成方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110562119.8A CN113033715B (zh) 2021-05-24 2021-05-24 目标检测模型训练方法和目标车辆检测信息生成方法

Publications (2)

Publication Number Publication Date
CN113033715A true CN113033715A (zh) 2021-06-25
CN113033715B CN113033715B (zh) 2021-08-31

Family

ID=76455525

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110562119.8A Active CN113033715B (zh) 2021-05-24 2021-05-24 目标检测模型训练方法和目标车辆检测信息生成方法

Country Status (1)

Country Link
CN (1) CN113033715B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408482A (zh) * 2021-07-13 2021-09-17 杭州联吉技术有限公司 一种训练样本的生成方法及生成装置
CN116486197A (zh) * 2023-03-29 2023-07-25 北京百度网讯科技有限公司 图像检测模型的训练方法、图像检测方法和图像标注方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180174046A1 (en) * 2016-12-15 2018-06-21 Beijing Kuangshi Technology Co., Ltd. Target detection method and device, neural network training method and device
CN111898659A (zh) * 2020-07-16 2020-11-06 北京灵汐科技有限公司 一种目标检测方法及系统
CN112434753A (zh) * 2020-12-11 2021-03-02 上海眼控科技股份有限公司 模型训练方法、目标检测方法、装置、设备及存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180174046A1 (en) * 2016-12-15 2018-06-21 Beijing Kuangshi Technology Co., Ltd. Target detection method and device, neural network training method and device
CN111898659A (zh) * 2020-07-16 2020-11-06 北京灵汐科技有限公司 一种目标检测方法及系统
CN112434753A (zh) * 2020-12-11 2021-03-02 上海眼控科技股份有限公司 模型训练方法、目标检测方法、装置、设备及存储介质

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113408482A (zh) * 2021-07-13 2021-09-17 杭州联吉技术有限公司 一种训练样本的生成方法及生成装置
CN113408482B (zh) * 2021-07-13 2023-10-10 杭州联吉技术有限公司 一种训练样本的生成方法及生成装置
CN116486197A (zh) * 2023-03-29 2023-07-25 北京百度网讯科技有限公司 图像检测模型的训练方法、图像检测方法和图像标注方法
CN116486197B (zh) * 2023-03-29 2024-03-19 北京百度网讯科技有限公司 图像检测模型的训练方法、图像检测方法和图像标注方法

Also Published As

Publication number Publication date
CN113033715B (zh) 2021-08-31

Similar Documents

Publication Publication Date Title
CN109410218B (zh) 用于生成车辆损伤信息的方法和装置
JP2020504358A (ja) 画像ベースの車両損害評価方法、装置、およびシステム、ならびに電子デバイス
CN113033715B (zh) 目标检测模型训练方法和目标车辆检测信息生成方法
CN111950353B (zh) 印章文本识别方法、装置及电子设备
CN109118456B (zh) 图像处理方法和装置
CN113607185B (zh) 车道线信息显示方法、装置、电子设备和计算机可读介质
CN112712036A (zh) 交通标志识别方法、装置、电子设备及计算机存储介质
CN115690765B (zh) 车牌识别方法、装置、电子设备、可读介质和程序产品
JP7429756B2 (ja) 画像処理方法、装置、電子機器、記憶媒体及びコンピュータプログラム
CN112001912A (zh) 目标检测方法和装置、计算机系统和可读存储介质
WO2023155581A1 (zh) 一种图像检测方法和装置
CN114820679B (zh) 图像标注方法、装置、电子设备和存储介质
CN115393815A (zh) 道路信息生成方法、装置、电子设备和计算机可读介质
CN113421217A (zh) 可行驶区域检测方法和装置
CN114240816A (zh) 道路环境感知方法、装置、存储介质、电子设备及车辆
CN111967332B (zh) 用于自动驾驶的能见度信息生成方法和装置
CN110321854B (zh) 用于检测目标对象的方法和装置
CN112115737B (zh) 一种车辆朝向的确定方法、装置及车载终端
CN112396060A (zh) 基于身份证分割模型的身份证识别方法及其相关设备
CN110852242A (zh) 基于多尺度网络的水印识别方法、装置、设备及存储介质
CN115409985A (zh) 目标对象检测方法、装置、电子设备及可读存储介质
CN113902047B (zh) 图像元素匹配方法、装置、设备以及存储介质
CN112528970A (zh) 路牌检测方法、装置、设备和计算机可读介质
CN114764839A (zh) 动态视频生成方法、装置、可读存储介质及终端设备
CN114581876A (zh) 构建复杂场景下车道检测模型的方法和检测车道线方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Target detection model training method and target vehicle detection information generation method

Effective date of registration: 20230228

Granted publication date: 20210831

Pledgee: Bank of Shanghai Co.,Ltd. Beijing Branch

Pledgor: HOLOMATIC TECHNOLOGY (BEIJING) Co.,Ltd.

Registration number: Y2023980033668

CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: 201, 202, 301, No. 56-4 Fenghuang South Road, Huadu District, Guangzhou City, Guangdong Province, 510806

Patentee after: Heduo Technology (Guangzhou) Co.,Ltd.

Address before: 100099 101-15, 3rd floor, building 9, yard 55, zique Road, Haidian District, Beijing

Patentee before: HOLOMATIC TECHNOLOGY (BEIJING) Co.,Ltd.