CN112183358A - 一种目标检测模型的训练方法及装置 - Google Patents
一种目标检测模型的训练方法及装置 Download PDFInfo
- Publication number
- CN112183358A CN112183358A CN202011048020.8A CN202011048020A CN112183358A CN 112183358 A CN112183358 A CN 112183358A CN 202011048020 A CN202011048020 A CN 202011048020A CN 112183358 A CN112183358 A CN 112183358A
- Authority
- CN
- China
- Prior art keywords
- detection model
- training
- data
- loss function
- target detection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 197
- 238000012549 training Methods 0.000 title claims abstract description 148
- 238000000034 method Methods 0.000 title claims abstract description 62
- 230000006870 function Effects 0.000 claims description 108
- 238000004364 calculation method Methods 0.000 claims description 49
- 238000012545 processing Methods 0.000 claims description 39
- 238000004590 computer program Methods 0.000 claims description 14
- 238000007781 pre-processing Methods 0.000 claims description 4
- 230000008569 process Effects 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 230000009471 action Effects 0.000 description 3
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013136 deep learning model Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供一种目标检测模型的训练方法及装置,涉及目标检测技术领域,该目标检测模型的训练方法包括:先获取损失函数和用于训练原始检测模型的训练数据,损失函数包括方向分类损失函数,训练数据包括物体类别数据,物体类别数据用于根据方向分类损失函数计算方向分类损失;能够兼顾物体朝向的问题;最后再根据训练数据以及损失函数对原始检测模型进行训练,得到目标检测模型,该目标检测模型可以应用于无人车(如自动驾驶车辆、无人驾驶车辆)的目标检测场景中,能够避免物体朝向错误导致的位置回归不准确的问题,误差小、目标识别准确度高。
Description
技术领域
本申请涉及目标检测技术领域,具体而言,涉及一种目标检测模型的训练方法及装置。
背景技术
无人车对周围环境的准确感知是保证安全的基础,而基于机器视觉的车辆目标检测则属于其中的重要一项。现有的目标检测模型的训练方法,通常在进行训练时,仅考虑物体分类和位置回归的损失,然后通过相应的训练数据进行训练得到目标检测模型。然而,在实践中发现,现有的目标检测模型的训练方法,仅考虑物体分类和位置回归的损失,忽略了物体朝向的损失容易出现由于物体朝向错误导致的位置回归不准确的问题,得到的目标检测模型误差大、准确度低。可见,现有的目标检测模型的训练方法,训练得到的目标检测模型误差大、目标识别准确度低。
发明内容
本申请实施例的目的在于提供一种目标检测模型的训练方法及装置,能够兼顾方向分类损失,得到的目标检测模型误差小、目标识别准确度高。
本申请实施例第一方面提供了一种目标检测模型的训练方法,包括:
获取损失函数和用于训练原始检测模型的训练数据,所述损失函数包括方向分类损失函数,所述训练数据包括物体类别数据,所述物体类别数据用于所述方向分类损失函数计算方向分类损失;
根据所述训练数据以及所述损失函数对所述原始检测模型进行训练,得到目标检测模型。
在上述实现过程中,获取损失函数和用于训练原始检测模型的训练数据,其中损失函数包括方向分类损失函数,训练数据包括物体类别数据,物体类别数据用于方向分类损失函数计算方向分类损失,由方向分类损失函数基于物体类别数据计算得到的方向分类损失,能够兼顾物体朝向的问题;最后再根据训练数据以及损失函数对原始检测模型进行训练,得到目标检测模型,该目标检测模型在实际使用中能够避免物体朝向错误导致的位置回归不准确的问题,误差小、目标识别准确度高。
进一步地,所述训练数据还包括物体位置数据、物体尺寸数据和物体方向类别数据。
在上述实现过程中,训练数据不仅包括物体类别数据,还包括物体位置数据、物体尺寸数据和物体方向类别数据,在模型训练的过程中能够有效兼顾物体方向类别对检测结果的影响,进而有利于提升训练得到的目标检测模型的准确性,进而避免物体朝向错误导致的位置回归不准确的问题。
进一步地,所述根据所述训练数据以及所述损失函数对所述原始检测模型进行训练,得到目标检测模型,得到目标检测模型,包括:
通过所述原始检测模型对所述训练数据进行处理,得到处理结果;
根据所述损失函数对所述处理结果进行损失计算,得到损失计算结果;
根据所述损失计算结果调整所述原始检测模型的参数,得到目标检测模型。
在上述实现过程中,通过损失函数对处理结果进行损失计算,进而调整原始检测模型的参数,得到目标检测模型。
进一步地,所述根据所述损失函数对所述处理结果进行损失计算,得到损失计算结果,包括:
根据预设的编码规则对所述处理结果进行编码,得到编码数据;
根据所述编码数据以及所述损失函数进行损失计算,得到包括方向分类损失的损失计算结果。
在上述实现过程中,通过预设的编码规则对处理结果进行编码,得到编码数据,然后再根据编码数据以及损失函数进行损失计算,得到损失计算结果,其中,损失计算结果考虑到了方向分类损失,进而有利于提升训练得到的目标检测模型精确度。
进一步地,在所述根据所述训练数据以及所述损失函数对所述原始检测模型进行训练,得到目标检测模型之后,所述方法还包括:
获取激光雷达检测数据;
对所述激光雷达检测数据进行预处理,得到预处理数据;
通过所述目标检测模型对所述预处理数据进行处理,得到目标检测结果。
在上述实现过程中,在目标检测模型训练完成之后,就能够应用于基于激光雷达的目标检测场景中,检测精度高,误差小,能够有效避免物体朝向错误导致的位置回归不准确的问题。
本申请实施例第二方面提供了一种目标检测模型的训练装置,所述目标检测模型的训练装置包括:
获取模块,用于获取损失函数和用于训练原始检测模型的训练数据,其中损失函数包括方向分类损失函数,训练数据包括物体类别数据,物体类别数据用于方向分类损失函数计算方向分类损失;
训练模块,用于根据所述训练数据以及所述损失函数对所述原始检测模型进行训练,得到目标检测模型。
在上述实现过程中,获取模块获取损失函数和用于训练原始检测模型的训练数据,其中损失函数包括方向分类损失函数,训练数据包括物体类别数据,物体类别数据用于方向分类损失函数计算方向分类损失,由方向分类损失函数基于物体类别数据计算得到的方向分类损失,以兼顾物体朝向的问题;最后训练模块再根据训练数据以及损失函数对原始检测模型进行训练,得到目标检测模型,该目标检测模型在实际使用中能够避免物体朝向错误导致的位置回归不准确的问题,误差小、目标识别准确度高。
进一步地,所述训练数据还包括物体位置数据、物体尺寸数据和物体方向类别数据。
在上述实现过程中,训练数据不仅包括用于计算方向分类损失的物体类别数据,还包括物体位置数据、物体尺寸数据和物体方向类别数据,在模型训练的过程中能够有效兼顾物体方向类别对检测结果的影响,进而有利于提升训练得到的目标检测模型的准确性,进而避免物体朝向错误导致的位置回归不准确的问题。
进一步地,所述训练模块包括:
模型处理子模块,用于通过所述原始检测模型对所述训练数据进行处理,得到处理结果;
损失计算子模块,用于根据所述损失函数对所述处理结果进行损失计算,得到损失计算结果;
参数调整子模块,用于根据所述损失计算结果调整所述原始检测模型的参数,得到目标检测模型。
在上述实现过程中,通过损失函数对处理结果进行损失计算,进而调整原始检测模型的参数,得到目标检测模型。
本申请实施例第三方面提供了一种电子设备,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行本申请实施例第一方面中任一项所述的目标检测模型的训练方法。
本申请实施例第四方面提供了一种计算机可读存储介质,其存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行本申请实施例第一方面中任一项所述的目标检测模型的训练方法。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对本申请实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1为本申请实施例一提供的一种目标检测模型的训练方法的流程示意图;
图2为本申请实施例二提供的一种目标检测模型的训练方法的流程示意图;
图3为本申请实施例三提供的一种目标检测模型的训练装置的结构示意图;
图4为本申请实施例四提供的一种目标检测模型的训练装置的结构示意图;
图5为本申请实施例二提供的一种对原始检测模型进行训练的示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。同时,在本申请的描述中,术语“第一”、“第二”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
实施例1
请参看图1,图1为本申请实施例提供了一种目标检测模型的训练方法的流程示意图。该方法的应用于目标检测场景中,具体应用于无人驾驶车辆的目标检测场景中。其中,该目标检测模型的训练方法包括:
S101、获取损失函数和用于训练原始检测模型的训练数据,损失函数包括方向分类损失函数,其中,训练数据包括物体类别数据,物体类别数据用于方向分类损失函数计算方向分类损失。
本申请实施例中,该原始检测模型可以预先构建,具体可以为深度学习模型,具体可以为基于anchor算法的深度学习模型,对此本申请实施例不作限定。
本申请实施例中,对原始检测模型不断训练的目的是通过迭代不断减小损失函数,其中,损失函数包括回归损失函数和分类损失函数。
本申请实施例中,训练数据包括物体类别数据,还包括物体位置数据、物体尺寸数据和物体方向类别数据等,对此本申请实施例不作限定。
本申请实施例中,对于某一目标物体,其物体位置尺寸数据可以用以下参数表征:目标物体的三维空间坐标(x,y,z)、目标物体的长l、目标物体的宽w、目标物体的高h以及目标物体的方向θ。其中物体位置尺寸数据包括物体位置数据和物体尺寸数据。
本申请实施例中,损失函数包括回归损失函数、方向分类损失函数和分类损失函数,其中,通过回归损失函数计算得到回归损失,通过方向分类损失函数计算得到方向分类损失,通过分类损失函数计算得到分类损失。
本申请实施例中,方向分类损失是根据方向分类损失函数、物体类别数据和训练数据中的物体方向类别数据计算获得。
本申请实施例中,损失函数如下:
L=β1(Lreg-θ+Lreg-other)+β2Ldir×mask;
其中,Lreg-θ=SmoothL1(sin(θp-θt));
Lreg-other=SmoothL1(mp-mt);
其中,m∈[x,y,z,w,l,h],β1和β2为系数,可以预先设置;
其中,辅助标签参数mask,是一个变量,其具体数值,是根据物体分类确定的。
在步骤S101之后,还包括以下步骤:
S102、根据训练数据以及损失函数对原始检测模型进行训练,得到目标检测模型。
本申请实施例中,该方法的执行主体可以为计算机、处理器等计算装置,对此本实施例中不作任何限定。
本申请实施例中,目标检测模型用于目标检测,具体应用于无人驾驶车辆过程中的目标检测。
可见,实施本实施例所描述的目标检测模型的训练方法,能够兼顾方向分类的损失,得到的目标检测模型误差小、目标识别准确度高。
实施例2
请参看图2,图2为本申请实施例提供的一种目标检测模型的训练方法的流程示意图。如图2所示,其中,该目标检测模型的训练方法包括:
S201、获取损失函数和用于训练原始检测模型的训练数据,损失函数包括方向分类损失函数,其中,训练数据包括物体类别数据,物体类别数据用于方向分类损失函数计算方向分类损失。
本申请实施例中,训练数据包括物体类别数据,还包括物体位置数据、物体尺寸数据和物体方向类别数据,对此本申请实施例不作限定。
本申请实施例中,对于某一目标物体,其物体位置尺寸数据可以用以下参数表征:目标物体的三维空间坐标(x,y,z)、目标物体的长、目标物体的宽、目标物体的高以及目标物体的方向θ。其中物体位置尺寸数据包括物体位置数据和物体尺寸数据。
本申请实施例中,由于物体类别也会影响物体位置尺寸数据中物体的方向θ,因此,训练数据包括物体类别数据。
本申请实施例中,物体类别参数可以通过唯一类别标识进行表征,具体的,唯一类别标识可以为“人”、“车辆”等表示类别的字符标识,也可以为唯一数字标识等,对此本申请实施例不作限定。
在步骤S201之后,还包括以下步骤:
S202、通过原始检测模型对训练数据进行处理,得到处理结果。
本申请实施例中,将训练数据输入至原始检测模型中,得到处理结果。其中,该处理结果包括分类结果、车头方向分类结果和位置回归结果。
S203、根据预设的编码规则对处理结果进行编码,得到编码数据。
本申请实施例中,可以通过bounding box编码方式对处理结果进行编码。
本申请实施例中,bounding box编码方式为:
θt=θg-θa。
其中,x,y,z为bounding box的3D坐标(x,y,z),w表示bounding box的宽,l表示bounding box的长,h表示bounding box的高,θ表示(以预设标准线为参照)车头绕垂直方向的旋转弧度。
本申请实施例中,在训练过程中,对anchor数据和bounding box数据进行bounding box编码,得到第一编码数据,其中,第一编码数据为[xt,yt,zt,wt,lt,ht,θt],同时,也对anchor和检测结果也进行bounding box编码,得到第二编码数据,其中,第二编码数据为[xp,yp,zp,wp,lp,hp,θp],然后计算[xt,yt,zt,wt,lt,ht,θt]和[xp,yp,zp,wp,lp,hp,θp]的对应差值,其中,t表示laber的3D格子和anchor的3D格子的中心点位置偏差,p表示anchor的3D格子和检测结果的中心点位置偏差。
本申请实施例中,[xt,yt,zt,wt,lt,ht,θt]和[xp,yp,zp,wp,lp,hp,θp]的对应差值=[xp-xt,yp-yt,zp-zt,wp-wt,lp-lt,hp-ht,θp-θt]。
本申请实施例中,损失函数包括回归损失函数、方向分类损失函数和分类损失函数,其中,通过回归损失函数计算得到回归损失,通过方向分类损失函数计算得到方向分类损失,通过分类损失函数计算得到分类损失。
本申请实施例中,方向分类损失是根据方向分类损失函数、物体类别数据和训练数据中的物体方向类别数据计算获得。
本申请实施例中,将该对应差值逐个代入SmoothL1损失函数,以计算相应的损失,以θ为例,将对应差值中的θp-θt代入SmoothL1损失函数中:
Lθ=SmoothL1(sin(θp-θt));
同理,对于x、y、z、w、l和h,将相应的对应差值代入SmoothL1损失函数中,计算相应的回归损失。
在步骤S203之后,还包括以下步骤:
S204、根据编码数据以及损失函数进行损失计算,得到包括方向分类损失的损失计算结果。
本申请实施中,假设是对目标物体进行目标检测,则将包括目标物体对应的激光雷达数据输入至原始检测模型中,通过原始检测模型对该激光雷达数据进行一层层卷积处理,在一层层卷积处理过程中,中间处理量即为特征图,特征图为网格图。
本申请实施中,bounding box指边界框,是把目标物体框起来的最小矩形框。
本申请实施例中,框住目标物体的bounding box会映射到特征图上,在特征图上得到目标物体所在的矩形框。
本申请实施中,anchors表示一组矩形框的集合,为预定义边框,包括预先设置的多个不同尺度不同位置的固定参考框,覆盖几乎所有位置和尺寸。
本申请实施中,anchors生成的过程是以特征图中每个格子的中心点为中心,以预设大小(例如长=4,宽=2)在特征图上进行滑窗移动,从而得到一组anchors。
本申请实施中,当anchor在特征图上进行滑窗移动,滑动到某个位置上,根据这个位置处anchor所在的矩形框和特征图上目标物体所在的矩形框,计算两个框的交并比(IOU,即两个矩形框重合程度的度量指标),判断判断计算得到的交并比是否大于预设阈值时,如果大于,则确定此处的anchor对应的值为正,如果不大于,则确定此处的anchor对应的值为负。当anchor对应的值为正时,此时对这个位置处anchor所在的矩形框和特征图上目标物体所在的矩形框进行编码,即计算两个矩形框之间[x,y,z,l,w,h,r]的偏差,可以称之为第一偏差,第一偏差就是对anchor数据和bounding box数据进行bounding box编码得到的第一编码数据。
本申请实施中,在训练过程中,将训练数据(即激光点云数据)输入至原始检测模型中进行处理,原始检测模型会输出一个检测结果,该检测结果计算的是anchors和检测到的矩形框之间的偏差,可以称之为第二偏差,第二偏差就是对anchors和检测到的矩形框进行bounding box编码得到的第二编码数据,则上述编码数据包括第一编码数据和第二编码数据。
本申请实施例中,上述检测到的矩形框为框住预测的物体(设目标物体)的矩形框,具体可以表示为[x,y,z,w,l,h,θ],其中,[x,y,z]为预测的物体中心点的3D坐标(即三维空间坐标),w为预测的物体的宽,l为预测的物体的长,h为预测的物体的高,θ为预测的物体的朝向信息。
本申请实施例中,在计算出第一偏差和第二偏差之后,将这两个偏差送入损失函数来计算损失,进而得到损失计算结果。
本申请实施例中,损失函数包括回归损失函数和分类损失函数,其中,回归损失函数包括回归损失,分类损失函数包括分类损失。
本申请实施例中,回归损失包括方向分类损失和位置回归损失,方向分类损失包括物体类别。
本申请实施例中,损失函数如下:
L=β1(Lreg-θ+Lreg-other)+β2Ldir×mask;
其中,Lreg-θ=SmoothL1(sin(θp-θt));
Lreg-other=SmoothL1(mp-mt);
其中,m∈[x,y,z,w,l,h],β1和β2为系数,可以预先设置;
其中,辅助标签参数mask,是一个变量,其具体数值,是根据物体分类确定的。
本申请实施例中,m∈[x,y,z,w,l,h],以m=x为例,则:
Lreg-other=SmoothL1(xp-xt)。
本申请实施例中,车头方向的范围为[-π,π],为了准确地检测物体的朝向,通过分类损失对车头的角度进行判断。
本申请实施例中,通过回归损失函数计算得到回归损失,通过方向分类损失函数计算得到方向分类损失,通过分类损失函数计算得到分类损失。
本申请实施例中,方向分类损失是根据方向分类损失函数、物体类别数据和训练数据中的物体方向类别数据计算获得。
本申请实施例中,实施上述步骤S204~步骤S205,能够根据损失函数对处理结果进行损失计算,得到损失计算结果。
请一并参阅图5,图5是本申请实施例所提供的一种对原始检测模型进行训练的示意图。如图5所示,训练数据包括物体位置数据、物体尺寸数据、物体方向类别数据和物体类别数据,其中,物体位置数据包括物体的位置检测数据以及对位置检测数据的位置真实标注值,物体尺寸数据包括物体的尺寸检测数据以及对尺寸检测数据的尺寸真实标注值,物体方向类别数据包括物体的方向类别检测数据以及对方向类别检测数据的方向类别真实标注值,物体类别数据包括物体的类别检测数据以及对类别检测数据的类别真实标注值。在训练时,原始检测模型的输入为位置检测数据、尺寸检测数据、方向类别检测数据和类别检测数据,原始检测模型的输出结果包括分类结果、车头方向分类结果和位置回归结果。
其中,位置检测数据、尺寸检测数据、方向类别检测数据和类别检测数据可以为雷达检测数据,通过雷达检测得到。
其中,位置真实标注值、尺寸真实标注值、方向类别真实标注值以及类别真实标注值可以人工标注数据,通过人工对雷达检测数据进行标注得到。
如图5所示,位置回归损失函数包括参数mask,可以通过物体类别确定辅助标签参数mask的具体数值,在计算物体的方向类别损失时,同时使用物体类别数据中的类别真实标注值和物体方向类别数据中的方向类别真实标注值,将类别真实标注值和方向类别真实标注值与车头方向分类结果进行比较,计算方向类别损失,既能检测物体的朝向,又解决了物体朝向相反导致的损失函数过大的问题。
在步骤S204之后,还包括以下步骤:
S205、根据损失计算结果调整原始检测模型的参数,得到目标检测模型。
本申请实施例中,实施上述步骤S202~步骤S205,能够根据训练数据以及损失函数对原始检测模型进行训练,得到目标检测模型。
S206、获取激光雷达检测数据。
本申请实施例中,当该目标检测模型应用于无人驾驶车辆过程中的目标检测时,可以通过无人驾驶车辆上设置的激光雷达获取激光雷达检测数据。
S207、对激光雷达检测数据进行预处理,得到预处理数据。
本申请实施例中,对激光雷达检测数据进行预处理,以去除干扰数据,并将该激光雷达检测数据转换为目标检测模型能够处理的数据形式,进而得到预处理数据。
S208、通过目标检测模型对预处理数据进行处理,得到目标检测结果。
可见,实施本实施例所描述的目标检测模型的训练方法,能够兼顾方向分类的损失,得到的目标检测模型误差小、目标识别准确度高。
实施例3
请参看图3,图3为本申请实施例提供的一种目标检测模型的训练装置的结构示意图。如图3所示,该目标检测模型的训练装置包括:
获取模块310,用于获取损失函数和用于训练原始检测模型的训练数据,损失函数包括方向分类损失函数,其中,训练数据包括物体类别数据,物体类别数据用于方向分类损失函数计算方向分类损失。
训练模块320,用于根据训练数据以及损失函数对原始检测模型进行训练,得到目标检测模型。
本申请实施例中,对于目标检测模型的训练装置的解释说明可以参照实施例1或实施例2中的描述,对此本实施例中不再多加赘述。
可见,实施本实施例所描述的目标检测模型的训练装置,能够兼顾方向分类的损失,得到的目标检测模型误差小、目标识别准确度高。
实施例4
请一并参阅图4,图4是本申请实施例提供的一种目标检测模型的训练装置的结构示意图。其中,图4所示的目标检测模型的训练装置是由图3所示的目标检测模型的训练装置进行优化得到的。如图4所示,训练模块320包括:
模型处理子模块321,用于通过原始检测模型对训练数据进行处理,得到处理结果。
损失计算子模块322,用于根据损失函数对处理结果进行损失计算,得到损失计算结果。
参数调整子模块323,用于根据损失计算结果调整原始检测模型的参数,得到目标检测模型。
本申请实施例中,训练数据至少包括物体位置数据、物体尺寸数据、物体方向类别数据和物体类别数据。
本申请实施例中,损失计算子模块322包括:
编码单元,用于根据预设的编码规则对处理结果进行编码,得到编码数据。
计算单元,用于根据编码数据以及损失函数进行损失计算,得到包括方向分类损失的损失计算结果。
本申请实施例中,目标检测模型的训练装置还包括:
数据获取模块330,用于在根据训练数据以及损失函数对原始检测模型进行训练,得到目标检测模型之后,获取激光雷达检测数据。
预处理模块340,用于对激光雷达检测数据进行预处理,得到预处理数据。
目标检测模块350,用于通过目标检测模型对预处理数据进行处理,得到目标检测结果。
本申请实施例中,对于目标检测模型的训练装置的解释说明可以参照实施例1或实施例2中的描述,对此本实施例中不再多加赘述。
可见,实施本实施例所描述的目标检测模型的训练装置,能够兼顾方向分类的损失,得到的目标检测模型误差小、目标识别准确度高。
本申请实施例提供了一种电子设备,包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行本申请实施例1或实施例2中任一项目标检测模型的训练方法。
本申请实施例提供了一种计算机可读存储介质,其存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行本申请实施例1或实施例2中任一项目标检测模型的训练方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,也可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,附图中的流程图和框图显示了根据本申请的多个实施例的装置、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段或代码的一部分,所述模块、程序段或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现方式中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个连续的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或动作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
另外,在本申请各个实施例中的各功能模块可以集成在一起形成一个独立的部分,也可以是各个模块单独存在,也可以两个或两个以上模块集成形成一个独立的部分。
所述功能如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本申请的实施例而已,并不用于限制本申请的保护范围,对于本领域的技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步定义和解释。
以上所述,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应所述以权利要求的保护范围为准。
需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (10)
1.一种目标检测模型的训练方法,其特征在于,包括:
获取损失函数和用于训练原始检测模型的训练数据,所述损失函数包括方向分类损失函数,所述训练数据包括物体类别数据,所述物体类别数据用于所述方向分类损失函数计算方向分类损失;
根据所述训练数据以及所述损失函数对所述原始检测模型进行训练,得到目标检测模型。
2.根据权利要求1所述的目标检测模型的训练方法,其特征在于,所述训练数据还包括物体位置数据、物体尺寸数据和物体方向类别数据。
3.根据权利要求1或2所述的目标检测模型的训练方法,其特征在于,所述根据所述训练数据以及所述损失函数对所述原始检测模型进行训练,得到目标检测模型,得到目标检测模型,包括:
通过所述原始检测模型对所述训练数据进行处理,得到处理结果;
根据所述损失函数对所述处理结果进行损失计算,得到损失计算结果;
根据所述损失计算结果调整所述原始检测模型的参数,得到目标检测模型。
4.根据权利要求3所述的目标检测模型的训练方法,其特征在于,所述根据所述损失函数对所述处理结果进行损失计算,得到损失计算结果,包括:
根据预设的编码规则对所述处理结果进行编码,得到编码数据;
根据所述编码数据以及所述损失函数进行损失计算,得到包括方向分类损失的损失计算结果。
5.根据权利要求1~4任一项所述的目标检测模型的训练方法,其特征在于,在所述根据所述训练数据以及所述损失函数对所述原始检测模型进行训练,得到目标检测模型之后,所述方法还包括:
获取激光雷达检测数据;
对所述激光雷达检测数据进行预处理,得到预处理数据;
通过所述目标检测模型对所述预处理数据进行处理,得到目标检测结果。
6.一种目标检测模型的训练装置,其特征在于,所述目标检测模型的训练装置包括:
获取模块,用于获取损失函数和用于训练原始检测模型的训练数据,所述损失函数包括方向分类损失函数,所述训练数据包括物体类别数据,所述物体类别数据用于所述方向分类损失函数计算方向分类损失;
训练模块,用于根据所述训练数据以及所述损失函数对所述原始检测模型进行训练,得到目标检测模型。
7.根据权利要求6所述的目标检测模型的训练装置,其特征在于,所述训练数据还包括物体位置数据、物体尺寸数据和物体方向类别数据。
8.根据权利要求6所述的目标检测模型的训练装置,其特征在于,所述训练模块包括:
模型处理子模块,用于通过所述原始检测模型对所述训练数据进行处理,得到处理结果;
损失计算子模块,用于根据所述损失函数对所述处理结果进行损失计算,得到损失计算结果;
参数调整子模块,用于根据所述损失计算结果调整所述原始检测模型的参数,得到目标检测模型。
9.一种电子设备,其特征在于,所述电子设备包括存储器以及处理器,所述存储器用于存储计算机程序,所述处理器运行所述计算机程序以使所述电子设备执行权利要求1至5中任一项所述的目标检测模型的训练方法。
10.一种可读存储介质,其特征在于,所述可读取存储介质中存储有计算机程序指令,所述计算机程序指令被一处理器读取并运行时,执行权利要求1至5任一项所述的目标检测模型的训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011048020.8A CN112183358B (zh) | 2020-09-29 | 2020-09-29 | 一种目标检测模型的训练方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011048020.8A CN112183358B (zh) | 2020-09-29 | 2020-09-29 | 一种目标检测模型的训练方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112183358A true CN112183358A (zh) | 2021-01-05 |
CN112183358B CN112183358B (zh) | 2024-04-23 |
Family
ID=73946930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011048020.8A Active CN112183358B (zh) | 2020-09-29 | 2020-09-29 | 一种目标检测模型的训练方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112183358B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038448A (zh) * | 2017-03-01 | 2017-08-11 | 中国科学院自动化研究所 | 目标检测模型构建方法 |
US20190087673A1 (en) * | 2017-09-15 | 2019-03-21 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for identifying traffic light |
CN110020592A (zh) * | 2019-02-03 | 2019-07-16 | 平安科技(深圳)有限公司 | 物体检测模型训练方法、装置、计算机设备及存储介质 |
CN110208802A (zh) * | 2019-05-16 | 2019-09-06 | 四川省客车制造有限责任公司 | 融合多视图模糊推理赋值的障碍物检测方法 |
CN110909623A (zh) * | 2019-10-31 | 2020-03-24 | 南京邮电大学 | 三维目标检测方法及三维目标检测器 |
CN111145174A (zh) * | 2020-01-02 | 2020-05-12 | 南京邮电大学 | 基于图像语义特征进行点云筛选的3d目标检测方法 |
CN111401456A (zh) * | 2020-03-20 | 2020-07-10 | 杭州涂鸦信息技术有限公司 | 人脸姿态识别模型的训练方法及其系统和装置 |
WO2020164282A1 (zh) * | 2019-02-14 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于yolo的图像目标识别方法、装置、电子设备和存储介质 |
-
2020
- 2020-09-29 CN CN202011048020.8A patent/CN112183358B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107038448A (zh) * | 2017-03-01 | 2017-08-11 | 中国科学院自动化研究所 | 目标检测模型构建方法 |
US20190087673A1 (en) * | 2017-09-15 | 2019-03-21 | Baidu Online Network Technology (Beijing) Co., Ltd | Method and apparatus for identifying traffic light |
CN110020592A (zh) * | 2019-02-03 | 2019-07-16 | 平安科技(深圳)有限公司 | 物体检测模型训练方法、装置、计算机设备及存储介质 |
WO2020155518A1 (zh) * | 2019-02-03 | 2020-08-06 | 平安科技(深圳)有限公司 | 物体检测方法、装置、计算机设备及存储介质 |
WO2020164282A1 (zh) * | 2019-02-14 | 2020-08-20 | 平安科技(深圳)有限公司 | 基于yolo的图像目标识别方法、装置、电子设备和存储介质 |
CN110208802A (zh) * | 2019-05-16 | 2019-09-06 | 四川省客车制造有限责任公司 | 融合多视图模糊推理赋值的障碍物检测方法 |
CN110909623A (zh) * | 2019-10-31 | 2020-03-24 | 南京邮电大学 | 三维目标检测方法及三维目标检测器 |
CN111145174A (zh) * | 2020-01-02 | 2020-05-12 | 南京邮电大学 | 基于图像语义特征进行点云筛选的3d目标检测方法 |
CN111401456A (zh) * | 2020-03-20 | 2020-07-10 | 杭州涂鸦信息技术有限公司 | 人脸姿态识别模型的训练方法及其系统和装置 |
Also Published As
Publication number | Publication date |
---|---|
CN112183358B (zh) | 2024-04-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10614324B2 (en) | Method and apparatus for identifying static obstacle | |
US9984291B2 (en) | Information processing apparatus, information processing method, and storage medium for measuring a position and an orientation of an object by using a model indicating a shape of the object | |
US9008440B2 (en) | Component recognizing apparatus and component recognizing method | |
CN111444811A (zh) | 一种三维点云目标检测的方法 | |
US20160062359A1 (en) | Methods and Systems for Mobile-Agent Navigation | |
EP3159126A1 (en) | Device and method for recognizing location of mobile robot by means of edge-based readjustment | |
EP3159122A1 (en) | Device and method for recognizing location of mobile robot by means of search-based correlation matching | |
CN109871745A (zh) | 识别空车位的方法、系统及车辆 | |
CN113377888A (zh) | 训练目标检测模型和检测目标的方法 | |
CN110751040B (zh) | 一种三维物体的检测方法和装置、电子设备、存储介质 | |
CN113312973B (zh) | 一种手势识别关键点特征提取方法及系统 | |
JP2020080047A (ja) | 学習装置、推定装置、学習方法およびプログラム | |
CN116246119A (zh) | 3d目标检测方法、电子设备及存储介质 | |
CN112200056A (zh) | 人脸活体检测方法、装置、电子设备及存储介质 | |
CN111612818A (zh) | 新型双目视觉多目标跟踪方法及系统 | |
CN114241448A (zh) | 障碍物航向角的获取方法、装置、电子设备及车辆 | |
CN113189610B (zh) | 地图增强的自动驾驶多目标追踪方法和相关设备 | |
CN117671637A (zh) | 物体点云重叠识别方法、装置、设备、机器人和存储介质 | |
CN114926536B (zh) | 一种基于语义的定位与建图方法、系统及智能机器人 | |
CN112183358B (zh) | 一种目标检测模型的训练方法及装置 | |
CN116343143A (zh) | 目标检测方法、存储介质、路侧设备及自动驾驶系统 | |
CN115507752A (zh) | 基于平行环境元素的单目视觉测距方法和系统 | |
CN114140497A (zh) | 目标车辆3d实时追踪方法及系统 | |
CN117218205B (zh) | 一种相机外参校正方法和系统 | |
CN117475207B (zh) | 基于3d仿生视觉目标探测与识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20230412 Address after: 100000 1703, floor 17, building 1, No. 10, Ronghua Middle Road, Beijing Economic and Technological Development Zone, Daxing District, Beijing (Yizhuang group, high-end industrial area of Beijing Pilot Free Trade Zone) Applicant after: NEOLIX TECHNOLOGIES Co.,Ltd. Address before: No. 202, Floor 2, Building 15 #, Chuangke Town Community Supporting Commercial Building, Wenquan Town, Haidian District, Beijing 100082 Applicant before: Neolithic huituo (Beijing) Technology Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |