CN110633751A - 车标分类模型的训练方法、车标识别方法、装置及设备 - Google Patents
车标分类模型的训练方法、车标识别方法、装置及设备 Download PDFInfo
- Publication number
- CN110633751A CN110633751A CN201910875817.6A CN201910875817A CN110633751A CN 110633751 A CN110633751 A CN 110633751A CN 201910875817 A CN201910875817 A CN 201910875817A CN 110633751 A CN110633751 A CN 110633751A
- Authority
- CN
- China
- Prior art keywords
- classification
- fusion
- loss
- vehicle
- logo
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本申请涉及一种车标分类模型的训练方法、车标识别方法、装置及设备。车标分类模型的训练方法包括:获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失;根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。该方法可以将离散样本连续化,提高邻域内的平滑性,解决了过拟合的问题;并且同时提高了模型训练的效率。
Description
技术领域
本申请涉及图像识别技术领域,特别是涉及一种车标分类模型的训练方法、车标识别方法、装置及设备。
背景技术
随着人们生活水平的日益提高,机动车数量也随之剧增,车管所车辆年检的工作量也随之增大,在车辆年检过程中车标识别是其中较重要的一环。早期的车标识别工作通常由人工进行判定,但其人力成本较高、受主观因素影响较大且效率较低。目前,人工智能领域得到广泛应用,利用人工智能的方式(如使用神经网络模型)来进行车标识别可大幅提高识别效率及准确度。
在使用神经网络模型对车标进行识别之前,需要先对神经网络模型进行训练,传统技术通常是对车辆的档案图片进行车标标注,然后将这些图片及对应的标注输入神经网络模型进行训练。但是,传统技术的模型训练方法存在过拟合问题,当在车辆年检过程中采集的车辆图片车标区域不清晰时,使用训练完成的神经网络模型进行车标识别的准确度较低。
发明内容
基于此,有必要针对传统技术中使用训练完成的神经网络模型进行车标识别的准确度较低的问题,提供一种车标分类模型的训练方法、车标识别方法、装置及设备。
第一方面,本申请实施例提供一种车标分类模型的训练方法,包括:
获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;训练样本图像包括类别标签;
将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;
分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失;
根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。
在其中一个实施例中,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像,包括:
将任两个训练样本图像中的第一训练样本图像与融合比例进行相乘,得到第一结果;
将任两个训练样本图像中的第二训练样本图像与融合比例的变形式进行相乘,得到第二结果;
将第一结果和第二结果进行相加,得到融合样本图像。
在其中一个实施例中,车标分类结果为融合样本图像属于不同车标类别的概率向量;分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,包括:
将任两个训练样本图像的类别标签分别进行one-hot变换,得到第一类别向量和第二类别向量;
计算车标分类结果与第一类别向量的第一分类损失,以及车标分类结果与第二类别向量的第二分类损失。
在其中一个实施例中,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失,包括:
将第一分类损失与融合比例进行相乘,得到第三结果;以及将第二分类损失与融合比例的变形式进行相乘,得到第四结果;
将第三结果和第四结果进行相加,得到融合损失。
在其中一个实施例中,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像,包括:
根据包含λxi+(1-λ)xj的关系式,得到融合样本图像;其中,λ为融合比例,xi为第一训练样本图像,xj为第二训练样本图像。
在其中一个实施例中,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失,包括:
根据包含λ*crossEntroLoss(y',yi)+(1-λ)*crossEntroLoss(y',yj)的关系式,得到融合损失;其中,y'为车标分类结果,yi为第一类别向量,yj为第二类别向量,crossEntroLoss(y',yi)为第一分类损失,crossEntroLoss(y',yj)为第二分类损失。
第二方面,本申请实施例提供一种车标识别方法,包括:
获取待检测图像;
采用车辆检测模型对待检测图像进行检测,若检测到车辆,对车辆的区域进行标记;若未检测到车辆,则结束流程;
采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对车标的区域进行标记;若未检测到车标,则结束流程;
采用车标分类模型对标记的车标区域进行识别,得到车标识别结果;其中,车标分类模型的训练方法为上述实施例所述的方法。
第三方面,本申请实施例提供一种车标分类模型的训练装置,包括:
第一获取模块,用于获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;训练样本图像包括类别标签;
分类模块,用于将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;
计算模块,用于分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失;
训练模块,用于根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。
第四方面,本申请实施例提供一种车标识别装置,包括:
第二获取模块,用于获取待检测图像;
第一检测模块,用于采用车辆检测模型对待检测图像进行检测,若检测到车辆,对车辆的区域进行标记;若未检测到车辆,则结束流程;
第二检测模块,用于采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对车标的区域进行标记;若未检测到车标,则结束流程;
识别模块,用于采用车标分类模型对标记的车标区域进行识别,得到车标识别结果。
第五方面,本申请实施例提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现以下步骤:
获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;训练样本图像包括类别标签;
将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;
分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失;
根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。
第六方面,本申请实施例还提供一种计算机设备,包括存储器和处理器,存储器存储有计算机程序,处理器执行计算机程序时实现以下步骤:
获取待检测图像;
采用车辆检测模型对待检测图像进行检测,若检测到车辆,对车辆的区域进行标记;若未检测到车辆,则结束流程;
采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对车标的区域进行标记;若未检测到车标,则结束流程;
采用车标分类模型对标记的车标区域进行识别,得到车标识别结果。
第七方面,本申请实施例提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;训练样本图像包括类别标签;
将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;
分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失;
根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。
第八方面,本申请实施例还提供一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待检测图像;
采用车辆检测模型对待检测图像进行检测,若检测到车辆,对车辆的区域进行标记;若未检测到车辆,则结束流程;
采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对车标的区域进行标记;若未检测到车标,则结束流程;
采用车标分类模型对标记的车标区域进行识别,得到车标识别结果。
上述车标分类模型的训练方法、车标识别方法、装置、设备及可读存储介质,首先获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;训练样本图像包括类别标签;然后将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失;最后根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。该方法通过将任两个图像按照融合比例进行融合,可以将离散样本连续化,提高邻域内的平滑性,解决了过拟合的问题;并且可以在模型训练之前将数据进行融合,简化了训练模型时的预处理方式,同时提高了模型训练的效率。
附图说明
图1为一个实施例提供的车标分类模型的训练方法的流程示意图;
图2为另一个实施例提供的车标分类模型的训练方法的流程示意图;
图2a为一个实施例提供的两个训练样本图像进行融合得到融合样本图像的示例图;
图3为又一个实施例提供的车标分类模型的训练方法的流程示意图;
图4为一个实施例提供的车标识别方法的流程示意图;
图5为一个实施例提供的车标分类模型的训练装置的结构示意图;
图6为一个实施例提供的车标识别装置的结构示意图;
图7为一个实施例提供的计算机设备的内部结构示意图。
具体实施方式
本申请实施例提供的车标分类模型的训练方法,可以适用于分类网络模型的训练过程,该分类网络模型可以用于对车标图像进行识别分类,也可以用于对其他图像进行分类,如运动员球衣号码的分类等,本实施例对此不做限制。传统技术在进行车标分类模型的训练时,通常使用车辆档案图片或现场采集的图像进行训练,但由于车辆图像比较清晰,导致该训练方法存在过拟合的问题,若使用训练完成的车标分类模型对一张不清晰的车标图像进行识别,其识别的准确度较低。本申请实施例提供的车标分类模型的训练方法、车标识别方法、装置及设备,旨在解决上述技术问题。
为了使本申请的目的、技术方案及优点更加清楚明白,通过下述实施例并结合附图,对本申请实施例中的技术方案进行进一步的详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,下述方法实施例的执行主体可以是车标分类模型的训练装置,该装置可以通过软件、硬件或者软硬件结合的方式实现成为计算机设备的部分或者全部。下述方法实施例以执行主体为计算机设备为例进行说明。
图1为一个实施例提供的车标分类模型的训练方法的流程示意图。本实施例涉及的是计算机设备利用训练样本图像对车标分类模型进行训练的具体过程。如图1所示,该方法包括:
S101,获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;训练样本图像包括类别标签。
具体的,训练样本图像为大量不同类型、不同颜色、不同拍摄角度、不同光照的车标区域图像,每个训练样本图像都标记有类别标签。假设共有n个训练样本图像,m种类别标签,xi为第i个训练样本图像(其中,i≤n),yi为xi对应的类别标签(如大众、奔驰、奇瑞等,共m个),xj为第j个训练样本图像(其中,j≤n且i≠j),yj为xj对应的类别标签,计算机设备可以将xi和xj(即xi和xj为任两个不同的训练样本图像)按照预设的融合比例λ进行融合,得到融合样本图像。可选的,上述类别标签的数据形式可以为类别标号(如数字),不同类别标号表示不同的类别标签。可选的,计算机设备可以采用mixup数据增强方法将任两个训练样本图像进行融合。
其中,xi和xj可以看作离散的训练样本图像,将其按预设的融合比例进行融合之后,可以得到一系列连续的训练样本图像,由此可将离散样本连续化,提高邻域内的平滑性。
可选的,λ可以为预先设置的数值,也可以为采用beta(α,α)分布计算的(0-1)之间的随机值(经实验推算,α为0.2训练效果最好),当然,也可以采用其他分布计算方式获取λ的值。
S102,将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果。
具体的,计算机设备得到上述融合样本图像后,可以将其输入车标分类模型中进行分类处理,得到车标分类结果,该分类结果为上述m种类别标签中的一种。可选的,计算机设备得到的车标分类结果可以为该融合样本图像属于不同车标类别的概率,各概率之和为1,如属于大众的概率为0.6、属于奔驰的概率为0.2、属于奇瑞的概率为0、...、属于宝马的概率为0.2,然后将最大概率值对应的类别作为车标分类结果。
可选的,上述车标分类模型可以为神经网络模型,如卷积神经网络(Convolutional Neural Networks,CNN)、全卷积网络(Fully Convolutional Networks,FCN),也可以为其他深度学习模型、机器学习模型,本实施例对此不做限制。可选的,车标分类模型可以采用resnet-18作为基网络,基网络后面连接两个全连接层,最后全连接层的大小与车标类别标签数目(即m)相等。
S103,分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失。
具体的,计算机设备得到上述车标分类结果后,可以计算该车标分类结果与上述任两个训练样本图像的类别标签的第一分类损失和第二分类损失,也即是计算车标分类结果与yi的第一分类损失,以及车标分类结果与yj的第二分类损失。然后由于上述输入车标分类模型中的是融合样本图像,那么计算机设备也可以将第一分类损失和第二分类损失按照融合比例进行融合,得到融合损失。可选的,对第一分类损失和第二分类损失进行融合时使用的融合比例可以为上述λ,也可以为包含λ的其他关系式。
可选的,计算机设备可以采用交叉熵损失函数作为计算第一分类损失和第二分类损失的损失函数,当然,也可以采用其他类型的损失函数进行计算,本实施例对此不做限制。
S104,根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。
具体的,计算机设备可以根据上述融合损失对车标分类模型中的模型参数进行调整,可选的,可以采用反向梯度传播方式调整模型参数。以此按照上述方法循环训练车标分类模型,直至车标分类模型收敛,可选的,车标分类模型收敛的条件可以为上述融合损失达到预设的损失阈值,也可以为融合损失达到收敛。
可选的,计算机设备可以设置车标分类模型训练过程中的初始学习率为0.01,学习率采用multi-step的方式随迭代次数增加而缩小,调整模型参数的优化器可以为SGD、Adam,或者其他类型的优化器,本实施例对此不做限制。
本实施例提供的车标分类模型的训练方法,计算机设备首先将获取的多个训练样本图像中任两个图像按照融合比例进行融合,然后将融合样本图像输入车标分类模型得到车标分类结果,再分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,并将该两个损失进行融合,最后根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。该方法通过将任两个图像按照融合比例进行融合,可以将离散样本连续化,提高邻域内的平滑性,解决了过拟合的问题;并且可以在模型训练之前将数据进行融合,简化了训练模型时的预处理方式,同时提高了模型训练的效率。
可选的,在其中一些实施例中,计算机设备还可以在对任两个训练样本图像进行融合时,将该两个训练样本图像对应的类别标签也进行相应的融合;然后计算车标分类结果与融合前标签之间的损失,利用该损失对车标分类模型中的模型参数进行调整,此方法的前提为车标分类结果与融合标签的数据表达形式相同(如都为类别标号形式)。
图2为另一个实施例提供的车标分类模型的训练方法的流程示意图。本实施例涉及的是计算机设备将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像的具体过程。在上述实施例的基础上,可选的,S101可以包括:
S201,将任两个训练样本图像中的第一训练样本图像与融合比例进行相乘,得到第一结果。
S202,将任两个训练样本图像中的第二训练样本图像与融合比例的变形式进行相乘,得到第二结果。
具体的,计算机设备确定了融合比例λ后,可以将上述任两个训练样本图像中的第一训练样本图像(即其中一个训练样本图像)与融合比例进行相乘,得到第一结果;将第二训练样本图像(即另一个训练样本图像)与融合比例的变形式进行相乘,得到第二结果。可选的,融合比例λ的变形式可以为(1-λ),也可以为融合比例的加权。
S203,将第一结果和第二结果进行相加,得到融合样本图像。
具体的,计算机设备可以将上述第一结果和第二结果进行相加,得到融合样本图像,可选的,可以为将第一结果和第二结果直接求和,也可以为将第一结果和第二结果加权求和,以得到融合样本图像。
可选的,计算机设备可以根据包含λxi+(1-λ)xj的关系式,得到融合样本图像,其中,λ为融合比例,xi为第一训练样本图像,λxi为第一结果,xj为第二训练样本图像,(1-λ)xj为第二结果。可选的,计算机设备还可以根据包含λyi+(1-λ)yj的关系式,得到上述融合标签。关于将两个训练样本图像进行融合得到融合样本图像的示例可参见图2a所示,值得说明的是,该图中没有以车标图像为例示出,其仅为一个示例而已。
本实施例提供的车标分类模型的训练方法,计算机设备将第一训练样本图像与融合比例相乘,得到第一结果;将第二训练样本图像与融合比例的变形式相乘,得到第二结果;然后将第一结果与第二结果相加即得到融合样本图像。由此得到的融合样本图像使得训练样本的连续性更优,能够更好的解决过拟合问题。
可选的,上述车标分类结果可以为融合样本图像属于不同车标类别的概率向量,因此若要计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,则训练样本图像的类别标签也需为向量形式。可选的,如图3所示为又一个实施例提供的车标分类模型的训练方法的流程示意图。本实施例涉及的是计算机设备分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失的具体过程。可选的,上述S103可以包括:
S301,将任两个训练样本图像的类别标签分别进行one-hot变换,得到第一类别向量和第二类别向量。
S302,计算车标分类结果与第一类别向量的第一分类损失,以及车标分类结果与第二类别向量的第二分类损失。
具体的,计算机设备可以将任两个训练样本图像的类别标签分别进行one-hot变换,如假设有5种车标类别,第一训练样本图像的类别标签为2,第一训练样本图像的类别标签为4,则第一训练样本图像的第一类别向量为[0,1,0,0,0],第二训练样本图像的第二类别向量为[0,0,0,1,0]。然后计算机设备可以计算车标分类结果与第一类别向量的第一分类损失,以及车标分类结果与第二类别向量的第二分类损失,其中,计算损失的方法可以参见上述实施例的描述。
可选的,计算机设备计算得到第一分类损失和第二分类损失后,可以将第一分类损失与融合比例进行相乘,得到第三结果,以及将第二分类损失与融合比例的变形式进行相乘,得到第四结果;然后将第三结果和第四结果进行相加,得到融合损失。可选的,计算机设备可以根据包含λ*crossEntroLoss(y',yi)+(1-λ)*crossEntroLoss(y',yj)的关系式,得到融合损失,其中,y'为网络预测的车标分类结果,yi为第一类别向量,yj为第二类别向量,crossEntroLoss(y',yi)为第一分类损失,crossEntroLoss(y',yj)为第二分类损失。
本实施例提供的车标分类模型的训练方法,计算机设备将任两个训练样本图像的类别标签分别进行one-hot变换,得到第一类别向量和第二类别向量后,计算车标分类结果与第一类别向量的第一分类损失,以及车标分类结果与第二类别向量的第二分类损失。由此计算分类损失时保证车标分类结果与类别标签具有相同的数据格式,提高了计算得到的融合损失的准确率,进一步提高了训练得到的车标分类模型的精度。
上述实施例介绍的是车标分类模型的训练过程,当其训练收敛后,可以应用于实际场景中,如车辆年检过程。图4为一个实施例提供的车标识别方法的流程示意图,如图4所示,该方法包括:
S401,获取待检测图像。
具体的,计算机设备首先获取待检测图像,可选的,该待检测图像可以为车辆年检现场拍摄的图像,计算机设备可以在固定的时间间隔从存储待检测图像的存储器中获取待检测图像。
S402a,采用车辆检测模型对待检测图像进行检测,若检测到车辆,对车辆的区域进行标记。
S402b,若未检测到车辆,则结束流程。
具体的,计算机设备可以采用车辆检测模型对待检测图像进行检测,判断是否有车辆区域。其中,车辆检测模型可以为神经网络模型,也可以为其他深度学习模型,可选的,可以为SSD(Single Shot MultiBox Detector)网络模型。若检测到待检测图像中有车辆区域,则计算机设备对车辆区域进行标记,可选的,可以采用矩形框标记,也可以采用圆框标记,当然还可以采用其他方式进行标记。若未检测到待检测图像中有车辆区域,则结束本次流程,计算机设备对下一个待检测图像进行检测。
可选的,上述车辆检测模型的训练过程可以为:获取不同角度、不同光照条件下的车检现场的车辆图像及档案图像,用矩形框(或其他标记框)对图像中的车辆进行标注作为真实标签;然后使用标注好的图像训练该车辆检测模型,直至该车辆检测模型收敛。其中,可以设置初始学习率为0.01,学习率采用multi-step的方式随迭代次数增加而缩小,优化器采用SGD。
S403a,采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对车标的区域进行标记。
S403b,若未检测到车标,则结束流程。
具体的,计算机设备得到标记的车辆区域后,可以采用车标检测模型对车辆区域图像进行检测,判断是否有车标区域。其中,车标检测模型可以为神经网络模型,也可以为其他深度学习模型,可选的,可以为SSD(Single Shot MultiBox Detector)网络模型。若检测到车辆区域图像中有车标区域,则计算机设备对车标区域进行标记,可选的,可以采用矩形框标记,也可以采用圆框标记,当然还可以采用其他方式进行标记;可选的,车标区域的标记方式可以与车辆区域相同,也可以不同。若未检测到车辆区域图像中有车标区域,则结束本次流程,计算机设备对下一个待检测图像进行检测。
可选的,上述车标检测模型的训练过程可以为:获取不同角度、不同光照条件下的车检现场的车辆图像及档案图像,用矩形框(或其他标记框)对图像中的车标进行标注作为真实标签;然后使用标注好的图像训练该车标检测模型,直至该车标检测模型收敛。其中,可以设置初始学习率为0.01,学习率采用multi-step的方式随迭代次数增加而缩小,优化器采用SGD。
S404,采用车标分类模型对标记的车标区域进行识别,得到车标识别结果;其中,车标分类模型的训练方法为上述实施例描述的方法。
具体的,计算机设备可以利用上述训练得到的车标分类模型对标记的车标区域进行识别,得到车标识别结果。可选的,得到车标识别结果后,计算机设备可以将其与档案中登记的信息进行匹配,若匹配成功将其标志为1,若匹配不成功则将其标志为0,即得到车辆的年检结果。
本实施例提供的车标识别方法,计算机设备首先对待检测图像进行车辆检测,对车辆的区域进行标记;然后对对标记的车辆区域进行车标检测,对车标的区域进行标记;最后对标记的车标区域进行车标识别。由此逐层检测与识别,可以提高车标识别的准确性。
应该理解的是,虽然图1-图4的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-图4中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
图5为一个实施例提供的车标分类模型的训练装置的结构示意图。如图5所示,该装置包括:第一获取模块11、分类模块12、计算模块13和训练模块14。
具体的,第一获取模块11,用于获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;训练样本图像包括类别标签。
分类模块12,用于将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果。
计算模块13,用于分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失。
训练模块14,用于根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。
本实施例提供的车标分类模型的训练装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
在其中一个实施例中,上述第一获取模块11,具体用于将任两个训练样本图像中的第一训练样本图像与融合比例进行相乘,得到第一结果;将任两个训练样本图像中的第二训练样本图像与融合比例的变形式进行相乘,得到第二结果;以及将第一结果和第二结果进行相加,得到融合样本图像。
在其中一个实施例中,车标分类结果为融合样本图像属于不同车标类别的概率向量;上述计算模块13,具体用于将任两个训练样本图像的类别标签分别进行one-hot变换,得到第一类别向量和第二类别向量;以及计算车标分类结果与第一类别向量的第一分类损失,以及车标分类结果与第二类别向量的第二分类损失。
在其中一个实施例中,计算模块13,具体用于将第一分类损失与融合比例进行相乘,得到第三结果;以及将第二分类损失与融合比例的变形式进行相乘,得到第四结果;以及将第三结果和第四结果进行相加,得到融合损失。
在其中一个实施例中,上述第一获取模块11,具体用于根据包含λxi+(1-λ)xj的关系式,得到融合样本图像;其中,λ为融合比例,xi为第一训练样本图像,xj为第二训练样本图像。
在其中一个实施例中,上述计算模块13,具体用于根据包含λ*crossEntroLoss(y',yi)+(1-λ)*crossEntroLoss(y',yj)的关系式,得到融合损失;其中,y'为车标分类结果,yi为第一类别向量,yj为第二类别向量,crossEntroLoss(y',yi)为第一分类损失,crossEntroLoss(y',yj)为第二分类损失。
图6为一个实施例提供的车标识别装置的结构示意图。如图6所示,该装置包括:第二获取模块21、第一检测模块22、第二检测模块23和识别模块24。
具体的,第二获取模块21,用于获取待检测图像。
第一检测模块22,用于采用车辆检测模型对待检测图像进行检测,若检测到车辆,对车辆的区域进行标记;若未检测到车辆,则结束流程。
第二检测模块23,用于采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对车标的区域进行标记;若未检测到车标,则结束流程。
识别模块24,用于采用车标分类模型对标记的车标区域进行识别,得到车标识别结果。
本实施例提供的车标识别装置,可以执行上述方法实施例,其实现原理和技术效果类似,在此不再赘述。
关于车标分类模型的训练装置和车标识别装置的具体限定可以参见上文中对于车标分类模型的训练方法和车标识别方法的限定,在此不再赘述。上述车标分类模型的训练装置和车标识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图7所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种车标分类模型的训练方法或车标识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图7中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;训练样本图像包括类别标签;
将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;
分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失;
根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。
本实施例提供的计算机设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将任两个训练样本图像中的第一训练样本图像与融合比例进行相乘,得到第一结果;
将任两个训练样本图像中的第二训练样本图像与融合比例的变形式进行相乘,得到第二结果;
将第一结果和第二结果进行相加,得到融合样本图像。
在一个实施例中,车标分类结果为融合样本图像属于不同车标类别的概率向量;处理器执行计算机程序时还实现以下步骤:
将任两个训练样本图像的类别标签分别进行one-hot变换,得到第一类别向量和第二类别向量;
计算车标分类结果与第一类别向量的第一分类损失,以及车标分类结果与第二类别向量的第二分类损失。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
将第一分类损失与融合比例进行相乘,得到第三结果;以及将第二分类损失与融合比例的变形式进行相乘,得到第四结果;
将第三结果和第四结果进行相加,得到融合损失。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据包含λxi+(1-λ)xj的关系式,得到融合样本图像;其中,λ为融合比例,xi为第一训练样本图像,xj为第二训练样本图像。
在一个实施例中,处理器执行计算机程序时还实现以下步骤:
根据包含λ*crossEntroLoss(y',yi)+(1-λ)*crossEntroLoss(y',yj)的关系式,得到融合损失;其中,y'为车标分类结果,yi为第一类别向量,yj为第二类别向量,crossEntroLoss(y',yi)为第一分类损失,crossEntroLoss(y',yj)为第二分类损失。
在一个实施例中,还提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时实现以下步骤:
获取待检测图像;
采用车辆检测模型对待检测图像进行检测,若检测到车辆,对车辆的区域进行标记;若未检测到车辆,则结束流程;
采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对车标的区域进行标记;若未检测到车标,则结束流程;
采用车标分类模型对标记的车标区域进行识别,得到车标识别结果。
本实施例提供的计算机设备,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取多个训练样本图像,将多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;训练样本图像包括类别标签;
将融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;
分别计算车标分类结果与任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将第一分类损失与第二分类损失按照融合比例进行融合,得到融合损失;
根据融合损失对车标分类模型中的模型参数进行调整,以此循环训练直至车标分类模型达到收敛。
本实施例提供的计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将任两个训练样本图像中的第一训练样本图像与融合比例进行相乘,得到第一结果;
将任两个训练样本图像中的第二训练样本图像与融合比例的变形式进行相乘,得到第二结果;
将第一结果和第二结果进行相加,得到融合样本图像。
在一个实施例中,车标分类结果为融合样本图像属于不同车标类别的概率向量;计算机程序被处理器执行时还实现以下步骤:
将任两个训练样本图像的类别标签分别进行one-hot变换,得到第一类别向量和第二类别向量;
计算车标分类结果与第一类别向量的第一分类损失,以及车标分类结果与第二类别向量的第二分类损失。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
将第一分类损失与融合比例进行相乘,得到第三结果;以及将第二分类损失与融合比例的变形式进行相乘,得到第四结果;
将第三结果和第四结果进行相加,得到融合损失。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据包含λxi+(1-λ)xj的关系式,得到融合样本图像;其中,λ为融合比例,xi为第一训练样本图像,xj为第二训练样本图像。
在一个实施例中,计算机程序被处理器执行时还实现以下步骤:
根据包含λ*crossEntroLoss(y',yi)+(1-λ)*crossEntroLoss(y',yj)的关系式,得到融合损失;其中,y'为车标分类结果,yi为第一类别向量,yj为第二类别向量,crossEntroLoss(y',yi)为第一分类损失,crossEntroLoss(y',yj)为第二分类损失。
在一个实施例中,还提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:
获取待检测图像;
采用车辆检测模型对待检测图像进行检测,若检测到车辆,对车辆的区域进行标记;若未检测到车辆,则结束流程;
采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对车标的区域进行标记;若未检测到车标,则结束流程;
采用车标分类模型对标记的车标区域进行识别,得到车标识别结果。
本实施例提供的计算机可读存储介质,其实现原理和技术效果与上述方法实施例类似,在此不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。
Claims (10)
1.一种车标分类模型的训练方法,其特征在于,包括:
获取多个训练样本图像,将所述多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;所述训练样本图像包括类别标签;
将所述融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;
分别计算所述车标分类结果与所述任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将所述第一分类损失与所述第二分类损失按照所述融合比例进行融合,得到融合损失;
根据所述融合损失对所述车标分类模型中的模型参数进行调整,以此循环训练直至所述车标分类模型达到收敛。
2.根据权利要求1所述的方法,其特征在于,所述将所述多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像,包括:
将所述任两个训练样本图像中的第一训练样本图像与所述融合比例进行相乘,得到第一结果;
将所述任两个训练样本图像中的第二训练样本图像与所述融合比例的变形式进行相乘,得到第二结果;
将所述第一结果和所述第二结果进行相加,得到所述融合样本图像。
3.根据权利要求1或2所述的方法,其特征在于,所述车标分类结果为所述融合样本图像属于不同车标类别的概率向量;所述分别计算所述车标分类结果与所述任两个训练样本图像的类别标签的第一分类损失和第二分类损失,包括:
将所述任两个训练样本图像的类别标签分别进行one-hot变换,得到第一类别向量和第二类别向量;
计算所述车标分类结果与所述第一类别向量的所述第一分类损失,以及所述车标分类结果与所述第二类别向量的所述第二分类损失。
4.根据权利要求3所述的方法,其特征在于,所述将所述第一分类损失与所述第二分类损失按照所述融合比例进行融合,得到融合损失,包括:
将所述第一分类损失与所述融合比例进行相乘,得到第三结果;以及将所述第二分类损失与所述融合比例的变形式进行相乘,得到第四结果;
将所述第三结果和所述第四结果进行相加,得到所述融合损失。
5.根据权利要求2所述的方法,其特征在于,所述将所述多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像,包括:
根据包含λxi+(1-λ)xj的关系式,得到所述融合样本图像;其中,所述λ为所述融合比例,所述xi为所述第一训练样本图像,所述xj为所述第二训练样本图像。
6.根据权利要求4所述的方法,其特征在于,所述将所述第一分类损失与所述第二分类损失按照所述融合比例进行融合,得到融合损失,包括:
根据包含λ*crossEntroLoss(y',yi)+(1-λ)*crossEntroLoss(y',yj)的关系式,得到所述融合损失;其中,所述y'为所述车标分类结果,所述yi为所述第一类别向量,所述yj为所述第二类别向量,所述crossEntroLoss(y',yi)为所述第一分类损失,所述crossEntroLoss(y',yj)为所述第二分类损失。
7.一种车标识别方法,其特征在于,包括:
获取待检测图像;
采用车辆检测模型对所述待检测图像进行检测,若检测到车辆,对所述车辆的区域进行标记;若未检测到车辆,则结束流程;
采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对所述车标的区域进行标记;若未检测到车标,则结束流程;
采用车标分类模型对标记的车标区域进行识别,得到车标识别结果;其中,所述车标分类模型的训练方法为权利要求1-6任一项所述的方法。
8.一种车标分类模型的训练装置,其特征在于,包括:
第一获取模块,用于获取多个训练样本图像,将所述多个训练样本图像中任两个训练样本图像按照预设的融合比例进行融合,得到融合样本图像;所述训练样本图像包括类别标签;
分类模块,用于将所述融合样本图像输入车标分类模型中进行分类处理,得到车标分类结果;
计算模块,用于分别计算所述车标分类结果与所述任两个训练样本图像的类别标签的第一分类损失和第二分类损失,将所述第一分类损失与所述第二分类损失按照所述融合比例进行融合,得到融合损失;
训练模块,用于根据所述融合损失对所述车标分类模型中的模型参数进行调整,以此循环训练直至所述车标分类模型达到收敛。
9.一种车标识别装置,其特征在于,包括:
第二获取模块,用于获取待检测图像;
第一检测模块,用于采用车辆检测模型对所述待检测图像进行检测,若检测到车辆,对所述车辆的区域进行标记;若未检测到车辆,则结束流程;
第二检测模块,用于采用车标检测模型对标记的车辆区域进行检测,若检测到车标,对所述车标的区域进行标记;若未检测到车标,则结束流程;
识别模块,用于采用车标分类模型对标记的车标区域进行识别,得到车标识别结果。
10.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1-7中任一项所述方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910875817.6A CN110633751A (zh) | 2019-09-17 | 2019-09-17 | 车标分类模型的训练方法、车标识别方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910875817.6A CN110633751A (zh) | 2019-09-17 | 2019-09-17 | 车标分类模型的训练方法、车标识别方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110633751A true CN110633751A (zh) | 2019-12-31 |
Family
ID=68972682
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910875817.6A Pending CN110633751A (zh) | 2019-09-17 | 2019-09-17 | 车标分类模型的训练方法、车标识别方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110633751A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369063A (zh) * | 2020-03-06 | 2020-07-03 | 北京易真学思教育科技有限公司 | 组卷模型训练方法、组卷方法及相关装置 |
CN111444878A (zh) * | 2020-04-09 | 2020-07-24 | Oppo广东移动通信有限公司 | 一种视频分类方法、装置及计算机可读存储介质 |
CN112232349A (zh) * | 2020-09-23 | 2021-01-15 | 成都佳华物链云科技有限公司 | 模型训练方法、图像分割方法及装置 |
CN112418303A (zh) * | 2020-11-20 | 2021-02-26 | 浙江大华技术股份有限公司 | 一种识别状态模型的训练方法、装置及计算机设备 |
CN112837541A (zh) * | 2020-12-31 | 2021-05-25 | 遵义师范学院 | 基于改进ssd的智能交通车流量管理方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103077407A (zh) * | 2013-01-21 | 2013-05-01 | 信帧电子技术(北京)有限公司 | 车标定位识别方法及系统 |
CN103295021A (zh) * | 2012-02-24 | 2013-09-11 | 北京明日时尚信息技术有限公司 | 一种静态图片中车辆特征检测及识别的方法及系统 |
US20160300337A1 (en) * | 2015-04-08 | 2016-10-13 | Tatung University | Image fusion method and image processing apparatus |
CN109919888A (zh) * | 2019-02-26 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
CN109961051A (zh) * | 2019-03-28 | 2019-07-02 | 湖北工业大学 | 一种基于聚类和分块特征提取的行人重识别方法 |
CN110135371A (zh) * | 2019-05-20 | 2019-08-16 | 华南农业大学 | 一种基于Mixup算法的柑橘黄龙病识别方法及装置 |
-
2019
- 2019-09-17 CN CN201910875817.6A patent/CN110633751A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103295021A (zh) * | 2012-02-24 | 2013-09-11 | 北京明日时尚信息技术有限公司 | 一种静态图片中车辆特征检测及识别的方法及系统 |
CN103077407A (zh) * | 2013-01-21 | 2013-05-01 | 信帧电子技术(北京)有限公司 | 车标定位识别方法及系统 |
US20160300337A1 (en) * | 2015-04-08 | 2016-10-13 | Tatung University | Image fusion method and image processing apparatus |
CN109919888A (zh) * | 2019-02-26 | 2019-06-21 | 腾讯科技(深圳)有限公司 | 一种图像融合的方法、模型训练的方法以及相关装置 |
CN109961051A (zh) * | 2019-03-28 | 2019-07-02 | 湖北工业大学 | 一种基于聚类和分块特征提取的行人重识别方法 |
CN110135371A (zh) * | 2019-05-20 | 2019-08-16 | 华南农业大学 | 一种基于Mixup算法的柑橘黄龙病识别方法及装置 |
Non-Patent Citations (2)
Title |
---|
HONGYI ZHANG ET AL.: ""mixup: BEYOND EMPIRICAL RISK MINIMIZATION"", 《ARXIV》 * |
HONGYI-ZHANG: ""mixup / cifar / utils.py"", 《MIXUP/UTILS.PY AT MASTER · HONGYI-ZHANG/MIXUP · GITHUB》 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369063A (zh) * | 2020-03-06 | 2020-07-03 | 北京易真学思教育科技有限公司 | 组卷模型训练方法、组卷方法及相关装置 |
CN111369063B (zh) * | 2020-03-06 | 2022-08-09 | 北京易真学思教育科技有限公司 | 组卷模型训练方法、组卷方法及相关装置 |
CN111444878A (zh) * | 2020-04-09 | 2020-07-24 | Oppo广东移动通信有限公司 | 一种视频分类方法、装置及计算机可读存储介质 |
CN112232349A (zh) * | 2020-09-23 | 2021-01-15 | 成都佳华物链云科技有限公司 | 模型训练方法、图像分割方法及装置 |
CN112232349B (zh) * | 2020-09-23 | 2023-11-03 | 成都佳华物链云科技有限公司 | 模型训练方法、图像分割方法及装置 |
CN112418303A (zh) * | 2020-11-20 | 2021-02-26 | 浙江大华技术股份有限公司 | 一种识别状态模型的训练方法、装置及计算机设备 |
CN112837541A (zh) * | 2020-12-31 | 2021-05-25 | 遵义师范学院 | 基于改进ssd的智能交通车流量管理方法 |
CN112837541B (zh) * | 2020-12-31 | 2022-04-29 | 遵义师范学院 | 基于改进ssd的智能交通车流量管理方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110633751A (zh) | 车标分类模型的训练方法、车标识别方法、装置及设备 | |
WO2021135499A1 (zh) | 损伤检测模型训练、车损检测方法、装置、设备及介质 | |
TWI742382B (zh) | 透過電腦執行的、用於車輛零件識別的神經網路系統、透過神經網路系統進行車輛零件識別的方法、進行車輛零件識別的裝置和計算設備 | |
CN108960211B (zh) | 一种多目标人体姿态检测方法以及系统 | |
CN109472213B (zh) | 掌纹识别方法、装置、计算机设备和存储介质 | |
CN111950329A (zh) | 目标检测及模型训练方法、装置、计算机设备和存储介质 | |
CN110674712A (zh) | 交互行为识别方法、装置、计算机设备和存储介质 | |
CN110807491A (zh) | 车牌图像清晰度模型训练方法、清晰度检测方法及装置 | |
CN110533086B (zh) | 图像数据半自动标注方法 | |
CN110942012A (zh) | 图像特征提取方法、行人重识别方法、装置和计算机设备 | |
CN111832581B (zh) | 肺部特征识别方法、装置、计算机设备及存储介质 | |
CN113128478B (zh) | 模型训练方法、行人分析方法、装置、设备及存储介质 | |
CN110046577B (zh) | 行人属性预测方法、装置、计算机设备和存储介质 | |
CN111144398A (zh) | 目标检测方法、装置、计算机设备和存储介质 | |
CN110796634A (zh) | 大坝状态检测方法、装置、计算机设备和可读存储介质 | |
CN110569856A (zh) | 样本标注方法及装置、损伤类别的识别方法及装置 | |
CN111914842A (zh) | 车牌信息的识别方法、装置、计算机设备及存储介质 | |
CN113807399A (zh) | 一种神经网络训练方法、检测方法以及装置 | |
CN111047088A (zh) | 预测图像获取方法、装置、计算机设备和存储介质 | |
CN111178358A (zh) | 文本识别方法、装置、计算机设备和存储介质 | |
CN110717449A (zh) | 车辆年检人员的行为检测方法、装置和计算机设备 | |
CN112001399A (zh) | 基于局部特征显著化的图像场景分类方法和装置 | |
CN116363357A (zh) | 基于mim和对比学习的半监督语义分割方法及装置 | |
CN111898566A (zh) | 姿态估计方法、装置、电子设备和存储介质 | |
CN111178162B (zh) | 图像识别方法、装置、计算机设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20191231 |