CN110837856A - 神经网络训练及目标检测方法、装置、设备和存储介质 - Google Patents
神经网络训练及目标检测方法、装置、设备和存储介质 Download PDFInfo
- Publication number
- CN110837856A CN110837856A CN201911053054.3A CN201911053054A CN110837856A CN 110837856 A CN110837856 A CN 110837856A CN 201911053054 A CN201911053054 A CN 201911053054A CN 110837856 A CN110837856 A CN 110837856A
- Authority
- CN
- China
- Prior art keywords
- target
- neural network
- class
- old
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Image Analysis (AREA)
Abstract
本实施例公开了一种神经网络训练及目标检测方法、装置、电子设备和计算机存储介质,该神经网络训练方法包括:获取初始神经网络和包含新类别目标的样本图像,初始神经网络表示对至少一类旧类别目标进行检测的神经网络,新类别目标不属于至少一类旧类别目标;获取样本图像中新类别目标的标注信息和旧类别目标的标注信息;根据新类别目标的标注信息和旧类别目标的标注信息,在初始神经网络的基础上进行增量训练,得到用于对新类别目标和旧类别目标进行目标检测的目标检测网络。如此,可以在初始神经网络的基础上,基于样本图像进行增量训练,从而得到可以同时检测新类别目标和旧类别目标的神经网络,可以满足对新类别目标进行检测的实际需求。
Description
技术领域
本公开涉及计算机视觉处理技术,尤其涉及一种神经网络训练及目标检测方法、装置、电子设备和计算机存储介质。
背景技术
目标检测是机器视觉领域的基本问题,旨在于判断图像中是否存在某些特定类别的物体,如果存在则要同时得到其具体的空间位置和覆盖范围。随着大规模检测数据集的建立和图形处理器的更新换代,现代的目标检测模型能够快速且精准地得到图片中物体的类别和位置信息,但这些模型都只能检测特定的类别,即只能检测训练集里存在的类别。虽然可以构建足够大的训练集已检测出更多的类别,但是这个数量与人眼能分辨的目标类别还存在着巨大的差距。而且真实世界中每天都有可能出现新的类别,单单依靠某个固定的数据集不能满足实际的目标检测需求。
发明内容
本公开实施例期望提供神经网络训练和目标检测的技术方案。
本公开实施例提供了一种神经网络训练方法,所述方法包括:
获取初始神经网络和包含新类别目标的样本图像,所述初始神经网络表示对至少一类旧类别目标进行检测的神经网络,所述新类别目标不属于所述至少一类旧类别目标;
获取所述样本图像中所述新类别目标的标注信息和所述旧类别目标的标注信息;
根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练,得到用于对所述新类别目标和所述旧类别目标进行目标检测的目标检测网络。
可选地,所述获取所述样本图像中所述新类别目标的标注信息和所述旧类别目标的标注信息,包括:
在所述样本图像中,获取预先标注的所述新类别目标的标注信息;所述标注信息包括标注框和类别信息;
利用所述初始神经网络对所述样本图像进行目标检测,得到所述样本图像的至少一个目标检测结果,将所述至少一个目标检测结果作为所述样本图像中所述旧类别目标的标注信息。
可以看出,在包含新类别目标的样本图像中存在旧类别目标的情况下,本公开实施例无需对样本图像中的旧类别目标进行标注,而是可以利用初始神经网络得到样本图像中旧类别目标的标注信息,有利于降低样本图像标注的时间和人力。
可选地,在根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练之前,所述方法还包括:
响应于任意一个所述旧类别目标的标注框与一个新类别目标的标注框的重叠面积大于或等于第一面积阈值的情况,删除对应的旧类别目标的标注信息;和/或,
响应于任意一个所述旧类别目标的标注框与每个所述新类别目标的标注框的重叠面积均小于第一面积阈值的情况,保留对应的旧类别目标的标注信息。
可以理解的是,在初始神经网络的基础上进行增量训练之前,由于初始神经网络可以检测旧类别目标,但不能检测新类别目标;因而,利用初始神经网络对样本图像进行检测时,可能将样本图像中的新类别目标识别为外观相似的旧类别目标,这样会导致新类别目标的错误识别和标注;而在本公开实施例中,在任意一个旧类别目标的标注框与一个新类别目标的标注框的重叠面积大于或等于第一面积阈值的情况下,说明可能将新类别目标识别为外观相似的旧类别目标,因而,通过删除对应的旧类别目标的标注信息,可以提高样本图像的目标标注准确性;在任意一个旧类别目标的标注框与每个新类别目标的标注框的重叠面积均小于第一面积阈值的情况下,说明对应的旧类别目标的标注框与每个新类别目标的标注框不存在重叠(即重叠面积为0),或者,说明对应的旧类别目标的标注框与一个新类别目标的标注框存在重叠且重叠面积小于第一面积阈值,此时,可以认为该旧类别目标的标注框所标注的目标与每个新类别目标的标注框所标注的目标不同,因而通过保留对应的旧类别目标的标注信息,有利于保证样本图像中旧类别目标标注信息的完整性。
可选地,所述根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练,得到用于对所述新类别目标和所述旧类别目标进行目标检测的目标检测网络,包括:
确定所述初始神经网络中每个网络参数的重要性评分;
根据所述新类别目标的标注信息、所述旧类别目标的标注信息和所述每个网络参数的重要性评分,在所述初始神经网络的基础上进行增量训练,得到所述目标检测网络。
可以看出,本公开实施例中,可以根据每个网络参数的重要性评分,在所述初始神经网络的基础上进行增量训练,也就是说,在增量训练的过程中,充分地考虑了每个网络参数的重要性,由于网络参数的重要性评分反映了检测旧类别目标的重要性,因而,有利于提升通过增量训练得到的目标检测网络的目标检测能力。
可选地,所述确定所述初始神经网络中每个网络参数的重要性评分,包括:
根据所述初始神经网络的损失函数对于每个网络参数的梯度的平方或绝对值,确定所述初始神经网络中每个网络参数的重要性评分。
可以理解地,损失函数对于每个网络参数的梯度的平方或绝对值可以反映:每个网络参数的改变对于损失函数的影响程度,损失函数对于每个网络参数的梯度的平方或绝对值越大,则说明每个网络参数的改变对于损失函数的影响程度越大,因而,根据初始神经网络的损失函数对于每个网络参数的梯度的平方或绝对值,确定初始神经网络中每个网络参数的重要性评分,可以准确地评价初始神经网络中每个网络参数的重要性。
可选地,所述根据所述新类别目标的标注信息、所述旧类别目标的标注信息和所述每个网络参数的重要性评分,在所述初始神经网络的基础上进行增量训练,得到所述目标检测网络,包括:
针对所述初始神经网络的损失函数,根据所述每个网络参数的重要性评分,对所述每个网络参数进行加权处理,得到调整后的损失函数;所述每个网络参数的重要性评分与权重成正相关;
利用所述初始神经网络对所述样本图像进行目标检测,得到所述样本图像的至少一个目标检测结果;
根据所述调整后的损失函数、所述新类别目标的标注信息、所述旧类别目标的标注信息、所述样本图像的至少一个目标检测结果,确定所述初始神经网络的损失;
根据所述初始神经网络的损失,调整所述初始神经网络的网络参数;
重复执行上述确定所述初始神经网络的损失、以及调整所述初始神经网络的网络参数的步骤,直至网络参数调整后的初始神经网络满足训练结束条件,得到目标检测网络。
可以看出,在本公开实施例中,可以根据每个网络参数的重要性评分,对初始神经网络的网络参数进行自适应加权,进而得到调整后的损失函数;然后,可以在调整后的损失函数的基础上,通过不断调整初始神经网络的网络参数,得到目标检测网络;由于网络参数的重要性评分反映了检测旧类别目标的重要性,因而,通过上述过程得到的目标检测网络具有较好的目标检测能力。
可选地,所述针对所述初始神经网络的损失函数,根据所述每个网络参数的重要性评分,对所述每个网络参数进行加权处理,得到调整后的损失函数,包括:根据所述每个网络参数的重要性评分,对预设的正则化项中的网络参数进行加权,得到加权后的正则化项;将所述初始神经网络的损失函数加上所述加权后的正则化项,得到调整后的损失函数。
可以看出,本公开实施例中,可以根据每个网络参数的重要性评分,对预设的正则化项中的网络参数进行加权,进而得到调整后的损失函数;然后,可以在调整后的损失函数的基础上,通过不断调整初始神经网络的网络参数,得到目标检测网络;由于网络参数的重要性评分反映了检测旧类别目标的重要性,因而,通过上述过程得到的目标检测网络具有较好的目标检测能力。
可选地,所述预设的正则化项为L2正则化对应的正则化项或Huber正则化对应的正则化项。
可以看出,通过在原有损失函数的基础上加上L2正则化对应的正则化项,可以得到调整后的损失函数,增量训练过程是在调整后的损失函数的基础上进行的,因而,可以基于L2正则化对应的正则化项,控制增量训练过程,有利于降低数据发散导致的训练过程不稳定的出现概率。
另外,通过在原有损失函数的基础上加上Huber正则化对应的正则化项,可以得到调整后的损失函数,增量训练过程是在调整后的损失函数的基础上进行的,因而,可以基于Huber正则化对应的正则化项,控制增量训练过程。
本公开实施例还提供了一种目标检测方法,所述方法包括:
获取待检测图像;
将所述待检测图像输入至目标检测网络,得到所述待检测图像的目标检测结果,其中,所述目标检测网络是根据上述任意一种神经网络训练方法得到的。
可以看出,在本公开实施例中,为了得到目标检测网络,可以在初始神经网络的基础上,基于包含新类别目标的样本图像进行增量训练,从而得到可以同时检测新类别目标和旧类别目标的目标检测网络,进而利用目标检测网络可以实现对新类别目标进行检测,满足对于新类别目标检测的实际需求。
本公开实施例还提供了一种神经网络训练装置,所述装置包括第一获取模块、第二获取模块和处理模块,其中,
第一获取模块,用于获取初始神经网络和包含新类别目标的样本图像,所述初始神经网络表示对至少一类旧类别目标进行检测的神经网络,所述新类别目标不属于所述至少一类旧类别目标;
第二获取模块,用于获取所述样本图像中所述新类别目标的标注信息和所述旧类别目标的标注信息;
处理模块,用于根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练,得到用于对所述新类别目标和所述旧类别目标进行目标检测的目标检测网络。
可选地,所述第二获取模块,用于在所述样本图像中,获取预先标注的所述新类别目标的标注信息;利用所述初始神经网络对所述样本图像进行目标检测,得到所述样本图像的至少一个目标检测结果,将所述至少一个目标检测结果作为所述样本图像中所述旧类别目标的标注信息;所述标注信息包括标注框和类别信息。
可以看出,在包含新类别目标的样本图像中存在旧类别目标的情况下,本公开实施例无需对样本图像中的旧类别目标进行标注,而是可以利用初始神经网络得到样本图像中旧类别目标的标注信息,有利于降低样本图像标注的时间和人力。
可选地,所述处理模块,还用于在根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练之前,响应于任意一个所述旧类别目标的标注框与一个新类别目标的标注框的重叠面积大于或等于第一面积阈值的情况,删除对应的旧类别目标的标注信息;和/或,
响应于任意一个所述旧类别目标的标注框与每个所述新类别目标的标注框的重叠面积均小于第一面积阈值的情况,保留对应的旧类别目标的标注信息。
可以理解的是,在初始神经网络的基础上进行增量训练之前,由于初始神经网络可以检测旧类别目标,但不能检测新类别目标;因而,利用初始神经网络对样本图像进行检测时,可能将样本图像中的新类别目标识别为外观相似的旧类别目标,这样会导致新类别目标的错误识别和标注;而在本公开实施例中,在任意一个旧类别目标的标注框与一个新类别目标的标注框的重叠面积大于或等于第一面积阈值的情况下,说明可能将新类别目标识别为外观相似的旧类别目标,因而,通过删除对应的旧类别目标的标注信息,可以提高样本图像的目标标注准确性;在任意一个旧类别目标的标注框与每个新类别目标的标注框的重叠面积均小于第一面积阈值的情况下,说明对应的旧类别目标的标注框与每个新类别目标的标注框不存在重叠(即重叠面积为0),或者,说明对应的旧类别目标的标注框与一个新类别目标的标注框存在重叠且重叠面积小于第一面积阈值,此时,可以认为该旧类别目标的标注框所标注的目标与每个新类别目标的标注框所标注的目标不同,因而通过保留对应的旧类别目标的标注信息,有利于保证样本图像中旧类别目标标注信息的完整性。
可选地,所述处理模块,用于确定所述初始神经网络中每个网络参数的重要性评分;根据所述新类别目标的标注信息、所述旧类别目标的标注信息和所述每个网络参数的重要性评分,在所述初始神经网络的基础上进行增量训练,得到所述目标检测网络。
可以看出,本公开实施例中,可以根据每个网络参数的重要性评分,采用正则化方法在所述初始神经网络的基础上进行增量训练,也就是说,在增量训练的过程中,充分地考虑了每个网络参数的重要性,由于网络参数的重要性评分反映了检测旧类别目标的重要性,因而,有利于提升通过增量训练得到的目标检测网络的目标检测能力。
可选地,所述处理模块,用于根据所述初始神经网络损失函数对于每个网络参数的梯度的平方或绝对值,确定所述初始神经网络中每个网络参数的重要性评分。
可以理解地,损失函数对于每个网络参数的梯度的平方或绝对值可以反映:每个网络参数的改变对于损失函数的影响程度,损失函数对于每个网络参数的梯度的平方或绝对值越大,则说明每个网络参数的改变对于损失函数的影响程度越大,因而,根据初始神经网络的损失函数对于每个网络参数的梯度的平方或绝对值,确定初始神经网络中每个网络参数的重要性评分,可以准确地评价初始神经网络中每个网络参数的重要性。
可选地,所述处理模块,用于:
针对所述初始神经网络的损失函数,根据所述每个网络参数的重要性评分,对所述每个网络参数进行加权处理,得到调整后的损失函数;所述每个网络参数的重要性评分与权重成正相关;
利用所述初始神经网络对所述样本图像进行目标检测,得到所述样本图像的至少一个目标检测结果;
根据所述调整后的损失函数、所述新类别目标的标注信息、所述旧类别目标的标注信息、所述样本图像的至少一个目标检测结果,确定所述初始神经网络的损失;
根据所述初始神经网络的损失,调整所述初始神经网络的网络参数;
重复执行上述确定所述初始神经网络的损失、以及调整所述初始神经网络的网络参数的步骤,直至网络参数调整后的初始神经网络对样本图像的目标检测结果满足设定的精度需求,得到目标检测网络。
可以看出,在本公开实施例中,可以根据每个网络参数的重要性评分,对初始神经网络的网络参数进行自适应加权,进而得到调整后的损失函数;然后,可以在调整后的损失函数的基础上,通过不断调整初始神经网络的网络参数,得到目标检测网络;由于网络参数的重要性评分反映了检测旧类别目标的重要性,因而,通过上述过程得到的目标检测网络具有较好的目标检测能力。
可选地,所述处理模块,用于根据所述每个网络参数的重要性评分,对预设的正则化项中的网络参数进行加权,得到加权后的正则化项;将所述初始神经网络的损失函数加上所述加权后的正则化项,得到调整后的损失函数。
可以看出,本公开实施例中,可以根据每个网络参数的重要性评分,对预设的正则化项中的网络参数进行加权,进而得到调整后的损失函数;然后,可以在调整后的损失函数的基础上,通过不断调整初始神经网络的网络参数,得到目标检测网络;由于网络参数的重要性评分反映了检测旧类别目标的重要性,因而,通过上述过程得到的目标检测网络具有较好的目标检测能力。
可选地,所述预设的正则化项为L2正则化对应的正则化项或Huber正则化对应的正则化项。
可以看出,通过在原有损失函数的基础上加上L2正则化对应的正则化项,可以得到调整后的损失函数,增量训练过程是在调整后的损失函数的基础上进行的,因而,可以基于L2正则化对应的正则化项,控制增量训练过程,有利于降低数据发散导致的训练过程不稳定的出现概率。
另外,通过在原有损失函数的基础上加上Huber正则化对应的正则化项,可以得到调整后的损失函数,增量训练过程是在调整后的损失函数的基础上进行的,因而,可以基于Huber正则化对应的正则化项,控制增量训练过程。
本公开实施例还提供了一种目标检测装置,所述装置包括图像获取模块和图像处理模块,其中,
图像获取模块,用于获取待检测图像;
图像处理模块,用于将所述待检测图像输入至目标检测网络,得到所述待检测图像的目标检测结果,其中,所述目标检测网络是根据上述任意一种神经网络训练方法得到的。
可以看出,在本公开实施例中,为了得到目标检测网络,可以在初始神经网络的基础上,基于包含新类别目标的样本图像进行增量训练,从而得到可以同时检测新类别目标和旧类别目标的目标检测网络,进而利用目标检测网络可以实现对新类别目标进行检测,满足对于新类别目标检测的实际需求。
本公开实施例还提出了一种电子设备,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序以执行上述任意一种神经网络训练方法或上述任意一种目标检测方法。
本公开实施例还提出了一种计算机存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任意一种神经网络训练方法或上述任意一种目标检测方法。
本公开实施例提出的神经网络训练及目标检测方法、装置、电子设备和计算机存储介质中,获取初始神经网络和包含新类别目标的样本图像,所述初始神经网络表示对至少一类旧类别目标进行检测的神经网络,所述新类别目标不属于所述至少一类旧类别目标;获取所述样本图像中所述新类别目标的标注信息和所述旧类别目标的标注信息;根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练,得到用于对所述新类别目标和所述旧类别目标进行目标检测的目标检测网络。如此,在本公开实施例中,可以在初始神经网络的基础上,基于样本图像进行增量训练,从而得到可以同时检测新类别目标和旧类别目标的神经网络,可以满足对新类别目标进行检测的实际需求;另外,本公开实施例中,并不需要获取旧类别目标数据(即为得到训练完成的初始神经网络所需要的包含旧类别目标的样本图像数据),也不需要基于旧类别目标数据和包含新类别目标的样本图像进行共同训练,而是在样本图像和初始神经网络的基础上进行增量训练,因而,通过复用检测旧类别目标的神经网络,可以降低神经网络的训练时间和耗费的计算资源,有利于提升神经网络的训练速度,并有利于实现大规模的新类别目标检测。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,而非限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,这些附图示出了符合本公开的实施例,并与说明书一起用于说明本公开的技术方案。
图1为本公开实施例的一种神经网络的训练方法的流程图;
图2为本公开应用实施例的神经网络训练过程的示意图;
图3为本公开实施例的目标检测方法的流程图;
图4为本公开实施例的神经网络训练装置的组成结构示意图;
图5为本公开实施例的目标检测装置的组成结构示意图;
图6为本公开实施例的电子设备的结构示意图。
具体实施方式
以下结合附图及实施例,对本公开进行进一步详细说明。应当理解,此处所提供的实施例仅仅用以解释本公开,并不用于限定本公开。另外,以下所提供的实施例是用于实施本公开的部分实施例,而非提供实施本公开的全部实施例,在不冲突的情况下,本公开实施例记载的技术方案可以任意组合的方式实施。
需要说明的是,在本公开实施例中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的方法或者装置不仅包括所明确记载的要素,而且还包括没有明确列出的其他要素,或者是还包括为实施方法或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个......”限定的要素,并不排除在包括该要素的方法或者装置中还存在另外的相关要素(例如方法中的步骤或者装置中的单元,例如的单元可以是部分电路、部分处理器、部分程序或软件等等)。
例如,本公开实施例提供的神经网络训练方法和目标检测方法包含了一系列的步骤,但是本公开实施例提供的神经网络训练方法和目标检测方法不限于所记载的步骤,同样地,本公开实施例提供的神经网络训练装置和目标检测装置包括了一系列模块,但是本公开实施例提供的装置不限于包括所明确记载的模块,还可以包括为获取相关信息、或基于信息进行处理时所需要设置的模块。
本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中术语“至少一种”表示多种中的任意一种或多种中的至少两种的任意组合,例如,包括A、B、C中的至少一种,可以表示包括从A、B和C构成的集合中选择的任意一个或多个元素。
本公开实施例可以应用于终端和服务器组成的计算机系统中,并可以与众多其它通用或专用计算系统环境或配置一起操作。这里,终端可以是瘦客户机、厚客户机、手持或膝上设备、基于微处理器的系统、机顶盒、可编程消费电子产品、网络个人电脑、小型计算机系统,等等,服务器可以是服务器计算机系统小型计算机系统﹑大型计算机系统和包括上述任何系统的分布式云计算技术环境,等等。本公开实施例还可以通过处理器调用存储器中存储的计算机可读指令的方式来实现。
终端、服务器等电子设备可以在由计算机系统执行的计算机系统可执行指令(诸如程序模块)的一般语境下描述。通常,程序模块可以包括例程、程序、目标程序、组件、逻辑、数据结构等等,它们执行特定的任务或者实现特定的抽象数据类型。计算机系统/服务器可以在分布式云计算环境中实施,分布式云计算环境中,任务是由通过通信网络链接的远程处理设备执行的。在分布式云计算环境中,程序模块可以位于包括存储设备的本地或远程计算系统存储介质上。
在相关技术中,作为图像理解的基石,目标检测是很多更加复杂和深层问题的基础,例如实例分割、场景理解、标题生成、姿态估计、关系检测、事件检测、动作检测等等。在信息技术的应用层面,目标检测也发挥着广泛且不可或缺的作用,这些应用包括但不局限于消费电子、信息安全、自动驾驶、人机交互、安防布控、图像检索、智能监控和增强现实。目标检测由来已久,在过去几十年得到了长足的进步;尤其是随着深度学习的发展,目标检测在近年来取得了突飞猛进的发展。
为了使目标检测的神经网络能够支持新类别目标的检测,在相关技术中,可以收集新类别图片并加以标注,然后联合旧类别目标数据共同训练,使得目标检测的神经网络能同时检测新旧类别的目标。然而,发明人发现这种方法由于需要新旧类别目标数据共同训练,且不能充分复用检测旧类别目标的神经网络,会耗费较长的训练时间和计算资源;另外,由于数据隐私保护,可能难以获得旧类别目标数据(即检测旧类别目标的神经网络所需要的样本图像数据),导致该方法的实用性降低。
基于上述技术问题,在本公开的一些实施例中,提出了一种神经网络训练方法,本公开实施例可以应用于任意的目标检测场景,例如,可以应用于logo检测、服饰检测等大规模的目标检测场景。
图1为本公开实施例的一种神经网络训练方法的流程图,如图1所示,该流程可以包括:
步骤101:获取初始神经网络和包含新类别目标的样本图像,初始神经网络表示对至少一类旧类别目标进行检测的神经网络,新类别目标不属于所述至少一类旧类别目标。
在实际应用中,可以通过神经网络的训练得到初始神经网络;本公开实施例中,并不对初始神经网络的种类进行限定,示例性地,初始神经网络可以是SSD(Single ShotMultiBox Detector,单步多框检测器)、YOLO(You Only Look Once,只看一次)、RetinaNet、Faster RCNN(Faster Region-Convolutional Neural Networks,快速区域卷积神经网络)或其他基于深度学习的神经网络。
在实际应用中,可以在公共数据集上训练初始神经网络;例如,公共数据集可以是VOC数据集、COCO数据集等;在具体实施时,可以基于公共数据集,向未经训练的初始神经网络输入带有标注框和类别信息的图片;然后,通过对初始神经网络的训练,可以得到对至少一类旧类别目标进行检测的神经网络,即,可以得到训练完成的初始神经网络。在得到训练完成的初始神经网络后,可以利用训练完成的初始神经网络进行目标检测,以初始神经网络为FasterRCNN网络为例,在利用训练完成的Faster RCNN网络进行目标检测时,可以利用Faster RCNN网络中的区域候选网络(Region Proposal Network,RPN)生成候选框,然后,利用RCNN对这些候选框的特征进行分类和回归,得到更加准确的目标检测框位置和具体的目标类别。
可以理解的是,在得到训练完成的初始神经网络后,便可以确定利用初始神经网络能够检测的旧类别目标;例如,初始神经网络能够检测的旧类别目标可以是狗、牛、人体等。
本公开实施例中,新类别目标表示不同于上述至少一类旧类别目标的目标,新类别目标可以为一类目标,也可以为多类目标;例如,新类别目标可以是狗、猪等目标。
这里,样本图像可以预先设置,示例性地,可以从本地存储区域或网络获取样本图像,例如,可以利用图片搜索引擎抓取包含新类别目标的样本图像;样本图像的格式可以是JPEG(Joint Photographic Experts GROUP,联合图像专家小组)图像、位图(Bitmap,BMP)、便携式网络图形(Portable Network Graphics,PNG)或其他格式;需要说明的是,这里仅仅是对样本图像的格式和来源进行了举例说明,本公开实施例并不对样本图像的格式和来源进行限定。
步骤102:获取样本图像中新类别目标的标注信息和旧类别目标的标注信息。
这里,标注信息包括标注框和类别信息,其中,标注框用于框选目标,其可以表示目标的位置,类别信息用于表征目标类别。示例性地,标注框可以是矩形标注框或其他形状的标注框,类别信息为目标的类别名称。
步骤103:根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在初始神经网络的基础上进行增量训练,得到用于对所述新类别目标和所述旧类别目标进行目标检测的目标检测网络。
本公开实施例中,增量训练表示在初始神经网络的基础上,利用新增数据对初始神经网络进行参数调整的过程;目标检测网络表示用于检测目标的神经网络。
对于本步骤的实现方式,在一个示例中,可以根据将初始神经网络的损失函数加上预设的正则化项,得到修改后的损失函数;利用初始神经网络对所述样本图像进行目标检测,得到样本图像的至少一个目标检测结果;根据修改后的损失函数、新类别目标的标注信息、旧类别目标的标注信息、样本图像的至少一个目标检测结果,确定初始神经网络的损失;根据初始神经网络的损失,调整初始神经网络的网络参数;重复执行上述确定初始神经网络的损失、以及调整初始神经网络的网络参数的步骤,直至网络参数调整后的初始神经网络满足训练结束条件,得到目标检测网络。
示例性地,预设的正则化项可以是L2正则化对应的正则化项或Huber正则化对应的正则化项;训练结束条件可以是调整初始神经网络的网络参数的次数等于设定迭代次数,也可以是调整初始神经网络的损失函数达到收敛条件。这里,设定迭代次数表示调整初始神经网络的网络参数的次数的最大值,设定迭代次数为大于1的整数;收敛条件可以是调整初始神经网络的损失函数的值小于设定损失,设定损失可以根据实际应用需求预先设置。需要说明的是,上述仅仅是对训练结束条件进行了示例性说明,本公开实施例的训练结束条件并不局限于此。
在实际应用中,步骤101至步骤103可以利用电子设备中的处理器实现,上述处理器可以为特定用途集成电路(Application Specific Integrated Circuit,ASIC)、数字信号处理器(Digital Signal Processor,DSP)、数字信号处理装置(Digital SignalProcessing Device,DSPD)、可编程逻辑装置(Programmable Logic Device,PLD)、FPGA、中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器中的至少一种。
可以看出,在本公开实施例中,可以在初始神经网络的基础上,基于样本图像进行增量训练,从而得到可以同时检测新类别目标和旧类别目标的神经网络,可以满足对新类别目标进行检测的实际需求;另外,本公开实施例中,并不需要获取旧类别目标数据(即为得到训练完成的初始神经网络所需要的包含旧类别目标的样本图像数据),也不需要基于旧类别目标数据和包含新类别目标的样本图像进行共同训练,而是在样本图像和初始神经网络的基础上进行增量训练,因而,通过复用检测旧类别目标的神经网络,可以降低神经网络的训练时间和耗费的计算资源,有利于提升神经网络的训练速度,并有利于实现大规模的新类别目标检测。
对于获取样本图像中新类别目标的标注信息的实现方式,示例性地,可以在样本图像中,获取预先标注的新类别目标的标注信息。在具体实现时,可以通过人工标注的方式在样本图像中标注出新类别目标的标注信息,或者,通过能够检测新类别目标的其它神经网络对样本图像进行检测,得到样本图像中新类别目标的标注信息。
对于获取样本图像中旧类别目标的标注信息的实现方式,在一个示例中,可以利用初始神经网络对样本图像进行目标检测,得到样本图像的至少一个目标检测结果,将至少一个目标检测结果作为样本图像中旧类别目标的标注信息。
这里,样本图像的每个目标检测结果包括一个目标的检测框和类别信息,而初始神经网络用于检测旧类别目标,因而,可以将至少一个目标检测结果作为样本图像中旧类别目标的标注信息。
可以看出,在包含新类别目标的样本图像中存在旧类别目标的情况下,本公开实施例无需对样本图像中的旧类别目标进行人工标注,而是可以利用初始神经网络得到样本图像中旧类别目标的标注信息,有利于降低样本图像标注的时间和人力。
对于获取样本图像中旧类别目标的标注信息的实现方式,在另一个示例中,也可以通过人工标注的方式在样本图像中标注出旧类别目标的标注信息。
可选地,在根据新类别目标的标注信息和旧类别目标的标注信息,在初始神经网络的基础上进行增量训练之前,还可以确定样本图像中每个旧类别目标的标注框与新类别目标的标注框的重叠面积,根据该重叠面积的大小对旧类别的标注信息进行进一步处理。具体地说,响应于任意一个旧类别目标的标注框与一个新类别目标的标注框的重叠面积大于或等于第一面积阈值的情况,删除对应的旧类别目标的标注信息,保留对应的新类别目标的标注信息;和/或,响应于任意一个旧类别目标的标注框与每个新类别目标的标注框的重叠面积均小于第一面积阈值的情况,保留对应的旧类别目标的标注信息。
可以理解的是,在初始神经网络的基础上进行增量训练之前,由于初始神经网络可以检测旧类别目标,但不能检测新类别目标;因而,利用初始神经网络对样本图像进行检测时,可能将样本图像中的新类别目标识别为外观相似的旧类别目标,这样会导致新类别目标的错误识别和标注。而在本公开实施例中,在任意一个旧类别目标的标注框与一个新类别目标的标注框的重叠面积大于或等于第一面积阈值的情况下,说明网络可能将新类别目标识别为外观相似的旧类别目标,因而,通过删除对应的旧类别目标的标注信息,可以提高样本图像的目标标注准确性;在任意一个旧类别目标的标注框与每个新类别目标的标注框的重叠面积均小于第一面积阈值的情况下,说明对应的旧类别目标的标注框与每个新类别目标的标注框不存在重叠(即重叠面积为0),或者,说明对应的旧类别目标的标注框与一个新类别目标的标注框存在重叠且重叠面积小于第一面积阈值,此时,可以认为该旧类别目标的标注框所标注的目标与每个新类别目标的标注框所标注的目标不同,因而通过保留对应的旧类别目标的标注信息,有利于保证样本图像中旧类别目标标注信息的完整性。
在实际应用中,第一面积阈值表示旧类别目标的标注框与新类别目标的标注框的重叠面积的上限值,第一面积阈值可以根据实际应用需求进行预先设置。
对于步骤103的实现方式,在另一个示例中,可以确定初始神经网络中每个网络参数的重要性评分;然后根据新类别目标的标注信息、旧类别目标的标注信息和上述每个网络参数的重要性评分,在所述初始神经网络的基础上进行增量训练,得到目标检测网络。
这里,初始神经网络中每个网络参数的重要性评分用于表示每个网络参数对于该网络参数对于检测旧类别目标的任务的重要性,一个网络参数的重要性评分越高,说明该网络参数对于检测旧类别目标的任务更加重要。
在一个示例中,根据初始神经网络的损失函数对于每个网络参数的梯度的平方或绝对值,确定初始神经网络中每个网络参数的重要性评分,损失函数对于每个网络参数的梯度的平方或绝对值可以反映:每个网络参数的改变对于损失函数的影响程度;具体地,在每个网络参数改变时,根据损失函数的改变幅度,确定上述重要性评分;在网络参数的改变幅度相同的情况下,损失函数的改变幅度越大,则对应网络参数的重要性评分越高。损失函数对于每个网络参数的梯度的平方或绝对值越大,则说明每个网络参数的改变对于损失函数的影响程度越大,因而,根据初始神经网络的损失函数对于每个网络参数的梯度的平方或绝对值,确定初始神经网络中每个网络参数的重要性评分,可以准确地评价初始神经网络中每个网络参数的重要性。
例如,可以将损失函数对于网络参数的梯度的平方作为初始神经网络中对应网络参数的重要性评分,也可以将损失函数对于网络参数的梯度的绝对值作为初始神经网络中对应网络参数的重要性评分,还可以对损失函数对于网络参数的梯度的平方或绝对值进行运算,得到运算值,将运算值作为初始神经网络中对应网络参数的重要性评分,运算值与损失函数对于网络参数的梯度的平方或绝对值成正相关,即,损失函数对于网络参数的梯度的平方或绝对值越大,则运算值越大。
在其他实施例中,也可以根据每个网络参数的变化对目标检测准确性的影响程度(如损失函数的变化幅度),确定每个网络参数的重要性评分。
可以看出,本公开实施例中,可以根据每个网络参数的重要性评分,在初始神经网络的基础上进行增量训练,也就是说,在增量训练的过程中,充分地考虑了每个网络参数的重要性,由于网络参数的重要性评分反映了检测旧类别目标的重要性,因而,有利于提升通过增量训练得到的目标检测网络的目标检测能力。
可选地,根据上述新类别目标的标注信息、旧类别目标的标注信息和每个网络参数的重要性评分,在初始神经网络的基础上进行增量训练,得到目标检测网络,可以包括以下步骤:
步骤A1:针对初始神经网络的损失函数,根据上述每个网络参数的重要性评分,对每个网络参数进行加权处理,得到调整后的损失函数;每个网络参数的重要性评分与权重成正相关。
也就是说,由于每个网络参数的重要性评分与权重成正相关,因而,每个网络参数的重要性评分越高,则该网络参数的权重值越大。
步骤A2:利用初始神经网络对样本图像进行目标检测,得到样本图像的至少一个目标检测结果。
步骤A3:根据调整后的损失函数、新类别目标的标注信息、旧类别目标的标注信息、样本图像的至少一个目标检测结果,确定初始神经网络的损失。
在实际应用中,在得出样本图像的至少一个目标检测结果与样本图像中的标注信息(包括新类别目标的标注信息和旧类别目标的标注信息)后,可以将样本图像的至少一个目标检测结果与样本图像中的标注信息代入至调整后的损失函数中,得出损失函数对应的损失值,该损失值为初始神经网络的损失。
步骤A4:根据初始神经网络的损失,调整初始神经网络的网络参数。
示例性地,以初始神经网络的损失减小为目标,调整初始神经网络的网络参数;需要说明的是,上述仅仅是对调整初始神经网络的网络参数的实现方式进行了示例性说明,本公开实施例并不局限于此。
步骤A5:判断网络参数调整后的初始神经网络满足训练结束条件,如果否,则重复执行步骤A3至A5;如果是,则执行步骤A6。
其中,训练结束条件的实现方式已经在前述记载的内容中作出说明,这里不再赘述。
步骤A6:将网络参数调整后的初始神经网络作为目标检测网络。
可以看出,在本公开实施例中,可以根据每个网络参数的重要性评分,对网络参数的变化进行自适应加权,得到调整后的损失函数;然后,可以在调整后的损失函数的基础上,通过不断调整初始神经网络的网络参数,得到目标检测网络;由于网络参数的重要性评分反映了检测旧类别目标的重要性,每个网络参数的重要性评分较高时,则说明相应的网络参数对于检测旧类别目标更加重要,此时,对相应的网络参数设置较大的权重,有利于使得调整后的损失函数能够更好地反映旧类别的检测能力,进而,在调整后的损失函数的基础上进行增量训练,可以使得增量训练得到的神经网络能够保持较好的旧类别目标检测能力。
本公开实施例中,并不对初始神经网络的调整前的损失函数进行限定;在首次调整初始神经网络的网络参数时,可以首先基于初始神经网络对样本图像进行目标检测,得到样本图像的至少一个目标检测结果,然后基于初始神经网络的调整前的损失函数,计算初始神经网络的损失,最后,根据初始神经网络的损失调整初始神经网络的网络参数;在非首次调整初始神经网络的网络参数时,可以基于步骤A2至步骤A4实现。
在一个可能的实现方式中,步骤A1可包括:根据所述每个网络参数的重要性评分,对预设的正则化项中的网络参数进行加权,得到加权后的正则化项;将所述初始神经网络的损失函数加上所述加权后的正则化项,得到调整后的损失函数。
这里,预设的正则化项可以是L2正则化对应的正则化项,L2正则化对应的正则化项表示各个网络参数的平方和,在这种情况下,由于增量训练过程是在调整后的损失函数的基础上进行的,因而,可以基于L2正则化对应的正则化项,控制增量训练过程,可以使得网络模型在拟合新类别数据时不遗忘旧类别知识。
L2正则化对应的正则化项表示各个网络参数的平方和,发明人发现由于新旧类别目标的差异,在网络参数随着增量训练的过程发生较大幅度的调整时,可能导致L2正则化对应的正则化项出现数据发散而导致训练过程不稳。针对该问题,本公开实施例可以基于Huber正则化对应的正则化项,控制增量训练过程,Huber正则化对应的正则化项可以根据调整后的网络参数与调整前的网络参数的差异来确定正则化项。具体地,在调整后的网络参数与调整前的网络参数的差异较大时(例如大于设定值时),Huber正则化对应的正则化项可以采用L1正则化对应的正则化项(即各个网络参数的绝对值之和);在调整后的网络参数与调整前的网络参数的差异较小时(例如小于或等于设定值时),Huber正则化对应的正则化项才采用L2正则化对应的正则化项;可见,在调整后的网络参数与调整前的网络参数的差异较大,并不需要采用L2正则化对应的正则化项,因而,有利于降低数据发散导致的训练过程不稳定的出现概率。
在实际应用中,设定值可以根据每个网络参数的含义进行预先设置,针对不同的网络参数可以对应不同的设定值,也可以对应相同的设定值。
在其他实施例中,也可以直接对损失函数中的网络参数进行加权处理,得到调整后的损失函数。
在得到目标检测网络后,如果需要对目标检测网络不能检测的新类别目标进行检测,则可以通过递归过程将目标检测网络作为初始神经网络,并获取包含相应新类别目标的样本图像;然后,可以重复执行步骤102至步骤103,通过增量训练得到新的目标检测网络。
下面通过一个应用实施例对本公开的神经网络训练方法进行进一步说明。图2为本公开应用实施例的神经网络训练过程的示意图,如图2所示,初始神经网络可以识别的旧类别目标包括牛、狗、人等,样本图像中包含的新类别目标为羊,样本图像的新类别目标均通过人工标注的方式进行标注,样本图像中的狗并不通过人工标注的方式进行标注。利用初始神经网络对样本图像进行检测,可以得出样本图像中的狗的标注信息,还将样本图像中的羊错误地识别为牛,即在样本图像中得出牛的标注信息;此时进行标注融合,具体地,如果牛的标注框与通过人工标注方式标注的羊的标注框的重叠面积大于或等于第一面积阈值,则删除对应的牛的标注信息,保留对应的羊的标注信息,例如图2中所示牛的标注框与羊的标注框几乎重叠,此时删除牛的标注框;而样本图像中的狗的标注信息并不与通过人工标注方式标注的标注框重合,因而,保留样本图像中狗的标注信息。在标注融合后,可以根据样本图像中保留的标注信息,在初始神经网络的基础上进行增量训练,得到目标检测网络;进一步地,在得到目标检测网络后,可以通过上述递归过程,利用包含新类别目标的样本图像进行网络训练,不断地增加目标检测网络能够检测的目标的类别。
基于上述提出的神经网络的训练方法,本公开实施例还提出了一种目标检测方法。
图3为本公开实施例的目标检测方法的流程图,如图3所示,该流程可以包括:
步骤301:获取待检测图像。
这里,待检测图像为需要进行目标检测的图像。
示例性地,可以从本地存储区域或网络获取待检测图像,待检测图像的格式可以JPEG、BMP、PNG或其他格式;需要说明的是,这里仅仅是对待检测图像的格式和来源进行了举例说明,本发明实施例并不对待检测图像的格式和来源进行限定。
步骤302:将待检测图像输入至目标检测网络,得到待检测图像的目标检测结果,其中,目标检测网络是根据上述任意一种神经网络训练方法得到的。
在实际应用中,步骤301至步骤302可以利用电子设备中的处理器实现,上述处理器可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。
可以看出,在本公开实施例中,为了得到目标检测网络,可以在初始神经网络的基础上,基于包含新类别目标的样本图像进行增量训练,从而得到可以同时检测新类别目标和旧类别目标的目标检测网络,进而利用目标检测网络可以实现对新类别目标进行检测,满足对于新类别目标检测的实际需求。
本领域技术人员可以理解,在具体实施方式的上述方法中,各步骤的撰写顺序并不意味着严格的执行顺序而对实施过程构成任何限定,各步骤的具体执行顺序应当以其功能和可能的内在逻辑确定
在前述实施例提出的神经网络训练方法的基础上,本公开实施例提出了一种神经网络训练装置。
图4为本公开实施例的神经网络训练装置的组成结构示意图,如图4所示,所述装置包括:第一获取模块401、第二获取模块402和处理模块403,其中,
第一获取模块401,用于获取初始神经网络和包含新类别目标的样本图像,所述初始神经网络表示对至少一类旧类别目标进行检测的神经网络,所述新类别目标不属于所述至少一类旧类别目标;
第二获取模块402,用于获取所述样本图像中所述新类别目标的标注信息和所述旧类别目标的标注信息;
处理模块403,用于根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练,得到用于对所述新类别目标和所述旧类别目标进行目标检测的目标检测网络。
可选地,所述第二获取模块402,用于在所述样本图像中,获取预先标注的所述新类别目标的标注信息;利用所述初始神经网络对所述样本图像进行目标检测,得到所述样本图像的至少一个目标检测结果,将所述至少一个目标检测结果作为所述样本图像中所述旧类别目标的标注信息;所述标注信息包括标注框和类别信息。
可选地,所述处理模块403,还用于在根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练之前,响应于任意一个所述旧类别目标的标注框与一个新类别目标的标注框的重叠面积大于或等于第一面积阈值的情况,删除对应的旧类别目标的标注信息;和/或,响应于任意一个所述旧类别目标的标注框与每个所述新类别目标的标注框的重叠面积均小于第一面积阈值的情况,保留对应的旧类别目标的标注信息。
可选地,所述处理模块403,用于确定所述初始神经网络中每个网络参数的重要性评分;根据所述新类别目标的标注信息、所述旧类别目标的标注信息和所述每个网络参数的重要性评分,在所述初始神经网络的基础上进行增量训练,得到所述目标检测网络。
可选地,所述处理模块403,用于根据所述初始神经的网络损失函数对于每个网络参数的梯度的平方或绝对值,确定所述初始神经网络中每个网络参数的重要性评分。
可选地,所述处理模块403,用于:
针对所述初始神经网络的损失函数,根据所述每个网络参数的重要性评分,对所述每个网络参数进行加权处理,得到调整后的损失函数;所述每个网络参数的重要性评分与权重成正相关;
利用所述初始神经网络对所述样本图像进行目标检测,得到所述样本图像的至少一个目标检测结果;
根据所述调整后的损失函数、所述新类别目标的标注信息、所述旧类别目标的标注信息、所述样本图像的至少一个目标检测结果,确定所述初始神经网络的损失;
根据所述初始神经网络的损失,调整所述初始神经网络的网络参数;
重复执行上述确定所述初始神经网络的损失、以及调整所述初始神经网络的网络参数的步骤,直至网络参数调整后的初始神经网络满足训练结束条件,得到目标检测网络。
可选地,所述处理模块403,用于根据所述每个网络参数的重要性评分,对预设的正则化项中的网络参数进行加权,得到加权后的正则化项;将所述初始神经网络的损失函数加上所述加权后的正则化项,得到调整后的损失函数。
可选地,所述预设的正则化项为L2正则化对应的正则化项或Huber正则化对应的正则化项。
实际应用中,第一获取模块401、第二获取模块402和处理模块403均可以利用电子设备中的处理器实现,上述处理器可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。
在前述实施例提出的目标检测方法的基础上,本公开实施例提出了一种目标检测装置。
图5为本公开实施例的目标检测装置的组成结构示意图,如图5所示,所述装置包括:图像获取模块501和图像处理模块502,其中,
图像获取模块501,用于获取待检测图像;
图像处理模块502,用于将所述待检测图像输入至目标检测网络,得到所述待检测图像的目标检测结果,其中,所述目标检测网络是根据上述任意一种神经网络训练方法得到的。
实际应用中,图像获取模块501和图像处理模块502均可以利用电子设备中的处理器实现,上述处理器可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。
另外,在本实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的单元如果以软件功能模块的形式实现并非作为独立的产品进行销售或使用时,可以存储在一个计算机可读取存储介质中,基于这样的理解,本实施例的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)或processor(处理器)执行本实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
具体来讲,本实施例中的一种神经网络训练方法或一种目标检测方法对应的计算机程序指令可以被存储在光盘,硬盘,U盘等存储介质上,当存储介质中的与一种神经网络训练方法或一种目标检测方法对应的计算机程序指令被一电子设备读取或被执行时,实现前述实施例的任意一种神经网络训练方法或任意一种目标检测方法。其中,存储介质可以是易失性或非易失性存储介质。
基于前述实施例相同的技术构思,本公开实施例提供的一种电子设备;图6为本公开实施例的电子设备的结构示意图,参照图6,电子设备60可以包括:存储器61和处理器62;其中,
所述存储器61,用于存储计算机程序和数据;
所述处理器62,用于执行所述存储器中存储的计算机程序,以实现前述实施例的任意一种神经网络训练方法或任意一种目标检测方法。
在实际应用中,上述存储器61可以是易失性存储器(volatile memory),例如RAM;或者非易失性存储器(non-volatile memory),例如ROM,快闪存储器(flash memory),硬盘(Hard Disk Drive,HDD)或固态硬盘(Solid-State Drive,SSD);或者上述种类的存储器的组合,并向处理器62提供指令和数据。
上述处理器62可以为ASIC、DSP、DSPD、PLD、FPGA、CPU、控制器、微控制器、微处理器中的至少一种。可以理解地,对于不同的设备,用于实现上述处理器功能的电子器件还可以为其它,本公开实施例不作具体限定。
本公开实施例还提出了一种计算机程序,该计算机程序被处理器执行时实现前述实施例的任意一种神经网络训练方法或任意一种目标检测方法。
该计算机程序产品可以具体通过硬件、软件或其结合的方式实现。在一个可选实施例中,所述计算机程序产品具体体现为计算机存储介质,在另一个可选实施例中,计算机程序产品具体体现为软件产品,例如软件开发包(Software Development Kit,SDK)等等。
在一些实施例中,本公开实施例提供的装置具有的功能或包含的模块可以用于执行上文方法实施例描述的方法,其具体实现可以参照上文方法实施例的描述,为了简洁,这里不再赘述。
上文对各个实施例的描述倾向于强调各个实施例之间的不同之处,其相同或相似之处可以互相参考,为了简洁,本文不再赘述
本申请所提供的各方法实施例中所揭露的方法,在不冲突的情况下可以任意组合,得到新的方法实施例。
本申请所提供的各产品实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的产品实施例。
本申请所提供的各方法或设备实施例中所揭露的特征,在不冲突的情况下可以任意组合,得到新的方法实施例或设备实施例。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各个实施例所述的方法。
上面结合附图对本发明的实施例进行了描述,但是本发明并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本发明的启示下,在不脱离本发明宗旨和权利要求所保护的范围情况下,还可做出很多形式,这些均属于本发明的保护之内。
Claims (10)
1.一种神经网络训练方法,其特征在于,所述方法包括:
获取初始神经网络和包含新类别目标的样本图像,所述初始神经网络表示对至少一类旧类别目标进行检测的神经网络,所述新类别目标不属于所述至少一类旧类别目标;
获取所述样本图像中所述新类别目标的标注信息和所述旧类别目标的标注信息;
根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练,得到用于对所述新类别目标和所述旧类别目标进行目标检测的目标检测网络。
2.根据权利要求1所述的方法,其特征在于,所述获取所述样本图像中所述新类别目标的标注信息和所述旧类别目标的标注信息,包括:
在所述样本图像中,获取预先标注的所述新类别目标的标注信息;所述标注信息包括标注框和类别信息;
利用所述初始神经网络对所述样本图像进行目标检测,得到所述样本图像的至少一个目标检测结果,将所述至少一个目标检测结果作为所述样本图像中所述旧类别目标的标注信息。
3.根据权利要求2所述的方法,其特征在于,在根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练之前,所述方法还包括:
响应于任意一个所述旧类别目标的标注框与一个新类别目标的标注框的重叠面积大于或等于第一面积阈值的情况,删除对应的旧类别目标的标注信息;和/或,
响应于任意一个所述旧类别目标的标注框与每个所述新类别目标的标注框的重叠面积均小于第一面积阈值的情况,保留对应的旧类别目标的标注信息。
4.根据权利要求1所述的方法,其特征在于,所述根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练,得到用于对所述新类别目标和所述旧类别目标进行目标检测的目标检测网络,包括:
确定所述初始神经网络中每个网络参数的重要性评分;
根据所述新类别目标的标注信息、所述旧类别目标的标注信息和所述每个网络参数的重要性评分,在所述初始神经网络的基础上进行增量训练,得到所述目标检测网络。
5.根据权利要求4所述的方法,其特征在于,所述确定所述初始神经网络中每个网络参数的重要性评分,包括:
根据所述初始神经网络的损失函数对于每个网络参数的梯度的平方或绝对值,确定所述初始神经网络中每个网络参数的重要性评分。
6.一种目标检测方法,其特征在于,所述方法包括:
获取待检测图像;
将所述待检测图像输入至目标检测网络,得到所述待检测图像的目标检测结果,其中,所述目标检测网络是根据权利要求1至5任一项所述的神经网络训练方法得到的。
7.一种神经网络训练装置,其特征在于,所述装置包括第一获取模块、第二获取模块和处理模块,其中,
第一获取模块,用于获取初始神经网络和包含新类别目标的样本图像,所述初始神经网络表示对至少一类旧类别目标进行检测的神经网络,所述新类别目标不属于所述至少一类旧类别目标;
第二获取模块,用于获取所述样本图像中所述新类别目标的标注信息和所述旧类别目标的标注信息;
处理模块,用于根据所述新类别目标的标注信息和所述旧类别目标的标注信息,在所述初始神经网络的基础上进行增量训练,得到用于对所述新类别目标和所述旧类别目标进行目标检测的目标检测网络。
8.一种目标检测装置,其特征在于,所述装置包括图像获取模块和图像处理模块,其中,
图像获取模块,用于获取待检测图像;
图像处理模块,用于将所述待检测图像输入至目标检测网络,得到所述待检测图像的目标检测结果,其中,所述目标检测网络是根据权利要求1至5任一项所述的神经网络训练方法得到的。
9.一种电子设备,其特征在于,包括处理器和用于存储能够在处理器上运行的计算机程序的存储器;其中,
所述处理器用于运行所述计算机程序以执行权利要求1至5任一项所述的神经网络训练方法或权利要求6所述的目标检测方法。
10.一种计算机存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至5任一项所述的神经网络训练方法或权利要求6所述的目标检测方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911053054.3A CN110837856B (zh) | 2019-10-31 | 2019-10-31 | 神经网络训练及目标检测方法、装置、设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911053054.3A CN110837856B (zh) | 2019-10-31 | 2019-10-31 | 神经网络训练及目标检测方法、装置、设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110837856A true CN110837856A (zh) | 2020-02-25 |
CN110837856B CN110837856B (zh) | 2023-05-30 |
Family
ID=69576014
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911053054.3A Active CN110837856B (zh) | 2019-10-31 | 2019-10-31 | 神经网络训练及目标检测方法、装置、设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110837856B (zh) |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111523545A (zh) * | 2020-05-06 | 2020-08-11 | 青岛联合创智科技有限公司 | 一种结合深度信息的物品查找方法 |
CN111553476A (zh) * | 2020-04-30 | 2020-08-18 | 汪科道 | 基于记忆分值的神经网络训练方法、装置及存储介质 |
CN111652140A (zh) * | 2020-06-03 | 2020-09-11 | 广东小天才科技有限公司 | 基于深度学习的题目精准分割方法、装置、设备和介质 |
CN111882034A (zh) * | 2020-07-20 | 2020-11-03 | 北京市商汤科技开发有限公司 | 神经网络处理及人脸识别方法、装置、设备和存储介质 |
CN112015893A (zh) * | 2020-08-12 | 2020-12-01 | 北京字节跳动网络技术有限公司 | 数据处理方法及装置 |
CN112507895A (zh) * | 2020-12-14 | 2021-03-16 | 广东电力信息科技有限公司 | 基于大数据分析自动归类资质证书文件的方法及装置 |
CN112819110A (zh) * | 2021-04-19 | 2021-05-18 | 中国科学院自动化研究所 | 基于权重生成的增量式小样本目标检测方法及系统 |
CN113139612A (zh) * | 2021-05-07 | 2021-07-20 | 上海商汤临港智能科技有限公司 | 图像分类方法、分类网络的训练方法和相关产品 |
CN113469358A (zh) * | 2021-07-05 | 2021-10-01 | 北京市商汤科技开发有限公司 | 一种神经网络训练方法、装置、计算机设备及存储介质 |
CN113469176A (zh) * | 2021-06-28 | 2021-10-01 | 北京有竹居网络技术有限公司 | 一种目标检测模型训练方法、目标检测方法及其相关设备 |
CN113673589A (zh) * | 2021-08-12 | 2021-11-19 | 南京理工大学 | 基于边框距离度量的标签选择自适应增量检测方法及系统 |
CN115438755A (zh) * | 2022-11-08 | 2022-12-06 | 腾讯科技(深圳)有限公司 | 分类模型的增量训练方法、装置和计算机设备 |
Citations (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101464950A (zh) * | 2009-01-16 | 2009-06-24 | 北京航空航天大学 | 基于在线学习和贝叶斯推理的视频人脸识别与检索方法 |
CN101814149A (zh) * | 2010-05-10 | 2010-08-25 | 华中科技大学 | 一种基于在线学习的自适应级联分类器训练方法 |
CN103828286A (zh) * | 2011-08-12 | 2014-05-28 | 阿尔卡特朗讯 | 对通过通信网络发送的数据分组的延迟概率和时滞时间的估计 |
CN104240455A (zh) * | 2014-08-07 | 2014-12-24 | 北京航天控制仪器研究所 | 一种分布式光纤管线安全预警系统中的扰动事件识别方法 |
CN104636707A (zh) * | 2013-11-07 | 2015-05-20 | 同方威视技术股份有限公司 | 自动检测香烟的方法 |
CN106485324A (zh) * | 2016-10-09 | 2017-03-08 | 成都快眼科技有限公司 | 一种卷积神经网络优化方法 |
CN107071841A (zh) * | 2017-03-02 | 2017-08-18 | 重庆邮电大学 | 异构网络中基于动态权重优化的垂直切换方法 |
CN107967515A (zh) * | 2016-10-19 | 2018-04-27 | 三星电子株式会社 | 用于神经网络量化的方法和设备 |
CN108009482A (zh) * | 2017-11-25 | 2018-05-08 | 宁波亿拍客网络科技有限公司 | 一种提高人脸识别效率方法 |
CN108052940A (zh) * | 2017-12-17 | 2018-05-18 | 南京理工大学 | 基于深度学习的sar遥感图像水面目标检测方法 |
CN108566537A (zh) * | 2018-05-16 | 2018-09-21 | 中国科学院计算技术研究所 | 用于对视频帧进行神经网络运算的图像处理装置 |
CN108710950A (zh) * | 2018-05-11 | 2018-10-26 | 上海市第六人民医院 | 一种图像量化分析方法 |
CN109102024A (zh) * | 2018-08-14 | 2018-12-28 | 中山大学 | 一种用于物体精细识别的层次语义嵌入模型及其实现方法 |
CN109146921A (zh) * | 2018-07-02 | 2019-01-04 | 华中科技大学 | 一种基于深度学习的行人目标跟踪方法 |
CN109447140A (zh) * | 2018-10-19 | 2019-03-08 | 广州四十五度科技有限公司 | 一种基于神经网络深度学习的图像识别并推荐认知的方法 |
CN109472769A (zh) * | 2018-09-26 | 2019-03-15 | 成都数之联科技有限公司 | 一种不良图像缺陷检测方法和系统 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现系统 |
CN109657791A (zh) * | 2018-12-14 | 2019-04-19 | 中南大学 | 一种基于大脑神经突触记忆机制的面向开放世界连续学习方法 |
CN109658928A (zh) * | 2018-12-06 | 2019-04-19 | 山东大学 | 一种家庭服务机器人云端多模态对话方法、装置及系统 |
CN109671124A (zh) * | 2018-12-27 | 2019-04-23 | 湖南师范大学 | 一种矿物浮选泡沫图像颜色校正方法及泡沫颜色检测系统 |
CN109784196A (zh) * | 2018-12-20 | 2019-05-21 | 哈尔滨工业大学深圳研究生院 | 视觉信息判识方法、装置、设备及存储介质 |
CN109871883A (zh) * | 2019-01-24 | 2019-06-11 | 北京市商汤科技开发有限公司 | 神经网络训练方法及装置、电子设备和存储介质 |
CN110009090A (zh) * | 2019-04-02 | 2019-07-12 | 北京市商汤科技开发有限公司 | 神经网络训练与图像处理方法及装置 |
CN110059672A (zh) * | 2019-04-30 | 2019-07-26 | 福州大学 | 一种利用增量学习对显微镜细胞图像检测模型进行增类学习的方法 |
CN110135417A (zh) * | 2018-02-09 | 2019-08-16 | 北京世纪好未来教育科技有限公司 | 样本标注方法及计算机存储介质 |
CN110189227A (zh) * | 2019-05-31 | 2019-08-30 | 三峡大学 | 基于主成分分析与反向传播神经网络的内幕交易辨别方法 |
CN110335250A (zh) * | 2019-05-31 | 2019-10-15 | 上海联影智能医疗科技有限公司 | 网络训练方法、装置、检测方法、计算机设备和存储介质 |
-
2019
- 2019-10-31 CN CN201911053054.3A patent/CN110837856B/zh active Active
Patent Citations (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101464950A (zh) * | 2009-01-16 | 2009-06-24 | 北京航空航天大学 | 基于在线学习和贝叶斯推理的视频人脸识别与检索方法 |
CN101814149A (zh) * | 2010-05-10 | 2010-08-25 | 华中科技大学 | 一种基于在线学习的自适应级联分类器训练方法 |
CN103828286A (zh) * | 2011-08-12 | 2014-05-28 | 阿尔卡特朗讯 | 对通过通信网络发送的数据分组的延迟概率和时滞时间的估计 |
CN104636707A (zh) * | 2013-11-07 | 2015-05-20 | 同方威视技术股份有限公司 | 自动检测香烟的方法 |
CN104240455A (zh) * | 2014-08-07 | 2014-12-24 | 北京航天控制仪器研究所 | 一种分布式光纤管线安全预警系统中的扰动事件识别方法 |
CN106485324A (zh) * | 2016-10-09 | 2017-03-08 | 成都快眼科技有限公司 | 一种卷积神经网络优化方法 |
CN107967515A (zh) * | 2016-10-19 | 2018-04-27 | 三星电子株式会社 | 用于神经网络量化的方法和设备 |
CN107071841A (zh) * | 2017-03-02 | 2017-08-18 | 重庆邮电大学 | 异构网络中基于动态权重优化的垂直切换方法 |
CN108009482A (zh) * | 2017-11-25 | 2018-05-08 | 宁波亿拍客网络科技有限公司 | 一种提高人脸识别效率方法 |
CN108052940A (zh) * | 2017-12-17 | 2018-05-18 | 南京理工大学 | 基于深度学习的sar遥感图像水面目标检测方法 |
CN110135417A (zh) * | 2018-02-09 | 2019-08-16 | 北京世纪好未来教育科技有限公司 | 样本标注方法及计算机存储介质 |
CN108710950A (zh) * | 2018-05-11 | 2018-10-26 | 上海市第六人民医院 | 一种图像量化分析方法 |
CN108566537A (zh) * | 2018-05-16 | 2018-09-21 | 中国科学院计算技术研究所 | 用于对视频帧进行神经网络运算的图像处理装置 |
CN109146921A (zh) * | 2018-07-02 | 2019-01-04 | 华中科技大学 | 一种基于深度学习的行人目标跟踪方法 |
CN109102024A (zh) * | 2018-08-14 | 2018-12-28 | 中山大学 | 一种用于物体精细识别的层次语义嵌入模型及其实现方法 |
CN109472769A (zh) * | 2018-09-26 | 2019-03-15 | 成都数之联科技有限公司 | 一种不良图像缺陷检测方法和系统 |
CN109447140A (zh) * | 2018-10-19 | 2019-03-08 | 广州四十五度科技有限公司 | 一种基于神经网络深度学习的图像识别并推荐认知的方法 |
CN109584227A (zh) * | 2018-11-27 | 2019-04-05 | 山东大学 | 一种基于深度学习目标检测算法的焊点质量检测方法及其实现系统 |
CN109658928A (zh) * | 2018-12-06 | 2019-04-19 | 山东大学 | 一种家庭服务机器人云端多模态对话方法、装置及系统 |
CN109657791A (zh) * | 2018-12-14 | 2019-04-19 | 中南大学 | 一种基于大脑神经突触记忆机制的面向开放世界连续学习方法 |
CN109784196A (zh) * | 2018-12-20 | 2019-05-21 | 哈尔滨工业大学深圳研究生院 | 视觉信息判识方法、装置、设备及存储介质 |
CN109671124A (zh) * | 2018-12-27 | 2019-04-23 | 湖南师范大学 | 一种矿物浮选泡沫图像颜色校正方法及泡沫颜色检测系统 |
CN109871883A (zh) * | 2019-01-24 | 2019-06-11 | 北京市商汤科技开发有限公司 | 神经网络训练方法及装置、电子设备和存储介质 |
CN110009090A (zh) * | 2019-04-02 | 2019-07-12 | 北京市商汤科技开发有限公司 | 神经网络训练与图像处理方法及装置 |
CN110059672A (zh) * | 2019-04-30 | 2019-07-26 | 福州大学 | 一种利用增量学习对显微镜细胞图像检测模型进行增类学习的方法 |
CN110189227A (zh) * | 2019-05-31 | 2019-08-30 | 三峡大学 | 基于主成分分析与反向传播神经网络的内幕交易辨别方法 |
CN110335250A (zh) * | 2019-05-31 | 2019-10-15 | 上海联影智能医疗科技有限公司 | 网络训练方法、装置、检测方法、计算机设备和存储介质 |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111553476A (zh) * | 2020-04-30 | 2020-08-18 | 汪科道 | 基于记忆分值的神经网络训练方法、装置及存储介质 |
CN111553476B (zh) * | 2020-04-30 | 2023-12-01 | 上海个元科技有限公司 | 基于记忆分值的神经网络训练方法、装置及存储介质 |
CN111523545B (zh) * | 2020-05-06 | 2023-06-30 | 青岛联合创智科技有限公司 | 一种结合深度信息的物品查找方法 |
CN111523545A (zh) * | 2020-05-06 | 2020-08-11 | 青岛联合创智科技有限公司 | 一种结合深度信息的物品查找方法 |
CN111652140A (zh) * | 2020-06-03 | 2020-09-11 | 广东小天才科技有限公司 | 基于深度学习的题目精准分割方法、装置、设备和介质 |
CN111882034A (zh) * | 2020-07-20 | 2020-11-03 | 北京市商汤科技开发有限公司 | 神经网络处理及人脸识别方法、装置、设备和存储介质 |
CN112015893A (zh) * | 2020-08-12 | 2020-12-01 | 北京字节跳动网络技术有限公司 | 数据处理方法及装置 |
CN112507895A (zh) * | 2020-12-14 | 2021-03-16 | 广东电力信息科技有限公司 | 基于大数据分析自动归类资质证书文件的方法及装置 |
CN112819110A (zh) * | 2021-04-19 | 2021-05-18 | 中国科学院自动化研究所 | 基于权重生成的增量式小样本目标检测方法及系统 |
CN112819110B (zh) * | 2021-04-19 | 2021-06-29 | 中国科学院自动化研究所 | 基于权重生成的增量式小样本目标检测方法及系统 |
CN113139612A (zh) * | 2021-05-07 | 2021-07-20 | 上海商汤临港智能科技有限公司 | 图像分类方法、分类网络的训练方法和相关产品 |
CN113469176A (zh) * | 2021-06-28 | 2021-10-01 | 北京有竹居网络技术有限公司 | 一种目标检测模型训练方法、目标检测方法及其相关设备 |
CN113469358A (zh) * | 2021-07-05 | 2021-10-01 | 北京市商汤科技开发有限公司 | 一种神经网络训练方法、装置、计算机设备及存储介质 |
CN113673589A (zh) * | 2021-08-12 | 2021-11-19 | 南京理工大学 | 基于边框距离度量的标签选择自适应增量检测方法及系统 |
CN115438755A (zh) * | 2022-11-08 | 2022-12-06 | 腾讯科技(深圳)有限公司 | 分类模型的增量训练方法、装置和计算机设备 |
CN115438755B (zh) * | 2022-11-08 | 2024-04-02 | 腾讯科技(深圳)有限公司 | 分类模型的增量训练方法、装置和计算机设备 |
Also Published As
Publication number | Publication date |
---|---|
CN110837856B (zh) | 2023-05-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110837856A (zh) | 神经网络训练及目标检测方法、装置、设备和存储介质 | |
CN109784391B (zh) | 基于多模型的样本标注方法及装置 | |
CN109740670B (zh) | 视频分类的方法及装置 | |
US10726335B2 (en) | Generating compressed representation neural networks having high degree of accuracy | |
CN112560999B (zh) | 一种目标检测模型训练方法、装置、电子设备及存储介质 | |
WO2018121737A1 (zh) | 关键点预测、网络训练及图像处理方法和装置、电子设备 | |
WO2023024442A1 (zh) | 检测方法、训练方法、装置、设备、存储介质和程序产品 | |
KR20190054702A (ko) | 영상에서 객체의 행동을 인식하는 방법 및 그 장치 | |
EP4035070B1 (en) | Method and server for facilitating improved training of a supervised machine learning process | |
CN110321885A (zh) | 一种兴趣点的获取方法及装置 | |
CN111985458A (zh) | 一种检测多目标的方法、电子设备及存储介质 | |
CN108765532A (zh) | 儿童绘本模型建立方法、阅读机器人及存储设备 | |
CN113112542A (zh) | 一种视觉定位方法、装置、电子设备及存储介质 | |
CN115131604A (zh) | 一种多标签图像分类方法、装置、电子设备及存储介质 | |
CN111291695A (zh) | 人员违章行为识别模型训练方法、识别方法及计算机设备 | |
US20210406568A1 (en) | Utilizing multiple stacked machine learning models to detect deepfake content | |
CN113837257A (zh) | 一种目标检测方法及装置 | |
CN113570615A (zh) | 一种基于深度学习的图像处理方法、电子设备及存储介质 | |
CN114972492A (zh) | 一种基于鸟瞰图的位姿确定方法、设备和计算机存储介质 | |
CN112149528A (zh) | 一种全景图目标检测方法、系统、介质及设备 | |
CN116129523A (zh) | 动作识别方法、装置、终端及计算机可读存储介质 | |
CN115004245A (zh) | 目标检测方法、装置、电子设备和计算机存储介质 | |
CN114187650A (zh) | 动作识别方法、装置、电子设备及存储介质 | |
US10728444B2 (en) | Automated image capture system with expert guidance | |
US20220027609A1 (en) | Webpage illustration processing method, system, device and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |