CN111553476B - 基于记忆分值的神经网络训练方法、装置及存储介质 - Google Patents

基于记忆分值的神经网络训练方法、装置及存储介质 Download PDF

Info

Publication number
CN111553476B
CN111553476B CN202010362623.9A CN202010362623A CN111553476B CN 111553476 B CN111553476 B CN 111553476B CN 202010362623 A CN202010362623 A CN 202010362623A CN 111553476 B CN111553476 B CN 111553476B
Authority
CN
China
Prior art keywords
training
sample
neural network
sample images
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010362623.9A
Other languages
English (en)
Other versions
CN111553476A (zh
Inventor
汪科道
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Geyuan Technology Co ltd
Original Assignee
Shanghai Geyuan Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Geyuan Technology Co ltd filed Critical Shanghai Geyuan Technology Co ltd
Priority to CN202010362623.9A priority Critical patent/CN111553476B/zh
Publication of CN111553476A publication Critical patent/CN111553476A/zh
Priority to US17/226,596 priority patent/US20210342688A1/en
Application granted granted Critical
Publication of CN111553476B publication Critical patent/CN111553476B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2413Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0004Industrial image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/776Validation; Performance evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Quality & Reliability (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本公开涉及了一种基于记忆分值的神经网络训练方法、装置及存储介质。所述方法包括:根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值;根据多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集;根据所述第一训练集,对所述神经网络进行训练,其中,所述神经网络用于缺陷检测。本公开实施例的神经网络训练方法可缩小神经网络训练集的大小,缩短神经网络的训练收敛时间,从而可提高神经网络的训练效率。

Description

基于记忆分值的神经网络训练方法、装置及存储介质
技术领域
本公开涉及计算机技术领域,尤其涉及一种基于记忆分值的神经网络训练方法、装置及存储介质。
背景技术
随着深度学习的发展,用于缺陷检测的神经网络得到了广泛应用。对于在生产线上进行缺陷检测的神经网络来说,新的缺陷是持续产生的,例如第一个月只有“划痕”,第二个月出现“裂纹”,而随着新缺陷的持续产生,训练集也在持续累积,越来越大,相应地,神经网络的训练时间也随之不断增加,给快速迭代造成了困难。
而且,标记人员对新缺陷的认知也是有延迟的,例如,标记人员一次性标记完1000张样本图像,并输入神经网络进行训练后,才发现某些标记数据存在问题,这时,标记人员需要返工,对存在问题的标记数据进行修改,会耗费大量时间。此外,训练集中也可能存在大量冗余样本,导致训练集庞大,管理难度增加。
发明内容
有鉴于此,本公开提出了一种基于记忆分值的神经网络训练技术方案。
根据本公开的一方面,提供了一种基于记忆分值的神经网络训练方法,所述方法包括:
根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,其中,所述多个第一样本图像为检测对象的图像,所述多个第一样本图像中至少包括一个新增图像,所述训练标志位用于表示第一样本图像是否加入神经网络各个训练轮次的训练集,所述训练序列号用于表示第一样本图像加入所述样本库后所述神经网络的训练次数,所述记忆分值用于表示第一样本图像的训练参与度;
根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集;
根据所述第一训练集,对所述神经网络进行训练,
其中,所述神经网络用于缺陷检测。
在一种可能的实现方式中,所述方法还包括:
根据所述多个第一样本图像的记忆分值、训练序列号及第二预设数量,从所述样本库中,确定出多个第三样本图像,建立第二训练集;
根据所述第二训练集,对所述神经网络进行训练。
在一种可能的实现方式中,所述根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,包括:
对于任一第一样本图像,根据所述第一样本图像在神经网络第i次训练时的训练标志位及预设的折旧率,确定所述第一样本图像在神经网络第i次训练时的折旧分值,其中,所述神经网络第i次训练为从本次训练开始依次往前的第i次训练,神经网络本次训练对应的i为0,i为整数且0≤i≤N,N为所述第一样本图像的训练序列号,N为整数且N≥0;
将所述第一样本图像的N个折旧分值之和,确定为所述第一样本图像的记忆分值。
在一种可能的实现方式中,在所述第一样本图像加入神经网络第i次训练时的训练集时,所述第一样本图像在神经网络第i次训练时的训练标志位为1,
在所述第一样本图像未加入神经网络第i次训练时的训练集时,所述第一样本图像在神经网络第i次训练时的训练标志位为0。
在一种可能的实现方式中,所述根据所述第一样本图像在神经网络第i次训练时的训练标志位及预设的折旧率,确定所述第一样本图像在神经网络第i次训练时的折旧分值,包括:
将所述第一样本图像在神经网络第i次训练时的训练标志位与预设的折旧率的i次方的乘积,确定为所述第一样本图像在神经网络第i次训练时的折旧分值。
在一种可能的实现方式中,所述根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集,包括:
根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出记忆分值最低的多个第二样本图像;
根据所述多个第二样本图像,建立第一训练集。
在一种可能的实现方式中,所述根据所述多个第一样本图像的记忆分值、训练序列号及第二预设数量,从所述样本库中,确定出多个第三样本图像,建立第二训练集,包括:
根据所述多个第一样本图像的记忆分值,从所述样本库中,确定出记忆分值最低的多个第四样本图像;
根据所述多个第一样本图像的训练序列号,从所述样本库中,确定出训练序列号最小的多个第五样本图像,其中,第四样本图像与第五样本图像的数量之和为所述第二预设数量;
将所述多个第四样本图像及所述多个第五样本图像,确定为多个第三样本图像;
根据所述多个第三样本图像,建立第二训练集。
在一种可能的实现方式中,在确定多个第一样本图像的记忆分值之前,所述方法还包括:
将标记图像输入神经网络中进行缺陷检测,得到所述标记图像的检测结果,所述标记图像为新增的、未加入样本库的图像;
在所述标记图像的检测结果与预设的预期结果不一致的情况下,修改所述标记图像的标记信息,得到所述标记图像的修改后的标记信息;
将所述标记图像及所述标记图像的修改后的标记信息加入所述样本库。
在一种可能的实现方式中,所述方法还包括:
在所述标记图像的检测结果与所述预期结果一致的情况下,丢弃所述标记图像。
根据本公开的另一方面,提供了一种基于记忆分值的神经网络训练装置,所述装置包括:
记忆分值确定模块,用于根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,其中,所述多个第一样本图像为检测对象的图像,所述多个第一样本图像中至少包括一个新增图像,所述训练标志位用于表示第一样本图像是否加入神经网络各个训练轮次的训练集,所述训练序列号用于表示第一样本图像加入所述样本库后所述神经网络的训练次数,所述记忆分值用于表示第一样本图像的训练参与度;
第一训练集建立模块,用于根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集;
第一训练模块,用于根据所述第一训练集,对所述神经网络进行训练,
其中,所述神经网络用于缺陷检测。
在一种可能的实现方式中,所述装置还包括:
第二训练集建立模块,用于根据所述多个第一样本图像的记忆分值、训练序列号及第二预设数量,从所述样本库中,确定出多个第三样本图像,建立第二训练集;
第二训练模块,用于根据所述第二训练集,对所述神经网络进行训练。
在一种可能的实现方式中,所述记忆分值确定模块,包括:
折旧分值确定子模块,根据所述第一样本图像在神经网络第i次训练时的训练标志位及预设的折旧率,确定所述第一样本图像在神经网络第i次训练时的折旧分值,其中,所述神经网络第i次训练为从本次训练开始依次往前的第i次训练,神经网络本次训练对应的i为0,i为整数且0≤i≤N,N为所述第一样本图像的训练序列号,N为整数且N≥0;
记忆分值确定子模块,将所述第一样本图像的N个折旧分值之和,确定为所述第一样本图像的记忆分值。
在一种可能的实现方式中,在所述第一样本图像加入神经网络第i次训练时的训练集时,所述第一样本图像在神经网络第i次训练时的训练标志位为1,
在所述第一样本图像未加入神经网络第i次训练时的训练集时,所述第一样本图像在神经网络第i次训练时的训练标志位为0。
在一种可能的实现方式中,折旧分值确定子模块,被配置为:
将所述第一样本图像在神经网络第i次训练时的训练标志位与预设的折旧率的i次方的乘积,确定为所述第一样本图像在神经网络第i次训练时的折旧分值。
在一种可能的实现方式中,所述第一训练集建立模块,包括:
第一图像确定子模块,用于根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出记忆分值最低的多个第二样本图像;
第一训练集建立子模块,用于根据所述多个第二样本图像,建立第一训练集。
在一种可能的实现方式中,所述第二训练集建立模块,包括:
第二图像确定子模块,用于根据所述多个第一样本图像的记忆分值,从所述样本库中,确定出记忆分值最低的多个第四样本图像;
第三图像确定子模块,用于根据所述多个第一样本图像的训练序列号,从所述样本库中,确定出训练序列号最小的多个第五样本图像,其中,第四样本图像与第五样本图像的数量之和为所述第二预设数量;
第四图像确定子模块,用于将所述多个第四样本图像及所述多个第五样本图像,确定为多个第三样本图像;
第二训练集建立子模块,用于根据所述多个第三样本图像,建立第二训练集。
在一种可能的实现方式中,所述装置还包括:
图像检测模块,用于将标记图像输入神经网络中进行缺陷检测,得到所述标记图像的检测结果,所述标记图像为新增的、未加入样本库的图像;
图像标记模块,用于在所述标记图像的检测结果与预设的预期结果不一致的情况下,修改所述标记图像的标记信息,得到所述标记图像的修改后的标记信息;
图像加入模块,用于将所述标记图像及所述标记图像的修改后的标记信息加入所述样本库。
在一种可能的实现方式中,所述装置还包括:
图像丢弃模块,用于在所述标记图像的检测结果与所述预期结果一致的情况下,丢弃所述标记图像。
根据本公开的另一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。
根据本公开的实施例,在样本库中包括新增的第一样本图像时,能够根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,然后根据多个第一样本图像的记忆分值及第一预设数量,从样本库中选取多个第二样本图像,建立第一训练集,并根据第一训练集,对神经网络进行训练,从而可以在有新增样本图像加入样本库时,根据各个样本图像的记忆分值,从样本库中选取一定数量的样本图像建立训练集,使得训练集中包括新增样本图像及已有样本图像,根据该训练集对神经网络进行训练,既可使得神经网络在学习新缺陷的特征时,不忘记旧缺陷的特征,还可缩短神经网络的训练收敛时间,提高神经网络对新缺陷的学习速度。
附图说明
下面结合附图,通过对本发明的具体实施方式详细描述,将使本发明的技术方案及其有益效果显而易见。
图1示出根据本公开的实施例的基于记忆分值的神经网络训练方法的流程图。
图2示出根据本公开的实施例的基于记忆分值的神经网络训练方法的流程图。
图3示出根据本公开的实施例的基于记忆分值的神经网络训练方法的应用场景的示意图。
图4示出根据本公开的实施例的基于记忆分值的神经网络训练方法的应用场景的示意图。
图5示出根据本公开的实施例的基于记忆分值的神经网络训练装置的框图。
图6示出根据本公开的实施例的基于记忆分值的神经网络训练装置的框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本公开实施例所述的基于记忆分值的神经网络训练方法,可应用于处理器。所述处理器可以是通用处理器,例如CPU(Central Processing Unit,中央处理器),也可以是人工智能处理器(IPU),例如人工智能处理器可包括GPU(Graphics Processing Unit,图形处理单元)、NPU(Neural-Network Processing Unit,神经网络处理单元)、DSP(DigitalSignal Process,数字信号处理单元)、FPGA(Field Programmable Gate Array,现场可编程门阵列)、ASIC(Application Specific Integrated Circuit,专用集成电路)中的一种或组合。本公开对处理器的具体类型不作限制。
本公开实施例所述的神经网络可用于缺陷检测。例如,该神经网络可应用于生产线上的缺陷检测设备或缺陷检测系统。可将待检测对象的图像输入神经网络中进行缺陷检测,以确定待检测对象是否存在缺陷。其中,待检测对象可以是生产线上生产的各种零部件、铸件等。本公开对待检测对象的具体类型不作限制。
图1示出根据本公开的实施例的基于记忆分值的神经网络训练方法的流程图。如图1所示,所述方法包括:
步骤S100,根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,其中,所述多个第一样本图像为检测对象的图像,所述多个第一样本图像中至少包括一个新增图像,所述训练标志位用于表示第一样本图像是否加入神经网络各个训练轮次的训练集,所述训练序列号用于表示第一样本图像加入所述样本库后所述神经网络的训练次数,所述记忆分值用于表示第一样本图像的训练参与度;
步骤S200,根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集;
步骤S300,根据所述第一训练集,对所述神经网络进行训练;
根据本公开的实施例,在样本库中包括新增的第一样本图像时,能够根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,然后根据多个第一样本图像的记忆分值及第一预设数量,从样本库中选取多个第二样本图像,建立第一训练集,并根据第一训练集,对神经网络进行训练,从而可以在有新增样本图像加入样本库时,根据各个样本图像的记忆分值,从样本库中选取一定数量的样本图像建立训练集,使得训练集中包括新增样本图像及已有样本图像,根据该训练集对神经网络进行训练,既可使得神经网络在学习新缺陷的特征时,不忘记旧缺陷的特征,还可缩短神经网络的训练收敛时间,提高神经网络对新缺陷的学习速度。
在一种可能的实现方式中,所述神经网络的训练可包括进阶训练。进阶训练是指在样本库中包括新增的第一样本图像时,使用已有的第一样本图像与新增的第一样本图像,对神经网络进行训练,使得神经网络既可以检测出已有的第一样本图像中包括的缺陷,也可以检测出新增的第一样本图像中包括的缺陷。
在一种可能的实现方式中,第一样本图像可以是检测对象的图像。检测对象可根据神经网络的应用场景具体设置。例如,神经网络用于对生产线上生产的零部件进行缺陷检测时,检测对象为零部件,第一样本图像为零部件的图像。本公开对具体的检测对象不作限制。
在一种可能的实现方式中,所述样本库中可包括多个第一样本图像,多个第一样本图像中至少包括一个新增图像。也就是说,样本库中的多个第一样本图像,可以分为两类,一类是本次训练时新增的第一样本图像,另一类是本次训练之前已有的第一样本图像。其中,新增的第一样本图像,可以是新缺陷的样本图像。
在一种可能的实现方式中,第一样本图像的训练序列号可用于表示第一样本图像加入样本库后神经网络的训练次数。例如,第一样本图像加入样本库后,神经网络进行了5次训练,第一样本图像的训练序列号即为5。第一样本图像训练序列号越小,表示该第一样本图像加入样本库的时间越短。
在一种可能的实现方式中,第一样本图像的训练标志位可用于表示第一样本图像加入样本库后,是否加入神经网络各个轮次的训练集。也就是说,第一样本图像加入样本库后,神经网络的每次训练,第一样本图像均有一个训练标志位与其相对应。训练标志位的取值可以为0或1。0表示第一样本图像未加入神经网络相应轮次的训练集,1表示第一样本图像加入神经网络相应轮次的训练集。
在一种可能的实现方式中,可在步骤S100中,根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值。
其中,预设的折旧率用于表示神经网络的记忆度。折旧率越小,神经网络的记忆度越低,神经网络越容易忘记之前学习的特征。折旧率的取值范围为大于0且小于1,例如,折旧率可设为0.8。本领域技术人员可根据实际情况设置折旧率的具体取值,本公开对此不作限制。
在一种可能的实现方式中,第一样本图像的记忆分值可用于表示第一样本图像的训练参与度。第一样本图像的记忆分值越高,第一样本图像的训练参与度越高。
在一种可能的实现方式中,新增的第一样本图像未参与过神经网络的训练,可将新增的第一样本图像的记忆分值设为0。
在一种可能的实现方式中,确定出多个第一样本图像的记忆分值后,可在步骤S200中,根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集。其中,第二样本图像的数量为第一预设数量。第一预设数量可根据实际需要进行设置,本公开对此不作限制。
在一种可能的实现方式中,根据多个第一样本图像的记忆分值及第一预设数量,从样本库中选取多个第二样本图像时,可以有多种方式。例如,可从样本库中选取第一预设数量的、记忆分值在一定区间(例如小于1)的第一样本图像,作为多个第二样本图像;还可将记忆分值划分为多个不同的分值区间,并根据分值区间将样本库中的多个第一样本图像划分为多个图像组,从多个图像组中通过抽样的方式,选取出第一预设数量的第二样本图像;也可从样本库中选取第一预设数量的、记忆分值最低的第一样本图像,作为第二样本图像;还可以使用其他选取方式。本公开对根据记忆分值选取第二样本图像的具体方式不作限制。
在一种可能的实现方式中,选取出多个第二样本图像后,可根据多个第二样本图像及其标记信息,建立第一训练集。
在一种可能的实现方式中,建立第一训练集后,可在步骤S300中,根据第一训练集,对神经网络进行训练。可将第一训练集中的多个样本图像分别输入神经网络进行缺陷检测,得到检测结果;根据多个样本图像的检测结果与其标记信息之间的差异,确定网络损失;根据网络损失,对神经网络的网络参数进行调整。
在一种可能的实现方式中,在神经网络每次可处理多个样本图像时,可根据神经网络每次可处理样本图像的数量,将训练集中的样本图像分为多个批次进行处理,以提高神经网络的处理效率。
在一种可能的实现方式中,可在神经网络满足预设的训练结束条件时,结束本次训练,得到已训练的神经网络。可使用已训练的神经网络进行缺陷检测。其中,预设的训练结束条件可根据实际情况进行设置,例如,训练结束条件可以是神经网络在验证集上的输出符合预期;训练结束条件也可以是神经网络的网络损失降低到一定程度或收敛于一定阈值内;训练结束条件还可以是其他条件。本公开对训练结束条件的具体内容不作限制。
在一种可能的实现方式中,由于在实际应用中,新增的样本图像无法一次收集完成,是随着时间的推移而逐渐出现的,因此,在样本库中出现一个新增的样本图像时,即可使用上述神经网络训练方法,对神经网络进行进阶训练。随着样本库中样本图像的逐渐增加,神经网络也在一次次进阶训练中逐步提升。
在一种可能的实现方式中,上述基于记忆分值的神经网络训练方法也可用于其他应用场景(例如目标检测、图像识别、姿态估计等)的神经网络的进阶训练。本公开对此不作限制。
在一种可能的实现方式中,步骤S100可包括:
对于任一第一样本图像,根据所述第一样本图像在神经网络第i次训练时的训练标志位及预设的折旧率,确定所述第一样本图像在神经网络第i次训练时的折旧分值,其中,所述神经网络第i次训练为从本次训练开始依次往前的第i次训练,所述本次训练对应的i为0,i为整数且0≤i≤N,N为所述第一样本图像的训练序列号,N为整数且N≥0;
将所述第一样本图像的N个折旧分值之和,确定为所述第一样本图像的记忆分值。
在一种可能的实现方式中,神经网络第i次训练为从本次训练开始依次往前的第i次训练,神经网络本次训练对应的i为0。也就是说,神经网络第0次训练为本次训练,神经网络第1次训练为本次训练的上一次训练,神经网络第2次训练为神经网络第1次训练的上一次训练,以此类推,此处不再赘述。
在一种可能的实现方式中,在第一样本图像加入神经网络第i次训练时的训练集时,第一样本图像在神经网络第i次训练时的训练标志位为1;在第一样本图像未加入神经网络第i次训练时的训练集时,第一样本图像在神经网络第i次训练时的训练标志位为0。
在一种可能的实现方式中,可根据第一样本图像在神经网络第i次训练时的训练标志位及预设的折旧率,确定所述第一样本图像在神经网络第i次训练时的折旧分值。在第一样本图像的训练序列号为N时,对应神经网络N次训练,从而可确定出第一样本图像的N个折旧分值。可将第一样本图像的N个折旧分值之和,确定为第一样本图像的记忆分值。
在本实施例中,能够根据第一样本图像在神经网络各个训练轮次的训练标志位及预设的折旧率,确定第一样本图像在神经网络各个训练轮次的折旧分值,并将折旧分值之和,确定为第一样本图像的记忆分值,可提高记忆分值的准确性。
在一种可能的实现方式中,根据第一样本图像在神经网络第i次训练时的训练标志位及预设的折旧率,确定所述第一样本图像在神经网络第i次训练时的折旧分值,可包括:将所述第一样本图像在神经网络第i次训练时的训练标志位与预设的折旧率的i次方的乘积,确定为所述第一样本图像在神经网络第i次训练时的折旧分值。
在一种可能的实现方式中,可通过下述公式(1)确定第一样本图像的记忆分值S:
S=∑iδ(i)βi (1)
其中,β表示预设的折旧率,δ(i)表示第一样本图像在神经网络第i次训练时的训练标志位,在第一样本图像加入神经网络第i次训练时的训练集时,δ(i)=1,在第一样本图像未加入神经网络第i次训练时的训练集时,δ(i)=0。
对于神经网络第0次训练(即本次训练),由于此时第一样本图像均未加入训练集,因此,各个第一样本图像在神经网络第0次训练时的训练标志位均为0,即δ(0)=0。
在本实施例中,将第一样本图像在神经网络第i次训练时的训练标志位与折旧率的i次方的乘积,确定为该第一样本图像在神经网络第i次训练时的折旧分值,使得与神经网络不同训练轮次对应的折旧分值不同,且折旧率的i次方随着i的增加而减少,从而可提高折旧分值的准确性。
在一种可能的实现方式中,步骤S200可包括:根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出记忆分值最低的多个第二样本图像;根据所述多个第二样本图像,建立第一训练集。
可根据多个第一样本图像的记忆分值及第一预设数量,通过排序、比较、取最小值等方法,从样本库中选取出第一预设数量的、记忆分值最低的第一样本图像,并将选取出的第一样本图像,确定为第二样本图像。
确定出多个第二样本图像后,可根据多个第二样本图像及其标记信息,建立第一训练集。
在本实施例中,从样本库中选取第一预设数量的、记忆分值最低的第二样本图像,根据选取出的第二样本图像建立第一训练集,使得第一训练集中既包括新增样本图像,也包括记忆分值偏低的已有样本图像。根据第一训练集对神经网络进行训练,使得神经网络在学习新缺陷的特征的同时,不忘记旧缺陷的特征,从而可提高神经网络缺陷检测的准确性。
图2示出根据本公开的实施例的基于记忆分值的神经网络训练方法的流程图。如图2所示,所述方法还包括:
步骤S400,根据所述多个第一样本图像的记忆分值、训练序列号及第二预设数量,从所述样本库中,确定出多个第三样本图像,建立第二训练集;
步骤S500,根据所述第二训练集,对所述神经网络进行训练。
在一种可能的实现方式中,根据步骤S100中确定出样本库中多个第一样本图像的记忆分值后,可在步骤S400中,根据多个第一样本图像的记忆分值、训练序列号及第二预设数量,从样本库中选取多个第三样本图像。选取第三样本图像的方式有多种,可将记忆分值与训练序列号结合起来选取,也可分别依据记忆分值及训练序列号选取。
例如,可首先选取出记忆分值小于1且训练序列号小于10的多个第一样本图像,并根据第二预设数量,对选取出的多个第一样本图像进行随机抽样,并将抽样选取出的第二预设数量的第一样本图像,确定为多个第三样本图像。
再例如,可分别使用记忆分值及训练序列号来选取第三样本图像。可根据记忆分值选取一定数量的第三样本图像,根据训练序列号选取一定数量的第三样本图像,两次选取的图像的数量之和为第二预设图像。
应当理解,根据多个第一样本图像的记忆分值及训练序列号,从样本库中确定出第二预设数量的第三样本图像的方式有多种,本领域技术人员可根据实际情况选择合适的方式,本公开对此不作限制。
确定出多个第三样本图像后,可根据多个第三样本图像及其标记信息,建立第二训练集;然后在步骤S500中,根据该第二训练集,对神经网络进行训练。
在本实施例中,根据多个第一样本图像的记忆分值、训练序列号及第二预设数量,从样本库中,确定出多个第三样本图像,建立第二训练集,并根据第二训练集,对所述神经网络进行训练,从而可以从记忆分值及训练序列号两个角度来选取第三样本图像,使得第二训练集中的样本图像更加多样化。根据第二训练集对神经网络进行训练,可提高神经网络缺陷检测的准确性。
在一种可能的实现方式中,步骤S400可包括:
根据所述多个第一样本图像的记忆分值,从所述样本库中,确定出记忆分值最低的多个第四样本图像;
根据所述多个第一样本图像的训练序列号,从所述样本库中,确定出训练序列号最小的多个第五样本图像,其中,第四样本图像与第五样本图像的数量之和为所述第二预设数量;
将所述多个第四样本图像及所述多个第五样本图像,确定为多个第三样本图像;
根据所述多个第三样本图像,建立第二训练集。
在一种可能的实现方式中,第四样本图像与第五样本图像的数量之和为第二预设数量,可将第二预设数量表示为M,可将第四样本图像的数量表示为K,那么第五样本图像的数量为M-K,M、K均为正整数且M>K。本领域技术人员可根据实际情况设置M、K的具体取值,本公开对此不作限制。
在一种可能的实现方式中,可根据多个第一样本图像的记忆分值,通过排序、比较、取最小值等方法,从所述样本库中,选取出记忆分值最低的K个第一样本图像,并将选取出的第一样本图像,确定为第四样本图像。
在一种可能的实现方式中,可根据多个第一样本图像的训练序列号,通过排序、比较、取最小值等方法,从样本库中选取出训练序列号最小的M-K个第一样本图像,并将选取出的第一样本图像,确定为第五样本图像。第五样本图像可以与第四样本图像重复。
可将确定出的多个第四样本图像及多个第五样本图像,确定为多个第三样本图像,并根据多个第三样本图像及其标记信息,建立第二训练集。
在一种可能的实现方式中,建立第二训练集时,可将第四样本图像及第五样本图像交替加入第二训练集中。
在本实施例中,根据样本图库中记忆分值最低的多个第四样本图像及训练序列号最小的多个第五样本图像,来建立第二训练集,使得第二训练集中既可包括训练参与度较低的样本图像,也可包括加入样本库中时间较短的样本图像。
在一种可能的实现方式中,在确定多个第一样本图像的记忆分值之前,所述方法还可包括:
将标记图像输入神经网络中进行缺陷检测,得到所述标记图像的检测结果,所述标记图像为新增的、未加入样本库的图像;
在所述标记图像的检测结果与预设的预期结果不一致的情况下,修改所述标记图像的标记信息,得到所述标记图像的修改后的标记信息;
将所述标记图像及所述标记图像的修改后的标记信息加入所述样本库。
在一种可能的实现方式中,在将标记图像加入样本库之前,可将标记图像输入神经网络中进行缺陷检测,得到标记图像的检测结果;然后判断标记图像的检测结果与预设的预期结果是否一致,在标记图像的检测结果与预设的预期结果不一致的情况下,可认为神经网络无法对标记图像中的缺陷进行正确识别,需要学习,可根据标记图像的检测结果,对标记图像的标记信息进行修改,并将标记图像及其修改后的标记信息加入样本库。
在一种可能的实现方式中,所述方法还包括:在所述标记图像的检测结果与所述预期结果一致的情况下,丢弃所述标记图像。也就是说,在标记图像的检测结果与预期结果一致的情况下,可认为神经网络可以对标记图像中的缺陷进行正确识别,无需学习,可丢弃该标记图像,不将其加入样本库。
在本实施例中,可将新增的标记图像输入神经网络中进行缺陷检测,得到检测结果,并判断检测结果与预期结果是否一致,在检测结果与预期结果一致的情况下,丢弃该标记图像;在检测结果与预期结果不一致的情况下,将该标记图像加入样本库,从而可以精简样本库,进而缩小训练集,减少神经网络的训练收敛时间。
图3示出根据本公开的实施例的基于记忆分值的神经网络训练方法的应用场景的示意图。如图3所示,可在步骤S201中,将标注图像输入神经网络中进行缺陷检测,得到标记图像的检测结果,并在步骤S202中判断标记图像的检测结果与预期结果是否一致;
如果标记图像的检测结果与预期结果一致,则执行步骤S209,丢弃该标记图像;否则,执行步骤S203,对该标注图像的标注信息进行修改,并将其加入样本库中,启动神经网络的进阶训练;
可在步骤S204中,根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值;在步骤S205中,根据多个第一样本图像的记忆分值及第一预设数量,从样本库中,确定出多个第二样本图像,建立第一训练集,并在步骤S206中,根据第一训练集,对神经网络进行训练。在神经网络满足预设的训练结束条件时,结束本次进阶训练。
图4示出根据本公开的实施例的基于记忆分值的神经网络训练方法的应用场景的示意图。如图4所示,可在步骤S201中,将标注图像输入神经网络中进行缺陷检测,得到标记图像的检测结果,并在步骤S202中判断标记图像的检测结果与预期结果是否一致;
如果标记图像的检测结果与预期结果一致,则执行步骤S209,丢弃该标记图像;否则,执行步骤S203,对该标注图像的标注信息进行修改,并将其加入样本库中,启动神经网络的进阶训练;
可在步骤S204中,根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值;在步骤S210中,根据多个第一样本图像的记忆分值、训练序列号及第二预设数量,从样本库中,确定出多个第三样本图像,建立第二训练集,并在步骤S211中,根据第二训练集,对神经网络进行训练。在神经网络满足预设的训练结束条件时,结束本次进阶训练。
需要说明的是,本领域技术人员可以理解,本公开提及的上述各个方法实施例,在不违背原理逻辑的情况下,均可以彼此相互结合形成结合后的实施例,限于篇幅,本公开不再赘述。
根据本公开的实施例,在标注图像加入样本库之前,可将标注图像输入神经网络进行缺陷检测,得到检测结果,并在检测结果与预期结果不一致的情况下,对标注图像的进行标注信息进行修改,并将其加入样本库。通过这种方式不仅可以精简样本库,标注人员还可以根据检测结果修改标注信息,提高标注人员对缺陷的认知,进而提高标注信息的准确性。
根据本公开的实施例,在有新图像加入样本库时,启动神经网络的进阶训练。首先确定样本库中各个样本图像的记忆分值,然后根据样本图像的记忆分值或根据样本图像的记忆分值及训练序列号,从样本库中选取一定数量的样本图像建立训练集,使得训练集中可包括新增样本图像及已有样本图像,根据该训练集对神经网络进行训练,既可使得神经网络在学习新缺陷的特征时,不忘记旧缺陷的特征,还可缩短神经网络的训练收敛时间,提高神经网络对新缺陷的学习速度。
图5示出根据本公开的实施例的基于记忆分值的神经网络训练装置的框图。如图5所示,所述装置包括:
记忆分值确定模块31,用于根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,其中,所述多个第一样本图像为检测对象的图像,所述多个第一样本图像中至少包括一个新增图像,所述训练标志位用于表示第一样本图像是否加入神经网络各个训练轮次的训练集,所述训练序列号用于表示第一样本图像加入所述样本库后所述神经网络的训练次数,所述记忆分值用于表示第一样本图像的训练参与度;
第一训练集建立模块32,用于根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集;
第一训练模块33,用于根据所述第一训练集,对所述神经网络进行训练,
其中,所述神经网络用于缺陷检测。
图6示出根据本公开的实施例的基于记忆分值的神经网络训练装置的框图。如图6所示,所述装置还包括:
第二训练集建立模块34,用于根据所述多个第一样本图像的记忆分值、训练序列号及第二预设数量,从所述样本库中,确定出多个第三样本图像,建立第二训练集;
第二训练模块35,用于根据所述第二训练集,对所述神经网络进行训练。
在一种可能的实现方式中,所述记忆分值确定模块31,包括:
折旧分值确定子模块,根据所述第一样本图像在神经网络第i次训练时的训练标志位及预设的折旧率,确定所述第一样本图像在神经网络第i次训练时的折旧分值,其中,所述神经网络第i次训练为从本次训练开始依次往前的第i次训练,神经网络本次训练对应的i为0,i为整数且0≤i≤N,N为所述第一样本图像的训练序列号,N为整数且N≥0;
记忆分值确定子模块,将所述第一样本图像的N个折旧分值之和,确定为所述第一样本图像的记忆分值。
在一种可能的实现方式中,在所述第一样本图像加入神经网络第i次训练时的训练集时,所述第一样本图像在神经网络第i次训练时的训练标志位为1,
在所述第一样本图像未加入神经网络第i次训练时的训练集时,所述第一样本图像在神经网络第i次训练时的训练标志位为0。
在一种可能的实现方式中,折旧分值确定子模块,被配置为:
将所述第一样本图像在神经网络第i次训练时的训练标志位与预设的折旧率的i次方的乘积,确定为所述第一样本图像在神经网络第i次训练时的折旧分值。
在一种可能的实现方式中,所述第一训练集建立模块32,包括:
第一图像确定子模块,用于根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出记忆分值最低的多个第二样本图像;
第一训练集建立子模块,用于根据所述多个第二样本图像,建立第一训练集。
在一种可能的实现方式中,所述第二训练集建立模块34,包括:
第二图像确定子模块,用于根据所述多个第一样本图像的记忆分值,从所述样本库中,确定出记忆分值最低的多个第四样本图像;
第三图像确定子模块,用于根据所述多个第一样本图像的训练序列号,从所述样本库中,确定出训练序列号最小的多个第五样本图像,其中,第四样本图像与第五样本图像的数量之和为所述第二预设数量;
第四图像确定子模块,用于将所述多个第四样本图像及所述多个第五样本图像,确定为多个第三样本图像;
第二训练集建立子模块,用于根据所述多个第三样本图像,建立第二训练集。
在一种可能的实现方式中,所述装置还包括:
图像检测模块,用于将标记图像输入神经网络中进行缺陷检测,得到所述标记图像的检测结果,所述标记图像为新增的、未加入样本库的图像;
图像标记模块,用于在所述标记图像的检测结果与预设的预期结果不一致的情况下,修改所述标记图像的标记信息,得到所述标记图像的修改后的标记信息;
图像加入模块,用于将所述标记图像及所述标记图像的修改后的标记信息加入所述样本库。
在一种可能的实现方式中,所述装置还包括:
图像丢弃模块,用于在所述标记图像的检测结果与所述预期结果一致的情况下,丢弃所述标记图像。
根据本公开的另一方面,提供了一种计算机可读存储介质,其上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现上述方法。
以上所述仅为本发明的示例性实施例,并非因此限制本发明专利保护范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (12)

1.一种基于神经网络的检测方法,其特征在于,所述检测方法应用于生产线上的缺陷检测设备或缺陷检测系统,将待检测对象的图像输入所述神经网络中进行缺陷检测,以确定所述待检测对象是否存在缺陷,
其中,所述神经网络的训练方法包括:
根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,其中,所述多个第一样本图像为检测对象的图像,所述多个第一样本图像中至少包括一个新增图像,所述训练标志位用于表示第一样本图像是否加入神经网络各个训练轮次的训练集,所述训练序列号用于表示第一样本图像加入所述样本库后所述神经网络的训练次数,所述记忆分值用于表示第一样本图像的训练参与度;所述预设的折旧率用于表示神经网络的记忆度,折旧率越小,神经网络的记忆度越低,神经网络越容易忘记之前学习的特征,折旧率的取值范围为大于0且小于1;
根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集;
根据所述第一训练集,对所述神经网络进行训练。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
根据所述多个第一样本图像的记忆分值、训练序列号及第二预设数量,从所述样本库中,确定出多个第三样本图像,建立第二训练集;
根据所述第二训练集,对所述神经网络进行训练。
3.根据权利要求1所述的方法,其特征在于,所述根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,包括:
对于任一第一样本图像,根据所述第一样本图像在神经网络第i次训练时的训练标志位及预设的折旧率,确定所述第一样本图像在神经网络第i次训练时的折旧分值,其中,所述神经网络第i次训练为从本次训练开始依次往前的第i次训练,神经网络本次训练对应的i为0,i为整数且0≤i≤N,N为所述第一样本图像的训练序列号,N为整数且N≥0;
将所述第一样本图像的N个折旧分值之和,确定为所述第一样本图像的记忆分值。
4.根据权利要求3所述的方法,其特征在于,在所述第一样本图像加入神经网络第i次训练时的训练集时,所述第一样本图像在神经网络第i次训练时的训练标志位为1,
在所述第一样本图像未加入神经网络第i次训练时的训练集时,所述第一样本图像在神经网络第i次训练时的训练标志位为0。
5.根据权利要求3所述的方法,其特征在于,所述根据所述第一样本图像在神经网络第i次训练时的训练标志位及预设的折旧率,确定所述第一样本图像在神经网络第i次训练时的折旧分值,包括:
将所述第一样本图像在神经网络第i次训练时的训练标志位与预设的折旧率的i次方的乘积,确定为所述第一样本图像在神经网络第i次训练时的折旧分值。
6.根据权利要求1所述的方法,其特征在于,所述根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集,包括:
根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出记忆分值最低的多个第二样本图像;
根据所述多个第二样本图像,建立第一训练集。
7.根据权利要求2所述的方法,其特征在于,所述根据所述多个第一样本图像的记忆分值、训练序列号及第二预设数量,从所述样本库中,确定出多个第三样本图像,建立第二训练集,包括:
根据所述多个第一样本图像的记忆分值,从所述样本库中,确定出记忆分值最低的多个第四样本图像;
根据所述多个第一样本图像的训练序列号,从所述样本库中,确定出训练序列号最小的多个第五样本图像,其中,第四样本图像与第五样本图像的数量之和为所述第二预设数量;
将所述多个第四样本图像及所述多个第五样本图像,确定为多个第三样本图像;
根据所述多个第三样本图像,建立第二训练集。
8.根据权利要求1所述的方法,其特征在于,在确定多个第一样本图像的记忆分值之前,所述方法还包括:
将标记图像输入神经网络中进行缺陷检测,得到所述标记图像的检测结果,所述标记图像为新增的、未加入样本库的图像;
在所述标记图像的检测结果与预设的预期结果不一致的情况下,修改所述标记图像的标记信息,得到所述标记图像的修改后的标记信息;
将所述标记图像及所述标记图像的修改后的标记信息加入所述样本库。
9.根据权利要求8所述的方法,其特征在于,所述方法还包括:
在所述标记图像的检测结果与所述预期结果一致的情况下,丢弃所述标记图像。
10.一种基于神经网络的检测装置,其特征在于,所述检测装置应用于生产线上的缺陷检测设备或缺陷检测系统,将待检测对象的图像输入所述神经网络中进行缺陷检测,以确定所述待检测对象是否存在缺陷,
其中,所述神经网络的训练装置包括:
记忆分值确定模块,用于根据样本库中多个第一样本图像的训练序列号、训练标志位以及预设的折旧率,确定多个第一样本图像的记忆分值,其中,所述多个第一样本图像为检测对象的图像,所述多个第一样本图像中至少包括一个新增图像,所述训练标志位用于表示第一样本图像是否加入神经网络各个训练轮次的训练集,所述训练序列号用于表示第一样本图像加入所述样本库后所述神经网络的训练次数,所述记忆分值用于表示第一样本图像的训练参与度,所述预设的折旧率用于表示神经网络的记忆度,折旧率越小,神经网络的记忆度越低,神经网络越容易忘记之前学习的特征,折旧率的取值范围为大于0且小于1;
第一训练集建立模块,用于根据所述多个第一样本图像的记忆分值及第一预设数量,从所述样本库中,确定出多个第二样本图像,建立第一训练集;
第一训练模块,用于根据所述第一训练集,对所述神经网络进行训练。
11.根据权利要求10所述的装置,其特征在于,所述装置还包括:
第二训练集建立模块,用于根据所述多个第一样本图像的记忆分值、训练序列号及第二预设数量,从所述样本库中,确定出多个第三样本图像,建立第二训练集;
第二训练模块,用于根据所述第二训练集,对所述神经网络进行训练。
12.一种计算机可读存储介质,其上存储有计算机程序指令,其特征在于,所述计算机程序指令被处理器执行时实现权利要求1至9中任意一项所述的方法。
CN202010362623.9A 2020-04-30 2020-04-30 基于记忆分值的神经网络训练方法、装置及存储介质 Active CN111553476B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010362623.9A CN111553476B (zh) 2020-04-30 2020-04-30 基于记忆分值的神经网络训练方法、装置及存储介质
US17/226,596 US20210342688A1 (en) 2020-04-30 2021-04-09 Neural network training method, device and storage medium based on memory score

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010362623.9A CN111553476B (zh) 2020-04-30 2020-04-30 基于记忆分值的神经网络训练方法、装置及存储介质

Publications (2)

Publication Number Publication Date
CN111553476A CN111553476A (zh) 2020-08-18
CN111553476B true CN111553476B (zh) 2023-12-01

Family

ID=72004413

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010362623.9A Active CN111553476B (zh) 2020-04-30 2020-04-30 基于记忆分值的神经网络训练方法、装置及存储介质

Country Status (2)

Country Link
US (1) US20210342688A1 (zh)
CN (1) CN111553476B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115314406B (zh) * 2022-07-26 2023-10-03 国网江苏省电力有限公司淮安供电分公司 一种基于图像分析的输电线路的智能缺陷检测方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109739213A (zh) * 2019-01-07 2019-05-10 东莞百宏实业有限公司 一种故障预测系统以及预测方法
WO2019233166A1 (zh) * 2018-06-04 2019-12-12 杭州海康威视数字技术股份有限公司 一种表面缺陷检测方法、装置及电子设备
CN110599032A (zh) * 2019-09-11 2019-12-20 广西大学 一种灵活电源的深度斯坦伯格自适应动态博弈方法
CN110598504A (zh) * 2018-06-12 2019-12-20 北京市商汤科技开发有限公司 图像识别方法及装置、电子设备和存储介质
CN110837856A (zh) * 2019-10-31 2020-02-25 深圳市商汤科技有限公司 神经网络训练及目标检测方法、装置、设备和存储介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019233166A1 (zh) * 2018-06-04 2019-12-12 杭州海康威视数字技术股份有限公司 一种表面缺陷检测方法、装置及电子设备
CN110598504A (zh) * 2018-06-12 2019-12-20 北京市商汤科技开发有限公司 图像识别方法及装置、电子设备和存储介质
CN109739213A (zh) * 2019-01-07 2019-05-10 东莞百宏实业有限公司 一种故障预测系统以及预测方法
CN110599032A (zh) * 2019-09-11 2019-12-20 广西大学 一种灵活电源的深度斯坦伯格自适应动态博弈方法
CN110837856A (zh) * 2019-10-31 2020-02-25 深圳市商汤科技有限公司 神经网络训练及目标检测方法、装置、设备和存储介质

Also Published As

Publication number Publication date
CN111553476A (zh) 2020-08-18
US20210342688A1 (en) 2021-11-04

Similar Documents

Publication Publication Date Title
CN109994155B (zh) 一种基因变异识别方法、装置和存储介质
CN109800717B (zh) 基于强化学习的行为识别视频帧采样方法及系统
CN110781960B (zh) 视频分类模型的训练方法、分类方法、装置及设备
EP3306566A1 (en) Method and system for processing image
CN110689048A (zh) 用于样本分类的神经网络模型的训练方法和装置
CN111564179B (zh) 一种基于三元组神经网络的物种生物学分类方法及系统
CN111368289B (zh) 一种恶意软件检测方法和装置
CN113704522B (zh) 基于人工智能的目标图像快速检索方法及系统
CN111046971A (zh) 图像识别方法、装置、设备及计算机可读存储介质
CN109067708B (zh) 一种网页后门的检测方法、装置、设备及存储介质
CN112116950B (zh) 基于深度度量学习的蛋白质折叠识别方法
CN111553476B (zh) 基于记忆分值的神经网络训练方法、装置及存储介质
CN111210018A (zh) 一种提升深度神经网络模型鲁棒性的方法及装置
CN112800934B (zh) 一种多类别工程车的行为识别方法及装置
CN107832852B (zh) 数据处理学习方法、系统以及电子设备
CN112115996B (zh) 图像数据的处理方法、装置、设备及存储介质
CN109886151B (zh) 一种虚假身份属性检测方法
CN117150294A (zh) 异常值检测方法、装置、电子设备及存储介质
CN110765870B (zh) 一种ocr识别结果的置信度确定方法、装置及电子设备
CN113919488A (zh) 对抗样本的生成方法、装置和服务器
CN113064497A (zh) 语句识别的方法、装置、设备及计算机存储介质
CN116501867B (zh) 基于互信息的变体知识掌握度检测方法、系统和存储介质
CN114708906B (zh) 用于预测体细胞变异真假的方法、电子设备和存储介质
CN112183576B (zh) 一种基于不均衡数据集的Time-LSTM分类方法
CN111009287B (zh) SLiMs预测模型的生成方法、装置、设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right

Effective date of registration: 20230510

Address after: Building C, No.888, Huanhu West 2nd Road, Pudong New Area, Shanghai

Applicant after: Shanghai Geyuan Technology Co.,Ltd.

Address before: Room 201, No. 57, Lane 175, Hongsong Road, Minhang District, Shanghai 201100

Applicant before: Wang Kedao

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant