CN111797976B - 神经网络的训练方法、图像识别方法、装置、设备及介质 - Google Patents

神经网络的训练方法、图像识别方法、装置、设备及介质 Download PDF

Info

Publication number
CN111797976B
CN111797976B CN202010624288.5A CN202010624288A CN111797976B CN 111797976 B CN111797976 B CN 111797976B CN 202010624288 A CN202010624288 A CN 202010624288A CN 111797976 B CN111797976 B CN 111797976B
Authority
CN
China
Prior art keywords
neural network
enhancement
image
enhancement layer
layer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010624288.5A
Other languages
English (en)
Other versions
CN111797976A (zh
Inventor
赵荣臻
王红伟
吴臻志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Lynxi Technology Co Ltd
Original Assignee
Beijing Lynxi Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Lynxi Technology Co Ltd filed Critical Beijing Lynxi Technology Co Ltd
Priority to CN202010624288.5A priority Critical patent/CN111797976B/zh
Publication of CN111797976A publication Critical patent/CN111797976A/zh
Priority to PCT/CN2021/103140 priority patent/WO2022002059A1/zh
Application granted granted Critical
Publication of CN111797976B publication Critical patent/CN111797976B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本公开实施例公开了一种神经网络的训练方法、图像识别方法、装置、设备及存储介质。所述神经网络包括多个网络层以及至少一个增强层,所述至少一个增强层设置于所述网络层间,所述方法包括:获取原始图像样本;将所述原始图像样本输入所述神经网络,获得预测结果;获取所述原始图像样本对应的真实结果;根据损失函数、所述预测结果及所述真实结果确定损失值,并基于所述损失值训练所述神经网络的参数;在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络。不仅可以降低样本对存储空间的占用率,且可以提高神经网络的泛化性能。

Description

神经网络的训练方法、图像识别方法、装置、设备及介质
技术领域
本公开实施例涉及机器学习技术领域,尤其涉及一种神经网络的训练方法、图像识别方法、装置、设备及介质。
背景技术
人工神经网络依赖于训练样本的训练,即添加有标签的图像数据。目前,数据扩充已成为解决样本数量的一个有效手段。
相关技术中,数据扩充的手段不仅占用大量的内存,而且在训练过程中占用大量的输入输出(I/O),从而拖慢训练速度。另外,相关技术是直接对图像做的处理,有些处理方式(如对抗处理)无法执行,不能有效提升样本的多样性,进而无法有效提升神经网络的泛化性能。
发明内容
本公开实施例提供一种神经网络的训练方法、图像识别方法、装置、设备及介质,不仅可以降低样本对存储空间的占用率,且可以提高神经网络的泛化性能。
第一方面,本公开实施例提供了一种神经网络的训练方法,所述神经网络包括多个网络层以及至少一个增强层,所述至少一个增强层设置于所述网络层间,所述方法包括:
获取原始图像样本;
将所述原始图像样本输入所述神经网络,获得预测结果;
获取所述原始图像样本对应的真实结果;
根据损失函数、所述预测结果及所述真实结果确定损失值,并基于所述损失值训练所述神经网络的参数;
在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络。
进一步地,所述神经网络还包括标签更新层;获取所述图像样本对应的真实结果,包括:
确定所述至少一个增强层的图像增强信息;
若所述图像增强信息包括尺度变换信息,则获取所述原始图像样本携带的原始标签信息;
将所述原始图像样本的尺度信息、所述原始标签信息及所述尺度变换信息输入所述标签更新层,获得目标标签信息;
将所述目标标签信息确定为所述原始图像样本对应的真实结果;
其中,在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络,包括:
在满足训练条件时,去除所述增强层以及所述标签更新层,得到训练后的神经网络。
进一步地,获取所述图像样本对应的真实结果,包括:
若所述图像增强信息未包括尺度变换信息,则将所述原始标签信息确定为所述原始图像样本对应的真实结果。
进一步地,将所述原始图像样本输入所述神经网络,包括:
对于设置于所述网络层间的增强层,将上一个网络层输出的特征图输入所述增强层;
所述增强层对输入的特征图进行增强处理,得到增强后的特征图;
将所述增强后的特征图输入下一个网络层。
进一步地,所述增强层包括至少一种图像增强模块,所述图像增强模块上设置有增强概率;所述增强层对输入的特征图进行增强处理,包括:
当所述特征图输入增强层时,根据所述增强概率判断是否调用所述图像增强模块;
若是,则调用所述图像增强模块对所述特征图进行增强处理。
进一步地,所述增强层包含多种图像增强模块,
其中,根据所述增强概率判断是否调用所述图像增强模块,包括:
遍历所述多种图像增强模块,当遍历至当前图像增强模块时,获取随机数生成器生成的随机数;
若所述随机数小于所述增强概率,则调用所述当前图像增强模块;
若所述随机数大于或等于所述增强概率,则不调用所述当前图像增强模块。
进一步地,确定所述至少一个增强层的图像增强信息,包括:
根据增强层中调用的图像增强模块确定所述增强层的图像增强信息。
进一步地,基于所述损失值训练所述神经网络的参数,包括:
基于所述损失值调整所述神经网络中多个网络层的参数。
进一步地,所述增强层对输入的特征图进行增强处理的方式包括如下至少一种:颜色变换、几何变换、画质调整、对抗处理及图像混合。
第二方面,本公开实施例还公开了一种基于神经网络的图像识别方法,所述神经网络由本公开实施例所述的训练方法训练获得;所述方法包括:
获取待识别图像;
将所述待识别图像输入所述神经网络,获得识别结果。
第三方面,本公开实施例还提供了一种神经网络的训练装置,所述神经网络包括多个网络层及至少一个增强层,所述至少一个增强层设置于所述网络层层之间;所述装置包括:
原始图像样本获取模块,用于获取原始图像样本;
预测结果获取模块,用于将所述原始图像样本输入所述神经网络,获得预测结果;
真实结果获取模块,用于获取所述原始图像样本对应的真实结果;
神经网络训练模块,用于根据损失函数、所述预测结果及所述真实结果确定损失值,并基于所述损失值训练所述神经网络的参数;
神经网络获取模块,用于在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络。
第四方面,本公开实施例还公开了一种基于神经网络的图像识别装置,所述神经网络由本公开实施例所述的训练方法训练获得;所述装置包括:
待识别图像获取模块,用于获取待识别图像;
识别结果获取模块,用于将所述待识别图像输入所述神经网络,获得识别结果。
第五方面,本公开实施例还提供了一种计算机设备,所述设备包括:包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本公开实施例所述的神经网络的训练方法或者基于神经网络的图像识别方法。
第四方面,本公开实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理装置执行时实现如本公开实施例所述的神经网络的训练方法基于神经网络的图像识别方法。
本公开实施例提供的神经网络的训练方法,获取原始图像样本;将所述原始图像样本输入所述神经网络,获得预测结果;获取所述原始图像样本对应的真实结果;根据损失函数、所述预测结果及所述真实结果确定损失值,并基于所述损失值训练所述神经网络的参数;在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络。本实施例提供的神经网络的训练方法,由神经网络中的增强层对图像样本进行增强,无需图像样本在输入神经网络前进行增强处理,不仅可以降低样本对存储空间的占用率,提高训练速率,且可以提高神经网络的泛化性能。
附图说明
图1为本公开一示例性实施例中的一种神经网络的训练方法的流程图;
图2为本公开一示例性实施例中的一种神经网络的结构示意图;
图3为本公开一示例性实施例中的一种神经网络的结构示意图;
图4为本公开一示例性实施例中的一种基于神经网络的图像识别方法的流程图;
图5为本公开一示例性实施例中的一种神经网络的训练装置的结构示意图;
图6为本公开一示例性实施例中的一种基于神经网络的图像识别装置的结构示意图;
图7为本公开一示例性实施例中的一种计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本公开,而非对本公开的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本公开相关的部分而非全部结构。
相关技术中的数据扩充手段基本上针对是送入神经网络之前的图像进行处理,如颜色变化、几何变换等图像处理方式,并对标签作相应的更新,以此获得更多的训练样本让神经网络来学习。这种方式生成的样本不仅占用大量的内存,而且在训练过程中占用大量的输入输出(I/O),从而拖慢训练速度。而且由于是直接对图像做的处理,有些处理方式(如对抗处理)无法执行,无法提升样本的多样性,进而无法有效提高神经网络的泛化性能。
图1为本公开一示例性实施例提供的一种神经网络的训练方法的流程图,本实施例可适用于对具有图像识别或者目标识别等图像检测功能的神经网络进行训练的情况,该方法可以由神经网络的训练装置来执行,该装置可由硬件和/或软件组成,并一般可集成在具有神经网络的训练功能的设备中,该设备可以是服务器或服务器集群等电子设备。如图1所示,该方法包括:
步骤110,获取原始图像样本;
步骤120,将原始图像样本输入神经网络,获得预测结果;
步骤130,获取原始图像样本对应的真实结果;
步骤140,根据损失函数、预测结果及真实结果确定损失值,并基于损失值训练神经网络的参数;
步骤150,在满足训练条件时,去除神经网络中的增强层,得到训练后的神经网络。
其中,神经网络包括多个网络层及至少一个增强层,至少一个增强层设置于网络层之间。多个网络层可以是分别实现不同功能的各类层,例如,可以为输入层、特征提取层、输出层等。增强层可以设置于任意两个网络层之间。本公开对网络层的类别、增强层的位置不做限制。
举例来说,当神经网络是卷积神经网络(Convolutional Neural Networks,CNN)时,网络层可以包括卷积层及预测层。应理解,网络层还可以包括卷积神经网络中其他层,例如,输入层、池化层、全连接层等,本公开对此不做限制。
本实施例提供的神经网络的训练方法,由神经网络中的增强层对图像样本进行增强,无需图像样本在输入神经网络前进行增强处理,可以降低样本对存储空间的占用率,减少训练过程中加载数据对输入输出(I/O)的占用率,从而提高训练速率,且通过内置于神经网络中的增强层在训练过程中直接对图像进行数据增强处理,可以有选择地对各网络层输出的特征图进行各类增强处理,从而有效提升样本的多样性,进而提高训练好的神经网络的泛化性能。
图2是本公开一示例性实施例的一种神经网络的结构示意图,如图2所示,该神经网络包括多个卷积层、至少一个增强层及预测层。其中,至少一个增强层可以由如下至少一种方式设置:
在任意两个相邻的卷积层中间设置一个增强层、在第一个卷积层之前设置一个增强层及在最后一个卷积层和预测层间设置一个增强层。
增强层包含至少一种增强模块,以对上一个网络层输出的特征图进行增强处理,并将增强处理后的特征图输入至下一个网络层。例如,一增强层设置于卷积层A和卷积层B之间,则卷积层A进行卷积处理后的特征图输入增强层进行增强处理,增强处理后的特征图输入卷积层B进行卷积处理。
举例来说,如图2所示的神经网络,图像数据在该神经网络的传输过程可以是:原始图像样本输入神经网络,经过增强层进行增强处理,增强处理后的特征图输入该增强层后连接的卷积层中,卷积层进行卷积处理获得特征图,该卷积层后设置有增强层,则将特征图传输至增强层,以对特征图进行增强处理。将增强处理后的特征图发送至该增强层后连接的下一个卷积层继续进行处理并传输,直到数据传输至预测层,获得预测结果。根据损失函数、所述预测结果及所述真实结果确定损失值,并将损失值训练进行反向传输以训练神经网络的参数。
本实施例中,如图1所示,神经网络的训练方法可以包括如下步骤:
步骤110,获取原始图像样本。
其中,原始图像样本可以是用户收集的且添加了原始标签信息的用于训练神经网络的图像。
步骤120,将原始图像样本输入神经网络,获得预测结果。
当神经网络是卷积神经网络时,网络层可以包括卷积层和预测层。其中,卷积层用于执行卷积操作,提取输入的图像(例如,尺寸为227×227)的特征信息以得到特征图(例如,尺寸为13×13)。增强层用于对图像或者卷积层输出的特征图执行增强操作。预测层用于对特征图进行预测,获得预测结果。
可选的,将原始图像样本输入卷积神经网络获得预测结果的过程可以是:若第一个卷积层前设置有增强层,则将原始样本图像输入该增强层,以对原始图像样本进行增强处理,将增强处理后的原始图像样本输入至第一个卷积层。若第一个卷积层前未设置增强层,则直接将原始图像样本输入第一个卷积层进行卷积处理,获得特征图。使得图像数据按照神经网络中各层的顺序传输,直到到达预测层后,获得预测结果。
可选的,对于设置于网络层间的增强层,将上一个网络层输出的特征图输入增强层;增强层对输入的特征图进行增强处理;并将增强后的特征图输入下一个网络层。
其中,增强层对输入的特征图进行增强处理的方式可以包括如下至少一种:颜色变换、几何变换、画质调整、对抗处理及图像混合。其中,颜色变换可以包括对比度、亮度、饱和度、色相、曝光及色温的变换中的至少一种;几何变换可以包括翻转、平移、拉伸、扭曲、旋转及仿射变换中的至少一种;画质调整可以包括高斯、椒盐及模糊处理中的至少一种;对抗处理可以包括对抗噪声、对抗擦除、随机失活及批量失活中的至少一种;图像混合可以包括:MixUp、CutMix、MaskMix及AttentiveMix中的至少一种。
相关技术中,由于是在输入神经网络前对样本进行增强处理,是直接对图像执行的增强操作,无法对图像执行对抗处理。本申请中,是对网络层输出的特征图进行增强,已经对图像做了一定程度的特征提取,可以采用对抗进行增强,从而丰富数据增强的方式,有效提升样本的多样性,进而提高训练好的神经网络的泛化性能。而且,对特征图增强处理可以理解为对特定感兴趣区域做的针对性的增强。例如,可以是根据神经网络的学习效果,灵活设置增强处理的方式,提高数据增强的针对性,从而能够提高训练好的神经网络的识别准确度。
本实施例中,增强层包括至少一种图像增强模块,且图像增强模块上设置有增强概率。每种图像增强模块执行一种增强操作。本实施例中,图像增强模块可以是由技术人员开发的集成了某种增强功能的模块,可直接调用对图像数据进行增强。
可选的,增强层对输入的特征图进行增强处理的方式可以是:当特征图输入增强层时,根据增强概率判断是否调用图像增强模块;若是,则调用图像增强模块对特征图进行增强处理。
其中,当增强层中只有一种图像增强模块时,根据增强概率判断是否调用图像增强模块的方式可以是,当特征图输入增强层时,由随机数生成器生成一个随机数,将产生的随机数与增强概率相比,若随机数小于增强概率,则调用图像增强模块,即对特征图执行增强操作,否则,不调用图像增强模块,即对特征图不执行增强操作。
可选的,当增强层中包含多种图像增强模块时,根据增强概率判断是否调用图像增强模块的方式可以是:遍历多种图像增强模块,当遍历至当前图像增强模块时,获取随机数生成器生成的随机数;若随机数小于增强概率,则调用当前图像增强模块;否则,不调用。当增强层中包含多种图像增强模块时,一个增强层可以对特征图执行多种方式的增强处理。这样,一个增强层可以对特征图进行多种增强处理,能有提升训练得到的神经网络的泛化能力。
在一些可选的实施例中,可以限制一个增强层中对特征图执行增强的方式的数量,例如:不能超过设定数量。由增强概率判断是否调用所述图像增强模块,可以提高选择增强方式的灵活性。
步骤130,获取原始图像样本对应的真实结果。
其中,真实结果可以是原始图像样本携带的原始标签信息或者对原始标签信息更新后的目标标签信息。示例性的,假设在图像识别场景中(如识别动物品种),真实结果可以是小狗或者大象,即表征原始图像样本中包含的动物是小狗或者大象。
可选,图3是本公开一示例性实施例的一种神经网络的结构示意图,如图3所示,该神经网络还包括:标签更新层。其中,标签更新层用于对增强处理后的图像样本的标签信息进行更新。举例来说,可以是对任意进行增强处理后的原始图像样本,通过标签更新层进行标签更新。也可以是预设需要对标签进行更新的条件,在满足该条件时,通过标签更新层对原始图像样本的标签信息进行更新。例如,在确定存在增强层对原始图像样本进行尺度变化处理时,可以通过标签更新层对原始图像样本携带的原始标签信息进行更新,并将更新后得到的目标标签信息确定为真实结果。
举例来说,图像数据在该神经网络的传输过程可以是,原始图像样本输入神经网络,依次经过神经网络的各层(例如,包括各网络层和增强层),其中,数据在传输过程中,至少一个增强层可以将增强处理后的特征图发送给下一个网络层,并将可以用于表征标签更新信息的图像增强信息发送给标签更新层,标签更新层可以根据接收到的各图像增强信息,确定原始标签信息更新后的目标标签信息。例如,标签更新层还可以获取原始图像样本的尺度信息、原始标签信息,标签更新层可以根据原始图像样本的尺度信息、原始标签信息及图像增强信息确定目标标签信息,并将目标标签信息确定为最终的真实结果。根据损失函数、所述预测结果及所述真实结果确定损失值,并基于损失值训练所述神经网络的参数。
可选的,获取图像样本对应的真实结果得方式可以是:确定至少一个增强层的图像增强信息;若图像增强信息包括尺度变换信息,则获取原始图像样本携带的原始标签信息;将原始图像样本的尺度信息、原始标签信息及尺度变换信息输入标签更新层,获得目标标签信息;将目标标签信息确定为原始图像样本对应的真实结果。本实施例中,通过标签更新层对原始标签信息进行更新,从而保证真实结果的准确性。
其中,图像增强信息可以理解为增强层对输入的特征图执行的具体的增强操作信息,如:对比度变换多少、向左平移多少像素点等。尺度变换信息可以包括几何变换信息,如翻转、平移、拉伸、扭曲及旋转等信息。
在一些可选的实施例中,对于每个增强层,对于输入该增强层的特征图,由增强概率确定是否对特征图进行增强处理,最终确定该增强层的图像增强信息。即可以根据增强层中调用的图像增强模块确定所述增强层的图像增强信息。
在一些可选的实施例中,可以将神经网络中每个增强层的图像增强信息均发送至标签更新层,标签更新层对原始图像样本的尺度信息、原始标签信息及图像增强信息进行分析,获得分析结果,并根据分析结果对原始标签信息进行更新,获得目标标签信息。也可以是将各包括尺度变换信息的图像增强信息发送给标签更新层,由标签更新层根据接收到的各图像增强信息对原始标签信息进行更新,本公开对此不做限制。
可选的,获取图像样本对应的真实结果的方式还可以是:若图像增强信息未包括尺度变换信息,则将原始标签信息确定为原始图像样本对应的真实结果。
步骤140,根据损失函数、预测结果及真实结果确定损失值,并基于损失值训练神经网络的参数。
本实施例中,基于损失值训练神经网络的参数的方式可以是基于损失值调整所述神经网络中多个网络层的参数。即增强层和标签更新层不参与参数的训练。其中,基于损失值训练神经网络的参数的过程可以是:根据损失值计算梯度值;根据梯度值和各卷积层的步长计算权重变化量;根据权重变化量调整各网络层的参数。
步骤150,在满足训练条件时,去除神经网络中的增强层,得到训练后的神经网络。
可选的,若神经网络还包括标签更新层,则在满足训练条件时,去除所述增强层以及所述标签更新层,得到训练后的神经网络。
本实施例的技术方案,获取原始图像样本;将所述原始图像样本输入所述神经网络,获得预测结果;获取所述原始图像样本对应的真实结果;根据损失函数、所述预测结果及所述真实结果确定损失值,并基于所述损失值训练所述神经网络的参数;在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络。本实施例提供的神经网络的训练方法,由神经网络中的增强层对图像样本进行增强,无需图像样本在输入神经网络前进行增强处理,不仅可以降低样本对存储空间的占用率,提高训练速率,且可以提高神经网络的泛化性能。
图4为本公开一示例性实施例提供的一种基于神经网络的图像识别方法的流程图,所述神经网络由上述实施例所述的训练方法训练获得。如图4所示,该方法包括:
步骤410,获取待识别图像。
其中,待识别图像可以是经过预处理的图像,例如:将图像调整至神经网络可以识别的尺寸等。
步骤420,将待识别图像输入所述神经网络,获得识别结果。
本实施例中,神经网络中的各网络层对图像数据进行分析处理,获得识别结果。
本实施例的技术方案,获取待识别图像,将待识别图像输入所述神经网络,获得识别结果。由于神经网络是经过上述实施所述的训练方法训练获得,将待识别图像输入该神经网络进行处理,可以提高识别结果的准确性。
图5为本公开一示例性实施例提供的一种神经网络的训练装置的结构示意图。神经网络包括多个网络层及至少一个增强层,所述至少一个增强层设置于所述网络层层之间。如图5所示,该装置包括:原始图像样本获取模块510,预测结果获取模块520,真实结果获取模块530,神经网络训练模块540和神经网络获取模块550。
原始图像样本获取模块510,用于获取原始图像样本;
预测结果获取模块520,用于将所述原始图像样本输入所述神经网络,获得预测结果;
真实结果获取模块530,用于获取所述原始图像样本对应的真实结果;
神经网络训练模块540,用于根据损失函数、所述预测结果及所述真实结果确定损失值,并基于所述损失值训练所述神经网络的参数;
神经网络获取模块550,用于在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络。
可选的,所述神经网络还包括标签更新层;真实结果获取模块530包括:
图像增强信息确定单元,用于确定所述至少一个增强层的图像增强信息;
原始标签新获取单元,用于当所述图像增强信息包括尺度变换信息时,获取所述原始图像样本携带的原始标签信息;
目标标签信息获取单元,用于将所述原始图像样本的尺度信息、所述原始标签信息及所述尺度变换信息输入所述标签更新层,获得目标标签信息;
真实结果确定单元,用于将所述目标标签信息确定为所述原始图像样本对应的真实结果;
可选的,神经网络获取模块550,还用于:
在满足训练条件时,去除所述增强层以及所述标签更新层,得到训练后的神经网络。
可选的,真实结果获取模块530,还用于:
若所述图像增强信息未包括尺度变换信息,则将所述原始标签信息确定为所述原始图像样本对应的真实结果。
可选的,预测结果获取模块520包括:增强处理单元,用于:
对于设置于所述网络层间的增强层,将上一个网络层输出的特征图输入所述增强层;
所述增强层对输入的特征图进行增强处理,得到增强后的特征图;
将所述增强后的特征图输入下一个网络层。
可选的,所述增强层包括至少一种图像增强模块,所述图像增强模块上设置有增强概率;增强处理单元,还用于:
当所述特征图输入增强层时,根据所述增强概率判断是否调用所述图像增强模块;
若是,则调用所述图像增强模块对所述特征图进行增强处理。
可选的,所述增强层包含多种图像增强模块,其中,增强处理单元,还用于:
遍历所述多种图像增强模块,当遍历至当前图像增强模块时,获取随机数生成器生成的随机数;
若所述随机数小于所述增强概率,则调用所述当前图像增强模块;
若所述随机数大于或等于所述增强概率,则不调用所述当前图像增强模块。
可选的,图像增强信息确定单元,还用于:
根据增强层中调用的图像增强模块确定所述增强层的图像增强信息。
可选的,神经网络训练模块540,还用于:
基于所述损失值调整所述神经网络中多个网络层的参数。
可选的,增强层对输入的特征图进行增强处理的方式包括如下至少一种:颜色变换、几何变换、画质调整、对抗处理及图像混合。
图6为本公开一示例性实施例提供的一种基于神经网络的图像识别装置的结构示意图。所述神经网络由上述实施例所述的训练方法训练获得;所述装置包括:
待识别图像获取模块610,用于获取待识别图像;
识别结果获取模块620,用于将所述待识别图像输入所述神经网络,获得识别结果。
上述装置可执行本公开前述所有实施例所提供的方法,具备执行上述方法相应的功能模块和有益效果。未在本实施例中详尽描述的技术细节,可参见本公开前述所有实施例所提供的方法。
图7为本公开实施例提供的一种计算机设备的结构示意图。图7示出了适于用来实现本公开实施方式的计算机设备312的框图。图7显示的计算机设备312仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。设备312是典型的神经网络的训练功能或者基于神经网络的图像识别功能的计算设备。
如图7所示,计算机设备312以通用计算设备的形式表现。计算机设备312的组件可以包括但不限于:一个或者多个处理器316,存储装置328,连接不同系统组件(包括存储装置328和处理器316)的总线318。
总线318表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture,ISA)总线,微通道体系结构(Micro Channel Architecture,MCA)总线,增强型ISA总线、视频电子标准协会(Video Electronics Standards Association,VESA)局域总线以及外围组件互连(Peripheral Component Interconnect,PCI)总线。
计算机设备312典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备312访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
存储装置328可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory,RAM)330和/或高速缓存存储器332。计算机设备312可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统334可以用于读写不可移动的、非易失性磁介质(图7未显示,通常称为“硬盘驱动器”)。尽管图7中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如只读光盘(Compact Disc-Read Only Memory,CD-ROM)、数字视盘(Digital Video Disc-Read Only Memory,DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线318相连。存储装置328可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本公开各实施例的功能。
具有一组(至少一个)程序模块326的程序336,可以存储在例如存储装置328中,这样的程序模块326包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块326通常执行本公开所描述的实施例中的功能和/或方法。
计算机设备312也可以与一个或多个外部设备314(例如键盘、指向设备、摄像头、显示器324等)通信,还可与一个或者多个使得用户能与该计算机设备312交互的设备通信,和/或与使得该计算机设备312能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口322进行。并且,计算机设备312还可以通过网络适配器320与一个或者多个网络(例如局域网(Local AreaNetwork,LAN),广域网Wide Area Network,WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器320通过总线318与计算机设备312的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备312使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、磁盘阵列(Redundant Arrays of IndependentDisks,RAID)系统、磁带驱动器以及数据备份存储系统等。
处理器316通过运行存储在存储装置328中的程序,从而执行各种功能应用以及数据处理,例如实现本公开上述实施例所提供的神经网络的训练方法或者基于神经网络的图像识别方法。
本公开实施例还提供了一种计算机可读存储介质,该计算机可读存储介质上存储有计算机程序,该程序被处理装置执行时实现如本公开实施例中的神经网络的训练方法或者基于神经网络的图像识别方法。本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
在一些实施方式中,客户端、服务器可以利用诸如HTTP(HyperText TransferProtocol,超文本传输协议)之类的任何当前已知或未来研发的网络协议进行通信,并且可以与任意形式或介质的数字数据通信(例如,通信网络)互连。通信网络的示例包括局域网(“LAN”),广域网(“WAN”),网际网(例如,互联网)以及端对端网络(例如,ad hoc端对端网络),以及任何当前已知或未来研发的网络。
上述计算机可读介质可以是上述电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:接收用户输入的源文本,将所述源文本翻译为目标语种对应的目标文本;获取所述用户的历史纠正行为;根据所述历史纠正行为对所述目标文本进行纠正,获得翻译结果,并将所述翻译结果推送至所述用户所在的客户端。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括但不限于面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
注意,上述仅为本公开的较佳实施例及所运用技术原理。本领域技术人员会理解,本公开不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本公开的保护范围。因此,虽然通过以上实施例对本公开进行了较为详细的说明,但是本公开不仅仅限于以上实施例,在不脱离本公开构思的情况下,还可以包括更多其他等效实施例,而本公开的范围由所附的权利要求范围决定。

Claims (14)

1.一种神经网络的训练方法,其特征在于,所述神经网络包括多个网络层以及至少一个增强层,所述至少一个增强层设置于所述网络层间,所述方法包括:
获取原始图像样本;
将所述原始图像样本输入所述神经网络,获得预测结果,其中,所述增强层用于对输入所述增强层的特征图进行增强处理,得到增强后的特征图,且所述增强层的增强处理方式包括以下至少一种:颜色变换、几何变换、画质调整、对抗处理及图像混合;
获取所述原始图像样本对应的真实结果;
根据损失函数、所述预测结果及所述真实结果确定损失值,并基于所述损失值训练所述神经网络的参数;
在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络。
2.根据权利要求1所述的方法,其特征在于,所述神经网络还包括标签更新层;获取所述图像样本对应的真实结果,包括:
确定所述至少一个增强层的图像增强信息;
若所述图像增强信息包括尺度变换信息,则获取所述原始图像样本携带的原始标签信息;
将所述原始图像样本的尺度信息、所述原始标签信息及所述尺度变换信息输入所述标签更新层,获得目标标签信息;
将所述目标标签信息确定为所述原始图像样本对应的真实结果;
其中,在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络,包括:
在满足训练条件时,去除所述增强层以及所述标签更新层,得到训练后的神经网络。
3.根据权利要求2所述的方法,其特征在于,获取所述图像样本对应的真实结果,包括:
若所述图像增强信息未包括尺度变换信息,则将所述原始标签信息确定为所述原始图像样本对应的真实结果。
4.根据权利要求1-3中任一所述的方法,其特征在于,将所述原始图像样本输入所述神经网络,包括:
对于设置于所述网络层间的增强层,将上一个网络层输出的特征图输入所述增强层;
所述增强层对输入的特征图进行增强处理,得到增强后的特征图;
将所述增强后的特征图输入下一个网络层。
5.根据权利要求4所述的方法,其特征在于,所述增强层包括至少一种图像增强模块,所述图像增强模块上设置有增强概率;所述增强层对输入的特征图进行增强处理,包括:
当所述特征图输入增强层时,根据所述增强概率判断是否调用所述图像增强模块;
若是,则调用所述图像增强模块对所述特征图进行增强处理。
6.根据权利要求5所述的方法,其特征在于,所述增强层包含多种图像增强模块,
其中,根据所述增强概率判断是否调用所述图像增强模块,包括:
遍历所述多种图像增强模块,当遍历至当前图像增强模块时,获取随机数生成器生成的随机数;
若所述随机数小于所述增强概率,则调用所述当前图像增强模块;
若所述随机数大于或等于所述增强概率,则不调用所述当前图像增强模块。
7.根据权利要求5所述的方法,其特征在于,确定所述至少一个增强层的图像增强信息,包括:
根据增强层中调用的图像增强模块确定所述增强层的图像增强信息。
8.根据权利要求1所述的方法,其特征在于,基于所述损失值训练所述神经网络的参数,包括:
基于所述损失值调整所述神经网络中多个网络层的参数。
9.根据权利要求4所述的方法,其特征在于,所述增强层对输入的特征图进行增强处理的方式包括如下至少一种:颜色变换、几何变换、画质调整、对抗处理及图像混合。
10.一种基于神经网络的图像识别方法,其特征在于,所述神经网络由权利要求1-9任一所述的训练方法训练获得;所述方法包括:
获取待识别图像;
将所述待识别图像输入所述神经网络,获得识别结果。
11.一种神经网络的训练装置,其特征在于,所述神经网络包括多个网络层及至少一个增强层,所述至少一个增强层设置于所述网络层层之间;所述装置包括:
原始图像样本获取模块,用于获取原始图像样本;
预测结果获取模块,用于将所述原始图像样本输入所述神经网络,获得预测结果,其中,所述增强层用于对输入所述增强层的特征图进行增强处理,得到增强后的特征图,且所述增强层的增强处理方式包括以下至少一种:颜色变换、几何变换、画质调整、对抗处理及图像混合;
真实结果获取模块,用于获取所述原始图像样本对应的真实结果;
神经网络训练模块,用于根据损失函数、所述预测结果及所述真实结果确定损失值,并基于所述损失值训练所述神经网络的参数;
神经网络获取模块,用于在满足训练条件时,去除所述神经网络中的增强层,得到训练后的神经网络。
12.一种基于神经网络的图像识别装置,其特征在于,所述神经网络由权利要求1-9任一所述的训练方法训练获得;所述装置包括:
待识别图像获取模块,用于获取待识别图像;
识别结果获取模块,用于将所述待识别图像输入所述神经网络,获得识别结果。
13.一种计算机设备,其特征在于,所述设备包括:包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1-9中任一所述的神经网络的训练方法或者权利要求10所述的基于神经网络的图像识别方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理装置执行时实现如权利要求1-9中任一所述的神经网络的训练方法或者权利要求10所述的基于神经网络的图像识别方法。
CN202010624288.5A 2020-06-30 2020-06-30 神经网络的训练方法、图像识别方法、装置、设备及介质 Active CN111797976B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010624288.5A CN111797976B (zh) 2020-06-30 2020-06-30 神经网络的训练方法、图像识别方法、装置、设备及介质
PCT/CN2021/103140 WO2022002059A1 (zh) 2020-06-30 2021-06-29 初始神经网络的训练方法、图像识别方法、装置、设备及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010624288.5A CN111797976B (zh) 2020-06-30 2020-06-30 神经网络的训练方法、图像识别方法、装置、设备及介质

Publications (2)

Publication Number Publication Date
CN111797976A CN111797976A (zh) 2020-10-20
CN111797976B true CN111797976B (zh) 2024-04-12

Family

ID=72809901

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010624288.5A Active CN111797976B (zh) 2020-06-30 2020-06-30 神经网络的训练方法、图像识别方法、装置、设备及介质

Country Status (2)

Country Link
CN (1) CN111797976B (zh)
WO (1) WO2022002059A1 (zh)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111797976B (zh) * 2020-06-30 2024-04-12 北京灵汐科技有限公司 神经网络的训练方法、图像识别方法、装置、设备及介质
CN112561060B (zh) * 2020-12-15 2022-03-22 北京百度网讯科技有限公司 神经网络训练方法及装置、图像识别方法及装置和设备
CN112733173A (zh) * 2021-01-18 2021-04-30 北京灵汐科技有限公司 图像处理、密钥生成、训练方法及装置、计算机可读介质
CN112950569B (zh) * 2021-02-25 2023-07-25 平安科技(深圳)有限公司 黑色素瘤图像识别方法、装置、计算机设备及存储介质
CN113762502B (zh) * 2021-04-22 2023-09-19 腾讯科技(深圳)有限公司 神经网络模型的训练方法及装置
CN113190872A (zh) * 2021-05-28 2021-07-30 脸萌有限公司 数据保护方法、网络结构训练方法、装置、介质及设备
CN113610228B (zh) * 2021-08-06 2024-03-05 脸萌有限公司 神经网络模型的构建方法及装置
CN114332080B (zh) * 2022-03-04 2022-05-27 北京字节跳动网络技术有限公司 组织腔体的定位方法、装置、可读介质和电子设备
CN114677566B (zh) * 2022-04-08 2023-10-17 北京百度网讯科技有限公司 深度学习模型的训练方法、对象识别方法和装置
CN114866162B (zh) * 2022-07-11 2023-09-26 中国人民解放军国防科技大学 信号数据增强方法、系统及通信辐射源的识别方法和系统
CN115393338A (zh) * 2022-09-02 2022-11-25 复旦大学附属中山医院 一种生物组织识别模型构建方法、装置及电子设备
CN117576522B (zh) * 2024-01-18 2024-04-26 之江实验室 一种基于拟态结构动态防御的模型训练方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229525A (zh) * 2017-05-31 2018-06-29 商汤集团有限公司 神经网络训练及图像处理方法、装置、电子设备和存储介质
CN108416440A (zh) * 2018-03-20 2018-08-17 上海未来伙伴机器人有限公司 一种神经网络的训练方法、物体识别方法及装置
EP3633990A1 (en) * 2018-10-02 2020-04-08 Nokia Technologies Oy An apparatus, a method and a computer program for running a neural network
CN111222471A (zh) * 2020-01-09 2020-06-02 中国科学技术大学 基于自监督域感知网络的零样本训练及相关分类方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10290107B1 (en) * 2017-06-19 2019-05-14 Cadence Design Systems, Inc. Transform domain regression convolutional neural network for image segmentation
US11069030B2 (en) * 2018-03-22 2021-07-20 Adobe, Inc. Aesthetics-guided image enhancement
CN109035197B (zh) * 2018-05-31 2021-09-28 东南大学 基于三维卷积神经网络的ct造影图像肾脏肿瘤分割方法及系统
CN111291897A (zh) * 2020-02-10 2020-06-16 深圳前海微众银行股份有限公司 基于半监督的横向联邦学习优化方法、设备及存储介质
CN110991568B (zh) * 2020-03-02 2020-07-31 佳都新太科技股份有限公司 目标识别方法、装置、设备和存储介质
CN111291739B (zh) * 2020-05-09 2020-09-18 腾讯科技(深圳)有限公司 面部检测、图像检测神经网络训练方法、装置和设备
CN111797976B (zh) * 2020-06-30 2024-04-12 北京灵汐科技有限公司 神经网络的训练方法、图像识别方法、装置、设备及介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229525A (zh) * 2017-05-31 2018-06-29 商汤集团有限公司 神经网络训练及图像处理方法、装置、电子设备和存储介质
CN108416440A (zh) * 2018-03-20 2018-08-17 上海未来伙伴机器人有限公司 一种神经网络的训练方法、物体识别方法及装置
EP3633990A1 (en) * 2018-10-02 2020-04-08 Nokia Technologies Oy An apparatus, a method and a computer program for running a neural network
CN111222471A (zh) * 2020-01-09 2020-06-02 中国科学技术大学 基于自监督域感知网络的零样本训练及相关分类方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
PCA预训练的卷积神经网络目标识别算法;史鹤欢;许悦雷;马时平;李岳云;李帅;;西安电子科技大学学报;20150727(第03期);全文 *
基于卷积神经网络和密度分布特征的人数统计方法;郭继昌;李翔鹏;;电子科技大学学报(06);全文 *
基于卷积网络特征迁移的小样本物体图像识别;白洁;张金松;刘倩宇;;计算机仿真(05);全文 *

Also Published As

Publication number Publication date
CN111797976A (zh) 2020-10-20
WO2022002059A1 (zh) 2022-01-06

Similar Documents

Publication Publication Date Title
CN111797976B (zh) 神经网络的训练方法、图像识别方法、装置、设备及介质
US10810735B2 (en) Method and apparatus for analyzing medical image
CN110119757B (zh) 模型训练方法、视频类别检测方法、装置、电子设备和计算机可读介质
CN111369427B (zh) 图像处理方法、装置、可读介质和电子设备
CN108229290B (zh) 视频物体分割方法和装置、电子设备、存储介质
CN108230346B (zh) 用于分割图像语义特征的方法和装置、电子设备
CN109344752B (zh) 用于处理嘴部图像的方法和装置
CN109377508B (zh) 图像处理方法和装置
CN113313064A (zh) 字符识别方法、装置、可读介质及电子设备
CN113469295B (zh) 生成模型的训练方法、息肉识别方法、装置、介质及设备
CN108921138B (zh) 用于生成信息的方法和装置
CN113012068B (zh) 图像去噪方法、装置、电子设备及计算机可读存储介质
CN112465737A (zh) 图像处理模型训练方法、图像处理方法及图像处理装置
CN116912187A (zh) 图像生成模型训练及图像生成方法、装置、设备和介质
CN116597430A (zh) 物品识别方法、装置、电子设备和计算机可读介质
CN110765304A (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN115375656A (zh) 息肉分割模型的训练方法、分割方法、装置、介质及设备
CN115439850A (zh) 基于审单的图文字符识别方法、装置、设备及存储介质
CN116486467A (zh) 眼睛检测框的确定方法、装置、设备及存储介质
WO2022216671A1 (en) Temporal augmentation for training video reasoning system
CN113033552A (zh) 文本识别方法、装置和电子设备
CN113222050A (zh) 图像分类方法、装置、可读介质及电子设备
CN112418233A (zh) 图像处理方法、装置、可读介质及电子设备
CN111899239A (zh) 图像处理方法和装置
CN112381810A (zh) 一种肺炎图像识别方法、装置及计算设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant