CN107909145A - 一种卷积神经网络模型的训练方法 - Google Patents

一种卷积神经网络模型的训练方法 Download PDF

Info

Publication number
CN107909145A
CN107909145A CN201711265644.3A CN201711265644A CN107909145A CN 107909145 A CN107909145 A CN 107909145A CN 201711265644 A CN201711265644 A CN 201711265644A CN 107909145 A CN107909145 A CN 107909145A
Authority
CN
China
Prior art keywords
training
convolutional neural
neural networks
model
networks model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201711265644.3A
Other languages
English (en)
Inventor
王曦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Suzhou Tiantong Weishi Electronic Technology Co Ltd
Original Assignee
Suzhou Tiantong Weishi Electronic Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Suzhou Tiantong Weishi Electronic Technology Co Ltd filed Critical Suzhou Tiantong Weishi Electronic Technology Co Ltd
Priority to CN201711265644.3A priority Critical patent/CN107909145A/zh
Publication of CN107909145A publication Critical patent/CN107909145A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种卷积神经网络模型的训练方法,涉及目标检测技术领域,其中,初始模型训练步骤包括:初始模型获取训练图像样本并进行预训练,生成预训练初始模型;根据预训练初始模型生成初始权重。卷积神经网络模型训练步骤包括:将初始权重配置在初始卷积神经网络模型中并获取训练图像样本,设置模型中各层的训练学习率,将LOSS层逐层添加至卷积神经网络模型中,并根据训练图像样本生成LOSS误差值,根据LOSS误差值逐层生成训练学习率的调整因子,根据调整因子逐层生成训练权重值,并将训练权重值配置在卷积神经网络模型中。该技术方案缓解了现有技术存在的模型准确率差、计算效率低的技术问题,提高了模型计算的识别准确率和计算效率。

Description

一种卷积神经网络模型的训练方法
技术领域
本发明涉及目标检测技术领域,尤其是涉及一种卷积神经网络模型的训练方法。
背景技术
随着计算机视觉技术的不断更新发展,目标检测技术在智能交通、图像检索、人脸识别多个领域有着重要的地位。近年发展越来越火热的深度学习作为一个更高效的工具帮助我们在目标检测领域进行研究和发现。
目前,深度学习在目标检测领域极大超越了传统视觉算法,深度学习在大数据下能够自主学习得到有效的特征,学习到的特征在数量和性能上远远超出了通过手工设计的算法特征。
在实现本发明过程中,发明人发现现有技术中至少存在如下问题:深度学习虽然有着超越传统视觉算法的性能优势,但是深度学习的缺点也是显而易见。使用深度学习的模型包含了大量的参数,带来了训练时计算量的大幅提升,降低了模型的计算效率,同时大量的计算增加了模型计算的误差率,降低了模型计算的准确率,且训练深度模型的庞大的计算量导致深度学习不能实时的运行在嵌入式或是手持设备中,这对于将深度学习技术应用于人们的日常生活带来了许多不便。因此,现有技术的卷积神经网络模型的训练方法存在模型准确率差、计算效率低的技术问题。
发明内容
有鉴于此,本发明的目的在于提供一种卷积神经网络模型的训练方法,以缓解现有技术的卷积神经网络模型的训练方法存在的模型准确率差、计算效率低的技术问题。
本发明实施例提供了一种卷积神经网络模型的训练方法,该方法包括:初始模型训练步骤和卷积神经网络模型训练步骤;
初始模型训练步骤包括:
初始模型获取训练图像样本;
根据训练图像样本进行预训练,生成预训练初始模型;
根据预训练初始模型生成初始权重;
卷积神经网络模型训练步骤包括:
将初始权重配置在初始卷积神经网络模型中,生成卷积神经网络模型;
卷积神经网络模型获取训练图像样本;
设置卷积神经网络模型中各层的训练学习率,根据训练图像样本逐层生成对应于卷积神经网络模型的初级微调权重,根据初级微调权重逐层生成卷积神经网络模型的初级训练权重值,并将初级训练权重值配置在卷积神经网络模型中;
将LOSS层逐层添加至卷积神经网络模型中,并根据训练图像样本生成LOSS误差值,根据LOSS误差值逐层生成对应于卷积神经网络模型中训练学习率的调整因子,根据调整因子逐层生成卷积神经网络模型的训练权重值,并将训练权重值配置在卷积神经网络模型中;
迭代设置卷积神经网络模型中各层的训练学习率,直至卷积神经网络模型中各层均完成训练权重值的配置。
本发明实施例提供了第一种可能的实施方式,其中,初始权重包括:卷积核滤波器权值、偏置权值、全连接层权值和全连接层偏置权值。
本发明实施例提供了第二种可能的实施方式,其中,根据训练图像样本生成LOSS误差值,具体为:
根据训练图像样本的类别数据,采用移动平均数法逐层生成卷积神经网络模型中对应的LOSS函数的误差值。
本发明实施例提供了第三种可能的实施方式,其中,根据LOSS误差值逐层生成对应于卷积神经网络模型中训练学习率的调整因子,根据调整因子逐层生成卷积神经网络模型的训练权重值,并将训练权重值配置在卷积神经网络模型中,具体为:
将LOSS误差值与预设的损失阈值相比较,当LOSS误差值低于损失阈值时,生成对应于卷积神经网络模型当前层的训练学习率的调整因子,根据调整因子降低卷积神经网络模型中对应层的训练学习率,生成当前层中对应于调整后的训练学习率的训练权重值,并将训练权重值以初始权重的方式配置在卷积神经网络模型中的下一层。
本发明实施例带来了以下有益效果:本发明实施例所提供的卷积神经网络模型的训练方法,包括初始模型训练步骤和卷积神经网络模型训练步骤,其中,初始模型训练步骤包括:初始模型获取训练图像样本;根据训练图像样本进行预训练,生成预训练初始模型;根据预训练初始模型生成初始权重。卷积神经网络模型训练步骤包括:将初始权重配置在初始卷积神经网络模型中,生成卷积神经网络模型。卷积神经网络模型获取训练图像样本。设置卷积神经网络模型中各层的训练学习率,根据训练图像样本逐层生成对应于卷积神经网络模型的初级微调权重,根据初级微调权重逐层生成卷积神经网络模型的初级训练权重值,并将初级训练权重值配置在卷积神经网络模型中。将LOSS层逐层添加至卷积神经网络模型中,并根据训练图像样本生成LOSS误差值,根据LOSS误差值逐层生成对应于卷积神经网络模型中训练学习率的调整因子,根据调整因子逐层生成卷积神经网络模型的训练权重值,并将训练权重值配置在卷积神经网络模型中。迭代设置卷积神经网络模型中各层的训练学习率,直至卷积神经网络模型中各层均完成训练权重值的配置。至此,完成卷积神经网络模型的完整训练,该技术方案通过采用预先对空权重的卷积神经网络赋予初始值、每一层网络设置LOSS函数逐层训练、动态控制训练学习率三种技术手段相结合的方式,实现了卷积神经网络模型的逐层训练,提高了卷积神经网络模型计算的识别准确率,提升了模型的性能,同时使得模型的收敛速度增加,提高了卷积神经网络模型的计算效率,缓解了现有技术的卷积神经网络模型的训练方法存在的模型准确率差、计算效率低的技术问题。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种卷积神经网络模型的训练方法的流程图;
图2为本发明实施例提供的一种卷积神经网络模型的训练方法中,S240的具体方法的流程图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,深度学习的模型包含了大量的参数,带来了训练时计算量的大幅提升,直接导致了模型计算时所需的计算成本增加,降低了模型的计算效率,同时大量的计算增加了模型计算的误差率,降低了模型计算的准确率,且训练深度模型的庞大的计算量导致深度学习不能实时的运行在嵌入式或是手持设备中,这对于将深度学习技术应用于人们的日常生活带来了许多不便,基于此,本发明实施例提供的卷积神经网络模型的训练方法,可以提高卷积神经网络模型的计算效率和计算准确率。
参见图1,本发明实施例提供的一种卷积神经网络模型的训练方法的流程图。本发明实施例提供的卷积神经网络模型的训练方法,包括:初始模型训练步骤和卷积神经网络模型训练步骤。
其中,本发明实施例提供的卷积神经网络模型的训练方法中,初始模型训练步骤具体包括如下步骤:
S110:初始模型获取训练图像样本,初始模型的图像样本获取模块获取训练图像样本,训练图像样本通常指具有一系列便于区分及统计的标识特征的目标检测图片。
S120:初始模型训练模块根据获取的训练图像样本对初始模型进行预训练,初始模型通过对训练图像样本进行识别,实现了初始模型的深度学习,生成对应的预训练初始模型。
S130:初始权重生成模块根据完成训练图像样本的预训练初始模型中的模型参数生成初始权重。进一步的,本发明实施例提供的卷积神经网络模型的训练方法中,初始权重包括:卷积核滤波器权值、偏置权值、全连接层权值和全连接层偏置权值。
进一步的,本发明实施例提供的卷积神经网络模型的训练方法中,卷积神经网络模型训练步骤具体包括如下步骤:
S210:卷积神经网络模型生成模块将上述步骤得到的初始权重配置在初始卷积神经网络模型中的第一层,生成卷积神经网络模型。S220:卷积神经网络模型中的训练图像样本获取模块获取训练图像样本。
S230:训练学习率配置模块用于设置卷积神经网络模型中各层的训练学习率,具体的,训练学习率配置模块设置卷积神经网络模型各层的初始的训练学习率,基于预设的训练学习率的卷积神经网络模型根据获取的训练图像样本进行深度学习训练,初级微调权重生成模块逐层生成对应于卷积神经网络模型的初级微调权重,根据初级微调权重逐层生成卷积神经网络模型的初级训练权重值,并将初级训练权重值配置在卷积神经网络模型中。具体的,初级微调权重生成模块根据卷积神经网络模型中第一层的初始的训练学习率和初始权重生成第一初级微调权重,进一步的,根据第一初级微调权重及初始权重生成卷积神经网络模型的第一初级训练权重值,将第一初级训练权重值配置在卷积神经网络模型的第一层中。
S240:LOSS层配置模块将包含LOSS函数的LOSS层逐层添加至卷积神经网络模型中,根据前述获得的训练图像样本生成LOSS误差值,LOSS误差值表征了识别训练图像样本的类别误差程度,LOSS层配置模块根据LOSS误差值逐层生成对应于卷积神经网络模型中训练学习率的调整因子,根据调整因子逐层调整对应于卷积神经网络模型中训练学习率,并根据调整后的训练学习率生成卷积神经网络模型的训练权重值,并将训练权重值配置在卷积神经网络模型中。
参见图2,本发明实施例提供的一种卷积神经网络模型的训练方法中,S240的具体方法的流程图。具体的,LOSS层配置模块将包含LOSS函数的LOSS层添加至卷积神经网络模型的第一层,根据前述获得的训练图像样本生成卷积神经网络模型第一层的LOSS误差值,LOSS层配置模块根据LOSS误差值逐层生成对应于卷积神经网络模型中第一层训练学习率的调整因子,并根据调整因子对第一层训练学习率进行调整,根据调整后的训练学习率生成卷积神经网络模型第一层的训练权重值,并将训练权重值作为初始权重配置在卷积神经网络模型中的第二层,以此类推,设置卷积神经网络模型中各层的初始权重。该技术方案通过采用对训练学习率的动态控制实现了训练模型收敛速度的提升,进而提高了模型的计算效率。
具体的,本发明实施例提供的卷积神经网络模型的训练方法中,根据训练图像样本生成LOSS误差值,具体为S241:LOSS层配置模块对训练图像样本的类别进行识别,生成对应的类别数据,并采用移动平均数法逐层生成卷积神经网络模型各层中对应的LOSS函数的误差值,即LOSS误差值。
具体的,本发明实施例提供的卷积神经网络模型的训练方法中,根据LOSS误差值逐层生成对应于卷积神经网络模型中训练学习率的调整因子,根据调整因子逐层生成卷积神经网络模型的训练权重值,并将训练权重值配置在卷积神经网络模型中,具体为S242:LOSS层配置模块将LOSS误差值与预设的损失阈值进行比较,当LOSS误差值在迭代周期期间低于损失阈值时,定义此时为“高原”,LOSS层配置模块生成对应于“高原”的卷积神经网络模型当前层的训练学习率的调整因子,通常采用减少常数因子的调整方式。S243:根据调整因子降低卷积神经网络模型中对应层的训练学习率。S244:生成当前层中对应于调整后的训练学习率的训练权重值,并将训练权重值以初始权重的方式配置在卷积神经网络模型中的下一层。具体的,LOSS层配置模块将卷积神经网络模型的第一层的LOSS误差值与预设的损失阈值进行比较,当第一层的LOSS误差值低于损失阈值时,生成对应于第一层的训练学习率的调整因子,LOSS层配置模块根据该调整因子降低第一层训练学习率,并根据调整后的训练学习率生成卷积神经网络模型第一层的训练权重值,并将第一层的训练权重值作为初始权重配置在卷积神经网络模型中的第二层,以此类推,设置卷积神经网络模型中各层的初始权重。
S250:采用前述方式对卷积神经网络模型中各层的训练学习率进行迭代设置,直至卷积神经网络模型中各层均完成训练权重值的配置,迭代的次数取决于卷积神经网络模型的层数,迭代设置后得到的卷积神经网络模型即为完成深度学习的卷积神经网络模型。
本发明实施例所提供的卷积神经网络模型的训练方法,包括初始模型训练步骤和卷积神经网络模型训练步骤,其中,初始模型训练步骤包括:初始模型获取训练图像样本;根据训练图像样本进行预训练,生成预训练初始模型;根据预训练初始模型生成初始权重。卷积神经网络模型训练步骤包括:将初始权重配置在初始卷积神经网络模型中,生成卷积神经网络模型。卷积神经网络模型获取训练图像样本。设置卷积神经网络模型中各层的训练学习率,根据训练图像样本逐层生成对应于卷积神经网络模型的初级微调权重,根据初级微调权重逐层生成卷积神经网络模型的初级训练权重值,并将初级训练权重值配置在卷积神经网络模型中。将LOSS层逐层添加至卷积神经网络模型中,并根据训练图像样本生成LOSS误差值,根据LOSS误差值逐层生成对应于卷积神经网络模型中训练学习率的调整因子,根据调整因子逐层生成卷积神经网络模型的训练权重值,并将训练权重值配置在卷积神经网络模型中。迭代设置卷积神经网络模型中各层的训练学习率,直至卷积神经网络模型中各层均完成训练权重值的配置。至此,完成卷积神经网络模型的完整训练,该技术方案通过采用预先对空权重的卷积神经网络赋予初始值、每一层网络设置LOSS函数逐层训练、动态控制训练学习率三种技术手段相结合的方式,实现了卷积神经网络模型的逐层训练,提高了卷积神经网络模型计算的识别准确率,提升了模型的性能,同时使得模型的收敛速度增加,提高了卷积神经网络模型的计算效率,缓解了现有技术的卷积神经网络模型的训练方法存在的模型准确率差、计算效率低的技术问题。
在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。

Claims (4)

1.一种卷积神经网络模型的训练方法,其特征在于,所述方法包括:初始模型训练步骤和卷积神经网络模型训练步骤;
所述初始模型训练步骤包括:
初始模型获取训练图像样本;
根据所述训练图像样本进行预训练,生成预训练初始模型;
根据所述预训练初始模型生成初始权重;
所述卷积神经网络模型训练步骤包括:
将所述初始权重配置在初始卷积神经网络模型中,生成卷积神经网络模型;
所述卷积神经网络模型获取训练图像样本;
设置所述卷积神经网络模型中各层的训练学习率,根据所述训练图像样本逐层生成对应于所述卷积神经网络模型的初级微调权重,根据所述初级微调权重逐层生成所述卷积神经网络模型的初级训练权重值,并将所述初级训练权重值配置在所述卷积神经网络模型中;
将LOSS层逐层添加至所述卷积神经网络模型中,并根据所述训练图像样本生成LOSS误差值,根据所述LOSS误差值逐层生成对应于所述卷积神经网络模型中训练学习率的调整因子,根据所述调整因子逐层生成所述卷积神经网络模型的训练权重值,并将所述训练权重值配置在所述卷积神经网络模型中;
迭代设置所述卷积神经网络模型中各层的训练学习率,直至所述卷积神经网络模型中各层均完成训练权重值的配置。
2.根据权利要求1所述的方法,其特征在于,所述初始权重包括:卷积核滤波器权值、偏置权值、全连接层权值和全连接层偏置权值。
3.根据权利要求1或2所述的方法,其特征在于,所述根据所述训练图像样本生成LOSS误差值,具体为:
根据所述训练图像样本的类别数据,采用移动平均数法逐层生成所述卷积神经网络模型中对应的LOSS函数的误差值。
4.根据权利要求1或2所述的方法,其特征在于,所述根据所述LOSS误差值逐层生成对应于所述卷积神经网络模型中训练学习率的调整因子,根据所述调整因子逐层生成所述卷积神经网络模型的训练权重值,并将所述训练权重值配置在所述卷积神经网络模型中,具体为:
将所述LOSS误差值与预设的损失阈值相比较,当LOSS误差值低于所述损失阈值时,生成对应于所述卷积神经网络模型当前层的训练学习率的调整因子,根据所述调整因子降低所述卷积神经网络模型中对应层的训练学习率,生成当前层中对应于调整后的训练学习率的训练权重值,并将所述训练权重值以初始权重的方式配置在所述卷积神经网络模型中的下一层。
CN201711265644.3A 2017-12-05 2017-12-05 一种卷积神经网络模型的训练方法 Pending CN107909145A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201711265644.3A CN107909145A (zh) 2017-12-05 2017-12-05 一种卷积神经网络模型的训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201711265644.3A CN107909145A (zh) 2017-12-05 2017-12-05 一种卷积神经网络模型的训练方法

Publications (1)

Publication Number Publication Date
CN107909145A true CN107909145A (zh) 2018-04-13

Family

ID=61854509

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201711265644.3A Pending CN107909145A (zh) 2017-12-05 2017-12-05 一种卷积神经网络模型的训练方法

Country Status (1)

Country Link
CN (1) CN107909145A (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108197669A (zh) * 2018-01-31 2018-06-22 北京陌上花科技有限公司 卷积神经网络的特征训练方法及装置
CN108573287A (zh) * 2018-05-11 2018-09-25 浙江工业大学 一种基于深度神经网络的图像编解码器的训练方法
CN109102483A (zh) * 2018-07-24 2018-12-28 厦门美图之家科技有限公司 图像增强模型训练方法、装置、电子设备及可读存储介质
CN109102017A (zh) * 2018-08-09 2018-12-28 百度在线网络技术(北京)有限公司 神经网络模型处理方法、装置、设备及可读存储介质
CN109670577A (zh) * 2018-12-14 2019-04-23 北京字节跳动网络技术有限公司 模型生成方法和装置
CN109685120A (zh) * 2018-12-11 2019-04-26 中科恒运股份有限公司 分类模型在有限数据下的快速训练方法和终端设备
CN110505519A (zh) * 2019-08-14 2019-11-26 咪咕文化科技有限公司 一种视频剪辑方法、电子设备及存储介质
WO2019242222A1 (zh) * 2018-06-21 2019-12-26 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN110796096A (zh) * 2019-10-30 2020-02-14 北京达佳互联信息技术有限公司 一种手势识别模型的训练方法、装置、设备及介质
CN111723834A (zh) * 2019-03-21 2020-09-29 杭州海康威视数字技术股份有限公司 语音深度学习训练方法及装置
WO2021057810A1 (zh) * 2019-09-29 2021-04-01 深圳数字生命研究院 数据处理、训练、识别方法、装置和存储介质
US11204953B2 (en) 2020-04-20 2021-12-21 International Business Machines Corporation Generation of lineage data subset based upon business role
US11544566B2 (en) 2019-06-03 2023-01-03 International Business Machines Corporation Deep learning model insights using provenance data

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108197669A (zh) * 2018-01-31 2018-06-22 北京陌上花科技有限公司 卷积神经网络的特征训练方法及装置
CN108573287A (zh) * 2018-05-11 2018-09-25 浙江工业大学 一种基于深度神经网络的图像编解码器的训练方法
CN108573287B (zh) * 2018-05-11 2021-10-29 浙江工业大学 一种基于深度神经网络的图像编解码器的训练方法
WO2019242222A1 (zh) * 2018-06-21 2019-12-26 北京字节跳动网络技术有限公司 用于生成信息的方法和装置
CN109102483B (zh) * 2018-07-24 2020-12-18 厦门美图之家科技有限公司 图像增强模型训练方法、装置、电子设备及可读存储介质
CN109102483A (zh) * 2018-07-24 2018-12-28 厦门美图之家科技有限公司 图像增强模型训练方法、装置、电子设备及可读存储介质
CN109102017A (zh) * 2018-08-09 2018-12-28 百度在线网络技术(北京)有限公司 神经网络模型处理方法、装置、设备及可读存储介质
CN109102017B (zh) * 2018-08-09 2021-08-03 百度在线网络技术(北京)有限公司 神经网络模型处理方法、装置、设备及可读存储介质
CN109685120A (zh) * 2018-12-11 2019-04-26 中科恒运股份有限公司 分类模型在有限数据下的快速训练方法和终端设备
CN109670577A (zh) * 2018-12-14 2019-04-23 北京字节跳动网络技术有限公司 模型生成方法和装置
CN111723834A (zh) * 2019-03-21 2020-09-29 杭州海康威视数字技术股份有限公司 语音深度学习训练方法及装置
CN111723834B (zh) * 2019-03-21 2024-01-26 杭州海康威视数字技术股份有限公司 语音深度学习训练方法及装置
US11544566B2 (en) 2019-06-03 2023-01-03 International Business Machines Corporation Deep learning model insights using provenance data
CN110505519A (zh) * 2019-08-14 2019-11-26 咪咕文化科技有限公司 一种视频剪辑方法、电子设备及存储介质
CN110505519B (zh) * 2019-08-14 2021-12-03 咪咕文化科技有限公司 一种视频剪辑方法、电子设备及存储介质
WO2021057810A1 (zh) * 2019-09-29 2021-04-01 深圳数字生命研究院 数据处理、训练、识别方法、装置和存储介质
CN110796096A (zh) * 2019-10-30 2020-02-14 北京达佳互联信息技术有限公司 一种手势识别模型的训练方法、装置、设备及介质
CN110796096B (zh) * 2019-10-30 2023-01-24 北京达佳互联信息技术有限公司 一种手势识别模型的训练方法、装置、设备及介质
US11204953B2 (en) 2020-04-20 2021-12-21 International Business Machines Corporation Generation of lineage data subset based upon business role

Similar Documents

Publication Publication Date Title
CN107909145A (zh) 一种卷积神经网络模型的训练方法
CN110163093A (zh) 一种基于遗传算法的路牌识别对抗防御方法
CN103440495B (zh) 一种复合绝缘子憎水等级自动识别方法
CN110135341A (zh) 杂草识别方法、装置及终端设备
CN110135635B (zh) 一种区域电力饱和负荷预测方法及系统
CN108647583A (zh) 一种基于多目标学习的人脸识别算法训练方法
CN104123684B (zh) 一种计及网损和可靠性的配电网经济性重构方法
CN110309854A (zh) 一种信号调制方式识别方法及装置
CN109215344B (zh) 用于城市道路短时交通流量预测的方法和系统
CN101833667A (zh) 一种基于分组稀疏表示的模式识别分类方法
KR102234533B1 (ko) 전기로 전력 투입제어를 위한 인공지능 장입 고철 분류를 이용한 인공지능 원재료 분석 서비스 제공 방법
CN111125403B (zh) 一种基于人工智能的辅助设计绘图方法及系统
CN106647272A (zh) 基于k均值改进卷积神经网络的机器人路径规划方法
CN110062389A (zh) 基于改进差分进化算法的传感器网络节点优化部署方法
CN109598742A (zh) 一种基于ssd算法的目标跟踪方法及系统
CN104050505A (zh) 一种基于带学习因子蜂群算法的多层感知器训练方法
CN117273237B (zh) 一种基于人工智能的汽车零部件产能预测方法及系统
CN110378476A (zh) 脉冲卷积神经网络的最大池化层的近似实现方法、系统及介质
CN110275868A (zh) 一种智能工厂中多模态制造数据预处理的方法
Wang et al. Global aligned structured sparsity learning for efficient image super-resolution
CN103514596A (zh) 一种图像处理的方法和装置
CN109272058A (zh) 一种集成电力负荷曲线聚类方法
CN117078312B (zh) 一种基于人工智能的广告投放管理方法及系统
CN109870909A (zh) 一种基于rbf神经网络和自适应搜索的人工免疫算法
CN116258944B (zh) 基于双网络的遥感影像分类模型样本增量学习方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20180413