CN108805259A - 神经网络模型训练方法、装置、存储介质及终端设备 - Google Patents
神经网络模型训练方法、装置、存储介质及终端设备 Download PDFInfo
- Publication number
- CN108805259A CN108805259A CN201810502155.3A CN201810502155A CN108805259A CN 108805259 A CN108805259 A CN 108805259A CN 201810502155 A CN201810502155 A CN 201810502155A CN 108805259 A CN108805259 A CN 108805259A
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- training
- trained
- initial abstraction
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种神经网络模型训练方法,包括如下步骤:获取训练数据集;设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新;将所述训练数据集输入更新初始损失函数后的待训练神经网络模型进行特征学习训练,直至收敛。在本发明实施例中,去除模型参数向量之间的相关性,提高模型运行效率。本发明还提供了一种神经网络模型训练装置、存储介质及终端设备。
Description
技术领域
本发明涉及人工智能技术领域,尤其是涉及一种神经网络模型训练方法、装置、存储介质及终端设备。
背景技术
神经网络具有很强的拟合能力,现在已经广泛的应用在图像分类、语音识别和人脸识别等领域,并带来了相关领域的革命性进步,但是网络参数量的庞大以及推理时间慢等因素仍然限制了神经网络模型的发展。
目前,在常用的神经网络模型训练方法中,因为神经网络模型中的参数向量之间的冗余较多和相关性较大,使得需要大量的训练样本进行训练和较长的训练时间,直接导致神经网络模型的训练效率较低。
发明内容
本发明针对现有方式的缺点,提出了一种神经网络模型训练方法、装置、存储介质及终端设备,用于解决现有技术中不能有效去除模型参数向量之间的相关性问题,提高模型运行效率。
本发明提供一种神经网络模型训练方法,包括如下步骤:
获取训练数据集;
设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新;
将所述训练数据集输入更新初始损失函数后的待训练神经网络模型进行特征学习训练,直至收敛。
可选的,所述待训练神经网络模型为深度神经网络模型、残缺神经网络模型或卷积神经网络模型中的一种;
在所述设置待训练神经网络模型的初始损失函数之前还包括:
对所述待训练神经网络模型中的每一层网络的输出节点压缩至预设比例。
可选的,所述初始损失函数为交叉熵损失函数;
所述采用正则化项对所述初始损失函数进行更新,包括:
对所述待训练神经网络模型中所有层参数向量进行正则化,获取所有层参数向量的正则化项;
根据所述所有层参数向量的正则化项对所述初始损失函数进行更新。
可选的,在对所述待训练神经网络模型中所有层参数向量进行正则化,获取所有层参数向量的正则化项之前,还包括:
对所述待训练神经网络模型的每一层参数向量进行正则化,获取每一层参数向量对应的正则化项。
可选的,所述训练数据集包括训练样本数据集、测试样本数据集和与测试样本数据集对应的标注数据。
可选的,所述将所述训练数据集中的训练样本数据集输入更新损失函数后的待训练神经网络模型进行特征学习训练,直至收敛,包括:
将所述训练数据集中的训练样本数据集输入更新损失函数后的待训练神经网络模型进行特征学习训练,得到训练后的神经网络模型;
将所述训练数据集中的测试样本数据集输入所述训练后的神经网络模型,输出分类标注数据;
计算所述分类标注数据与所述测试样本数据集对应的标注数据的匹配概率;
判断所述匹配概率的值是否大于预设阈值,若是,则训练结束;
若否,采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,并采用所述训练数据集中的训练样本数据集进行重新训练。
可选的,在所述采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,对所述训练后的神经网络模型所有层参数向量的系数进行重置的公式如下:
其中,为训练后的神经网络模型中第i参数向量和第j参数向量的更新后系数,Wij为训练后的神经网络模型中第i参数向量和第j参数向量的系数,lr为学习速率,weight_decay为权重衰减系数,momentum为冲量,为更新后的损失函数。
本发明还提供一种神经网络模型训练装置,其包括:
数据获取模块:用于获取训练数据集;
损失函数更新模块:用于设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新;
模型训练模块:用于将所述训练数据集输入更新损失函数后的待训练神经网络模型进行特征学习训练,直至收敛。
可选的,所述待训练神经网络模型为深度神经网络模型、残缺神经网络模型或卷积神经网络模型中的一种;
在所述损失函数更新模块之前还包括:
节点压缩模块:用于对所述待训练神经网络模型中的每一层网络的输出节点压缩至预设比例。
可选的,所述初始损失函数为交叉熵损失函数;
所述损失函数更新模块包括:
第二正则化单元:用于对所述待训练神经网络模型中所有层参数向量进行正则化,获取所有层参数向量的正则化项;
损失函数更新单元:用于根据所述所有层参数向量的正则化项对所述初始损失函数进行更新。
可选的,在所述第二正则化单元之前还包括:
第一正则化单元:用于对所述待训练神经网络模型的每一层参数向量进行正则化,获取每一层参数向量对应的正则化项。
可选的,所述训练数据集包括训练样本数据集、测试样本数据集和与测试样本数据集对应的标注数据。
可选的,所述模型训练模块包括:
特征学习单元:用于将所述训练数据集中的训练样本数据集输入更新损失函数后的待训练神经网络模型进行特征学习训练,得到训练后的神经网络模型;
测试单元:用于将所述训练数据集中的测试样本数据集输入所述训练后的神经网络模型,输出分类标注数据;
计算单元:用于计算所述分类标注数据与所述测试样本数据集对应的标注数据的匹配概率;
判断单元:用于判断所述匹配概率的值是否大于预设阈值,若是,则训练结束,若否,则进入下一步;
重置单元:用于采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,并采用所述训练数据集中的训练样本数据集进行重新训练。
可选的,在所述重置单元中,对所述训练后的神经网络模型所有层参数向量的系数进行重置的公式如下:
其中,为训练后的神经网络模型中第i参数向量和第j参数向量的更新后系数,Wij为训练后的神经网络模型中第i参数向量和第j参数向量的系数,lr为学习速率,weight_decay为权重衰减系数,momentum为冲量,为更新后的损失函数。
本发明还提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现上述中任意一项所述的神经网络模型训练方法。
本发明还提供一种终端设备,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:执行上述中任意一项所述的神经网络模型训练方法。
本发明还提供了一种计算机应用程序,其运行在计算机上,该计算机应用程序用于执行上述中任意一项所述的神经网络模型训练方法。
在本发明具体实施过程中,通过设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新,再进行模型训练,可以使得模型更为紧凑,除去模型参数向量之间的相关性,减少了模型的参数向量,提高模型的运行效率。
本发明附加的方面和优点将在下面的描述中部分给出,这些将从下面的描述中变得明显,或通过本发明的实践了解到。
附图说明
本发明上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本发明实施例中的神经网络模型训练方法的流程示意图;
图2为本发明另一实施例中的神经网络模型训练方法的流程示意图;
图3为本发明实施例中的更新损失函数步骤的流程示意图;
图4为本发明实施例中的特征学习训练步骤的流程示意图;
图5为本发明实施例中的神经网络模型训练装置的结构组成示意图;
图6为本发明另一实施例中的神经网络模型训练装置的结构组成示意图;
图7为本发明实施例中的终端设备的结构示意图。
具体实施方式
下面详细描述本发明的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本发明,而不能解释为对本发明的限制。
本技术领域技术人员可以理解,除非特意声明,这里使用的单数形式“一”、“一个”、“所述”和“该”也可包括复数形式。应该进一步理解的是,本发明的说明书中使用的措辞“包括”是指存在所述特征、整数、步骤、操作、元件和/或组件,但是并不排除存在或添加一个或多个其他特征、整数、步骤、操作、元件、组件和/或它们的组。应该理解,当我们称元件被“连接”或“耦接”到另一元件时,它可以直接连接或耦接到其他元件,或者也可以存在中间元件。此外,这里使用的“连接”或“耦接”可以包括无线连接或无线耦接。这里使用的措辞“和/或”包括一个或更多个相关联的列出项的全部或任一单元和全部组合。
本技术领域技术人员可以理解,除非另外定义,这里使用的所有术语(包括技术术语和科学术语),具有与本发明所属领域中的普通技术人员的一般理解相同的意义。还应该理解的是,诸如通用字典中定义的那些术语,应该被理解为具有与现有技术的上下文中的意义一致的意义,并且除非像这里一样被特定定义,否则不会用理想化或过于正式的含义来解释。
实施例:
请参阅图1,图1为本发明第一实施例中的神经网络模型训练方法的流程示意图。
如图1所示,一种神经网络模型训练方法,包括如下步骤:
S11:获取训练数据集。
在本发明具体实施过程中,训练数据集是通过在ImageNet上下载获取,ImageNet为计算机视觉系统识别项目名称,是目前世界上图像识别最大的数据库,是美国斯坦福的计算机科学家,模拟人类的识别系统建立的。
ImageNet的结构基本是金字塔型:目录->子目录->图片集;即在ImageNet下载一个图片集作为训练数据集即可,因在ImageNet中会对每一个图片均有对应的标注数据,便于后续的训练;在下载训练数据集时,对应下载与训练数据集的标注数据。
其中,训练数据集包括训练样本数据集、测试样本数据集和与测试样本数据集对应的标注数据;训练样本数据集、测试样本数据集之比应该大于1:1。
采用ImageNet上下载的数据作为训练数据可以更加完整,全面的训练数据信息和测试数据信息,ImageNet上的数据均进行了相应的标注,无需后续人工标注,减少工作量,提高后续的神经网络模型的训练效率。
S12:设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新。
在本发明具体实施过程中,首先在待训练神经网络模型中,设定初始损失函数,该初始损失函数为交叉熵损失函数,然后在待训练神经网络模型中对所有层的参数向量进行正则化获取正则化项,将所有层的参数向量之间的正则化项引入到交叉熵损失函数中,采用所有层的正则化后获取的正则化项对交叉熵损失函数进行更新。
通过对所有层的参数向量进行正则化,并引进到交叉熵损失函数中,去除参数向量与参数向量之间的相关性,可以防止神经网络模型在训练过程中的过度拟合、减少神经网络模型在训练过程中所需要的训练样本数据、提升神经网络模型的训练速度。
请参考图3,图3为本发明实施例中的更新损失函数步骤的流程示意图,如图3所示,步骤如下:
S31:对所述待训练神经网络模型中所有层参数向量进行正则化,获取所有层参数向量的正则化项。
首先是获取待训练神经网络模型中的所有层参数向量,然后对这些所有层参数向量进行正则化,通过正则化来获取到所有层参数向量的正则化项,则对所有层参数向量正则化,获取所有层参数向量正则化项的公式如下:
S32:根据所述所有层参数向量的正则化项对所述初始损失函数进行更新。
根据S31中获取的所有层参数向量的正则化项对待训练神经网络模型中的初始损失函数进行更新,更新公式如下:
L=Lcross-entropy+λR;
对应的,
其中针对上述S31、S32步骤中的公式的字母所表示的意义如下:R为所有层参数向量的正则化项,Nl为第l层参数向量的个数,Nl=1,2,3,…,,M为待训练神经网络模型的层数,M=1,2,3,…,,l=1,2,3,…,M,W为待训练神经网络模型参数,Wli为待训练神经网络模型参数中第l层的第i个参数向量,Wlj为待训练神经网络模型参数中第l层的第j个参数向量,Lcross-entropy为交叉熵损失函数,λ为超参数,L为更新后的损失函数。
其中,在S31之前还包括以下步骤:
对所述待训练神经网络模型的每一层参数向量进行正则化,获取每一层参数向量对应的正则化项;
对每一层参数向量进行正则化,获取每一层参数向量的正则化项公式如下:
对应的,
其中,Rl为第l层参数向量的正则化项,R为所有层参数向量的正则化项,Nl为第l层参数向量的个数,Nl=1,2,3,…,,l=1,2,3,…,M,W为待训练神经网络模型参数,Wli为待训练神经网络模型参数中第l层的第i个参数向量,Wlj为待训练神经网络模型参数中第l层的第j个参数向量。
通过在待训练神经网络模型中引入对参数向量正则化,获取正则化项,采用正则化项更新初始损失函数,可以防止神经网络模型在训练中过度拟合,可以有效的减少待训练神经网络模型在后续训练时的训练样本的数量。
S13:将所述训练数据集输入更新初始损失函数后的待训练神经网络模型进行特征学习训练,直至收敛。
在具体实施过程中,将训练数据集中的训练样本数据集输入到更新损失函数后的待训练神经网络模型中进行特征学习训练,获取训练后的神经网络模型;在此特征学习训练为对输入的训练数据集中的训练样本数据集的特征进行学习训练,通过对这些特征进行学习训练从而顺向更新所有层参数向量的系数,完成神经网络模型的训练而获得训练后的神经网络模型;然后将训练数据集中的测试样本数据集输入到训练后的神经网络模型中进行分类识别,获取输出的分类识别结果;计算所述分类标注数据与所述测试样本数据集对应的标注数据的匹配概率,判断相互匹配的概率是否大于预设阈值,在这里预设阈值为99.9%,若是,则训练结束;若否,采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,并采用所述训练数据集中的训练样本数据集进行重新训练,直至收敛。
其中,在所述采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,对所述训练后的神经网络模型所有层参数向量的系数进行重置的公式如下:
其中,为训练后的神经网络模型中第i参数向量和第j参数向量的更新后系数,Wij为训练后的神经网络模型中第i参数向量和第j参数向量的系数,lr为学习速率,weight_decay为权重衰减系数,momentum为冲量,为更新后的损失函数;L为更新后的损失函数。
在具体实施过程中,lr学习习速率、weight_decay权重衰减系数和momenturn冲量可以根据具体情况和需求进行设置,可选的,lr为0.01,weight_decay为0.0005,momentum为0.09。
由于在测试过程中,输出的测试结果与实际效果存在较大的偏差,通过反向算法计算测试结果与实际值之间的误差,并将误差从训练后的神经网络模型中的输出层向隐藏层反向传播直至传播到输入层,在反向传播过程中,根据误差调整训练后的神经网络模型中各参数向量之间的系数,更有利于在重新训练时,更快速的使得神经网络模型达到收敛。
具体请参详图4,图4为本发明实施例中的特征学习训练步骤的流程示意图。
如图4所示,特征学习训练步骤如下:
S41:将所述训练数据集中的训练样本数据集输入更新初始损失函数后的神经网络模型进行特征学习训练,得到训练后的神经网络模型。
将训练数据集中的训练样本数据集输入更新初始损失函数后的神经网络模型进行特征学习训练,在训练过程中不断更新该神经网络模型中的参数向量的系数,最终参数向量的系数趋于稳定之后,获取训练后的神经网络模型。
在此特征学习训练为对输入的训练数据集中的训练样本数据集的特征进行学习训练,通过对这些特征进行学习训练从而顺向更新所有层参数向量的系数,最终参数向量的系数趋于稳定之后,完成神经网络模型的训练而获得训练后的神经网络模型。
S42:将所述训练数据集中的测试样本数据集输入训练后的神经网络模型,输出分类标注数据。
在本发明实施过程中,将训练数据集中的测试样本数据集输入到训练后的神经网络模型中进行测试分类,获取训练后的神经网络模型对测试样本数据集的分类标注数据。
S43:计算所述分类标注数据与所述测试样本数据集对应的标注数据的匹配概率。
在本方具体实施过程中,通过概率的计算方式来计算分类标注数据与测试样本数据集对应的标注数据之间的匹配概率。
S44:判断所述匹配概率的值是否大于预设阈值。
判断相互匹配的匹配概率是否大于预设阈值,在本发明实施例中,不限制预设阈值的具体数值,根据不同应用场景的神经网络,其对应的预设阈值不同。例如,预设阈值设置可以为99.9%,通过判断匹配概率是否大于99.9%,若是大于则跳转至S45,若否,则进入S44。
S45:若否,则采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,并采用所述训练数据集中的训练样本数据集进行重新训练。
采用反向传播算法对训练后的神经网络模型所有层参数向量的系数进行更新,更新之后返回S41进行重新训练。
因为测试输出的结果与实际结果存在误差,则计算输出结果与实际结果之间的误差,并将该误差从输出层向隐藏层反向传播,直至传播至输入层,在反向传播过程中,根据误差调整所有层参数向量的系数。
在所述采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,对所述训练后的神经网络模型所有层参数向量的系数进行重置的公式如下:
其中,为训练后的神经网络模型中第i参数向量和第j参数向量的更新后系数,Wij为训练后的神经网络模型中第i参数向量和第j参数向量的系数,lr为学习速率,weight_decay为权重衰减系数,momentum为冲量,为更新后的损失函数。
在具体实施过程中,lr学习习速率、weight_decay权重衰减系数和momenturn冲量可以根据具体情况和需求进行设置,可选的,lr为0.01,weight_decay为0.0005,momentum为0.09。
通过设置学习速率、权重衰减系数和冲量实现在采用反向算法重置所有层参数向量的系数时保证后续再重新训练时的学习速率、学习的加速度和避免模型的过度拟合。
S45:若是,训练结束。
当相互匹配的概率大于预设阈值时,训练结束,神经网络模型训练至收敛。
在本发明具体实施过程中,通过设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新,再进行模型训练,可以使得模型更为紧凑,除去模型参数向量之间的相关性,减少了模型的参数量,提高模型的运行效率,本发明中的训练的神经网络模型可以运行在嵌入式设备中,扩大了神经网络模型的应用范围。
可选的,在本发明的另一种实施方式中,请参详图2,图2为本发明另一实施例中的神经网络模型训练方法的流程示意图。
如图2所示,一种神经网络模型训练方法,包括如下步骤:
S21:获取训练数据集。
具体实施方式请参详实施例中的S11,再此不再赘述。
S22:对所述待训练神经网络模型中的每一层网络的输出节点压缩至预设比例。
在神经网络模型中,至少存在输入层、隐藏层和输出层,每一层都存在着大量的输出节点,在本发明实施例中,需要将每一层的网络的输出节点压缩至预设的比例;以vgg网络模型为例,在原模型的基础上,对每一层网络的输出节点数压缩至原来的1/2,具体的压缩过程为采用原节点数除以2即可获得。
神经网络模型处理vgg网络模型之外,还可以为resnet网络模型或googlenet网络模型中的一种,因此预设比例也可以为1/3,或者1/4等,具体需要根据不同的神经网络模型而定。
其中,vgg网络模型为深度神经网络模型,resnet网络模型为残缺神经网络模型,googlenet网络模型为卷积神经网络模型。
通过对待训练神经网络模型中的每一层的输出节点进压缩,可以有效的去除待训练神经网络模型中的部分冗余数据。
S23:设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新。
具体实施方式请参详实施例中的S12,再此不再赘述。
S24:将所述训练数据集输入更新初始损失函数后的待训练神经网络模型进行特征学习训练,直至收敛。
具体实施方式请参详实施例中的S13,再此不再赘述。
在本发明具体实施过程中,通过对待训练神经网络模型中的每一层网络的输出节点压缩至预设比例,通过设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新,再进行模型训练,可以使得模型更为紧凑,除去模型参数向量之间的相关性,减少了模型的参数量,提高模型的运行效率,本发明中的训练后的神经网络模型可以运行在嵌入式设备中,扩大了神经网络模型的应用范围。
可选的,在本发明的另一种实施方式中,请参详图5,图5为本发明实施例中的神经网络模型训练装置的结构组成示意图。
如图5所示,一种神经网络模型训练装置,包括:
数据获取模块11:用于获取训练数据集;
在本发明具体实施过程中,训练数据集是通过在ImageNet上下载获取,ImageNet为计算机视觉系统识别项目名称,是目前世界上图像识别最大的数据库,是美国斯坦福的计算机科学家,模拟人类的识别系统建立的。
ImageNet的结构基本是金字塔型:目录->子目录->图片集;即在ImageNet下载一个图片集作为训练数据集即可,因在ImageNet中会对每一个图片均有对应的标注数据,便于后续的训练;在下载训练数据集时,对应下载与训练数据集的标注数据。
其中,训练数据集包括训练样本数据集、测试样本数据集和与测试样本数据集对应的标注数据;训练样本数据集、测试样本数据集之比应该大于1:1。
采用ImageNet上下载的数据作为训练数据可以更加完整,全面的训练数据信息和测试数据信息,ImageNet上的数据均进行了相应的标注,无需后续人工标注,减少工作量,提高后续的神经网络模型的训练效率。
损失函数更新模块12:用于设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新;
在本发明具体实施过程中,首先在待训练神经网络模型中,设定初始损失函数,该初始损失函数为交叉熵损失函数,然后在待训练神经网络模型中对所有层的参数向量进行正则化获取正则化项,将所有层的参数向量之间的正则化项引入到交叉熵损失函数中,采用所有层的正则化后获取的正则化项对交叉熵损失函数进行更新。
其中,损失函数更新模块12包括:
第二正则化单元:用于对所述待训练神经网络模型中所有层参数向量进行正则化,获取所有层参数向量的正则化项;
首先是获取待训练神经网络模型中的所有层参数向量,然后对这些所有层参数向量进行正则化,通过正则化来获取到所有层参数向量的正则化项,则对所有层参数向量正则化,获取所有层参数向量正则化项的公式如下:
损失函数更新单元:用于根据所述所有层参数向量的正则化项对所述初始损失函数进行更新;
根据第二正则化单元中获取的所有层参数向量的正则化项对待训练神经网络模型中的初始损失函数进行更新,更新公式如下:
L=Lcross-entropy+λR;
对应的,
其中针对上述第二正则化单元和损失函数更新单元中的公式的字母所表示的意义如下:为所有层参数向量的正则化项,Nl为第l层参数向量的个数,Nl=1,2,3,…,,M为待训练神经网络模型的层数,M=1,2,3,…,,l=1,2,3,…,M,W为待训练神经网络模型参数,Wli为待训练神经网络模型参数中第l层的第i个参数向量,Wlj为待训练神经网络模型参数中第l层的第j个参数向量,Lcross-entropy为
交叉熵损失函数,λ为超参数,L为更新后的损失函数。
在本发明实施过程中,在第二正则化单元之前还包括:
第一正则化单元:用于对所述待训练神经网络模型的每一层参数向量进行正则化,获取每一层参数向量对应的正则化项;
对每一层参数向量进行正则化,获取每一层参数向量的正则化项公式如下:
对应的,
其中,Rl为第l层参数向量的正则化项,Nl为第l层参数向量的个数,Nl=1,2,3,…,,M为待训练神经网络模型的层数,M=1,2,3,…,,l=1,2,3,…,M,W为待训练神经网络模型参数,Wli为待训练神经网络模型参数中第l层的第i个参数向量,Wlj为待训练神经网络模型参数中第l层的第j个参数向量。
通过在待训练神经网络模型中引入对参数向量正则化,获取正则化项,采用正则化项更新初始损失函数,可以防止神经网络模型在训练中过度拟合,可以有效的减少待训练神经网络模型在后续训练时的训练样本的数量。
模型训练模块13:用于将所述训练数据集输入更新初始损失函数后的待训练神经网络模型进行特征学习训练,直至收敛。
在具体实施过程中,将训练数据集中的训练样本数据集输入到更新损失函数后的待训练神经网络模型中进行特征学习训练,获取训练后的神经网络模型;在此特征学习训练为对输入的训练数据集中的训练样本数据集的特征进行学习训练,通过对这些特征进行学习训练从而顺向更新所有层参数向量的系数,完成神经网络模型的训练而获得训练后的神经网络模型;然后将训练数据集中的测试样本数据集输入到训练后的神经网络模型中进行分类识别,获取输出的分类识别结果;计算所述分类标注数据与所述测试样本数据集对应的标注数据的匹配概率,判断相互匹配的概率是否大于预设阈值,在这里预设阈值为99.9%,若是,则训练结束;若否,采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,并采用所述训练数据集中的训练样本数据集进行重新训练,直至收敛。
其中,在所述采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,对所述训练后的神经网络模型所有层参数向量的系数进行重置的公式如下:
其中,为训练后的神经网络模型中第i参数向量和第j参数向量的更新后系数,Wij为训练后的神经网络模型中第i参数向量和第j参数向量的系数,lr为学习速率,weight_decay为权重衰减系数,momentum为冲量,为更新后的损失函数。
在具体实施过程中,lr学习习速率、weight_decay权重衰减系数和momenturn冲量可以根据具体情况和需求进行设置,可选的,lr为0.01,weight_decay为0.0005,momentum为0.09。
由于在测试过程中,输出的测试结果与实际效果存在较大的偏差,通过反向算法计算测试结果与实际值之间的误差,并将误差从训练后的神经网络模型中的输出层向隐藏层反向传播直至传播到输入层,在反向传播过程中,根据误差调整训练后的神经网络模型中各参数向量之间的系数,更有利于在重新训练时,更快速的使得神经网络模型达到收敛。
其中,模型训练模块13包括:
特征学习训练单元:用于将所述训练数据集中的训练样本数据集输入更新初始损失函数后的神经网络模型进行特征学习训练,得到训练后的神经网络模型;
将训练数据集中的训练样本数据集输入更新损初始失函数后的神经网络模型进行特征学习训练,在训练过程中不断更新该神经网络模型中的参数向量的系数,最终参数向量的系数趋于稳定之后,获取训练后的神经网络模型。
在此特征学习训练为对输入的训练数据集中的训练样本数据集的特征进行学习训练,通过对这些特征进行学习训练从而顺向更新所有层参数向量的系数,最终参数向量的系数趋于稳定之后,完成神经网络模型的训练而获得训练后的神经网络模型。
测试单元:用于将所述训练数据集中的测试样本数据集输入训练后的神经网络模型,输出分类标注数据;
在本发明实施过程中,将训练数据集中的测试样本数据集输入到训练后的神经网络模型中进行测试分类,获取训练后的神经网络模型对测试样本数据集的分类标注数据。
计算单元:用于计算所述分类标注数据与所述测试样本数据集对应的标注数据的匹配概率;
在本方具体实施过程中,通过概率的计算方式来计算分类标注数据与测试样本数据集对应的标注数据之间的匹配概率。
判断单元:用于判断所述匹配概率的值是否大于预设阈值,若是,则训练结束;若否,进入下一步;
判断相互匹配的匹配概率是否大于预设阈值,在本发明实施例中,预设阈值设置为99.9%,通过判断匹配概率是否大于99.9%,若大于,则训练结束,训练后的神经网络模型收敛,若否,则进入下一步的重置单元
重置单元:用于采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,并采用所述训练数据集中的训练样本数据集进行重新训练。
采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,并采用所述训练数据集中的训练样本数据集进行重新训练。
因为测试输出的结果与实际结果存在误差,则计算输出结果与实际结果之间的误差,并将该误差从输出层向隐藏层反向传播,直至传播至输入层,在反向传播过程中,根据误差调整所有层参数向量的系数。
在所述采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,对所述训练后的神经网络模型所有层参数向量的系数进行重置的公式如下:
其中,为训练后的神经网络模型中第i参数向量和第j参数向量的更新后系数,Wij为训练后的神经网络模型中第i参数向量和第j参数向量的系数,lr为学习速率,weight_decay为权重衰减系数,momentum为冲量,为更新后的损失函数。
在具体实施过程中,lr学习习速率、weight_decay权重衰减系数和momenturn冲量可以根据具体情况和需求进行设置,可选的,lr为0.01,weight_decay为0.0005,momentum为0.09。
通过设置学习速率、权重衰减系数和冲量实现在采用反向算法重置所有层参数向量的系数时保证后续再重新训练时的学习速率、学习的加速度和避免模型的过度拟合。
在本发明具体实施过程中,通过设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新,再进行模型训练,可以使得模型更为紧凑,除去模型参数向量之间的相关性,减少了模型的参数量,提高模型的运行效率,本发明中的训练的神经网络模型可以运行在嵌入式设备中,扩大了神经网络模型的应用范围。
可选的,在本发明的另一种实施方式中,请参详图6,图6为本发明另一实施例中的神经网络模型训练装置的结构组成示意图。
如图6所示,一种神经网络模型训练装置,包括:
数据获取模块21:用于获取训练数据集;
节点压缩模块22:用于对所述待训练神经网络模型中的每一层网络的输出节点压缩至预设比例;
在神经网络模型中,至少存在输入层、隐藏层和输出层,每一层都存在着大量的输出节点,在本发明实施例中,需要将每一层的网络的输出节点压缩至预设的比例;以vgg网络模型为例,在原模型的基础上,对每一层网络的输出节点数压缩至原来的1/2,具体的压缩过程为采用原节点数除以2即可获得。
神经网络模型处理vgg网络模型之外,还可以为resnet网络模型或googlenet网络模型中的一种,因此预设比例也可以为1/3,或者1/4等,具体需要根据不同的神经网络模型而定。
其中,vgg网络模型为深度神经网络模型,resnet网络模型为残缺神经网络模型,googlenet网络模型为卷积神经网络模型。
通过对待训练神经网络模型中的每一层的输出节点进压缩可以有效的去除模型中的部分冗余数据。
损失函数更新模块23:用于设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新;
模型训练模块24:用于将所述训练数据集输入更新初始损失函数后的待训练神经网络模型进行特征学习训练,直至收敛。
数据获取模块21、损失函数更新模块23和模型训练模块24的具体实施方式请参详上述的实施方式,再次不再赘述。
在本发明具体实施过程中,通过对待训练神经网络模型中的每一层网络的输出节点压缩至预设比例,通过设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新,再进行模型训练,可以使得模型更为紧凑,除去模型参数向量之间的相关性,减少了模型的参数向量,提高模型的运行效率,本发明中的训练后的神经网络模型可以运行在嵌入式设备中,扩大了神经网络模型的应用范围。
本发明实施例提供的一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,该程序被处理器执行时实现上述实施例中任意一个实施例的神经网络模型训练方法。其中,所述计算机可读存储介质包括但不限于任何类型的盘(包括软盘、硬盘、光盘、CD-ROM、和磁光盘)、ROM(Read-Only Memory,只读存储器)、RAM(Random AcceSSMemory,随即存储器)、EPROM(EraSable Programmable Read-Only Memory,可擦写可编程只读存储器)、EEPROM(Electrically EraSableProgrammableRead-Only Memory,电可擦可编程只读存储器)、闪存、磁性卡片或光线卡片。也就是,存储设备包括由设备(例如,计算机、手机)以能够读的形式存储或传输信息的任何介质,可以是只读存储器,磁盘或光盘等。
本发明实施例还提供了一种计算机应用程序,其运行在计算机上,该计算机应用程序用于执行上述中任意一个实施例的神经网络模型训练方法。
此外,本发明实施例还提供了一种终端设备,如图7所示。本实施所示的终端设备可以为PC设备、服务器、平板电脑或者移动终端等设备。所述计算机设备包括处理器702、存储器703、输入单元704以及显示单元705等器件。本领域技术人员可以理解,图7示出的设备结构器件并不构成对所有设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件。存储器703可用于存储应用程序701以及各功能模块,处理器702运行存储在存储器703的应用程序701,从而执行设备的各种功能应用以及数据处理。存储器可以是内存储器或外存储器,或者包括内存储器和外存储器两者。内存储器可以包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦写可编程ROM(EEPROM)、快闪存储器、或者随机存储器。外存储器可以包括硬盘、软盘、ZIP盘、U盘、磁带等。本发明所公开的存储器包括但不限于这些类型的存储器。本发明所公开的存储器只作为例子而非作为限定。
输入单元704用于接收信号的输入,以及接收用户输入的关键字。输入单元704可包括触控面板以及其它输入设备。触控面板可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或在触控面板附近的操作),并根据预先设定的程序驱动相应的连接装置;其它输入设备可以包括但不限于物理键盘、功能键(比如播放控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。显示单元705可用于显示用户输入的信息或提供给用户的信息以及终端设备的各种菜单。显示单元705可采用液晶显示器、有机发光二极管等形式。处理器702是终端设备的控制中心,利用各种接口和线路连接整个设备的各个部分,通过运行或执行存储在存储器702内的软件程序和/或模块,以及调用存储在存储器内的数据,执行各种功能和处理数据。
作为一个实施例,所述计算机设备包括:一个或多个处理器702,存储器703,一个或多个应用程序701,其中所述一个或多个应用程序701被存储在存储器703中并被配置为由所述一个或多个处理器702执行,所述一个或多个程序701配置用于执行上述实施例中的任意一实施例中对的神经网络模型训练方法。
在本发明具体实施过程中,通过对待训练神经网络模型中的每一层网络的输出节点压缩至预设比例,通过设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新,再进行模型训练,可以使得模型更为紧凑,除去模型参数向量之间的相关性,减少了模型的参数向量,提高模型的运行效率,本发明中的训练后的神经网络模型可以运行在嵌入式设备中,扩大了神经网络模型的应用范围。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
以上所述仅是本发明的部分实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种神经网络模型训练方法,其特征在于,包括如下步骤:
获取训练数据集;
设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新;
将所述训练数据集输入更新初始损失函数后的待训练神经网络模型进行特征学习训练,直至收敛。
2.根据权利要求1所述的神经网络模型训练方法,其特征在于,所述待训练神经网络模型为深度神经网络模型、残缺神经网络模型或卷积神经网络模型中的一种;
在所述设置待训练神经网络模型的初始损失函数之前还包括:
对所述待训练神经网络模型中的每一层网络的输出节点压缩至预设比例。
3.根据权利要求1所述的神经网络模型训练方法,其特征在于,所述初始损失函数为交叉熵损失函数;
所述采用正则化项对所述初始损失函数进行更新,包括:
对所述待训练神经网络模型中所有层参数向量进行正则化,获取所有层参数向量的正则化项;
根据所述所有层参数向量的正则化项对所述初始损失函数进行更新。
4.根据权利要求3所述的神经网络模型训练方法,其特征在于,在对所述待训练神经网络模型中所有层参数向量进行正则化,获取所有层参数向量的正则化项之前,还包括:
对所述待训练神经网络模型的每一层参数向量进行正则化,获取每一层参数向量对应的正则化项。
5.根据权利要求1所述的神经网络模型训练方法,其特征在于,所述训练数据集包括训练样本数据集、测试样本数据集和与所述测试样本数据集对应的标注数据。
6.根据权利要求5所述的神经网络模型训练方法,其特征在于,所述将所述训练数据集输入更新初始损失函数后的待训练神经网络模型进行特征学习训练,直至收敛,包括:
将所述训练数据集中的训练样本数据集输入更新初始损失函数后的待训练神经网络模型进行特征学习训练,得到训练后的神经网络模型;
将所述训练数据集中的测试样本数据集输入所述训练后的神经网络模型,输出分类标注数据;
计算所述分类标注数据与所述测试样本数据集对应的标注数据的匹配概率;
判断所述匹配概率的值是否大于预设阈值,若是,则训练结束;
若否,则采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置,并采用所述训练数据集中的训练样本数据集进行重新训练。
7.根据权利要求6所述的神经网络模型训练方法,其特征在于,在所述采用反向传播算法对所述训练后的神经网络模型所有层参数向量的系数进行重置过程中,对所述训练后的神经网络模型所有层参数向量的系数进行重置的公式如下:
其中,为训练后的神经网络模型中第i参数向量和第j参数向量的更新后系数,Wij为训练后的神经网络模型中第i参数向量和第j参数向量的系数,lr为学习速率,weight_decay为权重衰减系数,momentum为冲量,L为更新后的损失函数。
8.一种神经网络模型训练装置,其特征在于,包括:
数据获取模块:用于获取训练数据集;
损失函数更新模块:用于设置待训练神经网络模型的初始损失函数,采用正则化项对所述初始损失函数进行更新;
模型训练模块:用于将所述训练数据集输入更新损失函数后的待训练神经网络模型进行特征学习训练,直至收敛。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1至7中任意一项所述的神经网络模型训练方法。
10.一种终端设备,其特征在于,其包括:
一个或多个处理器;
存储器;
一个或多个应用程序,其中所述一个或多个应用程序被存储在所述存储器中并被配置为由所述一个或多个处理器执行,所述一个或多个程序配置用于:执行根据权利要求1至7中任意一项所述的神经网络模型训练方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810502155.3A CN108805259A (zh) | 2018-05-23 | 2018-05-23 | 神经网络模型训练方法、装置、存储介质及终端设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810502155.3A CN108805259A (zh) | 2018-05-23 | 2018-05-23 | 神经网络模型训练方法、装置、存储介质及终端设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108805259A true CN108805259A (zh) | 2018-11-13 |
Family
ID=64092816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810502155.3A Pending CN108805259A (zh) | 2018-05-23 | 2018-05-23 | 神经网络模型训练方法、装置、存储介质及终端设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108805259A (zh) |
Cited By (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
CN109567797A (zh) * | 2019-01-30 | 2019-04-05 | 浙江强脑科技有限公司 | 癫痫预警方法、装置及计算机可读存储介质 |
CN109615060A (zh) * | 2018-11-27 | 2019-04-12 | 深圳前海微众银行股份有限公司 | Ctr预估方法、装置及计算机可读存储介质 |
CN109872730A (zh) * | 2019-03-14 | 2019-06-11 | 广州飞傲电子科技有限公司 | 音频数据的失真补偿方法、模型建立方法和音频输出设备 |
CN110070067A (zh) * | 2019-04-29 | 2019-07-30 | 北京金山云网络技术有限公司 | 视频分类方法及其模型的训练方法、装置和电子设备 |
CN110119815A (zh) * | 2019-05-21 | 2019-08-13 | 深圳市腾讯网域计算机网络有限公司 | 模型训练方法、装置、存储介质及设备 |
CN110135456A (zh) * | 2019-04-08 | 2019-08-16 | 图麟信息科技(上海)有限公司 | 一种目标检测模型的训练方法及装置 |
CN110276413A (zh) * | 2019-06-28 | 2019-09-24 | 深圳前海微众银行股份有限公司 | 一种模型压缩方法及装置 |
CN110503160A (zh) * | 2019-08-28 | 2019-11-26 | 北京达佳互联信息技术有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN110738403A (zh) * | 2019-09-26 | 2020-01-31 | 联想(北京)有限公司 | 一种数据处理方法、设备及计算机存储介质 |
CN110751267A (zh) * | 2019-09-30 | 2020-02-04 | 京东城市(北京)数字科技有限公司 | 神经网络的结构搜索方法、训练方法、装置及存储介质 |
CN110795235A (zh) * | 2019-09-25 | 2020-02-14 | 北京邮电大学 | 一种移动web深度学习协作的方法及系统 |
CN110931082A (zh) * | 2019-12-12 | 2020-03-27 | 爱尔生基因医学科技有限公司 | 一种用于基因检测评估的方法及系统 |
CN111080874A (zh) * | 2019-12-31 | 2020-04-28 | 中国银行股份有限公司 | 基于面部图像的金库安全门的控制方法和装置 |
CN111353592A (zh) * | 2018-12-24 | 2020-06-30 | 上海寒武纪信息科技有限公司 | 数据处理方法、计算机系统及存储介质 |
CN111382619A (zh) * | 2018-12-28 | 2020-07-07 | 广州市百果园信息技术有限公司 | 图片推荐模型的生成、图片推荐方法、装置、设备及介质 |
CN111382772A (zh) * | 2018-12-29 | 2020-07-07 | Tcl集团股份有限公司 | 一种图像处理方法、装置及终端设备 |
CN111414987A (zh) * | 2019-01-08 | 2020-07-14 | 南京人工智能高等研究院有限公司 | 神经网络的训练方法、训练装置和电子设备 |
CN111488985A (zh) * | 2020-04-08 | 2020-08-04 | 华南理工大学 | 深度神经网络模型压缩训练方法、装置、设备、介质 |
CN111488980A (zh) * | 2019-01-29 | 2020-08-04 | 斯特拉德视觉公司 | 优化采样的神经网络的设备上持续学习方法及装置 |
CN111582472A (zh) * | 2020-04-17 | 2020-08-25 | 广西电网有限责任公司电力科学研究院 | 一种基于神经网络模型的喷水减温器喷水调整方法及装置 |
CN111625858A (zh) * | 2020-05-10 | 2020-09-04 | 武汉理工大学 | 一种垂直领域下的智能化多模态数据脱敏方法和装置 |
CN111680717A (zh) * | 2020-05-12 | 2020-09-18 | 顺德职业技术学院 | 基于深度学习的智能制造生产线上产品分类方法及系统 |
CN111860828A (zh) * | 2020-06-15 | 2020-10-30 | 北京仿真中心 | 一种神经网络的训练方法、存储介质和设备 |
CN111898145A (zh) * | 2020-07-22 | 2020-11-06 | 苏州浪潮智能科技有限公司 | 一种神经网络模型训练方法、装置、设备及介质 |
CN112036682A (zh) * | 2020-07-10 | 2020-12-04 | 广西电网有限责任公司 | 一种频繁停电的预警方法及装置 |
CN112035649A (zh) * | 2020-09-02 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 问答模型处理方法、装置、计算机设备及存储介质 |
CN112101394A (zh) * | 2019-06-18 | 2020-12-18 | 中国移动通信集团浙江有限公司 | 供应商分域部署方法、装置、计算设备及计算机存储介质 |
CN112101437A (zh) * | 2020-09-07 | 2020-12-18 | 平安科技(深圳)有限公司 | 基于图像检测的细粒度分类模型处理方法、及其相关设备 |
CN112446490A (zh) * | 2020-11-27 | 2021-03-05 | 苏州浪潮智能科技有限公司 | 一种网络训练的数据集缓存方法、装置、设备及存储介质 |
CN112784953A (zh) * | 2019-11-07 | 2021-05-11 | 佳能株式会社 | 对象识别模型的训练方法及装置 |
WO2021120719A1 (zh) * | 2019-12-19 | 2021-06-24 | 华为技术有限公司 | 神经网络模型更新方法、图像处理方法及装置 |
CN113167495A (zh) * | 2018-12-12 | 2021-07-23 | 三菱电机株式会社 | 空调控制装置和空调控制方法 |
CN113642708A (zh) * | 2021-08-13 | 2021-11-12 | 北京赛目科技有限公司 | 一种车辆环境等级识别模型的训练方法、识别方法及装置 |
CN113705805A (zh) * | 2020-05-22 | 2021-11-26 | 中国科学技术大学 | 基于状态表示学习的深度强化学习方法及装置 |
CN113743597A (zh) * | 2021-11-03 | 2021-12-03 | 中国科学院精密测量科学与技术创新研究院 | 一种基于无训练深度神经网络的nmr弛豫时间反演方法 |
CN117019883A (zh) * | 2023-08-25 | 2023-11-10 | 华北电力大学(保定) | 一种基于深度学习的带材轧制过程板形预测方法 |
CN111814385B (zh) * | 2020-05-28 | 2023-11-17 | 平安科技(深圳)有限公司 | 预测加工件质量的方法、装置和计算机设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469041A (zh) * | 2015-11-19 | 2016-04-06 | 上海交通大学 | 基于多任务正则化与逐层监督神经网络的人脸点检测系统 |
CN106056209A (zh) * | 2016-05-23 | 2016-10-26 | 大连理工大学 | 一种基于循环神经网络的查询词项权重学习方法 |
CN106096531A (zh) * | 2016-05-31 | 2016-11-09 | 安徽省云力信息技术有限公司 | 一种基于深度学习的交通图像多类型车辆检测方法 |
CN106650922A (zh) * | 2016-09-29 | 2017-05-10 | 清华大学 | 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统 |
CN107154043A (zh) * | 2017-06-05 | 2017-09-12 | 杭州健培科技有限公司 | 一种基于3dcnn的肺结节假阳性样本抑制方法 |
CN107220657A (zh) * | 2017-05-10 | 2017-09-29 | 中国地质大学(武汉) | 一种面向小数据集的高分辨率遥感影像场景分类的方法 |
CN107886062A (zh) * | 2017-11-03 | 2018-04-06 | 北京达佳互联信息技术有限公司 | 图像处理方法、系统及服务器 |
CN108052911A (zh) * | 2017-12-20 | 2018-05-18 | 上海海洋大学 | 基于深度学习的多模态遥感影像高层特征融合分类方法 |
-
2018
- 2018-05-23 CN CN201810502155.3A patent/CN108805259A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105469041A (zh) * | 2015-11-19 | 2016-04-06 | 上海交通大学 | 基于多任务正则化与逐层监督神经网络的人脸点检测系统 |
CN106056209A (zh) * | 2016-05-23 | 2016-10-26 | 大连理工大学 | 一种基于循环神经网络的查询词项权重学习方法 |
CN106096531A (zh) * | 2016-05-31 | 2016-11-09 | 安徽省云力信息技术有限公司 | 一种基于深度学习的交通图像多类型车辆检测方法 |
CN106650922A (zh) * | 2016-09-29 | 2017-05-10 | 清华大学 | 硬件神经网络转换方法、计算装置、编译方法和神经网络软硬件协作系统 |
CN107220657A (zh) * | 2017-05-10 | 2017-09-29 | 中国地质大学(武汉) | 一种面向小数据集的高分辨率遥感影像场景分类的方法 |
CN107154043A (zh) * | 2017-06-05 | 2017-09-12 | 杭州健培科技有限公司 | 一种基于3dcnn的肺结节假阳性样本抑制方法 |
CN107886062A (zh) * | 2017-11-03 | 2018-04-06 | 北京达佳互联信息技术有限公司 | 图像处理方法、系统及服务器 |
CN108052911A (zh) * | 2017-12-20 | 2018-05-18 | 上海海洋大学 | 基于深度学习的多模态遥感影像高层特征融合分类方法 |
Non-Patent Citations (1)
Title |
---|
蒋帅: "《基于卷积神经网络的图像识别》", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108829683A (zh) * | 2018-06-29 | 2018-11-16 | 北京百度网讯科技有限公司 | 混合标注学习神经网络模型及其训练方法、装置 |
WO2020107762A1 (zh) * | 2018-11-27 | 2020-06-04 | 深圳前海微众银行股份有限公司 | Ctr预估方法、装置及计算机可读存储介质 |
CN109615060A (zh) * | 2018-11-27 | 2019-04-12 | 深圳前海微众银行股份有限公司 | Ctr预估方法、装置及计算机可读存储介质 |
CN113167495A (zh) * | 2018-12-12 | 2021-07-23 | 三菱电机株式会社 | 空调控制装置和空调控制方法 |
CN111353592B (zh) * | 2018-12-24 | 2022-12-02 | 上海寒武纪信息科技有限公司 | 数据处理方法、计算机系统及存储介质 |
CN111353592A (zh) * | 2018-12-24 | 2020-06-30 | 上海寒武纪信息科技有限公司 | 数据处理方法、计算机系统及存储介质 |
CN111382619B (zh) * | 2018-12-28 | 2023-04-18 | 广州市百果园信息技术有限公司 | 图片推荐模型的生成、图片推荐方法、装置、设备及介质 |
CN111382619A (zh) * | 2018-12-28 | 2020-07-07 | 广州市百果园信息技术有限公司 | 图片推荐模型的生成、图片推荐方法、装置、设备及介质 |
CN111382772B (zh) * | 2018-12-29 | 2024-01-26 | Tcl科技集团股份有限公司 | 一种图像处理方法、装置及终端设备 |
CN111382772A (zh) * | 2018-12-29 | 2020-07-07 | Tcl集团股份有限公司 | 一种图像处理方法、装置及终端设备 |
CN111414987B (zh) * | 2019-01-08 | 2023-08-29 | 南京人工智能高等研究院有限公司 | 神经网络的训练方法、训练装置和电子设备 |
CN111414987A (zh) * | 2019-01-08 | 2020-07-14 | 南京人工智能高等研究院有限公司 | 神经网络的训练方法、训练装置和电子设备 |
CN111488980B (zh) * | 2019-01-29 | 2023-10-03 | 斯特拉德视觉公司 | 优化采样的神经网络的设备上持续学习方法及装置 |
CN111488980A (zh) * | 2019-01-29 | 2020-08-04 | 斯特拉德视觉公司 | 优化采样的神经网络的设备上持续学习方法及装置 |
CN109567797A (zh) * | 2019-01-30 | 2019-04-05 | 浙江强脑科技有限公司 | 癫痫预警方法、装置及计算机可读存储介质 |
CN109872730A (zh) * | 2019-03-14 | 2019-06-11 | 广州飞傲电子科技有限公司 | 音频数据的失真补偿方法、模型建立方法和音频输出设备 |
CN109872730B (zh) * | 2019-03-14 | 2021-01-12 | 广州飞傲电子科技有限公司 | 音频数据的失真补偿方法、模型建立方法和音频输出设备 |
CN110135456A (zh) * | 2019-04-08 | 2019-08-16 | 图麟信息科技(上海)有限公司 | 一种目标检测模型的训练方法及装置 |
CN110070067B (zh) * | 2019-04-29 | 2021-11-12 | 北京金山云网络技术有限公司 | 视频分类方法及其模型的训练方法、装置和电子设备 |
CN110070067A (zh) * | 2019-04-29 | 2019-07-30 | 北京金山云网络技术有限公司 | 视频分类方法及其模型的训练方法、装置和电子设备 |
CN110119815A (zh) * | 2019-05-21 | 2019-08-13 | 深圳市腾讯网域计算机网络有限公司 | 模型训练方法、装置、存储介质及设备 |
CN112101394B (zh) * | 2019-06-18 | 2024-03-22 | 中国移动通信集团浙江有限公司 | 供应商分域部署方法、装置、计算设备及计算机存储介质 |
CN112101394A (zh) * | 2019-06-18 | 2020-12-18 | 中国移动通信集团浙江有限公司 | 供应商分域部署方法、装置、计算设备及计算机存储介质 |
CN110276413B (zh) * | 2019-06-28 | 2023-10-31 | 深圳前海微众银行股份有限公司 | 一种模型压缩方法及装置 |
CN110276413A (zh) * | 2019-06-28 | 2019-09-24 | 深圳前海微众银行股份有限公司 | 一种模型压缩方法及装置 |
CN110503160A (zh) * | 2019-08-28 | 2019-11-26 | 北京达佳互联信息技术有限公司 | 图像识别方法、装置、电子设备及存储介质 |
CN110795235B (zh) * | 2019-09-25 | 2022-07-19 | 北京邮电大学 | 一种移动web深度学习协作的方法及系统 |
CN110795235A (zh) * | 2019-09-25 | 2020-02-14 | 北京邮电大学 | 一种移动web深度学习协作的方法及系统 |
CN110738403A (zh) * | 2019-09-26 | 2020-01-31 | 联想(北京)有限公司 | 一种数据处理方法、设备及计算机存储介质 |
CN110738403B (zh) * | 2019-09-26 | 2023-11-24 | 联想(北京)有限公司 | 一种数据处理方法、设备及计算机存储介质 |
CN110751267B (zh) * | 2019-09-30 | 2021-03-30 | 京东城市(北京)数字科技有限公司 | 神经网络的结构搜索方法、训练方法、装置及存储介质 |
CN110751267A (zh) * | 2019-09-30 | 2020-02-04 | 京东城市(北京)数字科技有限公司 | 神经网络的结构搜索方法、训练方法、装置及存储介质 |
CN112784953A (zh) * | 2019-11-07 | 2021-05-11 | 佳能株式会社 | 对象识别模型的训练方法及装置 |
CN110931082A (zh) * | 2019-12-12 | 2020-03-27 | 爱尔生基因医学科技有限公司 | 一种用于基因检测评估的方法及系统 |
WO2021120719A1 (zh) * | 2019-12-19 | 2021-06-24 | 华为技术有限公司 | 神经网络模型更新方法、图像处理方法及装置 |
CN111080874A (zh) * | 2019-12-31 | 2020-04-28 | 中国银行股份有限公司 | 基于面部图像的金库安全门的控制方法和装置 |
CN111488985B (zh) * | 2020-04-08 | 2023-11-14 | 华南理工大学 | 深度神经网络模型压缩训练方法、装置、设备、介质 |
CN111488985A (zh) * | 2020-04-08 | 2020-08-04 | 华南理工大学 | 深度神经网络模型压缩训练方法、装置、设备、介质 |
WO2021208343A1 (zh) * | 2020-04-17 | 2021-10-21 | 广西电网有限责任公司电力科学研究院 | 一种基于神经网络模型的喷水减温器喷水调整方法及装置 |
CN111582472A (zh) * | 2020-04-17 | 2020-08-25 | 广西电网有限责任公司电力科学研究院 | 一种基于神经网络模型的喷水减温器喷水调整方法及装置 |
CN111625858B (zh) * | 2020-05-10 | 2023-04-07 | 武汉理工大学 | 一种垂直领域下的智能化多模态数据脱敏方法和装置 |
CN111625858A (zh) * | 2020-05-10 | 2020-09-04 | 武汉理工大学 | 一种垂直领域下的智能化多模态数据脱敏方法和装置 |
CN111680717A (zh) * | 2020-05-12 | 2020-09-18 | 顺德职业技术学院 | 基于深度学习的智能制造生产线上产品分类方法及系统 |
CN113705805A (zh) * | 2020-05-22 | 2021-11-26 | 中国科学技术大学 | 基于状态表示学习的深度强化学习方法及装置 |
CN111814385B (zh) * | 2020-05-28 | 2023-11-17 | 平安科技(深圳)有限公司 | 预测加工件质量的方法、装置和计算机设备 |
CN111860828A (zh) * | 2020-06-15 | 2020-10-30 | 北京仿真中心 | 一种神经网络的训练方法、存储介质和设备 |
CN111860828B (zh) * | 2020-06-15 | 2023-11-28 | 北京仿真中心 | 一种神经网络的训练方法、存储介质和设备 |
CN112036682A (zh) * | 2020-07-10 | 2020-12-04 | 广西电网有限责任公司 | 一种频繁停电的预警方法及装置 |
CN111898145A (zh) * | 2020-07-22 | 2020-11-06 | 苏州浪潮智能科技有限公司 | 一种神经网络模型训练方法、装置、设备及介质 |
CN111898145B (zh) * | 2020-07-22 | 2022-11-25 | 苏州浪潮智能科技有限公司 | 一种神经网络模型训练方法、装置、设备及介质 |
CN112035649A (zh) * | 2020-09-02 | 2020-12-04 | 腾讯科技(深圳)有限公司 | 问答模型处理方法、装置、计算机设备及存储介质 |
CN112035649B (zh) * | 2020-09-02 | 2023-11-17 | 腾讯科技(深圳)有限公司 | 问答模型处理方法、装置、计算机设备及存储介质 |
CN112101437A (zh) * | 2020-09-07 | 2020-12-18 | 平安科技(深圳)有限公司 | 基于图像检测的细粒度分类模型处理方法、及其相关设备 |
WO2021143267A1 (zh) * | 2020-09-07 | 2021-07-22 | 平安科技(深圳)有限公司 | 基于图像检测的细粒度分类模型处理方法、及其相关设备 |
CN112101437B (zh) * | 2020-09-07 | 2024-05-31 | 平安科技(深圳)有限公司 | 基于图像检测的细粒度分类模型处理方法、及其相关设备 |
CN112446490A (zh) * | 2020-11-27 | 2021-03-05 | 苏州浪潮智能科技有限公司 | 一种网络训练的数据集缓存方法、装置、设备及存储介质 |
CN113642708A (zh) * | 2021-08-13 | 2021-11-12 | 北京赛目科技有限公司 | 一种车辆环境等级识别模型的训练方法、识别方法及装置 |
CN113642708B (zh) * | 2021-08-13 | 2024-05-14 | 北京赛目科技有限公司 | 一种车辆环境等级识别模型的训练方法、识别方法及装置 |
CN113743597A (zh) * | 2021-11-03 | 2021-12-03 | 中国科学院精密测量科学与技术创新研究院 | 一种基于无训练深度神经网络的nmr弛豫时间反演方法 |
CN117019883A (zh) * | 2023-08-25 | 2023-11-10 | 华北电力大学(保定) | 一种基于深度学习的带材轧制过程板形预测方法 |
CN117019883B (zh) * | 2023-08-25 | 2024-02-13 | 华北电力大学(保定) | 一种基于深度学习的带材轧制过程板形预测方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108805259A (zh) | 神经网络模型训练方法、装置、存储介质及终端设备 | |
CN111639710B (zh) | 图像识别模型训练方法、装置、设备以及存储介质 | |
Li et al. | Few sample knowledge distillation for efficient network compression | |
Zhou et al. | A comprehensive survey on pretrained foundation models: A history from bert to chatgpt | |
Liu et al. | Learning spatio-temporal representations for action recognition: A genetic programming approach | |
Lu et al. | Detecting anomaly in big data system logs using convolutional neural network | |
Yang et al. | Graph r-cnn for scene graph generation | |
Liu et al. | Incdet: In defense of elastic weight consolidation for incremental object detection | |
CN108733742A (zh) | 全局归一化阅读器系统和方法 | |
CN109766840A (zh) | 人脸表情识别方法、装置、终端及存储介质 | |
CN108846350A (zh) | 容忍年龄变化的人脸识别方法 | |
Chan et al. | ACTRCE: Augmenting Experience via Teacher's Advice For Multi-Goal Reinforcement Learning | |
CN110222171A (zh) | 一种分类模型应用、分类模型训练方法及装置 | |
Li et al. | Skeleton-parted graph scattering networks for 3d human motion prediction | |
CN111400494B (zh) | 一种基于GCN-Attention的情感分析方法 | |
Wang et al. | Repetitive reprediction deep decipher for semi-supervised learning | |
EP3874420A1 (en) | Learning property graph representations edge-by-edge | |
CN112951328B (zh) | 基于深度学习异构信息网络的miRNA-基因关系预测方法及系统 | |
CN112307048B (zh) | 语义匹配模型训练方法、匹配方法、装置、设备及存储介质 | |
CN112016450A (zh) | 机器学习模型的训练方法、装置和电子设备 | |
CN109325513A (zh) | 一种基于海量单类单幅图像的图像分类网络训练方法 | |
Chen et al. | Auxiliary learning with joint task and data scheduling | |
CN114925320B (zh) | 一种数据处理方法及相关装置 | |
Fonseca et al. | Model-agnostic approaches to handling noisy labels when training sound event classifiers | |
Moosavi et al. | Feature selection based on dataset variance optimization using hybrid sine cosine–firehawk algorithm (hscfha) |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20181113 |
|
RJ01 | Rejection of invention patent application after publication |