CN112836721B - 一种图像识别方法及装置、计算机设备、可读存储介质 - Google Patents
一种图像识别方法及装置、计算机设备、可读存储介质 Download PDFInfo
- Publication number
- CN112836721B CN112836721B CN202011493130.5A CN202011493130A CN112836721B CN 112836721 B CN112836721 B CN 112836721B CN 202011493130 A CN202011493130 A CN 202011493130A CN 112836721 B CN112836721 B CN 112836721B
- Authority
- CN
- China
- Prior art keywords
- data
- neural network
- training
- image recognition
- network model
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 79
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 137
- 238000003062 neural network model Methods 0.000 claims abstract description 77
- 238000005457 optimization Methods 0.000 claims abstract description 29
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 20
- 238000012795 verification Methods 0.000 claims description 17
- 238000004590 computer program Methods 0.000 claims description 16
- 238000007781 pre-processing Methods 0.000 claims description 14
- 238000011156 evaluation Methods 0.000 claims description 12
- 238000004088 simulation Methods 0.000 claims description 7
- 230000001502 supplementing effect Effects 0.000 claims description 5
- 230000001537 neural effect Effects 0.000 claims description 4
- 230000000153 supplemental effect Effects 0.000 claims description 4
- 238000013528 artificial neural network Methods 0.000 abstract description 38
- 238000000605 extraction Methods 0.000 abstract description 6
- 238000013507 mapping Methods 0.000 abstract description 6
- 230000008569 process Effects 0.000 description 18
- 238000004891 communication Methods 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 9
- 239000003795 chemical substances by application Substances 0.000 description 8
- 238000012360 testing method Methods 0.000 description 8
- 238000013135 deep learning Methods 0.000 description 6
- 238000010586 diagram Methods 0.000 description 6
- 230000006870 function Effects 0.000 description 6
- 238000013461 design Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000013519 translation Methods 0.000 description 5
- 238000012545 processing Methods 0.000 description 4
- 238000004140 cleaning Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000001514 detection method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 230000002787 reinforcement Effects 0.000 description 3
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000000750 progressive effect Effects 0.000 description 2
- 238000013441 quality evaluation Methods 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 239000007795 chemical reaction product Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000007500 overflow downdraw method Methods 0.000 description 1
- 238000010422 painting Methods 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/004—Artificial life, i.e. computing arrangements simulating life
- G06N3/006—Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种图像识别方法及装置、计算机设备、可读存储介质,所述方法包括:获取图像识别的训练数据;根据所述训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;利用所述收敛的深度神经网络模型对待识别图像进行识别;本发明提供的方法根据生成的、具有良好标签的训练数据集对深度神经网络进行训练,借助深度神经网络对于复杂映射关系的强大的拟合能力,实现对任意给定特征数据的对应标签数据的拟合,形成具备良好标签的监督学习训练数据集,实现群体智能优化算法在图像识别上最佳标签数据的特征的抽取,以及在整个特征空间上泛化,提高图像识别的精度。
Description
技术领域
本发明涉及图片识别领域,更具体的,涉及一种图像识别方法及装置、计算机设备、可读存储介质。
背景技术
近年来,随着人工智能技术的快速发展,数据驱动的手段已逐渐显现出它的威力;通过数据驱动的计算智能手段,计算机已逐渐在多个领域实现性能的飞跃式提升,甚至在一些领域已远超人类水平;其中,得益于互联网、移动互联网时代数据的爆炸性增长,以及高性能计算硬件的飞速发展,深度学习迎来了新一波发展浪潮;当前,依靠强大的算力支撑,借助海量数据驱动的深度神经网络训练,深度学习技术已经在图像识别、目标检测、机器翻译以及词句预测等领域,甚至诸如诗词创作、绘画创作、封面设计等创造性设计领域达到非常高的水平,且在包括图像识别、目标检测与机器翻译等领域技术已经成功实现产品化、商业化。
然而随着学习技术应用领域的不断扩展,一些工程应用的实际问题开始显现,在一定程度上制约了深度学习技术在一些领域的应用,具体而言,众所周知,深度学习是通过如下过程实现识别、预测、翻译等具体任务的。
(1)搭建深度神经网络;
(2)将以多维度特征描述的训练数据传入上述构建的深度神经网络,获得对应的识别、预测、翻译等结果(称为预测数据);
(3)计算预测数据与多维度特征数据所对应的真实标签数据之间的偏差;
(4)通过参数寻优(多采用梯度下降类算法)最小化上述偏差,从而达到对于预测、识别、翻译结果的精准拟合;
(5)在不同于训练数据集的测试数据集上进行深度神经网络性能测试(主要测试泛化能力和精度);
(6)如果训练次数不够或测试集上精度尚可提升,返回(2)。
从上述过程中不难看出,深度学习是一种监督学习,其训练过程严重依赖于良好标记的训练数据,但在具体工程问题中,在一定的问题场景下,这样的训练数据集很难获得,尽管目前已有一些半监督学习方法、以及无监督与监督学习相结合的学习方法,但这些方法依然依赖于一定数量的标记数据,而在有些场景下,精准的标签数据 (用于实现监督训练)是无法给出的,而仅能给出评价性监督,特别是在一些策略拟合性问题上,例如,复杂环境下的最佳通信传输策略的选择问题,在该问题下,深度神经网络需要针对给定的通信环境拟合出该环境下的最佳通信传输策略(如功率、调制类型、调制指数等),事实上,对于一个特定的真实通信环境,即便是人类专家也很难给出最佳的通信传输策略(即标签数据),而仅能对一个给定的通信传输策略进行优劣评价,因此,如果采用深度学习方法进行传输策略拟合,良好标记的训练数据是难以获得的,甚至是没有的,这就导致在类似于上述问题的一些场景下,深度学习技术的应用会显现出一些局限而难于应用,事实上,不仅是深度学习,同为监督学习的其他机器学习算法也面临此类问题。
发明内容
为了解决上述问题中的至少一个,本发明第一方面提供一种图像识别方法,所述方法包括:
S101:获取图像识别的训练数据;
S102:根据所述训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;
S103:利用所述收敛的深度神经网络模型对待识别图像进行识别。
进一步地,所述方法还包括:基于所述训练数据生成特征数据、标签数据和扩展特征数据。
进一步地,所述特征数据可以通过真实系统实际生成或通过仿真系统模拟生成。
进一步地,基于所述训练数据生成标签数据,包括以下步骤:
S201:基于所述训练数据生成特征数据;
S202:对生成的特征数据进行预处理;
S203:基于人类知识划定的搜索边界以及评价指标,对预处理后的特征数据进行搜索,得到标签数据;
S204:利用群体智能优化算法,对所述标签数据寻优,得到最终标签数据。
进一步地,基于所述训练数据生成扩展特征数据,包括:
S301:基于所述训练数据生成特征数据;
S302:对生成的特征数据进行预处理;
S303:基于补充信息对预处理后的特征数据的特征数进行补充,得到扩展特征数据。
进一步地,根据训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型,包括:
S401:将所述扩展特征数据输入至所述深度神经网络模型,所述深度神经网络模型输出为拟合数据;
S402:所述标签数据通过参数寻优得到目标标签数据;
S403:根据目标标签数据和拟合数据得到偏差值,若偏差值高于阈值,则调整预设的神经网络模型参数,直至偏差值低于阈值,输出收敛的神经网络模型;
S404:对所述收敛的神经网络模型的图像识别精度进行验证。
进一步地,对所述收敛的神经网络模型的图像识别精度进行验证,包括:
S501:获取图像识别的验证数据;
S502:将所述验证数据输入至收敛的神经网络模型,所述收敛的神经网络模型输出为图像识别准确率;
S503:根据图像识别的准确率判断收敛神经模型的图像识别精度。
本发明第二方面提供一种图像识别装置,所述装置包括:
数据获取模块,获取图像识别的训练数据;
模型训练模块,根据所述训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;
图像识别模块,利用所述收敛的深度神经网络模型对待识别图像进行识别。
本发明第三方面提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述任一项所述图像识别方法的步骤。
本发明第四方面提供一种计算机可读存储介质,其上存储有计算机程序,该计算机程序被处理器执行时实现上述任一项所述图像识别方法的步骤。
本发明的有益效果
本发明提供一种图像识别方法及装置、计算机设备、可读存储介质,所述方法包括:获取图像识别的训练数据;根据所述训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;利用所述收敛的深度神经网络模型对待识别图像进行识别;本发明提供的方法根据生成的、具有良好标签的训练数据集对深度神经网络进行训练,借助深度神经网络对于复杂映射关系的强大的拟合能力,实现对任意给定特征数据的对应标签数据的拟合,形成具备良好标签的监督学习训练数据集,实现群体智能优化算法在图像识别上最佳标签数据的特征的抽取,以及在整个特征空间上泛化,提高图像识别的精度。
附图说明
为了更清楚地说明本发明实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实例中一种图像识别方法流程示意图之一;
图2为本发明实例中一种训练数据生成标签数据方法流程示意图;
图3为本发明实例中一种训练数据生成扩展特征数据方法流程示意图;
图4为本发明实例中一种深度神经网络模型进行训练方法流程示意图;
图5为本发明实例中一种图像识别精度验证方法流程示意图;
图6为本发明实例中一种图像识别方法流程示意图之二;
图7为本发明实例中一种图像识别装置结构示意图;
图8为本发明实例中一种计算机设备的结构示意图。
具体实施方式
下面将结合本发明实施方式中的附图,对本发明实施方式中的技术方案进行清楚、完整地描述,显然,所描述的实施方式仅仅是本发明一部分实施方式,而不是全部的实施方式。基于本发明中的实施方式,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施方式,都属于本发明保护的范围。
随着深度学习、深度强化学习等智能化手段面临问题复杂性、训练深度神经网络所需数据的体量的日益增长,现有的数据并行模式神经网络分布式训练手段在收敛效率及收敛模型性能上均略显不足。
例如在将神经网络用于图像识别、目标检测等具体任务时,由于深度神经网络要具备较优的泛化能力所需要的数据量是海量的,简单的单机训练不仅耗时长,导致在有限的时间内难以生成满足任务需求的神经网络模型,而且受限于当前普遍采用的基于随机梯度下降方法的反向传播训练方法在单机条件下易于陷入局部最优解的特点,难以保证获取最佳的性能表现。因此,对图像数据进行分割,采用分布式训练的方式已成为业内普遍做法。
然而,当前手段通常采用简单平均网络参数或梯度的方法,而并未经过优化处理,特别是在各个神经网络训练副本的参数或累积梯度如何融合上,缺乏更进一步的细致考虑,导致网络达到收敛的效率仍显不足,存在一定程度的缓慢,且收敛后所得模型精度也仍需提升。
基于此,本发明提出一种图像识别方法,该方法基于群体智能优化的深度神经网络数据并行分布式训练,进一步提升深度神经网络分布式训练效率及性能;本发明的核心是对群体智能优化算法的搜索能力与深度神经网络拟合能力的融合,实现基于评价监督的监督学习,最终将监督学习技术应用领域扩展至仅有评价监督的应用问题领域。
本发明第一方面提高一种图像识别方法,方法包括:
S101:获取图像识别的训练数据;
具体的,训练数据可以是系统生成的,也可以是服务器接收得到。
S102:根据训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;
具体的,基于群体智能优化的训练数据生成旨在针对给定的训练特征数据,以基于人类知识划定的搜索边界以及评价指标为基础,借助群体智能优化算法对当前训练特征数据对应的最佳标签数据进行搜索寻优,并将最终寻优获得的最佳标签数据与训练特征数据一并存入监督学习智能体训练数据库,用于后续基于生成数据的监督学习智能体(深度神经网络模型)的训练。
需要说明的是,由于需要获取最佳标签数据,因此群体智能优化算法需选取能够保证收敛于全局最优的算法,或者至少保证具备跳出局部最优限制的能力,以保证针对给定训练特征书所得标签数据最优性;为保证最佳标签数据的有效搜索,生成的训练特征数据需经过预处理,以实现对生成数据的适当清洗,剔除脏数据对寻优的影响;由于搜索边界及评价指标在很大程度上将影响标签数据寻优效果,因此需要针对具体问题由专业人员进行设计。
S103:利用收敛的深度神经网络模型对待识别图像进行识别。
本发明提供的方法根据生成的、具有良好标签的训练数据集对深度神经网络进行训练,借助深度神经网络对于复杂映射关系的强大的拟合能力,实现对任意给定特征数据的对应标签数据的拟合,形成具备良好标签的监督学习训练数据集,实现群体智能优化算法在图像识别上最佳标签数据的特征的抽取,以及在整个特征空间上泛化,提高图像识别的精度。
进一步地,图像识别方法还包括:基于训练数据生成特征数据、标签数据和扩展特征数据。
下面结合具体实例对基于训练数据生成特征数据、标签数据和扩展特征数据进行说明。
在具体实施例中,特征数据可以通过真实系统实际生成或通过仿真系统模拟生成。
具体的,为支持后续深度神经网络的有效训练,需生成海量的训练特征数据样本,并在后续过程中针对生成的样本进行标签数据寻优,该生成过程可以是基于真实系统实际产生,也可以是通过仿真系统模拟产生,举例而言,针对一条样本数据,通过基于人类知识划定搜索边界以及标签数据优劣评价的群体智能优化搜索,得到最佳标签数据,最终,通过不同场景下多轮次寻优形成深度强化学习智能体(深度神经网络模型)训练数据集。
请参阅图2,基于训练数据生成标签数据,包括以下步骤:
S201:基于训练数据生成特征数据;
S202:对生成的特征数据进行预处理;
S203:基于人类知识划定的搜索边界以及评价指标,对预处理后的特征数据进行搜索,得到标签数据;
S204:利用群体智能优化算法,对标签数据寻优,得到最终标签数据。
具体的,为保证最佳标签数据的有效搜索,生成的训练特征数据需经过预处理,以实现对生成数据的适当清洗,剔除脏数据对寻优的影响,特别是针对真实系统产生的数据,具体而言,该预处理过程主要包括数据补全、数据降噪、数据对齐等操作。
对于预处理后的特征数据,在基于人类知识划定搜索边界中,完成给定评价指标意义下的最佳数据标签搜索,搜索主要通过群体智能优化程序及参数调优实现,考虑到训练特征数据集规模庞大的特点,所采用的群体智能优化算法需满足两个方面的要求:一方面需具备并行搜索能力,即借助于高性能计算系统快速并行搜索并收敛;另一方面需具备收敛到全局最优的理论保障,保障最佳标签数据的获取;最终,搜索得到的标签数据和特征数据一并存入监督学习智能体(深度神经网络模型)训练数据库。
请参阅图3,基于训练数据生成扩展特征数据,包括:
S301:基于训练数据生成特征数据;
S302:对生成的特征数据进行预处理;
S303:基于补充信息对预处理后的特征数据的特征数进行补充,得到扩展特征数据。
具体的,该过程的特征数据预处理除了需完成数据的补全、降噪以及对齐,还需对数据进行平滑聚集、规范化、数据域变换等处理,从而将数据调整为更适应于深度神经网络训练的形式;再利用补充信息对预处理后的特征数据的特征数进行补充,得到扩展特征数据,扩展特征数据通过获取当前特征数据描述场景下的补充信息,使深度神经网络能够基于更丰富的数据特征进行最佳标签数据拟合。
请参阅图4,根据训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型,包括:
S401:将扩展特征数据输入至深度神经网络模型,深度神经网络模型输出为拟合数据,
S402:标签数据通过参数寻优得到目标标签数据,
S403:根据目标标签数据和拟合数据得到偏差值,若偏差值高于阈值,则调整预设的神经网络模型参数,直至偏差值低于阈值,输出收敛的神经网络模型;
S404:对收敛的神经网络模型的图像识别精度进行验证。
具体的,首先搭建深度神经网络模型;将以多维度特征描述的训练数据输入至已构建的深度神经网络模型,获得对应的预测数据(拟合数据);计算预测数据(拟合数据)与多维度特征数据所对应的真实标签数据(目标标签数据)之间的偏差(偏差值);通过参数寻优(多采用梯度下降类算法)将偏差(偏差值)最小化,输出收敛的神经网络模型,从而达到对于预测、识别结果的精准拟合。
请参阅图5,在具体实施例中,本发明提供的方法还包括:
S501:获取图像识别的验证数据;
S502:将验证数据输入至收敛的神经网络模型,收敛的神经网络模型输出为图像识别准确率;
S503:根据图像识别的准确率判断收敛神经模型的图像识别精度。
具体的,在图像识别任务场景下,考虑采用10个节点进行分布式并行训练,记 10个节点当前步在其训练数据上算得的梯度分别为g1,g2,…,g10,以考虑采用线性融合方法为例(但不限于线性方法),则融合梯度为
其中wi为待优化参数,基于一套待优化参数wi对图像识别任务的深度神经网络进行训练,待模型收敛后,在验证数据集(数据集在最开始分割为训练数据集、测试数据集和验证数据集三个部分)进行验证,得到当前模型的识别准确率,该识别准确率即为当前图像识别任务下,当前待优化参数取值所对应的适应度函数值,基于该评估过程,采用群体智能优化方法对待优化参数进行寻优,可得面向当前图像识别任务的最佳的梯度融合函数。
需要说明的是,在验证数据集上进行深度神经网络性能测试(主要测试泛化能力和精度),如果训练次数不够或验证数据集精度不满足要求,则重新用特征数据对深度神经网络模型进行训练,直至深度神经网络模型能够满足验证数据集的精度需求。
下面结合附图于具体实例,对本发明提供的方法进行说明。
请参阅图6,本发明的实施整体上包括两个步骤,其中,第一步是整个方案的关键步骤,其所产生的标签数据性能的优劣将直接影响收敛的深度神经网络性能的好坏;而第二步是第一步的扩展与泛化,是第一步所能达到能力的提升,下面对上述两个步骤的细化实施进行介绍。
第一步、基于群体智能优化的训练数据生成
该步骤主要完成用于监督学习智能体训练的数据生成,特别是有效的、最佳的标签数据的生成。该过程的实施可进一步分为如下子步骤。
(1)训练特征数据生成
为支持后续深度神经网络的有效训练,需生成海量的训练特征数据样本,并在后续过程中针对生成的样本进行标签数据寻优,具体而言,该生成过程可以是基于真实系统实际产生,也可以是通过仿真系统模拟产生,针对一条样本数据,通过基于人类知识划定搜索边界以及标签数据优劣评价的群体智能优化搜索,得到最佳标签数据,最终,通过不同场景下多轮次寻优形成深度强化学习智能体训练数据集。
(2)特征数据预处理
为保证最佳标签数据的有效搜索,生成的训练特征数据需经过预处理,以实现对生成数据的适当清洗,剔除脏数据对寻优的影响,特别是针对真实系统产生的数据,具体而言,该预处理过程主要包括数据补全、数据降噪、数据对齐等操作。
(3)群体智能算法设计及标签数据寻优
该子步骤是本步骤的核心,其基于给定的训练特征数据,在基于人类知识划定搜索边界中,完成给定评价指标意义下的最佳数据标签搜索,该子步骤主要涉及群体智能优化程序编写及参数调优,考虑到训练特征数据集规模庞大的特点,所采用的群体智能优化算法需满足两个方面的要求:一方面需具备并行搜索能力,即借助于高性能计算系统快速并行搜索并收敛;另一方面需具备收敛到全局最优的理论保障,保障最佳标签数据的获取,最终,搜索得到的标签数据于训练特征数据一并入库。
第二步、基于生成数据的监督学习智能体训练
该步骤主要完成监督学习智能体训练,其过程主要是基于监督学习智能体训练数据库中上一步骤生成的训练数据对深度神经网络进行训练,具体包括如下子步骤。
(1)特征数据预处理
该子步骤主要完成训练特征数据的预处理,以便将其传入深度神经网络进行网络参数训练并达到较优效果。该过程与上一步中的特征数据预处理有所不同,除需完成数据的补全、降噪以及对齐,还需对数据进行平滑聚集、规范化、数据域变换等处理,从而将数据调整为更适应于深度神经网络训练的形式。
(2)数据特征扩展
该子步骤主要是基于补充信息对训练特征数据的特征数进行补充,通过获取当前特征数据描述场景下的补充信息,使深度神经网络能够基于更丰富的数据特征进行最佳标签数据拟合。
(3)深度神经网络设计及训练
该子步骤是此步骤的核心,其过程于当前主流的监督学习训练过程基本相同,即通过参数寻优(多采用梯度下降类算法)最小化标签数据与拟合数据间的偏差,从而达到对于标签数据的精准拟合;通过在不同于训练数据集的测试数据集上测试,评估深度神经网络的泛化能力和精度。
请参阅图7,本发明第二方面提供一种图像识别装置,装置包括:
数据获取模块701,获取图像识别的训练数据;
模型训练模块702,根据训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;
图像识别模块703,利用收敛的深度神经网络模型对待识别图像进行识别。
本发明提供的装置通过生成的、具有良好标签的训练数据集对深度神经网络进行训练,借助深度神经网络对于复杂映射关系的强大的拟合能力,实现对任意给定特征数据的对应标签数据的拟合,形成具备良好标签的监督学习训练数据集,实现群体智能优化算法在图像识别上最佳标签数据的特征的抽取,以及在整个特征空间上泛化,提高图像识别的精度。
进一步地,装置还包括训练特征数据生成模块,基于训练数据生成特征数据、标签数据和扩展特征数据。
进一步地,模型训练模块包括:
拟合数据单元,将扩展特征数据输入至深度神经网络模型,深度神经网络模型输出为拟合数据,
目标标签数据单元,标签数据通过参数寻优得到目标标签数据,
偏差值判断单元,神经网络模型根据目标标签数据和拟合数据得到偏差值,若偏差值高于阈值,则调整预设的神经网络模型参数,直至偏差值低于阈值,输出收敛的神经网络模型;
图像识别验证单元,对收敛的神经网络模型的图像识别精度进行验证。
进一步地,图像识别验证单元,包括:
验证数据子单元,获取图像识别的验证数据;
图像识别准确率子单元,将验证数据输入至收敛的神经网络模型,收敛的神经网络模型输出为图像识别准确率;
图像识别精度子单元,根据图像识别的准确率判断收敛神经模型的图像识别精度。
本发明的实施方式还提供能够实现上述实施方式中的图像识别方法中全部步骤的一种电子设备的具体实施方式,参见图8,电子设备具体包括如下内容:
处理器(processor)801、存储器(memory)802、通信接口(CommunicationsInterface)803和总线804;其中,处理器801、存储器802、通信接口803通过总线804完成相互间的通信;通信接口803用于实现装置、客户终端、缺陷监测设备以及其他参与机构之间的信息传输;
处理器801用于调用存储器802中的计算机程序,处理器执行计算机程序时实现上述实施方式中的图像识别方法中的全部步骤,例如,处理器执行计算机程序时实现下述步骤:
S101:获取图像识别的训练数据;
S102:根据训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;
S103:利用收敛的深度神经网络模型对待识别图像进行识别。
从上述描述可知,本发明提供的电子设备,通过生成的、具有良好标签的训练数据集对深度神经网络进行训练,借助深度神经网络对于复杂映射关系的强大的拟合能力,实现对任意给定特征数据的对应标签数据的拟合,形成具备良好标签的监督学习训练数据集,实现群体智能优化算法在图像识别上最佳标签数据的特征的抽取,以及在整个特征空间上泛化,提高图像识别的精度。
本发明的实施方式还提供能够实现上述实施方式中的图像识别方法中全部步骤的一种计算机可读存储介质,计算机可读存储介质上存储有计算机程序,该计算机程序被处理器执行时实现上述实施方式中的图像识别方法的全部步骤,例如,处理器执行计算机程序时实现下述步骤:
S101:获取图像识别的训练数据;
S102:根据训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;
S103:利用收敛的深度神经网络模型对待识别图像进行识别。
从上述描述可知,本发明提供的计算机可读存储介质,通过生成的、具有良好标签的训练数据集对深度神经网络进行训练,借助深度神经网络对于复杂映射关系的强大的拟合能力,实现对任意给定特征数据的对应标签数据的拟合,形成具备良好标签的监督学习训练数据集,实现群体智能优化算法在图像识别上最佳标签数据的特征的抽取,以及在整个特征空间上泛化,提高图像识别的精度。
本说明书中的各个实施方式均采用递进的方式描述,各个实施方式之间相同相似的部分互相参见即可,每个实施方式重点说明的都是与其他实施方式的不同之处。尤其,对于硬件+程序类实施方式而言,由于其基本相似于方法实施方式,所以描述的比较简单,相关之处参见方法实施方式的部分说明即可。虽然本说明书实施方式提供了如实施方式或流程图所述的方法操作步骤,但基于常规或者无创造性的手段可以包括更多或者更少的操作步骤。实施方式中列举的步骤顺序仅仅为众多步骤执行顺序中的一种方式,不代表唯一的执行顺序。在实际中的装置或终端产品执行时,可以按照实施方式或者附图所示的方法顺序执行或者并行执行(例如并行处理器或者多线程处理的环境,甚至为分布式数据处理环境)。术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、产品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、产品或者设备所固有的要素。在没有更多限制的情况下,并不排除在包括所述要素的过程、方法、产品或者设备中还存在另外的相同或等同要素。为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本说明书实施方式时可以把各模块的功能在同一个或多个软件和/或硬件中实现,也可以将实现同一功能的模块由多个子模块或子单元的组合实现等。以上所描述的装置实施方式仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。本发明是参照根据本发明实施方式的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。本领域技术人员应明白,本说明书的实施方式可提供为方法、系统或计算机程序产品。因此,本说明书实施方式可采用完全硬件实施方式、完全软件实施方式或结合软件和硬件方面的实施方式的形式。而且,本说明书实施方式可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。本说明书中的各个实施方式均采用递进的方式描述,各个实施方式之间相同相似的部分互相参见即可,每个实施方式重点说明的都是与其他实施方式的不同之处。尤其,对于系统实施方式而言,由于其基本相似于方法实施方式,所以描述的比较简单,相关之处参见方法实施方式的部分说明即可。在本说明书的描述中,参考术语“一个实施方式”、“一些实施方式”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施方式或示例描述的具体特征、结构、材料或者特点包含于本说明书实施方式的至少一个实施方式或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施方式或示例。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施方式或示例以及不同实施方式或示例的特征进行结合和组合。以上所述仅为本说明书实施方式的实施方式而已,并不用于限制本说明书实施方式。对于本领域技术人员来说,本说明书实施方式可以有各种更改和变化。凡在本说明书实施方式的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书实施方式的权利要求范围之内。
Claims (6)
1.一种图像识别方法,其特征在于,所述方法包括:
获取图像识别的训练数据;
根据所述训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;
利用所述收敛的深度神经网络模型对待识别图像进行识别;
基于所述训练数据生成特征数据、标签数据和扩展特征数据;
所述特征数据通过真实系统实际生成或通过仿真系统模拟生成;
基于所述训练数据生成标签数据,包括以下步骤:
基于所述训练数据生成特征数据;
对生成的特征数据进行预处理;
基于划定的搜索边界以及评价指标,对预处理后的特征数据进行搜索,得到标签数据;
利用群体智能优化算法,对所述标签数据寻优,得到最终标签数据;
基于所述训练数据生成扩展特征数据,包括:
基于所述训练数据生成特征数据;
对生成的特征数据进行预处理;
基于补充信息对预处理后的特征数据的特征数进行补充,得到扩展特征数据。
2.根据权利要求1所述的方法,其特征在于,根据训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型,包括:
将所述扩展特征数据输入至所述深度神经网络模型,所述深度神经网络模型输出为拟合数据;
所述标签数据通过参数寻优得到目标标签数据;
根据目标标签数据和拟合数据得到偏差值,若偏差值高于阈值,则调整预设的神经网络模型参数,直至偏差值低于阈值,输出收敛的神经网络模型;
对所述收敛的神经网络模型的图像识别精度进行验证。
3.根据权利要求2所述的方法,其特征在于,对所述收敛的神经网络模型的图像识别精度进行验证,包括:
获取图像识别的验证数据;
将所述验证数据输入至收敛的神经网络模型,所述收敛的神经网络模型输出为图像识别准确率;
根据图像识别的准确率判断收敛神经模型的图像识别精度。
4.一种图像识别装置,其特征在于,所述装置包括:
数据获取模块,获取图像识别的训练数据;
模型训练模块,根据所述训练数据对预设的深度神经网络模型进行训练,得到收敛的深度神经网络模型;
图像识别模块,利用所述收敛的深度神经网络模型对待识别图像进行识别;
基于所述训练数据生成特征数据、标签数据和扩展特征数据;
所述特征数据通过真实系统实际生成或通过仿真系统模拟生成;
基于所述训练数据生成标签数据,包括以下步骤:
基于所述训练数据生成特征数据;
对生成的特征数据进行预处理;
基于划定的搜索边界以及评价指标,对预处理后的特征数据进行搜索,得到标签数据;
利用群体智能优化算法,对所述标签数据寻优,得到最终标签数据;
基于所述训练数据生成扩展特征数据,包括:
基于所述训练数据生成特征数据;
对生成的特征数据进行预处理;
基于补充信息对预处理后的特征数据的特征数进行补充,得到扩展特征数据。
5.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现权利要求1至3任一项所述图像识别方法的步骤。
6.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至3任一项所述图像识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011493130.5A CN112836721B (zh) | 2020-12-17 | 2020-12-17 | 一种图像识别方法及装置、计算机设备、可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011493130.5A CN112836721B (zh) | 2020-12-17 | 2020-12-17 | 一种图像识别方法及装置、计算机设备、可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112836721A CN112836721A (zh) | 2021-05-25 |
CN112836721B true CN112836721B (zh) | 2024-03-22 |
Family
ID=75923652
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011493130.5A Active CN112836721B (zh) | 2020-12-17 | 2020-12-17 | 一种图像识别方法及装置、计算机设备、可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112836721B (zh) |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108446676A (zh) * | 2018-05-03 | 2018-08-24 | 南京信息工程大学 | 基于有序编码及多层随机投影的人脸图像年龄判别方法 |
CN108510050A (zh) * | 2018-03-28 | 2018-09-07 | 天津大学 | 一种基于混洗蛙跳的特征选择方法 |
CN108805907A (zh) * | 2018-06-05 | 2018-11-13 | 中南大学 | 一种行人姿势多特征智能辨识方法 |
CN110246134A (zh) * | 2019-06-24 | 2019-09-17 | 株洲时代电子技术有限公司 | 一种钢轨伤损分类装置 |
CN110824954A (zh) * | 2019-10-24 | 2020-02-21 | 北京仿真中心 | 智能体训练方法及系统、计算机设备、可读存储介质 |
CN111860828A (zh) * | 2020-06-15 | 2020-10-30 | 北京仿真中心 | 一种神经网络的训练方法、存储介质和设备 |
WO2020223798A1 (en) * | 2019-05-03 | 2020-11-12 | Huron Technologies International Inc. | Image diagnostic system, and methods of operating thereof |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180240031A1 (en) * | 2017-02-17 | 2018-08-23 | Twitter, Inc. | Active learning system |
-
2020
- 2020-12-17 CN CN202011493130.5A patent/CN112836721B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108510050A (zh) * | 2018-03-28 | 2018-09-07 | 天津大学 | 一种基于混洗蛙跳的特征选择方法 |
CN108446676A (zh) * | 2018-05-03 | 2018-08-24 | 南京信息工程大学 | 基于有序编码及多层随机投影的人脸图像年龄判别方法 |
CN108805907A (zh) * | 2018-06-05 | 2018-11-13 | 中南大学 | 一种行人姿势多特征智能辨识方法 |
WO2020223798A1 (en) * | 2019-05-03 | 2020-11-12 | Huron Technologies International Inc. | Image diagnostic system, and methods of operating thereof |
CN110246134A (zh) * | 2019-06-24 | 2019-09-17 | 株洲时代电子技术有限公司 | 一种钢轨伤损分类装置 |
CN110824954A (zh) * | 2019-10-24 | 2020-02-21 | 北京仿真中心 | 智能体训练方法及系统、计算机设备、可读存储介质 |
CN111860828A (zh) * | 2020-06-15 | 2020-10-30 | 北京仿真中心 | 一种神经网络的训练方法、存储介质和设备 |
Non-Patent Citations (5)
Title |
---|
Multi-Label Image Recognition by Recurrently Discovering Attentional Regions;Zhouxia Wang等;《Proceedings of the IEEE International Conference on Computer Vision》;20171108;464-472 * |
人工鱼群算法在SVM参数优化选择中的应用;高雷阜;赵世杰;高晶;;计算机工程与应用;20130827(23);全文 * |
基于增强蜂群优化算法的特征选择算法;张霞;庞秀平;;计算机应用;20160510(05);全文 * |
智能工业系统智慧云设计技术;李伯虎;林廷宇;贾政轩;施国强;肖莹莹;张迎曦;曾贲;李鹤宇;郭丽琴;;计算机集成制造系统;20191215(12);全文 * |
群体智能优化算法;王辉;钱锋;;化工自动化及仪表;20071010(05);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112836721A (zh) | 2021-05-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110363449B (zh) | 一种风险识别方法、装置及系统 | |
CN111738016B (zh) | 多意图识别方法及相关设备 | |
CN111241851A (zh) | 语义相似度确定方法、装置及处理设备 | |
US20200234144A1 (en) | Generating training datasets for training neural networks | |
CN110609955B (zh) | 一种视频推荐的方法及相关设备 | |
CN112905795A (zh) | 文本意图分类的方法、装置和可读介质 | |
US11423307B2 (en) | Taxonomy construction via graph-based cross-domain knowledge transfer | |
CN111753076A (zh) | 对话方法、装置、电子设备及可读存储介质 | |
CN111625715B (zh) | 信息提取方法、装置、电子设备及存储介质 | |
CN112307048B (zh) | 语义匹配模型训练方法、匹配方法、装置、设备及存储介质 | |
CN112200296A (zh) | 网络模型量化方法、装置、存储介质及电子设备 | |
CN111738010A (zh) | 用于生成语义匹配模型的方法和装置 | |
CN114841164A (zh) | 一种实体链接方法、装置、设备及存储介质 | |
CN114492601A (zh) | 资源分类模型的训练方法、装置、电子设备及存储介质 | |
US11475297B2 (en) | Cross-domain homophily quantification for transfer learning | |
CN116975350A (zh) | 图文检索方法、装置、设备及存储介质 | |
CN111680514B (zh) | 信息处理和模型训练方法、装置、设备及存储介质 | |
CN112836721B (zh) | 一种图像识别方法及装置、计算机设备、可读存储介质 | |
CN113239272B (zh) | 一种网络管控系统的意图预测方法和意图预测装置 | |
CN112926952A (zh) | 结合云计算的大数据办公业务处理方法及大数据服务器 | |
CN111091198A (zh) | 一种数据处理方法及装置 | |
CN111897943A (zh) | 会话记录搜索方法、装置、电子设备及存储介质 | |
CN113837910B (zh) | 试题推荐方法、装置、电子设备和存储介质 | |
CN117151247B (zh) | 机器学习任务建模的方法、装置、计算机设备和存储介质 | |
CN117332090B (zh) | 一种敏感信息识别方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |