CN110555514A - 神经网络模型搜索方法、图像识别方法和装置 - Google Patents

神经网络模型搜索方法、图像识别方法和装置 Download PDF

Info

Publication number
CN110555514A
CN110555514A CN201910767313.2A CN201910767313A CN110555514A CN 110555514 A CN110555514 A CN 110555514A CN 201910767313 A CN201910767313 A CN 201910767313A CN 110555514 A CN110555514 A CN 110555514A
Authority
CN
China
Prior art keywords
neural network
network model
sample data
models
network models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910767313.2A
Other languages
English (en)
Other versions
CN110555514B (zh
Inventor
郭梓超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Maigewei Technology Co Ltd
Original Assignee
Beijing Maigewei Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Maigewei Technology Co Ltd filed Critical Beijing Maigewei Technology Co Ltd
Priority to CN201910767313.2A priority Critical patent/CN110555514B/zh
Publication of CN110555514A publication Critical patent/CN110555514A/zh
Application granted granted Critical
Publication of CN110555514B publication Critical patent/CN110555514B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Biophysics (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)

Abstract

本申请涉及一种神经网络模型搜索方法、图像识别方法、装置、计算机设备和可读存储介质。该方法包括:获取训练样本数据、测试样本数据以及预设的多个不同结构的初始神经网络模型;根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。采用本方法能够提高神经网络模型的设计效率。

Description

神经网络模型搜索方法、图像识别方法和装置
技术领域
本申请涉及神经网络技术领域,特别是涉及一种神经网络模型搜索方法、图像识别方法、装置、计算机设备和可读存储介质。
背景技术
神经网络模型已被广泛应用于图像处理、语音处理、文本处理等多种领域。以最常用的卷积神经网络为例,近年来不断有性能更优的网络结构被提出,包括但不限于AlexNet、VGG16、Inception、Resnet、Xception等。
针对某项特定任务或数据集,研究人员可以通过手工设计与实验,不断提出性能匹配的卷积神经网络模型。然而,手工设计方法对研究人员的能力和经验要求很高,如果缺乏相关理论指导,往往需要花费研究人员大量时间和精力,才能在某一任务或某一数据集上设计出适用的卷积神经网络模型;并且,模型的设计方式多种多样,而手工设计方法考虑到的模型结构数量十分受限,设计出的模型往往与最优模型准确率等性能相差很大,存在很大的改进空间。
总之,传统的手工设计神经网络模型的方式存在设计效率低等局限性,导致设计出的神经网络模型的性能难以达到最优。
发明内容
基于此,有必要针对上述技术问题,提供一种能够提高神经网络模型的设计效率的神经网络模型搜索方法、图像识别方法、装置、计算机设备和可读存储介质。
第一方面,一种神经网络模型搜索方法,包括:
获取训练样本数据、测试样本数据以及预设的多个不同结构的初始神经网络模型;
根据所述训练样本数据、所述多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对所述测试样本数据进行测试的测试结果,从所述多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。
在其中一个实施例中,所述根据所述训练样本数据、所述多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对所述测试样本数据进行测试的测试结果,从所述多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型,包括:
采用所述训练样本数据对所述多个初始神经网络模型进行训练,得到多个候选神经网络模型;
对所述多个候选神经网络模型执行衍生操作,得到衍生的多个神经网络模型;所述衍生操作包括:根据所述训练样本数据、所述多个候选神经网络模型、预设的多种不同结构的网络层以及依据所述测试样本数据进行测试的测试结果,衍生出测试结果最优的多个神经网络模型;
将所述衍生的多个神经网络模型作为新的所述多个候选神经网络模型,返回执行所述衍生操作,直至满足预设的终止条件为止,并将所述满足预设的终止条件时的神经网络模型确定为所述目标神经网络模型。
在其中一个实施例中,所述根据所述训练样本数据、所述多个候选神经网络模型、预设的多种不同结构的网络层以及依据所述测试样本数据进行测试的测试结果,衍生出测试结果最优的多个神经网络模型,包括:
采用所述测试样本数据对每个候选神经网络模型进行测试,并选取测试结果最优的至少一个候选神经网络模型作为参考神经网络模型;
向所述参考神经网络模型中分别插入预设的不同结构的网络层,得到所述参考神经网络模型衍生的多个初始的神经网络模型;
采用所述训练样本数据对每个初始的神经网络模型进行训练,得到所述衍生的多个神经网络模型。
在其中一个实施例中,所述采用所述训练样本数据对每个初始的神经网络模型进行训练,得到所述衍生的多个神经网络模型,包括:
获取所述参考神经网络模型中各网络层的网络参数;
将所述各网络层的网络参数加载在每个初始的神经网络模型中的相应网络层中,采用所述训练样本数据对加载网络参数后的每个初始的神经网络模型进行微调训练,得到所述衍生的多个神经网络模型。
在其中一个实施例中,所述终止条件为所述参考神经网络模型达到预设的约束上限,所述约束上限包括以下内容中的至少一种:计算量上限、计算耗时上限。
在其中一个实施例中,所述向所述参考神经网络模型中分别插入预设的不同结构的网络层,得到所述参考神经网络模型衍生的多个初始的神经网络模型,包括:
向所述参考神经网络模型中的不同位置分别插入预设的不同结构的网络层,得到所述参考神经网络模型衍生的多个初始的神经网络模型。
在其中一个实施例中,所述根据所述训练样本数据、所述多个候选神经网络模型、预设的多种不同结构的网络层以及依据所述测试样本数据进行测试的测试结果,衍生出测试结果最优的多个神经网络模型,包括:
向每个候选神经网络模型中分别插入预设的不同结构的网络层,得到每个候选神经网络模型衍生的多个初始的神经网络模型;
采用所述训练样本数据对每个初始的神经网络模型进行训练,得到多个神经网络模型;
采用所述测试样本数据对每个神经网络模型进行测试,并选取测试结果最优的多个神经网络模型。
第二方面,一种图像识别方法,包括:
将待处理图像输入目标神经网络模型进行特征提取处理,输出所述待处理图像的图像特征;所述目标神经网络模型为依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取的测试结果最优的至少一个神经网络模型;其中,所述多个神经网络模型是根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层所衍生出的;
根据所述待处理图像的图像特征,对所述待处理图像进行图像识别处理,得到所述待处理图像的图像识别结果。
第三方面,一种神经网络模型搜索装置,包括:
获取模块,用于获取训练样本数据、测试样本数据以及预设的多个不同结构的初始神经网络模型;
搜索模块,用于根据所述训练样本数据、所述多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对所述测试样本数据进行测试的测试结果,从所述多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。
第四方面,一种图像识别装置,包括:
特征提取模块,用于将待处理图像输入目标神经网络模型进行特征提取处理,输出所述待处理图像的图像特征;所述目标神经网络模型为依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取的测试结果最优的至少一个神经网络模型;其中,所述多个神经网络模型是根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层所衍生出的;
图像识别模块,用于根据所述待处理图像的图像特征,对所述待处理图像进行图像识别处理,得到所述待处理图像的图像识别结果。
第五方面,一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现第一方面和/或第二方面中任一项所述方法的步骤。
第六方面,一种可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现第一方面和/或第二方面中任一项所述的方法的步骤。
上述神经网络模型搜索方法、图像识别方法、装置、计算机设备和可读存储介质,计算机设备可以根据预设的多个不同结构的初始神经网络模型+预设的多种不同结构的网络层衍生出多个神经网络模型,并可以基于训练样本数据训练得到模型参数,可以基于测试样本数据测试得到测试结果,因此可以从衍生的多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型,从而避免了手工设计神经网络的局限性,提高了神经网络模型的设计/搜索效率,从大量衍生的神经网路模型中选取的测试结果最优的至少一个神经网络模型的准确率等性能,相比手工设计的神经网络模型往往更优。
附图说明
图1为一个实施例中神经网络模型搜索方法的流程示意图;
图2为一个实施例中神经网络模型搜索方法的流程示意图;
图3为一个实施例中衍生操作的流程示意图;
图4a为一个实施例中神经网络模型搜索方法的示意图之图一;
图4b为一个实施例中神经网络模型搜索方法的示意图之图二;
图5为一个实施例中图像识别方法的流程示意图;
图6为一个实施例中神经网络模型搜索装置的结构框图;
图7为一个实施例中图像识别装置的结构框图;
图8为一个实施例中计算机设备的内部结构图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。
在一个实施例中,如图1所示,提供了一种神经网络模型搜索方法,以该方法应用于计算机设备为例进行说明,计算机设备可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑、服务器等,该方法可以包括以下步骤:
S101,获取训练样本数据、测试样本数据以及预设的多个不同结构的初始神经网络模型。
示例性地,训练样本数据与目标任务相关;例如,目标任务为人脸识别任务时,训练样本数据可以包括多个人脸图像和每个人脸图像的身份标注结果;例如,目标任务为目标对象检测任务时,训练样本数据可以包括多个图像和每个图像中目标对象的位置标注结果;例如目标任务为目标对象分割任务时,训练样本数据可以包括多个图像和每个图像中的目标对象的分割标注结果;当然,本实施例的神经网络模型并不限于上述图像处理,还可以对语音数据进行处理、对文本数据进行处理等等,这里不再赘述。同样地,测试样本数据与训练样本数据类似,这里不再赘述。
其中,预设的多个不同结构的初始神经网络模型可以是能够广泛应用的各种网络框架,包括但不限于VGG(Visual Geometry Group Network,视觉几何组网络),Res Net(残差神经网络),Inception(将1x1、3x3等各个尺寸的卷积特征和池化特征堆叠在一起)、AlexNet(采用了relu激活函数以及dropout随机失活)、Xception(包括一个为每个通道单独执行的空间卷积,以及一个跨通道的1×1卷积)等架构;也可以根据目标任务选取具有针对性的神经网络模型,例如针对图像处理任务的卷积神经网络模型、针对语音识别的循环神经网络模型等;也可以是自定义的神经网络模型。不同结构的初始神经网络模型可以体现在不同网络层数、同一位置的不同网络层、网络层之间的不同连接关系等;不同网络层体现在网络层的类型不同,例如卷积层、激活层、池化层;卷积层也因为分组卷积数目、卷积核个数等,以及采用1×1的卷积、3×3的卷积或深度可分离卷积等而互不相同,池化层也可以是最大池化、平均池化等。需要说明的是,初始神经网络模型层数一般较少,需要在后续不断衍化和优化下加深层数。
S102,根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。
重要的是,在本实施例中,计算机设备可以根据预设的多个初始神经网络模型和预设的多种不同结构的网络层衍生出多个神经网络模型,然后基于训练样本数据可以得到神经网络模型的模型参数,基于测试样本数据可以测试得到神经网络模型的测试结果,从而可以从多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。上述的测试结果包括但不限于:准确率、召回率、误拒绝率、误接受率、计算速度等或者任意组合,具体需要根据目标任务来确定。
其中,预设的多种不同结构的网络层可以是单层网络层,也可以是多层网络层组成的网络块,如卷积块、残差块、Inception块等;单层网络层可以但不限于是卷积层、激活层、池化层、全连接层等不同网络层类型,同一类型的网络层也存在不同。
示例性地,计算机设备可以向每个初始神经网络模型中分别插入预设的不同结构的网络层,得到多个神经网络模型;若预设的不同结构的初始神经网络模型有M种,预设的不同结构的网络层N种,则总共有M×N种搭配组合,即使每个网络层都插入在初始神经网络模型的最后一个网络层之后,则可以衍生出M×N个神经网络模型;而如果考虑到网络层可以插入到初始神经网络模型中的任意一个网络层之前或之后,则可以衍生更多神经网络模型。需要说明的是,上述的示例中,预设的不同结构的网络层可以包括多个不同网络层数的网络块,因此多个初始神经网络模型+预设的不同结构的网络层可以一次性衍生出各种类型、不同深度的神经网络模型。
其中,计算机设备可以采用训练样本数据对衍生的各神经网络模型进行训练,得到各神经网络模型的训练参数,从而可以依据测试样本数据对各神经网络模型进行测试。可选地,初始神经网络模型的模型参数可以是预先训练好并获取的,或者是依据训练样本数据训练得到的;因此基于每个初始神经网络模型衍生得到的神经网络模型可以依据训练样本数据采用参数重载和微调训练的方式训练得到模型参数,从而可以极大地简化计算量;具体参数重载和微调训练可以参照后面的描述,这里不再赘述。
在本实施例的神经网络模型搜索方法中,计算机设备可以根据预设的多个不同结构的初始神经网络模型+预设的多种不同结构的网络层衍生出多个神经网络模型,并可以基于训练样本数据训练得到模型参数,可以基于测试样本数据测试得到测试结果,因此可以从衍生的多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型,从而避免了手工设计神经网络的局限性,提高了神经网络模型的设计/搜索效率,从大量衍生的神经网路模型中选取的测试结果最优的至少一个神经网络模型的准确率等性能,相比手工设计的神经网络模型往往更优。
在一个实施例中,参照图2所示,本实施例涉及根据预设的多个不同结构的初始神经网络模型和预设的多种不同结构的网络层由浅及深地不断增加神经网络模型的深度,由此衍生多个神经网络模型,并从中搜索出目标神经网络模型的过程,具体可以包括:
S201,采用训练样本数据对多个初始神经网络模型进行训练,得到多个候选神经网络模型。
示例性地,目标任务为人脸识别任务时,计算机设备可以将训练样本数据中的人脸图像输入初始神经网络模型,输出人脸图像的预测结果,然后计算人脸图像的预测结果与身份标注结果之间的损失,并根据该损失对初始神经网络模型中的模型参数进行调整,得到训练后的候选神经网络模型。其中,因为本实施例中主要涉及神经网络模型的结构搜索,因此模型训练的截止条件可以非常宽松,例如训练截止条件为epoch(迭代次数,使用全部的训练样本数据训练一次)达到预设迭代次数,预设迭代次数可以较小,例如20、30等。但是,同一批的神经网络模型的训练截止条件一致,如此可以较为准确地根据测试结果评价各神经网络模型。
S202,对多个候选神经网络模型执行衍生操作,得到衍生的多个神经网络模型;衍生操作包括:根据训练样本数据、多个候选神经网络模型、预设的多种不同结构的网络层以及依据测试样本数据进行测试的测试结果,衍生出测试结果最优的多个神经网络模型。
在一种实施方式中,上述衍生操作可以包括:向每个候选神经网络模型中分别插入预设的不同结构的网络层,得到每个候选神经网络模型衍生的多个初始的神经网络模型;采用训练样本数据对每个初始的神经网络模型进行训练,得到多个神经网络模型;采用测试样本数据对每个神经网络模型进行测试,并选取测试结果最优的多个神经网络模型。
S203,判断是否满足预设的终止条件,若否,则执行S204;若是,则执行S205。
其中,预设的终止条件包括但不限于:衍生操作的操作次数达到预设的操作阈值、衍生的多个神经网络模型的最大网络深度达到预设的深度阈值、衍生的多个神经网络模型中存在神经网络模型达到预设的约束上限,以及任意组合;其中,预设的约束上限包括以下内容中的至少一种:计算量上限、计算耗时上限。
S204,将衍生的多个神经网络模型作为新的多个候选神经网络模型,返回执行S202。
S205,将满足预设的终止条件时的神经网络模型确定为目标神经网络模型。
示例性地,计算机设备可以将满足预设的终止条件时最后一步执行衍生操作的多个神经网络模型,作为目标神经网络模型,或者从多个神经网络模型中选取测试结果最优的一个神经网络模型作为目标神经网络模型。
可以理解的是,通过执行衍生操作,计算机设备可以将预设的多个初始神经网络模型作为父本,结合预设的多种不同结构的网络层衍生并筛选出多个测试结果最优的第一批神经网络模型,然后将第一批神经网络模型作为父本,结合预设的多种不同结构的网络层衍生并筛选出多个测试结果最优的第二批神经网络模型,如此,通过不断的执行衍生操作,可以不断提高神经网络模型的深度,且在提高深度的过程中以同一批中测试结果的最优的神经网络模型作为下一批神经网络模型的父本,因为一般随着深度的提高神经网络模型的准确率等测试结果会随之提高,因此本实施例这样由浅及深地搜索方法,可以高效地从大量待选的神经网络模型中搜索出准确率等测试结果较优的神经网络模型。
参照图3所示,在一种实施方式中,上述S202中的衍生操作可以包括:
S301,采用测试样本数据对每个候选神经网络模型进行测试,并选取测试结果最优的至少一个候选神经网络模型作为参考神经网络模型。
S302,向参考神经网络模型中分别插入预设的不同结构的网络层,得到参考神经网络模型衍生的多个初始的神经网络模型。
其中,计算机设备可以向参考神经网络模型中的预设位置分别插入预设的不同结构的网络层,得到参考神经网络模型衍生的多个初始的神经网络模型,预设位置可以是参考神经网络模型中最后的网络层之后,也可以是参考神经网络模型中起始的网络层之前,或者是中间的其它位置,本实施例对此并不限制。当然,也可以是向参考神经网络模型中的不同位置分别插入预设的不同结构的网络层,得到参考神经网络模型衍生的多个初始的神经网络模型,其中不同位置参照上述预设位置。示例性地,参考神经网络模型共有L层,则存在L+1种不同位置。
S303,采用训练样本数据对每个初始的神经网络模型进行训练,得到衍生的多个神经网络模型。
需要说明的是,因为本实施例中初始的神经网络模型是向参考神经网络模型中插入预设的网络层所得到的,因此参考神经网络模型中各网络层的模型参数可以作为初始的神经网络模型中相应网络层的初始的模型参数,因此,计算机设备可以获取参考神经网络模型中各网络层的网络参数;将各网络层的网络参数加载在每个初始的神经网络模型中的相应网络层中,采用训练样本数据对加载网络参数后的每个初始的神经网络模型进行微调训练,得到衍生的多个神经网络模型。可以理解的是,这样的权重重载和微调训练的方式,可以加快模型在训练时的收敛速度,减少模型训练的计算量和所需的资源,提高训练效率,有助于更快得到神经网络模型,进而更快得到神经网络模型的测试结果,从而提高整体的神经网络模型的搜索效率。
当然,计算机设备也可以采用常规的方式对每个初始的神经网络模型进行训练,即各初始的神经网络模型中相应网络层的初始的模型参数可以是经验设置的。
针对本实施例中示例的衍生操作而言,上述的终止条件可以为参考神经网络模型达到预设的约束上限,约束上限包括以下内容中的至少一种:计算量上限、计算耗时上限。例如,计算机设备可以在采用测试样本数据对每个候选神经网络模型进行测试,并选取测试结果最优的至少一个候选神经网络模型作为参考神经网络模型时,获取采用测试样本数据对参考神经网络模型进行测试时的计算量、计算耗时等性能参数,并判断计算量、计算耗时等性能参数是否达到预设的约束上限,若达到,则终止衍生操作,并将参考神经网络模型作为目标神经网络模型;若未达到,则继续衍生操作。其中,神经网络模型的计算量还可以由各带参数网络层的运算量之和得到;带参数网络层的运算量为带参数网络层中激活值的位宽、模型参数值的位宽、运算次数三者的乘积;示例性地,当带参数网络层为卷积层时,运算次数=输入特征的宽度×输入特征的高度×卷积核宽度×卷积核高度×输入通道数×输出通道数÷组数;当带参数网络层为全连接层时,运算次数=输入通道数×输出通道数÷组数;其中,激活值的位宽,表示采用多少位来存储/表示该网络层涉及的运算过程中的中间运算值以及输出值等。
可以理解的是,当对目标神经网络模型的性能参数存在预设的约束上限时,例如为了将目标神经网络模型部署在移动终端等运算资源较少的设备中时,一般会对计算量、计算耗时等性能参数存在约束上限,而在通过不断的执行衍生操作不断提高神经网络模型的深度的过程中,一般随着深度的提高神经网络模型的准确率等性能参数会随之提高,而计算量、计算耗时等性能参数会提高,因此选取在计算量、计算耗时等性能参数达到预设的约束上限时的参考神经网络模型作为目标神经网络模型,可以在满足约束上限的情况下,尽可能地增加神经网络模型的深度,从而尽可能地提高准确率等性能参数。
参照图4a和图4b所示,从另一个角度描述本申请的神经网络模型搜索方法,可以包括:
第一步:设计多个不同结构的初始神经网络模型。在搜索的初始阶段,计算机设备可以初始化多个不同结构的初始神经网络模型,比如n个只有3层的小网络,然后可以依据训练样本数据对这n个小网络进行快速的微调训练(fine-tune)、依据测试样本数据对这n个小网络进行测试,从而可以得到各个小网络的性能,选取性能最优的top-k个模型作为参考神经网络模型,用于下一步进化(k为正整数)。参照图4a所示,假设初始化4个3层的基础小网络,其中不同类型的圆形节点代表不同的网络层,如代表不同的卷积层、池化层,对这个4个小网络都进行快速的fine-tune训练和测试,从而可以得到它们各自的性能,这里选取top-1用于下一步进化,这里假设top-1是(a)模型。
第二步:基于top-k模型衍生出更深层模型。基于现有的top-k个参考神经网络模型,假设top-k个参考神经网络模型中每个模型有m层,通过向每个参考神经网络模型中插入预设的不同结构的单层网络层,可以进化出n个结构不同的(m+1)层的模型,并保证这(m+1)层模型在约束上限之内。在这里,新加的一层可以插入在原有模型的任意地方,插入的网络层同样可以为多种卷积层或池化层中的一种,插入的卷积层的卷积核个数也可以随意设定。需要说明的是,本示例并不限定每一步的模型数量相同。参照图4b所示,这里基于第一步性能最优的(a)模型,衍化出另外4个更深层的模型(a)、(b)、(c)、(d),并且保证这些模型在约束上限之内。
第三步:fine-tune进化出n个(m+1)层模型。在这里,由于(m+1)层的模型都是从m层的参考神经网络模型进化来的,因此m层结构都保留着原来的结构,因此在fine-tune时可以将原来训练的m层的参考神经网络模型的权重加载进来,再进一步对所有层进行fine-tune训练,这样做可以大大加快模型的收敛速度,有助于更快地得到模型的性能评估。在此,同样选出性能最优的top-k个模型作为参考神经网络模型,用于下一步进化。参照图4b所示,这4个4层的模型(a)、(b)、(c)、(d)中,每个模型中4个圆形节点中必然有3个圆形节点的模型参数(权重)是继承第一步中选取的(a)参考神经网络模型的,基于此再进行训练可以大大加快模型收敛速度。
第四步:判断top-k个参考神经网络模型是否已达到约束上限;如果已达到约束上限,如计算量约束上限、计算耗时约束上限或者是计算速度下限,则算法停止,并将top-1的参考神经网络模型作为最终搜索出来的目标神经网络模型;如果未达到约束上限,则重复第二、三、四步直到达到约束上限。
可以理解的是,对于上述任一实施例而言,在搜索到目标神经网络模型后,可以对目标神经网络模型进行再次训练,可以采用更多的训练样本数据、更苛刻的训练截止条件,得到训练好的目标神经网络模型。训练好的目标神经网络模型可以应用于特征提取处理、分类处理、目标对象检测、图像分割、图像配准、图像映射等多种神经网络应用场景,所处理的对象也并不限于图像数据、文本数据、视频数据、音频数据等;针对不同的应用场景,目标神经网络模型的结构有所不同,采用的训练样本数据和测试样本数据有所不同,但是目标神经网络模型均可以基于本申请的神经网络模型搜索方法进行确定,相应地,得到训练好的目标神经网络模型之后,本申请的神经网络模型搜索方法还可以包括:将待处理数据输入目标神经网络模型进行前向运算,输出前向运算结果。可以理解的是,相比于采用人工设计等方式得到的神经网络模型进行前向运算而言,基于本实施例的神经网络模型搜索方法得到的目标神经网络模型,前向运算结果更准确,即预测精度更准确。
参照图5所示,以图像识别处理为例,本申请还提供了一种图像识别方法,具体可以包括:
S501,将待处理图像输入目标神经网络模型进行特征提取处理,输出待处理图像的图像特征;目标神经网络模型为依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取的测试结果最优的至少一个神经网络模型;其中,多个神经网络模型是根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层所衍生出的;
S502,根据待处理图像的图像特征,对待处理图像进行图像识别处理,得到待处理图像的图像识别结果。
以执行主体为计算机设备为例,上述待处理图像可以是计算机设备接收到的其它设备发送的待处理图像,如拍摄装置、其它计算机设备等,也可以是计算机设备本地存储的待处理图像,或者是其它来源的待处理图像;总之,计算机设备需要对从该待处理图像中提取出图像特征,然后基于该图像特征对该待处理图像进行图像识别处理,应用场景可以但不限于是身份认证、刷脸支付、图像相似度比对等图像识别任务的场景。关于目标神经网络模型搜索过程参照之前的描述,这里不再赘述。
其中,图像识别处理可以包括但不限于:图像验证处理(验证多张目标图像是否为同一对象的图像)、图像搜索处理(在多张目标图像中查找与查询图像最相近的图像)和图像聚类(将多张目标图像进行分类);其中,待处理图像可以是目标图像,也可以是查询图像,对象可以包括但不限于:人、花卉、场景、物品等。
以图像验证处理为例,计算机设备可以预先将底库图像输入目标神经网络模型进行特征提取处理,输出底库图像的图像特征;然后将待处理图像的图像特征和底库图像的图像特征进行比对,根据比对结果确定待处理图像和底库图像是否对应同一个对象。示例性地,计算机设备可以分别计算待处理图像的图像特征与底库图像的图像特征之间的相似度,例如待处理图像的图像特征与底库图像的图像特征之间的L1范数、L2范数等;例如,判断相似度是否大于预设相似度阈值,若是,则确定待处理图像与底库图像是同一对象;若否,则确定待处理图像与底库图像不是同一对象。
相比于采用人工设计等方式得到的神经网络模型进行图像识别处理而言,基于本实施例的神经网络模型搜索方法得到的目标神经网络模型,图像识别结果更准确。
应该理解的是,虽然图1-3,5的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,图1-3,5中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
在一个实施例中,如图6所示,提供了一种神经网络模型搜索装置,包括:获取模块61和搜索模块62,其中:
获取模块61,用于获取训练样本数据、测试样本数据以及预设的多个不同结构的初始神经网络模型;
搜索模块62,用于根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。
在一个实施例中,搜索模块62可以包括:
初始训练单元,用于采用训练样本数据对多个初始神经网络模型进行训练,得到多个候选神经网络模型;
衍生操作单元,用于对多个候选神经网络模型执行衍生操作,得到衍生的多个神经网络模型;衍生操作包括:根据训练样本数据、多个候选神经网络模型、预设的多种不同结构的网络层以及依据测试样本数据进行测试的测试结果,衍生出测试结果最优的多个神经网络模型;
搜索控制单元,用于将衍生的多个神经网络模型作为新的多个候选神经网络模型,返回执行衍生操作,直至满足预设的终止条件为止,并将满足预设的终止条件时的神经网络模型确定为目标神经网络模型。
在一个实施例中,衍生操作单元可以具体用于采用测试样本数据对每个候选神经网络模型进行测试,并选取测试结果最优的至少一个候选神经网络模型作为参考神经网络模型;向参考神经网络模型中分别插入预设的不同结构的网络层,得到参考神经网络模型衍生的多个初始的神经网络模型;采用训练样本数据对每个初始的神经网络模型进行训练,得到衍生的多个神经网络模型。
在一个实施例中,衍生操作单元还可以用于获取参考神经网络模型中各网络层的网络参数;将各网络层的网络参数加载在每个初始的神经网络模型中的相应网络层中,采用训练样本数据对加载网络参数后的每个初始的神经网络模型进行微调训练,得到衍生的多个神经网络模型。
在一个实施例中,终止条件可以为参考神经网络模型达到预设的约束上限,约束上限包括以下内容中的至少一种:计算量上限、计算耗时上限。
在一个实施例中,衍生操作单元还可以用于向参考神经网络模型中的不同位置分别插入预设的不同结构的网络层,得到参考神经网络模型衍生的多个初始的神经网络模型。
在一个实施例中,衍生操作单元可以具体用于向每个候选神经网络模型中分别插入预设的不同结构的网络层,得到每个候选神经网络模型衍生的多个初始的神经网络模型;采用训练样本数据对每个初始的神经网络模型进行训练,得到多个神经网络模型;采用测试样本数据对每个神经网络模型进行测试,并选取测试结果最优的多个神经网络模型。
在一个实施例中,如图7所示,提供了一种图像识别装置,包括:特征提取模块71和图像识别模块72,其中:
特征提取模块71,用于将待处理图像输入目标神经网络模型进行特征提取处理,输出待处理图像的图像特征;目标神经网络模型为依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取的测试结果最优的至少一个神经网络模型;其中,多个神经网络模型是根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层所衍生出的;
图像识别模块72,用于根据待处理图像的图像特征,对待处理图像进行图像识别处理,得到待处理图像的图像识别结果。
关于神经网络模型搜索装置的具体限定可以参见上文中对于神经网络模型搜索方法的限定,关于图像识别装置的具体限定可以参见上文中对于图像识别方法的限定,在此不再赘述。上述神经网络模型搜索装置、图像识别装置中的各个模块可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
在一个实施例中,提供了一种计算机设备,该计算机设备可以是终端,其内部结构图可以如图8所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口、显示屏和输入装置。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统和计算机程序。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的网络接口用于与外部的终端通过网络连接通信。该计算机程序被处理器执行时以实现一种神经网络模型搜索方法和/或图像识别方法。该计算机设备的显示屏可以是液晶显示屏或者电子墨水显示屏,该计算机设备的输入装置可以是显示屏上覆盖的触摸层,也可以是计算机设备外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。
本领域技术人员可以理解,图8中示出的结构,仅仅是与本申请方案相关的部分结构的框图,并不构成对本申请方案所应用于其上的计算机设备的限定,具体的计算机设备可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
在一个实施例中,提供了一种计算机设备,包括存储器和处理器,存储器中存储有计算机程序,该处理器执行计算机程序时一方面实现以下步骤:
获取训练样本数据、测试样本数据以及预设的多个不同结构的初始神经网络模型;
根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。
另一方面可以实现以下步骤:
将待处理图像输入目标神经网络模型进行特征提取处理,输出待处理图像的图像特征;目标神经网络模型为依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取的测试结果最优的至少一个神经网络模型;其中,多个神经网络模型是根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层所衍生出的;
根据待处理图像的图像特征,对待处理图像进行图像识别处理,得到待处理图像的图像识别结果。
在一个实施例中,提供了一种可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时一方面实现以下步骤:
获取训练样本数据、测试样本数据以及预设的多个不同结构的初始神经网络模型;
根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。
另一方面可以实现以下步骤:
将待处理图像输入目标神经网络模型进行特征提取处理,输出待处理图像的图像特征;目标神经网络模型为依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取的测试结果最优的至少一个神经网络模型;其中,多个神经网络模型是根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层所衍生出的;
根据待处理图像的图像特征,对待处理图像进行图像识别处理,得到待处理图像的图像识别结果。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求为准。

Claims (12)

1.一种神经网络模型搜索方法,其特征在于,包括:
获取训练样本数据、测试样本数据以及预设的多个不同结构的初始神经网络模型;
根据所述训练样本数据、所述多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对所述测试样本数据进行测试的测试结果,从所述多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述根据所述训练样本数据、所述多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对所述测试样本数据进行测试的测试结果,从所述多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型,包括:
采用所述训练样本数据对所述多个初始神经网络模型进行训练,得到多个候选神经网络模型;
对所述多个候选神经网络模型执行衍生操作,得到衍生的多个神经网络模型;所述衍生操作包括:根据所述训练样本数据、所述多个候选神经网络模型、预设的多种不同结构的网络层以及依据所述测试样本数据进行测试的测试结果,衍生出测试结果最优的多个神经网络模型;
将所述衍生的多个神经网络模型作为新的所述多个候选神经网络模型,返回执行所述衍生操作,直至满足预设的终止条件为止,并将所述满足预设的终止条件时的神经网络模型确定为所述目标神经网络模型。
3.根据权利要求2所述的方法,其特征在于,所述根据所述训练样本数据、所述多个候选神经网络模型、预设的多种不同结构的网络层以及依据所述测试样本数据进行测试的测试结果,衍生出测试结果最优的多个神经网络模型,包括:
采用所述测试样本数据对每个候选神经网络模型进行测试,并选取测试结果最优的至少一个候选神经网络模型作为参考神经网络模型;
向所述参考神经网络模型中分别插入预设的不同结构的网络层,得到所述参考神经网络模型衍生的多个初始的神经网络模型;
采用所述训练样本数据对每个初始的神经网络模型进行训练,得到所述衍生的多个神经网络模型。
4.根据权利要求3所述的方法,其特征在于,所述采用所述训练样本数据对每个初始的神经网络模型进行训练,得到所述衍生的多个神经网络模型,包括:
获取所述参考神经网络模型中各网络层的网络参数;
将所述各网络层的网络参数加载在每个初始的神经网络模型中的相应网络层中,采用所述训练样本数据对加载网络参数后的每个初始的神经网络模型进行微调训练,得到所述衍生的多个神经网络模型。
5.根据权利要求3所述的方法,其特征在于,所述终止条件为所述参考神经网络模型达到预设的约束上限,所述约束上限包括以下内容中的至少一种:计算量上限、计算耗时上限。
6.根据权利要求3所述的方法,其特征在于,所述向所述参考神经网络模型中分别插入预设的不同结构的网络层,得到所述参考神经网络模型衍生的多个初始的神经网络模型,包括:
向所述参考神经网络模型中的不同位置分别插入预设的不同结构的网络层,得到所述参考神经网络模型衍生的多个初始的神经网络模型。
7.根据权利要求2所述的方法,其特征在于,所述根据所述训练样本数据、所述多个候选神经网络模型、预设的多种不同结构的网络层以及依据所述测试样本数据进行测试的测试结果,衍生出测试结果最优的多个神经网络模型,包括:
向每个候选神经网络模型中分别插入预设的不同结构的网络层,得到每个候选神经网络模型衍生的多个初始的神经网络模型;
采用所述训练样本数据对每个初始的神经网络模型进行训练,得到多个神经网络模型;
采用所述测试样本数据对每个神经网络模型进行测试,并选取测试结果最优的多个神经网络模型。
8.一种图像识别方法,其特征在于,包括:
将待处理图像输入目标神经网络模型进行特征提取处理,输出所述待处理图像的图像特征;所述目标神经网络模型为依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取的测试结果最优的至少一个神经网络模型;其中,所述多个神经网络模型是根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层所衍生出的;
根据所述待处理图像的图像特征,对所述待处理图像进行图像识别处理,得到所述待处理图像的图像识别结果。
9.一种神经网络模型搜索装置,其特征在于,包括:
获取模块,用于获取训练样本数据、测试样本数据以及预设的多个不同结构的初始神经网络模型;
搜索模块,用于根据所述训练样本数据、所述多个初始神经网络模型和预设的多种不同结构的网络层,衍生出多个神经网络模型,以及依据对所述测试样本数据进行测试的测试结果,从所述多个神经网络模型中选取测试结果最优的至少一个神经网络模型作为目标神经网络模型。
10.一种图像识别装置,其特征在于,包括:
特征提取模块,用于将待处理图像输入目标神经网络模型进行特征提取处理,输出所述待处理图像的图像特征;所述目标神经网络模型为依据对测试样本数据进行测试的测试结果,从多个神经网络模型中选取的测试结果最优的至少一个神经网络模型;其中,所述多个神经网络模型是根据训练样本数据、多个初始神经网络模型和预设的多种不同结构的网络层所衍生出的;
图像识别模块,用于根据所述待处理图像的图像特征,对所述待处理图像进行图像识别处理,得到所述待处理图像的图像识别结果。
11.一种计算机设备,包括存储器和处理器,所述存储器存储有计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至8中任一项所述方法的步骤。
12.一种可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至8中任一项所述的方法的步骤。
CN201910767313.2A 2019-08-20 2019-08-20 神经网络模型搜索方法、图像识别方法和装置 Active CN110555514B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910767313.2A CN110555514B (zh) 2019-08-20 2019-08-20 神经网络模型搜索方法、图像识别方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910767313.2A CN110555514B (zh) 2019-08-20 2019-08-20 神经网络模型搜索方法、图像识别方法和装置

Publications (2)

Publication Number Publication Date
CN110555514A true CN110555514A (zh) 2019-12-10
CN110555514B CN110555514B (zh) 2022-07-12

Family

ID=68737755

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910767313.2A Active CN110555514B (zh) 2019-08-20 2019-08-20 神经网络模型搜索方法、图像识别方法和装置

Country Status (1)

Country Link
CN (1) CN110555514B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112200223A (zh) * 2020-09-22 2021-01-08 北京迈格威科技有限公司 图像识别网络构建方法、装置、设备及介质
CN112598063A (zh) * 2020-12-25 2021-04-02 深圳市商汤科技有限公司 神经网络生成方法及装置、电子设备和存储介质
CN112861951A (zh) * 2021-02-01 2021-05-28 上海依图网络科技有限公司 一种图像神经网络参数的确定方法及电子设备
CN113033770A (zh) * 2021-03-04 2021-06-25 北京字跳网络技术有限公司 神经网络模型的测试方法、装置和电子设备
CN113052195A (zh) * 2019-12-27 2021-06-29 北京国双科技有限公司 测井曲线异常值标注方法、装置、计算机设备和存储介质
WO2021227787A1 (zh) * 2020-05-09 2021-11-18 华为技术有限公司 训练神经网络预测器的方法、图像处理方法及装置
CN113811897A (zh) * 2019-12-30 2021-12-17 深圳元戎启行科技有限公司 神经网络模型的推理方法、装置、计算机设备和存储介质
CN113935470A (zh) * 2021-10-27 2022-01-14 安谋科技(中国)有限公司 神经网络模型的运行方法、介质和电子设备
CN113962970A (zh) * 2021-10-27 2022-01-21 江苏中烟工业有限责任公司 一种基于机械视觉的成品片烟杂物检测方法及装置
CN114298272A (zh) * 2021-12-23 2022-04-08 安谋科技(中国)有限公司 神经网络模型的构建方法、图像处理方法、设备及介质
CN115035324A (zh) * 2022-05-13 2022-09-09 电子科技大学 一种多方位算法模型的自适配方法
CN115374898A (zh) * 2022-08-02 2022-11-22 清华大学 神经网络测试方法、装置、设备及存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108229657A (zh) * 2017-12-25 2018-06-29 杭州健培科技有限公司 一种基于演化算法的深度神经网络训练与优化算法
CN108985386A (zh) * 2018-08-07 2018-12-11 北京旷视科技有限公司 获得图像处理模型的方法、图像处理方法及对应装置
CN109615073A (zh) * 2018-12-03 2019-04-12 郑州云海信息技术有限公司 一种神经网络模型的构建方法、设备以及存储介质
CN109635920A (zh) * 2018-11-12 2019-04-16 北京市商汤科技开发有限公司 神经网络优化方法及装置、电子设备和存储介质
US20190138901A1 (en) * 2017-11-06 2019-05-09 The Royal Institution For The Advancement Of Learning/Mcgill University Techniques for designing artificial neural networks
CN110009048A (zh) * 2019-04-10 2019-07-12 苏州浪潮智能科技有限公司 一种神经网络模型的构建方法以及设备
CN110110611A (zh) * 2019-04-16 2019-08-09 深圳壹账通智能科技有限公司 人像属性模型构建方法、装置、计算机设备和存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190138901A1 (en) * 2017-11-06 2019-05-09 The Royal Institution For The Advancement Of Learning/Mcgill University Techniques for designing artificial neural networks
CN108229657A (zh) * 2017-12-25 2018-06-29 杭州健培科技有限公司 一种基于演化算法的深度神经网络训练与优化算法
CN108985386A (zh) * 2018-08-07 2018-12-11 北京旷视科技有限公司 获得图像处理模型的方法、图像处理方法及对应装置
CN109635920A (zh) * 2018-11-12 2019-04-16 北京市商汤科技开发有限公司 神经网络优化方法及装置、电子设备和存储介质
CN109615073A (zh) * 2018-12-03 2019-04-12 郑州云海信息技术有限公司 一种神经网络模型的构建方法、设备以及存储介质
CN110009048A (zh) * 2019-04-10 2019-07-12 苏州浪潮智能科技有限公司 一种神经网络模型的构建方法以及设备
CN110110611A (zh) * 2019-04-16 2019-08-09 深圳壹账通智能科技有限公司 人像属性模型构建方法、装置、计算机设备和存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘浩然 等: "一种基于改进遗传算法的神经网络优化算法研究", 《仪器仪表学报》 *

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113052195A (zh) * 2019-12-27 2021-06-29 北京国双科技有限公司 测井曲线异常值标注方法、装置、计算机设备和存储介质
CN113811897B (zh) * 2019-12-30 2022-05-31 深圳元戎启行科技有限公司 神经网络模型的推理方法、装置、计算机设备和存储介质
CN113811897A (zh) * 2019-12-30 2021-12-17 深圳元戎启行科技有限公司 神经网络模型的推理方法、装置、计算机设备和存储介质
WO2021227787A1 (zh) * 2020-05-09 2021-11-18 华为技术有限公司 训练神经网络预测器的方法、图像处理方法及装置
CN112200223A (zh) * 2020-09-22 2021-01-08 北京迈格威科技有限公司 图像识别网络构建方法、装置、设备及介质
CN112598063A (zh) * 2020-12-25 2021-04-02 深圳市商汤科技有限公司 神经网络生成方法及装置、电子设备和存储介质
CN112861951A (zh) * 2021-02-01 2021-05-28 上海依图网络科技有限公司 一种图像神经网络参数的确定方法及电子设备
CN112861951B (zh) * 2021-02-01 2024-03-26 上海依图网络科技有限公司 一种图像神经网络参数的确定方法及电子设备
CN113033770A (zh) * 2021-03-04 2021-06-25 北京字跳网络技术有限公司 神经网络模型的测试方法、装置和电子设备
CN113962970A (zh) * 2021-10-27 2022-01-21 江苏中烟工业有限责任公司 一种基于机械视觉的成品片烟杂物检测方法及装置
CN113935470A (zh) * 2021-10-27 2022-01-14 安谋科技(中国)有限公司 神经网络模型的运行方法、介质和电子设备
CN114298272A (zh) * 2021-12-23 2022-04-08 安谋科技(中国)有限公司 神经网络模型的构建方法、图像处理方法、设备及介质
CN115035324A (zh) * 2022-05-13 2022-09-09 电子科技大学 一种多方位算法模型的自适配方法
CN115374898A (zh) * 2022-08-02 2022-11-22 清华大学 神经网络测试方法、装置、设备及存储介质
CN115374898B (zh) * 2022-08-02 2023-04-25 清华大学 神经网络测试方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN110555514B (zh) 2022-07-12

Similar Documents

Publication Publication Date Title
CN110555514B (zh) 神经网络模型搜索方法、图像识别方法和装置
CN110348562B (zh) 神经网络的量化策略确定方法、图像识别方法和装置
US11314988B2 (en) Image aesthetic processing method and electronic device
US20200372243A1 (en) Image processing method and apparatus, facial recognition method and apparatus, and computer device
CN110188641B (zh) 图像识别和神经网络模型的训练方法、装置和系统
CN110413730B (zh) 文本信息匹配度检测方法、装置、计算机设备和存储介质
CN110555526B (zh) 神经网络模型训练方法、图像识别方法和装置
CN109063217B (zh) 电力营销系统中的工单分类方法、装置及其相关设备
CN109783604B (zh) 基于少量样本的信息提取方法、装置和计算机设备
CN111340237A (zh) 数据处理和模型运行方法、装置和计算机设备
CN111461637A (zh) 简历筛选方法、装置、计算机设备和存储介质
CN109871821B (zh) 自适应网络的行人重识别方法、装置、设备及存储介质
CN111105040A (zh) 超参数优化方法、装置、计算机设备和存储介质
JP2023523029A (ja) 画像認識モデル生成方法、装置、コンピュータ機器及び記憶媒体
CN112183295A (zh) 行人重识别方法、装置、计算机设备及存储介质
US20200175259A1 (en) Face recognition method and apparatus capable of face search using vector
CN113505797B (zh) 模型训练方法、装置、计算机设备和存储介质
CN111832581B (zh) 肺部特征识别方法、装置、计算机设备及存储介质
CN111178162B (zh) 图像识别方法、装置、计算机设备和存储介质
CN110046577B (zh) 行人属性预测方法、装置、计算机设备和存储介质
CN111062324A (zh) 人脸检测方法、装置、计算机设备和存储介质
US20150186793A1 (en) System and method for distance learning with efficient retrieval
CN111079587B (zh) 人脸的识别方法、装置、计算机设备及可读存储介质
CN115344692A (zh) 聚类方法、装置、计算机设备和存储介质
CN113239697B (zh) 实体识别模型训练方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
PE01 Entry into force of the registration of the contract for pledge of patent right

Denomination of invention: Neural network model search method, image recognition method and device

Effective date of registration: 20230404

Granted publication date: 20220712

Pledgee: Shanghai Yunxin Venture Capital Co.,Ltd.

Pledgor: MEGVII (BEIJING) TECHNOLOGY Co.,Ltd.

Registration number: Y2023990000192

PE01 Entry into force of the registration of the contract for pledge of patent right