CN116108384A - 一种神经网络架构搜索方法、装置、电子设备及存储介质 - Google Patents

一种神经网络架构搜索方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN116108384A
CN116108384A CN202211671424.1A CN202211671424A CN116108384A CN 116108384 A CN116108384 A CN 116108384A CN 202211671424 A CN202211671424 A CN 202211671424A CN 116108384 A CN116108384 A CN 116108384A
Authority
CN
China
Prior art keywords
neural network
data set
initial
network architecture
classification model
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202211671424.1A
Other languages
English (en)
Inventor
胡中源
薛羽
朱陈陈
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Information Science and Technology
Original Assignee
Nanjing University of Information Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Information Science and Technology filed Critical Nanjing University of Information Science and Technology
Priority to CN202211671424.1A priority Critical patent/CN116108384A/zh
Publication of CN116108384A publication Critical patent/CN116108384A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/12Computing arrangements based on biological models using genetic models
    • G06N3/126Evolutionary algorithms, e.g. genetic algorithms or genetic programming
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Physiology (AREA)
  • Genetics & Genomics (AREA)
  • Neurology (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明公开了一种神经网络架构搜索方法、装置、电子设备及存储介质,属于自动化机器学习技术领域,方法包括:获取初始数据集;对所述初始数据集进行预处理,获取训练数据集;利用所述训练数据集对分类模型进行训练;根据遗传算法进行神经网络架构搜索,并利用经过训练的分类模型评估网络种群中个体网络的适应度;根据适应度评估结果,获取性能优秀的深度神经网络。该方法能够节省神经网络架构搜索过程中模型训练的时间,降低使用者对硬件的要求,在短时间内获得性能优异的深度神经网络。

Description

一种神经网络架构搜索方法、装置、电子设备及存储介质
技术领域
本发明涉及一种神经网络架构搜索方法、装置、电子设备及存储介质,属于自动化机器学习技术领域。
背景技术
从多层神经网络演化而来的深度学习是当前大数据处理与分析的主流方法。神经网络是深度学习的基础模块,其本质是一种体现特征映射关系的网络模型。深度神经网络往往是由专业人员依据专业知识和以往的经验设计,因而通过人工搜寻或设计出优秀的结构是一项耗时、复杂而且容易出错的任务。并且,深度神经网络面临大量的超参数选择,这些超参数的调优需要反复尝试,不断试错,缺少有效的理论方法,在很多情况下是一项非常有技巧性和不确定性的工作。
针对上述手动设计深度神经网络的各种不足,国内外学者提出了很多探索和改进。近年来神经架构搜索技术引起了工业界和学界的广泛关注,即通过强化学习、进化算法和梯度算法等方法自动地搜索出性能优秀的神经网络结构,从而在神经网络的设计减少了人为的干预。在神经架构搜索的过程中,每一个网络结构都需要在相应数据集上进行充分的训练评估,使得神经架构搜索不仅需要大量的计算设施(如GPU等),而且需要大量的时间开销。因此,引入了代理模型加速的方法,提出将网络结构作为一个代理模型的输入信息,将得到的预测值作为网络结构的评估以选出优异的网络结构,从而大大提升神经架构搜索的速度。但是代理模型大都选用回归机器学习模型,这类代理模型的训练往往存在数据不足的问题。
遗传算法利用生物演化过程中的自然选择机制和遗传规律求解优化问题,将随机搜索与并行式的加强化近邻搜索有效结合,具有通用性、并行性和全局最优性等特点。再者,演化计算采用自然演化机制表现复杂的现象,能够快速有效地解决复杂问题。演化计算已在自动化深度学习领域得到了应用。
发明内容
本发明的目的在于提供一种神经网络架构搜索方法、装置、电子设备及存储介质,基于分类模型的辅助,能够在较少的时间预算内获得性能优异的神经网络。
为达到上述目的,本发明提供如下技术方案:
第一方面,本发明提供一种神经网络架构搜索方法,包括:
获取初始数据集;
对所述初始数据集进行预处理,获取训练数据集;
利用所述训练数据集对预构建的分类模型进行训练;
根据遗传算法进行神经网络架构搜索,并利用经过训练的分类模型评估网络种群中个体网络的适应度;
根据适应度评估结果,获取性能优秀的深度神经网络。
结合第一方面,进一步的,所述初始数据集包括网络结构信息和网络结构预测性能。
结合第一方面,进一步的,获取初始数据集包括:
获取初始样本,并对所述初始样本进行编码;
将所述初始样本的精度作为其对应的标签;
由所述初始样本的编码和标签共同构成所述初始数据集。
结合第一方面,进一步的,所述初始样本的精度为所述神经网络对图像进行分类时的准确率,即分类正确的图像个数与进行分类的图像总数的比率。
结合第一方面,进一步的,对所述初始样本进行编码包括:
使用One-hot向量表示所述初始样本的节点类型;
使用邻接矩阵表示各节点之间的连接关系;
将所述邻接矩阵的上三角矩阵碾平成一维向量,并将所述一维向量作为所述初始样本的编码。
结合第一方面,进一步的,对所述初始数据集进行预处理,获取训练数据集包括:
选取所述初始数据集中任意两个编码进行配对;
根据配对后的两个编码,赋予其中一个编码数字标签1,赋予另一个编码数字标签0;
按照从四个编码中两两配对选取的方式,构建训练数据集。
结合第一方面,进一步的,利用经过训练的分类模型评估网络种群中个体网络的适应度包括:
将所述适应度初始化为0;
将所述训练数据集输入至所述分类模型;
若所述分类模型的输出结果为1,则给数字标签1所对应的编码侧网络的适应度加1分;
若所述分类模型的输出结果为0,则给数字标签0所对应的编码侧网络的适应度加1分。
第二方面,本发明提供一种神经网络架构搜索装置,包括:
数据获取模块:用于获取初始数据集;
预处理模块:用于对所述初始数据集进行预处理,获取训练数据集;
模型训练模块:用于利用所述训练数据集对预构建的分类模型进行训练;
搜索模块:用于根据遗传算法进行神经网络架构搜索,并利用经过训练的分类模型评估种群中个体的适应度,获取性能优秀的深度神经网络。
第三方面,本发明提供一种电子设备,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行根据第一方面任一项所述方法的步骤。
第四方面,本发明提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现第一方面任一项所述方法的步骤。
与现有技术相比,本发明的有益效果是:
本发明先训练分类模型,并通过遗传算法在神经网络架构搜索过程中使用分类模型评估神经网络对应的个体的适应度,获取性能优秀的深度神经网络,从而节省了神经网络架构搜索过程中模型训练的时间,降低了使用者对硬件的要求,能够在很短的时间预算内获得性能优异的深度神经网络。在使用遗传算法搜索网络的过程中,可进一步训练分类模型,有助于提升分类模型的精度,从而有助于获取性能优秀的深度神经网络。
附图说明
图1是本发明实施例提供的一种神经网络架构搜索方法流程图;
图2是本发明实施例提供的单个个体的编码示例图;
图3是本发明实施例提供的两个个体的编码配对方式的示例图;
图4是本发明实施例提供的获取训练数据集时的配对方式的示例图;
图5是本发明实施例提供的评估适应度时获取配对样本的示例图;
图6是本发明实施例提供的交叉操作示例图;
图7是本发明实施例提供的变异操作示例图;
图8是本发明实施例提供的在数据集NAS-Bench-101上搜索的结果示例图。
具体实施方式
下面结合具体实施方式对本专利的技术方案作进一步详细地说明。
下面详细描述本专利的实施例,实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,仅用于解释本专利,而不能理解为对本专利的限制。在不冲突的情况下,本申请实施例以及实施例中的技术特征可以相互组合。
实施例一:
图1是本发明实施例一提供的一种神经网络架构搜索方法流程图,本流程图仅仅示出了本实施例方法的逻辑顺序,在互不冲突的前提下,在本发明其它可能的实施例中,可以以不同于图1所示的顺序完成所示出或描述的步骤。
本实施例提供的神经网络架构搜索方法可应用于终端,可以由神经网络架构搜索装置来执行,该装置可以由软件和/或硬件的方式实现,该装置可以集成在终端中,例如:任一具备通信功能的平板电脑或计算机设备。参见图1,本实施例的方法具体包括如下步骤:
步骤一:获取初始数据集;
初始数据集包括网络结构信息和网络结构预测性能。
获取初始数据集包括如下步骤:
步骤A:获取初始样本,并对初始样本进行编码;
对初始样本进行编码包括如下步骤:
步骤①:使用One-hot向量表示初始样本的节点类型;
步骤②:使用邻接矩阵表示节点之间的连接关系;
步骤③:将邻接矩阵的上三角矩阵碾平成一维向量,并将一维向量作为初始样本的编码。
步骤B:将初始样本的精度作为其对应的标签;
步骤C:由初始样本的编码和标签共同构成初始数据集;
其中,初始样本的精度为神经网络对图像进行分类时的准确率,即分类正确的图像个数与进行分类的图像总数的比率。
本实施例中,首先建立公用平台,用户在公用平台上训练自己的模型,平台采集用户训练模型得到的数据(包括模型结构、模型所使用的数据集合、参数量、计算量、精度和训练耗费时间等)。本实施例中,分类模型为基于二分类任务的支持向量机,本实例的数据集使用现有数据集:NAS-Bench-101。
步骤二:对初始数据集进行预处理,获取训练数据集;
对初始数据集进行预处理,获取训练数据集包括如下步骤:
步骤a:选取初始数据集中任意两个编码进行配对;
步骤b:根据配对后的两个编码,赋予其中一个编码数字标签1,赋予另一个编码数字标签0;
步骤c:按照从四个编码中两两配对选取的方式,构建训练数据集;
遗传算法的个体编码如图2所示,本实例提供一种具体的编码方式:使用One-hot向量表示节点类型,使用邻接矩阵表示节点之间的连接方式,最终取上三角矩阵再碾平成一维向量。采用此编码方式对所获取的所有样本进行,并使用它们的精度作为对应标签,可获取初始数据集。
步骤三:利用训练数据集对预构建的分类模型进行训练;
本实施例中,训练二分类SVM:首先对初始数据集进行预处理,如图3所示,任意选取两个个体编码进行配对,标签为1和0,1表示左边网络更优秀,0表示右边网络更优秀,以此作为分类模型的输入和输出对应的标签;然后采用从四个个体中两两配对选取个体的方式,如图4所示,构建训练数据集;最后利用训练数据集来训练二分类SVM。
步骤四:根据遗传算法进行神经网络架构搜索,并利用经过训练的分类模型评估网络种群中个体网络的适应度;
神经架构搜索是指给定一个称为搜索空间的候选神经网络结构的集合,用某种策略从中搜索出最优网络结构。神经网络结构的优劣即性能用某些指标如精度、速度来度量,称为性能评估。分类模型是指在神经架构搜索过程中,使用分类模型对神经网络结构的性能进行评估。
利用经过训练的分类模型评估网络种群中个体网络的适应度包括如下步骤:
步骤Ⅰ:将适应度初始化为0;
步骤Ⅱ:将训练数据集输入至分类模型;
步骤Ⅲ:若分类模型的输出结果为1,则给数字标签1所对应的编码侧网络的适应度加1分;
步骤Ⅳ:若分类模型的输出结果为0,则给数字标签0所对应的编码侧网络的适应度加1分;
本实施例所采用的评估方法为:适应度初始化为0,如图5所示,选出所有配对好的编码,将配对好的编码作为要预测的特征输入至二分类SVM,输出结果为1或0。分类模型每次输出结束,则为相应个体进行累加得分,若分类模型输出为1,则给编码在左边的网络加1分,若分类模型输出为0,则给编码在右边的网络加1分。
步骤五:根据适应度评估结果,获取性能优秀的深度神经网络;
本实施例中,结合遗传算法与分类模型进行试验。开始使用遗传算法搜索迭代过程,使用二分类SVM获取个体的性能作为适应度;训练适应度靠前的n个个体对应的深度神经网络至收敛,将这些个体根据步骤一制作新的原始数据集,并依据步骤二获取新的训练数据集,并使用新的训练数据集进一步训练二分类SVM;保留排名最高的几个个体作为精英保留于网络种群中,使用选择策略选择子代父母,依据一定概率进行变异或交叉生成新个体加入新网络种群中直至新网络种群中的个体数目达到设定值,图6为交叉操作的流程图,图7为变异操作的流程图;此后,进行下一次迭代过程,如此往复直到达到指定的迭代次数或者运行时间预算;训练最后一次迭代中,训练适应度最高的个体所对应的神经网络以获取其性能,并输出该结果;图8为在数据集NAS-Bench-101上搜索的结果。
本实施例提供的神经网络架构搜索方法,先训练分类模型,并通过遗传算法在神经网络架构搜索过程中使用分类模型评估神经网络对应的个体的适应度,获取性能优秀的深度神经网络,从而节省了神经网络架构搜索过程中模型训练的时间,降低了使用者对硬件的要求,能够在很短的时间预算内获得性能优异的深度神经网络。在使用遗传算法搜索网络的过程中,可进一步训练分类模型,有助于提升分类模型的精度,从而有助于获取性能优秀的深度神经网络。
实施例二:
本实施例提供一种神经网络架构搜索装置,包括:
数据获取模块:用于获取初始数据集;
预处理模块:用于对初始数据集进行预处理,获取训练数据集;
模型训练模块:用于利用训练数据集对预构建的分类模型进行训练;
搜索模块:用于根据遗传算法进行神经网络架构搜索,并利用经过训练的分类模型评估种群中个体的适应度,获取性能优秀的深度神经网络。
本发明实施例所提供的神经网络架构搜索装置可执行本发明任意实施例所提供的神经网络架构搜索方法,具备执行方法相应的功能模块和有益效果。
实施例三:
本实施例提供一种电子设备,包括处理器及存储介质;
存储介质用于存储指令;
处理器用于根据指令进行操作以执行实施例一中方法的步骤。
实施例四:
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现实施例一中方法的步骤。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
以上仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (10)

1.一种神经网络架构搜索方法,其特征在于,包括:
获取初始数据集;
对所述初始数据集进行预处理,获取训练数据集;
利用所述训练数据集对预构建的分类模型进行训练;
根据遗传算法进行神经网络架构搜索,并利用经过训练的分类模型评估网络种群中个体网络的适应度;
根据适应度评估结果,获取性能优秀的神经网络。
2.根据权利要求1所述的神经网络架构搜索方法,其特征在于,所述初始数据集包括网络结构信息和网络结构预测性能。
3.根据权利要求1所述的神经网络架构搜索方法,其特征在于,获取初始数据集包括:
获取初始样本,并对所述初始样本进行编码;
将所述初始样本的精度作为其对应的标签;
由所述初始样本的编码和标签共同构成所述初始数据集。
4.根据权利要求3所述的神经网络架构搜索方法,其特征在于,所述初始样本的精度为所述神经网络对图像进行分类时的准确率,即分类正确的图像个数与进行分类的图像总数的比率。
5.根据权利要求3所述的神经网络架构搜索方法,其特征在于,对所述初始样本进行编码包括:
使用One-hot向量表示所述初始样本的节点类型;
使用邻接矩阵表示各节点之间的连接关系;
将所述邻接矩阵的上三角矩阵碾平成一维向量,并将所述一维向量作为所述初始样本的编码。
6.根据权利要求1所述的神经网络架构搜索方法,其特征在于,对所述初始数据集进行预处理,获取训练数据集包括:
选取所述初始数据集中任意两个编码进行配对;
根据配对后的两个编码,赋予其中一个编码数字标签1,赋予另一个编码数字标签0;
按照从四个编码中两两配对选取的方式,构建训练数据集。
7.根据权利要求6所述所述的神经网络架构搜索方法,其特征在于,利用经过训练的分类模型评估网络种群中个体网络的适应度包括:
将所述适应度初始化为0;
将所述训练数据集输入至所述分类模型;
若所述分类模型的输出结果为1,则给数字标签1所对应的编码侧网络的适应度加1分;
若所述分类模型的输出结果为0,则给数字标签0所对应的编码侧网络的适应度加1分。
8.一种神经网络架构搜索装置,其特征在于,包括:
数据获取模块:用于获取初始数据集;
预处理模块:用于对所述初始数据集进行预处理,获取训练数据集;
模型训练模块:用于利用所述训练数据集对预构建的分类模型进行训练;
搜索模块:用于根据遗传算法进行神经网络架构搜索,并利用经过训练的分类模型评估种群中个体的适应度,获取性能优秀的深度神经网络。
9.一种电子设备,其特征在于,包括处理器及存储介质;
所述存储介质用于存储指令;
所述处理器用于根据所述指令进行操作以执行根据权利要求1~7任一项所述方法的步骤。
10.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现权利要求1~7任一项所述方法的步骤。
CN202211671424.1A 2022-12-26 2022-12-26 一种神经网络架构搜索方法、装置、电子设备及存储介质 Pending CN116108384A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202211671424.1A CN116108384A (zh) 2022-12-26 2022-12-26 一种神经网络架构搜索方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202211671424.1A CN116108384A (zh) 2022-12-26 2022-12-26 一种神经网络架构搜索方法、装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN116108384A true CN116108384A (zh) 2023-05-12

Family

ID=86257328

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202211671424.1A Pending CN116108384A (zh) 2022-12-26 2022-12-26 一种神经网络架构搜索方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116108384A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116502679A (zh) * 2023-05-15 2023-07-28 之江实验室 一种模型构建方法、装置、存储介质及电子设备
CN117422114A (zh) * 2023-12-19 2024-01-19 电子科技大学(深圳)高等研究院 Ai加速器的优化方法及ai加速器
CN118014010A (zh) * 2024-04-09 2024-05-10 南京信息工程大学 基于多种群机制及代理模型的多目标演化神经架构搜索方法

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116502679A (zh) * 2023-05-15 2023-07-28 之江实验室 一种模型构建方法、装置、存储介质及电子设备
CN116502679B (zh) * 2023-05-15 2023-09-05 之江实验室 一种模型构建方法、装置、存储介质及电子设备
CN117422114A (zh) * 2023-12-19 2024-01-19 电子科技大学(深圳)高等研究院 Ai加速器的优化方法及ai加速器
CN117422114B (zh) * 2023-12-19 2024-04-09 电子科技大学(深圳)高等研究院 Ai加速器的优化方法及ai加速器
CN118014010A (zh) * 2024-04-09 2024-05-10 南京信息工程大学 基于多种群机制及代理模型的多目标演化神经架构搜索方法

Similar Documents

Publication Publication Date Title
CN112199375B (zh) 跨模态的数据处理方法、装置、存储介质以及电子装置
CN116108384A (zh) 一种神经网络架构搜索方法、装置、电子设备及存储介质
WO2022083624A1 (zh) 一种模型的获取方法及设备
CN107391512B (zh) 知识图谱预测的方法和装置
US20200167659A1 (en) Device and method for training neural network
CN112364880A (zh) 基于图神经网络的组学数据处理方法、装置、设备及介质
CN114373101A (zh) 基于进化策略的神经网络架构搜索的图像分类方法
CN115114421A (zh) 一种问答模型训练方法
CN116151319A (zh) 搜索神经网络集成模型的方法、装置和电子设备
CN114897085A (zh) 一种基于封闭子图链路预测的聚类方法及计算机设备
CN113128689A (zh) 一种调控知识图谱的实体关系路径推理方法及系统
CN116611504A (zh) 一种基于进化的神经架构搜索方法
CN113111308B (zh) 基于数据驱动遗传编程算法的符号回归方法及系统
Hu et al. Apenas: An asynchronous parallel evolution based multi-objective neural architecture search
CN113627464A (zh) 图像处理方法、装置、设备和存储介质
CN113360772A (zh) 一种可解释性推荐模型训练方法与装置
CN106960064B (zh) 一种基于自学习的几何辅助线添加方法
CN112052386A (zh) 信息推荐方法、装置和存储介质
Cantú-Paz et al. Evolving neural networks to identify bent-double galaxies in the FIRST survey
CN116976640B (zh) 自动化业务生成方法、装置、计算机设备及存储介质
CN117152568B (zh) 深度集成模型的生成方法、装置和计算机设备
CN117591675B (zh) 学术引用网络的节点分类预测方法、系统及存储介质
CN116155755B (zh) 一种基于线性优化封闭子图编码的链路符号预测方法
CN112163068B (zh) 一种基于自主进化学习器的信息预测方法及系统
CN117558337A (zh) 蛋白质结构预测方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination