CN111539514B - 用于生成神经网络的结构的方法和装置 - Google Patents

用于生成神经网络的结构的方法和装置 Download PDF

Info

Publication number
CN111539514B
CN111539514B CN202010300949.9A CN202010300949A CN111539514B CN 111539514 B CN111539514 B CN 111539514B CN 202010300949 A CN202010300949 A CN 202010300949A CN 111539514 B CN111539514 B CN 111539514B
Authority
CN
China
Prior art keywords
network
neural network
preset
candidate
target neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010300949.9A
Other languages
English (en)
Other versions
CN111539514A (zh
Inventor
希滕
张刚
温圣召
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202010300949.9A priority Critical patent/CN111539514B/zh
Publication of CN111539514A publication Critical patent/CN111539514A/zh
Application granted granted Critical
Publication of CN111539514B publication Critical patent/CN111539514B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本公开的实施例公开了用于生成神经网络的结构的方法和装置,涉及人工智能领域。该方法包括:获取初始的性能反馈信息,执行如下搜索操作:根据预设的硬件延时约束信息、性能反馈信息和第一网络结构搜索空间确定第一目标神经网络的候选网络结构;根据性能反馈信息和第二网络结构搜索空间确定第二目标神经网络的候选网络结构;将第一目标神经网络和第二目标神经网络的候选网络结构分别作为生成器和判别器构建候选生成对抗网络并训练;响应于确定候选生成对抗网络的性能信息满足预设的条件或执行搜索操作的次数达到预设的次数阈值,确定候选生成对抗网络中的生成器为第一目标神经网络的目标结构。该方法可搜索出满足预设的硬件延时约束的网络结构。

Description

用于生成神经网络的结构的方法和装置
技术领域
本公开的实施例涉及计算机技术领域,具体涉及人工智能技术领域,尤其涉及用于生成神经网络的结构的方法和装置。
背景技术
随着人工智能技术和数据存储技术的发展,深度神经网络在许多领域的任务中取得了重要的成果。其中,生成对抗网络可以产生更加清晰、真实的样本,可以广泛应用在图像处理、声音处理、文本生成、信息安全等场景中。
通常生成对抗网络中的生成器的结构较复杂,训练完成后运行生成器会产生较大的硬件延时,使得基于生成对抗网络训练得到的生成器不易应用在实时性较高的业务场景中。而包括生成对抗网络在内的各种深度神经网络的硬件延时与其网络结构具有密切的关系,改善网络结构可以有效地优化神经网络的硬件延时问题。
发明内容
本公开的实施例提供了用于生成神经网络的结构的方法和装置、电子设备以及计算机可读存储介质。
根据第一方面,提供了一种用于生成神经网络的结构的方法,包括:获取初始的性能反馈信息,并执行搜索操作;搜索操作包括:根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构;根据性能反馈信息和预设的第二网络结构搜索空间,确定预设的第二目标神经网络的候选网络结构;将第一目标神经网络的候选网络结构作为生成器,将第二目标神经网络的候选网络结构作为判别器,构建候选生成对抗网络,基于媒体数据样本对候选生成对抗网络进行训练,确定候选生成对抗网络的性能信息;响应于确定候选生成对抗网络的性能信息满足预设的条件或执行搜索操作的次数达到预设的次数阈值,确定候选生成对抗网络中的生成器为第一目标神经网络的目标结构。
根据第二方面,提供了一种用于生成神经网络的结构的装置,包括:获取单元,被配置为获取初始的性能反馈信息;搜索单元,被配置为执行搜索操作;搜索单元包括:第一生成单元,被配置为执行搜索操作中的以下步骤:根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构;第二生成单元,被配置为执行搜索操作中的以下步骤:根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构;训练单元,被配置为执行搜索操作中的以下步骤:将第一目标神经网络的候选网络结构作为生成器,将第二目标神经网络的候选网络结构作为判别器,构建候选生成对抗网络,基于媒体数据样本对候选生成对抗网络进行训练,确定候选生成对抗网络的性能信息;确定单元,被配置为执行搜索操作中的以下步骤:响应于确定候选生成对抗网络的性能信息满足预设的条件或执行搜索操作的次数达到预设的次数阈值,确定候选生成对抗网络中的生成器为第一目标神经网络的目标结构。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行第一方面提供的用于生成神经网络的结构的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,计算机指令用于使计算机执行第一方面提供的用于生成神经网络的结构的方法。
根据本申请的技术实现了基于预设的硬件延时约束自动搜索生成对抗网络的结构,搜索出的生成对抗网络的结构能够满足该预设的硬件延时约束。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本公开的其它特征、目的和优点将会变得更明显:
图1是本公开的用于生成神经网络的结构的方法的一个实施例的流程图;
图2是本公开的用于生成神经网络的结构的方法的另一个实施例的流程图;
图3是图2所示的用于生成神经网络的结构的方法的实施例的另一个流程示意图;
图4是本公开的用于生成神经网络的结构的装置的一个实施例的结构示意图;
图5是用来实现本公开的实施例的用于生成神经网络的结构的方法的电子设备的框图。
具体实施方式
下面结合附图和实施例对本公开作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开的神经网络结构的采样方法或神经网络的神经网络结构的采样装置可以应用于终端设备或服务器,或者可以应用于包括终端设备、网络和服务器的系统架构。其中,网络用以在终端设备和服务器之间提供通信链路的介质,可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
终端设备可以是用户端设备,其上可以安装有各种客户端应用。例如,图像处理类应用、搜索应用、语音服务类应用等。终端设备可以是硬件,也可以是软件。当终端设备为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、膝上型便携计算机和台式计算机等等。当终端设备为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块,也可以实现成单个软件或软件模块。在此不做具体限定。
服务器可以是运行各种服务的服务器,例如运行基于图像、视频、语音、文本、数字信号等数据的目标检测与识别、文本或语音识别、信号转换等服务的服务器。服务器可以获取深度学习任务数据来构建训练样本,对用于执行深度学习任务的神经网络的结构进行自动搜索和优化。
服务器还可以通过网络将搜索出的神经网络的结构信息发送至终端设备。终端设备根据接收到的结构信息部署并运行神经网络,以执行相应的深度学习任务。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的多个软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开的实施例所提供的用于生成神经网络的结构的方法可以由终端设备或服务器执行,相应地,用于生成神经网络的结构的装置可以设置于终端设备或服务器中。
请参考图1,其示出了根据本公开的用于生成神经网络的结构的方法的一个实施例的流程100。该用于生成神经网络的结构的方法,包括:
步骤101,获取初始的性能反馈信息,并执行搜索操作。
在这里,性能反馈信息可以是根据搜索操作中搜索出的候选网络结构经过训练后的性能进行更新,可以根据候选网络结构经过训练后的准确率、运算速度、内存占用率等性能指标确定。在开始第一次搜索操作之前,可以获取初始的性能反馈信息。初始的性能反馈信息可以是预先设置的。
搜索操作可以包括以下步骤1011、步骤1012、步骤1013和步骤1014。
在步骤1011中,根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构。
在本实施例中,用于生成神经网络的结构的方法的执行主体可以获取预设的硬件延时约束信息,依据该硬件延时约束信息来搜索第一目标神经网络的候选网络结构。
在这里,预设的硬件延时约束信息表征神经网络运行在特定的硬件环境中的延时,可以用于约束生成的候选网络结构的硬件延时。
在实践中,可以获取用于运行第一目标神经网络的以执行相应的深度学习任务的终端设备或服务器的硬件信息,并根据预设的硬件延时表确定该终端或服务器的硬件信息对应的硬件延时约束信息。或者,可以根据业务场景的需要预先设置硬件延时约束信息。例如,在一些视频类应用中,实时拍摄的视频中增加动画效果功能的实时性要求较高,需在1秒内实现该功能并反馈用户,则对应的硬件延时约束信息可以包括在预设的处理器类型的终端运行该功能对应的神经网络的延时不超过1秒。
第一网络结构搜索空间包括可组建第一目标神经网络的结构单元,可以包括神经网络模型中常用的网络层,例如全连接层、非线性层,卷积层,等等;还可以包括由多个网络层组合形成的网络结构单元,例如包括由若干卷积层、批量归一化层组合形成的卷积块,或者分类器,等等。通过对第一网络结构搜索空间中的结构单元组合可以构建出第一目标神经网络的候选网络结构。
在每一次搜索操作中,可以根据预设的硬件延时约束信息,以及当前的性能反馈信息,在第一网络结构搜索空间中搜索出第一目标神经网络的至少一个候选网络结构。具体地,可以采用控制器生成第一目标神经网络的候选网络结构的编码,对编码进行解码来获得候选网络结构。其中,控制器可以实现为经过训练的循环神经网络、遗传算法、强化学习算法等。
控制器可以将提升第一目标神经网络的性能为目标来执行网络结构的搜索。作为示例,上述性能信息可以是第一目标神经网络的误差,采用循环神经网络作为控制器,则可以根据第一目标神经网络的误差进行反向传播,迭代更新循环神经网络的参数,并利用更新参数后的循环神经网络,根据第一网络结构搜索空间和上述硬件延时约束条件生成新的候选网络结构的编码。
在步骤1012中,根据性能反馈信息和预设的第二网络结构搜索空间,确定预设的第二目标神经网络的候选网络结构。
上述执行主体还可以根据性能反馈信息,在预设的第二网络结构空间中搜索出第二目标神经网络的至少一个候选结构。与第一网络结构类似地,第二网络结构搜索空间可以包括可组建第二目标神经网络的结构单元,可以包括神经网络模型中常用的网络层,和/或由多个网络层组合形成的网络结构单元,例如包括由若干卷积层、批量归一化层组合形成的卷积块,或者分类器,等等。通过对第二网络结构搜索空间中的结构单元组合可以构建出第二目标神经网络的候选网络结构。
上述执行主体可以基于当前的反馈信息来生成第二目标神经网络的候选结构。具体可以利用控制器,将提升反馈信息所表征的神经网络的性能作为目标,构建目标函数,在第二网络结构搜索空间中搜索出第二目标神经网络的候选结构。该控制器也可以实现为循环神经网络、遗传算法、强化学习算法,等等。
接着,在步骤1013中,将第一目标神经网络的候选网络结构作为生成器,将第二目标神经网络的候选网络结构作为判别器,构建候选生成对抗网络,基于媒体数据样本对候选生成对抗网络进行训练,确定候选生成对抗网络的性能信息。
生成对抗网络中的生成器可以生成虚拟数据,判别器用于判别生成器所生成的数据的真实性。在本实施例中,将第一目标神经网络的各候选网络结构分别与第二目标神经网络的各候选网络结构进行组合可以构建出至少一个候选生成对抗网络,对构建出的每个候选生成对抗网络,利用对应的媒体数据样本进行训练。
媒体数据是用于表征可展示的信息的数据,媒体数据样本可包括文本、语音、图像、视频等类型的数据的样本。在本实施例中,可以根据第一目标神经网络执行的深度学习任务构建对应的媒体数据样本。例如,第一目标神经网络执行语音合成任务,则可以构建对应的语音数据样本;第一目标神经网络执行基于图像的目标检测任务,则可以构建对应的图像数据样本。
可以利用对应的媒体数据测试集对完成训练的候选生成对抗网络的性能进行测试,获得候选生成对抗网络的性能信息。或者对完成训练的候选生成对抗网络中的生成器(即完成训练的第一目标神经网络的候选网络结构)的性能进行测试作为候选生成对抗网络的性能信息。
在这里,候选生成对抗网络的可以包括但不限于以下至少一项:误差、准确率、内存占用率、实际硬件延时,等等。
之后,在步骤1014中,响应于确定候选生成对抗网络的性能信息满足预设的条件或执行搜索操作的次数达到预设的次数阈值,确定候选生成对抗网络中的生成器为第一目标神经网络的目标结构。
当各候选生成对抗网络中存在性能信息满足预设的条件的候选生成对抗网络时,可以将性能信息满足预设的条件的候选生成对抗网络中的生成器的结构作为第一目标神经网络的目标结构。
上述预设的条件是网络结构停止搜索的条件,可以是准确率达到预设的准确率阈值,或者误差小于预设的误差阈值。或者,预设的条件可以是准确率、误差、内存占用率、或实际硬件延时在连续的多次搜索操作中的更新率小于预设的更新率阈值。
或者,当上述搜索操作的当前已执行次数达到预设的次数阈值时,可以从当前的搜索操作确定出的各候选生成对对抗网络中确定出性能最优目标候选生成对抗网络,将目标候选生成对抗网络中的生成器作为第一目标神经网络的目标结构。
在确定第一目标神经网络的目标结构之后,可以利用步骤1013中对该目标结构的训练中得到的该目标结构的参数确定第一目标神经网络的参数。或者,可以基于该目标结构确定待训练的第一目标神经网络的结构,通过新的媒体数据样本对第一目标神经网络进行训练以优化其参数,从而生成训练后的第一目标神经网络。
本实施例的上述用于生成神经网络的结构的方法,通过基于预设的硬件延时约束信息搜索生成对抗网络中生成器的结构,利用生成对抗网络的训练方式训练生成器,可以自动搜索出满足预设的硬件延时约束的神经网络的结构,能够有效优化预设的硬件延时约束下的神经网络的结构,提升预设的硬件延时约束下神经网络的性能。并且由于对抗器并不应用于具体的业务场景中,上述实施例仅对生成对抗网络中的生成器的结构搜索进行硬件延时约束,不需要对对抗器产生的硬件延时约束,能够避免对对抗器的结构搜索做冗余的约束而对网络结构的搜索效率造成影响。
继续参考图2,其示出了本公开的用于生成神经网络的结构的方法的另一个实施例的流程示意图。
如图2所示,本实施例的用于生成神经网络的结构的方法的流程200,包括以下步骤:
步骤201,获取初始的性能反馈信息,并执行搜索操作。
其中,性能反馈信息可以是根据搜索操作中搜索出的候选网络结构经过训练后的性能进行更新。在第一次搜索操作之前,可以获取初始的性能反馈信息。该初始的性能反馈信息可以是预先设置的。
在本实施例中,搜索操作可以包括以下步骤2011、步骤2012、步骤2013、步骤2014和步骤2015。
在步骤2011中,根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构。
在步骤2012中,根据性能反馈信息和预设的第二网络结构搜索空间,确定预设的第二目标神经网络的候选网络结构。
在本实施例中,每次搜索操作中可以分别在第一网络结构搜索空间和第二网络结构搜索空间中搜索第一目标神经网络和第二目标神经网络的候选网络结构。
其中,在步骤2011中,基于预设的硬件延时约束信息和当前的性能反馈信息来更新第一目标神经网络的候选网络结构。即在生成第一目标神经网络的候选网络结构时,以提升第一目标神经网络的性能为目标,从第一网络结构搜索空间中搜索出满足该预设的硬件延时约束条件的网络结构,作为第一目标神经网络的候选网络结构。
在步骤2012中,基于当前的性能反馈信息更新第二目标神经网络的候选网络结构,即以提升第二目标神经网络的性能为目标,从第二网络结构搜索空间中搜索出第二目标神经网络的候选网络结构。
上述步骤2011和步骤2012中第一目标神经网络和第二目标神经网络的候选网络结构可以通过基于循环神经网络、遗传算法、强化学习算法等的控制器生成。
步骤2011和步骤2012分别与前述实施例的步骤1011和步骤1012一致,步骤2011和步骤2012的具体实现方式还可以分别参考前述实施例中步骤1011和步骤1012的描述,此处不再赘述。
在步骤2013中,将第一目标神经网络的候选网络结构作为生成器,将第二目标神经网络的候选网络结构作为判别器,构建候选生成对抗网络,基于媒体数据样本对候选生成对抗网络进行训练,确定候选生成对抗网络的性能信息。
在步骤2014中,响应于确定候选生成对抗网络的性能信息满足预设的条件,确定候选生成对抗网络中的生成器为第一目标神经网络的目标结构。
本实施例的步骤2013和步骤2014分别与前述实施例的步骤1013和步骤1014一致,步骤2013和步骤2014的具体实现方式可以分别参考前述实施例中步骤1013和步骤1014的描述,此处不再赘述。
在步骤2015中,响应于确定各候选生成对抗网络的性能信息不满足预设的条件且执行搜索操作的次数未达到预设的次数阈值,基于候选生成对抗网络的性能信息更新性能反馈信息,并执行下一次搜索操作。
若在当前的搜索操作中,各个候选生成对抗网络的性能均不满足预设的条件且已执行的上述搜索操作的次数未达到预设的次数阈值则,则可以基于步骤2013中确定的候选生成对抗网络的性能信息对上述性能反馈信息进行更新。上述不满足预设的条件的情况可以例如为各个候选生成网络中的生成器的误差均未收敛至预设的误差范围内,或者各个候选生成网络中的生成器的参数的更新率不小于预设的更新率阈值,等等。
在这里,性能反馈信息表征训练后的候选生成对抗网络的性能,其可以由当前搜索操作中各个候选生成对抗网络的性能统计信息得出,例如性能反馈信息可以由反馈值表示,该反馈值由各个候选生成网络的准确率的平均值得出。
在更新性能反馈信息之后,可以基于更新后的性能反馈信息,执行下一次包括步骤2011至步骤2015的搜索操作。
在经过若干次搜索操作之后,候选生成对抗网络的性能信息满足预设的条件时,可以停止搜索操作,将当前得到的满足预设的条件的候选生成对抗网络中的生成器作为第一目标神经网络的目标结构。还可以将当前的候选生成对抗网络中的判别器作为第二目标神经网络的目标结构。
这样,在搜索出第一目标神经网络的目标结构之后,可以获取新的媒体数据样本集,基于第一目标神经网络的目标结构和第二目标神经网络的目标结构构建生成对抗网络并进行训练,以优化第一目标神经网络的参数。
图3是图2所示的用于生成神经网络的结构的方法的实施例的另一个流程示意图。
如图3所示,控制器可以根据预设的性能约束条件和性能反馈信息在第一网络结构搜索空间内确定出生成器(即第一目标神经网络)的候选网络结构,并根据性能反馈信息在第二网络结构搜索空间内确定出判别器(即第二目标神经网络)的候选网络结构。然后将生成器和判别器组合为生成对抗网络进行训练,得到训练后的生成器。通过对训练后的生成器进行测试获得其性能作为生成对抗网络的性能信息。若生成对抗网络的性能信息不满足预设的条件,则根据性能信息生成性能反馈信息并反馈至控制器,使控制器在下一次搜索操作中根据新的性能反馈信息生成生成器和判别器的候选网络结构。若生成对抗网络的性能信息满足预设的条件,则输出当前的生成器的候选网络结构作为生成器的目标结构。由此可以搜索出满足预设的延时性能约束条件且性能良好的神经网络的结构。
本实施例的用于生成神经网络的结构的方法,在各候选生成对抗网络的性能信息不满足预设的条件且执行搜索操作的次数未达到预设的次数阈值时,更新性能反馈信息并执行下一次搜索操作,直到候选生成对抗网络的性能信息满足预设的条件,能够通过多次迭代执行搜索操作优化搜索出的网络结构,并且可以通过性能反馈信息加速第一神经网络的结构搜索。
在上述实施例的一些可选的实现方式中,上述候选生成对抗网络的性能信息包括候选生成对抗网络中的生成器的硬件延时。这时,可以按照如下方式执行步骤2015中更新性能反馈信息的操作:根据候选生成对抗网络中的生成器的硬件延时与预设的硬件延时约束信息之间的差异,生成性能反馈信息。
在该实现方式中,当各个候选生成对抗网络中的生成器的硬件延时都不满足上述预设的硬件延时约束条件时,可以将各个候选生成对抗网络中的生成器的硬件延时与预设的硬件延时约束条件进行比较,计算当前搜索操作中各个候选生成对抗网络中的生成器的硬件延时与预设的硬件延时约束条件所限定的最大延时之间的差值,根据该差值生成性能反馈信息。例如,可以将该差值直接作为性能反馈信息,则在下一次搜索操作中,以减小该差值为目标生成第一目标神经网络和第二目标神经网络的新的候选网络结构。
本实施方式可以将候选生成对抗网络的中生成器的硬件延时作为反馈,反向传播至第一目标神经网络的结构搜索中,可以进一步提升网络结构的搜索效率。
在一些实施例中,上述候选网络结构的生成可以采用模拟退火的方法实现。在模拟退火方法中,根据性能反馈信息确定预设的代价函数的值,继而根据代价函数的值计算温度的增量,进而根据温度的增量对表征当前的候选网络结构的解状态进行状态转移,从而实现根据性能反馈信息生成候选网络结构。
具体地,上述根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构,包括:将上一次搜索操作中第一目标神经网络的候选网络结构作为当前的解状态,根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,采用模拟退火算法对当前的解状态进行状态转移,得到更新后的解状态作为当前搜索操作中确定出的第一目标神经网络的候选网络结构。
在针对第一目标神经网络采用模拟退火算法搜索候选网络结构时,可以基于上一次搜索操作中代价函数的值,以及预设的硬件延时约束信息确定上一搜索操作中退火温度的增量。在当前搜索操作中根据退火温度的增量在第一网络结构搜索空间内对表征当前的候选网络结构的解状态进行状态转移,得到新的解状态,将新的解状态映射为新的候选网络结构。
上述第二神经网络的候选网络结构也可以采用模拟退火的方法进行迭代更新。
采用模拟退火算法进行候选网络结构的搜索,可以搜索出全局最优的网络结构。
在一些实施例中,硬件延时约束信息包括:与预设的终端设备对应的硬件延时约束信息。预设的终端设备的硬件延时约束信息可以根据其处理器类型、型号来确定,或者与该终端设备上安装的应用程序中与第一目标神经网络实现的功能的实时性需求相关。
上述用于生成神经网络的结构的方法还可以包括:向预设的终端设备发送第一目标神经网络的目标结构的结构信息,以在预设的终端设备根据结构信息部署第一目标神经网络。
由于在搜索第一目标神经网络的目标结构的过程中已经基于媒体数据样本对目标结构进行了训练,所以在停止搜索操作时可以得到第一目标神经网络的目标结构、以及与目标结构对应的第一目标神经网络的已训练的参数。可以直接将按照第一目标神经网络的目标结构的结构信息和对应的已训练的参数,在终端设备部署第一目标神经网络。
或者,在确定第一目标神经网络的目标结构之后,可以采用新的媒体数据样本对第一目标神经网络进行再训练,以进一步优化第一目标神经网络的参数。然后可以将优化后的参数发送至终端设备。终端设备可以按照优化后的参数设置第一神经网络的参数。
上述实施例通过基于预设的终端设备的硬件延时约束信息搜索出最适合的第一目标神经网络的网络结构,之后向预设的终端设备发送第一目标神经网络的目标结构的结构信息,能够有效地针对预设终端的个性化需求搜索出性能良好的网络结构,使得上述用于生成神经网络的结构的方法可以被更广泛地应用在针对各种终端设备的网络结构搜索中。
请参考图4,作为对上述用于生成神经网络的结构的方法的实现,本公开提供了一种用于生成神经网络的结构的装置的一个实施例,该装置实施例与图1和图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图4所示,本实施例的用于生成神经网络的结构的装置400包括获取单元401和搜索单元402。其中,获取单元401被配置为获取初始的性能反馈信息;搜索单元402被配置为执行搜索操作。搜索单元402包括:
第一生成单元4021,被配置为执行搜索操作中的以下步骤:根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构;第二生成单元4022,被配置为执行搜索操作中的以下步骤:根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构;训练单元4023,被配置为执行搜索操作中的以下步骤:将第一目标神经网络的候选网络结构作为生成器,将第二目标神经网络的候选网络结构作为判别器,构建候选生成对抗网络,基于媒体数据样本对候选生成对抗网络进行训练,确定候选生成对抗网络的性能信息;确定单元4024,被配置为执行搜索操作中的以下步骤:响应于确定候选生成对抗网络的性能信息满足预设的条件或执行搜索操作的次数达到预设的次数阈值,确定候选生成对抗网络中的生成器为第一目标神经网络的目标结构。
在一些实施例中,上述搜索单元402还包括:更新单元,被配置为执行搜索操作中的如下步骤:响应于确定各候选生成对抗网络的性能信息不满足预设的条件且执行搜索操作的次数未达到预设的次数阈值,基于候选生成对抗网络的性能信息更新性能反馈信息,并执行下一次搜索操作。
在一些实施例中,上述候选生成对抗网络的性能信息包括候选生成对抗网络中的生成器的硬件延时;上述更新单元被配置为按照如下方式更新性能反馈信息:根据候选生成对抗网络中的生成器的硬件延时与预设的硬件延时约束信息之间的差异,生成性能反馈信息。
在一些实施例中,上述第一确定单元4021包括:转移模块,被配置为将上一次搜索操作中第一目标神经网络的候选网络结构作为当前的解状态,根据预设的硬件延时约束信息、性能反馈信息以及预设的第一网络结构搜索空间,采用模拟退火算法对当前的解状态进行状态转移,得到更新后的解状态作为当前搜索操作中确定出的第一目标神经网络的候选网络结构。
在一些实施例中,上述硬件延时约束信息包括:与预设的终端设备对应的硬件延时约束信息;上述装置还包括:发送单元,被配置为向预设的终端设备发送第一目标神经网络的目标结构的结构信息,以在预设的终端设备根据结构信息部署第一目标神经网络。
上述装置400与参考图1和图2描述的方法中的步骤相对应。由此,上文针对用于生成神经网络的结构的方法描述的操作、特征及所能达到的技术效果同样适用于装置400及其中包含的单元,在此不再赘述。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图5所示,是根据本申请实施例的用于生成神经网络的结构的方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图5所示,该电子设备包括:一个或多个处理器501、存储器502,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图5中以一个处理器501为例。
存储器502即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的用于生成神经网络的结构的方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的用于生成神经网络的结构的方法。
存储器502作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的用于生成神经网络的结构的方法对应的程序指令/单元/模块(例如,附图4所示的获取模块401和搜索模块402)。处理器501通过运行存储在存储器502中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的用于生成神经网络的结构的方法。
存储器502可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据用于生成神经网络的结构的电子设备的使用所创建的数据等。此外,存储器502可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器502可选包括相对于处理器501远程设置的存储器,这些远程存储器可以通过网络连接至用于生成神经网络的结构的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
用于生成神经网络的结构的方法的电子设备还可以包括:输入装置503和输出装置504。处理器501、存储器502、输入装置503和输出装置504可以通过总线505或者其他方式连接,图5中以通过总线505连接为例。
输入装置503可接收输入的数字或字符信息,以及产生与用于生成神经网络的结构的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置Y04可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
以上描述仅为本公开的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (12)

1.一种用于生成神经网络的结构的方法,包括:获取初始的性能反馈信息,并执行搜索操作;
所述搜索操作包括:
根据预设的硬件延时约束信息、所述性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构,其中,所述硬件延时约束信息用于约束所述第一目标神经网络的候选网络结构的硬件延时;
根据所述性能反馈信息和预设的第二网络结构搜索空间,确定预设的第二目标神经网络的候选网络结构;
将所述第一目标神经网络的候选网络结构作为生成器,将所述第二目标神经网络的候选网络结构作为判别器,构建候选生成对抗网络,基于媒体数据样本对所述候选生成对抗网络进行训练,确定所述候选生成对抗网络的性能信息;
响应于确定所述候选生成对抗网络的性能信息满足预设的条件或执行所述搜索操作的次数达到预设的次数阈值,确定所述候选生成对抗网络中的生成器为所述第一目标神经网络的目标结构;
其中,所述根据预设的硬件延时约束信息、所述性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构,包括:
基于控制器生成所述第一目标神经网络的候选网络结构的编码,对所述编码进行解码,确定所述第一目标神经网络的候选网络结构;
其中,所述根据所述性能反馈信息和预设的第二网络结构搜索空间,确定预设的第二目标神经网络的候选网络结构,包括:
组建所述第二目标神经网络的结构单元;
对所述第二目标神经网络的结构单元进行组合,构建出所述第二目标神经网络的候选网络结构。
2.根据权利要求1所述的方法,其中,所述搜索操作还包括:响应于确定各所述候选生成对抗网络的性能信息不满足预设的条件且执行所述搜索操作的次数未达到预设的次数阈值,基于所述候选生成对抗网络的性能信息更新所述性能反馈信息,并执行下一次搜索操作。
3.根据权利要求2所述的方法,其中,所述候选生成对抗网络的性能信息包括所述候选生成对抗网络中的生成器的硬件延时;
所述基于所述候选生成对抗网络的性能信息更新所述性能反馈信息,包括:
根据所述候选生成对抗网络中的生成器的硬件延时与所述预设的硬件延时约束信息之间的差异,生成所述性能反馈信息。
4.根据权利要求1所述的方法,其中,所述根据预设的硬件延时约束信息、所述性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构,包括:
将上一次搜索操作中第一目标神经网络的候选网络结构作为当前的解状态,根据预设的硬件延时约束信息、所述性能反馈信息以及所述预设的第一网络结构搜索空间,采用模拟退火算法对所述当前的解状态进行状态转移,得到更新后的解状态作为当前搜索操作中确定出的第一目标神经网络的候选网络结构。
5.根据权利要求1-4任一项所述的方法,其中,所述硬件延时约束信息包括:与预设的终端设备对应的硬件延时约束信息;
所述方法还包括:
向所述预设的终端设备发送所述第一目标神经网络的目标结构的结构信息,以在所述预设的终端设备根据所述结构信息部署所述第一目标神经网络。
6.一种用于生成神经网络的结构的装置,包括:
获取单元,被配置为获取初始的性能反馈信息;
搜索单元,被配置为执行搜索操作;
所述搜索单元包括:
第一生成单元,被配置为执行所述搜索操作中的以下步骤:根据预设的硬件延时约束信息、所述性能反馈信息以及预设的第一网络结构搜索空间,确定预设的第一目标神经网络的候选网络结构,其中,所述硬件延时约束信息用于约束所述第一目标神经网络的候选网络结构的硬件延时;
第二生成单元,被配置为执行所述搜索操作中的以下步骤:根据所述性能反馈信息和预设的第二网络结构搜索空间,确定预设的第二目标神经网络的候选网络结构;
训练单元,被配置为执行所述搜索操作中的以下步骤:将所述第一目标神经网络的候选网络结构作为生成器,将所述第二目标神经网络的候选网络结构作为判别器,构建候选生成对抗网络,基于媒体数据样本对所述候选生成对抗网络进行训练,确定所述候选生成对抗网络的性能信息;
确定单元,被配置为执行所述搜索操作中的以下步骤:响应于确定所述候选生成对抗网络的性能信息满足预设的条件或执行所述搜索操作的次数达到预设的次数阈值,确定所述候选生成对抗网络中的生成器为所述第一目标神经网络的目标结构;
其中,所述第一生成单元进一步被配置为:基于控制器生成所述第一目标神经网络的候选网络结构的编码,对所述编码进行解码,确定所述第一目标神经网络的候选网络结构;
其中,所述第二生成单元进一步被配置为:组建所述第二目标神经网络的结构单元;对所述第二目标神经网络的结构单元进行组合,构建出所述第二目标神经网络的候选网络结构。
7.根据权利要求6所述的装置,其中,所述搜索单元还包括:
更新单元,被配置为执行所述搜索操作中的如下步骤:
响应于确定各所述候选生成对抗网络的性能信息不满足预设的条件且执行所述搜索操作的次数未达到预设的次数阈值,基于所述候选生成对抗网络的性能信息更新所述性能反馈信息,并执行下一次搜索操作。
8.根据权利要求7所述的装置,其中,所述候选生成对抗网络的性能信息包括所述候选生成对抗网络中的生成器的硬件延时;
所述更新单元被配置为按照如下方式更新所述性能反馈信息:
根据所述候选生成对抗网络中的生成器的硬件延时与所述预设的硬件延时约束信息之间的差异,生成所述性能反馈信息。
9.根据权利要求6所述的装置,其中,所述第一生成单元包括:
转移模块,被配置为将上一次搜索操作中第一目标神经网络的候选网络结构作为当前的解状态,根据预设的硬件延时约束信息、所述性能反馈信息以及所述预设的第一网络结构搜索空间,采用模拟退火算法对所述当前的解状态进行状态转移,得到更新后的解状态作为当前搜索操作中确定出的第一目标神经网络的候选网络结构。
10.根据权利要求6-9任一项所述的装置,其中,所述硬件延时约束信息包括:与预设的终端设备对应的硬件延时约束信息;
所述装置还包括:
发送单元,被配置为向所述预设的终端设备发送所述第一目标神经网络的目标结构的结构信息,以在所述预设的终端设备根据所述结构信息部署所述第一目标神经网络。
11.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-5中任一项所述的方法。
12.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行权利要求1-5中任一项所述的方法。
CN202010300949.9A 2020-04-16 2020-04-16 用于生成神经网络的结构的方法和装置 Active CN111539514B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010300949.9A CN111539514B (zh) 2020-04-16 2020-04-16 用于生成神经网络的结构的方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010300949.9A CN111539514B (zh) 2020-04-16 2020-04-16 用于生成神经网络的结构的方法和装置

Publications (2)

Publication Number Publication Date
CN111539514A CN111539514A (zh) 2020-08-14
CN111539514B true CN111539514B (zh) 2023-06-06

Family

ID=71975016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010300949.9A Active CN111539514B (zh) 2020-04-16 2020-04-16 用于生成神经网络的结构的方法和装置

Country Status (1)

Country Link
CN (1) CN111539514B (zh)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
EP3864573A1 (en) 2018-10-11 2021-08-18 Tesla, Inc. Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
CN117592384B (zh) * 2024-01-19 2024-05-03 广州市车厘子电子科技有限公司 一种基于生成对抗网络的主动声浪生成方法

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108875833A (zh) * 2018-06-22 2018-11-23 北京智能管家科技有限公司 神经网络的训练方法、人脸识别方法及装置
CN109598337A (zh) * 2018-12-05 2019-04-09 河南工业大学 分解模糊神经网络优化方法及装置
CN109656134A (zh) * 2018-12-07 2019-04-19 电子科技大学 一种基于时空联合递归神经网络的智能车端到端决策方法
CN109877832A (zh) * 2019-02-28 2019-06-14 广东工业大学 一种位置确定方法、系统及相关装置
CN109905287A (zh) * 2018-05-21 2019-06-18 华为技术有限公司 性能指标校准方法及装置
CN110418278A (zh) * 2019-07-25 2019-11-05 李印 一种基于进化神经网络的三维定位系统
CN110543944A (zh) * 2019-09-11 2019-12-06 北京百度网讯科技有限公司 神经网络结构搜索方法、装置、电子设备和介质
CN110766142A (zh) * 2019-10-30 2020-02-07 北京百度网讯科技有限公司 模型生成方法和装置
CN110807515A (zh) * 2019-10-30 2020-02-18 北京百度网讯科技有限公司 模型生成方法和装置
CN110852421A (zh) * 2019-11-11 2020-02-28 北京百度网讯科技有限公司 模型生成方法和装置
CN110909877A (zh) * 2019-11-29 2020-03-24 百度在线网络技术(北京)有限公司 神经网络模型结构搜索方法、装置、电子设备及存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10642846B2 (en) * 2017-10-13 2020-05-05 Microsoft Technology Licensing, Llc Using a generative adversarial network for query-keyword matching
US10621695B2 (en) * 2017-10-31 2020-04-14 Disney Enterprises, Inc. Video super-resolution using an artificial neural network

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109905287A (zh) * 2018-05-21 2019-06-18 华为技术有限公司 性能指标校准方法及装置
CN108875833A (zh) * 2018-06-22 2018-11-23 北京智能管家科技有限公司 神经网络的训练方法、人脸识别方法及装置
CN109598337A (zh) * 2018-12-05 2019-04-09 河南工业大学 分解模糊神经网络优化方法及装置
CN109656134A (zh) * 2018-12-07 2019-04-19 电子科技大学 一种基于时空联合递归神经网络的智能车端到端决策方法
CN109877832A (zh) * 2019-02-28 2019-06-14 广东工业大学 一种位置确定方法、系统及相关装置
CN110418278A (zh) * 2019-07-25 2019-11-05 李印 一种基于进化神经网络的三维定位系统
CN110543944A (zh) * 2019-09-11 2019-12-06 北京百度网讯科技有限公司 神经网络结构搜索方法、装置、电子设备和介质
CN110766142A (zh) * 2019-10-30 2020-02-07 北京百度网讯科技有限公司 模型生成方法和装置
CN110807515A (zh) * 2019-10-30 2020-02-18 北京百度网讯科技有限公司 模型生成方法和装置
CN110852421A (zh) * 2019-11-11 2020-02-28 北京百度网讯科技有限公司 模型生成方法和装置
CN110909877A (zh) * 2019-11-29 2020-03-24 百度在线网络技术(北京)有限公司 神经网络模型结构搜索方法、装置、电子设备及存储介质

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于神经网络的传感器非线性静态特性模型辨识;孙川等;《微计算机信息》;20060110(第01期);第145-148+225页 *
最大绝对误差结合微遗传算法优化径向基概率神经网络;赵温波等;《计算机研究与发展》;20050216(第02期);第1-9页 *

Also Published As

Publication number Publication date
CN111539514A (zh) 2020-08-14

Similar Documents

Publication Publication Date Title
CN111539514B (zh) 用于生成神经网络的结构的方法和装置
EP3923160A1 (en) Method, apparatus, device and storage medium for training model
JP7317791B2 (ja) エンティティ・リンキング方法、装置、機器、及び記憶媒体
CN111539479B (zh) 生成样本数据的方法和装置
KR102484617B1 (ko) 이종 그래프 노드를 표현하는 모델 생성 방법, 장치, 전자 기기, 저장 매체 및 프로그램
CN111582454B (zh) 生成神经网络模型的方法和装置
CN111582479B (zh) 神经网络模型的蒸馏方法和装置
CN111667056B (zh) 用于搜索模型结构的方法和装置
JP7044839B2 (ja) エンドツーエンドモデルのトレーニング方法および装置
CN111563593B (zh) 神经网络模型的训练方法和装置
US11775766B2 (en) Method and apparatus for improving model based on pre-trained semantic model
CN111241838B (zh) 文本实体的语义关系处理方法、装置及设备
CN111582375A (zh) 数据增强策略搜索方法、装置、设备以及存储介质
US20210312293A1 (en) Method and apparatus for determining network model pruning strategy, device and storage medium
US11735168B2 (en) Method and apparatus for recognizing voice
CN110706147B (zh) 图像处理的环境确定方法、装置、电子设备和存储介质
CN112560499B (zh) 语义表示模型的预训练方法、装置、电子设备及存储介质
CN111582477B (zh) 神经网络模型的训练方法和装置
CN111611808B (zh) 用于生成自然语言模型的方法和装置
JP7229291B2 (ja) データ拡張の方法及び装置、機器、記憶媒体
CN112580723B (zh) 多模型融合方法、装置、电子设备和存储介质
CN111582452B (zh) 生成神经网络模型的方法和装置
CN111833391A (zh) 图像深度信息的估计方法及装置
CN111539225B (zh) 语义理解框架结构的搜索方法和装置
CN111340222B (zh) 神经网络模型搜索方法、装置以及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant