CN106169961A - 基于人工智能的神经网络的网络参数处理方法及装置 - Google Patents
基于人工智能的神经网络的网络参数处理方法及装置 Download PDFInfo
- Publication number
- CN106169961A CN106169961A CN201610808208.5A CN201610808208A CN106169961A CN 106169961 A CN106169961 A CN 106169961A CN 201610808208 A CN201610808208 A CN 201610808208A CN 106169961 A CN106169961 A CN 106169961A
- Authority
- CN
- China
- Prior art keywords
- reconstruct
- network parameter
- component identification
- neural network
- neutral net
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0896—Bandwidth or capacity management, i.e. automatically increasing or decreasing capacities
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
本发明提供一种基于人工智能的神经网络的网络参数处理方法及装置。本发明实施例通过获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子,进而根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数,并根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素,使得能够根据所述每个元素标识所对应的重构元素,获得所述神经网络参数,在计算神经网络参数时,通过使用多个不同的随机种子,进行多次随机运算,获得多个压缩参数,进而再利用重构神经网络,根据这些压缩参数来计算神经网络参数的重构元素,只需设置包含一定数量压缩参数例如8个压缩参数的压缩空间信息,而无需分别设置的神经网络参数的具体元素,能够有效减少神经网络的神经网络参数,从而降低了神经网络的内存资源消耗。
Description
【技术领域】
本发明涉及互联网技术,尤其涉及一种基于人工智能的神经网络的网络参数处理方法及装置。
【背景技术】
人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
随着神经网络尤其是深度神经网络的训练数据的增加,为了更好地学习数据特征提升效果,使得用于表示神经网络的神经网络参数迅速增长,这样,会导致内存资源的消耗也迅速增长,这就制约了神经网络的应用场景例如,手机等内存资源有限的终端。
因此,亟需提供一种方法,能够减少神经网络的神经网络参数,以降低神经网络的内存资源消耗。
【发明内容】
本发明的多个方面提供一种基于人工智能的神经网络的网络参数处理方法及装置,用以降低神经网络的内存资源消耗。
本发明的一方面,提供一种基于人工智能的神经网络的网络参数处理方法,包括:
获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子;M为大于或等于1的整数;N为大于或等于2的整数;
根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数;
根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素;
根据所述每个元素标识所对应的重构元素,获得所述神经网络参数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数,包括:
根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个随机标识;
根据所述N个随机标识和预先设置的压缩空间信息,获得所述每个元素标识的N个压缩参数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素,包括:
获得预先设置的所述重构神经网络的一组重构神经网络参数;或者根据所述每个元素标识,在预先设置的所述重构神经网络的至少两组重构神经网络参数中进行选择,以获得一组重构神经网络参数;
根据所获得的所述重构神经网络参数,获得所述每个元素标识所对应的重构元素。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,还包括:
获得所述神经网络参数所属原始神经网络的损失函数;
根据所述损失函数,获得所述损失函数对所述神经网络参数的全部压缩参数中每个压缩参数的梯度;
根据所述每个压缩参数的梯度,利用梯度下降法,更新所述每个压缩参数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,还包括:
获得所述神经网络参数所属原始神经网络的损失函数;
根据所述损失函数,获得所述损失函数对所述重构神经网络的全部重构神经网络参数中每个重构神经网络参数的梯度;
根据所述每个重构神经网络参数的梯度,利用梯度下降法,更新所述每个重构神经网络参数。
本发明的另一方面,提供一种基于人工智能的神经网络的网络参数处理装置,包括:
随机种子单元,用于获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子;M为大于或等于1的整数;N为大于或等于2的整数;
压缩参数单元,用于根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数;
重构元素单元,用于根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素;
网络参数单元,用于根据所述每个元素标识所对应的重构元素,获得所述神经网络参数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述压缩参数单元,具体用于
根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个随机标识;以及
根据所述N个随机标识和预先设置的压缩空间信息,获得所述每个元素标识的N个压缩参数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述重构元素单元,用于
获得预先设置的所述重构神经网络的一组重构神经网络参数;或者根据所述每个元素标识,在预先设置的所述重构神经网络的至少两组重构神经网络参数中进行选择,以获得一组重构神经网络参数;以及
根据所获得的所述重构神经网络参数,获得所述每个元素标识所对应的重构元素。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,还包括压缩参数调整单元,用于
获得所述神经网络参数所属原始神经网络的损失函数;
根据所述损失函数,获得所述损失函数对所述神经网络参数的全部压缩参数中每个压缩参数的梯度;以及
根据所述每个压缩参数的梯度,利用梯度下降法,更新所述每个压缩参数。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,还包括重构神经网络参数调整单元,用于
获得所述神经网络参数所属原始神经网络的损失函数;
根据所述损失函数,获得所述损失函数对所述重构神经网络的全部重构神经网络参数中每个重构神经网络参数的梯度;以及
根据所述每个重构神经网络参数的梯度,利用梯度下降法,更新所述每个重构神经网络参数。
由上述技术方案可知,本发明实施例通过获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子,进而根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数,并根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素,使得能够根据所述每个元素标识所对应的重构元素,获得所述神经网络参数,在计算神经网络参数时,通过使用多个不同的随机种子,进行多次随机运算,获得多个压缩参数,进而再利用重构神经网络,根据这些压缩参数来计算神经网络参数的重构元素,只需设置包含一定数量压缩参数例如8个压缩参数的压缩空间信息,而无需分别设置的神经网络参数的具体元素,能够有效减少神经网络的神经网络参数,从而降低了神经网络的内存资源消耗。
另外,采用本发明所提供的技术方案,由于构成神经网络参数的重构元素是基于压缩空间信息中所包含的多个压缩参数所获得的,因此,能够有效减少重构元素对单个压缩参数的依赖。
另外,采用本发明所提供的技术方案,由于构成神经网络参数的重构元素是基于压缩空间信息中所包含的多个压缩参数所获得的,因此,能够有效提高压缩空间信息的利用率。
【附图说明】
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明一实施例提供的基于人工智能的神经网络的网络参数处理方法的流程示意图;
图2为本发明另一实施例提供的基于人工智能的神经网络的网络参数处理装置的结构示意图;
图3为本发明另一实施例提供的基于人工智能的神经网络的网络参数处理装置的结构示意图;
图4为本发明另一实施例提供的基于人工智能的神经网络的网络参数处理装置的结构示意图。
【具体实施方式】
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的全部其他实施例,都属于本发明保护的范围。
需要说明的是,本发明实施例中所涉及的终端可以包括但不限于手机、个人数字助理(Personal Digital Assistant,PDA)、无线手持设备、平板电脑(Tablet Computer)、个人电脑(Personal Computer,PC)、MP3播放器、MP4播放器、可穿戴设备(例如,智能眼镜、智能手表、智能手环等)等。
另外,本文中术语“和/或”,仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
图1为本发明一实施例提供的基于人工智能的神经网络的网络参数处理方法的流程示意图,如图1所示。
101、获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子;M为大于或等于1的整数;N为大于或等于2的整数。
其中,所谓的神经网络参数,是指神经网络中,每个层结构中所具有的神经网络参数中的任意一个神经网络参数。本发明所提供的技术方案,可以针对每个层结构中,获得任意一个神经网络参数。
102、根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数。
103、根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素。
104、根据所述每个元素标识所对应的重构元素,获得所述神经网络参数。
需要说明的是,101~104的执行主体的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopmentKit,SDK)等功能单元,或者还可以为位于网络侧服务器中的搜索引擎,或者还可以为位于网络侧的分布式系统,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在终端上的本地程序(nativeApp),或者还可以是终端上的浏览器的一个网页程序(webApp),本实施例对此不进行特别限定。
这样,通过使用多个不同的随机种子,进行多次随机运算,获得多个压缩参数,进而再利用重构神经网络,根据这些压缩参数,就可以来计算神经网络参数的重构元素,只需设置包含一定数量压缩参数例如8个压缩参数的压缩空间信息,而无需分别设置的神经网络参数的具体元素,能够有效减少神经网络的神经网络参数,从而降低了神经网络的内存资源消耗。
可选地,在本实施例的一个可能的实现方式中,在102中,具体可以根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个随机标识。例如,对每个元素标识和该元素标识所采用的N个随机种子,分别进行哈希运算,以获得所述每个元素标识的N个随机标识。其中,哈希运算可以采用哈希函数h1(x,s),x是输入,s是随机种子(randomseed)。在获得每个元素标识的N个随机标识之后,则可以根据所述N个随机标识和预先设置的压缩空间信息,获得所述每个元素标识的N个压缩参数。
下面将以一个x为输入,y为输出的神经网络的层结构,作为举例,对该层结构所采用的神经网络参数的处理过程进行详细说明。首先,进行如下符号的定义:
x是一个d1维向量,{xi,i=1…d1}是其每一维的元素;
y是一个d2维向量,{yi,i=1…d2}是其每一维的元素;
预先设置的压缩空间信息c,是一个长度为d3的数组,{ci,i=1…d3}是其的元素;
神经网络参数V,是一个d2×d1的矩阵,{Vij,i=1…d2,j=1…d1}是其的元素;
随机种子(randomseed)集合s,是一个d4维向量,{si,i=1…d4}是其每一维的元素;
重构神经网络的重构函数g(x|α),x是一个d4维向量,α是小型轻量级神经网络的参数矩阵即重构神经网络参数;
哈希(Hash)函数h1(x,s),x是输入,s是随机种子;
哈希(Hash)函数h2(x,s),x是输入,s是随机种子。
对于神经网络参数V的每个元素Vij,i=1…d2,j=1…d1,可以利用哈希(Hash)函数h1(x,s)和随机种子(randomseed)集合s,计算用于获得重构元素的压缩空间信息c的下标hi=h1(x,si),i=1…d4,x=i×d2+j。在获得压缩空间信息c的下标hi之后,则可以将用于获得重构元素的压缩参数选择为即那么,对于神经网络参数V的每个元素Vij,则可以利用重构函数g(x|α)获得,即
为了进一步避免不同元素标识的N个压缩参数的取值相同,可以引入一个随机符号其取值可以为1或者-1,即其中,{sk,k=1…d4}也可以表示随机种子(randomseed)集合s每一维的元素。利用该随机符号可以对所选择的压缩参数进行一个符号处理即那么,对于神经网络参数V的每个元素Vij,则可以利用重构函数g(x|α)获得,即
可选地,在本实施例的一个可能的实现方式中,在103中,具体可以获得预先设置的所述重构神经网络的一组重构神经网络参数,或者还可以根据所述每个元素标识,在预先设置的所述重构神经网络的至少两组重构神经网络参数中进行选择,以获得一组重构神经网络参数例如,对每个元素标识,分别进行哈希运算,以获得所述每个元素标识的一组重构神经网络参数。。然后,在获得了每个元素标识的一组重构神经网络参数之后,则可以根据所获得的所述重构神经网络参数,获得所述每个元素标识所对应的重构元素。
可选地,在本实施例的一个可能的实现方式中,在104之后,还可以进一步获得所述神经网络参数所属原始神经网络的损失函数,进而,则可以根据所述损失函数,获得所述损失函数对所述神经网络参数的全部压缩参数中每个压缩参数的梯度。然后,可以根据所述每个压缩参数的梯度,利用梯度下降法,更新所述每个压缩参数。
可选地,在本实施例的一个可能的实现方式中,在104之后,还可以进一步获得所述神经网络参数所属原始神经网络的损失函数,进而,则可以根据所述损失函数,获得所述损失函数对所述重构神经网络的全部重构神经网络参数中每个重构神经网络参数的梯度。然后,可以根据所述每个重构神经网络参数的梯度,利用梯度下降法,更新所述每个重构神经网络参数。
本实施例中,通过获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子,进而根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数,并根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素,使得能够根据所述每个元素标识所对应的重构元素,获得所述神经网络参数,在计算神经网络参数时,通过使用多个不同的随机种子,进行多次随机运算,获得多个压缩参数,进而再利用重构神经网络,根据这些压缩参数来计算神经网络参数的重构元素,只需设置包含一定数量压缩参数例如8个压缩参数的压缩空间信息,而无需分别设置的神经网络参数的具体元素,能够有效减少神经网络的神经网络参数,从而降低了神经网络的内存资源消耗。
另外,采用本发明所提供的技术方案,由于构成神经网络参数的重构元素是基于压缩空间信息中所包含的多个压缩参数所获得的,因此,能够有效减少重构元素对单个压缩参数的依赖。
另外,采用本发明所提供的技术方案,由于构成神经网络参数的重构元素是基于压缩空间信息中所包含的多个压缩参数所获得的,因此,能够有效提高压缩空间信息的利用率。
需要说明的是,对于前述的各方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本发明并不受所描述的动作顺序的限制,因为依据本发明,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本发明所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其他实施例的相关描述。
图2为本发明另一实施例提供的基于人工智能的神经网络的网络参数处理装置的结构示意图,如图2所示。本实施例的基于人工智能的神经网络的网络参数处理装置可以包括随机种子单元21、压缩参数单元22、重构元素单元23和网络参数单元24。其中,随机种子单元21,用于获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子;M为大于或等于1的整数;N为大于或等于2的整数;压缩参数单元22,用于根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数;重构元素单元23,用于根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素;网络参数单元24,用于根据所述每个元素标识所对应的重构元素,获得所述神经网络参数。
需要说明的是,本实施例所提供的基于人工智能的神经网络的网络参数处理装置的部分或全部可以为位于本地终端的应用,或者还可以为设置在位于本地终端的应用中的插件或软件开发工具包(SoftwareDevelopmentKit,SDK)等功能单元,或者还可以为位于网络侧服务器中的搜索引擎,或者还可以为位于网络侧的分布式系统,本实施例对此不进行特别限定。
可以理解的是,所述应用可以是安装在终端上的本地程序(nativeApp),或者还可以是终端上的浏览器的一个网页程序(webApp),本实施例对此不进行特别限定。
可选地,在本实施例的一个可能的实现方式中,所述压缩参数单元22,具体可以用于根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个随机标识;以及根据所述N个随机标识和预先设置的压缩空间信息,获得所述每个元素标识的N个压缩参数。
可选地,在本实施例的一个可能的实现方式中,所述重构元素单元23,具体可以用于获得预先设置的所述重构神经网络的一组重构神经网络参数;或者根据所述每个元素标识,在预先设置的所述重构神经网络的至少两组重构神经网络参数中进行选择,以获得一组重构神经网络参数;以及根据所获得的所述重构神经网络参数,获得所述每个元素标识所对应的重构元素。
可选地,在本实施例的一个可能的实现方式中,如图3所示,本实施例所提供的基于人工智能的神经网络的网络参数处理装置还可以进一步包括压缩参数调整单元31,可以用于获得所述神经网络参数所属原始神经网络的损失函数;根据所述损失函数,获得所述损失函数对所述神经网络参数的全部压缩参数中每个压缩参数的梯度;以及根据所述每个压缩参数的梯度,利用梯度下降法,更新所述每个压缩参数。
可选地,在本实施例的一个可能的实现方式中,如图4所示,本实施例所提供的基于人工智能的神经网络的网络参数处理装置还可以进一步包括重构神经网络参数调整单元41,可以用于获得所述神经网络参数所属原始神经网络的损失函数;根据所述损失函数,获得所述损失函数对所述重构神经网络的全部重构神经网络参数中每个重构神经网络参数的梯度;以及根据所述每个重构神经网络参数的梯度,利用梯度下降法,更新所述每个重构神经网络参数。
需要说明的是,图1对应的实施例中方法,可以由本实施例提供的基于人工智能的神经网络的网络参数处理装置实现。详细描述可以参见图1对应的实施例中的相关内容,此处不再赘述。
本实施例中,通过随机种子单元获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子,进而由压缩参数单元根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数,并由重构元素单元根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素,使得网络参数单元能够根据所述每个元素标识所对应的重构元素,获得所述神经网络参数,在计算神经网络参数时,通过使用多个不同的随机种子,进行多次随机运算,获得多个压缩参数,进而再利用重构神经网络,根据这些压缩参数来计算神经网络参数的重构元素,只需设置包含一定数量压缩参数例如8个压缩参数的压缩空间信息,而无需分别设置的神经网络参数的具体元素,能够有效减少神经网络的神经网络参数,从而降低了神经网络的内存资源消耗。
另外,采用本发明所提供的技术方案,由于构成神经网络参数的重构元素是基于压缩空间信息中所包含的多个压缩参数所获得的,因此,能够有效减少重构元素对单个压缩参数的依赖。
另外,采用本发明所提供的技术方案,由于构成神经网络参数的重构元素是基于压缩空间信息中所包含的多个压缩参数所获得的,因此,能够有效提高压缩空间信息的利用率。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统,装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
在本发明所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)或处理器(processor)执行本发明各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围。
Claims (10)
1.一种基于人工智能的神经网络的网络参数处理方法,其特征在于,包括:
获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子;M为大于或等于1的整数;N为大于或等于2的整数;
根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数;
根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素;
根据所述每个元素标识所对应的重构元素,获得所述神经网络参数。
2.根据权利要求1所述的方法,其特征在于,所述根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数,包括:
根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个随机标识;
根据所述N个随机标识和预先设置的压缩空间信息,获得所述每个元素标识的N个压缩参数。
3.根据权利要求1所述的方法,其特征在于,所述根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素,包括:
获得预先设置的所述重构神经网络的一组重构神经网络参数;或者根据所述每个元素标识,在预先设置的所述重构神经网络的至少两组重构神经网络参数中进行选择,以获得一组重构神经网络参数;
根据所获得的所述重构神经网络参数,获得所述每个元素标识所对应的重构元素。
4.根据权利要求1~3任一权利要求所述的方法,其特征在于,还包括:
获得所述神经网络参数所属原始神经网络的损失函数;
根据所述损失函数,获得所述损失函数对所述神经网络参数的全部压缩参数中每个压缩参数的梯度;
根据所述每个压缩参数的梯度,利用梯度下降法,更新所述每个压缩参数。
5.根据权利要求1~3任一权利要求所述的方法,其特征在于,还包括:
获得所述神经网络参数所属原始神经网络的损失函数;
根据所述损失函数,获得所述损失函数对所述重构神经网络的全部重构神经网络参数中每个重构神经网络参数的梯度;
根据所述每个重构神经网络参数的梯度,利用梯度下降法,更新所述每个重构神经网络参数。
6.一种基于人工智能的神经网络的网络参数处理装置,其特征在于,包括:
随机种子单元,用于获得神经网络参数的M个元素标识中每个元素标识所采用的N个随机种子;M为大于或等于1的整数;N为大于或等于2的整数;
压缩参数单元,用于根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个压缩参数;
重构元素单元,用于根据所述每个元素标识的N个压缩参数,利用重构神经网络,获得所述每个元素标识所对应的重构元素;
网络参数单元,用于根据所述每个元素标识所对应的重构元素,获得所述神经网络参数。
7.根据权利要求6所述的装置,其特征在于,所述压缩参数单元,具体用于
根据所述每个元素标识和该元素标识所采用的N个随机种子,获得所述每个元素标识的N个随机标识;以及
根据所述N个随机标识和预先设置的压缩空间信息,获得所述每个元素标识的N个压缩参数。
8.根据权利要求6所述的装置,其特征在于,所述重构元素单元,用于
获得预先设置的所述重构神经网络的一组重构神经网络参数;或者根据所述每个元素标识,在预先设置的所述重构神经网络的至少两组重构神经网络参数中进行选择,以获得一组重构神经网络参数;以及
根据所获得的所述重构神经网络参数,获得所述每个元素标识所对应的重构元素。
9.根据权利要求6~8任一权利要求所述的装置,其特征在于,还包括压缩参数调整单元,用于
获得所述神经网络参数所属原始神经网络的损失函数;
根据所述损失函数,获得所述损失函数对所述神经网络参数的全部压缩参数中每个压缩参数的梯度;以及
根据所述每个压缩参数的梯度,利用梯度下降法,更新所述每个压缩参数。
10.根据权利要求6~8任一权利要求所述的装置,其特征在于,还包括重构神经网络参数调整单元,用于
获得所述神经网络参数所属原始神经网络的损失函数;
根据所述损失函数,获得所述损失函数对所述重构神经网络的全部重构神经网络参数中每个重构神经网络参数的梯度;以及
根据所述每个重构神经网络参数的梯度,利用梯度下降法,更新所述每个重构神经网络参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610808208.5A CN106169961B (zh) | 2016-09-07 | 2016-09-07 | 基于人工智能的神经网络的网络参数处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610808208.5A CN106169961B (zh) | 2016-09-07 | 2016-09-07 | 基于人工智能的神经网络的网络参数处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN106169961A true CN106169961A (zh) | 2016-11-30 |
CN106169961B CN106169961B (zh) | 2019-07-23 |
Family
ID=57376205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610808208.5A Active CN106169961B (zh) | 2016-09-07 | 2016-09-07 | 基于人工智能的神经网络的网络参数处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106169961B (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107992611A (zh) * | 2017-12-15 | 2018-05-04 | 清华大学 | 基于柯西分布哈希方法的高维数据检索方法与系统 |
WO2018120019A1 (zh) * | 2016-12-30 | 2018-07-05 | 上海寒武纪信息科技有限公司 | 用于神经网络数据的压缩/解压缩的装置和系统 |
CN111033531A (zh) * | 2017-06-21 | 2020-04-17 | Arm有限公司 | 用于格式化神经网络参数的系统和设备 |
CN111033530A (zh) * | 2017-06-21 | 2020-04-17 | Arm有限公司 | 用于压缩神经网络参数的系统和设备 |
KR20200104959A (ko) * | 2019-02-27 | 2020-09-07 | 한국전력공사 | 분산 딥러닝 환경에서 데이터 압축 장치 및 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090138420A1 (en) * | 2007-11-28 | 2009-05-28 | The Boeing Company | Methods And System For Modeling Network Traffic |
CN105868467A (zh) * | 2016-03-28 | 2016-08-17 | 南京航空航天大学 | 一种动稳态航空发动机机载模型构建方法 |
CN105894087A (zh) * | 2015-01-26 | 2016-08-24 | 华为技术有限公司 | 用于神经网络中训练参数集的系统和方法 |
-
2016
- 2016-09-07 CN CN201610808208.5A patent/CN106169961B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090138420A1 (en) * | 2007-11-28 | 2009-05-28 | The Boeing Company | Methods And System For Modeling Network Traffic |
CN105894087A (zh) * | 2015-01-26 | 2016-08-24 | 华为技术有限公司 | 用于神经网络中训练参数集的系统和方法 |
CN105868467A (zh) * | 2016-03-28 | 2016-08-17 | 南京航空航天大学 | 一种动稳态航空发动机机载模型构建方法 |
Non-Patent Citations (1)
Title |
---|
康中尉等: "小波神经网络在缺陷数据压缩和信号重构中的应用", 《无损检测》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018120019A1 (zh) * | 2016-12-30 | 2018-07-05 | 上海寒武纪信息科技有限公司 | 用于神经网络数据的压缩/解压缩的装置和系统 |
CN111033531A (zh) * | 2017-06-21 | 2020-04-17 | Arm有限公司 | 用于格式化神经网络参数的系统和设备 |
CN111033530A (zh) * | 2017-06-21 | 2020-04-17 | Arm有限公司 | 用于压缩神经网络参数的系统和设备 |
CN111033531B (zh) * | 2017-06-21 | 2023-10-27 | Arm有限公司 | 用于格式化神经网络参数的系统和设备 |
CN107992611A (zh) * | 2017-12-15 | 2018-05-04 | 清华大学 | 基于柯西分布哈希方法的高维数据检索方法与系统 |
KR20200104959A (ko) * | 2019-02-27 | 2020-09-07 | 한국전력공사 | 분산 딥러닝 환경에서 데이터 압축 장치 및 방법 |
KR102425039B1 (ko) | 2019-02-27 | 2022-07-28 | 한국전력공사 | 분산 딥러닝 환경에서 데이터 압축 장치 및 방법 |
Also Published As
Publication number | Publication date |
---|---|
CN106169961B (zh) | 2019-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106169961A (zh) | 基于人工智能的神经网络的网络参数处理方法及装置 | |
CN111507768B (zh) | 一种潜在用户的确定方法及相关装置 | |
CN109816009A (zh) | 基于图卷积的多标签图像分类方法、装置及设备 | |
CN107273503A (zh) | 用于生成同语言平行文本的方法和装置 | |
CN108846445A (zh) | 一种基于相似性学习的卷积神经网络滤波器剪枝技术 | |
CN109376844A (zh) | 基于云平台和模型推荐的神经网络自动训练方法和装置 | |
CN107526725A (zh) | 基于人工智能的用于生成文本的方法和装置 | |
CN109165573A (zh) | 用于提取视频特征向量的方法和装置 | |
CN106484766B (zh) | 基于人工智能的搜索方法和装置 | |
Muhammad et al. | Tree-based deep networks for edge devices | |
CN109242013A (zh) | 一种数据标注方法、装置、电子设备及存储介质 | |
US11423307B2 (en) | Taxonomy construction via graph-based cross-domain knowledge transfer | |
CN107958247A (zh) | 用于人脸图像识别的方法和装置 | |
CN106485773A (zh) | 一种用于生成动画数据的方法和装置 | |
CN107145485A (zh) | 用于压缩主题模型的方法和装置 | |
CN106599194A (zh) | 标签确定方法及装置 | |
CN112232889A (zh) | 一种用户兴趣画像扩展方法、装置、设备及存储介质 | |
CN108846695A (zh) | 终端更换周期的预测方法及装置 | |
CN105894028A (zh) | 用户识别方法和装置 | |
CN112508190A (zh) | 结构化稀疏参数的处理方法、装置、设备及存储介质 | |
CN112950640A (zh) | 视频人像分割方法、装置、电子设备及存储介质 | |
CN109145107A (zh) | 基于卷积神经网络的主题提取方法、装置、介质和设备 | |
CN107402905A (zh) | 基于神经网络的计算方法及装置 | |
CN107729931A (zh) | 图片评分方法和装置 | |
CN110390014A (zh) | 一种主题挖掘方法、装置及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |