CN110659732B - 一种智能调节神经网络模型的方法 - Google Patents
一种智能调节神经网络模型的方法 Download PDFInfo
- Publication number
- CN110659732B CN110659732B CN201910895105.0A CN201910895105A CN110659732B CN 110659732 B CN110659732 B CN 110659732B CN 201910895105 A CN201910895105 A CN 201910895105A CN 110659732 B CN110659732 B CN 110659732B
- Authority
- CN
- China
- Prior art keywords
- neural network
- network model
- compression rate
- accuracy
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Neurology (AREA)
- Information Transfer Between Computers (AREA)
Abstract
本发明涉及一种智能调节神经网络模型的方法,设置一服务端以及与服务端远程连接的用户端;服务端内预设一训练完成的具有预设压缩率的神经网络模型;用户端内包括需要应用神经网络模型处理数据的应用程序;方法具体包括:步骤S1,服务端将神经网络模型发送至用户端,用户端应用神经网络模型,通过应用程序对数据进行处理;步骤S2,用户端在预设时段内判断数据的处理结果的正确率是否匹配神经网络模型当前的压缩率:若不匹配,则用户端调整神经网络模型的压缩率,随后转向下一个预设时段,并返回步骤S2;若匹配,则用户端保持神经网络模型当前的压缩率不变,随后退出。可以有效的节省存储器的空间和降低使用神经网络功能时的功耗。
Description
技术领域
本发明涉及神经网络模型领域,尤其涉及一种智能调节神经网络模型的方法。
背景技术
边缘计算是指在靠近物或数据源头的一侧,采用网络、计算、存储、应用核心能力为一体的开放平台,就近提供最近端服务。其应用程序在边缘侧发起,产生更快的网络服务响应,满足行业在实时业务、应用智能、安全与隐私保护等方面的基本需求。边缘计算处于物理实体和工业连接之间,或处于物理实体的顶端。而云端计算,仍然可以访问边缘计算的历史数据;对物联网而言,边缘计算技术取得突破,意味着许多控制将通过本地设备实现而无需交由云端,处理过程将在本地边缘计算层完成。这无疑将大大提升处理效率,减轻云端的负荷。由于更加靠近用户,还可为用户提供更快的响应,将需求在边缘端解决;边缘设备其存储器所能存储的数据容量往往比较小,因此将边缘计算AI软件、神经网络模型在边缘设备中广泛的部署,其软件的容量大小往往成为一个重要问题。
发明内容
本发明的目的在于,提供一种智能调节神经网络模型的方法,解决以上技术问题。
本发明所解决的技术问题可以采用以下技术方案来实现:
一种智能调节神经网络模型的方法,其特征在于,设置一服务端以及与所述服务端远程连接的用户端;
于所述服务端内预设有一训练完成的神经网络模型,所述神经网络模型具有预设的压缩率;
于所述用户端内包括需要应用所述神经网络模型处理数据的应用程序;
所述方法具体包括:
步骤S1,所述服务端将所述神经网络模型发送至所述用户端,所述用户端应用所述神经网络模型,通过所述应用程序对数据进行处理;
步骤S2,所述用户端在预设时段内判断数据的处理结果的正确率是否匹配于所述神经网络模型当前的压缩率:
若不匹配,则所述用户端调整所述神经网络模型的压缩率,随后转向下一个预设时段,并返回所述步骤S2;
若匹配,则所述用户端保持所述神经网络模型当前的压缩率不变,随后退出。
优选地,所述步骤S2具体包括:
步骤S21a,所述用户端在当前的预设时段内判断数据的处理结果的正确率是否不低于一预设的第一更新阈值:
若是,则转向步骤S22a;
若否,则所述用户端保持所述神经网络模型当前的压缩率不变,随后退出;
步骤S22a,所述用户端对所述神经网络模型进行一次压缩,随后转向下一个所述预设时段,并转向步骤S23a;
步骤S23a,所述用户端在当前的所述预设时段内判断所述处理结果的正确率是否不低于一预设的更新阈值:
若是,则返回所述步骤S22a;
若否,则转向步骤S24a;
步骤S24a,所述用户端判断所述处理结果的正确率是否低于一预设的第一下限阈值:
若是,则所述用户端将所述神经网络模型恢复成上一个所述预设时段内应用的压缩率,随后退出;
若否,则所述用户端保持所述神经网络模型当前的压缩率不变,随后退出。
优选地,所述服务端发送给所述用户端的所述神经网络模型未经过压缩。
优选地,预先将所述神经网络模型的压缩率由高至低划分为多个压缩等级;
所述步骤S1中,所述服务端向所述用户端发送的所述神经网络模型拥有最高的压缩等级的压缩率;
所述步骤S2具体包括:
步骤S21b,所述用户端在当前的预设时段内判断数据的处理结果的正确率是否不低于一预设的第二下限阈值:
若是,则所述用户端保持所述神经网络模型当前的压缩率不变,随后退出;
若否,则所述用户端将所述神经网络模型的压缩率调至低一级的压缩等级,随后转向下一个所述预设时段,并返回所述步骤S21b。
优选地,预先将所述神经网络模型的压缩率由高至低划分为多个压缩等级,多个所述压缩等级中包括一中间的压缩等级;
所述步骤S1中,所述服务端向所述用户端发送的所述神经网络模型拥有中间的压缩等级的压缩率;
所述步骤S2具体包括:
步骤S21c,所述用户端在当前的预设时段内判断数据的处理结果的正确率:
若所述正确率不低于一预设的第二更新阈值,则转向步骤S22c;
若所述正确率在所述第二更新阈值和一预设的第三下限阈值之间,则转向步骤S23c;
若所述正确率低于所述第三下限阈值,则转向步骤S24c;
步骤S22c,所述用户端对所述神经网络模型进行一次压缩,随后转向下一个预设时段,并转向步骤S25c;
步骤S23c,所述用户端保持所述神经网络模型当前的压缩率不变,随后退出;
步骤S24c,所述用户端将所述神经网络模型的压缩率调至低一级的压缩等级,随后转向下一个所述预设时段,并转向步骤S26c;
步骤S25c,所述用户端在当前的所述预设时段内再次判断数据的处理结果的正确率:
若所述正确率不低于所述第三下限阈值,则返回所述步骤S22c;
若所述正确率在所述第二更新阈值和一预设的第三下限阈值之间,则返回所述步骤S23c;
若所述正确率低于所述第三下限阈值,则将所述神经网络模型恢复成上一个所述预设时段内应用的压缩率,随后退出;
步骤S26c,所述用户端在当前的所述预设时段内再次判断数据的处理结果的正确率:
若所述正确率低于所述第三下限阈值,则返回所述步骤S24c;
若所述正确率不低于所述第三下限阈值,则保持所述神经网络模型当前的压缩率不变,随后退出。
优选地,所述预设时段为一周或者一个月。
优选地,所述用户端包括便携式电子设备、边缘计算设备。
优选地,所述方法为通过使用不同的变量类型表示神经网络模型的参数。
其有益效果在于:
本发明通过提供一种智能调节神经网络模型的方法可以有效的节省存储器的空间和降低使用神经网络功能时的功耗。
附图说明
图1为本发明的方法流程图;
图2为本发明的未压缩的神经网络模型的方法流程图;
图3为本发明的压缩率最高的神经网络模型的方法流程图;
图4为本发明的压缩率中间的神经网络模型的方法流程图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本发明保护的范围。
需要说明的是,在不冲突的情况下,本发明中的实施例及实施例中的特征可以相互组合。
下面结合附图和具体实施例对本发明作进一步说明,但不作为本发明的限定。
对于边缘计算设备具备可靠性能在离线的情况下完成相应的功能,但是边缘设备往往存储容量不大且需求低功耗,因此可以使用本发明来有效的节省边缘设备的存储空间以及降低使用时的能耗。
如图1所示,一种智能调节神经网络模型的方法,设置一服务端以及与服务端远程连接的用户端;
于服务端内预设有一训练完成的神经网络模型,神经网络模型具有预设的压缩率;于用户端内包括需要应用神经网络模型处理数据的应用程序;
方法具体包括:
步骤S1,服务端将神经网络模型发送至用户端,用户端应用神经网络模型,通过应用程序对数据进行处理;
步骤S2,用户端在预设时段内判断数据的处理结果的正确率是否匹配于神经网络模型当前的压缩率:
若不匹配,则用户端调整神经网络模型的压缩率,随后转向下一个预设时段,并返回步骤S2;
若匹配,则用户端保持神经网络模型当前的压缩率不变,随后退出。
通过这一方法,我们既在保证了正常使用时的正确率又可以降低神经网络模型的占用空间大小也可以有效的降低功耗也可以将不同压缩率的神经网络模型作为初始发送模型。
本发明较佳的实施例中,如图2所示,步骤S2具体包括:
步骤S21a,用户端在当前的预设时段内判断数据的处理结果的正确率是否不低于一预设的第一更新阈值:
若是,则转向步骤S22a;
若否,则用户端保持神经网络模型当前的压缩率不变,随后退出;
步骤S22a,用户端对神经网络模型进行一次压缩,随后转向下一个预设时段,并转向步骤S23a;
步骤S23a,用户端在当前的预设时段内判断处理结果的正确率是否不低于一预设的更新阈值:
若是,则返回步骤S22a;
若否,则转向步骤S24a;
步骤S24a,用户端判断处理结果的正确率是否低于一预设的第一下限阈值:
若是,则用户端将神经网络模型恢复成上一个预设时段内应用的压缩率,随后退出;
若否,则用户端保持神经网络模型当前的压缩率不变,随后退出。
本发明较佳的实施例中,用户端判断处理数据的结果正确率是否不低于第一更新阀值,若不低于神经网络模型进行第一次压缩并转向下一时段,并在当前时段再次判断正确率是否低于预设的更新阀值,若不低于则判断正确率是否低于预设的第一下限阀值,低于则压缩率恢复为上一预设时段的,不低于则保持当前压缩率不变。
本发明较佳的实施例中,如图3所示,步骤S1中,服务端向用户端发送的神经网络模型拥有最高的压缩等级的压缩率;
步骤S2具体包括:
步骤S21b,用户端在当前的预设时段内判断数据的处理结果的正确率是否不低于一预设的第二下限阈值:
若是,则用户端保持神经网络模型当前的压缩率不变,随后退出;
若否,则用户端将神经网络模型的压缩率调至低一级的压缩等级,随后转向下一个预设时段,并返回步骤S21b。
本发明较佳的实施例中,用户判断此时预设时段的数据处理结果的正确率是否不低于预设的第二下限阀值,若是则保持当前的压缩率,若不是则将压缩率调至低一等级的压缩率并转向下一个预设时段。
本发明较佳的实施例中,如图4所示,步骤S1中,服务端向用户端发送的神经网络模型拥有中间的压缩等级的压缩率;
步骤S2具体包括:
步骤S21c,用户端在当前的预设时段内判断数据的处理结果的正确率:
若正确率不低于一预设的第二更新阈值,则转向步骤S22c;
若正确率在第二更新阈值和一预设的第三下限阈值之间,则转向步骤S23c;
若正确率低于第三下限阈值,则转向步骤S24c;
步骤S22c,用户端对神经网络模型进行一次压缩,随后转向下一个预设时段,并转向步骤S25c;
步骤S23c,用户端保持神经网络模型当前的压缩率不变,随后退出;
步骤S24c,用户端将神经网络模型的压缩率调至低一级的压缩等级,随后转向下一个预设时段,并转向步骤S26c;
步骤S25c,用户端在当前的预设时段内再次判断数据的处理结果的正确率:
若正确率不低于第三下限阈值,则返回步骤S22c;
若正确率在第二更新阈值和一预设的第三下限阈值之间,则返回步骤S23c;
若正确率低于第三下限阈值,则将神经网络模型恢复成上一个预设时段内应用的压缩率,随后退出;
步骤S26c,用户端在当前的预设时段内再次判断数据的处理结果的正确率:
若正确率低于第三下限阈值,则返回步骤S24c;
若正确率不低于第三下限阈值,则保持神经网络模型当前的压缩率不变,随后退出。
本发明较佳的实施例中,数据处理结果的正确率分为三种状态,正确率不低于预设的第二更新阈值、正确率在第二更新阈值和预设的第三下限阈值之间、正确率低于第三下限阈值;若正确率不低于预设的第二更新阀值则神经网络模型进行一次压缩并转向下一个预设时段,用户端在下一预设时段再次判断正确率分别为正确率不低于第三下限阈值、正确率在第二更新阈值和一预设的第三下限阈值之间、正确率低于第三下限阈值,若正确率不低于第三下限阈值则对神经网络模型进行再一次压缩并转向下一个预设时段,若正确率在第二更新阈值和一预设的第三下限阈值之间则保持当前压缩率,若正确率低于第三下限阈值则将压缩率调至低一等级并转向下一个预设时段;若正确率在第二更新阈值和一预设的第三下限阈值之间则保持当前压缩率并退出;若正确率在第二更新阈值和预设的第三下限阈值之间则保持当前压缩率不变并退出;若正确率低于第三下限阈值则压缩率调至低一级并转向下一个预设时段,用户在下一预设时段再次判断正确率分别为正确率低于第三下限阈值和正确率不低于第三下限阈值,若正确率低于第三下限阈值则保持当前压缩率不变并退出,若正确率不低于第三下限阈值则将压缩率调至低一级的压缩等级并转向下一预设时段。
本发明较佳的实施例中,预设时段为一周或者一个月。用户端包括便携式电子设备、边缘计算设备。
本发明较佳的实施例中,通过使用不同的变量类型表示神经网络模型的参数。变量的类型可以为双精度64位浮点型、单精度32位浮点型、16位浮点型、8位整型等,变量类型的位数越高所占用的空间容量也就越大但是使用的正确率也会更高。当用户使用的正确率高于更新阈值,则神经网络模型的更新将会依次的从双精度64位浮点型,到单精度32位浮点型,再到16位浮点型,再到8位整型的顺序进行压缩;反之也会按照8位整型,到16位浮点型,再到单精度32位浮点型,再到双精度64位浮点型的顺序进行恢复。
本发明较佳的实施例中,当一个用于语音识别功能的神经网络模型在云端服务器中训练完成达到一个较高的测试正确率后,发送完整的未压缩过的测试正确率最高的64位浮点型的语音识别神经网络模型到用户所使用的智能手机中,在第一个时间周期的使用的过程中统计用户在使用神经网络时的正确率,如用户的语音发音标准,使得语音识别模型的判断正确率高于设置的更新阈值,在下一个时间周期开始前的用户空闲时间中对语音识别模型采用32位浮点型压缩以及进行剪枝以减少语音识别模型的容量。在第二个时间周期中继续统计用户使用此语音识别模型的正确率,如用户的使用的正确率高于更新阈值则再对语音识别模型用16位浮点型以及剪枝进行进一步的压缩以减少存储空间,以此类推。每一个时间周期中都会对用户的使用的正确率进行统计,如果用户使用语音识别模型时使用的正确率低于一个设定的下限阈值时,则语音识别模型将恢复到上一时间周期中所使用的较高位数的变量类型的压缩率较低的压缩状态。如果用户使用语音识别模型的使用的正确率不小于下限阀值而不大于更新阀值时,则会依旧使用当前压缩状态下的语音识别模型不进行更新。在对神经网络进行不同变量类型的压缩以及剪枝的同时由于容量的减少,使用时的能耗也同时减少,此外神经网络模型的计算速度也会加快。
本发明较佳的实施例中,在下棋比赛中,通过对比赛者的下棋技术的判断来进行神经网络模型的压缩;若判断比赛者的技术为初级,则采用低等位的神经网络模型进行压缩;若判断比赛者的技术为中级,则采用中等位的神经网络模型进行压缩;若判断比赛者的技术为高级,则采用高等位的神经网络模型进行压缩。
以上所述仅为本发明较佳的实施例,并非因此限制本发明的实施方式及保护范围,对于本领域技术人员而言,应当能够意识到凡运用本发明说明书及图示内容所作出的等同替换和显而易见的变化所得到的方案,均应当包含在本发明的保护范围内。
Claims (7)
1.一种智能调节神经网络模型的方法,其特征在于,设置一服务端以及与所述服务端远程连接的用户端;
于所述服务端内预设有一训练完成的神经网络模型,所述神经网络模型具有预设的压缩率;
于所述用户端内包括需要应用所述神经网络模型处理数据的应用程序;
所述方法具体包括:
步骤S1,所述服务端将所述神经网络模型发送至所述用户端,所述用户端应用所述神经网络模型,通过所述应用程序对数据进行处理;
步骤S2,所述用户端在预设时段内判断数据的处理结果的正确率是否匹配于所述神经网络模型当前的压缩率:
若不匹配,则所述用户端调整所述神经网络模型的压缩率,随后转向下一个预设时段,并返回所述步骤S2;
若匹配,则所述用户端保持所述神经网络模型当前的压缩率不变,随后退出;
预先将所述神经网络模型的压缩率由高至低划分为多个压缩等级,多个所述压缩等级中包括一中间的压缩等级;
所述步骤S1中,所述服务端向所述用户端发送的所述神经网络模型拥有中间的压缩等级的压缩率;
所述步骤S2具体包括:
步骤S21c,所述用户端在当前的预设时段内判断数据的处理结果的正确率:
若所述正确率不低于一预设的第二更新阈值,则转向步骤S22c;
若所述正确率在所述第二更新阈值和一预设的第三下限阈值之间,则转向步骤S23c;
若所述正确率低于所述第三下限阈值,则转向步骤S24c;
步骤S22c,所述用户端对所述神经网络模型进行一次压缩,随后转向下一个预设时段,并转向步骤S25c;
步骤S23c,所述用户端保持所述神经网络模型当前的压缩率不变,随后退出;
步骤S24c,所述用户端将所述神经网络模型的压缩率调至低一级的压缩等级,随后转向下一个所述预设时段,并转向步骤S26c;
步骤S25c,所述用户端在当前的所述预设时段内再次判断数据的处理结果的正确率:
若所述正确率不低于所述第三下限阈值,则返回所述步骤S22c;
若所述正确率在所述第二更新阈值和一预设的第三下限阈值之间,则返回所述步骤S23c;
若所述正确率低于所述第三下限阈值,则将所述神经网络模型恢复成上一个所述预设时段内应用的压缩率,随后退出;
步骤S26c,所述用户端在当前的所述预设时段内再次判断数据的处理结果的正确率:
若所述正确率低于所述第三下限阈值,则返回所述步骤S24c;
若所述正确率不低于所述第三下限阈值,则保持所述神经网络模型当前的压缩率不变,随后退出。
2.根据权利要求1所述的方法,其特征在于,所述步骤S2具体包括:
步骤S21a,所述用户端在当前的预设时段内判断数据的处理结果的正确率是否不低于一预设的第一更新阈值:
若是,则转向步骤S22a;
若否,则所述用户端保持所述神经网络模型当前的压缩率不变,随后退出;
步骤S22a,所述用户端对所述神经网络模型进行一次压缩,随后转向下一个所述预设时段,并转向步骤S23a;
步骤S23a,所述用户端在当前的所述预设时段内判断所述处理结果的正确率是否不低于一预设的更新阈值:
若是,则返回所述步骤S22a;
若否,则转向步骤S24a;
步骤S24a,所述用户端判断所述处理结果的正确率是否低于一预设的第一下限阈值:
若是,则所述用户端将所述神经网络模型恢复成上一个所述预设时段内应用的压缩率,随后退出;
若否,则所述用户端保持所述神经网络模型当前的压缩率不变,随后退出。
3.根据权利要求2所述的方法,其特征在于,所述服务端发送给所述用户端的所述神经网络模型未经过压缩。
4.根据权利要求1所述一种智能调节所应用神经网络模型的压缩率的方法,其特征在于,预先将所述神经网络模型的压缩率由高至低划分为多个压缩等级;
所述步骤S1中,所述服务端向所述用户端发送的所述神经网络模型拥有最高的压缩等级的压缩率;
所述步骤S2具体包括:
步骤S21b,所述用户端在当前的预设时段内判断数据的处理结果的正确率是否不低于一预设的第二下限阈值:
若是,则所述用户端保持所述神经网络模型当前的压缩率不变,随后退出;
若否,则所述用户端将所述神经网络模型的压缩率调至低一级的压缩等级,随后转向下一个所述预设时段,并返回所述步骤S21b。
5.根据权利要求1所述的方法,其特征在于,所述预设时段为一周或者一个月。
6.根据权利要求1所述的方法,其特征在于,所述用户端包括便携式电子设备、边缘计算设备。
7.根据权利要求1所述的方法,其特征在于,所述方法为通过使用不同的变量类型表示神经网络模型的参数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910895105.0A CN110659732B (zh) | 2019-09-20 | 2019-09-20 | 一种智能调节神经网络模型的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910895105.0A CN110659732B (zh) | 2019-09-20 | 2019-09-20 | 一种智能调节神经网络模型的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110659732A CN110659732A (zh) | 2020-01-07 |
CN110659732B true CN110659732B (zh) | 2023-07-04 |
Family
ID=69037557
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910895105.0A Active CN110659732B (zh) | 2019-09-20 | 2019-09-20 | 一种智能调节神经网络模型的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110659732B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111240454B (zh) * | 2020-01-18 | 2021-10-22 | 苏州浪潮智能科技有限公司 | 一种基于risc-v的功耗动态调整系统及方法 |
CN111382839B (zh) * | 2020-02-23 | 2024-05-07 | 华为技术有限公司 | 剪枝神经网络的方法和装置 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368891A (zh) * | 2017-05-27 | 2017-11-21 | 深圳市深网视界科技有限公司 | 一种深度学习模型的压缩方法和装置 |
CN109543829A (zh) * | 2018-10-15 | 2019-03-29 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 在终端和云端上混合部署深度学习神经网络的方法和系统 |
CN109615058A (zh) * | 2018-10-24 | 2019-04-12 | 上海新储集成电路有限公司 | 一种神经网络模型的训练方法 |
CN110221777A (zh) * | 2019-05-17 | 2019-09-10 | 上海新储集成电路有限公司 | 一种智能调节数据中心i/o访问负载的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6789894B2 (ja) * | 2017-07-31 | 2020-11-25 | 株式会社東芝 | ネットワーク係数圧縮装置、ネットワーク係数圧縮方法およびプログラム |
-
2019
- 2019-09-20 CN CN201910895105.0A patent/CN110659732B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107368891A (zh) * | 2017-05-27 | 2017-11-21 | 深圳市深网视界科技有限公司 | 一种深度学习模型的压缩方法和装置 |
CN109543829A (zh) * | 2018-10-15 | 2019-03-29 | 华东计算技术研究所(中国电子科技集团公司第三十二研究所) | 在终端和云端上混合部署深度学习神经网络的方法和系统 |
CN109615058A (zh) * | 2018-10-24 | 2019-04-12 | 上海新储集成电路有限公司 | 一种神经网络模型的训练方法 |
CN110221777A (zh) * | 2019-05-17 | 2019-09-10 | 上海新储集成电路有限公司 | 一种智能调节数据中心i/o访问负载的方法 |
Non-Patent Citations (1)
Title |
---|
基于深度学习神经网络的SAR星上目标识别系统研究;袁秋壮等;《上海航天》;20171025(第05期);第50-57页 * |
Also Published As
Publication number | Publication date |
---|---|
CN110659732A (zh) | 2020-01-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109523017B (zh) | 姿态检测方法、装置、设备及存储介质 | |
CN110659732B (zh) | 一种智能调节神经网络模型的方法 | |
US9400955B2 (en) | Reducing dynamic range of low-rank decomposition matrices | |
CN110929865B (zh) | 网络量化方法、业务处理方法及相关产品 | |
CN107395211B (zh) | 一种基于卷积神经网络模型的数据处理方法及装置 | |
CN107734126A (zh) | 语音调节方法、装置、终端及存储介质 | |
CN113392962A (zh) | 对神经网络的权重进行解码的方法、设备及电路 | |
EP4390725A1 (en) | Video retrieval method and apparatus, device, and storage medium | |
CN111814975B (zh) | 一种基于剪枝的神经网络模型构建方法及相关装置 | |
CN110753225A (zh) | 一种视频压缩方法、装置及终端设备 | |
JP2022099327A (ja) | 事前訓練言語モデル、装置及びコンピュータ読み取り可能な記憶媒体 | |
CN107978014B (zh) | 一种粒子渲染方法、装置、电子设备及存储介质 | |
CN116524941A (zh) | 语音模型的自适应量化压缩方法、系统和电子设备 | |
CN110164431B (zh) | 一种音频数据处理方法及装置、存储介质 | |
CN116189678A (zh) | 语音处理方法、装置及计算机设备 | |
CN115050373B (zh) | 双路径嵌入学习方法、电子设备和存储介质 | |
CN109389221A (zh) | 一种神经网络压缩方法 | |
CN113673693A (zh) | 深度神经网络压缩的方法 | |
CN114155866A (zh) | 说话人验证方法及系统 | |
CN110187860B (zh) | 音量模糊调节方法、装置、电子设备及存储介质 | |
CN112071331B (zh) | 语音文件修复方法、装置、计算机设备及存储介质 | |
CN109473116B (zh) | 语音编码方法、语音解码方法及装置 | |
CN105677289A (zh) | 一种信息处理方法及电子设备 | |
CN110969241A (zh) | 一种深度卷积神经网络模型的压缩方法 | |
CN110706706A (zh) | 一种语音识别方法、装置、服务器及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |