CN118133905B - 一种轻量级目标检测神经网络的实现方法 - Google Patents
一种轻量级目标检测神经网络的实现方法 Download PDFInfo
- Publication number
- CN118133905B CN118133905B CN202410545184.3A CN202410545184A CN118133905B CN 118133905 B CN118133905 B CN 118133905B CN 202410545184 A CN202410545184 A CN 202410545184A CN 118133905 B CN118133905 B CN 118133905B
- Authority
- CN
- China
- Prior art keywords
- model
- lightweight
- optimization
- network architecture
- optimized
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 91
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 35
- 238000001514 detection method Methods 0.000 title claims abstract description 21
- 238000005457 optimization Methods 0.000 claims abstract description 106
- 238000012549 training Methods 0.000 claims abstract description 64
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 52
- 238000005516 engineering process Methods 0.000 claims abstract description 51
- 230000002787 reinforcement Effects 0.000 claims abstract description 31
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 238000012545 processing Methods 0.000 claims abstract description 21
- 238000013461 design Methods 0.000 claims abstract description 13
- 230000006835 compression Effects 0.000 claims abstract description 9
- 238000007906 compression Methods 0.000 claims abstract description 9
- 238000013138 pruning Methods 0.000 claims description 32
- 238000005265 energy consumption Methods 0.000 claims description 30
- 238000011156 evaluation Methods 0.000 claims description 25
- 230000006870 function Effects 0.000 claims description 23
- 230000008569 process Effects 0.000 claims description 22
- 238000004458 analytical method Methods 0.000 claims description 19
- 238000013139 quantization Methods 0.000 claims description 19
- 238000012544 monitoring process Methods 0.000 claims description 17
- 238000013140 knowledge distillation Methods 0.000 claims description 16
- 238000009792 diffusion process Methods 0.000 claims description 15
- 230000004927 fusion Effects 0.000 claims description 15
- 238000007667 floating Methods 0.000 claims description 13
- 238000013468 resource allocation Methods 0.000 claims description 10
- 230000007613 environmental effect Effects 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 claims description 9
- 238000012360 testing method Methods 0.000 claims description 9
- 230000009471 action Effects 0.000 claims description 8
- 230000002068 genetic effect Effects 0.000 claims description 8
- 238000010845 search algorithm Methods 0.000 claims description 8
- 238000012216 screening Methods 0.000 claims description 7
- 238000002922 simulated annealing Methods 0.000 claims description 7
- 230000004913 activation Effects 0.000 claims description 6
- 238000001994 activation Methods 0.000 claims description 6
- 230000006978 adaptation Effects 0.000 claims description 6
- 230000003044 adaptive effect Effects 0.000 claims description 6
- 238000012795 verification Methods 0.000 claims description 6
- 230000000694 effects Effects 0.000 claims description 5
- 238000002407 reforming Methods 0.000 claims description 5
- 238000012790 confirmation Methods 0.000 claims description 4
- 230000008713 feedback mechanism Effects 0.000 claims description 4
- 230000035772 mutation Effects 0.000 claims description 4
- 210000002569 neuron Anatomy 0.000 claims description 4
- 238000005215 recombination Methods 0.000 claims description 4
- 230000006798 recombination Effects 0.000 claims description 4
- 230000009467 reduction Effects 0.000 claims description 4
- 230000035945 sensitivity Effects 0.000 claims description 4
- 230000001133 acceleration Effects 0.000 claims description 3
- 230000001186 cumulative effect Effects 0.000 claims description 3
- 238000012217 deletion Methods 0.000 claims description 3
- 230000037430 deletion Effects 0.000 claims description 3
- 230000004069 differentiation Effects 0.000 claims description 3
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000011056 performance test Methods 0.000 claims description 3
- 230000006872 improvement Effects 0.000 claims 1
- 238000010586 diagram Methods 0.000 description 8
- 230000008901 benefit Effects 0.000 description 4
- 238000013459 approach Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000013137 model compression technique Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- 101150020741 Hpgds gene Proteins 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 238000000205 computational method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008092 positive effect Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 238000012827 research and development Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0495—Quantised networks; Sparse networks; Compressed networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0475—Generative networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/092—Reinforcement learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及图像处理系统技术领域,具体为一种轻量级目标检测神经网络的实现方法,包括以下步骤,基于任务目标需求,采用神经网络结构搜索算法,进行网络架构的自动设计和优化,生成初步网络架构。本发明中,通过神经网络结构搜索算法,自动设计和优化网络架构,提升模型设计的效率和准确性,深度可分离卷积简化网络结构,减少模型体积,提高运行效率,模型压缩技术通过减少参数和内存占用,降低资源需求,资源自适应调节技术使模型动态适应不同环境,增加通用性和灵活性,低精度计算优化节约资源,降低成本,引入对抗训练增强鲁棒性,深度强化学习算法和动态平衡技术提高环境适应性和效率,优化精度和性能,使模型在多场景下表现卓越。
Description
技术领域
本发明涉及图像处理系统技术领域,尤其涉及一种轻量级目标检测神经网络的实现方法。
背景技术
轻量级目标检测神经网络的实现方法属于图像处理系统的技术领域。图像处理系统技术领域涉及使用计算方法来分析和操作视觉信息,以实现自动化的图像理解和解释。这个领域广泛应用于各种场景,如安全监控、自动驾驶车辆、医学图像分析、面部识别和增强现实等。图像处理技术的核心在于转换图像数据为有用的信息,涉及的技术包括图像增强、分类、特征提取、模式识别等。随着深度学习技术的发展,基于神经网络的图像处理方法已经成为这一领域的重要组成部分。
其中,轻量级目标检测神经网络的实现方法是一种用于图像处理的深度学习技术。这种方法的目的是提供一种高效的方式来检测图像中的特定目标,同时保持较低的计算复杂度和资源需求。这对于资源受限的设备(如移动设备或嵌入式系统)特别重要,因为没有足够的计算能力来执行复杂的神经网络操作。轻量级目标检测旨在实现快速且准确的检测效果,同时减少模型的大小和运算需求,从而提高运行效率和响应速度。轻量级目标检测神经网络通常通过一些特定的技术手段来达成效果。这些手段包括简化网络架构、使用高效的卷积层设计、减少网络层的数量或参数量、采用知识蒸馏等方法。这样的设计可以显著减少模型的体积和计算需求,而不会过度牺牲性能。此外,采用模型量化和剪枝技术,进一步优化模型以适应计算能力较低的设备。轻量级神经网络的研究和开发是应对日益增长的边缘计算需求和移动设备普及的关键策略之一。
传统的目标检测神经网络方法存在几个不足之处,方法在网络架构的设计和优化上通常需要大量的手动干预和试错,这不仅效率低下,而且难以达到最优设计。传统的卷积网络结构通常较为复杂,占用大量的计算资源和存储空间,不利于在资源受限的环境下部署。此外,传统方法缺乏有效的机制来适应不同的运行环境,使得模型的通用性和灵活性受限。且方法往往没有充分考虑计算效率与资源消耗之间的平衡,导致在实际应用中成本较高。缺乏对模型鲁棒性和环境适应性的深入优化,使得模型在面对复杂或变化的使用场景时表现不足。
发明内容
本发明的目的是解决现有技术中存在的缺点,而提出的一种轻量级目标检测神经网络的实现方法。
为了实现上述目的,本发明采用了如下技术方案:一种轻量级目标检测神经网络的实现方法,包括以下步骤:
S1:基于任务目标需求,采用神经网络结构搜索算法,进行网络架构的自动设计和优化,生成初步网络架构;
S2:基于所述初步网络架构,采用深度可分离卷积方法,进行网络架构简化和模型空间缩减,生成简化后的网络架构;
S3:基于所述简化后的网络架构,采用模型压缩技术,进行参数删减和内存优化,生成压缩后的轻量级模型;
S4:基于所述压缩后的轻量级模型,采用资源自适应调节技术,进行动态模型调整,生成资源自适应的轻量级模型;
S5:基于所述资源自适应的轻量级模型,采用低精度计算优化方法,节约资源耗用,生成低资源消耗的轻量级模型;
S6:基于所述低资源消耗的轻量级模型,采用对抗训练机制,提升模型能力,生成经过对抗训练优化的模型;
S7:基于所述经过对抗训练优化的模型,采用深度强化学习算法,进行环境适应性和效率提升,生成强化学习优化的轻量级模型;
S8:基于所述强化学习优化的轻量级模型,采用动态平衡技术,进行精度与效率的权衡,生成动态平衡的最终轻量级模型。
作为本发明的进一步方案,所述初步网络架构包括自动确定的层次结构、激活函数选择和连接方式, 所述简化后的网络架构具体为深度可分离卷积优化的结构,包括减少参数量和提高运算效率,所述压缩后的轻量级模型具体包括通过量化、剪枝和知识蒸馏技术降低的模型大小和参数量,所述资源自适应的轻量级模型具体指能根据边缘设备的实时性能自动调整规模和结构复杂度的模型,所述低资源消耗的轻量级模型具体为优化后,用于低精度运算环境的模型。
作为本发明的进一步方案,基于任务目标需求,采用神经网络结构搜索算法,进行网络架构的自动设计和优化,生成初步网络架构的步骤具体为:
S101:基于所述任务目标需求,采用遗传算法进行网络结构的初步搜索和选择,生成候选网络架构集合;
S102:基于所述候选网络架构集合,使用模拟退火算法进行调整和优化,生成优化后的网络架构集合;
S103:基于所述优化后的网络架构集合,应用贝叶斯优化筛选和细化网络结构,生成细化网络架构;
S104:基于所述细化网络架构,采用强化学习对架构进行最终调整和确认,生成初步网络架构;
所述遗传算法具体包括个体编码、适应度评估、选择操作、交叉和变异过程,所述模拟退火算法包括初始解生成、温度调节、邻域搜索和接受准则,所述贝叶斯优化具体为通过高斯过程建模未知函数,使用获取函数指导搜索过程,所述强化学习具体为通过代理模型学习在环境中采取的动作序列,最大化目标累积奖励。
作为本发明的进一步方案,基于所述初步网络架构,采用深度可分离卷积方法,进行网络架构简化和模型空间缩减,生成简化后的网络架构的步骤具体为:
S201:基于所述初步网络架构,运用深度可分离卷积进行网络层次的替换和简化,生成深度可分离卷积后的网络架构;
S202:基于所述深度可分离卷积后的网络架构,应用网络剪枝技术进行简化,生成剪枝后的网络架构;
S203:基于所述剪枝后的网络架构,使用知识蒸馏保持性能,生成知识蒸馏后的网络架构;
S204:基于所述知识蒸馏后的网络架构,进行微调训练以适应目标应用场景和数据,生成简化后的网络架构;
所述深度可分离卷积包括逐深度卷积和逐点卷积,所述网络剪枝技术具体为移除神经网络中权重值较小或冗余的神经元和连接,所述知识蒸馏具体为从模型提取关键信息,以指导简化模型的训练,所述微调训练具体为在预训练的网络模型基础上,对目标任务的数据进行再训练,调整模型参数。
作为本发明的进一步方案,基于所述简化后的网络架构,采用模型压缩技术,进行参数删减和内存优化,生成压缩后的轻量级模型的步骤具体为:
S301:基于所述简化后的网络架构,采用权重量化进行参数位宽减少,并进行效率优化,生成量化后的网络架构;
S302:基于所述量化后的网络架构,应用哈夫曼编码进行模型大小压缩,并进行数据结构优化,生成编码优化的网络架构;
S303:基于所述编码优化的网络架构,采用稀疏化技术减少非零元素,并进行网络连接优化,生成稀疏化网络架构;
S304:基于所述稀疏化网络架构,进行知识重整以优化内存占用,并进行结构重配置,生成压缩后的轻量级模型;
所述权重量化具体为将模型权重从浮点数转换为较低位宽的整数表示,所述哈夫曼编码包括建立权重频率树和编码路径优化,所述稀疏化技术包括权重阈值筛选和非零元素重组,所述知识重整具体为重组模型参数提高内存访问效率。
作为本发明的进一步方案,基于所述压缩后的轻量级模型,采用资源自适应调节技术,进行动态模型调整,生成资源自适应的轻量级模型的步骤具体为:
S401:基于所述压缩后的轻量级模型,采用计算资源监控分析模型对资源的需求,并进行资源利用率优化,生成资源需求分析结果;
S402:基于所述资源需求分析结果,应用动态模型重构适应差异化运行环境,并进行模型复杂度调整,生成重构后的模型;
S403:基于所述重构后的模型,进行能耗优化调整平衡模型性能和能耗,并进行效能分析,生成能耗优化的模型;
S404:基于所述能耗优化的模型,执行最终模型验证确认性能稳定性,并进行综合评估,生成资源自适应的轻量级模型;
所述计算资源监控包括CPU和内存使用率监控、进程追踪,所述动态模型重构包括模型层级动态调整和复杂度平衡,所述能耗优化调整包括算法效率分析和运行时能耗控制,所述最终模型验证包括性能测试和适应性评估。
作为本发明的进一步方案,基于所述资源自适应的轻量级模型,采用低精度计算优化方法,节约资源耗用,生成低资源消耗的轻量级模型的步骤具体为:
S501:基于所述资源自适应的轻量级模型,采用16位浮点数量化减少计算复杂度,并进行效率优化,生成FP16量化的模型;
S502:基于所述FP16量化的模型,应用层次融合技术减少计算层次,并进行网络结构简化,生成层次融合优化的模型;
S503:基于所述层次融合优化的模型,进行算子优化降低计算成本,并进行运算加速,生成算子优化的模型;
S504:基于所述算子优化的模型,进行低功耗调度减少能耗,并进行硬件适配优化,生成低资源消耗的轻量级模型;
所述16位浮点数量化具体指将模型权重和激活从32位浮点转换为16位,所述层次融合技术具体为合并多个操作为单一操作项目。
作为本发明的进一步方案,基于所述低资源消耗的轻量级模型,采用对抗训练机制,提升模型能力,生成经过对抗训练优化的模型的步骤具体为:
S601:基于所述低资源消耗的轻量级模型,采用快速梯度符号方法进行初步对抗训练,并增强模型鲁棒性,生成FGSM优化的模型;
S602:基于所述FGSM优化的模型,应用迭代梯度攻击进行深层次对抗训练,生成PGD强化的模型;
S603:基于所述PGD强化的模型,进行特征扩散训练提升数据处理能力,生成特征扩散优化的模型;
S604:基于所述特征扩散优化的模型,执行综合性能评估验证全面优化效果,生成经过对抗训练优化的模型;
所述快速梯度符号方法通过生成小扰动来测试和加强模型的鲁棒性,所述迭代梯度攻击通过多步迭代来增强攻击,所述特征扩散训练包括增加模型对输入数据特征的敏感性和处理复杂性,所述综合性能评估具体为对模型在多条件设定下的稳定性和效能进行测试。
作为本发明的进一步方案,基于所述经过对抗训练优化的模型,采用深度强化学习算法,进行环境适应性和效率提升,生成强化学习优化的轻量级模型的步骤具体为:
S701:基于所述经过对抗训练优化的模型,采用Q学习算法进行决策过程优化,并进行状态价值更新,生成Q学习优化的模型;
S702:基于所述Q学习优化的模型,应用深度确定性策略梯度算法,提高连续动作空间的学习效率,并生成DDPG优化的模型;
S703:基于所述DDPG优化的模型,采用A2C算法,加快训练过程,并生成A2C优化的模型;
S704:基于所述A2C优化的模型,执行自适应环境学习,根据差异化应用场景调整策略,并生成强化学习优化的轻量级模型;
所述Q学习算法具体包括奖励反馈机制和价值函数更新,所述深度确定性策略梯度算法包括策略梯度方法和价值函数方法,所述A2C算法通过并行处理和优势函数提升训练效率和稳定性。
作为本发明的进一步方案,基于所述强化学习优化的轻量级模型,采用动态平衡技术,进行精度与效率的权衡,生成动态平衡的最终轻量级模型的步骤具体为:
S801:基于所述强化学习优化的轻量级模型,采用多目标优化平衡精度与计算复杂度,并进行性能评估,生成多目标优化的模型;
S802:基于所述多目标优化的模型,应用模型剪枝技术减少冗余参数,并进行效能提升,生成模型剪枝优化的模型;
S803:基于所述模型剪枝优化的模型,进行动态资源分配,根据实际运行环境调整资源使用,并生成资源动态分配的模型;
S804:基于所述资源动态分配的模型,执行综合评估与调整,并生成动态平衡的最终轻量级模型;
所述模型剪枝技术包括权重重要性评估和非重要连接的移除,所述动态资源分配具体为实时监控资源利用率并调整模型结构和参数。
与现有技术相比,本发明的优点和积极效果在于:
本发明中,通过神经网络结构搜索算法自动设计和优化网络架构,提高模型设计的效率和准确性。深度可分离卷积方法的应用显著简化网络架构并减少模型空间,使得模型更加轻量且运行更高效。模型压缩技术的运用减少参数数量和内存占用,进一步降低了模型的资源需求。资源自适应调节技术使得模型能够动态调整以适应不同的运行环境,提高模型的通用性和灵活性。低精度计算优化方法的采用有效节约了资源消耗,降低运行成本。对抗训练机制的引入增强模型的鲁棒性和处理能力。深度强化学习算法的使用提升模型的环境适应性和整体效率,而动态平衡技术则在保证精度的同时优化了效率,使得模型在多种使用场景中表现更加出色。
附图说明
图1为本发明的主步骤示意图;
图2为本发明的S1细化示意图;
图3为本发明的S2细化示意图;
图4为本发明的S3细化示意图;
图5为本发明的S4细化示意图;
图6为本发明的S5细化示意图;
图7为本发明的S6细化示意图;
图8为本发明的S7细化示意图;
图9为本发明的S8细化示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
在本发明的描述中,需要理解的是,术语“长度”、“宽度”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,在本发明的描述中,“多个”的含义是两个或两个以上,除非另有明确具体的限定。
实施例一
请参阅图1,本发明提供一种技术方案:一种轻量级目标检测神经网络的实现方法,包括以下步骤:
S1:基于任务目标需求,采用神经网络结构搜索算法,进行网络架构的自动设计和优化,生成初步网络架构;
S2:基于初步网络架构,采用深度可分离卷积方法,进行网络架构简化和模型空间缩减,生成简化后的网络架构;
S3:基于简化后的网络架构,采用模型压缩技术,进行参数删减和内存优化,生成压缩后的轻量级模型;
S4:基于压缩后的轻量级模型,采用资源自适应调节技术,进行动态模型调整,生成资源自适应的轻量级模型;
S5:基于资源自适应的轻量级模型,采用低精度计算优化方法,节约资源耗用,生成低资源消耗的轻量级模型;
S6:基于低资源消耗的轻量级模型,采用对抗训练机制,提升模型能力,生成经过对抗训练优化的模型;
S7:基于经过对抗训练优化的模型,采用深度强化学习算法,进行环境适应性和效率提升,生成强化学习优化的轻量级模型;
S8:基于强化学习优化的轻量级模型,采用动态平衡技术,进行精度与效率的权衡,生成动态平衡的最终轻量级模型。
初步网络架构包括自动确定的层次结构、激活函数选择和连接方式, 简化后的网络架构具体为深度可分离卷积优化的结构,包括减少参数量和提高运算效率,压缩后的轻量级模型具体包括通过量化、剪枝和知识蒸馏技术降低的模型大小和参数量,资源自适应的轻量级模型具体指能根据边缘设备的实时性能自动调整规模和结构复杂度的模型,低资源消耗的轻量级模型具体为优化后,用于低精度运算环境的模型。
通过神经网络结构搜索算法的自动设计和优化,根据任务目标需求创建高效的初始网络架构,提高模型设计的效率和准确性。采用深度可分离卷积方法对网络架构进行简化和模型空间缩减,使模型更轻量化,运行更高效,降低资源消耗。模型压缩技术进一步减少参数数量和内存占用,适应边缘设备和低资源环境。资源自适应调节技术提高模型的通用性和灵活性,使其适应各种应用场景。低精度计算优化方法有效节约资源消耗,降低运行成本。引入对抗训练机制增强模型的鲁棒性和处理能力,使其更能应对复杂的输入数据。深度强化学习算法的使用提升模型的环境适应性和整体效率,使其在不同环境下表现出色。动态平衡技术在保证模型精度的同时,优化模型的效率,使其在多种使用场景中表现出色。
请参阅图2,基于任务目标需求,采用神经网络结构搜索算法,进行网络架构的自动设计和优化,生成初步网络架构的步骤具体为:
S101:基于任务目标需求,采用遗传算法进行网络结构的初步搜索和选择,生成候选网络架构集合;
S102:基于候选网络架构集合,使用模拟退火算法进行调整和优化,生成优化后的网络架构集合;
S103:基于优化后的网络架构集合,应用贝叶斯优化筛选和细化网络结构,生成细化网络架构;
S104:基于细化网络架构,采用强化学习对架构进行最终调整和确认,生成初步网络架构;
遗传算法具体包括个体编码、适应度评估、选择操作、交叉和变异过程,模拟退火算法包括初始解生成、温度调节、邻域搜索和接受准则,贝叶斯优化具体为通过高斯过程建模未知函数,使用获取函数指导搜索过程,强化学习具体为通过代理模型学习在环境中采取的动作序列,最大化目标累积奖励。
在自动设计和优化网络架构的过程中,采用遗传算法进行初步搜索和选择。这包括定义网络结构参数作为个体的“基因”,评估每个网络架构的性能确定其适应度,根据适应度选择表现较好的架构,并通过交叉和变异操作产生新的架构。
使用模拟退火算法对候选网络架构进行进一步的调整和优化,这涉及从遗传算法产生的候选集合中选择初始解,逐渐降低温度以控制搜索过程中的随机性,并在当前解的邻域内搜索新解,同时根据特定准则接受或拒绝新解。
通过贝叶斯优化进一步筛选和细化网络结构,这包括使用高斯过程对网络性能的未知函数进行建模,并定义获取函数指导搜索过程。
采用强化学习对架构进行最终调整和确认,通过代理模型学习网络结构与性能之间的关系,学习在给定环境中采取的最优动作序列,并调整网络架构以最大化累积奖励。
请参阅图3,基于初步网络架构,采用深度可分离卷积方法,进行网络架构简化和模型空间缩减,生成简化后的网络架构的步骤具体为:
S201:基于初步网络架构,运用深度可分离卷积进行网络层次的替换和简化,生成深度可分离卷积后的网络架构;
S202:基于深度可分离卷积后的网络架构,应用网络剪枝技术进行简化,生成剪枝后的网络架构;
S203:基于剪枝后的网络架构,使用知识蒸馏保持性能,生成知识蒸馏后的网络架构;
S204:基于知识蒸馏后的网络架构,进行微调训练以适应目标应用场景和数据,生成简化后的网络架构;
深度可分离卷积包括逐深度卷积和逐点卷积,网络剪枝技术具体为移除神经网络中权重值较小或冗余的神经元和连接,知识蒸馏具体为从模型提取关键信息,以指导简化模型的训练,微调训练具体为在预训练的网络模型基础上,对目标任务的数据进行再训练,调整模型参数。
利用深度可分离卷积技术对网络层次进行替换和简化。深度可分离卷积由逐深度卷积和逐点卷积组成,能有效减少参数数量和计算复杂度,同时保持网络性能。
应用网络剪枝技术对这个架构进行进一步简化。网络剪枝通过移除神经网络中权重值较小或冗余的神经元和连接,减少模型的规模,同时尽量保持网络的性能。剪枝后的网络架构在减小模型大小的同时,也提高计算效率。
采用知识蒸馏技术保持网络性能。知识蒸馏涉及从原始模型中提取关键信息,并用这些信息指导简化模型的训练。这个步骤有助于保留原始模型的重要特征,即使在模型规模被大幅度简化后。
对知识蒸馏后的网络架构进行微调训练,适应特定的目标应用场景和数据。微调训练是在预训练的网络模型基础上,对目标任务的数据进行再训练,调整模型参数更好地适应新的数据和任务。
请参阅图4,基于简化后的网络架构,采用模型压缩技术,进行参数删减和内存优化,生成压缩后的轻量级模型的步骤具体为:
S301:基于简化后的网络架构,采用权重量化进行参数位宽减少,并进行效率优化,生成量化后的网络架构;
S302:基于量化后的网络架构,应用哈夫曼编码进行模型大小压缩,并进行数据结构优化,生成编码优化的网络架构;
S303:基于编码优化的网络架构,采用稀疏化技术减少非零元素,并进行网络连接优化,生成稀疏化网络架构;
S304:基于稀疏化网络架构,进行知识重整以优化内存占用,并进行结构重配置,生成压缩后的轻量级模型;
权重量化具体为将模型权重从浮点数转换为较低位宽的整数表示,哈夫曼编码包括建立权重频率树和编码路径优化,稀疏化技术包括权重阈值筛选和非零元素重组,知识重整具体为重组模型参数提高内存访问效率。
基于简化后的网络架构,进行权重量化,将模型权重从浮点数转换为较低位宽的整数表示。这一步骤不仅减少参数的位宽,降低模型的存储需求,还对计算效率进行优化。
应用哈夫曼编码对量化后的网络架构进行进一步压缩。哈夫曼编码通过建立权重频率树和优化编码路径,有效地减少模型的大小。通过对数据结构进行优化,进一步提高模型的存储和执行效率。
采用稀疏化技术减少网络中非零元素的数量。这一步骤通过权重阈值筛选和非零元素的重组,减少模型中的冗余连接,从而简化网络结构。稀疏化技术有助于降低模型的计算负担,并优化网络连接,从而生成稀疏化网络架构。
在稀疏化网络架构的基础上,进行知识重整优化内存占用,并进行结构重配置。知识重整是指重组模型参数,提高内存访问效率,进一步减少模型的内存占用。
请参阅图5,基于压缩后的轻量级模型,采用资源自适应调节技术,进行动态模型调整,生成资源自适应的轻量级模型的步骤具体为:
S401:基于压缩后的轻量级模型,采用计算资源监控分析模型对资源的需求,并进行资源利用率优化,生成资源需求分析结果;
S402:基于资源需求分析结果,应用动态模型重构适应差异化运行环境,并进行模型复杂度调整,生成重构后的模型;
S403:基于重构后的模型,进行能耗优化调整平衡模型性能和能耗,并进行效能分析,生成能耗优化的模型;
S404:基于能耗优化的模型,执行最终模型验证确认性能稳定性,并进行综合评估,生成资源自适应的轻量级模型;
计算资源监控包括CPU和内存使用率监控、进程追踪,动态模型重构包括模型层级动态调整和复杂度平衡,能耗优化调整包括算法效率分析和运行时能耗控制,最终模型验证包括性能测试和适应性评估。
S401中,监控模型:使用一个计算资源监控分析模型来监控CPU和内存的使用率,以及进行进程追踪。优化资源利用率:根据监控数据,优化资源利用率,降低不必要的资源消耗。
代码示例:
# CPU和内存监控伪代码
monitor_cpu_memory_usage()
optimize_resource_utilization()
S402中,适应运行环境:根据资源需求分析的结果,适应不同的运行环境,对模型的结构进行动态调整。模型复杂度调整:实现模型层级的动态调整和复杂度平衡。
代码示例:
# 模型重构伪代码
adapt_to_running_environment()
adjust_model_complexity()
S403中,性能与能耗平衡:对重构后的模型进行能耗优化,平衡模型性能和能耗。效能分析:进行算法效率分析和运行时能耗控制。
代码示例:
# 能耗优化伪代码
balance_performance_and_energy_consumption()
analyze_efficiency()
S404中,性能稳定性确认:执行模型验证以确认性能的稳定性。综合评估:对能耗优化的模型进行综合评估。
代码示例:
# 模型验证伪代码
confirm_model_performance_stability()
comprehensive_evaluation()
请参阅图6,基于资源自适应的轻量级模型,采用低精度计算优化方法,节约资源耗用,生成低资源消耗的轻量级模型的步骤具体为:
S501:基于资源自适应的轻量级模型,采用16位浮点数量化减少计算复杂度,并进行效率优化,生成FP16量化的模型;
S502:基于FP16量化的模型,应用层次融合技术减少计算层次,并进行网络结构简化,生成层次融合优化的模型;
S503:基于层次融合优化的模型,进行算子优化降低计算成本,并进行运算加速,生成算子优化的模型;
S504:基于算子优化的模型,进行低功耗调度减少能耗,并进行硬件适配优化,生成低资源消耗的轻量级模型;
16位浮点数量化具体指将模型权重和激活从32位浮点转换为16位,层次融合技术具体为合并多个操作为单一操作项目。
基于资源自适应的轻量级模型,实施16位浮点数量化,将模型权重和激活从传统的32位浮点数转换为16位浮点数。这一转换显著减少计算复杂度,同时进行效率优化,从而生成了FP16量化的模型。
应用层次融合技术对FP16量化的模型进行进一步优化。层次融合技术通过合并多个操作为单一操作项目,减少计算层次,并简化网络结构。这种优化方法旨在减少模型中的计算步骤,从而降低计算成本并提高执行速度。
对层次融合优化的模型进行算子优化,进一步降低计算成本。算子优化涉及调整和优化模型中的基本计算单元,减少计算资源的消耗,并进行运算加速。
在算子优化的模型基础上,实施低功耗调度减少能耗,并进行硬件适配优化。通过低功耗调度,模型能够在保持性能的同时,更有效地利用硬件资源,进一步减少能耗。通过针对特定硬件平台的优化,确保模型在各种设备上都能高效运行。
请参阅图7,基于低资源消耗的轻量级模型,采用对抗训练机制,提升模型能力,生成经过对抗训练优化的模型的步骤具体为:
S601:基于低资源消耗的轻量级模型,采用快速梯度符号方法进行初步对抗训练,并增强模型鲁棒性,生成FGSM优化的模型;
S602:基于FGSM优化的模型,应用迭代梯度攻击进行深层次对抗训练,生成PGD强化的模型;
S603:基于PGD强化的模型,进行特征扩散训练提升数据处理能力,生成特征扩散优化的模型;
S604:基于特征扩散优化的模型,执行综合性能评估验证全面优化效果,生成经过对抗训练优化的模型;
快速梯度符号方法通过生成小扰动来测试和加强模型的鲁棒性,迭代梯度攻击通过多步迭代来增强攻击,特征扩散训练包括增加模型对输入数据特征的敏感性和处理复杂性,综合性能评估具体为对模型在多条件设定下的稳定性和效能进行测试。
采用快速梯度符号方法(FGSM)进行初步的对抗训练。FGSM通过生成微小的、针对性的扰动,测试并加强模型对这类扰动的鲁棒性。这一步骤的目的是训练模型在面对对抗性扰动时依然能够保持稳定的性能,从而生成FGSM优化的模型。
基于FGSM优化的模型,应用迭代梯度攻击(PGD)进行更深层次的对抗训练。PGD是一种更为复杂和精细的对抗训练方法,通过多步迭代来逐渐增强模型的抵抗攻击能力。
基于PGD强化的模型,进行特征扩散训练,以提升模型对输入数据的处理能力。特征扩散训练旨在增加模型对输入数据特征的敏感性和处理复杂性,从而使模型能够更有效地理解和处理各种数据。
在特征扩散优化的模型基础上,执行综合性能评估,验证模型的全面优化效果。综合性能评估包括对模型在不同条件和环境下的稳定性和效能进行全面测试,确保模型在各种情况下都能保持优异的性能。
请参阅图8,基于经过对抗训练优化的模型,采用深度强化学习算法,进行环境适应性和效率提升,生成强化学习优化的轻量级模型的步骤具体为:
S701:基于经过对抗训练优化的模型,采用Q学习算法进行决策过程优化,并进行状态价值更新,生成Q学习优化的模型;
S702:基于Q学习优化的模型,应用深度确定性策略梯度算法,提高连续动作空间的学习效率,并生成DDPG优化的模型;
S703:基于DDPG优化的模型,采用A2C算法,加快训练过程,并生成A2C优化的模型;
S704:基于A2C优化的模型,执行自适应环境学习,根据差异化应用场景调整策略,并生成强化学习优化的轻量级模型;
Q学习算法具体包括奖励反馈机制和价值函数更新,深度确定性策略梯度算法包括策略梯度方法和价值函数方法,A2C算法通过并行处理和优势函数提升训练效率和稳定性。
采用Q学习算法进行决策过程的优化,其中包括奖励反馈机制和价值函数的更新,提高模型在不同状态下的决策能力,生成Q学习优化的模型。
应用深度确定性策略梯度(DDPG)算法,该算法结合策略梯度方法和价值函数方法,特别适用于连续动作空间的学习,从而提高模型在处理连续决策问题时的学习效率,生成DDPG优化的模型。
采用A2C(Advantage Actor Critic)算法,该算法通过并行处理和优势函数提升训练效率和稳定性,加快模型的训练过程,生成A2C优化的模型。
执行自适应环境学习,根据不同的应用场景调整策略,确保模型能够适应各种环境的特定需求,生成强化学习优化的轻量级模型。
请参阅图9,基于强化学习优化的轻量级模型,采用动态平衡技术,进行精度与效率的权衡,生成动态平衡的最终轻量级模型的步骤具体为:
S801:基于强化学习优化的轻量级模型,采用多目标优化平衡精度与计算复杂度,并进行性能评估,生成多目标优化的模型;
S802:基于多目标优化的模型,应用模型剪枝技术减少冗余参数,并进行效能提升,生成模型剪枝优化的模型;
S803:基于模型剪枝优化的模型,进行动态资源分配,根据实际运行环境调整资源使用,并生成资源动态分配的模型;
S804:基于资源动态分配的模型,执行综合评估与调整,并生成动态平衡的最终轻量级模型;
模型剪枝技术包括权重重要性评估和非重要连接的移除,动态资源分配具体为实时监控资源利用率并调整模型结构和参数。
采用多目标优化策略,平衡精度与计算复杂度。这涉及对模型性能进行细致评估,确保在保持高精度的同时最小化计算负担,从而生成多目标优化的模型。
应用模型剪枝技术以减少模型中的冗余参数。这一步骤包括权重的重要性评估和非重要连接的移除,以此提高模型的效能,同时保持或提升精度。通过剪枝,生成的模型在减少参数和计算资源消耗的同时,仍维持优异的性能。
进行动态资源分配,根据实际运行环境调整模型的资源使用。这一步骤涉及实时监控资源利用率并相应地调整模型结构和参数,以最有效地利用可用资源,生成资源动态分配的模型。
执行综合评估与调整,确保模型在各种条件下都能保持最佳的性能和资源使用效率。这个综合评估包括测试模型在不同环境和应用场景下的表现,确保模型能够灵活适应不同的运行条件。
以上,仅是本发明的较佳实施例而已,并非对本发明作其他形式的限制,任何熟悉本专业的技术人员可能利用上述揭示的技术内容加以变更或改型为等同变化的等效实施例应用于其他领域,但是凡是未脱离本发明技术方案内容,依据本发明的技术实质对以上实施例所做的任何简单修改、等同变化与改型,仍属于本发明技术方案的保护范围。
Claims (8)
1.一种轻量级目标检测神经网络的实现方法,其特征在于,包括以下步骤:
基于任务目标需求,采用神经网络结构搜索算法,进行网络架构的自动设计和优化,生成初步网络架构;
基于所述初步网络架构,采用深度可分离卷积方法,进行网络架构简化和模型空间缩减,生成简化后的网络架构;
基于所述简化后的网络架构,采用模型压缩技术,进行参数删减和内存优化,生成压缩后的轻量级模型;
基于所述压缩后的轻量级模型,采用资源自适应调节技术,进行动态模型调整,生成资源自适应的轻量级模型;
基于所述资源自适应的轻量级模型,采用低精度计算优化方法,节约资源耗用,生成低资源消耗的轻量级模型;
基于所述低资源消耗的轻量级模型,采用对抗训练机制,提升模型能力,生成经过对抗训练优化的模型;
基于所述经过对抗训练优化的模型,采用深度强化学习算法,进行环境适应性和效率提升,生成强化学习优化的轻量级模型;
基于所述强化学习优化的轻量级模型,采用动态平衡技术,进行精度与效率的权衡,生成动态平衡的最终轻量级模型;
基于所述压缩后的轻量级模型,采用资源自适应调节技术,进行动态模型调整,生成资源自适应的轻量级模型的步骤具体为:
基于所述压缩后的轻量级模型,采用计算资源监控分析模型对资源的需求,并进行资源利用率优化,生成资源需求分析结果;
基于所述资源需求分析结果,应用动态模型重构适应差异化运行环境,并进行模型复杂度调整,生成重构后的模型;
基于所述重构后的模型,进行能耗优化调整平衡模型性能和能耗,并进行效能分析,生成能耗优化的模型;
基于所述能耗优化的模型,执行最终模型验证确认性能稳定性,并进行综合评估,生成资源自适应的轻量级模型;
所述计算资源监控包括CPU和内存使用率监控、进程追踪,所述动态模型重构包括模型层级动态调整和复杂度平衡,所述能耗优化调整包括算法效率分析和运行时能耗控制,所述最终模型验证包括性能测试和适应性评估;
基于所述强化学习优化的轻量级模型,采用动态平衡技术,进行精度与效率的权衡,生成动态平衡的最终轻量级模型的步骤具体为:
基于所述强化学习优化的轻量级模型,采用多目标优化平衡精度与计算复杂度,并进行性能评估,生成多目标优化的模型;
基于所述多目标优化的模型,应用模型剪枝技术减少冗余参数,并进行效能提升,生成模型剪枝优化的模型;
基于所述模型剪枝优化的模型,进行动态资源分配,根据实际运行环境调整资源使用,并生成资源动态分配的模型;
基于所述资源动态分配的模型,执行综合评估与调整,并生成动态平衡的最终轻量级模型;
所述模型剪枝技术包括权重重要性评估和非重要连接的移除,所述动态资源分配具体为实时监控资源利用率并调整模型结构和参数。
2.根据权利要求1所述的轻量级目标检测神经网络的实现方法,其特征在于,所述初步网络架构包括自动确定的层次结构、激活函数选择和连接方式, 所述简化后的网络架构具体为深度可分离卷积优化的结构,包括减少参数量和提高运算效率,所述压缩后的轻量级模型具体包括通过量化、剪枝和知识蒸馏技术降低的模型大小和参数量,所述资源自适应的轻量级模型具体指能根据边缘设备的实时性能自动调整规模和结构复杂度的模型,所述低资源消耗的轻量级模型具体为优化后,用于低精度运算环境的模型。
3.根据权利要求1所述的轻量级目标检测神经网络的实现方法,其特征在于,基于任务目标需求,采用神经网络结构搜索算法,进行网络架构的自动设计和优化,生成初步网络架构的步骤具体为:
基于所述任务目标需求,采用遗传算法进行网络结构的初步搜索和选择,生成候选网络架构集合;
基于所述候选网络架构集合,使用模拟退火算法进行调整和优化,生成优化后的网络架构集合;
基于所述优化后的网络架构集合,应用贝叶斯优化筛选和细化网络结构,生成细化网络架构;
基于所述细化网络架构,采用强化学习对架构进行最终调整和确认,生成初步网络架构;
所述遗传算法具体包括个体编码、适应度评估、选择操作、交叉和变异过程,所述模拟退火算法包括初始解生成、温度调节、邻域搜索和接受准则,所述贝叶斯优化具体为通过高斯过程建模未知函数,使用获取函数指导搜索过程,所述强化学习具体为通过代理模型学习在环境中采取的动作序列,最大化目标累积奖励。
4.根据权利要求1所述的轻量级目标检测神经网络的实现方法,其特征在于,基于所述初步网络架构,采用深度可分离卷积方法,进行网络架构简化和模型空间缩减,生成简化后的网络架构的步骤具体为:
基于所述初步网络架构,运用深度可分离卷积进行网络层次的替换和简化,生成深度可分离卷积后的网络架构;
基于所述深度可分离卷积后的网络架构,应用网络剪枝技术进行简化,生成剪枝后的网络架构;
基于所述剪枝后的网络架构,使用知识蒸馏保持性能,生成知识蒸馏后的网络架构;
基于所述知识蒸馏后的网络架构,进行微调训练以适应目标应用场景和数据,生成简化后的网络架构;
所述深度可分离卷积包括逐深度卷积和逐点卷积,所述网络剪枝技术具体为移除神经网络中权重值较小或冗余的神经元和连接,所述知识蒸馏具体为从模型提取关键信息,以指导简化模型的训练,所述微调训练具体为在预训练的网络模型基础上,对目标任务的数据进行再训练,调整模型参数。
5.根据权利要求1所述的轻量级目标检测神经网络的实现方法,其特征在于,基于所述简化后的网络架构,采用模型压缩技术,进行参数删减和内存优化,生成压缩后的轻量级模型的步骤具体为:
基于所述简化后的网络架构,采用权重量化进行参数位宽减少,并进行效率优化,生成量化后的网络架构;
基于所述量化后的网络架构,应用哈夫曼编码进行模型大小压缩,并进行数据结构优化,生成编码优化的网络架构;
基于所述编码优化的网络架构,采用稀疏化技术减少非零元素,并进行网络连接优化,生成稀疏化网络架构;
基于所述稀疏化网络架构,进行知识重整以优化内存占用,并进行结构重配置,生成压缩后的轻量级模型;
所述权重量化具体为将模型权重从浮点数转换为较低位宽的整数表示,所述哈夫曼编码包括建立权重频率树和编码路径优化,所述稀疏化技术包括权重阈值筛选和非零元素重组,所述知识重整具体为重组模型参数提高内存访问效率。
6.根据权利要求1所述的轻量级目标检测神经网络的实现方法,其特征在于,基于所述资源自适应的轻量级模型,采用低精度计算优化方法,节约资源耗用,生成低资源消耗的轻量级模型的步骤具体为:
基于所述资源自适应的轻量级模型,采用16位浮点数量化减少计算复杂度,并进行效率优化,生成FP16量化的模型;
基于所述FP16量化的模型,应用层次融合技术减少计算层次,并进行网络结构简化,生成层次融合优化的模型;
基于所述层次融合优化的模型,进行算子优化降低计算成本,并进行运算加速,生成算子优化的模型;
基于所述算子优化的模型,进行低功耗调度减少能耗,并进行硬件适配优化,生成低资源消耗的轻量级模型;
所述16位浮点数量化具体指将模型权重和激活从32位浮点转换为16位,所述层次融合技术具体为合并多个操作为单一操作项目。
7.根据权利要求1所述的轻量级目标检测神经网络的实现方法,其特征在于,基于所述低资源消耗的轻量级模型,采用对抗训练机制,提升模型能力,生成经过对抗训练优化的模型的步骤具体为:
基于所述低资源消耗的轻量级模型,采用快速梯度符号方法进行初步对抗训练,并增强模型鲁棒性,生成FGSM优化的模型;
基于所述FGSM优化的模型,应用迭代梯度攻击进行深层次对抗训练,生成PGD强化的模型;
基于所述PGD强化的模型,进行特征扩散训练提升数据处理能力,生成特征扩散优化的模型;
基于所述特征扩散优化的模型,执行综合性能评估验证全面优化效果,生成经过对抗训练优化的模型;
所述快速梯度符号方法通过生成小扰动来测试和加强模型的鲁棒性,所述迭代梯度攻击通过多步迭代来增强攻击,所述特征扩散训练包括增加模型对输入数据特征的敏感性和处理复杂性,所述综合性能评估具体为对模型在多条件设定下的稳定性和效能进行测试。
8.根据权利要求1所述的轻量级目标检测神经网络的实现方法,其特征在于,基于所述经过对抗训练优化的模型,采用深度强化学习算法,进行环境适应性和效率提升,生成强化学习优化的轻量级模型的步骤具体为:
基于所述经过对抗训练优化的模型,采用Q学习算法进行决策过程优化,并进行状态价值更新,生成Q学习优化的模型;
基于所述Q学习优化的模型,应用深度确定性策略梯度算法,提高连续动作空间的学习效率,并生成DDPG优化的模型;
基于所述DDPG优化的模型,采用A2C算法,加快训练过程,并生成A2C优化的模型;
基于所述A2C优化的模型,执行自适应环境学习,根据差异化应用场景调整策略,并生成强化学习优化的轻量级模型;
所述Q学习算法具体包括奖励反馈机制和价值函数更新,所述深度确定性策略梯度算法包括策略梯度方法和价值函数方法,所述A2C算法通过并行处理和优势函数提升训练效率和稳定性。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410545184.3A CN118133905B (zh) | 2024-05-06 | 2024-05-06 | 一种轻量级目标检测神经网络的实现方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202410545184.3A CN118133905B (zh) | 2024-05-06 | 2024-05-06 | 一种轻量级目标检测神经网络的实现方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN118133905A CN118133905A (zh) | 2024-06-04 |
CN118133905B true CN118133905B (zh) | 2024-07-09 |
Family
ID=91233879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202410545184.3A Active CN118133905B (zh) | 2024-05-06 | 2024-05-06 | 一种轻量级目标检测神经网络的实现方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN118133905B (zh) |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115759192A (zh) * | 2021-08-31 | 2023-03-07 | 哲库科技(上海)有限公司 | 一种神经网络加速方法、装置、设备、芯片及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111612134B (zh) * | 2020-05-20 | 2024-04-12 | 鼎富智能科技有限公司 | 神经网络结构搜索方法、装置、电子设备及存储介质 |
US20230177314A1 (en) * | 2021-12-03 | 2023-06-08 | Nota, Inc. | Method and system for optimizing quantization model |
CN114330644B (zh) * | 2021-12-06 | 2022-12-16 | 华中光电技术研究所(中国船舶重工集团公司第七一七研究所) | 一种基于结构搜索和通道剪枝的神经网络模型压缩方法 |
-
2024
- 2024-05-06 CN CN202410545184.3A patent/CN118133905B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115759192A (zh) * | 2021-08-31 | 2023-03-07 | 哲库科技(上海)有限公司 | 一种神经网络加速方法、装置、设备、芯片及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN118133905A (zh) | 2024-06-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107506865B (zh) | 一种基于lssvm优化的负荷预测方法及系统 | |
CN110046710A (zh) | 一种神经网络的非线性函数极值优化方法及系统 | |
US20210334658A1 (en) | Method for performing clustering on power system operation modes based on sparse autoencoder | |
CN111008693A (zh) | 一种基于数据压缩的网络模型构建方法、系统和介质 | |
CN110516724A (zh) | 可视化作战场景的高性能多层字典学习特征图像处理方法 | |
CN111310918A (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
CN117290721A (zh) | 数字孪生建模方法、装置、设备及介质 | |
CN111831955B (zh) | 一种锂离子电池剩余寿命预测方法及系统 | |
CN112200208B (zh) | 基于多维度特征融合的云工作流任务执行时间预测方法 | |
CN118133905B (zh) | 一种轻量级目标检测神经网络的实现方法 | |
Bi et al. | Self-adaptive Teaching-learning-based Optimizer with Improved RBF and Sparse Autoencoder for Complex Optimization Problems | |
CN112257348A (zh) | 一种锂电池长期退化趋势预测方法 | |
CN116305939A (zh) | 陆地生态系统碳水通量高精度反演方法、系统及电子设备 | |
CN115840884A (zh) | 样本选择方法、装置、设备及介质 | |
CN116165886A (zh) | 多传感器智能协同控制方法、装置、设备及介质 | |
CN118398014B (zh) | 基于协同自适应策略梯度算法的车载人机语音交互方法、装置、电子设备和存储介质 | |
CN118094233B (zh) | 内容处理模型集成方法以及相关设备 | |
CN117808083B (zh) | 一种分布式训练通信方法、装置、系统、设备及存储介质 | |
CN117520802B (zh) | 一种电力工程现场轻量级审计事件识别方法、系统及设备 | |
CN109858799B (zh) | 主动配电网改造措施与线路重载率关联性挖掘方法及装置 | |
CN118070090A (zh) | 一种风光典型出力场景提取方法及装置 | |
CN117313799A (zh) | 一种基于lsmof的深度学习模型压缩方法及装置 | |
CN118194701A (zh) | 新能源发电场景机组出力确定方法、装置和计算机设备 | |
CN118013132A (zh) | 基于人工智能的信息预测方法、相关设备及存储介质 | |
Wang et al. | Research and application of speech recognition technology in power system MSRC-Transformer model |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |