CN115018066B - 一种边端模式下的深度神经网络本地化训练方法 - Google Patents

一种边端模式下的深度神经网络本地化训练方法 Download PDF

Info

Publication number
CN115018066B
CN115018066B CN202210564592.4A CN202210564592A CN115018066B CN 115018066 B CN115018066 B CN 115018066B CN 202210564592 A CN202210564592 A CN 202210564592A CN 115018066 B CN115018066 B CN 115018066B
Authority
CN
China
Prior art keywords
training
neural network
deep neural
model
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210564592.4A
Other languages
English (en)
Other versions
CN115018066A (zh
Inventor
李昱江
刘洪宇
任海青
杨林
王浩枫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Institute of Computer Technology and Applications
Original Assignee
Beijing Institute of Computer Technology and Applications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Institute of Computer Technology and Applications filed Critical Beijing Institute of Computer Technology and Applications
Priority to CN202210564592.4A priority Critical patent/CN115018066B/zh
Publication of CN115018066A publication Critical patent/CN115018066A/zh
Application granted granted Critical
Publication of CN115018066B publication Critical patent/CN115018066B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种边端模式下的深度神经网络本地化训练方法,属于机器学习领域。本发明边缘侧处理机向终端设备发送待部署深度神经网络模型;终端设备执行智能信息处理任务,将采集的数据、模型预测结果与置信度发送至边缘侧处理机进行存储;边缘侧处理机存储的终端推理数据超过指定存储容量阈值时,对深度神经网络模型进行本地化训练;边缘侧处理机测试深度神经网络模型并将结果写入日志;测试结果高于日志记录历史最高值时,边缘侧处理机向终端设备发送本地化训练后的模型进行部署,并将伪标注训练集合并到真实标注训练集中。该方法有效改善了数据分布偏差问题,降低了人工标注成本,且有效改善了灾难性遗忘问题。

Description

一种边端模式下的深度神经网络本地化训练方法
技术领域
本发明属于机器学习领域,具体涉及一种边端模式下的深度神经网络本地化训练方法。
背景技术
随着深度学习技术的快速发展,深度神经网络已广泛应用于目标识别、人机交互、辅助决策等多种智能信息处理任务中。智能信息处理任务的一种典型部署模式是边-端部署,其中“边”为边缘侧处理机,通常配备较强的计算资源和存储资源,可承载深度神经网络的模型训练和模型推理等计算任务;“端”为终端设备,通常配备传感器、有限的计算资源和存储资源,主要承载信息采集任务,亦可承担所采集信息的数据预处理任务、以及深度神经网络的轻量化模型推理等任务。以图像目标识别任务为例,边缘侧处理机可结合本地数据集与计算资源,对深度神经网络模型进行个性化训练;边缘侧处理机进一步将训练得到的模型以网络传输的方式发送到终端设备进行部署;终端设备采集并处理图像数据,将处理后的数据输入到已部署的深度神经网络模型中进行推理计算,得到图像识别结果,完成图像识别任务。
在真实应用场景中,由于终端设备在采集数据时所面临的环境复杂多变,终端设备的数据源与模型训练的数据源存在不同程度的差异。数据源的差异会反映到数据分布偏差,严重的数据分布偏差会显著降低深度神经网络模型的泛化能力,从而降低模型推理的性能。为解决边-端模式下,训练和推理的数据分布偏差问题,以往的工作通常对新环境下采集的数据进行人工标注,然后采用新标注的数据对深度神经网络模型进行微调训练。然而,现有方法存在两个问题:
第一、人工标注增加了人力成本,并且受到人员工作时间和效率的限制;
第二、仅采用新标注的数据对深度神经网络模型进行微调训练,会使模型面临灾难性遗忘问题,所述灾难性遗忘问题是指,模型过拟合当前阶段提供的训练样本,而降低对之前阶段所利用样本的拟合能力。
发明内容
(一)要解决的技术问题
本发明要解决的技术问题是如何提供一种边端模式下的深度神经网络本地化训练方法,以解决人工标注增加了人力成本,并且受到人员工作时间和效率的限制,仅采用新标注的数据对深度神经网络模型进行微调训练,会使模型面临灾难性遗忘问题等问题。
(二)技术方案
为了解决上述技术问题,本发明提出一种边端模式下的深度神经网络本地化训练方法,该方法包括如下步骤:
步骤S1:边缘侧处理机以网络传输的方式向一台或多台终端设备发送待部署的深度神经网络模型,各台终端设备部署模型;
步骤S2:终端设备利用部署的深度神经网络模型执行智能信息处理任务,并将终端推理数据以网络传输的方式发送至边缘侧处理机,边缘侧处理机存储上述终端推理数据;终端推理数据包括采集的原始数据、模型预测结果与置信度;
步骤S3:当边缘侧处理机所存储的终端推理数据超过指定存储容量阈值时,边缘侧处理机对深度神经网络模型进行本地化训练;
步骤S4:当边缘侧处理机完成深度神经网络模型的本地化训练后,对该深度神经网络模型进行测试,并将测试结果写入性能记录日志;
步骤S5:边缘侧处理机读取性能记录日志,如果本次本地化训练后的模型测试结果高于性能记录日志中记录的历史最高值,则边缘侧处理机执行数据整理操作,并以网络传输的方式向终端设备发送本次本地化训练后的深度神经网络模型,各台终端设备部署模型;否则,边缘侧处理机执行数据清理操作。
进一步地,所述边缘侧处理机存储了所述智能信息处理任务相关的真实标注训练集、真实标注测试集和深度神经网络模型。
进一步地,所述深度神经网络模型的网络结构为ResNet18。
进一步地,所述智能信息处理任务为RGB图像目标分类;所述原始数据为RGB三通道图像数据;所述模型预测结果为预测的图像标签;所述置信度为预测图像标签的概率值。
进一步地,所述指定存储容量阈值为2GB。
进一步地,所述数据整理操作指边缘侧处理机将伪标注训练集合并到真实标注训练集中。
进一步地,所述数据清理操作指边缘侧处理机将伪标注训练集从磁盘中删除。
进一步地,所述步骤S3具体包括如下步骤:
步骤S31:边缘侧处理机将终端设备采集的原始数据、模型预测结果、模型预测结果对应的置信度进行一一对应,筛选出置信度高于预设置信度阈值的原始数据及对应的模型预测结果,构成伪标注训练集;
步骤S32:边缘侧处理机从真实标注训练集中,随机选取和伪标注数据集相同数量的真实标注样本,构成真实标注训练子集;
步骤S33:边缘侧处理机加载已部署的深度神经网络模型的参数,采用真实标注训练子集和伪标注训练集对模型进行微调训练,直至模型收敛;其中,模型训练采用批量随机梯度下降算法进行参数更新,用于批量随机梯度下降计算的每一批数据包含相同数量的真实标注样本和伪标注样本,该策略称为“真标注-伪标注”数据均衡策略。
进一步地,对于伪标注训练集中的每个样本,原始数据作为样本输入,模型预测结果作为样本标签,边缘侧处理机从磁盘中删除除伪标注训练集以外的其他终端推理数据。
进一步地,所述预设置信度阈值为0.8。
(三)有益效果
本发明提出一种边端模式下的深度神经网络本地化训练方法,本发明的有益效果包括:
第一,本发明提出一种边端模式下的深度神经网络本地化训练方法,该方法基于伪标注的半监督学习方法,能够有效处理因终端设备所采集的数据与模型训练所采用的数据存在差异而引发的数据分布偏差问题,同时能够避免对终端设备所采集的数据进行人工标注,从而降低人工成本、提升训练-部署效率。
第二,在本发明提出的边端模式下的深度神经网络本地化训练方法中,提出在批量梯度下降过程中采用“真标注-伪标注”数据均衡策略,能够有效处理灾难性遗忘问题。
附图说明
图1为本发明实例提供的边端模式下的深度神经网络本地化训练方法的总体流程示意图;
图2为本发明实例提供的边端模式下的深度神经网络本地化训练方法的本地化训练流程示意图。
具体实施方式
为使本发明的目的、内容和优点更加清楚,下面结合附图和实施例,对本发明的具体实施方式作进一步详细描述。
本发明的目的在于提供一种边端模式下的深度神经网络本地化训练方法。该方法应能够有效处理如下问题:第一,避免对终端设备所采集的原始数据进行人工标注,边缘设备仅利用终端设备所采集的原始数据、终端设备所部署深度神经网络模型对所采集原始数据的预测结果、以及边缘设备所存储的有标注训练数据,来对深度神经网络模型进行训练;第二,缓解灾难性遗忘问题,即模型过拟合当前阶段提供的训练样本,而降低对之前阶段所用样本的拟合能力。
本发明公开了一种边端模式下的深度神经网络本地化训练方法,包括:边缘侧处理机向终端设备发送待部署深度神经网络模型;终端设备执行智能信息处理任务,将采集的数据、模型预测结果与置信度发送至边缘侧处理机进行存储;边缘侧处理机存储的终端推理数据超过指定存储容量阈值时,对深度神经网络模型进行本地化训练;边缘侧处理机测试深度神经网络模型并将结果写入日志;测试结果高于日志记录历史最高值时,边缘侧处理机向终端设备发送本地化训练后的模型进行部署,并将伪标注训练集合并到真实标注训练集中。所述本地化训练包括:将置信度高于阈值的原始数据及对应的模型预测结果作为伪标注训练数据;随机选取和伪标注数据集同数量的真实标注数据;边缘侧处理机加载已部署深度神经网络模型参数,采用真实标注数据和伪标注数据基于数据均衡策略微调模型。该方法通过本地化训练,有效改善了因终端设备所采集数据与模型训练所采用数据的差异而引发的数据分布偏差问题,降低了人工标注成本,且有效改善了灾难性遗忘问题。
本发明的目的是通过以下技术方案实现的:本发明提供一种边端模式下的深度神经网络本地化训练方法,包括:
步骤S1:边缘侧处理机以网络传输的方式向一台或多台终端设备发送待部署的深度神经网络模型,各台终端设备部署模型;
步骤S2:终端设备利用部署的深度神经网络模型执行智能信息处理任务,并将采集的原始数据、模型预测结果与置信度等终端推理数据,以网络传输的方式发送至边缘侧处理机,边缘侧处理机存储上述终端推理数据;
步骤S3:当边缘侧处理机所存储的终端推理数据超过指定存储容量阈值时,边缘侧处理机对深度神经网络模型进行本地化训练;
步骤S4:当边缘侧处理机完成深度神经网络模型的本地化训练后,对该深度神经网络模型进行测试,并将测试结果写入性能记录日志;
步骤S5:边缘侧处理机读取性能记录日志,如果本次本地化训练后的模型测试结果高于性能记录日志中记录的历史最高值,则边缘侧处理机执行数据整理操作,并以网络传输的方式向终端设备发送本次本地化训练后的深度神经网络模型,各台终端设备部署模型;否则,边缘侧处理机执行数据清理操作。
根据本发明的边端模式下的深度神经网络本地化训练方法的一实施例,其中,所述边缘侧处理机,存储了所述智能信息处理任务相关的真实标注训练集、真实标注测试集、深度神经网络模型。
根据本发明的边端模式下的深度神经网络本地化训练方法的一实施例,其中,所述本地化训练,包括:
步骤S31:边缘侧处理机将终端设备采集的原始数据、模型预测结果、模型预测结果对应的置信度进行一一对应,筛选出置信度高于预设置信度阈值的原始数据及对应的模型预测结果,构成伪标注训练集。其中,对于伪标注训练集中的每个样本,原始数据作为样本输入,模型预测结果作为样本标签。边缘侧处理机从磁盘中删除除伪标注训练集以外的其他终端推理数据;
步骤S32:边缘侧处理机从真实标注训练集中,随机选取和伪标注数据集相同数量的真实标注样本,构成真实标注训练子集;
步骤S33:边缘侧处理机加载已部署的深度神经网络模型的参数,采用真实标注训练子集和伪标注训练集对模型进行微调训练,直至模型收敛。其中,模型训练采用批量随机梯度下降算法(BatchSGD)进行参数更新,用于批量随机梯度下降计算的每一批数据包含相同数量的真实标注样本和伪标注样本,该策略称为“真标注-伪标注”数据均衡策略。
根据本发明的边端模式下的深度神经网络本地化训练方法的一实施例,其中,所述数据整理操作,是指边缘侧处理机将伪标注训练集合并到真实标注训练集中。
根据本发明的边端模式下的深度神经网络本地化训练方法的一实施例,其中,所述数据清理操作,是指边缘侧处理机将伪标注训练集从磁盘中删除。
如图1所示,本发明实施例提供一种弱监督场景下基于强化学习的深度神经网络训练方法,包括以下步骤:
步骤1:边缘侧处理机以网络传输的方式向一台或多台终端设备发送待部署的深度神经网络模型,各台终端设备部署模型;
步骤2:终端设备利用部署的深度神经网络模型执行智能信息处理任务,并将采集的原始数据、模型预测结果与置信度等终端推理数据,以网络传输的方式发送至边缘侧处理机,边缘侧处理机存储上述终端推理数据;
步骤3:当边缘侧处理机所存储的终端推理数据超过指定存储容量阈值时,边缘侧处理机对深度神经网络模型进行本地化训练;
步骤4:当边缘侧处理机完成深度神经网络模型的本地化训练后,对该深度神经网络模型进行测试,并将测试结果写入性能记录日志;
步骤5:边缘侧处理机读取性能记录日志,如果本次本地化训练后的模型测试结果高于性能记录日志中记录的历史最高值,则边缘侧处理机执行数据整理操作,并以网络传输的方式向终端设备发送本次本地化训练后的深度神经网络模型,各台终端设备部署模型;否则,边缘侧处理机执行数据清理操作。
上述方法的步骤1中,所述待部署的深度神经网络模型,其网络结构为ResNet18。
上述方法的步骤2中,所述智能信息处理任务,具体为RGB图像目标分类;所述原始数据,具体为RGB三通道图像数据;所述模型预测结果,具体为预测的图像标签;所述置信度,具体为预测图像标签的概率值。
上述方法的步骤3中,所述指定存储容量阈值,具体为2GB。
上述方法的步骤3中,所述本地化训练,包括:
步骤31:边缘侧处理机将终端设备采集的原始数据、模型预测结果、模型预测结果对应的置信度进行一一对应,筛选出置信度高于预设置信度阈值的原始数据及对应的模型预测结果,构成伪标注训练集。其中,对于伪标注数据中的每个样本,原始数据作为样本输入,模型预测结果作为样本标签。边缘侧处理机从磁盘中删除除伪标注训练集以外的其他终端推理数据;
步骤32:边缘侧处理机从真实标注训练集中,随机选取和伪标注数据集相同数量的真实标注样本,构成真实标注训练子集;
步骤33:边缘侧处理机加载已部署的深度神经网络模型的参数,采用真实标注训练子集和伪标注训练集对模型进行微调训练,直至模型收敛。其中,模型训练采用批量随机梯度下降算法(BatchSGD)进行参数更新,用于批量随机梯度下降计算的每一批数据包含相同数量的真实标注样本和伪标注样本,该策略称为“真标注-伪标注”数据均衡策略。
上述方法的步骤31中,所述预设置信度阈值,具体为0.8。
上述方法的步骤5中,所述数据整理操作,是指边缘侧处理机将伪标注训练集合并到真实标注训练集中。
上述方法的步骤5中,所述数据清理操作,是指边缘侧处理机将伪标注训练集从磁盘中删除。
本发明的有益效果包括:
第一,本发明提出一种边端模式下的深度神经网络本地化训练方法,该方法基于伪标注的半监督学习方法,能够有效处理因终端设备所采集的数据与模型训练所采用的数据存在差异而引发的数据分布偏差问题,同时能够避免对终端设备所采集的数据进行人工标注,从而降低人工成本、提升训练-部署效率。
第二,在本发明提出的边端模式下的深度神经网络本地化训练方法中,提出在批量梯度下降过程中采用“真标注-伪标注”数据均衡策略,能够有效处理灾难性遗忘问题。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。

Claims (9)

1.一种边端模式下的深度神经网络本地化训练方法,其特征在于,该方法包括如下步骤:
步骤S1:边缘侧处理机以网络传输的方式向一台或多台终端设备发送待部署的深度神经网络模型,各台终端设备部署模型;
步骤S2:终端设备利用部署的深度神经网络模型执行智能信息处理任务,并将终端推理数据以网络传输的方式发送至边缘侧处理机,边缘侧处理机存储上述终端推理数据;终端推理数据包括采集的原始数据、模型预测结果与置信度;
步骤S3:当边缘侧处理机所存储的终端推理数据超过指定存储容量阈值时,边缘侧处理机对深度神经网络模型进行本地化训练;
步骤S4:当边缘侧处理机完成深度神经网络模型的本地化训练后,对该深度神经网络模型进行测试,并将测试结果写入性能记录日志;
步骤S5:边缘侧处理机读取性能记录日志,如果本次本地化训练后的模型测试结果高于性能记录日志中记录的历史最高值,则边缘侧处理机执行数据整理操作,并以网络传输的方式向终端设备发送本次本地化训练后的深度神经网络模型,各台终端设备部署模型;否则,边缘侧处理机执行数据清理操作;
其中,
所述步骤S3具体包括如下步骤:
步骤S31:边缘侧处理机将终端设备采集的原始数据、模型预测结果、模型预测结果对应的置信度进行一一对应,筛选出置信度高于预设置信度阈值的原始数据及对应的模型预测结果,构成伪标注训练集;
步骤S32:边缘侧处理机从真实标注训练集中,随机选取和伪标注数据集相同数量的真实标注样本,构成真实标注训练子集;
步骤S33:边缘侧处理机加载已部署的深度神经网络模型的参数,采用真实标注训练子集和伪标注训练集对模型进行微调训练,直至模型收敛;其中,模型训练采用批量随机梯度下降算法进行参数更新,用于批量随机梯度下降计算的每一批数据包含相同数量的真实标注样本和伪标注样本,该策略称为“真标注-伪标注”数据均衡策略。
2.如权利要求1所述的边端模式下的深度神经网络本地化训练方法,其特征在于,所述边缘侧处理机存储了所述智能信息处理任务相关的真实标注训练集、真实标注测试集和深度神经网络模型。
3.如权利要求2所述的边端模式下的深度神经网络本地化训练方法,其特征在于,所述深度神经网络模型的网络结构为ResNet18。
4.如权利要求1所述的边端模式下的深度神经网络本地化训练方法,其特征在于,所述智能信息处理任务为RGB图像目标分类;所述原始数据为RGB三通道图像数据;所述模型预测结果为预测的图像标签;所述置信度为预测图像标签的概率值。
5.如权利要求1所述的边端模式下的深度神经网络本地化训练方法,其特征在于,所述指定存储容量阈值为2GB。
6.如权利要求1所述的边端模式下的深度神经网络本地化训练方法,其特征在于,所述数据整理操作指边缘侧处理机将伪标注训练集合并到真实标注训练集中。
7.如权利要求1所述的边端模式下的深度神经网络本地化训练方法,其特征在于,所述数据清理操作指边缘侧处理机将伪标注训练集从磁盘中删除。
8.如权利要求1所述的边端模式下的深度神经网络本地化训练方法,其特征在于,对于伪标注训练集中的每个样本,原始数据作为样本输入,模型预测结果作为样本标签,边缘侧处理机从磁盘中删除除伪标注训练集以外的其他终端推理数据。
9.如权利要求1所述的边端模式下的深度神经网络本地化训练方法,其特征在于,所述预设置信度阈值为0.8。
CN202210564592.4A 2022-05-23 2022-05-23 一种边端模式下的深度神经网络本地化训练方法 Active CN115018066B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210564592.4A CN115018066B (zh) 2022-05-23 2022-05-23 一种边端模式下的深度神经网络本地化训练方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210564592.4A CN115018066B (zh) 2022-05-23 2022-05-23 一种边端模式下的深度神经网络本地化训练方法

Publications (2)

Publication Number Publication Date
CN115018066A CN115018066A (zh) 2022-09-06
CN115018066B true CN115018066B (zh) 2024-04-09

Family

ID=83069592

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210564592.4A Active CN115018066B (zh) 2022-05-23 2022-05-23 一种边端模式下的深度神经网络本地化训练方法

Country Status (1)

Country Link
CN (1) CN115018066B (zh)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191732A (zh) * 2020-01-03 2020-05-22 天津大学 一种基于全自动学习的目标检测方法
CN112232416A (zh) * 2020-10-16 2021-01-15 浙江大学 一种基于伪标签加权的半监督学习方法
CN113705769A (zh) * 2021-05-17 2021-11-26 华为技术有限公司 一种神经网络训练方法以及装置
CN114004233A (zh) * 2021-12-30 2022-02-01 之江实验室 一种基于半训练和句子选择的远程监督命名实体识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111191732A (zh) * 2020-01-03 2020-05-22 天津大学 一种基于全自动学习的目标检测方法
CN112232416A (zh) * 2020-10-16 2021-01-15 浙江大学 一种基于伪标签加权的半监督学习方法
CN113705769A (zh) * 2021-05-17 2021-11-26 华为技术有限公司 一种神经网络训练方法以及装置
CN114004233A (zh) * 2021-12-30 2022-02-01 之江实验室 一种基于半训练和句子选择的远程监督命名实体识别方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
互补学习:一种面向图像应用和噪声标注的深度神经网络训练方法;周彧聪;刘轶;王锐;;计算机研究与发展;20171215(第12期);全文 *

Also Published As

Publication number Publication date
CN115018066A (zh) 2022-09-06

Similar Documents

Publication Publication Date Title
CN109657552B (zh) 基于迁移学习实现跨场景冷启动的车型识别装置与方法
CN111160469B (zh) 一种目标检测系统的主动学习方法
CN114241282A (zh) 一种基于知识蒸馏的边缘设备场景识别方法及装置
Gyawali et al. Comparative analysis of multiple deep CNN models for waste classification
CN110598620A (zh) 模型训练方法和装置、目标检测方法和装置
CN111709371A (zh) 基于人工智能的分类方法、装置、服务器和存储介质
Casalino et al. Incremental adaptive semi-supervised fuzzy clustering for data stream classification
CN115563610B (zh) 入侵检测模型的训练方法、识别方法和装置
CN113435998B (zh) 贷款逾期预测方法、装置、电子设备及存储介质
CN113609770B (zh) 基于分段线性拟合hi及lstm的滚动轴承rul预测方法
Liu et al. A novel CBR system for numeric prediction
CN116721414A (zh) 一种医学图像细胞分割与跟踪方法
CN113222149A (zh) 模型训练方法、装置、设备和存储介质
CN113592825A (zh) 一种基于yolo算法的煤矸实时检测方法
CN115063664A (zh) 用于工业视觉检测的模型学习方法、训练方法及系统
Ali et al. Performance evaluation of different algorithms for crack detection in concrete structures
CN115018066B (zh) 一种边端模式下的深度神经网络本地化训练方法
CN113407837A (zh) 基于人工智能的智慧医疗大数据处理方法及智慧医疗系统
CN116501444B (zh) 智能网联汽车域控制器虚拟机异常云边协同监测和恢复系统及方法
Yu et al. Towards artificially intelligent recycling Improving image processing for waste classification
CN116380438A (zh) 一种故障诊断方法、装置、电子设备及存储介质
Fan Data mining model for predicting the quality level and classification of construction projects
Li et al. GADet: A Geometry-Aware X-ray Prohibited Items Detector
CN114528906A (zh) 一种旋转机械的故障诊断方法、装置、设备和介质
CN114299340A (zh) 模型训练方法、图像分类方法、系统、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant