CN115202879A - 基于多类型智能模型的云边协同调度方法及应用 - Google Patents

基于多类型智能模型的云边协同调度方法及应用 Download PDF

Info

Publication number
CN115202879A
CN115202879A CN202210828289.0A CN202210828289A CN115202879A CN 115202879 A CN115202879 A CN 115202879A CN 202210828289 A CN202210828289 A CN 202210828289A CN 115202879 A CN115202879 A CN 115202879A
Authority
CN
China
Prior art keywords
model
inference
training
reasoning
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210828289.0A
Other languages
English (en)
Inventor
曾锃
李世豪
缪巍巍
韦磊
夏元轶
肖晶
杜渐
全思平
杨君中
张瑞
滕昌志
余益团
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
State Grid Jiangsu Electric Power Co Ltd
Information and Telecommunication Branch of State Grid Jiangsu Electric Power Co Ltd
Taizhou Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Original Assignee
State Grid Jiangsu Electric Power Co Ltd
Information and Telecommunication Branch of State Grid Jiangsu Electric Power Co Ltd
Taizhou Power Supply Co of State Grid Jiangsu Electric Power Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by State Grid Jiangsu Electric Power Co Ltd, Information and Telecommunication Branch of State Grid Jiangsu Electric Power Co Ltd, Taizhou Power Supply Co of State Grid Jiangsu Electric Power Co Ltd filed Critical State Grid Jiangsu Electric Power Co Ltd
Priority to CN202210828289.0A priority Critical patent/CN115202879A/zh
Publication of CN115202879A publication Critical patent/CN115202879A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5005Allocation of resources, e.g. of the central processing unit [CPU] to service a request
    • G06F9/5027Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
    • G06F9/5038Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • G06F9/4881Scheduling strategies for dispatcher, e.g. round robin, multi-level priority queues
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

本发明公开了一种基于多类型智能模型的云边协同调度方法及应用,应用于云边协同系统中,云边协同系统包括云计算中心以及多个边缘节点,该方法包括:构建预测模型,预测模型包括分别部署在N个边缘节点上的N个推理模型以及对应的N个选择模型;基于预测模型中的选择模型调度对应的推理模型执行目标任务。该方法可以应用于不同的网络结构、不同的应用以及不同的输入数据集上;且基于相关参数矩阵提取特征值,提高预测模型识别效果,降低任务的执行时间;基于多DNN并存的模型选择方法,提升预测模型对图像处理应用的整体精度;同时,通过采用边缘设备和云计算中心相互协同调度的方式执行目标任务,减小了带宽资源损耗,且保证了数据的安全性。

Description

基于多类型智能模型的云边协同调度方法及应用
技术领域
本发明是关于机器学习领域,特别是关于一种基于多类型智能模型的云边协同调度方法及应用。
背景技术
随着人工智能技术的发展与成熟,深度学习成为人工智能技术的核心。深度神经网络模型的应用使得智能服务系统更加便捷,但是深度学习一般为资源密集型,大数据分析计算的需求使传统云计算在传输数据时消耗大量带宽资源,同时数据传输带来的时延影响了应用的实时性,新兴的边缘计算由于边缘端资源有限而选择压缩单一DNN模型的方式,导致图像识别精确度不高。
因此,针对单一DNN方法精度不足的问题,基于边缘系统时延低的需求,研究者提出了一类提前退出的模型策略,根据不同数据在模型推理过程中所需要特征粒度不同的特点,划分多个模型推理结束的退出点。然而,模型推理的提前退出点都是事先确定的,在动态环境中性能十分不理想,且前期先验准备工作量大。
针对存储空间并不充足的边缘设备,同时利用传统大版本DNN和小版本DNN模型优化资源的方法显然不合适;传统的办法将计算完全托管于云中心,应用数据量巨大,上传到云数据中心的过程需要损耗大量带宽资源,且由于网络的不稳定及安全性问题,一些隐私数据在传输中存在有泄漏风险;此外,大部分研究仍未能将边缘计算与深度学习技术相结合,未能从更加全面的角度考虑多种模型的选择。
发明内容
本发明的目的在于提供一种基于多类型智能模型的云边协同调度方法及应用,用以解决现有技术中边缘设备选择压缩单一DNN模型而导致的图像识别精确度低、以及托管于云计算中心计算时带宽资源损耗大、数据安全存在隐患的技术问题。
为实现上述目的,本发明的实施例提供了一种基于多类型智能模型的云边协同调度方法,应用于云边协同系统中,所述云边协同系统包括云计算中心以及多个边缘节点。
在本发明的一个或多个实施方式中,所述方法包括:构建预测模型,其中,所述预测模型包括分别部署在N个边缘节点上的N个推理模型以及对应的N个选择模型;基于所述预测模型中的选择模型调度对应的推理模型执行目标任务。
在本发明的一个或多个实施方式中,构建所述预测模型包括:构建训练特征集,其中,所述训练特征集中包括M个训练特征;将所述训练特征集输入预设推理模型集合,并交替基于推理时间和推理准确率确定构建所述预测模型的N个推理模型;基于所述N个推理模型,为所述M个训练特征标记类别标签,其中,所述类别标签表示所述训练特征所对应的最优推理模型;将所述训练特征集作为输入,以所述N个选择模型分别选中对应推理模型的目标训练特征为训练目标,对所述N个选择模型进行训练,直至满足训练条件,其中,所述目标训练特征为标记有与所述推理模型对应推理标签的训练特征。
在本发明的一个或多个实施方式中,构建训练特征集,具体包括:构建第一候选特征集;基于皮尔逊积点相关参数矩阵,筛选所述第一候选特征集中采数值在预设范围内的特征,以构建第二候选特征集;计算所述预测模型对所述第二候选特征集的第一预测准确率;依次从所述第二候选特征集中剔除一候选特征,并计算所述预测模型对所述剔除一候选特征的第二候选特征集的第二预测准确率;基于所述第一预测准确率和第二预测准确率的差值,确定是否删除所述第二候选特征集中的对应特征,以构建训练特征集。
在本发明的一个或多个实施方式中,将所述训练特征集输入预设推理模型集合,并交替基于推理时间和推理准确率确定构建所述预测模型的多个推理模型,具体包括:将所述训练特征集分别输入预设推理模型集合中的推理模型;基于所述推理模型的推理时间或推理准确率,确定一推理模型加入所述预测模型,并将所述确定的推理模型从预设推理模型集合中删除;交替基于所述推理模型的推理时间和推理准确率,确定所述预测模型的候选推理模型,并基于所述预测模型的推理时间和/或推理准确率,确定是否将所述候选推理模型加入所述预测模型。
在本发明的一个或多个实施方式中,基于所述N个推理模型,为所述M个训练特征标记类别标签,具体包括:将所述训练特征集输入第一推理模型,并基于推理时间和/或推理准确率,确定所述第一推理模型选中的训练特征;将所述训练特征集中的剩余训练特征输入第二推理模型,并基于推理时间和/或推理准确率,确定所述第二推理模型选中的训练特征,其中,所述第二推理模型连接在所述第一推理模型之后;重复以上步骤,直至所述N个推理模型依序选中对应的训练特征;基于所述N个推理模型分别选中的训练特征,为所述M个训练特征标记类别标签。
在本发明的一个或多个实施方式中,所述方法还包括:基于k折交叉验证法,验证所述预测模型的性能指标,其中,所述性能指标包括推理时间、预测模型的能源消耗、准确率、精度、召回率、以及F1分数中的至少一个。
在本发明的一个或多个实施方式中,在所述预测模型中的选择模型未调度对应的推理模型执行目标任务时,所述方法还包括:将所述目标任务传送至所述云计算中心,以供所述云计算中心选择边缘节点上的推理模型执行所述目标任务。
在本发明的一个或多个实施方式中,所述推理模型为DNN模型,所述选择模型为KNN模型。
在本发明的另一个方面当中,提供了一种基于多类型智能模型的云边协同调度装置,所述装置包括构建模块和调度模块。
构建模块,用于构建预测模型,其中,所述预测模型包括分别部署在N个边缘节点上的N个推理模型以及对应的N个选择模型;
调度模块,用于基于所述预测模型中的选择模型调度对应的推理模型执行目标任务。
在本发明的一个或多个实施方式中,所述构建模块具体用于:构建训练特征集,其中,所述训练特征集中包括M个训练特征;将所述训练特征集输入预设推理模型集合,并交替基于推理时间和推理准确率确定构建所述预测模型的N个推理模型;基于所述N个推理模型,为所述M个训练特征标记类别标签,其中,所述类别标签表示所述训练特征所对应的最优推理模型;将所述训练特征集作为输入,以所述N个选择模型分别选中对应推理模型的目标训练特征为训练目标,对所述N个选择模型进行训练,直至满足训练条件,其中,所述目标训练特征为标记有与所述推理模型对应推理标签的训练特征。
在本发明的一个或多个实施方式中,所述构建模块具体还用于:构建第一候选特征集;基于皮尔逊积点相关参数矩阵,筛选所述第一候选特征集中采数值在预设范围内的特征,以构建第二候选特征集;计算所述预测模型对所述第二候选特征集的第一预测准确率;依次从所述第二候选特征集中剔除一候选特征,并计算所述预测模型对所述剔除一候选特征的第二候选特征集的第二预测准确率;基于所述第一预测准确率和第二预测准确率的差值,确定是否删除所述第二候选特征集中的对应特征,以构建训练特征集。
在本发明的一个或多个实施方式中,所述构建模块具体还用于:将所述训练特征集分别输入预设推理模型集合中的推理模型;基于所述推理模型的推理时间或推理准确率,确定一推理模型加入所述预测模型,并将所述确定的推理模型从预设推理模型集合中删除;交替基于所述推理模型的推理时间和推理准确率,确定所述预测模型的候选推理模型,并基于所述预测模型的推理时间和/或推理准确率,确定是否将所述候选推理模型加入所述预测模型。
在本发明的一个或多个实施方式中,所述构建模块具体还用于:将所述训练特征集输入第一推理模型,并基于推理时间和/或推理准确率,确定所述第一推理模型选中的训练特征;将所述训练特征集中的剩余训练特征输入第二推理模型,并基于推理时间和/或推理准确率,确定所述第二推理模型选中的训练特征,其中,所述第二推理模型连接在所述第一推理模型之后;重复以上步骤,直至所述N个推理模型依序选中对应的训练特征;基于所述N个推理模型分别选中的训练特征,为所述M个训练特征标记类别标签。
在本发明的一个或多个实施方式中,所述调度模块具体还用于:在所述预测模型中的选择模型未调度对应的推理模型执行目标任务时,将所述目标任务传送至所述云计算中心,以供所述云计算中心选择边缘节点上的推理模型执行所述目标任务。
在本发明的另一个方面当中,提供了一种电子设备,所述电子设备包括:至少一个处理器;以及存储器,所述存储器存储指令,当所述指令被所述至少一个处理器执行时,使得所述至少一个处理器执行如上所述的基于多类型智能模型的云边协同调度方法。
在本发明的另一个方面当中,提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上所述的基于多类型智能模型的云边协同调度方法。
与现有技术相比,根据本发明实施方式的基于多类型智能模型的云边协同调度方法及应用,与压缩模型方法相结合,实现针对图像识别使用多个DNN模型进行自适应选择的功能;且基于相关参数矩阵提取特征值,提高预测模型识别效果,降低任务的执行时间;基于多DNN并存的模型选择方法,提升预测模型对图像处理应用的整体精度;基于多指标的模型评估方法,有效验证了预测模型的泛化能力。同时,本发明通过采用边缘设备和云计算中心相互协同调度的方式执行目标任务,不仅减小了带宽资源损耗,且保证了数据的安全性。
附图说明
图1是根据本发明一实施方式的基于多类型智能模型的云边协同调度方法的流程图;
图2是根据本发明一实施方式的构建预测模型的流程图;
图3是根据本发明一实施方式的云边协同系统的网络拓扑图;
图4是根据本发明一实施方式的预测模型功能架构示意图;
图5是根据本发明一实施方式的选择模型功能架构示意图;
图6是根据本发明一实施方式的粗粒度预测模型选择流程图;
图7是根据本发明一实施方式的细粒度最佳预测模型选择流程图;
图8是根据本发明一实施方式的训练特征选择流程图;
图9是根据本发明一实施方式的基于多类型智能模型的云边协同调度的装置的结构图;
图10是根据本发明一实施方式的基于多类型智能模型的云边协同调度的电子设备的硬件结构图。
具体实施方式
下面结合附图,对本发明的具体实施方式进行详细描述,但应当理解本发明的保护范围并不受具体实施方式的限制。
除非另有其它明确表示,否则在整个说明书和权利要求书中,术语“包括”或其变换如“包含”或“包括有”等等将被理解为包括所陈述的元件或组成部分,而并未排除其它元件或其它组成部分。
以下结合附图,详细说明本发明各实施例提供的技术方案。
参图3,本发明基于多类型智能模型的云边协同调度方法的一个典型应用场景可以是云边协同系统。云边协同系统是一个异构式系统,包括云计算中心以及多个边缘节点,云计算中心用于处理基于多类型智能模型的云边协同调度方法中所构建的预测模型的训练过程,并将训练好的预测模型分别存储在多个边缘节点中,以供边端应用使用。
参图1,介绍本发明基于多类型智能模型的云边协同调度方法的一实施方式。本实施方式中,该方法包括如下步骤。
在步骤S101中,构建预测模型,所述预测模型包括分别部署在N个边缘节点上的N个推理模型以及对应的N个选择模型。其中,N为大于1的正整数。
参图2,本实施方式中,构建所述预测模型包括:
S1011,构建训练特征集,所述训练特征集中包括M个训练特征。其中,M同样为大于1的正整数。
具体地,首先,以图像识别应用为例,根据一些图像识别研究中常用来考量的候选特征构建第一候选特征集。一些情况下,第一候选特征集中包含每张图像的多个特征,对于相同或相似的图像,其特征也相同或相似,导致第一候选特征集中所包含的特征存在重复或冗余。对于所构建的预测模型来说,在运行过程中,过多的特征提取会大大影响其运行的速度与开销,进行越多的特征提取,预测模型需要计算的过程就越复杂。基于此,本实施例中可以进一步对第一候选特征集中的特征进行筛选及删除。
参图8,本实施方式中,基于皮尔逊积点相关参数矩阵,筛选第一候选特征集中采数值在预设范围内的特征,以构建第二候选特征集。
通常情况下,采数值范围是在-1和+1之间,其绝对值越接近于1,被测试的两个特征之间的相关性就越强。此处将采数值的预设范围设置为-0.75~+0.75,然后删除采数值绝对值高于0.75的特征,并将保留下来的全部特征构建为第二候选特征集,该第二候选特征集中不存在重复或冗余的特征。
上述操作仅是删除了第一候选特征集中重复或冗余的特征,无法判断剩余的特征对于图像本身的重要性。而对于图像本身来说,有些特征具有较强的表征性,而有些特征的表征性相对较弱,对于图像识别的准确性可能会产生一定的负面影响。因此,需要对第二候选特征集中的特征做进一步的筛选及删除,以提高预测模型的预测准确性。
本实施方式中,首先使用K-Fold交叉验证算法计算预测模型对第二候选特征集的第一预测准确率,然后依次从第二候选特征集中剔除一候选特征,并计算预测模型对剔除一候选特征的第二候选特征集的第二预测准确率,基于第一预测准确率和第二预测准确率的差值,确定是否删除第二候选特征集中的对应特征。
例如,若第一预测准确率和第二预测准确率的差值大于0,表示预测准确率下降,证明这个特征对于图像识别相对重要;若第一预测准确率和第二预测准确率的差值小于0,表示预测准确率提高,证明这个特征对于图像识别的重要性相对较低。
基于上述规则,逐一剔除第二候选特征集中相对不重要的特征,并将最后所保留下来的全部特征构建为训练特征集。
S1012,将所述训练特征集输入预设推理模型集合,并交替基于推理时间和推理准确率确定构建所述预测模型的N个推理模型。
具体地,可以将训练特征集中的训练特征依次输入预设推理模型集合中的推理模型,基于推理模型的推理时间和/或推理准确率,确定一推理模型加入预测模型,并将确定的推理模型从预设推理模型集合中删除。
参照图6和图7,首先可以将训练特征集中的M个训练特征依次输入预设推理模型集合中的各个推理模型中进行推理,然后计算各个推理模型对各个训练特征进行推理所使用的时间以及推理结果的准确率,选择推理时间最短和/或推理准确率最高的推理模型加入到构建的预测模型中,并将该推理模型从预设推理模型集合中删除。
针对不同的训练特征,为进一步筛选出最佳的推理模型,交替基于推理模型的推理时间和推理准确率,确定预测模型的候选推理模型,并基于预测模型的推理时间和/或推理准确率,确定是否将候选推理模型加入预测模型。这里,基于预测模型的推理时间和/或推理准确率来确定是否将候选推理模型加入预测模型中的具体方法,可以参考上述基于推理模型的推理时间或推理准确率确定一推理模型加入预测模型的实施方式,在此不再赘述。
S1013,基于所述N个推理模型,为所述M个训练特征标记类别标签,其中,所述类别标签表示所述训练特征所对应的最优推理模型。
本实施方式中,首先将所述训练特征集输入第一推理模型,并基于推理时间和/或推理准确率,确定所述第一推理模型选中的训练特征;将所述训练特征集中的剩余训练特征输入第二推理模型,并基于推理时间和/或推理准确率,确定所述第二推理模型选中的训练特征,其中,所述第二推理模型连接在所述第一推理模型之后;然后重复以上步骤,直至所述N个推理模型依序选中对应的训练特征;基于所述N个推理模型分别选中的训练特征,为所述M个训练特征标记类别标签。
示范性的,首先将训练特征集依次输入上述N个推理模型,假设在第一推理模型中有70%比例的训练特征的推理时间较短和/或推理准确率较高,则表示第一推理模型选中了这70%比例的训练特征。然后将剩余30%的训练特征输入后续的第二推理模型中,同样根据推理时间和/或推理准确率筛选出第二推理模型所选中的部分训练特征。重复此步骤,最后,基于上述N个推理模型分别选中的训练特征,可以为M个训练特征分别打上由/不由第一推理模型至第N推理模型处理的标签。
S1014,将训练特征集作为输入,以N个选择模型分别选中对应推理模型的目标训练特征为训练目标,对N个选择模型进行训练,直至满足训练条件,其中,目标训练特征为标记有与推理模型对应推理标签的训练特征。
即将上述带有类别标签的M个训练特征作为新一轮训练数据分别输入N个选择模型进行训练,以使N个选择模型能够根据所输入的训练特征的类别标签分别选中其所对应的推理模型。
在步骤S102中,基于所述预测模型中的选择模型调度对应的推理模型执行目标任务。本实施方式中,采用K近邻算法选择对应的推理模型执行目标任务。该推理模型为DNN模型,该选择模型为KNN模型,每个KNN模型分别对应一个DNN模型。
参图4和图5,示范性地,设N个DNN模型分别为DNN1模型、DNN2模型…DNNn模型,对应的N个KNN模型分别为KNN-1、KNN-2…KNN-n。每个DNN模型和对应的KNN模型均是已训练好的模型,且每个DNN模型均已确定其适合处理哪些类别标签的训练特征。
其中,KNN-1是选择模型中的第一个模型,所有进入预测模型的图像都将通过KNN-1模型。运行时,训练好的各KNN模型可以根据欧氏距离算法判断所输入的训练特征是否可以被交给对应的DNN模型处理,即可以根据欧氏距离算法计算出所输入的KNN模型中与该训练特征最接近的k个邻近特征点,并基于上述k个邻近特征点的类别标签来判断所输入的训练特征是否可以由该KNN模型所对应的DNN模型来进行处理。如果k个邻近特征点的类别标签中,由该KNN模型对应的DNN模型处理的标签数量大于不由该DNN模型来处理的标签数量,则将该训练特征交给该DNN模型来处理。
基于上述方法,可以实现各KNN模型可以根据所输入的训练特征的类别标签来调度其所对应的DNN模型进行处理,降低任务的执行时间,同时提高预测模型对于图像识别的整体精度。
此外,当预测模型中的KNN模型未调度对应的DNN模型执行目标任务时,可以将该目标任务传送至云计算中心,以供云计算中心选择边缘节点上的推理模型执行目标任务。即输入的图像的特征遍历所有KNN模型后仍未找到相应的DNN模型处理时,则将该图像的特征传送至云计算中心,由云计算中心选择DNN模型进行计算。除此之外,也可以根据用户声明的倾向,或使用预先指定的推理模型进行推理,以获得图像预测结果。
本实施方式中,基于10折交叉验证法,验证所述预测模型的性能指标。将待验证图像等分为十个集合,使用其中一个子集作为测试集,剩余九个子集作为训练集,并将这一过程反复折叠10次,使十个子集中的每一个子集都恰好作为测试集使用一次。这种标准方法评估了机器学习模型的泛化能力。
定义所评估的性能指标,该性能指标包括推理时间、预测模型的能源消耗、准确率、精度、召回率、以及F1分数中的至少一个。且分别定义为:
1)推理时间t指一个模型输入时间t0到模型产生输出t1之间的时间,推理时间t越小,预测模型的效益越高。其数学表达式为:
t=t1-t0
2)预测模型的能源消耗包括其能量消耗。其中扣除了系统空闲时硬件使用的静态功率,能源消耗越低,预测模型的性能越好。
3)准确率指正确标注的图像与测试图像总数的比率,准确率越高,预测模型的性能越好。
4)精度(Precision)指正确预测的图像与预测有特定对象的图像总数的比率,精度越高,预测模型的性能越好。
5)召回率(Recall)指正确预测的图像与属于某一物体类别的测试图像总数的比率,召回率越高,预测模型的性能越好。
6)F1分数是精度和召回率的加权平均值,F1分数越高,预测模型的性能越好。其计算公式为:
Figure BDA0003744912930000111
如图9所示,介绍本发明优选实施方式的一种基于多类型智能模型的云边协同调度装置。
在本发明的实施方式中,基于多类型智能模型的云边协同调度装置包括构建模块201和调度模块202。
构建模块201,用于构建预测模型,其中,所述预测模型包括分别部署在N个边缘节点上的N个推理模型以及对应的N个选择模型;
调度模块202,用于基于所述预测模型中的选择模型调度对应的推理模型执行目标任务。
构建模块201还用于:构建训练特征集,其中,所述训练特征集中包括M个训练特征;将所述训练特征集输入预设推理模型集合,并交替基于推理时间和推理准确率确定构建所述预测模型的N个推理模型;基于所述N个推理模型,为所述M个训练特征标记类别标签,其中,所述类别标签表示所述训练特征所对应的最优推理模型;将所述训练特征集作为输入,以所述N个选择模型分别选中对应推理模型的目标训练特征为训练目标,对所述N个选择模型进行训练,直至满足训练条件,其中,所述目标训练特征为标记有与所述推理模型对应推理标签的训练特征。
构建模块201还用于:构建第一候选特征集;基于皮尔逊积点相关参数矩阵,筛选所述第一候选特征集中采数值在预设范围内的特征,以构建第二候选特征集;计算所述预测模型对所述第二候选特征集的第一预测准确率;依次从所述第二候选特征集中剔除一候选特征,并计算所述预测模型对所述剔除一候选特征的第二候选特征集的第二预测准确率;基于所述第一预测准确率和第二预测准确率的差值,确定是否删除所述第二候选特征集中的对应特征,以构建训练特征集。
构建模块201还用于:将所述训练特征集分别输入预设推理模型集合中的推理模型;基于所述推理模型的推理时间或推理准确率,确定一推理模型加入所述预测模型,并将所述确定的推理模型从预设推理模型集合中删除;交替基于所述推理模型的推理时间和推理准确率,确定所述预测模型的候选推理模型,并基于所述预测模型的推理时间和/或推理准确率,确定是否将所述候选推理模型加入所述预测模型。
构建模块201还用于:将所述训练特征集输入第一推理模型,并基于推理时间和/或推理准确率,确定所述第一推理模型选中的训练特征;将所述训练特征集中的剩余训练特征输入第二推理模型,并基于推理时间和/或推理准确率,确定所述第二推理模型选中的训练特征,其中,所述第二推理模型连接在所述第一推理模型之后;重复以上步骤,直至所述N个推理模型依序选中对应的训练特征;基于所述N个推理模型分别选中的训练特征,为所述M个训练特征标记类别标签。
调度模块202还用于:在所述预测模型中的选择模型未调度对应的推理模型执行目标任务时,将所述目标任务传送至所述云计算中心,以供所述云计算中心选择边缘节点上的推理模型执行所述目标任务。
图10示出了根据本说明书的实施例的用于基于多类型智能模型的云边协同调度的电子设备30的硬件结构图。如图10所示,电子设备30可以包括至少一个处理器301、存储器302(例如非易失性存储器)、内存303和通信接口304,并且至少一个处理器301、存储器302、内存303和通信接口304经由总线305连接在一起。至少一个处理器301执行在存储器302中存储或编码的至少一个计算机可读指令。
应该理解,在存储器302中存储的计算机可执行指令当执行时使得至少一个处理器301进行本说明书的各个实施例中以上结合图1-8描述的各种操作和功能。
在本说明书的实施例中,电子设备30可以包括但不限于:个人计算机、服务器计算机、工作站、桌面型计算机、膝上型计算机、笔记本计算机、移动计算设备、智能电话、平板计算机、蜂窝电话、个人数字助理(PDA)、手持装置、消息收发设备、可佩戴计算设备、消费电子设备等等。
根据一个实施例,提供了一种比如计算机可读存储介质的程序产品。计算机可读存储介质可以具有指令(即,上述以软件形式实现的元素),该指令当被计算机执行时,使得计算机执行本说明书的各个实施例中以上结合图1-8描述的各种操作和功能。具体地,可以提供配有可读存储介质的系统或者装置,在该可读存储介质上存储着实现上述实施例中任一实施例的功能的软件程序代码,且使该系统或者装置的计算机或处理器读出并执行存储在该可读存储介质中的指令。
根据本发明实施方式的基于多类型智能模型的云边协同调度方法及应用,与压缩模型方法相结合,实现针对图像识别使用多个DNN模型进行自适应选择的功能;且基于相关参数矩阵提取特征值,提高了预测模型识别效果;基于多DNN并存的模型选择方法,提升了预测模型对图像处理应用的整体精度;同时基于多指标的模型评估方法,有效验证了预测模型的泛化能力。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
前述对本发明的具体示例性实施方案的描述是为了说明和例证的目的。这些描述并非想将本发明限定为所公开的精确形式,并且很显然,根据上述教导,可以进行很多改变和变化。对示例性实施例进行选择和描述的目的在于解释本发明的特定原理及其实际应用,从而使得本领域的技术人员能够实现并利用本发明的各种不同的示例性实施方案以及各种不同的选择和改变。本发明的范围意在由权利要求书及其等同形式所限定。

Claims (10)

1.一种基于多类型智能模型的云边协同调度方法,应用于云边协同系统中,所述云边协同系统包括云计算中心以及多个边缘节点,其特征在于,所述方法包括:
构建预测模型,其中,所述预测模型包括分别部署在N个边缘节点上的N个推理模型以及对应的N个选择模型;
基于所述预测模型中的选择模型调度对应的推理模型执行目标任务;
其中,构建所述预测模型包括:
构建训练特征集,其中,所述训练特征集中包括M个训练特征;
将所述训练特征集输入预设推理模型集合,并交替基于推理时间和推理准确率确定构建所述预测模型的N个推理模型;
基于所述N个推理模型,为所述M个训练特征标记类别标签,其中,所述类别标签表示所述训练特征所对应的最优推理模型;
将所述训练特征集作为输入,以所述N个选择模型分别选中对应推理模型的目标训练特征为训练目标,对所述N个选择模型进行训练,直至满足训练条件,其中,所述目标训练特征为标记有与所述推理模型对应推理标签的训练特征。
2.如权利要求1所述的基于多类型智能模型的云边协同调度方法,其特征在于,构建训练特征集,具体包括:
构建第一候选特征集;
基于皮尔逊积点相关参数矩阵,筛选所述第一候选特征集中采数值在预设范围内的特征,以构建第二候选特征集;
计算所述预测模型对所述第二候选特征集的第一预测准确率;
依次从所述第二候选特征集中剔除一候选特征,并计算所述预测模型对所述剔除一候选特征的第二候选特征集的第二预测准确率;
基于所述第一预测准确率和第二预测准确率的差值,确定是否删除所述第二候选特征集中的对应特征,以构建训练特征集。
3.如权利要求1所述的基于多类型智能模型的云边协同调度方法,其特征在于,将所述训练特征集输入预设推理模型集合,并交替基于推理时间和推理准确率确定构建所述预测模型的N个推理模型,具体包括:
将所述训练特征集分别输入预设推理模型集合中的推理模型;
基于所述推理模型的推理时间或推理准确率,确定一推理模型加入所述预测模型,并将所述确定的推理模型从预设推理模型集合中删除;
交替基于所述推理模型的推理时间和推理准确率,确定所述预测模型的候选推理模型,并基于所述预测模型的推理时间和/或推理准确率,确定是否将所述候选推理模型加入所述预测模型。
4.如权利要求1所述的基于多类型智能模型的云边协同调度方法,其特征在于,基于所述N个推理模型,为所述M个训练特征标记类别标签,具体包括:
将所述训练特征集输入第一推理模型,并基于推理时间和/或推理准确率,确定所述第一推理模型选中的训练特征;
将所述训练特征集中的剩余训练特征输入第二推理模型,并基于推理时间和/或推理准确率,确定所述第二推理模型选中的训练特征,其中,所述第二推理模型连接在所述第一推理模型之后;
重复以上步骤,直至所述N个推理模型依序选中对应的训练特征;
基于所述N个推理模型分别选中的训练特征,为所述M个训练特征标记类别标签。
5.如权利要求1所述的基于多类型智能模型的云边协同调度方法,其特征在于,所述方法还包括:
基于k折交叉验证法,验证所述预测模型的性能指标,其中,所述性能指标包括推理时间、预测模型的能源消耗、准确率、精度、召回率、以及F1分数中的至少一个。
6.如权利要求1所述的基于多类型智能模型的云边协同调度方法,其特征在于,在所述预测模型中的选择模型未调度对应的推理模型执行目标任务时,所述方法还包括:
将所述目标任务传送至所述云计算中心,以供所述云计算中心选择边缘节点上的推理模型执行所述目标任务。
7.如权利要求1所述的基于多类型智能模型的云边协同调度方法,其特征在于,所述推理模型为DNN模型,所述选择模型为KNN模型。
8.一种基于多类型智能模型的云边协同调度装置,其特征在于,所述装置包括:
构建模块,用于构建预测模型,其中,所述预测模型包括分别部署在N个边缘节点上的N个推理模型以及对应的N个选择模型;
调度模块,用于基于所述预测模型中的选择模型调度对应的推理模型执行目标任务;
其中,所述构建模块具体用于:
构建训练特征集,其中,所述训练特征集中包括M个训练特征;
将所述训练特征集输入预设推理模型集合,并交替基于推理时间和推理准确率确定构建所述预测模型的N个推理模型;
基于所述N个推理模型,为所述M个训练特征标记类别标签,其中,所述类别标签表示所述训练特征所对应的最优推理模型;
将所述训练特征集作为输入,以所述N个选择模型分别选中对应推理模型的目标训练特征为训练目标,对所述N个选择模型进行训练,直至满足训练条件,其中,所述目标训练特征为标记有与所述推理模型对应推理标签的训练特征。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及
存储器,所述存储器存储指令,当所述指令被所述至少一个处理器执行时,使得所述至少一个处理器执行如权利要求1至7中任一项所述的基于多类型智能模型的云边协同调度方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至7任一项所述的基于多类型智能模型的云边协同调度方法。
CN202210828289.0A 2022-07-13 2022-07-13 基于多类型智能模型的云边协同调度方法及应用 Pending CN115202879A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210828289.0A CN115202879A (zh) 2022-07-13 2022-07-13 基于多类型智能模型的云边协同调度方法及应用

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210828289.0A CN115202879A (zh) 2022-07-13 2022-07-13 基于多类型智能模型的云边协同调度方法及应用

Publications (1)

Publication Number Publication Date
CN115202879A true CN115202879A (zh) 2022-10-18

Family

ID=83582316

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210828289.0A Pending CN115202879A (zh) 2022-07-13 2022-07-13 基于多类型智能模型的云边协同调度方法及应用

Country Status (1)

Country Link
CN (1) CN115202879A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116560838A (zh) * 2023-05-05 2023-08-08 上海玫克生储能科技有限公司 边缘计算终端设备、综合能源站、管理平台及其控制方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116560838A (zh) * 2023-05-05 2023-08-08 上海玫克生储能科技有限公司 边缘计算终端设备、综合能源站、管理平台及其控制方法
CN116560838B (zh) * 2023-05-05 2024-03-29 上海玫克生储能科技有限公司 边缘计算终端设备、综合能源站、管理平台及其控制方法

Similar Documents

Publication Publication Date Title
US11790212B2 (en) Quantization-aware neural architecture search
CN110929047B (zh) 关注邻居实体的知识图谱推理方法和装置
CN111522962B (zh) 序列推荐方法、装置及计算机可读存储介质
KR102302609B1 (ko) 신경망 아키텍처 최적화
CN111241851A (zh) 语义相似度确定方法、装置及处理设备
US9852177B1 (en) System and method for generating automated response to an input query received from a user in a human-machine interaction environment
CN115455171B (zh) 文本视频的互检索以及模型训练方法、装置、设备及介质
CN114915630A (zh) 基于物联网设备的任务分配方法、网络训练方法及装置
US20190228297A1 (en) Artificial Intelligence Modelling Engine
KR102478076B1 (ko) 음성 인식 오류 검출을 위해 학습 데이터를 생성하기 위한 방법
CN112307048B (zh) 语义匹配模型训练方法、匹配方法、装置、设备及存储介质
CN114358319B (zh) 基于机器学习框架的分类方法及相关装置
CN114358295B (zh) 基于机器学习框架的二分类方法及相关装置
CN112069294A (zh) 一种数学题处理方法、装置、设备及存储介质
CN115202879A (zh) 基于多类型智能模型的云边协同调度方法及应用
CN117112744A (zh) 大语言模型的评估方法、装置及电子设备
US20200311511A1 (en) Accelerating neuron computations in artificial neural networks by skipping bits
CN116186295B (zh) 基于注意力的知识图谱链接预测方法、装置、设备及介质
US20230334330A1 (en) Automated creation of tiny deep learning models based on multi-objective reward function
WO2023174189A1 (zh) 图网络模型节点分类方法、装置、设备及存储介质
KR102545892B1 (ko) 텍스트 분류를 위한 학습 데이터를 생성하는 방법
WO2023078009A1 (zh) 一种模型权重获取方法以及相关系统
KR102445230B1 (ko) 태스크 모델 및 자연어 처리 모델의 학습 방법, 및 이를 수행하는 학습 장치
JP7488375B2 (ja) ニューラルネットワークの生成方法、機器及びコンピュータ可読記憶媒体
CN115587616A (zh) 网络模型训练方法、装置、存储介质及计算机设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination