CN114490447A - 一种多任务优化的智能缓存方法 - Google Patents
一种多任务优化的智能缓存方法 Download PDFInfo
- Publication number
- CN114490447A CN114490447A CN202210081350.XA CN202210081350A CN114490447A CN 114490447 A CN114490447 A CN 114490447A CN 202210081350 A CN202210081350 A CN 202210081350A CN 114490447 A CN114490447 A CN 114490447A
- Authority
- CN
- China
- Prior art keywords
- expert
- task
- layer
- content
- optimization
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000005457 optimization Methods 0.000 title claims abstract description 40
- 238000000034 method Methods 0.000 title claims abstract description 33
- 239000010410 layer Substances 0.000 claims description 72
- 239000013598 vector Substances 0.000 claims description 57
- 238000012549 training Methods 0.000 claims description 36
- 230000006870 function Effects 0.000 claims description 19
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 239000011159 matrix material Substances 0.000 claims description 10
- 230000009467 reduction Effects 0.000 claims description 8
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 239000002356 single layer Substances 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 5
- 238000012545 processing Methods 0.000 claims description 4
- 230000004913 activation Effects 0.000 claims description 3
- 238000013135 deep learning Methods 0.000 claims description 3
- 238000004891 communication Methods 0.000 abstract description 3
- 230000003993 interaction Effects 0.000 abstract 1
- 230000008901 benefit Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000010354 integration Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000002360 explosive Substances 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0877—Cache access modes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/46—Multiprogramming arrangements
- G06F9/50—Allocation of resources, e.g. of the central processing unit [CPU]
- G06F9/5005—Allocation of resources, e.g. of the central processing unit [CPU] to service a request
- G06F9/5027—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals
- G06F9/5038—Allocation of resources, e.g. of the central processing unit [CPU] to service a request the resource being a machine, e.g. CPUs, Servers, Terminals considering the execution order of a plurality of tasks, e.g. taking priority or time dependency constraints into consideration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1016—Performance improvement
- G06F2212/1021—Hit rate improvement
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明涉及一种多任务优化的智能缓存方法,属于无线通信领域。该方法首先将边缘服务器采集到的用户端信息进行整合,设计模型提取出用户和内容特征;其次根据这些信息,构建多任务优化模型对用户与内容的交互进行特征分析,挖掘用户的隐藏特征,预测未来一段时间内内容热度和用户偏好程度;然后根据内容热度与用户偏好程度重要性的不同,设计联合因子,将两者进行联合优化,并将内容进行降序排列,根据边缘服务器的缓存容量选取Top‑k的内容进行缓存;最终根据联合优化结果优化缓存命中率与用户命中率。本发明提高了边缘服务器的命中率和服务质量。
Description
技术领域
本发明属于无线通信领域,涉及一种多任务优化的智能缓存方法。
背景技术
目前,随着通信技术的迅猛发展,移动数据流量急剧增长,其中,特别是短视频流量呈现爆炸式增长。面对如此巨大的挑战,将内容提前缓存在具有存储能力的边缘基站、用户设备或车辆上被认为是解决这一困境的方法。将内容缓存在边缘设备而非云中心不仅可以减少回程链路的流量负载,降低费用,而且可以降低传输时延,提升用户体验,但如何筛选缓存内容成为亟需解决的问题。
多任务训练主要是对于同一个数据集,当需要对多个目标进行建模和预测,且多个目标之间具有较强的关联性时采取的一种方法。相比于传统的单任务建模,多任务建模可以同时分析任务与任务之间的关联性和差异性,在学习各自任务独立特征的基础上,整合各任务之间的共性特征,并自动筛选与各自任务不相关的冗余特征,以此相互提升各个任务的训练效果。除此之外,多任务训练相比于单任务训练能够成倍的减少训练参数和训练时间,且当任务相关性越高时,效果越好。
当前大多数的缓存策略都是基于用户偏好或者内容流行度特征,设计排序算法对内容进行排序后选取排名靠前的若干内容进行缓存。但用户对内容的偏好往往受到大众流行内容的影响,同时,流行内容的热度也会受到群体用户的喜好不断变化。因此,在设计缓存策略的时候两者并不是毫不相关的,而是存在很强的关联性的。
因此,亟需一种边缘服务器缓存内容的联合优化方法,优化缓存内容,提升边缘服务器的服务质量。
发明内容
有鉴于此,本发明的目的在于提供一种多任务优化的智能缓存方法,针对短视频的边缘缓存场景中,由于依据单一的用户偏好或内容流行度缓存造成的缓存偏差的问题,同时预测用户偏好程度与内容热度进行联合缓存,提高边缘服务器的命中率和服务质量。
为达到上述目的,本发明提供如下技术方案:
一种多任务优化的智能缓存方法,首先,当用户请求的内容未被缓存在边缘服务器或缓存内容存在偏差时,边缘服务器收集用户信息和内容特征;然后,对收集到的数据进行不同的编码处理,送入多任务训练模型进行训练,同时预测未来一段时间内用户的偏好与内容的流行度;最后,对预测得到的用户偏好和内容流行度分别排名,选取排名靠前的交集部分进行缓存,优化缓存命中率和用户命中率。该方法具体包括以下步骤:
S1:当用户请求的内容未被缓存在边缘服务器或缓存内容存在偏差时,边缘服务器采集用户端数据,包括用户信息和内容特征;
S2:采用不同特征处理方式对步骤S1采集到的数据进行编码处理,挖掘重要特征,减少后期参数训练量,方便后期快速进行模型训练与更新;
S3:构建并训练多任务优化模型:采用深度学习方法,构造多任务优化模型;输入步骤S2处理后的数据进行训练与预测,不断优化模型参数,预测得到未来一段时间内的内容热度和用户偏好程度;
S4:内容联合缓存:根据内容热度与用户偏好程度重要性的不同,设计合适的联合因子,将两者进行联合优化,并将内容进行降序排列,根据边缘服务器的缓存容量选取Top-k的内容进行缓存;
S5:优化缓存结果:根据联合优化结果优化缓存命中率与用户命中率。
进一步,步骤S1中,用户对边缘基站发送内容请求,若基站已缓存该内容且不存在缓存偏差,则直接分发给用户;否则,若基站为缓存该内容或缓存存在偏差,则整合边缘服务器采集到的各种信息,如用户的年龄、性别、设备型号、请求的内容等基本信息,以及内容的基本信息,如内容的请求次数、播放完整性等。
进一步,步骤S2具体包括以下步骤:
S21:对于采集到的离散特征,如性别、职业、设备型号等,使用独热编码的方式进行编码;
任一经过独热编码的离散特征记为fd:
fd=[d1,d2,...,di,...,d||D||]
S22:对于采集到的连续特征,如年龄、观看时长、观看完整性等,使用特征嵌入进行编码,得到的低维稠密嵌入特征Y=[y1,y2,y3...,yk];
进一步,骤S3中,构建的多任务优化模型,包括输入层、特征嵌入层输、特征共享层、门控专家层、塔层和输出层。
进一步,步骤S3中,构建特征共享层,具体包括:所有输入特征经特征嵌入层输出后,由于采用了不同的编码方式,独热编码生成的高维稀疏特征和嵌入编码生成的低维稠密特征需要进一步的进行特征整合,因此设计了特征共享层将所有特征融合。
首先,将特征嵌入层各自分散的输入特征进行聚合,聚合后的向量记为fconcat:
fconcat=(fd,fy)
其中,fy表示离散特征经过向量嵌入后的稠密向量,fd为经过独热编码的离散特征;
聚合后的向量仍然是一个高纬度较稀疏的向量,然后使用单层神经网络对聚合后的向量进行降维,降维后的输出向量记为fshare:
fshare=σ(Wfconcat)
其中,W表示单层神经网络的权重,σ表示神经网络的激活函数,||fshare||<<||fconcat||,这样,经过特征共享层不仅可以得到低维的稠密向量,还有效的过滤掉了一些不必要的特征信息,是模型的泛化性大大增强。
进一步,步骤S3中,构建特门控专家层,包括:在多任务训练的过程当中,传统方法的共享底层模型虽然可以很好地学习多个任务之间的关联性,但忽略了多个任务之间的差异性,进而导致模型的泛化能力不强。因此,使用门控专家层来替代共享底层;门控专家层主要由三部分组成:任务A和任务B的专家模块、共享专家模块和门控网络;其中,优点主要有以下几方面:
1)多个专家模块的输入特征是相同的,即都是共享层降维后的输出特征,但各个专家模块是互相隔离的,可以根据训练误差独立的学习和更新各自的任务参数;
2)任务A和任务B的专家模块分别学习各自任务的差异性;共享专家模块则主要学习各任务之间的相似性和关联性;
3)门控网络可以根据各个专家模块学习功能的不同,根据各自任务的需要,给各个专家模块分配不同的权重,进而将专家进行融合。
进一步,步骤S3中,构建特门控专家层,具体包括:对于任务A的专家模块,将任务A专家模块的输出记为EA,则:
EA,m,l=ReLu(WA,m,lEA,m,l-1)+bA,m,l
EA,m,1=ReLu(WA,m,1fshare)+bA,m,1
其中,WA,m,l-1表示任务A模块第m个专家中第l层的神经网络权重向量,EA,m,l-1表示任务A模块第m个专家中第l-1层的输出向量,bA,m,l表示任务A模块第m个专家中第l层神经网络的偏置向量,fshare表示降维后的输出向量;
同理,可以分别得到任务B的专家模块EB和共享专家模块ES;
门控网络可以通过对输入特征和专家模块的学习,根据各自任务的不同控制各个专家模块的权重;
其中,k∈{A,B}表示训练任务,Gk表示门控网络对于任务k的输出向量,表示任务k的门控网络的参数矩阵;Sk表示任务k的输入向量,表示任务k模块第m个专家的输出向量,表示共享专家模块第m个专家的输出向量。
进一步,步骤S3中,构建的塔层包括:为了更充分的分析各个任务的差异性,增加模型的泛化性,在门控专家层之后加入塔层;塔层将门控专家层输出的矩阵向量输入多层的神经网络进一步挖掘各个任务的异化信息,使得整个模型在共享关联性特征的基础上突出自身的特点,进而优化任务各自的性能。
进一步,步骤S3中,构建的输出层包括:输出层有两个任务,分别是预测内容热度和用户偏好程度;考虑到这两个任务都是的输出不同,因此在最后使用softmax函数和ReLu分别进行归一化和标准化;由于两个任务的输出类型不同,采用不同的误差函数进行拟合;分类问题使用对数形式的交叉熵损失函数。
进一步,步骤S4具体包括以下步骤:
S41:根据多任务优化模型训练的结果对用户偏好程度进行加权平均并排序;
S42:根据多任务优化模型训练的结果对内容热度进行排序;
S43:将两者排序结果取交集得到最终的缓存内容。
本发明的有益效果在于:本发明针对边缘缓存场景中,只根据用户偏好程度或内容热度进行缓存的方法,由于缓存标准单一造成缓存偏差的问题,因此本发明提供的基于多任务优化的智能缓存方法,能够同时预测用户偏好与内容流行度进而进行联合缓存,提高边缘服务器的命中率和服务质量。
本发明的其他优点、目标和特征在某种程度上将在随后的说明书中进行阐述,并且在某种程度上,基于对下文的考察研究对本领域技术人员而言将是显而易见的,或者可以从本发明的实践中得到教导。本发明的目标和其他优点可以通过下面的说明书来实现和获得。
附图说明
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作优选的详细描述,其中:
图1为本发明的基于多任务优化的智能缓存方法的架构图;
图2为本发明的基于多任务优化的智能缓存方法的流程图;
图3为本发明中多任务优化模型的结构图;
图4为本发明中的多任务优化模型的训练流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
请参阅图1~图4,图1为本发明提供的基于多任务训练的边缘缓存优化算法,具体包含以下步骤:
步骤1:用户对边缘基站发送内容请求,若基站已缓存该内容且不存在缓存偏差,则直接分发给用户;否则,若基站为缓存该内容或缓存存在偏差,则整合边缘服务器采集到的各种信息,如用户的年龄、性别、设备型号、请求的内容等基本信息,以及内容的基本信息,如内容的请求次数、播放完整性等。
步骤2:输入数据预处理:针对步骤1采集到的信息,采用不同的特征处理方式对其进行编码,挖掘重要特征,减少后期参数训练量,方便后期快速进行模型训练与更新,具体包含以下步骤:
步骤2.1:对于采集到的离散特征,如性别、职业、设备型号等,使用独热编码的方式进行编码。任一经过独热编码的离散特征记为fd。
fd=[d1,d2,...,di,d||D||]
步骤2.2:对于采集到的连续特征,如年龄、观看时长、观看完整性等,使用特征嵌入进行编码,得到的低维稠密嵌入特征Y=[y1,y2,y3...,yk]。
步骤3:多任务训练建模:采用深度学习方法,构造神经网络模型,对步骤2输入的数据进行训练与预测,不断优化模型参数,得到未来一段时间内内容的热度与用户对内容的偏好程度两个结果,具体包含以下步骤:
步骤3.1:特征共享层;所有输入特征经特征嵌入层输出后,由于采用了不同的编码方式,独热编码生成的高维稀疏特征和嵌入编码生成的低维稠密特征需要进一步的进行特征整合,因此设计了特征共享层将所有特征融合。
首先,先将特征嵌入层各自分散的输入特征进行聚合,聚合后的向量记为fconcat:
fconcat=(fd,fy)
其中fy表示离散特征经过向量嵌入后的稠密向量。
聚合后的向量仍然是一个高纬度较稀疏的向量,本文使用单层神经网络对聚合后的向量进行降维,降维后的输出向量记为fshare:
fshare=σ(Wfconcat)
其中W表示单层神经网络的权重,σ表示神经网络的激活函数,||fshare||<<||fconcat||,这样,经过特征共享层不仅可以得到低维的稠密向量,还有效的过滤掉了一些不必要的特征信息,是模型的泛化性大大增强。
步骤3.2:门控专家层:在多任务训练的过程当中,传统方法的共享底层模型虽然可以很好地学习多个任务之间的关联性,但忽略了多个任务之间的差异性,进而导致模型的泛化能力不强。因此,设计了门控专家层来替代共享底层。门控专家层主要由三部分组成:任务A和任务B的专家模块、共享专家模块和门控网络。优点主要有以下几方面:
1)多个专家模块的输入特征是相同的,即都是共享层降维后的输出特征,但各个专家模块是互相隔离的,可以根据训练误差独立的学习和更新各自的任务参数。
2)任务A和任务B的专家模块分别学习各自任务的差异性;共享专家模块则主要学习各任务之间的相似性和关联性。
3)门控网络可以根据各个专家模块学习功能的不同,根据各自任务的需要,给各个专家模块分配不同的权重,进而将专家进行融合。
对于任务A的专家模块,将任务A专家模块的输出记为EA,则:
EA,m,l=ReLu(WA,m,lEA,m,l-1)+bA,m,l
EA,m,1=ReLu(WA,m,1fshare)+bA,m,1
其中,WA,m,l-1表示任务A模块第m个专家中第l层的神经网络权重向量,EA,m,l-1表示任务A模块第m个专家中第l-1层的输出向量,bA,m,l表示任务A模块第m个专家中第l层神经网络的偏置向量。
同理,可以分别得到任务B的专家模块EB和共享专家模块ES。
门控网络可以通过对输入特征和专家模块的学习,根据各自任务的不同控制各个专家模块的权重:
其中k∈{A,B}表示训练任务,Gk表示门控网络对于任务k的输出向量,Sk表示任务k的输入向量。
步骤3.3:塔层:为了更充分的分析各个任务的差异性,增加模型的泛化性,在门控专家层之后加入了塔层。塔层将门控专家层输出的矩阵向量输入多层的神经网络进一步挖掘各个任务的异化信息,使得整个模型在共享关联性特征的基础上突出自身的特点,进而优化任务各自的性能。
步骤3.4:输出层:输出层有两个任务,分别是预测用户对内容的偏好和内容的流行度。考虑到这两个任务都是的输出不同,因此在最后使用softmax函数和ReLu分别进行归一化和标准化:
其中yk表示任务k的概率输出,σ表示激活函数,用户偏好是分类问题,使用softmax;内容流行度是回归问题,使用ReLu。
由于两个任务的输出类型不同,采用不同的误差函数进行拟合。分类问题使用对数形式的交叉熵损失函数:
回归问题使用均方误差函数(RMSE)来计算参数训练过程中的损失:
最后得到的总误差函数为:
loss=loss1+loss2
整个多任务预测模型的目的是通过对模型参数的不断迭代和学习,使得总误差函数最小。
步骤4:内容联合缓存:根据内容热度与用户偏好程度重要性的不同,设计合适的联合因子,将两者进行联合优化,将内容进行降序排列,根据边缘服务器的缓存容量选取Top-k的内容进行缓存;
然后,分别对Pu和Pc降序排列并选择前m个得到Cache@Pu,Cache@Pc。
最后缓存的内容则是两个集合交集的部分。
步骤5:优化缓存结果:根据联合优化结果优化缓存命中率与用户命中率。
最后说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本技术方案的宗旨和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种多任务优化的智能缓存方法,其特征在于,该方法具体包括以下步骤:
S1:当用户请求的内容未被缓存在边缘服务器或缓存内容存在偏差时,边缘服务器采集用户端数据,包括用户信息和内容特征;
S2:采用不同特征处理方式对步骤S1采集到的数据进行编码处理;
S3:构建并训练多任务优化模型:采用深度学习方法,构造多任务优化模型;输入步骤S2处理后的数据进行训练与预测,不断优化模型参数,预测得到未来一段时间内的内容热度和用户偏好程度;
S4:内容联合缓存:根据内容热度与用户偏好程度重要性的不同,设计联合因子,将两者进行联合优化,并将内容进行降序排列,根据边缘服务器的缓存容量选取Top-k的内容进行缓存;
S5:优化缓存结果:根据联合优化结果优化缓存命中率与用户命中率。
3.根据权利要求1所述的多任务优化的智能缓存方法,其特征在于,步骤S3中,构建的多任务优化模型,包括输入层、特征嵌入层输、特征共享层、门控专家层、塔层和输出层。
4.根据权利要求3所述的多任务优化的智能缓存方法,其特征在于,步骤S3中,构建特征共享层,具体包括:首先,将特征嵌入层各自分散的输入特征进行聚合,聚合后的向量记为fconcat:
fconcat=(fd,fy)
其中,fy表示离散特征经过向量嵌入后的稠密向量,fd为经过独热编码的离散特征;
聚合后的向量仍然是一个高纬度较稀疏的向量,然后使用单层神经网络对聚合后的向量进行降维,降维后的输出向量记为fshare:
fshare=σ(Wfconcat)
其中,W表示单层神经网络的权重,σ表示神经网络的激活函数,||fshare||<<||fconcat||。
5.根据权利要求3所述的多任务优化的智能缓存方法,其特征在于,步骤S3中,构建特门控专家层,包括:使用门控专家层来替代共享底层;门控专家层由三部分组成:任务A和任务B的专家模块、共享专家模块和门控网络;其中,
1)多个专家模块的输入特征是相同的,即都是共享层降维后的输出特征,但各个专家模块是互相隔离的,可以根据训练误差独立的学习和更新各自的任务参数;
2)任务A和任务B的专家模块分别学习各自任务的差异性;共享专家模块学习各任务之间的相似性和关联性;
3)门控网络根据各个专家模块学习功能的不同,根据各自任务的需要,给各个专家模块分配不同的权重,进而将专家进行融合。
6.根据权利要求5所述的多任务优化的智能缓存方法,其特征在于,步骤S3中,构建特门控专家层,具体包括:对于任务A的专家模块,将任务A专家模块的输出记为EA,则:
EA,m,l=ReLu(WA,m,lEA,m,l-1)+bA,m,l
EA,m,1=ReLu(WA,m,1fshare)+bA,m,1
其中,WA,m,l-1表示任务A模块第m个专家中第l层的神经网络权重向量,EA,m,l-1表示任务A模块第m个专家中第l-1层的输出向量,bA,m,l表示任务A模块第m个专家中第l层神经网络的偏置向量,fshare表示降维后的输出向量;
同理,分别得到任务B的专家模块EB和共享专家模块ES;
门控网络通过对输入特征和专家模块的学习,根据各自任务的不同控制各个专家模块的权重;
7.根据权利要求3所述的多任务优化的智能缓存方法,其特征在于,步骤S3中,构建的塔层包括:在门控专家层之后加入塔层;塔层将门控专家层输出的矩阵向量输入多层的神经网络进一步挖掘各个任务的异化信息。
8.根据权利要求3所述的多任务优化的智能缓存方法,其特征在于,步骤S3中,构建的输出层包括:输出层有两个任务,分别是预测使用softmax函数和ReLu分别进行归一化和标准化;采用不同的误差函数进行拟合;分类问题使用对数形式的交叉熵损失函数。
9.根据权利要求1所述的多任务优化的智能缓存方法,其特征在于,步骤S4具体包括以下步骤:
S41:根据多任务优化模型训练的结果对用户偏好程度进行加权平均并排序;
S42:根据多任务优化模型训练的结果对内容热度进行排序;
S43:将两者排序结果取交集得到最终的缓存内容。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210081350.XA CN114490447A (zh) | 2022-01-24 | 2022-01-24 | 一种多任务优化的智能缓存方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210081350.XA CN114490447A (zh) | 2022-01-24 | 2022-01-24 | 一种多任务优化的智能缓存方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114490447A true CN114490447A (zh) | 2022-05-13 |
Family
ID=81475015
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210081350.XA Pending CN114490447A (zh) | 2022-01-24 | 2022-01-24 | 一种多任务优化的智能缓存方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114490447A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114610500A (zh) * | 2022-03-22 | 2022-06-10 | 重庆邮电大学 | 一种基于模型蒸馏的边缘缓存方法 |
-
2022
- 2022-01-24 CN CN202210081350.XA patent/CN114490447A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114610500A (zh) * | 2022-03-22 | 2022-06-10 | 重庆邮电大学 | 一种基于模型蒸馏的边缘缓存方法 |
CN114610500B (zh) * | 2022-03-22 | 2024-04-30 | 重庆邮电大学 | 一种基于模型蒸馏的边缘缓存方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021043193A1 (zh) | 神经网络结构的搜索方法、图像处理方法和装置 | |
Jiang et al. | Deep learning-based edge caching in fog radio access networks | |
CN113297936B (zh) | 一种基于局部图卷积网络的排球群体行为识别方法 | |
CN111553213B (zh) | 移动边缘云中实时分布式的身份感知行人属性识别方法 | |
CN109960738A (zh) | 基于深度对抗哈希学习的大规模遥感影像内容检索方法 | |
CN113887694A (zh) | 一种注意力机制下基于特征表征的点击率预估模型 | |
US20220058391A1 (en) | Systems and methods for dynamic image category determination | |
CN116305289B (zh) | 医疗隐私数据处理方法、装置、计算机设备及存储介质 | |
WO2024067373A1 (zh) | 一种数据处理方法及相关装置 | |
CN116469561A (zh) | 一种基于深度学习的乳腺癌生存预测方法 | |
CN114490447A (zh) | 一种多任务优化的智能缓存方法 | |
CN115129888A (zh) | 一种基于网络边缘知识图谱的主动内容缓存方法 | |
Ma | An Efficient Optimization Method for Extreme Learning Machine Using Artificial Bee Colony. | |
CN116244484B (zh) | 一种面向不平衡数据的联邦跨模态检索方法及系统 | |
CN116828052A (zh) | 一种基于边缘计算的数据智能协同缓存方法 | |
CN116740949A (zh) | 基于持续学习的时空因果预测的城市交通数据预测方法 | |
CN115129902B (zh) | 媒体数据处理方法、装置、设备及存储介质 | |
CN110381540B (zh) | 基于dnn的实时响应时变文件流行度的动态缓存更新方法 | |
Kihel et al. | A novel genetic grey wolf optimizer for global optimization and feature selection | |
CN113051474A (zh) | 一种融合多平台多终端搜索指数的客流预测方法及系统 | |
Chakraborty et al. | R2-d2d: A novel deep learning based content-caching framework for d2d networks | |
CN111901394A (zh) | 一种联合考虑用户偏好及活跃程度的移动边缘缓存的方法及系统 | |
CN118132972B (zh) | 特征处理方法、装置、设备和存储介质 | |
CN118467643B (zh) | 一种基于区块链的数据共享方法 | |
CN117877252B (zh) | 一种基于聚类与进化深度学习的交通流预测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |