CN112948289B - 一种基于机器学习的缓存预测调度方法、系统及介质 - Google Patents

一种基于机器学习的缓存预测调度方法、系统及介质 Download PDF

Info

Publication number
CN112948289B
CN112948289B CN202110236590.8A CN202110236590A CN112948289B CN 112948289 B CN112948289 B CN 112948289B CN 202110236590 A CN202110236590 A CN 202110236590A CN 112948289 B CN112948289 B CN 112948289B
Authority
CN
China
Prior art keywords
cache
data
machine learning
weight
cached
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110236590.8A
Other languages
English (en)
Other versions
CN112948289A (zh
Inventor
李镇鹏
郑雪莹
蔡晓华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Netis Technologies Co ltd
Original Assignee
Shanghai Netis Technologies Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Netis Technologies Co ltd filed Critical Shanghai Netis Technologies Co ltd
Priority to CN202110236590.8A priority Critical patent/CN112948289B/zh
Publication of CN112948289A publication Critical patent/CN112948289A/zh
Application granted granted Critical
Publication of CN112948289B publication Critical patent/CN112948289B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/12Replacement control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0806Multiuser, multiprocessor or multiprocessing cache systems
    • G06F12/0815Cache consistency protocols
    • G06F12/0837Cache consistency protocols with software control, e.g. non-cacheable data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明提供了一种基于机器学习的缓存预测调度方法、系统及介质,包括:步骤1:收集用户的查询数据作为样本数据,持续进行监督学习,并输出缓存预测曲线;步骤2:根据上述缓存预测曲线,按照权重,把实时处理中的待缓存数据预先缓存到内存中,并根据内存容量,按权重进行置换;步骤3:当获取到用户执行的首次查询操作,先至预缓存的数据中查询,同时将查询的条件加入到机器学习过程作为元数据;步骤4:在查询的条件在预缓存中命中的情况下,直接输出结果,同时结果反馈到机器学习过程。本发明具有在用户查询之前生成缓存数据,让首次查询命中缓存,提高首次查询速度的效果。

Description

一种基于机器学习的缓存预测调度方法、系统及介质
技术领域
本发明涉及机器学习的技术领域,具体地,涉及一种基于机器学习的缓存预测调度方法、系统及介质。
背景技术
现有查询方式通常查询数据库或者查询文件,由于数据查询速度或者文件IO处理速度远低于CPU执行速度,因此查询速度很慢,一般是秒级的,在很多实时(ms级)场合下,达不到的要求。
一种改进的方案是基于缓存的查询。这种方法通过在第一次查询之后,将数据缓存在内存中,使得之后该数据的查询可以直接在内存中进行,从而有效提高了之后查询的效率,但是这种方式的首次查询无法使用缓存提高查询效率。
通常的缓存调度算法有RAND(随机算法)、FIFO(先进先出算法),LFU(近期最少使用算法),LRU(最久没有使用算法)和OPT(最优替换算发)等。其中RAND和FIFO只是简单调度,命中率低。LFU和LRU是利用了计算的局部性(最近使用过的数据还会被使用),相比于RAND和FIFO提高了命中率,但没有考虑周期性系统的处理规律,还有进一步提升空间。而OPT是需要将程序运行一遍,然后获得调度依据,仅仅适合代码缓存和小规模程序,而真实世界主要是数据缓存和大规模系统。
发明内容
针对现有技术中的缺陷,本发明的目的是提供一种基于机器学习的缓存预测调度方法、系统及介质。
根据本发明提供的一种基于机器学习的缓存预测调度方法,包括:
步骤1:收集用户的查询数据作为样本数据,持续进行监督学习,并输出缓存预测曲线;
步骤2:根据上述缓存预测曲线,按照权重,把实时处理中的待缓存数据预先缓存到内存中,并根据内存容量,按权重进行置换;
步骤3:当获取到用户执行的首次查询操作,先至预缓存的数据中查询,同时将查询的条件加入到机器学习过程作为元数据;
步骤4:在查询的条件在预缓存中命中的情况下,直接输出结果,同时结果反馈到机器学习过程。
优选地,所述步骤1包括:
步骤1.1:将训练数据以及加入的查询数据作为机器学习的输入,输入到机器学习网络中;
步骤1.2:机器学习网络计算出预测结果,预测结果为以权重表示的待缓存数据需要预缓存的预测;
步骤1.3:预测结果存入缓存输出下一个周期的缓存权重曲线。
优选地,所述步骤2包括:
步骤2.1:查看内存是否有足够的缓存空间;
步骤2.2:若有足够的缓存空间则插入待缓存数据到缓存;若有足够的缓存空间,则先查询权重表,根据权重做下一步判断;
步骤2.3:在待缓存的数据权重低于预设值的情况下,则丢弃待缓存数据;在待缓存的数据权重不低于预设值的情况下,则清除已有缓存中最低权重的缓存,然后重复步骤2.1。
优选地,机器学习网络计算出预测结果,值越大表示预测需要缓存可能性越大,或者使用值越小表示预测需要缓存可能性越大的语义。
本发明还提供一种基于机器学习的缓存预测调度系统,包括
模块M1:收集用户查询数据作为样本数据,持续进行监督学习,并输出缓存预测曲线;
模块M2:根据上述缓存预测曲线,按照权重,把实时处理中的待缓存数据预先缓存到内存中,并根据内存容量,按权重进行置换;
模块M3:当获取到用户执行的首次查询操作,先至预缓存的数据中查询,同时将查询的条件加入到机器学习过程作为元数据;
模块M4:在查询的条件在预缓存中命中的情况下,直接输出结果,同时结果反馈到机器学习过程。
优选地,所述模块M1包括:
模块M1.1:将训练数据以及加入的查询数据作为机器学习的输入,输入到机器学习网络中;
模块M1.2:机器学习网络计算出预测结果,预测结果为以权重表示的待缓存数据需要预缓存的预测;
模块M1.3:预测结果存入缓存输出下一个周期的缓存权重曲线。优选地,所述模块M2包括:
模块M2.1:查看内存是否有足够的缓存空间;
模块M2.2:若有足够的缓存空间则插入待缓存数据到缓存;若有足够的缓存空间,则先查询权重表,根据权重做下一步判断;
模块M2.3:在待缓存的数据权重低于预设值的情况下,则丢弃待缓存数据;在待缓存的数据权重不低于预设值的情况下,则清除已有缓存中最低权重的缓存,然后重复模块M2.1。
优选地,机器学习网络计算出预测结果,值越大表示预测需要缓存可能性越大,或者使用值越小表示预测需要缓存可能性越大的语义。
本发明还提供一种存储有机器学习的缓存预测调度方法的计算机可读存储介质,所述机器学习被处理器执行时实现上述方法的步骤。
与现有技术相比,本发明具有如下的有益效果:
1、在用户查询之前生成缓存数据,让首次查询命中缓存,提高首次查询速度;
2、利用机器学习神经网络方法,历史查询越多预测越准确;
3、可以根据权重表提高缓存命中率,加快查询速度;
4、闭环训练过程,无需人工标注。
附图说明
通过阅读参照以下附图对非限制性实施例所作的详细描述,本发明的其它特征、目的和优点将会变得更明显:
图1为本发明的整体流程图;
图2为本发明中机器学习预测流程图;
图3为本发明中根据权重存入缓存数据流程图;
图4为本发明的举例训练数据样本;
图5为本发明的举例采用的神经网络模型;
图6为本发明的举例的预测结果;
图7为本发明的举例预测后的缓存权重;
图8为本发明的举例的缓存分布更新示意图。
具体实施方式
下面结合具体实施例对本发明进行详细说明。以下实施例将有助于本领域的技术人员进一步理解本发明,但不以任何形式限制本发明。应当指出的是,对本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变化和改进。这些都属于本发明的保护范围。
参考图1,本方法包括如下步骤:
步骤1:开启机器学习程序,收集用户查询数据作为样本数据,持续进行监督学习,输出缓存预测曲线。
步骤2:根据缓存预测曲线,按照权重,把实时流处理中的待缓存数据预先缓存到内存中,并根据缓存内存容量,按权重进行必要的置换。
步骤3:用户执行首次查询操作,会先去经过机器学习预测出的预缓存数据中查询,同时查询的数据和时间范围等条件会加入到机器学习过程作为元数据。
步骤4:若查询的条件在预缓存中命中,则直接输出结果,同时结果反馈到机器学习过程,若查询条件未命中缓存,则遵从普通查询方式,查询数据库等方式查询数据,输出结果。
参考图2,步骤1包括如下步骤:
步骤1.1:N天训练数据以及用户不断加入的查询数据作为机器学习的输入,输入到机器学习网络中。
步骤1.2:机器学习网络计算出预测结果。预测结果为以权重表示的该数据需要预缓存的预测。值越大表示预测需要缓存可能性越大。也可以使用值越小表示预测需要缓存可能性越大的语义。
步骤1.3:预测结果存入缓存输出下一个周期的缓存权重曲线。
参考图3,步骤2包括如下步骤:
步骤2.1:查看是否有足够的缓存空间。
步骤2.2:有足够的缓存空间则插入带缓存数据到缓存。
步骤2.3:若有足够的缓存空间,先查询权重表,根据权重做下一步判断。
步骤2.4:待缓存的数据权重比较低,则丢弃待缓存数据
步骤2.5:待缓存的数据权重比较高,则清除已有缓存中低权重的缓存,然后重复步骤2.1。
机器学习网络计算出预测结果,值越大表示预测需要缓存可能性越大,或者使用值越小表示预测需要缓存可能性越大的语义。
一种基于机器学习的缓存预测调度方法、系统及介质的系统,包括
模块M1:收集用户查询数据作为样本数据,持续进行监督学习,并输出缓存预测曲线;
模块M2:根据上述缓存预测曲线,按照权重,把实时处理中的待缓存数据预先缓存到内存中,并根据内存容量,按权重进行置换;
模块M3:当获取到用户执行的首次查询操作,先至预缓存的数据中查询,同时将查询的条件加入到机器学习过程作为元数据;
模块M4:在查询的条件在预缓存中命中的情况下,直接输出结果,同时结果反馈到机器学习过程。
模块M1包括:
模块M1.1:将训练数据以及加入的查询数据作为机器学习的输入,输入到机器学习网络中;
模块M1.2:机器学习网络计算出预测结果,预测结果为以权重表示的待缓存数据需要预缓存的预测;
模块M1.3:预测结果存入缓存输出下一个周期的缓存权重曲线。
模块M2包括:
模块M2.1:查看内存是否有足够的缓存空间;
模块M2.2:若有足够的缓存空间则插入待缓存数据到缓存;若有足够的缓存空间,则先查询权重表,根据权重做下一步判断;
模块M2.3:在待缓存的数据权重低于预设值的情况下,则丢弃待缓存数据;在待缓存的数据权重不低于预设值的情况下,则清除已有缓存中最低权重的缓存,然后重复模块M2.1。
机器学习网络计算出预测结果,值越大表示预测需要缓存可能性越大,或者使用值越小表示预测需要缓存可能性越大的语义。
一种存储有机器学习的缓存预测调度方法的计算机可读存储介质,机器学习被处理器执行时实现权利要求1-3中任一项所述的方法的步骤。
在用户查询之前生成缓存数据,让首次查询命中缓存,提高首次查询速度;利用机器学习神经网络方法,历史查询越多预测越准确;可以根据权重表提高缓存命中率,加快查询速度;闭环训练过程,无需人工标注。
图4到图8举例了一个仅仅使用时间作为学习特征的的系统。实际使用中,可以增加更多特征,譬如但不限于,用户系统特征(包括系统分类,系统IP,系统网段等),用户特征(包括用户分类,浏览器版本等),查询条件(按实际情况进行分类),数据特征(包括长度,摘要,散列等)。
图4(横轴为时间,精度为分钟,纵轴为访问量)展示了对于某一个系统访问情况作为训练数据。横轴是从0点开始的分钟序号,到1440表示当天结束,纵轴是访问量。这个系统的特点是上午9点开始有较多的数据访问,在10点达到峰值,然后访问持续到12点左右。中间有1小时的基本无访问,从13开始又出现大量访问到15点。再经过1小时的基本无访问后,在17点又出现一个峰值访问,持续1小时多一些。其他时段系统基本没有访问。这是一个典型的双峰值系统,有比较多的实际使用,例如证券系统,上下午各有一次访问峰值,在周一到周五重复发生。
图5展示了本法使用一个神经网络的组成,该网络作为预测算法。该网络包含一个输入层,两个一隐藏层和一个输出层。两个隐藏层组成全连接层,全连接层定义了两个线性转换,其公式为y=xAT+b其中x为输入,AT为权重的转置,b为偏置。输入层为N天的训练数据,因为,每天1440分钟,因此该数据有N*1440维,表示该数据在该数据在该时刻是否需要缓存。第一个隐藏层有240个神经元,第二个隐藏层有120个神经元,最后输出层维度为1*1440维。输出为该数据在1440个分钟上,需要缓存的权重预测。
如果系统中采用更多特征,那么相应的输入需要调整为N*1440*M,其中M表示特征的个数,经过该网络输出的形状为(N,*,out_features),其计算过程为:。
[N,*,in_features]*[out_features,in_features]T=[N,*,out_features]
图6(横轴为时间,精度为分钟,纵轴为访问量)展示了本发明的预测结果情况。横轴是从0点开始的分钟序号,到1440表示当天结束,纵轴是访问量,红色点的颜色表示需要缓存的数据。当前的权重算法为:如果该数据需要缓存,那么去访问量作为权重;否则权重为0。
图7(横轴为时间,精度为分钟,纵轴为权重)展示了根据图6绘制的预测权重视图。横轴是从0点开始的分钟序号,到1440表示当天结束,纵轴是权重值。
图8展示了系统缓存分布的更新情况,纵轴时间(24小时),横轴是60分钟,色块深浅表示缓存更新的频繁程度。可以看出对应本举例数据,因为系统在9点之前并没有访问,因此缓存的更新是冲9点17分开始,持续到了10点27分,然后由于数据被高质量缓存,其后基本没有更新。而针对下午的访问,从14点12分开始到15点24分又出现了较多的缓存更新,然后由于数据被高质量缓存,其后基本没有更新。
本领域技术人员知道,除了以纯计算机可读程序代码方式实现本发明提供的系统及其各个装置、模块、单元以外,完全可以通过将方法步骤进行逻辑编程来使得本发明提供的系统及其各个装置、模块、单元以逻辑门、开关、专用集成电路、可编程逻辑控制器以及嵌入式微控制器等的形式来实现相同功能。所以,本发明提供的系统及其各项装置、模块、单元可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置、模块、单元也可以视为硬件部件内的结构;也可以将用于实现各种功能的装置、模块、单元视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
以上对本发明的具体实施例进行了描述。需要理解的是,本发明并不局限于上述特定实施方式,本领域技术人员可以在权利要求的范围内做出各种变化或修改,这并不影响本发明的实质内容。在不冲突的情况下,本申请的实施例和实施例中的特征可以任意相互组合。

Claims (5)

1.一种基于机器学习的缓存预测调度方法,其特征在于,包括:
步骤1:收集用户的查询数据作为样本数据,持续进行机器学习,并输出缓存预测曲线;
步骤2:根据上述缓存预测曲线,按照权重,把实时处理中的待缓存数据预先缓存到内存中,并根据内存容量,按权重进行置换;
步骤3:当获取到用户执行的首次查询操作,先至预缓存的数据中查询,同时将查询的条件加入到机器学习过程作为元数据;
步骤4:在查询的条件在预缓存中命中的情况下,直接输出结果,同时结果反馈到机器学习过程;
所述步骤1包括:
步骤1.1:将训练数据以及加入的查询数据作为机器学习的输入,输入到机器学习网络中;
步骤1.2:机器学习网络计算出预测结果,预测结果为以权重表示的待缓存数据需要预缓存的预测;
步骤1.3:预测结果存入缓存输出下一个周期的缓存权重曲线;
所述步骤2包括:
步骤2.1:查看内存是否有足够的缓存空间;
步骤2.2:若有足够的缓存空间则插入待缓存数据到缓存;若没有足够的缓存空间,则先查询权重表,根据权重做下一步判断;
步骤2.3 :在待缓存的数据权重低于预设值的情况下,则丢弃待缓存数据;在待缓存的数据权重不低于预设值的情况下,则清除已有缓存中最低权重的缓存,然后重复步骤2.1。
2.根据权利要求1所述的一种基于机器学习的缓存预测调度方法,其特征在于,机器学习网络计算出预测结果,值越大表示预测需要缓存可能性越大,或者使用值越小表示预测需要缓存可能性越大的语义。
3.一种基于机器学习的缓存预测调度系统,其特征在于,包括
模块M1:收集用户查询数据作为样本数据,持续进行监督学习,并输出缓存预测曲线;
模块M2:根据上述缓存预测曲线,按照权重,把实时处理中的待缓存数据预先缓存到内存中,并根据内存容量,按权重进行置换;
模块M3:当获取到用户执行的首次查询操作,先至预缓存的数据中查询,同时将查询的条件加入到机器学习过程作为元数据;
模块M4:在查询的条件在预缓存中命中的情况下,直接输出结果,同时结果反馈到机器学习过程;
所述模块M1包括:
模块M1.1:将训练数据以及加入的查询数据作为机器学习的输入,输入到机器学习网络中;
模块M1.2:机器学习网络计算出预测结果,预测结果为以权重表示的待缓存数据需要预缓存的预测;
模块M1.3:预测结果存入缓存输出下一个周期的缓存权重曲线;
所述模块M2包括:
模块M2.1:查看内存是否有足够的缓存空间;
模块M2.2:若有足够的缓存空间则插入待缓存数据到缓存;若没有足够的缓存空间,则先查询权重表,根据权重做下一步判断;
模块M2.3 :在待缓存的数据权重低于预设值的情况下,则丢弃待缓存数据;在待缓存的数据权重不低于预设值的情况下,则清除已有缓存中最低权重的缓存,然后重复模块M2.1。
4.根据权利要求3所述的一种基于机器学习的缓存预测调度系统,其特征在于,机器学习网络计算出预测结果,值越大表示预测需要缓存可能性越大,或者使用值越小表示预测需要缓存可能性越大的语义。
5.一种存储有机器学习的缓存预测调度方法的计算机可读存储介质,其特征在于,所述机器学习被处理器执行时实现权利要求1-2中任一项所述的方法的步骤。
CN202110236590.8A 2021-03-03 2021-03-03 一种基于机器学习的缓存预测调度方法、系统及介质 Active CN112948289B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110236590.8A CN112948289B (zh) 2021-03-03 2021-03-03 一种基于机器学习的缓存预测调度方法、系统及介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110236590.8A CN112948289B (zh) 2021-03-03 2021-03-03 一种基于机器学习的缓存预测调度方法、系统及介质

Publications (2)

Publication Number Publication Date
CN112948289A CN112948289A (zh) 2021-06-11
CN112948289B true CN112948289B (zh) 2022-09-30

Family

ID=76247411

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110236590.8A Active CN112948289B (zh) 2021-03-03 2021-03-03 一种基于机器学习的缓存预测调度方法、系统及介质

Country Status (1)

Country Link
CN (1) CN112948289B (zh)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103282891A (zh) * 2010-08-16 2013-09-04 甲骨文国际公司 用于使用神经网络来进行有效的缓存的系统和方法
CN107909108A (zh) * 2017-11-15 2018-04-13 东南大学 基于内容流行度预测的边缘缓存系统及其方法
CN111865826A (zh) * 2020-07-02 2020-10-30 大连理工大学 一种基于联邦学习的主动内容缓存方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104834675B (zh) * 2015-04-02 2018-02-23 浪潮集团有限公司 一种基于用户行为分析的查询性能优化方法
CN107247675B (zh) * 2017-05-31 2019-08-20 华中科技大学 一种基于分类预测的缓存选择方法和系统
CN109345302B (zh) * 2018-09-27 2023-04-18 腾讯科技(深圳)有限公司 机器学习模型训练方法、装置、存储介质和计算机设备
CN109542803A (zh) * 2018-11-20 2019-03-29 中国石油大学(华东) 一种基于深度学习的混合多模式热数据缓存策略
CN110472004B (zh) * 2019-08-23 2022-07-08 国网山东省电力公司电力科学研究院 一种科技情报数据多级缓存管理的方法及系统
KR102213478B1 (ko) * 2020-02-18 2021-02-08 (주)뤼이드 인공 지능 학습 기반의 사용자 지식 추적 시스템 및 그것의 동작 방법

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103282891A (zh) * 2010-08-16 2013-09-04 甲骨文国际公司 用于使用神经网络来进行有效的缓存的系统和方法
CN107909108A (zh) * 2017-11-15 2018-04-13 东南大学 基于内容流行度预测的边缘缓存系统及其方法
CN111865826A (zh) * 2020-07-02 2020-10-30 大连理工大学 一种基于联邦学习的主动内容缓存方法

Also Published As

Publication number Publication date
CN112948289A (zh) 2021-06-11

Similar Documents

Publication Publication Date Title
US5485609A (en) Online background predictors and prefetchers for locality management
Bahn et al. Efficient replacement of nonuniform objects in web caches
Xu et al. Characterizing facebook's memcached workload
US6266742B1 (en) Algorithm for cache replacement
US20090204753A1 (en) System for refreshing cache results
CN107040422A (zh) 一种基于物化缓存的网络大数据可视化方法
EP2113848B1 (en) Adaptive caching for high volume extract transform load process
CN110347706B (zh) 用于处理查询的方法、数据库系统和计算机可读存储介质
US9558123B2 (en) Retrieval hash index
CN109461113B (zh) 一种面向数据结构的图形处理器数据预取方法及装置
CN102521158B (zh) 一种实现数据预取的方法及装置
CN115237825A (zh) 一种基于机器学习的智能缓存替换方法
US20230121843A1 (en) Managing data stored in a cache using a reinforcement learning agent
CN117056250A (zh) 一种缓存替换方法、装置、电子设备及存储介质
CN109739646A (zh) 一种数据处理方法及装置
KR102476620B1 (ko) 캐시 자동제어 시스템
CN106777088A (zh) 快速迭代的搜索引擎排序方法及系统
Ermakov et al. A caching model for a quick file access system
CN112948289B (zh) 一种基于机器学习的缓存预测调度方法、系统及介质
US11449782B2 (en) Distributed machine learning for cached data validity
CN103442000B (zh) Web缓存置换方法及装置、http代理服务器
Chiu et al. Cache management in information-centric networks using convolutional neural network
CN114461590A (zh) 一种基于关联规则的数据库文件页预取方法及装置
CN114780889A (zh) 一种基于模仿学习的缓存替换系统及方法
US10691614B1 (en) Adaptive page replacement

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant