CN110018970B - 缓存预取方法、装置、设备及计算机可读存储介质 - Google Patents

缓存预取方法、装置、设备及计算机可读存储介质 Download PDF

Info

Publication number
CN110018970B
CN110018970B CN201810016027.8A CN201810016027A CN110018970B CN 110018970 B CN110018970 B CN 110018970B CN 201810016027 A CN201810016027 A CN 201810016027A CN 110018970 B CN110018970 B CN 110018970B
Authority
CN
China
Prior art keywords
data
rnn model
training
access
dictionary tree
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810016027.8A
Other languages
English (en)
Other versions
CN110018970A (zh
Inventor
王杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN201810016027.8A priority Critical patent/CN110018970B/zh
Publication of CN110018970A publication Critical patent/CN110018970A/zh
Application granted granted Critical
Publication of CN110018970B publication Critical patent/CN110018970B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0862Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with prefetch
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1008Correctness of operation, e.g. memory ordering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1016Performance improvement
    • G06F2212/1024Latency reduction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/60Details of cache memory
    • G06F2212/6024History based prefetching
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biomedical Technology (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明实施例公开了一种缓存预取方法、装置、设备及计算机可读存储介质,属于数据处理技术领域。方法包括:获取前一时刻缓存访问序列;获取经过训练得到的RNN模型,所述RNN模型通过历史访问数据及相邻数据中的至少一种数据训练得到,其中,所述相邻数据包括与当前访问数据相邻预定空间距离内的数据;基于所述前一时刻缓存访问序列,通过所述RNN模型预测缓存的预取数据。通过采用RNN模型来预测缓存的预取数据,且该RNN模型是通过历史访问数据和相邻数据中的至少一种数据训练得到的,因而可以使得预测的数据精确度更高,从而使得缓存预取的效果更佳。

Description

缓存预取方法、装置、设备及计算机可读存储介质
技术领域
本发明涉及数据处理技术领域,特别涉及一种缓存预取方法、装置、设备及计算机可读存储介质。
背景技术
在数据处理的场景中,常常需要进行数据的缓存预取。其中,缓存预取指预测下一个访问的数据,并将该数据放入缓存中。例如,游戏中经常需要同时读取玩家的数据,在玩家数量很大情况下,需要高速读取玩家数据,从而保证没有玩家存在数据刷新缓慢的问题。因此,有必要提前预测下一个访问的数据,并提前进行缓存。
目前,缓存预取的相关技术中,在读取当前数据时,同时缓存与该当前数据相邻的一个数据,因为其相邻的数据有较大几率会被访问。
但是,由于与读取的当前数据相邻的数据并不一定会被访问,因此,相关技术所预取的数据精确度不高,缓存预取的效果不佳。
发明内容
本发明实施例提供了一种缓存预取方法、装置、设备及计算机可读存储介质,可以解决相关技术中存在的技术问题,具体技术方案如下:
一方面,提供了一种缓存预取方法,所述方法包括:
获取前一时刻缓存访问序列;
获取经过训练得到的RNN (Recurrent Neural Networks,循环神经网络)模型,所述RNN模型通过历史访问数据及相邻数据中的至少一种数据训练得到,其中,所述相邻数据包括与当前访问数据相邻预定空间距离内的数据;
基于所述前一时刻缓存访问序列,通过所述RNN模型预测缓存的预取数据。
还提供了一种缓存预取装置,所述装置包括:
第一获取模块,用于获取前一时刻缓存访问序列;
第二获取模块,用于获取经过训练得到的循环神经网络RNN模型,所述RNN模型通过历史访问数据及相邻数据中的至少一种数据训练得到,其中,所述相邻数据包括与当前访问数据相邻预定空间距离内的数据;
预测模块,用于基于所述前一时刻缓存访问序列,通过所述RNN模型预测缓存的预取数据。
还提供了一种计算机设备,所述计算机设备包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现上述缓存预取方法。
还提供了一种计算机可读存储介质,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现上述缓存预取方法。
本发明提供的技术方案可以包括以下有益效果:
通过采用RNN模型来预测缓存的预取数据,且该RNN模型是通过历史访问数据和相邻数据中的至少一种数据训练得到的,因而可以使得预测的数据精确度更高,从而使得缓存预取的效果更佳。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明一示例性实施例示出的一种缓存预取的系统架构示意图;
图2是本发明一示例性实施例示出的一种缓存预取的方法流程图;
图3是本发明一示例性实施例示出的一种RNN模型的结构示意图;
图4是本发明一示例性实施例示出的一种RNN模型展开的结构示意图;
图5是本发明一示例性实施例示出的一种缓存预取的方法流程图;
图6是本发明一示例性实施例示出的一种缓存预取的方法流程图;
图7是本发明一示例性实施例示出的一种缓存预取装置的结构示意图;
图8是本发明一示例性实施例示出的一种缓存预取装置的结构示意图;
图9是本发明一示例性实施例示出的一种缓存预取装置的结构示意图;
图10是本发明一示例性实施例示出的一种终端的结构示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本发明相一致的所有实施方式。
在数据处理的场景中,常常需要进行数据的缓存预取。相关技术在进行缓存预取时,考虑到与读取的当前数据相邻的数据有较大几率会被访问,因而在读取当前数据时,同时缓存与该当前数据相邻的一个数据。然而,由于与当前数据相邻的数据并不一定会被访问,同时该方法没有考虑到访问数据在时间上的分布特征,即未考虑历史访问数据可能会被再次访问的情况。因此,相关技术所缓存的预取数据精确度不高,缓存预取的效果不佳。
对此,本发明实施例提供了一种缓存预取方法,该方法通过改进RNN神经网络模型来预测缓存的预取数据。其中,RNN模型用来处理序列数据。在传统的神经网络模型中,是从输入层到隐含层再到输出层,层与层之间是全连接的,每层之间的节点是无连接的。但是这种传统的神经网络对于很多问题却无能无力。而RNN模型之所以称为循环神经网络,即一个序列当前的输出与前面的输出也有关。具体的表现形式为网络会对前面的信息进行记忆,并应用于当前输出的计算中,即隐藏层之间的节点不再无连接而是有连接的,并且隐藏层的输入不仅包括输入层的输出还包括上一时刻隐藏层的输出。理论上,RNN模型能够对任何长度的序列数据进行处理。但是在实践中,为了降低复杂性往往假设当前的状态只与前面的几个状态相关。因此,采用传统RNN模型预测缓存的预取数据会存在如下三个问题:
1、RNN模型的深度有限,不能充分考虑数据的历史访问信息;
2、RNN模型未考虑访问数据空间分布特征;
3、RNN模型的预测速度慢。
本发明实施例针对上述三个问题分别提出解决方案。首先,将历史访问数量最大的数据(即访问频率最高的数据)作为激活函数的输入,解决RNN模型未充分考虑数据历史访问信息的问题;然后,将与当前访问数据相邻预定空间距离内的数据作为激活函数的输入,解决RNN模型未考虑访问数据的空间分布的问题;最后,利用字典树加快预测,只有字典树预测失败才采用RNN预测,解决RNN模型预测速度慢的问题。
基于上述思想,本发明实施例提供的缓存预取系统的结构示意图如图1所示,该系统包括RNN模型训练装置101以及缓存预取装置102。通过RNN模型训练装置101对改进后的RNN模型进行训练,之后采用缓存预取装置102基于训练后的RNN模型进行缓存预取。其中,RNN模型训练装置101以及缓存预取装置102可以设置于同一设备(例如设置于同一终端或服务器)中,也可以设置于不同设备中,本发明实施例对此不作具体限定。
接下来,基于图1所示的系统架构,对本发明实施例提供的缓存预取方法进行解释说明。如图2所示,该方法包括:
在步骤201中,获取前一时刻缓存访问序列;
针对该步骤,本发明实施例提供的方法可以缓存已经访问的数据,且缓存时可以记录每次访问的时间,因而在每次进行缓存预取时,可以获取缓存中已经缓存的前一时刻缓存访问序列。
在步骤202中,获取经过训练得到的RNN模型,RNN模型通过历史访问数据及相邻数据中的至少一种数据训练得到;
RNN模型包括输入层、隐藏层及输出层,神经元的输出可以在下一时刻直接作用到RNN模型中。如图3所示,第i层神经元在m时刻的输入,除了(i-1)层神经元在该时刻的输出外,还包括该RNN模型在(m-1)时刻的输出,其中,i为整数,第i层神经元指代RNN模型中任一层神经元;m为任意时刻,此处仅以i和m作为举例说明,并不对其进行限定。由于传统的RNN神经网络的层数越多,训练时间越长,因此,为了缩短训练时间,需要对RNN神经网络的层数做出限制,但这就导致数据历史信息不能被充分使用,即RNN模型不能充分考虑数据的历史访问信息。
例如,对于数据1、1、1、6、7、5、6、1、1、1、6、7、5、6,这种以1、1、1、6、7、5、6为循环因子的访问序列,当访问第4个6时,因为RNN无法确定这种情况后面应该访问三个1,而只记录最近的信息,即访问完6应该访问7,这就导致RNN会预测下一时刻访问的数据是7,导致预测的数据精确度不高。
为了解决这个问题,本发明实施例提供的方法从RNN的隐藏层神经元入手,如图4所示,该RNN模型展开之后,包含输入层,输入层的神经元记为{x0,x1,...,xt,xt+1,...},而输出层的神经元记为{y0,y1,...,yt,yt+1.,..}。RNN模型还包括隐藏层,将隐藏层的神经元记为{s0,s1,...,st,st+1,...}。在图4中,有一条单向流动的信息流是从输入层到达隐藏层的,与此同时另一条单向流动的信息流从隐藏层到达输出层。在某些情况下,RNN模型将引导信息从输出层返回隐藏层,并且隐藏层的输入还包括上一隐藏层的状态,即隐藏层内的神经元可以自连,也可以互连。如图4所示,将循环神经网络RNN模型展开成一个全神经网络后,xt表示第t步(step)的输入,t=1,2,3...。st为隐藏层的第t步的状态(即输出),它是网络的记忆单元。st根据当前输入层的输出与上一步隐藏层的状态进行计算。该RNN模型的隐藏层神经元的计算公式如下面的公式(1)所示:
(1)
其中,U、W是RNN网络的权重参数,f表示激活函数,xt是t时刻的输入,st-1是t-1时刻隐藏层神经元的输出,RNN和其他神经网络的不同就在于其考虑了t-1时刻隐藏层神经元的输出,该公式也是RNN的核心计算公式。
需要说明的是,上述公式中,在计算s0时,即第一个隐藏层状态,需要用到s−1,但是其并不存在,在实现中一般置为0向量;如图4所示,ot是第t步的输出,其与当前步的st有关,在实践中,为了降低网络的复杂度,往往st包含前面若干步而不是所有步的隐藏层状态。此外,在RNN模型中,每输入一步,每一层各自都共享参数U,V,W,因此降低了网络中需要学习的参数。
在一种实现方式中,为了解决RNN模型不能充分考虑数据的历史访问信息的问题,本发明实施例提供的方法以历史访问数据为历史访问记录中访问频率最高的数据为例,当通过历史访问数据训练RNN模型时,训练得到的RNN模型的隐藏层神经元的输出如下面的公式(2)所示:
(2)
其中,U、W是RNN模型的权重参数,f表示激活函数,xt是t时刻的输入,st-1是t-1时刻隐藏层神经元的输出,mt-1表示t-1时刻之前访问频率最高的数据,V表示权重。
在一种实现方式中,由于数据的访问除了时间分布上的特征,还存在空间分布上的特征,即与当前访问数据相邻预定空间距离内的数据很可能会被访问。但是RNN模型是对时间序列数据进行预测的模型,访问数据的空间分布特征并不能用RNN模型进行训练学习。
为此,针对RNN模型未考虑访问数据空间分布特征,本发明实施例通过将相邻数据加入激活函数,使得RNN模型能够考虑访问数据在空间上的分布特征。其中,相邻数据是指与当前访问数据相邻预定空间距离内的数据,因此,本发明实施例对激活函数做了进一步的改进,当通过相邻数据训练RNN模型时,训练得到的RNN模型的隐藏层神经元的输出如下面的公式(3)所示:
(3)
其中,U、W是RNN模型的权重参数,f表示激活函数,xt是t时刻的输入,st-1是t-1时刻隐藏层神经元的输出,nt表示与t时刻访问数据相邻预定空间距离内的数据,Z为权重。
在一种实现方式中,该预定空间距离可以数据为单位来衡量。例如,该预定空间距离可以是一个数据的距离,则相邻数据是指与t时刻访问数据相邻一个数据距离内的数据,即与t时刻访问数据相邻一个数据距离内的数据均为相邻数据;又例如,该预定空间距离也可以是k个数据的距离,则相邻数据是指与t时刻访问数据相邻k个数据距离内的数据,即与t时刻访问数据相邻的k个数据,k为大于1的整数。关于预定空间距离的大小,本发明实施例不做限定。具体实施时,该预定空间距离可以预先设置,后续根据RNN模型的预测效果进行调整。
在一种实现方式中,除了分别采用历史访问数据或相邻数据训练得到RNN模型外,还可以同时采用历史访问数据和相邻数据来训练RNN模型,使得训练得到的RNN模型同时考虑访问数据在空间上以及时间上的分布特征,且考虑历史访问信息,从而进一步提高预测的数据精确度。
为此,本发明实施例提供的方法中,当通过历史访问数据及相邻数据训练RNN模型时,训练得到的RNN模型的隐藏层神经元的输出如下面的公式(4)所示:
(4)
其中,U、W是RNN模型的权重参数,f表示激活函数,xt是t时刻的输入,st-1是t-1时刻隐藏层神经元的输出,mt-1表示t-1时刻之前访问频率最高的数据,V表示权重,nt表示与t时刻访问数据相邻预定空间距离内的数据,Z为权重。
无论是上述哪种RNN模型,针对RNN模型未改进的内容可参考已有的RNN模型,本发明实施例对此不再进行赘述。为了能够基于改进后的RNN模型进行缓存预取,本发明实施例提供的方法还包括如下的模型训练过程:
第一步:收集训练数据,训练数据包括历史访问数据及相邻数据中的至少一种数据;
针对该步骤,可以从历史访问记录中收集历史访问数据及相邻数据中的至少一种数据。
第二步:将训练数据通过Word 2 vec方式编码,得到编码结果;
其中,word2vec是一个矩阵分解的模型,简单地说,其可以反映每个词和其上下文的词的集合的相关情况。此外,word2vec可以在百万数量级的词典和上亿的数据集上进行高效地训练,且得到的训练结果为词向量(word embedding),可以很好地度量词与词之间的相似性。因此,将训练数据通过Word 2 vec方式编码,可以降低训练数据的维度。
第三步:通过编码结果对RNN模型进行训练,得到训练后的RNN模型。
需要说明的是,上述模型训练过程可以在本发明实施例提供的缓存预取方法执行前预先训练完成,之后直接获取训练好的RNN模型。当然,也可以在本发明实施例提供的缓存预取方法过程中执行,本发明实施例对此不作具体限定。
在步骤203中,基于前一时刻缓存访问序列,通过RNN模型预测缓存的预取数据。
针对该步骤,可以将前一时刻缓存访问序列作为RNN模型的输入,由RNN模型预测缓存的预取数据。
本发明实施例提供的方法,通过采用RNN模型来预测缓存的预取数据,且该RNN模型是通过历史访问数据和相邻数据中的至少一种数据训练得到的,因而可以使得预测的数据精确度更高,从而使得缓存预取的效果更佳。
参见图5,本发明实施例提供了一种缓存预取方法,该方法与上述图2所示的实施例原理相同,区别在于基于图2所示的实施例,为了进一步提高缓存预取的速度,本发明实施例提供的方法采用了字典树的方式。如图5所示,该方法包括如下步骤:
在步骤501中,获取前一时刻缓存访问序列;
该步骤的具体实现方式可参考上述步骤201的内容,此处暂不赘述。
在步骤502中,获取经过训练得到的RNN模型,RNN模型通过历史访问数据及相邻数据中的至少一种数据训练得到;
该步骤的具体实现方式可参考上述步骤202的内容,此处暂不赘述。
在步骤503中,当前一时刻缓存访问序列未出现在预先获取到的字典树中时,通过RNN模型预测缓存的预取数据;
其中,字典树的深度固定,且从字典树的根节点到字典树的叶子节点依次为历史访问序列。
因为数据的访问非常快,即使在磁盘块非常大的情况下,这个速度也很快,因此,如果RNN的预测速度比数据访问的速度慢,在需要预取数据的时候,RNN可能还未预测出结果,这就导致RNN的预测没有意义。
为此,本发明实施例利用字典树提高预测速度。其中,字典树又称单词查找树,是一种树形结构,是一种哈希树的变种。典型应用包括但不限于统计、排序和保存大量的字符串,所以经常被搜索引擎系统用于文本词频统计。字典树的优点是利用字符串的公共前缀来减少查询时间,最大限度地减少无谓的字符串比较,查询效率比哈希树高。
为了避免字典树空间爆炸,本发明实施例将字典树的深度固定,字典树从根节点到叶子节点依次为数据的历史访问序列。如果数据的历史访问序列在字典树中已经存在,并且叶子节点的上个节点即为上一时刻的访问数据,则该叶子节点即为对应的叶子节点,将该叶子节点的数据作为缓存的预取数据;如果不存在,则再通过RNN模型进行预测。
该实施例的流程图可如图6所示,首先检查最近时间的访问序列(即前一时刻访问缓存访问序列)是否在字典树中出现,如果未在字典树中出现,则采用该步骤503,通过训练得到的RNN模型进行预测;如果在字典树中出现,则采用下面的步骤504。
检查最近时间的访问序列是否在字典树中出现时,可以从根节点开始一次搜索,取得要查找关键词的第一个字母,并根据该字母选择对应的子树并转到该子树继续进行检索;在相应的子树上,取得要查找关键词的第二个字母,并进一步选择对应的子树进行检索。如此迭代,直至在某个节点处,关键词的所有字母已被取出,则读取附在该节点上的信息,即完成查找。
在步骤504中,当前一时刻缓存访问序列出现在预先获取到的字典树中时,提取字典树中对应的叶子节点的数据作为缓存的预取数据。
由于字典树中从根节点到叶子节点依次为数据的历史访问序列,当前一时刻缓存访问序列出现在预先获取到的字典树中时,可以据此将出现该前一时刻缓存访问序列的节点的下一个叶子节点作为对应的叶子节点,并提取该对应的叶子节点的数据,将其作为缓存的预取数据进行缓存。
上述缓存预取的方法中所使用的RNN模型考虑了历史访问数据和相邻数据中的至少一种数据,因而使得经过训练的RNN模型预测的预取数据更加精准。由于游戏应用中存在大量玩家(即用户),需要高速读取玩家数据,可以将该方法应用于游戏应用中,从而保证不会存在数据刷新缓慢的问题。
本发明实施例提供的方法,通过采用RNN模型来预测缓存的预取数据,且该RNN模型是通过历史访问数据和相邻数据中的至少一种数据训练得到的,因而可以使得预测的数据精确度更高,从而使得缓存预取的效果更佳。
此外,通过利用字典树,可以加快预测速度,使得预取的速度更快,准确度更高。
参见图7,本发明实施例提供了一种缓存预取装置,该装置包括:第一获取模块71、第二获取模块72和预测模块73;其中:
第一获取模块71,用于获取前一时刻缓存访问序列;
第二获取模块72,用于获取经过训练得到的RNN模型,所述RNN模型通过历史访问数据及相邻数据中的至少一种数据训练得到,其中,相邻数据包括与当前访问数据相邻预定空间距离内的数据;
预测模块73,用于基于前一时刻缓存访问序列,通过RNN模型预测缓存的预取数据。
在一种实现方式中,预测模块73,用于当前一时刻缓存访问序列未出现在预先获取到的字典树中时,通过RNN模型预测缓存的预取数据;
其中,字典树的深度固定,且从字典树的根节点到字典树的叶子节点依次为历史访问序列。
在一种实现方式中,参见图8,该装置还包括:
提取模块84,用于当前一时刻缓存访问序列出现在预先获取到的字典树中时,提取字典树中对应的叶子节点的数据作为缓存的预取数据;
其中,字典树的深度固定,且从字典树的根节点到字典树的叶子节点依次为历史访问序列。
在一种实现方式中,历史访问数据为历史访问记录中访问频率最高的数据;当通过历史访问数据训练RNN模型时,训练得到的RNN模型的隐藏层神经元的输出如下,即第二获取模块72获取到的RNN模型的隐藏层神经元的输出如下:
其中,U、W是RNN模型的权重参数,f表示激活函数,xt是t时刻的输入,st-1是t-1时刻隐藏层神经元的输出,mt-1表示t-1时刻之前访问频率最高的数据,V表示权重。
在一种实现方式中,当通过相邻数据训练RNN模型时,训练得到的RNN模型的隐藏层神经元的输出如下,即第二获取模块72获取到的RNN模型的隐藏层神经元的输出如下:
其中,U、W是RNN模型的权重参数,f表示激活函数,xt是t时刻的输入,st-1是t-1时刻隐藏层神经元的输出,nt表示与t时刻访问数据相邻预定空间距离内的数据,Z为权重。
在一种实现方式中,当通过历史访问数据及相邻数据训练RNN模型时,训练得到的RNN模型的隐藏层神经元的输出如下,即第二获取模块72获取到的RNN模型的隐藏层神经元的输出如下:
其中,U、W是RNN模型的权重参数,f表示激活函数,xt是t时刻的输入,st-1是t-1时刻隐藏层神经元的输出,mt-1表示t-1时刻之前访问频率最高的数据,V表示权重,nt表示与t时刻访问数据相邻预定空间距离内的数据,Z为权重。
在一种实现方式中,参见图9,该装置还包括:
收集模块75,用于收集训练数据,训练数据包括历史访问数据及相邻数据中的至少一种;
编码模块76,用于将训练数据通过Word 2 vec方式编码,得到编码结果;
训练模块77,用于通过编码结果对RNN模型进行训练,得到训练后的RNN模型。
本发明实施例提供的装置,通过采用RNN模型来预测缓存的预取数据,且该RNN模型是通过历史访问数据和相邻数据中的至少一种数据训练得到的,因而可以使得预测的数据精确度更高,从而使得缓存预取的效果更佳。
此外,通过利用字典树,可以加快预测速度,使得预取的速度更快,准确度更高。
需要说明的是:上述实施例提供的缓存预取装置,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的缓存预取装置和缓存预取方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
图10示出了本发明一个示例性实施例提供的终端1000的结构框图。该终端1000可以是智能手机、平板电脑、MP3播放器(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)、MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、笔记本电脑或台式电脑。终端1000还可能被称为用户设备、便携式终端、膝上型终端、台式终端等其他名称。
通常,终端1000包括有:处理器1001和存储器1002。
处理器1001可以包括一个或多个处理核心,比如4核心处理器、10核心处理器等。处理器1001可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器1001也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器1001可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器1001还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器1002可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器1002还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器1002中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器1001所执行以实现本申请中方法实施例提供的缓存预取方法。
在一些实施例中,终端1000还可选包括有:外围设备接口1003和至少一个外围设备。处理器1001、存储器1002和外围设备接口1003之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口1003相连。具体地,外围设备包括:射频电路1004、触摸显示屏1005、摄像头1006、音频电路1007、定位组件10010和电源1009中的至少一种。
外围设备接口1003可被用于将I/O(Input /Output,输入/输出)相关的至少一个外围设备连接到处理器1001和存储器1002。在一些实施例中,处理器1001、存储器1002和外围设备接口1003被集成在同一芯片或电路板上;在一些其他实施例中,处理器1001、存储器1002和外围设备接口1003中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路1004用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路1004通过电磁信号与通信网络以及其他通信设备进行通信。射频电路1004将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路1004包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路1004可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:万维网、城域网、内联网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路1004还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏1005用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏1005是触摸显示屏时,显示屏1005还具有采集在显示屏1005的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器1001进行处理。此时,显示屏1005还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏1005可以为一个,设置终端1000的前面板;在另一些实施例中,显示屏1005可以为至少两个,分别设置在终端1000的不同表面或呈折叠设计;在再一些实施例中,显示屏1005可以是柔性显示屏,设置在终端1000的弯曲表面上或折叠面上。甚至,显示屏1005还可以设置成非矩形的不规则图形,也即异形屏。显示屏1005可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件1006用于采集图像或视频。可选地,摄像头组件1006包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件1006还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路1007可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器1001进行处理,或者输入至射频电路1004以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在终端1000的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器1001或射频电路1004的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路1007还可以包括耳机插孔。
定位组件1008用于定位终端1000的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。
电源1009用于为终端1000中的各个组件进行供电。电源1009可以是交流电、直流电、一次性电池或可充电电池。当电源1009包括可充电电池时,该可充电电池可以是有线充电电池或无线充电电池。有线充电电池是通过有线线路充电的电池,无线充电电池是通过无线线圈充电的电池。该可充电电池还可以用于支持快充技术。
在一些实施例中,终端1000还包括有一个或多个传感器1010。该一个或多个传感器1010包括但不限于:加速度传感器1011、陀螺仪传感器1012、压力传感器1013、指纹传感器1014、光学传感器1015以及接近传感器1016。
加速度传感器1011可以检测以终端1000建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器1011可以用于检测重力加速度在三个坐标轴上的分量。处理器1001可以根据加速度传感器1011采集的重力加速度信号,控制触摸显示屏1005以横向视图或纵向视图进行用户界面的显示。加速度传感器1011还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器1012可以检测终端1000的机体方向及转动角度,陀螺仪传感器1012可以与加速度传感器1011协同采集用户对终端1000的3D动作。处理器1001根据陀螺仪传感器1012采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器1013可以设置在终端1000的侧边框和/或触摸显示屏1005的下层。当压力传感器1013设置在终端1000的侧边框时,可以检测用户对终端1000的握持信号,由处理器1001根据压力传感器1013采集的握持信号进行左右手识别或快捷操作。当压力传感器1013设置在触摸显示屏1005的下层时,由处理器1001根据用户对触摸显示屏1005的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器1014用于采集用户的指纹,由处理器1001根据指纹传感器1014采集到的指纹识别用户的身份,或者,由指纹传感器1014根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器1001授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、支付及更改设置等。指纹传感器1014可以被设置终端1000的正面、背面或侧面。当终端1000上设置有物理按键或厂商Logo时,指纹传感器1014可以与物理按键或厂商Logo集成在一起。
光学传感器1015用于采集环境光强度。在一个实施例中,处理器1001可以根据光学传感器1015采集的环境光强度,控制触摸显示屏1005的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏1005的显示亮度;当环境光强度较低时,调低触摸显示屏1005的显示亮度。在另一个实施例中,处理器1001还可以根据光学传感器1015采集的环境光强度,动态调整摄像头组件1006的拍摄参数。
接近传感器1016,也称距离传感器,通常设置在终端1000的前面板。接近传感器1016用于采集用户与终端1000的正面之间的距离。在一个实施例中,当接近传感器1016检测到用户与终端1000的正面之间的距离逐渐变小时,由处理器1001控制触摸显示屏1005从亮屏状态切换为息屏状态;当接近传感器1016检测到用户与终端1000的正面之间的距离逐渐变大时,由处理器1001控制触摸显示屏1005从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图10中示出的结构并不构成对终端1000的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括至少一条指令、至少一段程序、代码集或指令集的存储器,上述至少一条指令、至少一段程序、代码集或指令集可由处理器执行以完成本发明实施例的全部或者部分步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机设备,该计算机设备包含处理器和存储器,存储器中存储有至少一条指令、至少一段程序、代码集或指令集,至少一条指令、至少一段程序、代码集或指令集由处理器加载并执行以实现上述缓存预取方法。
以上所述仅为本发明可选实施例,并不用以限制本申请,凡在本申请的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本申请的保护范围之内。

Claims (10)

1.一种缓存预取方法,其特征在于,所述方法包括:
获取前一时刻缓存访问序列;
获取训练后的循环神经网络RNN模型,所述训练后的RNN模型通过历史访问数据及相邻数据中的至少一种数据训练得到,其中,所述历史访问数据为历史访问记录中访问频率最高的数据,所述相邻数据包括与当前访问数据相邻预定空间距离内的数据;
基于所述前一时刻缓存访问序列,通过所述训练后的RNN模型预测缓存的预取数据;
当通过所述历史访问数据训练得到所述训练后的RNN模型时,所述训练后的RNN模型的隐藏层神经元的输出如下:
或者,当通过所述相邻数据训练得到所述训练后的RNN模型时,所述训练后的RNN模型的隐藏层神经元的输出如下:
或者,当通过所述历史访问数据及所述相邻数据训练得到所述训练后的RNN模型时,所述训练后的RNN模型的隐藏层神经元的输出如下:
所述U、W是所述训练后的RNN模型的权重参数,所述f表示激活函数,所述xt是t时刻的输入,所述st-1是t-1时刻隐藏层神经元的输出,所述mt-1表示t-1时刻之前访问频率最高的数据,所述nt表示与t时刻访问数据相邻预定空间距离内的数据,所述V、Z表示权重。
2.根据权利要求1所述的方法,其特征在于,所述基于所述前一时刻缓存访问序列,通过所述训练后的RNN模型预测缓存的预取数据,包括:
当所述前一时刻缓存访问序列未出现在预先获取到的字典树中时,通过所述训练后的RNN模型预测缓存的预取数据;
其中,所述字典树的深度固定,且从所述字典树的根节点到所述字典树的叶子节点依次为历史访问序列。
3.根据权利要求1所述的方法,其特征在于,所述方法还包括:
当所述前一时刻缓存访问序列出现在预先获取到的字典树中时,提取所述字典树中对应的叶子节点的数据作为缓存的预取数据;
其中,所述字典树的深度固定,且从所述字典树的根节点到所述字典树的叶子节点依次为历史访问序列。
4.根据权利要求1至3中任一所述的方法,其特征在于,所述方法还包括:
收集训练数据,所述训练数据包括所述历史访问数据及相邻数据中的至少一种数据;
将所述训练数据通过Word 2 vec方式编码,得到编码结果;
通过所述编码结果对RNN模型进行训练,得到所述训练后的RNN模型。
5.一种缓存预取装置,其特征在于,所述装置包括:
第一获取模块,用于获取前一时刻缓存访问序列;
第二获取模块,用于获取训练后的循环神经网络RNN模型,所述训练后的RNN模型通过历史访问数据及相邻数据中的至少一种数据训练得到,其中,所述历史访问数据为历史访问记录中访问频率最高的数据,所述相邻数据包括与当前访问数据相邻预定空间距离内的数据;
预测模块,用于基于所述前一时刻缓存访问序列,通过所述训练后的RNN模型预测缓存的预取数据;
当通过所述历史访问数据训练得到所述训练后的RNN模型时,所述训练后的RNN模型的隐藏层神经元的输出如下:
或者,当通过所述相邻数据训练得到所述训练后的RNN模型时,所述训练后的RNN模型的隐藏层神经元的输出如下:
或者,当通过所述历史访问数据及所述相邻数据训练得到所述训练后的RNN模型时,所述训练后的RNN模型的隐藏层神经元的输出如下:
所述U、W是所述训练后的RNN模型的权重参数,所述f表示激活函数,所述xt是t时刻的输入,所述st-1是t-1时刻隐藏层神经元的输出,所述mt-1表示t-1时刻之前访问频率最高的数据,所述nt表示与t时刻访问数据相邻预定空间距离内的数据,所述V、Z表示权重。
6.根据权利要求5所述的装置,其特征在于,所述预测模块,用于当所述前一时刻缓存访问序列未出现在预先获取到的字典树中时,通过所述训练后的RNN模型预测缓存的预取数据;其中,所述字典树的深度固定,且从所述字典树的根节点到所述字典树的叶子节点依次为历史访问序列。
7.根据权利要求5所述的装置,其特征在于,所述装置还包括:
提取模块,用于当所述前一时刻缓存访问序列出现在预先获取到的字典树中时,提取所述字典树中对应的叶子节点的数据作为缓存的预取数据;其中,所述字典树的深度固定,且从所述字典树的根节点到所述字典树的叶子节点依次为历史访问序列。
8.根据权利要求5-7任一所述的装置,其特征在于,所述装置还包括:
收集模块,用于收集训练数据,所述训练数据包括所述历史访问数据及相邻数据中的至少一种数据;
编码模块,用于将所述训练数据通过Word 2 vec方式编码,得到编码结果;
训练模块,用于通过所述编码结果对RNN模型进行训练,得到所述训练后的RNN模型。
9.一种计算机设备,其特征在于,所述计算机设备包含处理器和存储器,所述存储器中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由所述处理器加载并执行以实现如权利要求1至4任一所述的缓存预取方法。
10.一种计算机可读存储介质,其特征在于,所述存储介质中存储有至少一条指令、至少一段程序、代码集或指令集,所述至少一条指令、所述至少一段程序、所述代码集或指令集由处理器加载并执行以实现如权利要求1至4任一所述的缓存预取方法。
CN201810016027.8A 2018-01-08 2018-01-08 缓存预取方法、装置、设备及计算机可读存储介质 Active CN110018970B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810016027.8A CN110018970B (zh) 2018-01-08 2018-01-08 缓存预取方法、装置、设备及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810016027.8A CN110018970B (zh) 2018-01-08 2018-01-08 缓存预取方法、装置、设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN110018970A CN110018970A (zh) 2019-07-16
CN110018970B true CN110018970B (zh) 2023-07-21

Family

ID=67187460

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810016027.8A Active CN110018970B (zh) 2018-01-08 2018-01-08 缓存预取方法、装置、设备及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN110018970B (zh)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112306925B (zh) * 2019-08-02 2023-02-10 华为技术有限公司 访问请求的处理方法、装置、设备及存储介质
CN112667528A (zh) * 2019-10-16 2021-04-16 华为技术有限公司 一种数据预取的方法及相关设备
CN111190926B (zh) * 2019-11-25 2023-04-07 腾讯云计算(北京)有限责任公司 资源缓存方法、装置、设备及存储介质
CN113435601A (zh) * 2020-03-23 2021-09-24 华为技术有限公司 数据预取方法、装置以及存储设备
CN113535658A (zh) * 2020-04-20 2021-10-22 华为技术有限公司 一种文件预取方法、存储设备以及预取装置
CN112379849B (zh) * 2021-01-18 2021-04-09 之江实验室 基于序列可预测的并行深度学习训练数据输入方法和系统
CN114065947B (zh) * 2021-11-15 2022-07-22 深圳大学 一种数据访问推测方法、装置、存储介质及电子设备
CN115712583B (zh) * 2023-01-09 2023-04-18 之江实验室 一种提升分布式缓存跨节点访问性能的方法及装置、介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102314474A (zh) * 2010-06-24 2012-01-11 索尼公司 信息处理装置、信息处理系统、信息处理方法和程序
CN104137094A (zh) * 2012-02-23 2014-11-05 微软公司 用于计算设备的内容预先取回
CN104463324A (zh) * 2014-11-21 2015-03-25 长沙马沙电子科技有限公司 一种基于大规模高性能集群的卷积神经网络并行处理方法
CN105976056A (zh) * 2016-05-03 2016-09-28 成都数联铭品科技有限公司 基于双向rnn的信息提取系统
CN106529669A (zh) * 2016-11-10 2017-03-22 北京百度网讯科技有限公司 用于处理数据序列的方法和装置
EP3153998A2 (en) * 2015-10-08 2017-04-12 VIA Alliance Semiconductor Co., Ltd. Neural network unit that performs concurrent lstm cell calculations
CN106681990A (zh) * 2015-11-05 2017-05-17 华中科技大学 一种移动云存储环境下缓存数据的预取方法
CN107341542A (zh) * 2016-04-29 2017-11-10 北京中科寒武纪科技有限公司 用于执行循环神经网络和lstm运算的装置和方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10015189B2 (en) * 2016-02-09 2018-07-03 International Business Machine Corporation Detecting and predicting cyber-attack phases in adjacent data processing environment regions

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102314474A (zh) * 2010-06-24 2012-01-11 索尼公司 信息处理装置、信息处理系统、信息处理方法和程序
CN104137094A (zh) * 2012-02-23 2014-11-05 微软公司 用于计算设备的内容预先取回
CN104463324A (zh) * 2014-11-21 2015-03-25 长沙马沙电子科技有限公司 一种基于大规模高性能集群的卷积神经网络并行处理方法
EP3153998A2 (en) * 2015-10-08 2017-04-12 VIA Alliance Semiconductor Co., Ltd. Neural network unit that performs concurrent lstm cell calculations
CN106681990A (zh) * 2015-11-05 2017-05-17 华中科技大学 一种移动云存储环境下缓存数据的预取方法
CN107341542A (zh) * 2016-04-29 2017-11-10 北京中科寒武纪科技有限公司 用于执行循环神经网络和lstm运算的装置和方法
CN105976056A (zh) * 2016-05-03 2016-09-28 成都数联铭品科技有限公司 基于双向rnn的信息提取系统
CN106529669A (zh) * 2016-11-10 2017-03-22 北京百度网讯科技有限公司 用于处理数据序列的方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"Long short term memory based hardware prefetcher: a case study";Yuan Zeng 等;《ACM》;全文 *
基于神经网络算法的三维模型预取系统;蒋聪;王玫;安鹏铖;李杨;付先武;;计算机应用与软件(07);全文 *
基于聚类和ARMA时间序列的I/O区域预取;李怀阳;谢长生;刘艳;吴伟;;小型微型计算机系统(03);全文 *
基于预取和缓存原理的片上Flash加速控制器设计;蒋进松;黄凯;陈辰;王钰博;严晓浪;;计算机工程与科学(12);全文 *

Also Published As

Publication number Publication date
CN110018970A (zh) 2019-07-16

Similar Documents

Publication Publication Date Title
CN110018970B (zh) 缓存预取方法、装置、设备及计算机可读存储介质
KR102360659B1 (ko) 기계번역 방법, 장치, 컴퓨터 기기 및 기억매체
CN110149541B (zh) 视频推荐方法、装置、计算机设备及存储介质
CN110110145B (zh) 描述文本生成方法及装置
CN110134804B (zh) 图像检索方法、装置及存储介质
CN110209784B (zh) 消息交互方法、计算机设备及存储介质
CN108304506B (zh) 检索方法、装置及设备
CN110147533B (zh) 编码方法、装置、设备及存储介质
CN110110045B (zh) 一种检索相似文本的方法、装置以及存储介质
CN111524501B (zh) 语音播放方法、装置、计算机设备及计算机可读存储介质
CN110942046B (zh) 图像检索方法、装置、设备及存储介质
CN110147532B (zh) 编码方法、装置、设备及存储介质
US11651591B2 (en) Video timing labeling method, electronic device and storage medium
CN112269853A (zh) 检索处理方法、装置及存储介质
CN111507094B (zh) 基于深度学习的文本处理模型训练方法、装置及设备
CN110503160B (zh) 图像识别方法、装置、电子设备及存储介质
CN113763931B (zh) 波形特征提取方法、装置、计算机设备及存储介质
CN110990549B (zh) 获取答案的方法、装置、电子设备及存储介质
CN111611414B (zh) 车辆检索方法、装置及存储介质
CN113361376B (zh) 获取视频封面的方法、装置、计算机设备及可读存储介质
CN111597823B (zh) 中心词提取方法、装置、设备及存储介质
CN112001442B (zh) 特征检测方法、装置、计算机设备及存储介质
CN113469322B (zh) 确定模型的可执行程序的方法、装置、设备及存储介质
CN110096707B (zh) 生成自然语言的方法、装置、设备及可读存储介质
CN112487162A (zh) 确定文本语义信息的方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant