CN114706798B - 基于注意力机制的固态硬盘数据预取方法 - Google Patents

基于注意力机制的固态硬盘数据预取方法 Download PDF

Info

Publication number
CN114706798B
CN114706798B CN202210637618.3A CN202210637618A CN114706798B CN 114706798 B CN114706798 B CN 114706798B CN 202210637618 A CN202210637618 A CN 202210637618A CN 114706798 B CN114706798 B CN 114706798B
Authority
CN
China
Prior art keywords
data
solid state
state disk
address
sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202210637618.3A
Other languages
English (en)
Other versions
CN114706798A (zh
Inventor
杨晨旭
许辉
蒋春林
邵杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sichuan Artificial Intelligence Research Institute Yibin
Original Assignee
Sichuan Artificial Intelligence Research Institute Yibin
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sichuan Artificial Intelligence Research Institute Yibin filed Critical Sichuan Artificial Intelligence Research Institute Yibin
Priority to CN202210637618.3A priority Critical patent/CN114706798B/zh
Publication of CN114706798A publication Critical patent/CN114706798A/zh
Application granted granted Critical
Publication of CN114706798B publication Critical patent/CN114706798B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0862Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches with prefetch
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0866Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/02Addressing or allocation; Relocation
    • G06F12/08Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
    • G06F12/0802Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
    • G06F12/0877Cache access modes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1016Performance improvement
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/10Providing a specific technical effect
    • G06F2212/1056Simplification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/20Employing a main memory using a specific memory technology
    • G06F2212/202Non-volatile memory
    • G06F2212/2022Flash memory
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2212/00Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
    • G06F2212/21Employing a record carrier using a specific recording technology
    • G06F2212/214Solid state disk
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了一种基于注意力机制的固态硬盘数据预取方法,可以筛选出固态硬盘上被频繁读取的地址,减小了需要建模的空间;同时,本发明采用基于注意力机制的神经网络,能学习访问差值序列中的重要信息,忽略不重要的信息;此外,本发明首次使用表格记录并查找地址和它对应的数据量,使得预测数据量的操作简单、方便、快捷,同时能够对预取数据量进行准确预测。

Description

基于注意力机制的固态硬盘数据预取方法
技术领域
本发明属于数据预取技术领域,具体涉及一种基于注意力机制的固态硬盘数据预取方法的设计。
背景技术
现有的固态硬盘数据预取方法有三种,第一种是基于行为的预取方法,该方法的缺点是依靠预先定义好的、固定不变的规则对硬盘数据进行预取,因此,该方法无法应对访问模式复杂多变的情形;第二种是基于机器学习的预取方法,该方法使用机器学习算法学习硬盘访问轨迹,但是机器学习算法的学习能力有限,在面对巨大的硬盘地址空间时无法进行准确的预取;第三种是基于深度学习的预取方法,该方法的不足在于使用长短时记忆网络预测硬盘地址和数据量,不能充分学习访问序列中的重要信息,也没有挖掘地址与数据量之间的关系。
现有的固态硬盘数据预取方法或是使用固定的规则,或是使用人工智能方法,但随着现有固态硬盘的容量越来越大,访问模式越来越复杂,固态硬盘上的数据预取需要更加有效的方法。
发明内容
本发明的目的是提供一种基于注意力机制的固态硬盘数据预取方法,以解决现有的固态硬盘数据预取方法针对巨大的硬盘地址空间难以建模,难以学习访问序列中的重要信息,无法对预取数据量进行准确预测的问题。
本发明的技术方案为:基于注意力机制的固态硬盘数据预取方法,包括以下步骤:
S1、采集固态硬盘访问轨迹数据,删除其中的写操作记录,筛选得到读操作记录,读操作记录包括操作地址和在本地址读取的数据量。
S2、统计在每个操作地址最常读取的数据量,生成一个地址-数据量表格。
S3、对读操作记录的操作地址求一阶差分,将地址序列转化为差值序列。
S4、将差值序列中前N个最频繁出现的差值分为N个类,其余差值归为同一类。
S5、将分类后的差值按顺序划分为若干个长度为32的序列,得到处理好的差值序列。
S6、将处理好的差值序列输入到基于注意力机制的神经网络中进行学习,输出得到预测差值。
S7、判断预测差值是否属于前N类最频繁出现的差值,若是则进入步骤S9,否则进入步骤S8。
S8、不对固态硬盘数据进行预取,结束预取流程。
S9、将预测差值与对应的操作地址相加,得到预测地址。
S10、判断预测地址是否在读操作记录里出现过,若是则进入步骤S11,否则进入步骤S8。
S11、根据预测地址,从地址-数据量表格中查询对应的数据量。
S12、在固态硬盘中查找预测地址并在预测地址读取对应的数据量送入缓存区,结束预取流程。
进一步地,步骤S6中的基于注意力机制的神经网络包括依次连接的嵌入层、注意力机制模块、第一层规范化模块、前馈网络、第二层规范化模块和线性层,嵌入层的输出还与注意力机制模块的输出残差连接,第一层规范化模块的输出还与前馈网络的输出残差连接。
进一步地,嵌入层用于将处理好的差值序列转化为向量表示。
进一步地,注意力机制模块用于根据向量表示计算注意力分数。
进一步地,计算注意力分数包括以下步骤:
A1、根据向量表示X计算得到三个新的向量:
Figure 824134DEST_PATH_IMAGE001
其中Query表示查询向量,Key表示关键向量,Value表示内容向量,W Q W K W V 分别为QueryKeyValue对应的随机初始化的矩阵。
A2、根据QueryKeyValue进行自注意力计算,得到注意力分数A
Figure 224022DEST_PATH_IMAGE002
其中Softmax[·]表示Softmax函数,T表示向量的转置,d_k表示Key的维度。
进一步地,第一层规范化模块和第二层规范化模块用于计算残差连接后每个序列的平均值和方差,将数据规范化处理。
进一步地,前馈网络用于将经过第一层规范化模块规范化后的数据投影到更大的空间。
进一步地,线性层使用一个全连接网络将神经网络计算结果转化为分类概率,并将分类概率最高的差值作为神经网络输出的预测差值。
本发明的有益效果是:
(1)不同于现有的固态硬盘数据预取方法中建模所有地址或者建模一部分地址的方法,本发明可以筛选出固态硬盘上被频繁读取的地址,减小了需要建模的空间。
(2)本发明区别于现有基于长短时记忆网络的固态硬盘数据预取方法,采用基于注意力机制的神经网络,能学习访问差值序列中的重要信息,忽略不重要的信息。
(3)本发明首次使用表格记录并查找地址和它对应的数据量,使得预测数据量的操作简单、方便、快捷,同时能够对预取数据量进行准确预测。
附图说明
图1所示为本发明实施例提供的基于注意力机制的固态硬盘数据预取方法流程图。
图2所示为本发明实施例提供的基于注意力机制的神经网络结构示意图。
具体实施方式
现在将参考附图来详细描述本发明的示例性实施方式。应当理解,附图中示出和描述的实施方式仅仅是示例性的,意在阐释本发明的原理和精神,而并非限制本发明的范围。
本发明实施例提供了一种基于注意力机制的固态硬盘数据预取方法,如图1所示,包括以下步骤S1~S12:
S1、采集固态硬盘访问轨迹数据,删除其中的写操作记录,筛选得到读操作记录,读操作记录包括操作地址和在本地址读取的数据量。
S2、统计在每个操作地址最常读取的数据量,生成一个地址-数据量表格。
S3、对读操作记录的操作地址求一阶差分,将地址序列转化为差值序列。
S4、将差值序列中前N个最频繁出现的差值分为N个类,其余差值归为同一类。本发明实施例中N取1000,因为前1000个最频繁出现的差值已经可以覆盖大部分数据,达到了减少建模空间,但不太影响预测结果的效果。
S5、将分类后的差值按顺序划分为若干个长度为32的序列,得到处理好的差值序列。本发明实施例中,在序列长度为32时,后续神经网络模型能很好地学习到序列的访问模式;当序列长度过长时,神经网络模型无法拟合;当序列长度过短时,神经网络模型访问模式不明显。
S6、将处理好的差值序列输入到基于注意力机制的神经网络中进行学习,输出得到预测差值。
S7、判断预测差值是否属于前N类最频繁出现的差值,若是则进入步骤S9,否则进入步骤S8。
S8、不对固态硬盘数据进行预取,结束预取流程。
S9、将预测差值与对应的操作地址相加,得到预测地址。
S10、判断预测地址是否在读操作记录里出现过,若是则进入步骤S11,否则进入步骤S8。
S11、根据预测地址,从地址-数据量表格中查询对应的数据量。
S12、在固态硬盘中查找预测地址并在预测地址读取对应的数据量送入缓存区,结束预取流程。
如图2所示,本发明实施例中,基于注意力机制的神经网络包括依次连接的嵌入层、注意力机制模块、第一层规范化模块、前馈网络、第二层规范化模块和线性层,嵌入层的输出还与注意力机制模块的输出残差连接,第一层规范化模块的输出还与前馈网络的输出残差连接。
其中,嵌入层用于将处理好的差值序列转化为向量表示,这样做有利于减少数据的维度,方便后续计算。
注意力机制模块用于根据向量表示计算注意力分数。注意力机制模块能够计算出序列中每个变量与所有其他变量的关联,即注意力分数。使用这些注意力分数,可以获得一个加权的表示,它代表了序列中需要关注的信息。
本发明实施例中,计算注意力分数包括以下步骤A1~A2:
A1、根据向量表示X计算得到三个新的向量:
Figure 509510DEST_PATH_IMAGE001
其中Query表示查询向量,Key表示关键向量,Value表示内容向量,W Q W K W V 分别为QueryKeyValue对应的随机初始化的矩阵。
本发明实施例中,QueryKeyValue三个向量之间的具体关系为:
假设需要查询一篇文章,会在搜索框输入该文章的关键字,如果搜索不到,会再换一个关键字,直到搜到为止,那么可以搜到的关键字就是最适合查找目标文章的关键字,这个最适合查找目标文章的关键字就是查询向量Query
接下来搜索引擎拿到输入的关键字Query之后,就会把Query和库里面的文章对比,搜索引擎为了节省资源加快对比速度,提前把库里面的文章进行了处理提取了关键信息,使得搜索命中率最高的关键信息就是最适合接收查找的关键信息,这个最适合接收查找的关键信息就是关键向量Key
在确定查询向量Query和关键向量Key后,再加权计算搜索结果也就是内容向量Value就可以得到注意力分数。
A2、根据QueryKeyValue进行自注意力计算,得到注意力分数A
Figure 902314DEST_PATH_IMAGE002
其中Softmax[·]表示Softmax函数,T表示向量的转置,d_k表示Key的维度。
本发明实施例中,注意力机制模块使用的是带有掩码的多头注意力机制,多头注意力机制是多个注意力机制的组合,每一个头都能学习到不同的特征;掩码阻止网络查看未来的信息,本发明实施例用一个上三角矩阵来实现掩码。
第一层规范化模块和第二层规范化模块用于计算残差连接后每个序列的平均值和方差,将数据规范化处理,便于后续计算。
前馈网络用于将经过第一层规范化模块规范化后的数据投影到更大的空间,在这个空间里可以更方便地提取需要的信息。
线性层使用一个全连接网络将神经网络计算结果转化为分类概率,并将分类概率最高的差值作为神经网络输出的预测差值。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应被理解为本发明的保护范围并不局限于这样的特别陈述和实施例。本领域的普通技术人员可以根据本发明公开的这些技术启示做出各种不脱离本发明实质的其它各种具体变形和组合,这些变形和组合仍然在本发明的保护范围内。

Claims (8)

1.基于注意力机制的固态硬盘数据预取方法,其特征在于,包括以下步骤:
S1、采集固态硬盘访问轨迹数据,删除其中的写操作记录,筛选得到读操作记录,所述读操作记录包括操作地址和在本地址读取的数据量;
S2、统计在每个操作地址最常读取的数据量,生成一个地址-数据量表格;
S3、对读操作记录的操作地址求一阶差分,将地址序列转化为差值序列;
S4、将差值序列中前N个最频繁出现的差值分为N个类,其余差值归为同一类;
S5、将分类后的差值按顺序划分为若干个长度为32的序列,得到处理好的差值序列;
S6、将处理好的差值序列输入到基于注意力机制的神经网络中进行学习,输出得到预测差值;
S7、判断预测差值是否属于前N类最频繁出现的差值,若是则进入步骤S9,否则进入步骤S8;
S8、不对固态硬盘数据进行预取,结束预取流程;
S9、将预测差值与对应的操作地址相加,得到预测地址;
S10、判断预测地址是否在读操作记录里出现过,若是则进入步骤S11,否则进入步骤S8;
S11、根据预测地址,从地址-数据量表格中查询对应的数据量;
S12、在固态硬盘中查找预测地址并在预测地址读取对应的数据量送入缓存区,结束预取流程。
2.根据权利要求1所述的固态硬盘数据预取方法,其特征在于,所述步骤S6中的基于注意力机制的神经网络包括依次连接的嵌入层、注意力机制模块、第一层规范化模块、前馈网络、第二层规范化模块和线性层,所述嵌入层的输出还与注意力机制模块的输出残差连接,所述第一层规范化模块的输出还与前馈网络的输出残差连接。
3.根据权利要求2所述的固态硬盘数据预取方法,其特征在于,所述嵌入层用于将处理好的差值序列转化为向量表示。
4.根据权利要求3所述的固态硬盘数据预取方法,其特征在于,所述注意力机制模块用于根据向量表示计算注意力分数。
5.根据权利要求4所述的固态硬盘数据预取方法,其特征在于,所述计算注意力分数包括以下步骤:
A1、根据向量表示X计算得到三个新的向量:
Figure 544444DEST_PATH_IMAGE001
其中Query表示查询向量,Key表示关键向量,Value表示内容向量,W Q W K W V 分别为QueryKeyValue对应的随机初始化的矩阵;
A2、根据QueryKeyValue进行自注意力计算,得到注意力分数A
Figure 415448DEST_PATH_IMAGE002
其中Softmax[·]表示Softmax函数,T表示向量的转置,d_k表示Key的维度。
6.根据权利要求2所述的固态硬盘数据预取方法,其特征在于,所述第一层规范化模块和第二层规范化模块用于计算残差连接后每个序列的平均值和方差,将数据规范化处理。
7.根据权利要求6所述的固态硬盘数据预取方法,其特征在于,所述前馈网络用于将经过第一层规范化模块规范化后的数据投影到更大的空间。
8.根据权利要求2所述的固态硬盘数据预取方法,其特征在于,所述线性层使用一个全连接网络将神经网络计算结果转化为分类概率,并将分类概率最高的差值作为神经网络输出的预测差值。
CN202210637618.3A 2022-06-08 2022-06-08 基于注意力机制的固态硬盘数据预取方法 Active CN114706798B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210637618.3A CN114706798B (zh) 2022-06-08 2022-06-08 基于注意力机制的固态硬盘数据预取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210637618.3A CN114706798B (zh) 2022-06-08 2022-06-08 基于注意力机制的固态硬盘数据预取方法

Publications (2)

Publication Number Publication Date
CN114706798A CN114706798A (zh) 2022-07-05
CN114706798B true CN114706798B (zh) 2022-08-12

Family

ID=82178050

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210637618.3A Active CN114706798B (zh) 2022-06-08 2022-06-08 基于注意力机制的固态硬盘数据预取方法

Country Status (1)

Country Link
CN (1) CN114706798B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0109655A2 (en) * 1982-11-17 1984-05-30 Nec Corporation Instruction prefetching device with prediction of a branch destination address
CN103123595A (zh) * 2009-10-26 2013-05-29 美国索尼电脑娱乐有限责任公司 使用即时数据分块的文件输入/输出调度
CN104572504A (zh) * 2015-02-02 2015-04-29 浪潮(北京)电子信息产业有限公司 一种实现数据预读的方法及装置
CN106250064A (zh) * 2016-08-19 2016-12-21 深圳大普微电子科技有限公司 固态硬盘控制装置和基于学习的固态硬盘数据存取方法
CN112199304A (zh) * 2019-07-08 2021-01-08 华为技术有限公司 数据预取方法及装置
CN112334984A (zh) * 2019-03-21 2021-02-05 因美纳有限公司 基于人工智能的测序元数据生成
CN114330637A (zh) * 2020-09-25 2022-04-12 辉达公司 使用鲁棒的时序组合的神经网络训练

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0109655A2 (en) * 1982-11-17 1984-05-30 Nec Corporation Instruction prefetching device with prediction of a branch destination address
CN103123595A (zh) * 2009-10-26 2013-05-29 美国索尼电脑娱乐有限责任公司 使用即时数据分块的文件输入/输出调度
CN104572504A (zh) * 2015-02-02 2015-04-29 浪潮(北京)电子信息产业有限公司 一种实现数据预读的方法及装置
CN106250064A (zh) * 2016-08-19 2016-12-21 深圳大普微电子科技有限公司 固态硬盘控制装置和基于学习的固态硬盘数据存取方法
CN112334984A (zh) * 2019-03-21 2021-02-05 因美纳有限公司 基于人工智能的测序元数据生成
CN112199304A (zh) * 2019-07-08 2021-01-08 华为技术有限公司 数据预取方法及装置
CN114330637A (zh) * 2020-09-25 2022-04-12 辉达公司 使用鲁棒的时序组合的神经网络训练

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
层次混合存储系统中缓存和预取技术研究;刘洋;《中国博士学位论文全文数据库 (信息科技辑)》;20150215;I137-6 *

Also Published As

Publication number Publication date
CN114706798A (zh) 2022-07-05

Similar Documents

Publication Publication Date Title
Zhu et al. Label independent memory for semi-supervised few-shot video classification
US6925433B2 (en) System and method for context-dependent probabilistic modeling of words and documents
US9489455B2 (en) Method and apparatus for multi-dimensional content search and video identification
Xu et al. Joint feature synthesis and embedding: Adversarial cross-modal retrieval revisited
Minnen et al. Detecting subdimensional motifs: An efficient algorithm for generalized multivariate pattern discovery
CN106897371B (zh) 中文文本分类系统及方法
CN110968272B (zh) 基于时间序列预测的海量小文件存储性能优化方法及系统
CN108595546B (zh) 基于半监督的跨媒体特征学习检索方法
CN113011194B (zh) 融合关键词特征和多粒度语义特征的文本相似度计算方法
CN115048539B (zh) 基于动态记忆力的社交媒体数据在线检索方法及系统
Nie et al. Classification-enhancement deep hashing for large-scale video retrieval
CN115795065A (zh) 基于带权哈希码的多媒体数据跨模态检索方法及系统
Jafari et al. Experimental analysis of locality sensitive hashing techniques for high-dimensional approximate nearest neighbor searches
Li et al. Multi-scale global context feature pyramid network for object detector
Köksal et al. Improving automated Turkish text classification with learning‐based algorithms
CN114706798B (zh) 基于注意力机制的固态硬盘数据预取方法
EP4060526A1 (en) Text processing method and device
JP2022076949A (ja) 推論プログラム及び推論方法
CN112307769B (zh) 一种自然语言模型的生成方法和计算机设备
CN116993513A (zh) 金融风控模型解释方法、装置及计算机设备
CN114610960A (zh) 基于item2vec和向量聚类的实时推荐方法
CN110717015B (zh) 一种基于神经网络的多义词识别方法
Wu et al. Dual-View Data Hallucination with Semantic Relation Guidance for Few-Shot Image Recognition
CN112114795B (zh) 开源社区中辅助工具停用的预测方法及装置
US20230412633A1 (en) Apparatus and Method for Predicting Malicious Domains

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant