CN117891754B - 处理器Cache结构的缓存方法、计算子系统以及智能计算平台 - Google Patents

处理器Cache结构的缓存方法、计算子系统以及智能计算平台 Download PDF

Info

Publication number
CN117891754B
CN117891754B CN202410286833.2A CN202410286833A CN117891754B CN 117891754 B CN117891754 B CN 117891754B CN 202410286833 A CN202410286833 A CN 202410286833A CN 117891754 B CN117891754 B CN 117891754B
Authority
CN
China
Prior art keywords
data
target
storage layer
information
storage
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202410286833.2A
Other languages
English (en)
Other versions
CN117891754A (zh
Inventor
邓练兵
巩志国
官全龙
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Qinzhi Technology Research Institute Co ltd
Original Assignee
Guangdong Qinzhi Technology Research Institute Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Qinzhi Technology Research Institute Co ltd filed Critical Guangdong Qinzhi Technology Research Institute Co ltd
Priority to CN202410286833.2A priority Critical patent/CN117891754B/zh
Publication of CN117891754A publication Critical patent/CN117891754A/zh
Application granted granted Critical
Publication of CN117891754B publication Critical patent/CN117891754B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Memory System Of A Hierarchy Structure (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请适用于数据处理领域,提供了一种处理器Cache结构的缓存方法、计算子系统以及智能计算平台,方法应用于智能计算平台的计算机设备,包括:在智能计算平台的主存储器的数据被调用时,确定数据为目标数据,获取目标数据的数据大小和数据信息。根据数据信息获取数据标签;获取智能计算平台的高速缓冲存储器的存储层的存储信息;将目标数据的数据大小、数据标签和多个存储信息输入预设的神经网络模型,神经网络模型输出每个存储层对应的第一调整信息和目标存储层的标识信息;根据第一调整信息完成对每个存储层的存储信息的调整;根据标识信息将目标数据映射到目标存储层。可见,本申请能确保智能计算平台的稳定运行,提升平台内数据的访问效率。

Description

处理器Cache结构的缓存方法、计算子系统以及智能计算平台
技术领域
本申请属于数据处理领域,尤其涉及一种处理器Cache结构的缓存方法、计算子系统以及智能计算平台。
背景技术
当下信息技术发展突飞猛进,超级计算中心的构建的智能计算平台能够为所在地区构建集科研、产业、城市服务的智能计算平台,为城市集聚人才、发展各项产业起推动作用。
然而随着智能计算平台的数据存储和计算资源需求的迅猛增长,当下主要通过在智能计算平台内设计高速缓冲存储器(Cache)结构以缓解其计算压力。Cache是一种用于存储近期被使用过的数据副本的存储,Cache结构是指一种由多个特定容量的层级组成的高速缓存存储器的组织方式和设计布局。通过Cache结构的设计能提高计算机系统内数据访问速度和减少访问主存或磁盘的次数,从而加快计算机程序的执行速度。
但是当数据量过于庞大导致Cache结构中任一层级的容量爆满时,需要人为手动对爆满的层级内的数据进行删除、替换。导致智能计算平台的运行效率受到影响。
发明内容
本申请实施例提供了一种处理器Cache结构的缓存方法、计算子系统以及智能计算平台,可以解决传统的Cache结构应用在计算机系统中当数据量过于庞大导致Cache结构中任一层级的容量爆满时,需要人为手动对爆满的层级内的数据进行删除、替换,导致智能计算平台的运行效率受到影响的问题。
第一方面,本申请实施例提供了一种处理器Cache结构的缓存方法,应用于智能计算平台的计算机设备,所述智能计算平台还包括主存储器和高速缓冲存储器,所述高速缓冲存储器包括多个存储层,所述主存储器中的数据映射于所述高速缓冲存储器的存储层中存储;所述方法包括:
在所述主存储器的数据被调用时,确定所述数据为目标数据,获取所述目标数据的数据大小和数据信息;
根据所述数据信息获取所述目标数据对应的数据标签;
获取所述高速缓冲存储器的每个所述存储层的存储信息 ;
将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型,所述神经网络模型输出每个所述存储层对应的第一调整信息和目标存储层的标识信息;
根据所述第一调整信息完成对每个所述存储层的存储信息的调整;
根据所述标识信息将所述目标数据映射到所述目标存储层。
在一些实施例中,所述神经网络模型至少包括目标确认模型和调整模型,所述第一调整信息至少包括存储空间调整信息和传输速率调整信息;所述将所述目标数据的数据大小、数据标签和多个所述存储信息输入所述预设的神经网络模型,包括:解析所述存储层的存储信息,获取所述存储层存储的数据对应的存储数据信息和存储空间信息;将所述目标数据的数据标签和所述存储数据信息输入至所述目标确认模型,以获取所述目标确认模型输出的所述目标存储层的标识信息;将所述目标数据的数据大小、目标存储层的标识信息和每个所述存储层的存储空间信息输入至所述调整模型,用于获取所述调整模型输出的每个所述存储层对应的所述存储空间调整信息和所述传输速率调整信息,以使得所述目标数据能够成功映射到所述目标存储层。
在一些实施例中,所述数据标签包括所述目标数据的数据类型,所述存储数据信息包括所述存储层存储的数据的存储数据类型;所述将所述目标数据的数据标签和所述存储数据信息输入至所述目标确认模型,以获取所述目标确认模型输出的所述目标存储层的标识信息,包括:所述目标确认模型对所述目标数据的数据类型和所述存储层的存储数据类型进行编码,获取所述数据类型对应的第一编码向量和所述存储数据类型对应的第二编码向量,计算所述第一编码向量和所述第二编码向量的匹配度,在所述匹配度大于预设阈值时,确认所述存储层为所述目标存储层,输出所述目标存储层的标识信息;其中,所述匹配度的计算公式如下:
其中表示所述目标数据的数据类型和所述存储层的存储数据类型的匹配度的值,/>与/>分别表示所述第一编码向量和所述第二编码向量,/>为所述目标数据的数据类型和所述存储层的存储数据类型的编码值,/>表示两个向量的内积,/>和/>分别表示所述第一编码向量的范数和所述第二编码向量的范数。
在一些实施例中,所述数据标签包括所述目标数据的数据等级,所述数据等级至少包括第一等级、第二等级和第三等级,所述第一等级的重要性高于所述第二等级,所述第二等级的重要性高于所述第三等级;在所述获取所述高速缓冲存储器的每个所述存储层的存储信息之后,所述方法还包括:当所述目标数据的数据等级为所述第一等级时,根据每个所述存储层的存储信息确定是否存在未存储数据的存储层; 若多个所述存储层不存在未存储任何数据的存储层时,根据每个所述存储层的存储信息生成第二调整信息;根据所述第二调整信息对每个所述存储层的存储信息的调整,以在多个所述存储层中确定空闲存储层,所述空闲存储层中未存储数据;根据所述空闲存储层的标识信息将所述目标数据映射到所述空闲存储层,并对所述空闲存储层添加加密信息,用于避免所述空闲存储层的信息被误访问;或者,当所述目标数据的数据等级为所述第二等级或所述第三等级时,将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型,获取所述第一调整信息和所述目标存储层的标识信息以完成所述目标数据的映射。
在一些实施例中,在所述将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型之前,还包括:当根据所述存储信息确认存在存储空间已满的所述存储层时,确认所述存储层的待清空数据;删除所述存储层的待清空数据,更新所述存储层的存储信息。
在一些实施例中,所述确认所述存储层的待清空数据,包括:获取所述存储层的存储的数据的使用时长,将使用时长大于预设时长的数据确定为所述待清空数据;或,获取所述存储层的存储的数据的使用频次,将使用频次小于预设频次的数据确定为所述待清空数据。
在一些实施例中,所述根据所述标识信息将所述目标数据映射到所述目标存储层,包括:根据所述目标存储层的存储信息和所述目标数据的数据标签确认所述目标数据映射的映射方式,用于根据所述映射方式将所述目标数据映射到所述目标存储层;其中,所述映射方式包括直接映射、全相联映射和组相联映射的任一项。
在一些实施例中,在所述根据所述标识信息将所述目标数据映射到所述目标存储层之后,所述方法还包括:当存在待写入目标存储层的数据时,在将数据写入至所述目标存储层之后,根据所述目标存储层的存储信息获取所述目标存储层的数据写策略;其中,所述数据写策略至少包括全写法和写回法的任一项;当所述数据写策略为所述全写法时,将写入所述目标存储层的数据同步至所述主存储器中;当所述数据写策略为所述写回法时,在所述目标存储层的数据被删除时再将写入所述目标存储层的数据同步至所述主存储器中。
第二方面,本申请实施例提供了一种计算子系统,应用于智能计算平台的计算机设备,所述智能计算平台还包括主存储器和高速缓冲存储器,所述高速缓冲存储器包括多个存储层,所述主存储器中的数据映射于所述高速缓冲存储器的存储层中存储;所述计算子系统包括:
确定模块,用于在所述主存储器的数据被调用时,确定所述数据为目标数据,获取所述目标数据的数据大小和数据信息;
第一获取模块,用于根据所述数据信息获取所述目标数据对应的数据标签;
第二获取模块,用于获取所述高速缓冲存储器的每个所述存储层的存储信息;
输入模块,用于将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型,所述神经网络模型输出每个所述存储层对应的第一调整信息和目标存储层的标识信息;
调整模块,用于根据所述第一调整信息完成对每个所述存储层的存储信息的调整;
映射模块,用于根据所述标识信息将所述目标数据映射到所述目标存储层。
第三方面,本申请实施例提供了一种智能计算平台,包括主存储器、高速缓冲存储器和计算机设备,所述高速缓冲存储器包括多个存储层,所述主存储器中的数据映射于所述高速缓冲存储器的存储层中存储;
其中,所述计算机设备包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如本申请任一实施例所提供的处理器Cache结构的缓存方法。
本申请实施例与现有技术相比存在的有益效果是:
本申请实施例提供的技术方案中,首先,在主存储器的数据被调用时,确定数据为目标数据,获取目标数据的数据大小和数据信息。接下来,根据数据信息获取目标数据对应的数据标签;然后,获取高速缓冲存储器的每个存储层的存储信息;再然后,将目标数据的数据大小、数据标签和多个存储信息输入预设的神经网络模型,神经网络模型输出每个存储层对应的第一调整信息和目标存储层的标识信息;进一步的,根据第一调整信息完成对每个存储层的存储信息的调整;最后,根据标识信息将目标数据映射到目标存储层。
本申请实施例中,所提供的方法能够通过对高速缓冲存储器的存储层的调整和确定数据对应的目标存储层,在智能计算平台内的主存数据被调用时十分快速确认其映射在高速缓冲存储器的位置并及时调整高速缓冲存储器的存储信息。进而确保了智能计算平台运行的稳定性,提升智能计算平台内数据的访问效率。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的处理器Cache结构的缓存方法的示意性流程图;
图2是本申请实施例提供的智能计算平台的结构示意图;
图3是本申请实施例提供的计算子系统的结构示意图;
图4是本申请实施例提供的计算机设备的结构示意图。
具体实施方式
以下描述中,为了说明而不是为了限定,提出了诸如特定系统结构、技术之类的具体细节,以便透彻理解本申请实施例。然而,本领域的技术人员应当清楚,在没有这些具体细节的其它实施例中也可以实现本申请。在其它情况中,省略对众所周知的系统、装置、电路以及方法的详细说明,以免不必要的细节妨碍本申请的描述。
应当理解,当在本申请说明书和所附权利要求书中使用时,术语“包括”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在本申请说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
如在本申请说明书和所附权利要求书中所使用的那样,术语“如果”可以依据上下文被解释为“当...时”或“一旦”或“响应于确定”或“响应于检测到”。类似地,短语“如果确定”或“如果检测到[所描述条件或事件]”可以依据上下文被解释为意指“一旦确定”或“响应于确定”或“一旦检测到[所描述条件或事件]”或“响应于检测到[所描述条件或事件]”。
另外,在本申请说明书和所附权利要求书的描述中,术语“第一”、“第二”、“第三”等仅用于区分描述,而不能理解为指示或暗示相对重要性。
在本申请说明书中描述的参考“一个实施例”或“一些实施例”等意味着在本申请的一个或多个实施例中包括结合该实施例描述的特定特征、结构或特点。由此,在本说明书中的不同之处出现的语句“在一个实施例中”、“在一些实施例中”、“在其他一些实施例中”、“在另外一些实施例中”等不是必然都参考相同的实施例,而是意味着“一个或多个但不是所有的实施例”,除非是以其他方式另外特别强调。术语“包括”、“包含”、“具有”及它们的变形都意味着“包括但不限于”,除非是以其他方式另外特别强调。
以下对本申请实施例中出现的名词进行解释说明。
Cache(高速缓冲存储器)结构:在计算机系统中,Cache 结构是指一种高速缓存存储器的组织方式和设计布局。Cache 是一种用于存储近期被使用过的数据副本的存储器,其目的是提高数据访问速度和减少访问主存或磁盘的次数,从而加快计算机程序的执行速度。
通过合理设计和优化 Cache 结构,计算机系统可以更高效地利用数据局部性原理,减少对主存和外部存储器的访问次数,提高数据访问速度,加快程序的执行效率。Cache结构是计算机系统中重要的性能优化手段之一,被广泛应用于各种计算设备和处理器架构中。
下面对本申请实施例的技术方案进行介绍。
当下信息技术发展突飞猛进,超级计算中心的构建的智能计算平台能够为所在地区构建集科研、产业、城市服务的智能计算平台,为城市集聚人才、发展各项产业起推动作用。
然而随着智能计算平台的数据存储和计算资源需求的迅猛增长,当下主要通过在智能计算平台内设计高速缓冲存储器(Cache)结构以缓解其计算压力。Cache是一种用于存储近期被使用过的数据副本的存储,Cache结构是指一种由多个特定容量的层级组成的高速缓存存储器的组织方式和设计布局。通过Cache结构的设计能提高计算机系统内数据访问速度和减少访问主存或磁盘的次数,从而加快计算机程序的执行速度。
但是当数据量过于庞大导致Cache结构中任一层级的容量爆满时,需要人为手动对爆满的层级内的数据进行删除、替换。导致智能计算平台的运行效率受到影响 。
为解决上述问题,请参见图1,图1是本申请实施例提供的处理器Cache结构的缓存方法的示意性流程图,作为示例而非限定,该方法可以应用于如图2所示的智能计算平台的计算机设备,智能计算平台还包括主存储器和高速缓冲存储器,所述高速缓冲存储器包括多个存储层,所述主存储器中的数据映射于所述高速缓冲存储器的存储层中存储。该方法包括以下步骤:
S101、在主存储器的数据被调用时,确定数据为目标数据,获取目标数据的数据大小和数据信息。
具体地,当智能计算平台内的主存储器的数据被调用时,此时计算机设备通过及时将被调用的数据确定为目标数据,并及时将目标数据的数据信息映射至高速缓冲存储器的任一存储层中。进而后续任意设备均能通过高速缓冲存储器完成对目标数据的调用,减小主存储器的被访问次数,进而提升系统的运行效率和稳定性。
S102、根据数据信息获取目标数据对应的数据标签。
具体地,计算机设备根据目标设备的数据信息,例如数据的内容、代码等任意信息,能够进行识别获取目标数据对应的数据标签,数据标签例如该目标数据的数据类型(如文本类数据、图片类数据等任意类型)能够快速确定目标数据对应的数据标签,进而能够在后续确定目标数据对应的存储层起到关键作用。
在一些实施例中,根据数据信息获取目标数据对应的数据标签,包括:根据预设关键词典中的多个关键词与目标数据信息进行匹配,将匹配成功的关键词对应的数据标签确定为所述目标数据的数据标签。
计算机设备通过存储有包括多个关键词的预设关键词典,例如“温度、地点、价格”等等能够区分数据类型的自定义的关键词组成的预设关键词典,进而能够根据目标数据的数据信息和关键词进行比较快速确定目标数据的数据标签。从而可以自动实现对主存储器的数据分类存储在高速缓冲存储器中。
S103、获取高速缓冲存储器的每个存储层的存储信息。
具体地,通过对高速缓冲存储器设计层次结构,如存储层为: L1 Cache、L2Cache、L3 Cache 等,每一级存储层都有不同的运行速度和容量。数据通常会以块(block)的形式在不同级别的存储层中存储,以提高数据访问效率。本申请所提供的方法中计算机设备为了更好确定目标数据对应的存储层,先获取每个存储层对应的存储信息,能够快速实现目标数据的自动分配。
S104、将目标数据的数据大小、数据标签和多个存储信息输入预设的神经网络模型,神经网络模型输出每个存储层对应的第一调整信息和目标存储层的标识信息。
具体地,本申请所提供的方法中计算机设备通过将目标数据的数据大小、数据标签和多个存储信息输入预设的神经网络模型,神经网络模型能够基于深度学习根据数据大小、数据标签和多个存储信息确定目标数据对应的目标存储层的标识信息,并为确保目标数据能成功映射至目标存储层,神经网络模型还输出每个存储层的第一调整信息。进而能够实现对Cache结构的快速、自动调整。
S105、根据第一调整信息完成对每个存储层的存储信息的调整。
具体地,计算机设备在获取神经网络模型输出的每个存储层对应的第一调整信息后,动态完成对每个存储层的动态信息的调整,第一调整信息可以包括如调整各存储层的运行速度、容量大小、清除或移动数据的控制指令等,进而确保目标数据能够成功映射且高速缓冲存储器能够稳定被调用。
S106、根据标识信息将所述目标数据映射到目标存储层。
具体地,高速缓冲存储器的映射方式指定了如何将主存储器中的数据映射到高速缓冲存储器中的位置。进而能够完成对目标数据在高速缓冲存储器中的备份,通过对高速缓冲存储器的存储层的调整和确定数据对应的目标存储层,在智能计算平台内的主存数据被调用时十分快速确认其映射在高速缓冲存储器的位置并及时调整高速缓冲存储器的存储信息。进而确保了智能计算平台运行的稳定性,提升智能计算平台内数据的访问效率。
在一些实施例中,所述根据所述标识信息将所述目标数据映射到所述目标存储层,包括:根据所述目标存储层的存储信息和所述目标数据的数据标签确认所述目标数据映射的映射方式,用于根据所述映射方式将所述目标数据映射到所述目标存储层;其中,所述映射方式包括直接映射、全相联映射和组相联映射的任一项。
不同的映射方式会影响cache的命中率和替换策略,本申请所提供的计算机设备通过根据目标存储层的存储信息和目标数据的数据标签能够确定最合适目标存储层的映射方式。
在一些实施例中,在所述根据所述标识信息将所述目标数据映射到所述目标存储层之后,所述方法还包括:当存在待写入目标存储层的数据时,在将数据写入至所述目标存储层之后,根据所述目标存储层的存储信息获取所述目标存储层的数据写策略;其中,所述数据写策略至少包括全写法和写回法的任一项;当所述数据写策略为所述全写法时,将写入所述目标存储层的数据同步至所述主存储器中;当所述数据写策略为所述写回法时,在所述目标存储层的数据被删除时再将写入所述目标存储层的数据同步至所述主存储器中。
因为Cache中的内容是主存储器的副本,当对Cache中的内容进行更新时,就需选用写操作策略使 Cache 内容和主存内容保持一致。此时对于 Cache写命中(write hit),有两种处理方法为全写法(也称写直通法,write-through)。当计算机设备对 Cache 写命中时,必须把数据同时写入Cache 和主存储器。当某一块需要替换时,不必把这一块写回主存储器,用新调入的块直接覆盖即可。这种方法实现简单,能随时保持主存数据的正确性。同时,为减少全写法直接写入主存的时间损耗,可以在Cachc和主存之间加一个写缓冲(WriteBufer),计算机设备同时写数据到Cache和写缓冲中,写缓冲再控制将内容写入主存。写缓冲是一个先进先出队列,写缓冲可以解决速度不匹配的问题。
另一种处理方法为写回法(write-back)。当计算机设备对 Cache 写命中时,只修改 Cache 的内容,而不立即写入主存,只有当此块被换出时才写回主存。这种方法减少了访存次数,但存在不一致的隐患。采用这种策略时,每个Cache行必须设置一个标志位(脏位),以反映此块是否被CPU 修改过。
示例性的,对于 Cache 写不命中,也有两种处理方法。一种是写分配法(write-allocate)。通过加载主存储器中的数据的块到 Cache 中,然后更新这个 Cache的存储层。进而利用程序的空间局部性。另一种是非写分配法(not-write-allocate)法。只写入主存储器,不进行调块。非写分配法通常与全写法合用,写分配法通常和写回法合用以提升Cache的灵活性。
在一些实施例中,所述神经网络模型至少包括目标确认模型和调整模型,所述第一调整信息至少包括存储空间调整信息和传输速率调整信息;所述将所述目标数据的数据大小、数据标签和多个所述存储信息输入所述预设的神经网络模型,包括:解析所述存储层的存储信息,获取所述存储层存储的数据对应的存储数据信息和存储空间信息;将所述目标数据的数据标签和所述存储数据信息输入至所述目标确认模型,以获取所述目标确认模型输出的所述目标存储层的标识信息;将所述目标数据的数据大小、目标存储层的标识信息和每个所述存储层的存储空间信息输入至所述调整模型,用于获取所述调整模型输出的每个所述存储层对应的所述存储空间调整信息和所述传输速率调整信息,以使得所述目标数据能够成功映射到所述目标存储层。
为确保本申请所提供的方法能够准确实现对目标数据的划分和调度,计算机设备先解析存储层的存储信息,获取存储层存储的数据对应的存储数据信息和存储空间信息,进而计算机设备能够快速确认各存储层的状态(如内存大小、存储的数据类型等信息),再将目标数据的数据标签和存储数据信息输入至目标确认模型,以获取目标确认模型输出的目标存储层的标识信息(如编号信息或名称信息等能辅助计算机设备快速确定对应的存储层的标识)。最终根据目标存储层的标识信息、目标数据的大小和各存储层的存储信息能够生成对应的第一调整信息,确保目标数据能成功映射至目标存储层的同时优化各存储层的存储空间。
需要说明的是,神经网络模型可以是卷积神经网络模型,也可以是对抗生成模型,还可以是BP网络(Back-Propagation Network)模型。同时目标确认模型和调整模型的类型可以相同也可以不同,本申请实施例对神经网络模型的类型不作限制。
示例性的,所述数据标签包括所述目标数据的数据类型,所述存储数据信息包括所述存储层存储的数据的存储数据类型;所述将所述目标数据的数据标签和所述存储数据信息输入至所述目标确认模型,以获取所述目标确认模型输出的所述目标存储层的标识信息,包括:所述目标确认模型对所述目标数据的数据类型和所述存储层的存储数据类型进行编码,获取所述数据类型对应的第一编码向量和所述存储数据类型对应的第二编码向量,计算所述第一编码向量和所述第二编码向量的匹配度,在所述匹配度大于预设阈值时,确认所述存储层为所述目标存储层,输出所述目标存储层的标识信息;其中,所述匹配度的计算公式如下:
其中表示所述目标数据的数据类型和所述存储层的存储数据类型的匹配度的值,/>与/>分别表示所述第一编码向量和所述第二编码向量,/>为所述目标数据的数据类型和所述存储层的存储数据类型的编码值,/>表示两个向量的内积,/>和/>分别表示所述第一编码向量的范数和所述第二编码向量的范数。
所提供的方法通过将目标数据的数据类型和各存储层的存储数据类型转换为对应的编码向量,能够通过数学方法计算目标数据与各存储层的匹配度,确保计算机设备能够为目标数据自动、准确确定其对应的目标存储层。
需要说明的是,在一些实施例中,目标数据转换为第一编码向量,可以通过数据转换公式获取,数据转换公式如下:
其中表示所述数据转换公式获取的向量,/>表示所述目标数据,/>,分别表示权重系数,/>分别表示各转换的数据类型的关键字的占比。
例如 均为1,此时/>分别表示气象类、代码类、价格类所占的比值,分别为0.45、0.1和0.2,此时第一编码向量为[0.45,0.1,0.2]。同时,本申请所提供的数据转换公式仅为示意,实际权重可以根据需求任意调整,且权重的个数也可以根据需要进行增加或减少。
示意性的,所述数据标签包括所述目标数据的数据等级,所述数据等级至少包括第一等级、第二等级和第三等级,所述第一等级的重要性高于所述第二等级,所述第二等级的重要性高于所述第三等级;在所述获取所述高速缓冲存储器的每个所述存储层的存储信息之后,所述方法还包括:当所述目标数据的数据等级为所述第一等级时,根据每个所述存储层的存储信息确定是否存在未存储数据的存储层; 若多个所述存储层不存在未存储任何数据的存储层时,根据每个所述存储层的存储信息生成第二调整信息;根据所述第二调整信息对每个所述存储层的存储信息的调整,以在多个所述存储层中确定空闲存储层,所述空闲存储层中未存储数据;根据所述空闲存储层的标识信息将所述目标数据映射到所述空闲存储层,并对所述空闲存储层添加加密信息,用于避免所述空闲存储层的信息被误访问;或者,当所述目标数据的数据等级为所述第二等级或所述第三等级时,将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型,获取所述第一调整信息和所述目标存储层的标识信息以完成所述目标数据的映射。
数据安全往往需要人工对数据加密形式实现,否则很容易发生数据泄露,本申请能够通过计算机设备对应的数据等级,例如分析数据中是否有加密字样或涉及加密信息对应的关键字。进而能够快速实现对关键信息的自动加密,确保智能计算平台的信息安全。
在一些实施例中,在所述将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型之前,还包括: 当根据所述存储信息确认存在存储空间已满的所述存储层时,确认所述存储层的待清空数据;删除所述存储层的待清空数据,更新所述存储层的存储信息。Cache 中已满并需要替换数据时,替换策略决定了应该替换哪些数据块,已确保存储层的稳定运行。
示例性的,所述确认所述存储层的待清空数据,包括:获取所述存储层的存储的数据的使用时长,将使用时长大于预设时长的数据确定为所述待清空数据;或,获取所述存储层的存储的数据的使用频次,将使用频次小于预设频次的数据确定为所述待清空数据。本申请计算机设备能够通过最近最少使用(LRU)或先进先出(FIFO)实现对数据的替换。同时本申请还能通过随机替换的方式对Cache内的数据进行替换。
本申请实施例中,通过对高速缓冲存储器的存储层的调整和确定数据对应的目标存储层,在智能计算平台内的主存数据被调用时十分快速确认其映射在高速缓冲存储器的位置并及时调整高速缓冲存储器的存储信息。进而确保了智能计算平台运行的稳定性,提升智能计算平台内数据的访问效率。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本申请实施例的实施过程构成任何限定。
对应于上文实施例所述的处理器Cache结构的缓存方法,图3示出了本申请实施例提供的处理器Cache结构的缓存装置的结构框图,该装置可以应用于如图2所示的智能计算平台的计算机设备,智能计算平台还包括主存储器和高速缓冲存储器,所述高速缓冲存储器包括多个存储层,所述主存储器中的数据映射于所述高速缓冲存储器的存储层中存储。为了便于说明,仅示出了与本申请实施例相关的部分。参照图3,该装置包括:
确定模块201,用于在所述主存储器的数据被调用时,确定所述数据为目标数据,获取所述目标数据的数据大小和数据信息。
第一获取模块202,用于根据所述数据信息获取所述目标数据对应的数据标签。
第二获取模块203,用于获取所述高速缓冲存储器的每个所述存储层的存储信息。
输入模块204,用于将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型,所述神经网络模型输出每个所述存储层对应的第一调整信息和目标存储层的标识信息。
调整模块205,用于根据所述第一调整信息完成对每个所述存储层的存储信息的调整。
映射模块206,用于根据所述标识信息将所述目标数据映射到所述目标存储层。
需要说明的是,上述装置/单元之间的信息交互、执行过程等内容,由于与本申请方法实施例基于同一构思,其具体功能及带来的技术效果,具体可参见方法实施例部分,此处不再赘述。
请同时参照图2和图4,图4为本申请实施例提供的计算机设备的结构示意图。如图4所示,该实施例的智能计算平台10包括计算机设备11、主存储器12和高速缓冲存储器13,高速缓冲存储器13包括多个存储层,主存储器12中的数据映射于高速缓冲存储器13的存储层中存储。
该实施例的计算机设备11包括:至少一个处理器111、存储器112以及存储在所述存储器112中并可在所述至少一个处理器111上运行的计算机程序113,所述处理器111执行所述计算机程序113时实现上述任意各个方法实施例中的步骤。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。该计算机设备可包括,但不仅限于,处理器111、存储器112。本领域技术人员可以理解,图4仅仅是计算机设备11的举例,并不构成对计算机设备11的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件,例如还可以包括输入输出设备、网络接入设备等。
所称处理器111可以是中央处理单元(Central Processing Unit,CPU),该处理器111还可以是其他通用处理器、数字信号处理器 (Digital Signal Processor,DSP)、专用集成电路 (Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA) 或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
所述存储器112在一些实施例中可以是所述计算机设备11的内部存储单元,例如计算机设备11的硬盘或内存。所述存储器112在另一些实施例中也可以是所述计算机设备11的外部存储设备,例如所述计算机设备11上配备的插接式硬盘,智能存储卡(SmartMedia Card, SMC),安全数字(Secure Digital, SD)卡,闪存卡(Flash Card)等。进一步地,所述存储器112还可以既包括所述计算机设备11的内部存储单元也包括外部存储设备。所述存储器112用于存储操作系统、应用程序、引导装载程序(BootLoader)、数据以及其他程序等,例如所述计算机程序的程序代码等。所述存储器112还可以用于暂时地存储已经输出或者将要输出的数据。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。实施例中的各功能单元、模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中,上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。另外,各功能单元、模块的具体名称也只是为了便于相互区分,并不用于限制本申请的保护范围。上述系统中单元、模块的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现可实现上述各个方法实施例中的步骤。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质至少可以包括:能够将计算机程序代码携带到计算机设备的任何实体或装置、记录介质、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random AccessMemory)、电载波信号、电信信号以及软件分发介质。例如U盘、移动硬盘、磁碟或者光盘等。在某些司法管辖区,根据立法和专利实践,计算机可读介质不可以是电载波信号和电信信号。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述或记载的部分,可以参见其它实施例的相关描述。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
在本申请所提供的实施例中,应该理解到,所揭露的装置/网络设备和方法,可以通过其它的方式实现。例如,以上所描述的装置/网络设备实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通讯连接可以是通过一些接口,装置或单元的间接耦合或通讯连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
以上所述实施例仅用以说明本申请的技术方案,而非对其限制;尽管参照前述实施例对本申请进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本申请各实施例技术方案的精神和范围,均应包含在本申请的保护范围之内。

Claims (9)

1.一种处理器Cache结构的缓存方法,其特征在于,应用于智能计算平台的计算机设备,所述智能计算平台还包括主存储器和高速缓冲存储器,所述高速缓冲存储器包括多个存储层,所述主存储器中的数据映射于所述高速缓冲存储器的存储层中存储;所述方法包括:
在所述主存储器的数据被调用时,确定所述数据为目标数据,获取所述目标数据的数据大小和数据信息;
根据所述数据信息获取所述目标数据对应的数据标签;
获取所述高速缓冲存储器的每个所述存储层的存储信息;
将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型,所述神经网络模型输出每个所述存储层对应的第一调整信息和目标存储层的标识信息;
根据所述第一调整信息完成对每个所述存储层的存储信息的调整;
根据所述标识信息将所述目标数据映射到所述目标存储层;
所述神经网络模型至少包括目标确认模型和调整模型,所述第一调整信息至少包括存储空间调整信息和传输速率调整信息;所述将所述目标数据的数据大小、数据标签和多个所述存储信息输入所述预设的神经网络模型,包括:
解析所述存储层的存储信息,获取所述存储层存储的数据对应的存储数据信息和存储空间信息;
将所述目标数据的数据标签和所述存储数据信息输入至所述目标确认模型,以获取所述目标确认模型输出的所述目标存储层的标识信息;
将所述目标数据的数据大小、目标存储层的标识信息和每个所述存储层的存储空间信息输入至所述调整模型,用于获取所述调整模型输出的每个所述存储层对应的所述存储空间调整信息和所述传输速率调整信息,以使得所述目标数据能够成功映射到所述目标存储层。
2.根据权利要求1所述的方法,其特征在于,所述数据标签包括所述目标数据的数据类型,所述存储数据信息包括所述存储层存储的数据的存储数据类型;所述将所述目标数据的数据标签和所述存储数据信息输入至所述目标确认模型,以获取所述目标确认模型输出的所述目标存储层的标识信息,包括:
所述目标确认模型对所述目标数据的数据类型和所述存储层的存储数据类型进行编码,获取所述数据类型对应的第一编码向量和所述存储数据类型对应的第二编码向量,计算所述第一编码向量和所述第二编码向量的匹配度,在所述匹配度大于预设阈值时,确认所述存储层为所述目标存储层,输出所述目标存储层的标识信息;
其中,所述匹配度的计算公式如下:
其中表示所述目标数据的数据类型和所述存储层的存储数据类型的匹配度的值,/>与/>分别表示所述第一编码向量和所述第二编码向量,/>为所述目标数据的数据类型和所述存储层的存储数据类型的编码值,/>表示两个向量的内积,/>和/>分别表示所述第一编码向量的范数和所述第二编码向量的范数。
3.根据权利要求2所述的方法,其特征在于,所述数据标签包括所述目标数据的数据等级,所述数据等级至少包括第一等级、第二等级和第三等级,所述第一等级的重要性高于所述第二等级,所述第二等级的重要性高于所述第三等级;在所述获取所述高速缓冲存储器的每个所述存储层的存储信息之后,所述方法还包括:
当所述目标数据的数据等级为所述第一等级时,根据每个所述存储层的存储信息确定是否存在未存储数据的存储层;
若多个所述存储层不存在未存储任何数据的存储层时,根据每个所述存储层的存储信息生成第二调整信息;
根据所述第二调整信息对每个所述存储层的存储信息的调整,以在多个所述存储层中确定空闲存储层,所述空闲存储层中未存储数据;
根据所述空闲存储层的标识信息将所述目标数据映射到所述空闲存储层,并对所述空闲存储层添加加密信息,用于避免所述空闲存储层的信息被误访问;
或者,当所述目标数据的数据等级为所述第二等级或所述第三等级时,将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型,获取所述第一调整信息和所述目标存储层的标识信息以完成所述目标数据的映射。
4.根据权利要求1所述的方法,其特征在于,在所述将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型之前,还包括:
当根据所述存储信息确认存在存储空间已满的所述存储层时,确认所述存储层的待清空数据;
删除所述存储层的待清空数据,更新所述存储层的存储信息。
5.根据权利要求4所述的方法,其特征在于,所述确认所述存储层的待清空数据,包括:
获取所述存储层的存储的数据的使用时长,将使用时长大于预设时长的数据确定为所述待清空数据;
或,获取所述存储层的存储的数据的使用频次,将使用频次小于预设频次的数据确定为所述待清空数据。
6.根据权利要求1所述的方法,其特征在于,所述根据所述标识信息将所述目标数据映射到所述目标存储层,包括:
根据所述目标存储层的存储信息和所述目标数据的数据标签确认所述目标数据映射的映射方式,用于根据所述映射方式将所述目标数据映射到所述目标存储层;
其中,所述映射方式包括直接映射、全相联映射和组相联映射的任一项。
7.根据权利要求1所述的方法,其特征在于,在所述根据所述标识信息将所述目标数据映射到所述目标存储层之后,所述方法还包括:
当存在待写入目标存储层的数据时,在将数据写入至所述目标存储层之后,根据所述目标存储层的存储信息获取所述目标存储层的数据写策略;
其中,所述数据写策略至少包括全写法和写回法的任一项;当所述数据写策略为所述全写法时,将写入所述目标存储层的数据同步至所述主存储器中;当所述数据写策略为所述写回法时,在所述目标存储层的数据被删除时再将写入所述目标存储层的数据同步至所述主存储器中。
8.一种计算子系统,其特征在于,应用于智能计算平台的计算机设备,所述智能计算平台还包括主存储器和高速缓冲存储器,所述高速缓冲存储器包括多个存储层,所述主存储器中的数据映射于所述高速缓冲存储器的存储层中存储;所述计算子系统包括:
确定模块,用于在所述主存储器的数据被调用时,确定所述数据为目标数据,获取所述目标数据的数据大小和数据信息;
第一获取模块,用于根据所述数据信息获取所述目标数据对应的数据标签;
第二获取模块,用于获取所述高速缓冲存储器的每个所述存储层的存储信息;
输入模块,用于将所述目标数据的数据大小、数据标签和多个所述存储信息输入预设的神经网络模型,所述神经网络模型输出每个所述存储层对应的第一调整信息和目标存储层的标识信息;
调整模块,用于根据所述第一调整信息完成对每个所述存储层的存储信息的调整;
映射模块,用于根据所述标识信息将所述目标数据映射到所述目标存储层;
所述神经网络模型至少包括目标确认模型和调整模型,所述第一调整信息至少包括存储空间调整信息和传输速率调整信息;所述输入模块在将所述目标数据的数据大小、数据标签和多个所述存储信息输入所述预设的神经网络模型过程中,具体执行:
解析所述存储层的存储信息,获取所述存储层存储的数据对应的存储数据信息和存储空间信息;
将所述目标数据的数据标签和所述存储数据信息输入至所述目标确认模型,以获取所述目标确认模型输出的所述目标存储层的标识信息;
将所述目标数据的数据大小、目标存储层的标识信息和每个所述存储层的存储空间信息输入至所述调整模型,用于获取所述调整模型输出的每个所述存储层对应的所述存储空间调整信息和所述传输速率调整信息,以使得所述目标数据能够成功映射到所述目标存储层。
9.一种智能计算平台,其特征在于,包括主存储器、高速缓冲存储器和计算机设备,所述高速缓冲存储器包括多个存储层,所述主存储器中的数据映射于所述高速缓冲存储器的存储层中存储;
其中,所述计算机设备包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7任一项所述的方法。
CN202410286833.2A 2024-03-13 2024-03-13 处理器Cache结构的缓存方法、计算子系统以及智能计算平台 Active CN117891754B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410286833.2A CN117891754B (zh) 2024-03-13 2024-03-13 处理器Cache结构的缓存方法、计算子系统以及智能计算平台

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410286833.2A CN117891754B (zh) 2024-03-13 2024-03-13 处理器Cache结构的缓存方法、计算子系统以及智能计算平台

Publications (2)

Publication Number Publication Date
CN117891754A CN117891754A (zh) 2024-04-16
CN117891754B true CN117891754B (zh) 2024-05-10

Family

ID=90649081

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410286833.2A Active CN117891754B (zh) 2024-03-13 2024-03-13 处理器Cache结构的缓存方法、计算子系统以及智能计算平台

Country Status (1)

Country Link
CN (1) CN117891754B (zh)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689679A (en) * 1993-04-28 1997-11-18 Digital Equipment Corporation Memory system and method for selective multi-level caching using a cache level code
US5787267A (en) * 1995-06-07 1998-07-28 Monolithic System Technology, Inc. Caching method and circuit for a memory system with circuit module architecture
CN111552652A (zh) * 2020-07-13 2020-08-18 深圳鲲云信息科技有限公司 基于人工智能芯片的数据处理方法、装置和存储介质
CN111881069A (zh) * 2019-05-03 2020-11-03 爱思开海力士有限公司 存储系统的高速缓存系统及其数据高速缓存方法
CN112948133A (zh) * 2021-04-08 2021-06-11 广东琴智科技研究院有限公司 一种资源调度管理方法、装置及云平台
CN115168248A (zh) * 2022-09-02 2022-10-11 北京登临科技有限公司 支持simt架构的高速缓冲存储器及相应处理器
CN117648266A (zh) * 2023-11-29 2024-03-05 浪潮(北京)电子信息产业有限公司 一种数据缓存方法、系统、设备及计算机可读存储介质

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5689679A (en) * 1993-04-28 1997-11-18 Digital Equipment Corporation Memory system and method for selective multi-level caching using a cache level code
US5787267A (en) * 1995-06-07 1998-07-28 Monolithic System Technology, Inc. Caching method and circuit for a memory system with circuit module architecture
CN111881069A (zh) * 2019-05-03 2020-11-03 爱思开海力士有限公司 存储系统的高速缓存系统及其数据高速缓存方法
CN111552652A (zh) * 2020-07-13 2020-08-18 深圳鲲云信息科技有限公司 基于人工智能芯片的数据处理方法、装置和存储介质
CN112948133A (zh) * 2021-04-08 2021-06-11 广东琴智科技研究院有限公司 一种资源调度管理方法、装置及云平台
CN115168248A (zh) * 2022-09-02 2022-10-11 北京登临科技有限公司 支持simt架构的高速缓冲存储器及相应处理器
CN117648266A (zh) * 2023-11-29 2024-03-05 浪潮(北京)电子信息产业有限公司 一种数据缓存方法、系统、设备及计算机可读存储介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
安全增强型虚拟磁盘加密系统技术;倪凯斌;姚国祥;官全龙;;计算机应用;20091101(11);全文 *

Also Published As

Publication number Publication date
CN117891754A (zh) 2024-04-16

Similar Documents

Publication Publication Date Title
CN104133780B (zh) 一种跨页预取方法、装置及系统
US10073854B2 (en) Data deduplication in a virtualization environment
CN100573477C (zh) 管理锁定的高速缓冲存储器中的组替换的系统和方法
KR101626533B1 (ko) 가비지 콜렉션을 위한 gpu 서포트
US9213782B2 (en) Sorting multiple records of data using ranges of key values
KR20180099819A (ko) 시스템 성능 향상을 위한 적응적 값 범위 프로파일링
US20070038837A1 (en) Merging identical memory pages
CN107102955A (zh) 用于存储子系统的关联和原子回写高速缓冲存储系统和方法
US9697111B2 (en) Method of managing dynamic memory reallocation and device performing the method
CN103279428B (zh) 一种显式的面向流应用的多核Cache一致性主动管理方法
CN104756090A (zh) 提供扩展的缓存替换状态信息
US20100332720A1 (en) Direct Memory Access and Super Page Swapping Optimizations For A Memory Blade
JP2018005395A (ja) 演算処理装置、情報処理装置および演算処理装置の制御方法
CN112395322B (zh) 一种基于分级缓存的列表数据显示方法、装置及终端设备
CN105117351A (zh) 向缓存写入数据的方法及装置
US20210350230A1 (en) Data dividing method and processor for convolution operation
US20230161811A1 (en) Image search system, method, and apparatus
CN107562806B (zh) 混合内存文件系统的自适应感知加速方法及系统
CN115269454A (zh) 数据访问方法、电子设备和存储介质
CN114780448A (zh) 数据快速拷贝的方法、装置、计算机设备及存储介质
US9891824B2 (en) Sub-block input/output (I/O) commands for storage device including byte stream buffer
US20080256296A1 (en) Information processing apparatus and method for caching data
US20070073971A1 (en) Memory caching in data processing
CN117891754B (zh) 处理器Cache结构的缓存方法、计算子系统以及智能计算平台
US20170147508A1 (en) Device, system and method of accessing data stored in a memory

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant