CN111104066B - 数据写入方法、装置及存储服务器和计算机可读存储介质 - Google Patents
数据写入方法、装置及存储服务器和计算机可读存储介质 Download PDFInfo
- Publication number
- CN111104066B CN111104066B CN201911304631.1A CN201911304631A CN111104066B CN 111104066 B CN111104066 B CN 111104066B CN 201911304631 A CN201911304631 A CN 201911304631A CN 111104066 B CN111104066 B CN 111104066B
- Authority
- CN
- China
- Prior art keywords
- data
- write
- writing
- cache
- request
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0655—Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
- G06F3/0656—Data buffering arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0866—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches for peripheral storage systems, e.g. disk cache
- G06F12/0868—Data transfer between cache memory and other subsystems, e.g. storage devices or host systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F12/00—Accessing, addressing or allocating within memory systems or architectures
- G06F12/02—Addressing or allocation; Relocation
- G06F12/08—Addressing or allocation; Relocation in hierarchically structured memory systems, e.g. virtual memory systems
- G06F12/0802—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches
- G06F12/0888—Addressing of a memory level in which the access to the desired data or data block requires associative addressing means, e.g. caches using selective caching, e.g. bypass
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/0604—Improving or facilitating administration, e.g. storage management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0602—Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
- G06F3/061—Improving I/O performance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0628—Interfaces specially adapted for storage systems making use of a particular technique
- G06F3/0638—Organizing or formatting or addressing of data
- G06F3/0644—Management of space entities, e.g. partitions, extents, pools
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0673—Single storage device
- G06F3/0674—Disk device
- G06F3/0676—Magnetic disk device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/06—Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
- G06F3/0601—Interfaces specially adapted for storage systems
- G06F3/0668—Interfaces specially adapted for storage systems adopting a particular infrastructure
- G06F3/0671—In-line storage system
- G06F3/0673—Single storage device
- G06F3/0679—Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/10—Providing a specific technical effect
- G06F2212/1016—Performance improvement
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/15—Use in a specific computing environment
- G06F2212/154—Networked environment
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/21—Employing a record carrier using a specific recording technology
- G06F2212/217—Hybrid disk, e.g. using both magnetic and solid state storage devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/31—Providing disk cache in a specific location of a storage system
- G06F2212/314—In storage network, e.g. network attached cache
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2212/00—Indexing scheme relating to accessing, addressing or allocation within memory systems or architectures
- G06F2212/50—Control mechanisms for virtual memory, cache or TLB
- G06F2212/502—Control mechanisms for virtual memory, cache or TLB using adaptive policy
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Medical Informatics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Memory System Of A Hierarchy Structure (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种数据写入方法、装置及一种存储服务器和计算机可读存储介质,该方法包括:当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;当触发所述写缓冲区的数据下刷操作时,获取所述待下刷数据对应的数据块的历史访问数据;基于所述历史访问数据判断待下刷数据是否为只写数据;若是,则将所述待下刷数据写入硬盘驱动器中;若否,则将所述待下刷数据写入缓存中。本申请提供的数据写入方法,可以有效减少写入缓存的无用流量,同时在缓存中为普通数据留出更多空间,提高缓存空间利用率,从而提高缓存的读取命中率,提升存储系统的读性能,实现了对缓存的最低写入流量,提高了写策略的效率。
Description
技术领域
本申请涉及存储技术领域,更具体地说,涉及数据写入方法、装置及存储服务器和计算机可读存储介质。
背景技术
当客户端产生写请求时,存储服务器依据写策略决定是否将待写入数据加载到缓存以及何时将缓存中的脏数据下刷到后端的硬盘驱动器。因此,写策略对系统性能、数据一致性以及对高速缓存介质的写入流量具有很大影响。
在相关技术中,存在三个基本写策略:写穿策略(write-through)、写回策略(write-back)和绕写策略(write-around)。写穿策略为将待写入数据同时写入缓存和后端的硬盘驱动器,写回策略为将待写入数据首先写入缓存,然后异步下刷到后端的硬盘驱动器,绕写策略为将待写入数据直接写后端的硬盘驱动器,只有当存在读操作时才将未命中数据加载到缓存。
在不断变化的多样化云工作负载下,固定的写策略注定是低效的。因此,如何提高写策略的效率是本领域技术人员需要解决的技术问题。
发明内容
本申请的目的在于提供一种数据写入方法、装置及一种存储服务器和一种计算机可读存储介质,提高写策略的效率。
为实现上述目的,本申请第一方面提供了一种数据写入方法,包括:
当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
当触发所述写缓冲区的数据下刷操作时,获取所述待下刷数据对应的数据块的历史访问数据;
基于所述历史访问数据判断待下刷数据是否为只写数据;
若是,则将所述待下刷数据写入硬盘驱动器中;
若否,则将所述待下刷数据写入缓存中。
结合本申请的第一方面,在本申请第一方面的第一种实施方式中,所述基于所述历史访问数据判断待下刷数据是否为只写数据,包括:
在所述历史访问数据中提取所述待下刷数据对应的数据块的特征信息作为第一特征信息,将所述第一特征信息输入训练完成的分类器中以便判断待下刷数据是否为只写数据。
结合本申请的第一方面的第一种实施方式,在本申请第一方面的第二种实施方式中,还包括:
当所述缓存触发数据替换操作时,基于替换数据的历史读取数据对所述替换数据进行标记;
获取所述替换数据对应的数据块的特征信息作为第二特征信息,并利用标记完成的替换数据和所述第二特征信息训练分类器得到所述训练完成的分类器。
结合本申请的第一方面的第二种实施方式,在本申请第一方面的第三种实施方式中,所述获取所述替换数据对应的数据块的特征信息作为第二特征信息,包括:
确定所述替换数据对应的数据块所属的数据区域;其中,所述数据区域包括多个数据块,所述数据区域的大小为访问粒度的整数倍;
提取所述数据区域的特征信息作为所述第二特征信息。
结合本申请的第一方面的第一种实施方式,在本申请第一方面的第四种实施方式中,所述特征信息包括时间特征和/或请求类特征;所述时间特征为描述访问数据块的时间的特征,所述请求类特征为描述访问数据块的请求的特征。
为实现上述目的,本申请第二方面提供了一种数据写入装置,包括:
第一写入模块,用于当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
获取模块,用于当触发所述写缓冲区的数据下刷操作时,获取所述待下刷数据对应的数据块的历史访问数据;
判断模块,用于基于所述历史访问数据判断待下刷数据是否为只写数据;
第二写入模块,用于当所述待下刷数据为只写数据时,将所述待下刷数据写入硬盘驱动器中;
第三写入模块,用于当所述待下刷数据为非只写数据时,将所述待下刷数据写入缓存中。
为实现上述目的,本申请第三方面提供了一种存储服务器,包括:
处理器和存储器;
其中,所述处理器用于执行所述存储器中存储的程序;
所述存储器用于存储程序,所述程序至少用于:
当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
当触发所述写缓冲区的数据下刷操作时,获取所述待下刷数据对应的数据块的历史访问数据;
基于所述历史访问数据判断待下刷数据是否为只写数据;
若是,则将所述待下刷数据写入硬盘驱动器中;
若否,则将所述待下刷数据写入缓存中。
为实现上述目的,本申请第四方面提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如上述数据写入方法的步骤。
通过以上方案可知,本申请提供的一种数据写入方法,包括:当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;当触发所述写缓冲区的数据下刷操作时,获取所述待下刷数据对应的数据块的历史访问数据;基于所述历史访问数据判断待下刷数据是否为只写数据;若是,则将所述待下刷数据写入硬盘驱动器中;若否,则将所述待下刷数据写入缓存中。
在本申请中,将客户端产生的数据划分为不同的类型,即只写数据和普通数据。只写数据在一定时间窗口内只存在写操作,而不存在读操作,也就是说,客户端的读请求在该时间窗口内不会命中只写数据,将只写数据加载到缓存,不但不会提高缓存的读取命中率,还会对缓存造成大量非必要的写入流量。因此,本申请提供的数据写入方法,对只写数据和普通数据采取不同的写入方式,对于普通数据采用写穿策略或写回策略,将其写入缓存。而对于只写数据采用绕写策略,即将其直接写入后端的硬盘驱动器,可以有效减少写入缓存的无用流量,同时在缓存中为普通数据留出更多空间,提高缓存空间利用率,从而提高缓存的读取命中率,提升存储系统的读性能。由此可见,本申请提供的数据写入方法,实现了对缓存的最低写入流量,提高了写策略的效率。本申请还公开了一种数据写入装置及一种存储服务器和一种计算机可读存储介质,同样能实现上述技术效果。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性的,并不能限制本申请。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单的介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。附图是用来提供对本公开的进一步理解,并且构成说明书的一部分,与下面的具体实施方式一起用于解释本公开,但并不构成对本公开的限制。在附图中:
图1为本申请实施例提供的一种数据写入系统的架构图;
图2为本申请实施例提供的第一种数据写入方法的流程图;
图3为本申请实施例提供的第二种数据写入方法的流程图;
图4为本申请实施例提供的第三种数据写入方法的流程图;
图5为本申请实施例提供的一种分类器训练方法的流程图;
图6为本申请实施例提供的第四种数据写入方法的流程图;
图7为本申请提供的一种应用实施例的系统架构图;
图8为本申请提供的一种应用实施例的流程图;
图9为本申请实施例提供的一种数据写入装置的结构图;
图10为本申请实施例提供的一种存储服务器的结构图。
具体实施方式
在典型的云块存储产品中,例如腾讯CBS、Ceph(分布式文件系统)等,客户端产生写入请求时,该写入请求对应的写入数据首先被写入写缓冲区,同时顺序记录在日志文件中。当写缓冲区中的脏数据量超过一定阈值时被提交到缓存,例如SSD(中文全称:固态驱动器,英文全称:Solid State Drive)缓存等,缓存中的写入数据采用写回策略异步下刷到后端的硬盘驱动器(英文全称:Hard Disk Drive,英文简称:HDD)存储。
但是,本申请的发明人研究发现,CBS采集的一个月的IO(中文全称:输入/输出,英文全称:Input/Output)日志中,47.09%的数据只存在写操作,即47.09%的数据为只写数据。将只写数据提交到缓存而带来的加速效果用户并不能感知到,此时对于缓存,无论使用写回还是写穿策略,都会对缓存造成大量非必要的写入流量。另外,简单地部署绕写策略将不可避免地降低读请求的命中率,严重降低服务质量。
因此,在本申请中,将客户端产生的数据划分为只写数据和普通数据,只写数据在一定时间窗口内只存在写操作,采用绕写策略,对于普通数据采用写穿策略或写回策略,将其写入缓存。将只写数据直接写入后端的硬盘驱动器,可以有效减少写入缓存的无用流量,同时在缓存中为普通数据留出更多空间,提高缓存空间利用率。
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
为了便于理解本申请提供的数据写入的方法,首先对其使用的系统进行介绍。参见图1,其示出了本申请实施例提供的一种数据写入系统的架构图,如图1所示,包括客户端100、存储服务器200和存储区300,客户端100与存储服务器200、存储服务器200和存储区300之间通过网络400传输写入数据。
存储区300包括写缓冲区31、缓存32和后端的硬盘驱动器(HDD)33,当客户端产生写入请求时,该写入请求对应的写入数据首先被写入写缓冲区31中,写缓冲区31可以由DRAM(中文全称:动态随机存取存储器,英文全称:Dynamic Random Access Memory)组成,在此不进行具体限定。写缓冲区31被触发数据下刷操作时,存储服务器200确定待下刷数据的数据类型,若其为只写数据,则将其直接写入后端的硬盘驱动器33,否则可以采用写穿策略将其同时写入缓存32和硬盘驱动器33,也可以采用写回策略为将其首先写入缓存32,然后异步下刷到硬盘驱动器33中,在此不进行具体限定。缓存32用于暂存数据,当客户端产生读请求时,若该读请求对应的数据在缓存32中时可以直接返回,不需要访问后端的硬盘驱动器33,提高读取效率。本实施例中的缓存32可以采用SSD缓存等,在此不进行具体限定。
本申请实施例公开了一种数据写入方法,提高了写策略的效率。
参见图2,本申请实施例提供的一种数据写入方法的流程图,如图2所示,包括:
S101:客户端产生写入请求,并将所述写入请求发送至存储服务器;
在本步骤中,客户端产生写入请求,该写入请求包括写入数据,也可以在该写入请求中指定写入地址,在此不进行具体限定。客户端将写入请求发送至存储服务器,以便存储服务器依据预设定义的写策略对该写入请求进行处理。
S102:存储服务器将所述写入请求对应的写入数据写入写缓冲区中;
在本步骤中,客户端产生的所有写入请求对应的写入数据首先被写入写缓冲区,同时顺序记录到日志文件中,日志文件用于数据恢复。
S103:当所述写缓冲区触发数据下刷操作时,存储服务器获取所述待下刷数据对应的数据块的历史访问数据,并基于所述历史访问数据判断待下刷数据是否为只写数据判断待下刷数据是否为只写数据;若是,则进入S104;若否,则进入S105;
本步骤旨在确定待下刷数据的类型,只写数据或普通数据,以便后续步骤对不同类型的数据采用不同的写策略。只写数据为在一定时间窗口内只存在写操作而不存在读操作的数据,除只写数据之外的数据称之为普通数据。当写缓冲区触发数据下刷操作时,存储服务器确定待下刷数据,并获取该待下刷数据对应的数据块的历史访问数据。客户端在产生写入请求时,可以指定写入地址,此处的数据块即为该写入地址对应的数据块。历史访问数据描述该数据块的历史访问情况,依据历史访问数据可以确定该数据块存储只写数据的概率,进而确定即将存储在该数据块内的待下刷数据是否为只写数据。需要说明的是,本实施例不对数据类型的具体确定方式进行限定,例如可以基于统计学方法或分类器等,均在本实施例的保护范围内。
可以理解的是,本步骤不对数据下刷操作的触发条件进行限定,例如可以当写缓冲区的数据量达到阈值时,触发数据下刷操作,即所述当触发写缓冲区的数据下刷操作时,获取所述待下刷数据对应的数据块的历史访问数据的步骤包括:当所述写缓冲区的数据量达到阈值时,触发写缓冲区的数据下刷操作,并获取所述待下刷数据对应的数据块的历史访问数据。
S104:存储服务器将所述待下刷数据写入硬盘驱动器中;
可以理解的是,缓存用于暂存数据,当客户端产生读请求时,若该读请求对应的数据在缓存中时可以直接返回,不需要访问后端的硬盘驱动器,提高读取效率。而只写数据在一定时间窗口内只存在写操作,而不存在读操作,可见,将只写数据加载到缓存,不但不会提高缓存的读取命中率,还会对缓存造成大量非必要的写入流量。
因此,在本步骤中,对只写数据采用绕写策略,即当待下刷数据为只写数据时,将其直接写入后端的硬盘驱动器中。在缓存中为普通数据留出更多空间,提高缓存空间利用率,从而提高缓存的读取命中率。在具体实施中,为了进一步节省缓存空间,防止缓存中存在该待下刷数据对应的脏数据,保证数据一致性,首先查询缓存中是否存在该待下刷数据对应的脏数据,若是,则首先将缓存中脏数据刷新至硬盘驱动器,再将写缓冲区中的待下刷数据写入硬盘驱动器。即本步骤包括:将所述固态驱动器中所述待下刷数据对应的脏数据刷新至所述硬盘驱动器;将所述待下刷数据写入硬盘驱动器中。
S105:存储服务器将所述待下刷数据写入缓存中。
由于普通数据存在读操作,因此需要将普通数据写入缓存,以提高存储系统的读性能。在本步骤中,对于普通数据可以采用写穿策略,也可以采用写回策略,在此不进行限定。若普通数据的写策略为写穿策略,本步骤包括:将所述待下刷数据同时写入所述缓存和所述硬盘驱动器中。若普通数据的写策略为写回策略,则本步骤包括:将所述待下刷数据写入缓存中;当满足预设条件时,将所述缓存中的数据刷新至所述硬盘驱动器中。此处的预设条件可以为读取命中率小于预设值,即当缓存的读取命中率小于预设值时,将缓存中读取命中率最低的数据块中的数据刷新至硬盘驱动器。预设条件也可以为缓存已满,即当缓存已满时,将缓存中的部分数据刷新至硬盘驱动器,当然还可以采用其他策略将缓存中的数据刷新至硬盘驱动器,在此不进行具体限定。
在本申请实施例中,将客户端产生的数据划分为不同的类型,即只写数据和普通数据。只写数据在一定时间窗口内只存在写操作,而不存在读操作,也就是说,客户端的读请求在该时间窗口内不会命中只写数据,将只写数据加载到缓存,不但不会提高缓存的读取命中率,还会对缓存造成大量非必要的写入流量。因此,本申请实施例提供的数据写入方法,对只写数据和普通数据采取不同的写入方式,对于普通数据采用写穿策略或写回策略,将其写入缓存。而对于只写数据采用绕写策略,即将其直接写入后端的硬盘驱动器,可以有效减少写入缓存的无用流量,同时在缓存中为普通数据留出更多空间,提高缓存空间利用率,从而提高缓存的读取命中率,提升存储系统的读性能。由此可见,本申请实施例提供的数据写入方法,实现了对缓存的最低写入流量,提高了写策略的效率。
本实施例基于统计学确定待下刷数据的类型,将以存储服务器为执行主体进行介绍。具体的:
参见图3,本申请实施例提供的第二种数据写入方法的流程图,如图3所示,包括:
S201:当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
S202:当触发所述写缓冲区的数据下刷操作时,获取所述待下刷数据对应的数据块的历史访问数据;
S203:基于所述历史访问数据利用统计学方法判断待下刷数据是否为只写数据;若是,则进入S204;若否,则进入S205;
本实施例基于历史访问数据利用统计学方法确定待下刷数据的类型,此处的历史访问数据为待下刷数据对应的数据块的历史访问数据。客户端在产生写入请求时,可以指定写入地址,此处的数据块即为该写入地址对应的数据块。历史访问数据描述该数据块的历史访问情况,可以包括在一定时间窗口内的写请求次数、读请求次数等,依据历史访问数据可以确定该数据块存储只写数据的概率,进而确定即将存储在该数据块内的待下刷数据是否为只写数据。
作为一种优选实施方式,本步骤包括:基于所述历史访问数据确定多个时间窗口内所述待下刷数据对应的数据块的写请求次数,并根据所有所述写请求次数计算所述待下刷数据对应的数据块的只写概率;其中,所述只写概率描述所述数据块存储只写数据的概率;判断所述只写概率是否大于第三预设值,若是,则判定所述待下刷数据为所述只写数据,若否,则判定所述待下刷数据为所述普通数据。
在具体实施中,基于历史访问数据确定多个时间窗口内待下刷数据对应的数据块的写请求次数和总请求次数,此处不对时间窗口进行限定,例如一个时间窗口可以为1天,多个时间窗口可以为一个月,即确定一个月内每天中该数据块的写请求次数和总请求次数。总请求次数既包括写请求次数也包括读请求次数,计算每个时间窗口内该数据块的写请求比例,即写请求次数与总请求次数的比值,并将所有时间窗口的写请求比例的平均值作为该数据块的只写概率,该只写概率可以表征该数据块存储只写数据的概率。当只写概率大于第三预设值时,可以判定该数据块即将存储的数据为只写数据,即待下刷数据为只写数据,否则判定待下刷数据为普通数据。
S204:将所述待下刷数据写入硬盘驱动器中;
S205:将所述待下刷数据写入缓存中。
由此可见,本实施例基于待下刷数据对应的数据块的历史访问数据,利用统计学方法确定待下刷数据的类型,对只写数据和普通数据采取不同的写入方式,对于普通数据采用写穿策略或写回策略,将其写入缓存。而对于只写数据采用绕写策略,即将其直接写入后端的硬盘驱动器,可以有效减少写入缓存的无用流量,同时在缓存中为普通数据留出更多空间,提高缓存空间利用率,从而提高缓存的读取命中率,提升存储系统的读性能。
本实施例利用分类器确定待下刷数据的类型,同样将以存储服务器为执行主体进行介绍。具体的:
参见图4,本申请实施例提供的第三种数据写入方法的流程图,如图4所示,包括:
S301:当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
S302:当触发所述写缓冲区的数据下刷操作时,获取所述待下刷数据对应的数据块的历史访问数据,并在所述历史访问数据中提取所述待下刷数据对应的数据块的特征信息作为第一特征信息;
本实施例利用分类器确定待下刷数据的类型,在本步骤中,首先基于待下刷数据对应的数据块的历史访问数据提取待下刷数据的特征信息作为第一特征信息,此处的特征信息可以包括时间特征和请求类特征中的任一项或两项,时间特征为描述访问数据块的时间的特征,请求类特征为描述访问数据块的请求的特征。
具体的,时间特征可以包括上次访问时间戳和平均重用时间差中的任一项或两项,上次访问时间戳描述上一次访问数据块的时间点,平均重用时间差描述访问数据块的平均时间间隔。可以理解的是,时间特征可以表示数据块的访问新进度和时间间隔,即上次访问时间戳描述访问新进度,平均重用时间差描述访问时间间隔,当然也可以使用当前时间和上一次访问数据块的时间点的时间间隔表示数据块的访问新进度,在此不进行具体限定。另外,可以对上述时间特征进行标准化处理,例如,将时间特征的单位设置为小时,并将数值的上限限制为100。
可以理解的是,本实施例默认存在训练分类器的步骤,在具体实施中,可以利用机器学习算法进行训练,而机器学习算法中的常用特征信息还可以使用空间特征,即待写入数据的地址信息,如卷ID、偏移等。但是,地址会随着时间而变化,影响分类器的预测,因此在本实施例中,不使用空间特征,而采用请求类特征来丰富训练特征。
具体的,请求类特征可以包括平均请求大小、大请求比率、小请求比率和写请求比率中的任一项或任几项的组合,大请求比率描述访问数据块的请求中请求大小大于第一预设值的请求的比率,小请求比率描述访问数据块的请求中请求大小小于第二预设值的请求的比率,写请求比率描述访问数据块的请求中写请求的比率,所述第一预设值大于或等于所述第二预设值。
例如,平均请求大小是访问数据块的平均请求大小,单位可以为千字节,上限可以为100KB。大请求比率可以为请求大小大于64KB的请求的比率,小请求比率是请求大小小于8KB的请求的比率。
需要说明的是,若对每个数据块统计特征信息,特征信息的提取会消耗过多的系统资源,存储过程中的内存占用过大,导致特征信息提取效率较低。因此,为了提高特征信息的提取效率,可以提高特征信息的统计粒度,然而过大的统计粒度也会导致训练完成的分类器预测结果不准确。因此,可以以数据区域作为特征信息的统计粒度,每个数据区域包括多个数据块,以在内存占用和预测准确性之间进行权衡。存储系统中的访问粒度,即最小读写粒度为数据块,例如8KB,数据区域的大小为访问粒度的整数倍,例如数据区域的大小可以为1MB。在具体实施中,以1MB的统计粒度统计特征信息连续数据区域进行统计,每个数据区域的特征信息来自该数据区域中所有数据块的历史读取数据,同一数据区域中的数据块共享此数据区域的特征信息。即所述获取所述待下刷数据对应的数据块的特征信息作为第一特征信息的步骤包括:确定所述待下刷数据对应的数据块所属的数据区域,提取该数据区域的特征信息作为第一特征信息。
S303:将所述第一特征信息输入训练完成的分类器中以便判断待下刷数据是否为只写数据;若是,则进入S304;若否,则进入S305;
在本步骤中,将上一步骤提取的第一特征信息输入训练完成的分类器中,得到待下刷数据的类型,若其为只写数据,则进入S304,若其为普通数据,则进入S305。
S304:将所述待下刷数据写入硬盘驱动器中;
S305:将所述待下刷数据写入缓存中。
由此可见,本实施例利用分类器确定待下刷数据的类型,分类器的预测准确度较高,提高了确定数据类型的准确度。从写缓冲区中下刷的待写入数据均首先经过分类器分类,然后根据分类结果进行不同操作,即对普通数据采用写回策略或写穿策略,对只写数据采用绕写策略。通过上述方式极大地减少了对缓存的写流量,同时也为普通数据保留了更多的缓存空间,提高缓存空间的资源利用率,从而提高了存储系统的读性能。
本实施例基于机器学习算法对分类器进行训练,机器学习(英文全称:MachineLearning,英文简称:ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。机器学习是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域。机器学习和深度学习通常包括人工神经网络、置信网络、强化学习、迁移学习、归纳学习、式教学习等技术。具体的:
参见图5,本申请实施例提供的一种分类器训练方法的流程图,如图5所示,包括:
S401:当所述缓存触发数据替换操作时,基于替换数据的历史读取数据对所述替换数据进行标记;
本实施例利用机器学习算法对分类器进行训练,需要说明的是,此处不对具体的机器学习算法进行限定,可以使用监督机器学习算法,例如朴素贝叶斯(Naive Bayes)、Logistic回归、决策树、AdaBoost和随机森林等。在X86-64计算服务器上运行分类器器,该服务器有两个Intel Xeon E5-2670-v3CPU和128GB DRAM内存,不同机器学习算法的分类结果如表1所示,表1中的训练时间为训练一天的训练样本所用的时间。
表1
分类器名称 | 准确率(%) | 召回率(%) | 训练时间(ms) | 预测时间(ms) |
Logistic回归 | 83.54 | 75.21 | 500.84 | 1.01 |
朴素贝叶斯 | 83.89 | 83.91 | 440.88 | 1.25 |
决策树 | 80.96 | 68.61 | 482.62 | 1.16 |
AdaBoost | 87.85 | 85.64 | 462.47 | 14.73 |
随机森林 | 88.32 | 82.64 | 523.68 | 20.23 |
由表1可知,随机森林在准确率方面优于其他算法,但需要更多的时间进行预测,每个请求平均需要20.23μs。AdaBoost在准确率方面仅次于随机森林,并且具有较短的预测时间,每个请求平均为14.73μs。朴素贝叶斯能很好的平衡准确率、召回率和预测时间,Logistic回归在召回率方面不如朴素贝叶斯,决策树具有最低的准确率和召回率。
在具体实施中,在一定的时间窗口内采集训练样本用于训练分类器,例如,每天采集训练样本对分类器进行训练,训练完成的分类器用于第二天数据类型的区分。所有监督型机器学习算法训练一天样本耗时几百毫秒,分类器模型的大小仅为几兆字节,可见训练分类器对存储系统的影响可以忽略不计。
在本实施例中,训练样本为替换数据,即当缓存触发数据替换操作时,将缓存中的第一数据替换为硬盘驱动器中的第二数据时,第一数据即为本步骤中的替换数据。基于其历史读取数据对其进行标记,例如,若该替换数据具有一个或多个读取命中次数,则将其标记为0(0表示普通数据),否则将其标记为1(1表示只写数据)。
S402:获取所述替换数据对应的数据块的特征信息作为第二特征信息,并利用标记完成的替换数据和所述第二特征信息训练分类器得到所述训练完成的分类器。
在本步骤中,提取训练样本的特征信息作为第二特征信息,此处的第二特征信息也可以包括时间特征、请求类特征,在此不再赘述。将标记完成的训练样本和训练样本的特征信息输入分类器中,用于对该分类器进行训练,得到训练完成的分类器。训练完成的分类器用于确定数据的类型,只写数据或普通数据。
可以理解的是,为了提高训练样本的特征信息的提取效率,此处也可以将数据区域作为训练样本的特征信息的统计粒度。即所述获取所述替换数据对应的数据块的特征信息作为第二特征信息的步骤包括:确定所述替换数据对应的数据块所属的数据区域;提取所述数据区域的特征信息作为所述第二特征信息。
由此可见,本实施例利用机器学习算法对分类器进行训练,在提取训练样本的特征信息时,使用请求类特征丰富分类器的训练特征,使得分类器的分类效果更好,提高了确定数据类型的准确度。
本申请实施例公开了一种数据写入方法,相对于前几个实施例,本实施例对技术方案作了进一步的说明和优化,同样以存储服务器为执行主体进行介绍。具体的:
参见图6,本申请实施例提供的第四种数据写入方法的流程图,如图6所示,包括:
S501:当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
S502:当所述写缓冲区的数据量达到阈值时,触发写缓冲区的数据下刷操作;
S503:获取所述待下刷数据对应的数据块的历史访问数据,并在所述历史访问数据中提取所述待下刷数据对应的数据块的特征信息作为第一特征信息;
S504:将所述第一特征信息输入训练完成的分类器中以便判断待下刷数据是否为只写数据;若是,则进入S505;若否,则进入S507;
S505:将所述固态驱动器中所述待下刷数据对应的脏数据刷新至所述硬盘驱动器;
S506:将所述待下刷数据写入硬盘驱动器中;
S507:将所述待下刷数据写入缓存中;
S508:当满足预设条件时,将所述缓存中的数据刷新至所述硬盘驱动器中。
由此可见,本实施例提供了一种基于机器学习的写策略,可以准确识别不同类型的数据,即只写数据和普通数据,进而对不同类型的数据进行不同的处理。对普通数据采用写回策略,对只写数据采用绕写策略,最大程度的减少了对缓存的写流量,同时也为普通数据保留了更多的缓存空间,提高缓存空间的资源利用率,从而提高了存储系统的读性能。
为了便于理解,结合本申请的一种应用场景进行介绍。具体的,如图7所示,数据写入系统包括客户端、分类器和云块存储产品腾讯CBS的存储区。客户端中设置Hypervisor(又称虚拟机监视器,英文全称:virtual machine monitor,英文简称:VMM),用于监控客户端的写入请求。分类器采集训练样本,用于训练机器学习模型。存储区包括写缓冲区和后端存储,后端存储包括SSD缓存和HDD,写策略决定是否将待写入数据加载到SSD缓存以及何时将SSD缓存中的脏数据下刷到HDD。如图8所示,当存在来自客户端的请求时,写策略的处理流程如下:
步骤一:将所有写入请求写入写缓冲区并顺序记录到日志文件中,在脏数据量达到阈值时通知存储服务器。
步骤二:当写缓冲区下刷数据时,分类器获取当前刷新数据块的所在区域的特征并分析其类型。如果当前刷新数据块存储的数据为只写数据,则执行步骤三,如果是普通数据,则执行步骤四。
步骤三:查找当前刷新数据块在SSD缓存中是否存在脏数据,若存在,则首先将SSD缓存中的脏数据下刷,写缓冲区中的下刷数据则直接写入HDD,流程结束。
步骤四:将下刷数据写入SSD缓存,然后采用写回策略异步刷新到HDD。此处使用写回策略而不是写穿策略的原因是SSD具有非易失性的优势,因此写回策略足以确保数据一致性。
其中,分类器每天训练一次模型以进行第二天的预测。在系统运行过程中收集训练样本。在SSD缓存存在需要剔除数据时,将剔除数据下刷到HDD,并添加一个训练样本。
实验结果如表2所示:
表2
写策略 | 命中率 | SSD写入流量 | 读取延迟 |
绕写策略 | 92.13% | 1 | 1.29ms |
写回策略 | 94.68% | 7.49 | 934.16μs |
本实施例的写策略 | 97.22% | 4.38 | 583.64μs |
在表2中,其他策略的写入流量被标准化为写入策略的写入流量。绕写策略实现了对SSD的最低写入流量(1),这是因为错误写入数据首先直接写入后端存储,然而,绕写策略获得最低命中率92.13%,并且引起最高读取延迟1.29ms。可见,绕写策略虽然实现了最低的SSD写入流量,但在命中率和读取延迟方面破坏了缓存性能。写回策略导致SSD的最大写入流量(7.49)。本实施例提供的写策略与写回策略相比,将命中率从94.68%提高到97.22%,提高了2.61%,并将读取延迟和写入流量减少了37.52%(934.16μs到583.64μs)和41.52%(从7.49到4.38)。由此可见,本实施例提供的写策略实现了最佳性能。
下面对本申请实施例提供的一种数据写入装置进行介绍,下文描述的一种数据写入装置与上文描述的一种数据写入方法可以相互参照。
参见图9,本申请实施例提供的一种数据写入装置的结构图,如图9所示,包括:
第一写入模块901,用于当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
获取模块902,用于当触发所述写缓冲区的数据下刷操作时,获取所述待下刷数据对应的数据块的历史访问数据;
判断模块903,用于基于所述历史访问数据判断待下刷数据是否为只写数据;
第二写入模块904,用于当所述待下刷数据为只写数据时,将所述待下刷数据写入硬盘驱动器中;
第三写入模块905,用于当所述待下刷数据为非只写数据时,将所述待下刷数据写入缓存中。
在本申请实施例中,将客户端产生的数据划分为不同的类型,即只写数据和普通数据。只写数据在一定时间窗口内只存在写操作,而不存在读操作,也就是说,客户端的读请求在该时间窗口内不会命中只写数据,将只写数据加载到缓存,不但不会提高缓存的读取命中率,还会对缓存造成大量非必要的写入流量。因此,本申请实施例提供的数据写入装置,对只写数据和普通数据采取不同的写入方式,对于普通数据采用写穿策略或写回策略,将其写入缓存。而对于只写数据采用绕写策略,即将其直接写入后端的硬盘驱动器,可以有效减少写入缓存的无用流量,同时在缓存中为普通数据留出更多空间,提高缓存空间利用率,从而提高缓存的读取命中率,提升存储系统的读性能。由此可见,本申请实施例提供的数据写入装置,实现了对缓存的最低写入流量,提高了写策略的效率。
在上述实施例的基础上,作为一种优选实施方式,所述第二写入模块904包括:
第一刷新单元,用于将所述缓存中所述待下刷数据对应的脏数据刷新至所述硬盘驱动器;
第一写入单元,用于将所述待下刷数据写入硬盘驱动器中。
在上述实施例的基础上,作为一种优选实施方式,所述第三写入模块905包括:
第二写入单元,用于将所述待下刷数据写入缓存中;
第二刷新单元,用于当满足预设条件时,将所述缓存中的数据刷新至所述硬盘驱动器中。
在上述实施例的基础上,作为一种优选实施方式,所述第三写入模块905具体为将所述待下刷数据同时写入所述缓存和所述硬盘驱动器中的模块。
在上述实施例的基础上,作为一种优选实施方式,所述获取模块902具体为当所述写缓冲区的数据量达到阈值时,触发写缓冲区的数据下刷操作,并获取所述待下刷数据对应的数据块的历史访问数据。
在上述实施例的基础上,作为一种优选实施方式,所述判断模块903具体为在所述历史访问数据中提取所述待下刷数据对应的数据块的特征信息作为第一特征信息,将所述第一特征信息输入训练完成的分类器中以便判断待下刷数据是否为只写数据的模块。
在上述实施例的基础上,作为一种优选实施方式,还包括:
标记模块,用于当所述缓存触发数据替换操作时,基于替换数据的历史读取数据对所述替换数据进行标记;
训练模块,用于获取所述替换数据对应的数据块的特征信息作为第二特征信息,并利用标记完成的替换数据和所述第二特征信息训练分类器得到所述训练完成的分类器。
在上述实施例的基础上,作为一种优选实施方式,所述训练模块包括:
确定单元,用于确定所述替换数据对应的数据块所属的数据区域;其中,所述数据区域包括多个数据块,所述数据区域的大小为访问粒度的整数倍;
提取单元,用于提取所述数据区域的特征信息作为所述第二特征信息;
训练单元,用于利用标记完成的替换数据和所述第二特征信息训练分类器得到所述训练完成的分类器。
在上述实施例的基础上,作为一种优选实施方式,所述特征信息包括时间特征和/或请求类特征;所述时间特征为描述访问数据块的时间的特征,所述请求类特征为描述访问数据块的请求的特征。
在上述实施例的基础上,作为一种优选实施方式,所述时间特征包括上次访问时间戳和/或平均重用时间差;所述上次访问时间戳描述上一次访问数据块的时间点,所述平均重用时间差描述访问数据块的平均时间间隔;
所述请求类特征包括平均请求大小、大请求比率、小请求比率和写请求比率中的任一项或任几项的组合;所述大请求比率描述访问数据块的请求中请求大小大于第一预设值的请求的比率,所述小请求比率描述访问数据块的请求中请求大小小于第二预设值的请求的比率,所述写请求比率描述访问数据块的请求中写请求的比率,所述第一预设值大于或等于所述第二预设值。
在上述实施例的基础上,作为一种优选实施方式,所述判断模块903具体为基于所述历史访问数据利用统计学方法判断待下刷数据是否为只写数据的模块。
在上述实施例的基础上,作为一种优选实施方式,所述判断模块903包括:
计算单元,用于基于所述历史访问数据确定多个时间窗口内所述待下刷数据对应的数据块的写请求次数,并根据所有所述写请求次数计算所述待下刷数据对应的数据块的只写概率;其中,所述只写概率描述所述数据块存储只写数据的概率;
判断单元,用于判断所述只写概率是否大于第三预设值,若是,则判定所述待下刷数据为所述只写数据,若否,则判定所述待下刷数据为所述普通数据。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请还提供了一种存储服务器,参见图10,本申请实施例提供的一种存储服务器200的结构图,如图10所示,可以包括处理器21和存储器22。
其中,处理器21可以包括多个处理核心,比如4核心处理器、8核心处理器等。处理器21可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器21也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器21可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器21还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器22可以包括多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器22还可包括高速随机存取存储器,以及非易失性存储器,比如多个磁盘存储设备、闪存存储设备。本实施例中,存储器22至少用于存储以下计算机程序221,其中,该计算机程序被处理器21加载并执行之后,能够实现前述任一实施例公开的由服务器侧执行的数据写入方法中的相关步骤。另外,存储器22所存储的资源还可以包括操作系统222和数据223等,存储方式可以是短暂存储或者永久存储。其中,操作系统222可以包括Windows、Unix、Linux等。
在一些实施例中,存储服务器20还可包括有显示屏23、输入输出接口24、通信接口25、传感器22、电源27以及通信总线28。
当然,图10所示的存储服务器的结构并不构成对本申请实施例中存储服务器的限定,在实际应用中存储服务器可以包括比图10所示的更多或更少的部件,或者组合某些部件。
在另一示例性实施例中,还提供了一种包括程序指令的计算机可读存储介质,该程序指令被处理器执行时实现上述任一实施例存储服务器所执行的数据写入方法的步骤。
说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的装置而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。应当指出,对于本技术领域的普通技术人员来说,在不脱离本申请原理的前提下,还可以对本申请进行若干改进和修饰,这些改进和修饰也落入本申请权利要求的保护范围内。
还需要说明的是,在本说明书中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。
Claims (14)
1.一种数据写入方法,其特征在于,包括:
当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
当触发所述写缓冲区的数据下刷操作时,获取待下刷数据对应的数据块的历史访问数据;
基于所述历史访问数据判断所述待下刷数据是否为只写数据;
若是,则将所述待下刷数据写入硬盘驱动器中;
若否,则将所述待下刷数据写入缓存中;
其中,所述基于所述历史访问数据判断待下刷数据是否为只写数据,包括:
在所述历史访问数据中提取所述待下刷数据对应的数据块的特征信息作为第一特征信息,将所述第一特征信息输入训练完成的分类器中以便判断待下刷数据是否为只写数据。
2.根据权利要求1所述数据写入方法,其特征在于,将所述待下刷数据写入硬盘驱动器中,包括:
将所述缓存中所述待下刷数据对应的脏数据刷新至所述硬盘驱动器;
将所述待下刷数据写入硬盘驱动器中。
3.根据权利要求1所述数据写入方法,其特征在于,将所述待下刷数据写入缓存中,包括:
将所述待下刷数据写入缓存中;
当满足预设条件时,将所述缓存中的数据刷新至所述硬盘驱动器中;其中,所述预设条件包括所述缓存的读取命中率小于预设值或所述缓存已满。
4.根据权利要求1所述数据写入方法,其特征在于,将所述待下刷数据写入缓存中,包括:
将所述待下刷数据同时写入所述缓存和所述硬盘驱动器中。
5.根据权利要求1所述数据写入方法,其特征在于,当触发所述写缓冲区的数据下刷操作时,获取待下刷数据对应的数据块的历史访问数据,包括:
当所述写缓冲区的数据量达到阈值时,触发所述写缓冲区的数据下刷操作,并获取待下刷数据对应的数据块的历史访问数据。
6.根据权利要求1所述数据写入方法,其特征在于,还包括:
当所述缓存触发数据替换操作时,基于替换数据的历史读取数据对所述替换数据进行标记;
获取所述替换数据对应的数据块的特征信息作为第二特征信息,并利用标记完成的替换数据和所述第二特征信息训练分类器得到所述训练完成的分类器。
7.根据权利要求6所述数据写入方法,其特征在于,所述获取所述替换数据对应的数据块的特征信息作为第二特征信息,包括:
确定所述替换数据对应的数据块所属的数据区域;其中,所述数据区域包括多个数据块,所述数据区域的大小为访问粒度的整数倍;
提取所述数据区域的特征信息作为所述第二特征信息。
8.根据权利要求1所述数据写入方法,其特征在于,所述特征信息包括时间特征和/或请求类特征;所述时间特征为描述访问数据块的时间的特征,所述请求类特征为描述访问数据块的请求的特征。
9.根据权利要求8所述数据写入方法,其特征在于,所述时间特征包括上次访问时间戳和/或平均重用时间差;所述上次访问时间戳描述上一次访问数据块的时间点,所述平均重用时间差描述访问数据块的平均时间间隔;
所述请求类特征包括平均请求大小、大请求比率、小请求比率和写请求比率中的任一项或任几项的组合;所述大请求比率描述访问数据块的请求中请求大小大于第一预设值的请求的比率,所述小请求比率描述访问数据块的请求中请求大小小于第二预设值的请求的比率,所述写请求比率描述访问数据块的请求中写请求的比率,所述第一预设值大于或等于所述第二预设值。
10.根据权利要求1至5中任一项所述数据写入方法,其特征在于,所述基于所述历史访问数据判断待下刷数据是否为只写数据,包括:
基于所述历史访问数据利用统计学方法判断待下刷数据是否为只写数据。
11.根据权利要求10所述数据写入方法,其特征在于,所述基于所述历史访问数据利用统计学方法判断待下刷数据是否为只写数据,包括:
基于所述历史访问数据确定多个时间窗口内所述待下刷数据对应的数据块的写请求次数,并根据所有所述写请求次数计算所述待下刷数据对应的数据块的只写概率;其中,所述只写概率描述所述数据块存储只写数据的概率;
判断所述只写概率是否大于第三预设值,若是,则判定所述待下刷数据为所述只写数据,若否,则判定所述待下刷数据为普通数据。
12.一种数据写入装置,其特征在于,包括:
第一写入模块,用于当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
获取模块,用于当触发所述写缓冲区的数据下刷操作时,获取待下刷数据对应的数据块的历史访问数据;
判断模块,用于基于所述历史访问数据判断所述待下刷数据是否为只写数据;
第二写入模块,用于当所述待下刷数据为只写数据时,将所述待下刷数据写入硬盘驱动器中;
第三写入模块,用于当所述待下刷数据为非只写数据时,将所述待下刷数据写入缓存中;
其中,所述判断模块具体为在所述历史访问数据中提取所述待下刷数据对应的数据块的特征信息作为第一特征信息,将所述第一特征信息输入训练完成的分类器中以便判断待下刷数据是否为只写数据的模块。
13.一种存储服务器,其特征在于,包括:
处理器和存储器;
其中,所述处理器用于执行所述存储器中存储的程序;
所述存储器用于存储程序,所述程序至少用于:
当接收到写入请求时,将所述写入请求对应的写入数据写入写缓冲区中;
当触发所述写缓冲区的数据下刷操作时,获取待下刷数据对应的数据块的历史访问数据;
基于所述历史访问数据判断所述待下刷数据是否为只写数据;其中,在所述历史访问数据中提取所述待下刷数据对应的数据块的特征信息作为第一特征信息,将所述第一特征信息输入训练完成的分类器中以便判断待下刷数据是否为只写数据;
若是,则将所述待下刷数据写入硬盘驱动器中;
若否,则将所述待下刷数据写入缓存中。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至11任一项所述数据写入方法的步骤。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911304631.1A CN111104066B (zh) | 2019-12-17 | 2019-12-17 | 数据写入方法、装置及存储服务器和计算机可读存储介质 |
PCT/CN2020/119881 WO2021120789A1 (zh) | 2019-12-17 | 2020-10-09 | 数据写入方法、装置及存储服务器和计算机可读存储介质 |
US17/523,730 US11947829B2 (en) | 2019-12-17 | 2021-11-10 | Data writing method, device, storage server, and computer readable storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911304631.1A CN111104066B (zh) | 2019-12-17 | 2019-12-17 | 数据写入方法、装置及存储服务器和计算机可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111104066A CN111104066A (zh) | 2020-05-05 |
CN111104066B true CN111104066B (zh) | 2021-07-27 |
Family
ID=70422581
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911304631.1A Active CN111104066B (zh) | 2019-12-17 | 2019-12-17 | 数据写入方法、装置及存储服务器和计算机可读存储介质 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11947829B2 (zh) |
CN (1) | CN111104066B (zh) |
WO (1) | WO2021120789A1 (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111104066B (zh) * | 2019-12-17 | 2021-07-27 | 华中科技大学 | 数据写入方法、装置及存储服务器和计算机可读存储介质 |
CN113805787A (zh) * | 2020-06-11 | 2021-12-17 | 中移(苏州)软件技术有限公司 | 数据写入方法、装置、设备及存储介质 |
CN111984552A (zh) * | 2020-08-21 | 2020-11-24 | 苏州浪潮智能科技有限公司 | 一种缓存管理方法、装置及电子设备和存储介质 |
CN112162693A (zh) * | 2020-09-04 | 2021-01-01 | 北京浪潮数据技术有限公司 | 一种数据刷写方法、装置、电子设备和存储介质 |
CN112130766A (zh) * | 2020-09-17 | 2020-12-25 | 山东云海国创云计算装备产业创新中心有限公司 | 一种基于Flash存储器的写数据方法、装置、设备及存储介质 |
CN114817319A (zh) * | 2021-01-21 | 2022-07-29 | 华为云计算技术有限公司 | 一种缓存管理方法、装置及设备 |
CN113076062B (zh) * | 2021-03-30 | 2023-01-06 | 山东英信计算机技术有限公司 | 一种提升qlcssd寿命的方法和设备 |
CN113204573B (zh) * | 2021-05-21 | 2023-07-07 | 珠海金山数字网络科技有限公司 | 一种数据读写访问系统及方法 |
CN113534566B (zh) * | 2021-06-10 | 2022-04-29 | 华中科技大学 | 一种光学可编程逻辑阵列器件 |
CN113703673B (zh) * | 2021-07-30 | 2023-09-22 | 郑州云海信息技术有限公司 | 一种单机数据存储方法及相关装置 |
CN114327280B (zh) * | 2021-12-29 | 2024-02-09 | 以萨技术股份有限公司 | 一种基于冷热分离存储的消息存储方法及系统 |
CN115328402A (zh) * | 2022-08-18 | 2022-11-11 | 三星(中国)半导体有限公司 | 数据缓存的方法和装置 |
CN117666937A (zh) * | 2022-08-31 | 2024-03-08 | 华为技术有限公司 | 存储的方法、装置和电子设备 |
CN115758206B (zh) * | 2022-11-07 | 2023-05-16 | 武汉麓谷科技有限公司 | 一种快速查找ZNS固态硬盘中NorFlash上次写结束位置的方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101201735A (zh) * | 2006-12-11 | 2008-06-18 | 国际商业机器公司 | 用于以通过式存储模式操作分级缓存系统的方法和设备 |
CN103049395A (zh) * | 2012-12-10 | 2013-04-17 | 记忆科技(深圳)有限公司 | 缓存存储设备数据的方法及其系统 |
CN103942010A (zh) * | 2013-01-22 | 2014-07-23 | Lsi公司 | 用于写入非易失性存储器的管理及区域选择 |
CN107710169A (zh) * | 2016-02-19 | 2018-02-16 | 华为技术有限公司 | 一种闪存设备的访问方法和装置 |
CN109947363A (zh) * | 2018-12-11 | 2019-06-28 | 深圳供电局有限公司 | 一种分布式存储系统的数据缓存方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8117409B2 (en) * | 2006-11-22 | 2012-02-14 | Hitachi, Ltd. | Method and apparatus for backup and restore in a dynamic chunk allocation storage system |
CN104461935B (zh) * | 2014-11-27 | 2018-03-13 | 华为技术有限公司 | 一种进行数据存储的方法、装置及系统 |
CN104571954B (zh) * | 2014-12-26 | 2018-05-18 | 杭州华为数字技术有限公司 | 一种数据存储方法及装置 |
US10324799B2 (en) * | 2017-09-28 | 2019-06-18 | International Business Machines Corporation | Enhanced application write performance |
CN109725824A (zh) * | 2017-10-27 | 2019-05-07 | 伊姆西Ip控股有限责任公司 | 用于向存储系统中的盘阵列写入数据的方法和设备 |
CN110019210B (zh) * | 2017-11-24 | 2024-01-09 | 阿里云计算有限公司 | 数据写入方法及设备 |
CN110007870A (zh) * | 2019-04-12 | 2019-07-12 | 苏州浪潮智能科技有限公司 | 一种存储设备写请求处理方法及相关装置 |
CN110262758B (zh) * | 2019-06-28 | 2023-07-14 | 深信服科技股份有限公司 | 一种数据存储管理方法、系统及相关设备 |
CN110427158B (zh) * | 2019-07-29 | 2023-06-20 | 浙江华忆芯科技有限公司 | 固态硬盘的写入方法及固态硬盘 |
KR20210026103A (ko) * | 2019-08-29 | 2021-03-10 | 에스케이하이닉스 주식회사 | 저장 장치 및 그 동작 방법 |
CN111104066B (zh) * | 2019-12-17 | 2021-07-27 | 华中科技大学 | 数据写入方法、装置及存储服务器和计算机可读存储介质 |
-
2019
- 2019-12-17 CN CN201911304631.1A patent/CN111104066B/zh active Active
-
2020
- 2020-10-09 WO PCT/CN2020/119881 patent/WO2021120789A1/zh active Application Filing
-
2021
- 2021-11-10 US US17/523,730 patent/US11947829B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101201735A (zh) * | 2006-12-11 | 2008-06-18 | 国际商业机器公司 | 用于以通过式存储模式操作分级缓存系统的方法和设备 |
CN103049395A (zh) * | 2012-12-10 | 2013-04-17 | 记忆科技(深圳)有限公司 | 缓存存储设备数据的方法及其系统 |
CN103942010A (zh) * | 2013-01-22 | 2014-07-23 | Lsi公司 | 用于写入非易失性存储器的管理及区域选择 |
CN107710169A (zh) * | 2016-02-19 | 2018-02-16 | 华为技术有限公司 | 一种闪存设备的访问方法和装置 |
CN109947363A (zh) * | 2018-12-11 | 2019-06-28 | 深圳供电局有限公司 | 一种分布式存储系统的数据缓存方法 |
Also Published As
Publication number | Publication date |
---|---|
US20220066691A1 (en) | 2022-03-03 |
CN111104066A (zh) | 2020-05-05 |
US11947829B2 (en) | 2024-04-02 |
WO2021120789A1 (zh) | 2021-06-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111104066B (zh) | 数据写入方法、装置及存储服务器和计算机可读存储介质 | |
JP2013521579A5 (zh) | ||
CN110673789B (zh) | 固态硬盘的元数据存储管理方法、装置、设备及存储介质 | |
CN108846021B (zh) | 一种基于用户访问偏好模型的海量小文件存储方法 | |
CN109983459B (zh) | 用于标识语料库中出现的n-gram的计数的方法和设备 | |
WO2020231382A1 (en) | Cache optimization via topics in web search engines | |
JP2014220021A (ja) | 情報処理装置、制御回路、制御プログラム、および制御方法 | |
Zhang et al. | A machine learning based write policy for SSD cache in cloud block storage | |
US20090276600A1 (en) | Method and apparatus for determining memory usage for a computing device | |
CN115048053A (zh) | 数据存储方法、装置以及电子设备 | |
CN109783019A (zh) | 一种数据智能存储管理方法与装置 | |
US20200311604A1 (en) | Accelerated data access for training | |
CN105068941A (zh) | 一种缓存页面替换方法及装置 | |
CN103455428B (zh) | 数据储存装置与闪存操作方法 | |
CN103049395A (zh) | 缓存存储设备数据的方法及其系统 | |
CN105359116B (zh) | 缓存器、共享缓存管理方法及控制器 | |
Borba et al. | Stochastic modeling for performance and availability evaluation of hybrid storage systems | |
KR102627410B1 (ko) | 서비스 품질 더티 라인 추적 | |
CN112000289B (zh) | 全闪存储服务器系统数据管理方法及相关组件 | |
CN113268437A (zh) | 一种主动触发内存整理的方法与设备 | |
CN113138718A (zh) | 用于分布式块存储系统的存储方法、设备、系统和介质 | |
CN112446490A (zh) | 一种网络训练的数据集缓存方法、装置、设备及存储介质 | |
Lee et al. | File Access Characteristics of Deep Learning Workloads and Cache-Friendly Data Management | |
CN113076062A (zh) | 一种提升qlcssd寿命的方法和设备 | |
Groves et al. | Unraveling network-induced memory contention: Deeper insights with machine learning |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |