WO2023004991A1 - 一种文件读写业务的处理方法、系统、设备以及介质 - Google Patents

一种文件读写业务的处理方法、系统、设备以及介质 Download PDF

Info

Publication number
WO2023004991A1
WO2023004991A1 PCT/CN2021/121898 CN2021121898W WO2023004991A1 WO 2023004991 A1 WO2023004991 A1 WO 2023004991A1 CN 2021121898 W CN2021121898 W CN 2021121898W WO 2023004991 A1 WO2023004991 A1 WO 2023004991A1
Authority
WO
WIPO (PCT)
Prior art keywords
file
handle
cache
queue
read
Prior art date
Application number
PCT/CN2021/121898
Other languages
English (en)
French (fr)
Inventor
王帅阳
李文鹏
李旭东
Original Assignee
苏州浪潮智能科技有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 苏州浪潮智能科技有限公司 filed Critical 苏州浪潮智能科技有限公司
Priority to US18/270,457 priority Critical patent/US20240061599A1/en
Publication of WO2023004991A1 publication Critical patent/WO2023004991A1/zh

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/13File access structures, e.g. distributed indices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/17Details of further file system functions
    • G06F16/172Caching, prefetching or hoarding of files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/10File systems; File servers
    • G06F16/18File system types
    • G06F16/182Distributed file systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0638Organizing or formatting or addressing of data
    • G06F3/0643Management of files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device

Definitions

  • the present application relates to the field of storage, and in particular to a processing method, system, device and storage medium for file reading and writing services.
  • the distributed file system For a distributed file system (object storage), when HDFS protocol is accessed, because it is a stateless access (the client will not send open and close requests to the storage end like the standard posix protocol), the distributed file system receives and reads each time When requesting, the file handle needs to be opened to realize the read and write business, and then the file handle is closed after completion. This will cause a large number of requests to open and close the file handle, which will cause a lot of load on the system and increase the delay of each read and write IO.
  • an embodiment of the present application proposes a method for processing file reading and writing services, including the following steps:
  • the cache handle of the file is moved from the first queue to the second queue.
  • the corresponding cache handle in the index container is deleted according to the file serial number in the cache handle whose usage time exceeds the threshold, and the corresponding handle is closed according to the handle pointer.
  • the corresponding cache handles in the index container are deleted according to the file serial numbers in the several cache handles, and the corresponding handles are closed according to the handle pointers.
  • moving the cache handle of the file from the first queue to the second queue further includes:
  • the read and write services are processed by using the corresponding handle of the reopened file.
  • an embodiment of the present application also provides a processing system for file reading and writing services, including:
  • the judging module is configured to, in response to receiving the read and write business of the file, judge whether there is a cache handle of the file in the index container according to the serial number of the file;
  • the opening module is configured to open the corresponding handle of the file according to the read and write service in response to the absence of the cache handle of the file in the index container;
  • An encapsulation module configured to encapsulate the flag and pointer of the corresponding handle and the serial number of the file to obtain the cache handle of the file;
  • a cache module configured to add the cache handle of the file to the index container and the first queue
  • a processing module configured to process the read and write services by using the corresponding handle of the file
  • the moving module is configured to move the cache handle of the file from the first queue to the second queue in response to the completion of the read and write business processing.
  • an embodiment of the present application also provides a computer device, including:
  • a memory stores a computer program that can run on the processor, wherein when the processor executes the program, it executes the steps of any one of the methods for processing file read and write services as described above.
  • the embodiment of the present application also provides a computer-readable storage medium, the computer-readable storage medium stores a computer program, and when the computer program is executed by a processor, Execute the steps of any one of the processing methods for file reading and writing services as described above.
  • the present application has one of the following beneficial technical effects: the scheme proposed by the embodiment of the present application is used for fast query mapping from files to handles through the index container, used for handle protection through the first queue, and used for high-efficiency invalidation through the second queue Handle detection can effectively reduce the pressure and frequency of file handle processing when reading and writing distributed file systems, thereby reducing the file reading and writing delay under reading and writing io.
  • Fig. 1 is a schematic flow diagram of a processing method for file reading and writing services provided by an embodiment of the present application
  • FIG. 2 is a schematic structural diagram of a processing system for file reading and writing services provided by an embodiment of the present application
  • FIG. 3 is a schematic structural diagram of a computer device provided by an embodiment of the present application.
  • FIG. 4 is a schematic structural diagram of a computer-readable storage medium provided by an embodiment of the present application.
  • an embodiment of the present application proposes a processing method for file reading and writing services, as shown in FIG. 1 , which may include steps:
  • step S1 in response to receiving the read and write business of the file, it is judged according to the serial number of the file whether there is a cache handle of the file in the index container.
  • the index container can be an STL standard template class, such that , when the cache handle of the file is added to the index container, the serial number of the file can be retrieved to determine the corresponding cache handle.
  • the when receiving a read and write service for a file when receiving a read and write service for a file, it can first search in the index container according to the file serial number (such as the ino number of the file) to determine whether there is a cache handle cached in the index container, if not , indicating that the handle of the file has not been opened, you need to open the corresponding handle of the distributed file system according to the read and write business, that is, open the read handle for the read business, open the read and write handle for the write business, and then mark and pointer the handle of the file And the file sequence number is encapsulated to obtain the cache handle of the file, and the cache handle is saved in the index container and the first queue, and then the opened handle can be used to perform read and write services, and finally when the read and write services After execution, move the cache handle from the first queue to the second queue.
  • the file serial number such as the ino number of the file
  • the cache handle when the cache handle exists in the first queue, it indicates that the handle is being used for reading and writing services, and when the cache handle exists in the second queue, it indicates that the handle is not in use.
  • the scheme proposed in the embodiment of the present application uses the index container for fast query mapping from files to handles, uses the first queue for handle protection, and uses the second queue for efficient invalid handle detection, effectively reducing the distributed file system read.
  • the file handle handles the pressure and frequency, thereby reducing the file read and write delay under the read and write io.
  • the corresponding cache handle in the index container is deleted according to the file serial number in the cache handle whose usage time exceeds the threshold, and the corresponding handle is closed according to the handle pointer.
  • the use time and time threshold can be set for each cache handle in the second queue.
  • the usage time is updated. If the cache handle in the second queue has not updated the usage time for a long time, that is, it exceeds the set time threshold, then the cache in the second queue can be The handle is eliminated, and the same cache handle is found in the index container according to the file serial number, and deleted, and finally the corresponding handle under the distributed file system is closed according to the handle pointer.
  • the corresponding cache handles in the index container are deleted according to the file serial numbers in the several cache handles, and the corresponding handles are closed according to the handle pointers.
  • the number of cache handles in the second queue may be limited, and when the number of cache handles in the second queue reaches a preset number, several cache handles may be deleted from the end of the second queue.
  • the cache handle in the second queue can be removed first, then the same cache handle can be found in the index container according to the file serial number and deleted, and finally the corresponding handle under the distributed file system can be closed according to the handle pointer.
  • the cache handle when moving the cache handle from the first queue to the second queue, it can be placed at the head of the second queue, so that the tail of the second queue is a relatively long cache handle, so when When the number of cache handles in the second queue exceeds the threshold, they may be preferentially removed from the tail of the second queue.
  • the corresponding cache handle when receiving a read and write service for a file, the corresponding cache handle can be found in the index container through the serial number of the file, and it is necessary to judge whether the handle flag in the cache handle corresponds to the read and write service, that is, handle flags detection . Due to different reading and writing, the flags required by io are different. If it is a write operation, the rw flag is required, and if it is a read operation, the r flag is required. If the required flag is not included in the cache handle, the file handle needs to be reopened according to the flag required by the read and write business. .
  • the handle flag in the cache handle of the file corresponds to the read-write service and the cache handle of the file is in the second queue, move the cache handle in the second queue to the first In a queue, and use the corresponding handle of the opened file to process the read and write business.
  • the handle flag in the cache handle of the file corresponds to the read-write service and the cache handle of the file is in the first queue, it means that there are other threads using the corresponding handle at this time, so
  • the use count can be set, and when other threads use the corresponding handle of the opened file to perform read and write services, the use count of the cache handle of the file can be increased. When the threaded read and write business is completed, the usage count can be reduced.
  • the read and write services are processed by using the corresponding handle of the reopened file.
  • the handle flag in the cache handle of the file does not correspond to the read and write business, the handle needs to be reopened.
  • the cache handle can be directly removed from the second queue and the index container, and then the corresponding handle is closed according to the handle pointer, and then the corresponding handle of the file is reopened according to the read and write business, and all Encapsulate the mark and pointer of the corresponding handle and the file serial number to obtain a new cache handle of the file, and save the new cache handle into the first queue and the index container.
  • moving the cache handle of the file from the first queue to the second queue further includes:
  • the use count is 0, it means that no thread is using the handle at this time, so the corresponding cache handle can be moved to the second queue, and the usage time of the cache handle can be updated.
  • the scheme proposed in the embodiment of the present application uses the index container for fast query mapping from files to handles, uses the first queue for handle protection, and uses the second queue for efficient invalid handle detection, effectively reducing the distributed file system read.
  • the file handle handles the pressure and frequency, thereby reducing the file read and write delay under the read and write io.
  • the embodiment of the present application also provides a processing system 400 for file reading and writing services, as shown in FIG. 2 , including:
  • the judging module 401 is configured to judge whether there is a cache handle of the file in the index container according to the serial number of the file in response to receiving the read-write service of the file;
  • the opening module 402 is configured to open the corresponding handle of the file according to the read and write service in response to the absence of the cache handle of the file in the index container;
  • An encapsulation module 403, configured to encapsulate the identifier and pointer of the corresponding handle and the serial number of the file to obtain the cache handle of the file;
  • the cache module 404 is configured to add the cache handle of the file to the index container and the first queue;
  • the processing module 405 is configured to use the corresponding handle of the file to process the read and write services
  • the moving module 406 is configured to move the cache handle of the file from the first queue to the second queue in response to the completion of the read and write business processing.
  • the corresponding cache handle in the index container is deleted according to the file serial number in the cache handle whose usage time exceeds the threshold, and the corresponding handle is closed according to the handle pointer.
  • the corresponding cache handles in the index container are deleted according to the file serial numbers in the several cache handles, and the corresponding handles are closed according to the handle pointers.
  • moving the cache handle of the file from the first queue to the second queue further includes:
  • the read and write services are processed by using the corresponding handle of the reopened file.
  • the scheme proposed in the embodiment of the present application uses the index container for fast query mapping from files to handles, uses the first queue for handle protection, and uses the second queue for efficient invalid handle detection, effectively reducing the distributed file system read.
  • the file handle handles the pressure and frequency, thereby reducing the file read and write delay under the read and write io.
  • an embodiment of the present application also provides a computer device 501, including:
  • Memory 510 stores a computer program 511 that can run on the processor, and the processor 520 performs the following steps when executing the program:
  • the corresponding cache handle in the index container is deleted according to the file serial number in the cache handle whose usage time exceeds the threshold, and the corresponding handle is closed according to the handle pointer.
  • the corresponding cache handles in the index container are deleted according to the file serial numbers in the several cache handles, and the corresponding handles are closed according to the handle pointers.
  • moving the cache handle of the file from the first queue to the second queue further includes:
  • the read and write services are processed by using the corresponding handle of the reopened file.
  • the scheme proposed in the embodiment of the present application uses the index container for fast query mapping from files to handles, uses the first queue for handle protection, and uses the second queue for efficient invalid handle detection, effectively reducing the distributed file system read.
  • the file handle handles the pressure and frequency, thereby reducing the file read and write delay under the read and write io.
  • the corresponding cache handle in the index container is deleted according to the file serial number in the cache handle whose usage time exceeds the threshold, and the corresponding handle is closed according to the handle pointer.
  • the corresponding cache handles in the index container are deleted according to the file serial numbers in the several cache handles, and the corresponding handles are closed according to the handle pointers.
  • moving the cache handle of the file from the first queue to the second queue further includes:
  • the read and write services are processed by using the corresponding handle of the reopened file.
  • the scheme proposed in the embodiment of the present application uses the index container for fast query mapping from files to handles, uses the first queue for handle protection, and uses the second queue for efficient invalid handle detection, effectively reducing the distributed file system read.
  • the file handle handles the pressure and frequency, thereby reducing the file read and write delay under the read and write io.
  • a computer-readable storage medium eg, memory

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请公开了一种文件读写业务的处理方法,包括以下步骤:响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在文件的缓存句柄;响应于索引容器中不存在文件的缓存句柄,根据读写业务打开文件的相应句柄;将相应句柄的标志和指针以及文件序号进行封装以得到文件的缓存句柄;将文件的缓存句柄加入到索引容器和第一队列中;利用文件的相应句柄对读写业务进行处理;响应于读写业务处理完成,将文件的缓存句柄从第一队列移动到第二队列中。本申请还公开了一种系统、计算机设备以及可读存储介质。本申请的实施例提出的方案有效降低分布式文件系统读写时文件句柄处理压力与频度。

Description

一种文件读写业务的处理方法、系统、设备以及介质
本申请要求在2021年7月28日提交中国专利局、申请号为202110853962.1、发明名称为“一种文件读写业务的处理方法、系统、设备以及介质”的中国专利申请的优先权,其全部内容通过引用结合在本申请中。
技术领域
本申请涉及存储领域,具体涉及一种文件读写业务的处理方法、系统、设备以及存储介质。
背景技术
对于分布式文件系统(对象存储),HDFS协议访问时,由于是无状态访问(客户端不会像标准posix协议一样向存储端发送open、close请求),分布式文件系统在每次接收读写请求时需要打开文件句柄,实现读写业务,完成后再关闭文件句柄,这样造成大量的打开关闭文件句柄请求,对系统造成大量的负载,同时增大了每次读写IO的时延。
发明内容
有鉴于此,为了克服上述问题的至少一个方面,本申请实施例提出一种文件读写业务的处理方法,包括以下步骤:
响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在所述文件的缓存句柄;
响应于所述索引容器中不存在所述文件的缓存句柄,根据所述读写业务打开所述文件的相应句柄;
将所述相应句柄的标志和指针以及所述文件序号进行封装以得到所述 文件的缓存句柄;
将所述文件的缓存句柄加入到所述索引容器和第一队列中;
利用所述文件的相应句柄对所述读写业务进行处理;
响应于所述读写业务处理完成,将所述文件的缓存句柄从所述第一队列移动到第二队列中。
在一些实施例中,还包括:
对所述第二队列中的每一个缓存句柄的使用时间进行检测以判断使用时间是否超过阈值;
响应于存在使用时间超过阈值的缓存句柄,将使用时间超过阈值的缓存句柄从所述第二队列中删除;
根据使用时间超过阈值的缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
在一些实施例中,还包括:
响应于所述第二队列中的缓存句柄的数量达到预设数量,从所述第二队列的尾部开始删除若干个缓存句柄;
分别根据若干个缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
在一些实施例中,还包括:
响应于所述索引容器中存在所述文件的缓存句柄,判断所述文件的缓存句柄中的句柄标志是否与所述读写业务对应;
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第二队列中,将所述第二队列中的缓存句柄移动到所述第一队列中,并利用已经打开的所述文件的相应句柄对所述读写业务进行处理。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述 文件的缓存句柄在所述第一队列中,利用已经打开的所述文件的相应句柄对所述读写业务进行处理,并更新所述文件的缓存句柄的使用计数。
在一些实施例中,将所述文件的缓存句柄从所述第一队列移动到第二队列中,进一步包括:
判断所述文件的缓存句柄的使用计数是否达到预设值;
响应于所述文件的缓存句柄的使用计数达到预设值,将所述文件的缓存句柄移动到所述第二队列的头部;
更新所述文件的缓存句柄的使用时间。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务不对应且所述文件的缓存句柄在所述第二队列中,将所述文件的缓存句柄从所述第二队列中和所述索引容器中删除,并根据句柄指针将对应的句柄关闭;
根据所述读写业务重新打开所述文件的相应句柄;
将所述相应句柄的标志和指针以及所述文件序号进行封装以得到文件的新缓存句柄;
将所述文件的新缓存句柄加入到所述索引容器和第一队列中;
利用重新打开的所述文件的相应句柄对所述读写业务进行处理。
基于同一发明构思,根据本申请的另一个方面,本申请的实施例还提供了一种文件读写业务的处理系统,包括:
判断模块,配置为响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在所述文件的缓存句柄;
打开模块,配置为响应于所述索引容器中不存在所述文件的缓存句柄,根据所述读写业务打开所述文件的相应句柄;
封装模块,配置为将所述相应句柄的标志和指针以及所述文件序号进行封装以得到所述文件的缓存句柄;
缓存模块,配置为将所述文件的缓存句柄加入到所述索引容器和第一 队列中;
处理模块,配置为利用所述文件的相应句柄对所述读写业务进行处理;
移动模块,配置为响应于所述读写业务处理完成,将所述文件的缓存句柄从所述第一队列移动到第二队列中。
基于同一发明构思,根据本申请的另一个方面,本申请的实施例还提供了一种计算机设备,包括:
至少一个处理器;以及
存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如上所述的任一种文件读写业务的处理方法的步骤。
基于同一发明构思,根据本申请的另一个方面,本申请的实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时执行如上所述的任一种文件读写业务的处理方法的步骤。
本申请具有以下有益技术效果之一:本申请的实施例提出的方案通过索引容器用于文件到句柄的快速查询映射,通过第一队列用于句柄保护,通过第二队列用于高效率的失效句柄检测,有效降低分布式文件系统读写时文件句柄处理压力与频度,进而降低了读写io下的文件读写时延。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的实施例。
图1为本申请的实施例提供的文件读写业务的处理方法的流程示意图;
图2为本申请的实施例提供的文件读写业务的处理系统的结构示意图;
图3为本申请的实施例提供的计算机设备的结构示意图;
图4为本申请的实施例提供的计算机可读存储介质的结构示意图。
具体实施方式
为使本申请的目的、技术方案和优点更加清楚明白,以下结合具体实施例,并参照附图,对本申请实施例进一步详细说明。
需要说明的是,本申请实施例中所有使用“第一”和“第二”的表述均是为了区分两个相同名称非相同的实体或者非相同的参量,可见“第一”“第二”仅为了表述的方便,不应理解为对本申请实施例的限定,后续实施例对此不再一一说明。
根据本申请的一个方面,本申请的实施例提出一种文件读写业务的处理方法,如图1所示,其可以包括步骤:
S1,响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在所述文件的缓存句柄;
S2,响应于所述索引容器中不存在所述文件的缓存句柄,根据所述读写业务打开所述文件的相应句柄;
S3,将所述相应句柄的标志和指针以及所述文件序号进行封装以得到所述文件的缓存句柄;
S4,将所述文件的缓存句柄加入到所述索引容器和第一队列中;
S5,利用所述文件的相应句柄对所述读写业务进行处理;
S6,响应于所述读写业务处理完成,将所述文件的缓存句柄从所述第一队列移动到第二队列中。
在一些实施例中,步骤S1中,响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在所述文件的缓存句柄,具体的,索引容器可以是为STL标准模板类,这样,当将文件的缓存句柄加入到索引容器后即可通过文件的序号进行检索进而确定对应的缓存句柄。
在一些实施例中,当接收到对一个文件的读写业务时,首先可以在索引容器中根据文件序号(例如文件的ino号)进行检索,以确定索引容器中是 否缓存有缓存句柄,如果没有,说明该文件的句柄并未被打开,则需要根据读写业务打开分布式文件系统相应的句柄,即读业务打开读句柄,写业务打开读写句柄,然后将该文件的句柄的标志和指针以及所述文件序号进行封装以得到所述文件的缓存句柄,并将该缓存句柄保存到索引容器中和第一队列中,接着即可利用已经打开的句柄进行读写业务,最后当读写业务执行完毕后,将缓存句柄从第一队列中移动到第二队列中。
因此,当缓存句柄存在于第一队列时,说明句柄正在被使用以进行读写业务,当缓存句柄存在于第二队列时,说明句柄并未被使用。
本申请的实施例提出的方案通过索引容器用于文件到句柄的快速查询映射,通过第一队列用于句柄保护,通过第二队列用于高效率的失效句柄检测,有效降低分布式文件系统读写时文件句柄处理压力与频度,进而降低了读写io下的文件读写时延。
在一些实施例中,还包括:
对所述第二队列中的每一个缓存句柄的使用时间进行检测以判断使用时间是否超过阈值;
响应于存在使用时间超过阈值的缓存句柄,将使用时间超过阈值的缓存句柄从所述第二队列中删除;
根据使用时间超过阈值的缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
具体的,当缓存句柄存在于第二队列时,说明对应的句柄并未被使用,因此可以对第二队列中的每一个缓存句柄设置使用时间,并设置时间阈值。当缓存句柄从第一队列移动到第二队列中时更新使用时间,若第二队列中的缓存句柄长时间未更新使用时间,即超过设置的时间阈值,这时可以将第二队列中的缓存句柄剔除,以及根据文件序号在索引容器中找到相同的缓存句柄,并删除,最后在根据句柄指针将分布式文件系统下相应的句柄关闭。
在一些实施例中,还包括:
响应于所述第二队列中的缓存句柄的数量达到预设数量,从所述第二 队列的尾部开始删除若干个缓存句柄;
分别根据若干个缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
具体的,可以对第二队列中缓存句柄的数量进行限定,当第二队列中的缓存句柄的数量达到预设数量时,则可以从第二队列的尾部开始删除若干个缓存句柄。同样的,可以先将第二队列中的缓存句柄剔除,然后在根据文件序号在索引容器中找到相同的缓存句柄,并删除,最后在根据句柄指针将分布式文件系统下相应的句柄关闭。
需要说明的是,当将缓存句柄从第一队列移动到第二队列时,可以将其放在第二队列的头部,这样第二队列的尾部即为时间相对较长的缓存句柄,因此当第二队列中的缓存句柄的数量超过阈值时,可以优先从第二队列的尾部进行剔除。
在一些实施例中,还包括:
响应于所述索引容器中存在所述文件的缓存句柄,判断所述文件的缓存句柄中的句柄标志是否与所述读写业务对应;
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第二队列中,将所述第二队列中的缓存句柄移动到所述第一队列中,并利用已经打开的所述文件的相应句柄对所述读写业务进行处理。
具体的,当接收到对文件的读写业务时,通过文件的序号在索引容器中能够找到对应的缓存句柄,需要判断该缓存句柄中的句柄标志与读写业务是否对应,即进行句柄flags检测。由于读写不同,io需要的flag不同,如果是写操作需要rw标志,如果是读操作需要r标志,如果缓存句柄中未包含所需要的flag,需要根据读写业务需要的flag重新打开文件句柄。
因此,如果所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第二队列中,将所述第二队列中的缓存句柄移动到所述第一队列中,并利用已经打开的所述文件的相应句柄对所述读写 业务进行处理。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第一队列中,利用已经打开的所述文件的相应句柄对所述读写业务进行处理,并更新所述文件的缓存句柄的使用计数。
具体的,如果所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第一队列中,说明此时有别的线程在使用对应的句柄,因此可以设置使用计数,当有其他线程利用已经打开的所述文件的相应句柄进行读写业务,则可以增加所述文件的缓存句柄的使用计数。当有线程的读写业务完成后,则可以减少使用计数。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务不对应且所述文件的缓存句柄在所述第二队列中,将所述文件的缓存句柄从所述第二队列中和所述索引容器中删除,并根据句柄指针将对应的句柄关闭;
根据所述读写业务重新打开所述文件的相应句柄;
将所述相应句柄的标志和指针以及所述文件序号进行封装以得到文件的新缓存句柄;
将所述文件的新缓存句柄加入到所述索引容器和第一队列中;
利用重新打开的所述文件的相应句柄对所述读写业务进行处理。
具体的,如果所述文件的缓存句柄中的句柄标志与所述读写业务不对应,则需要重新打开句柄,此时如果文件的缓存句柄在所述第二队列中,说明并没有线程使用当前的句柄,因此可以直接将缓存句柄从第二队列以及索引容器中剔除,然后再根据句柄指针将对应的句柄关闭,然后再根据所述读写业务重新打开所述文件的相应句柄,并将所述相应句柄的标志和指针以及所述文件序号进行封装以得到文件的新缓存句柄,以及将新的缓存句柄保存到第一队列和索引容器中。
在一些实施例中,将所述文件的缓存句柄从所述第一队列移动到第二队列中,进一步包括:
判断所述文件的缓存句柄的使用计数是否达到预设值;
响应于所述文件的缓存句柄的使用计数达到预设值,将所述文件的缓存句柄移动到所述第二队列的头部;
更新所述文件的缓存句柄的使用时间。
具体的,当使用计数为0时,说明此时没有线程使用该句柄,因此可以将对应的缓存句柄移动到第二队列中,并更新缓存句柄的使用时间。
本申请的实施例提出的方案通过索引容器用于文件到句柄的快速查询映射,通过第一队列用于句柄保护,通过第二队列用于高效率的失效句柄检测,有效降低分布式文件系统读写时文件句柄处理压力与频度,进而降低了读写io下的文件读写时延。
基于同一发明构思,根据本申请的另一个方面,本申请的实施例还提供了一种文件读写业务的处理系统400,如图2所示,包括:
判断模块401,配置为响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在所述文件的缓存句柄;
打开模块402,配置为响应于所述索引容器中不存在所述文件的缓存句柄,根据所述读写业务打开所述文件的相应句柄;
封装模块403,配置为将所述相应句柄的标志和指针以及所述文件序号进行封装以得到所述文件的缓存句柄;
缓存模块404,配置为将所述文件的缓存句柄加入到所述索引容器和第一队列中;
处理模块405,配置为利用所述文件的相应句柄对所述读写业务进行处理;
移动模块406,配置为响应于所述读写业务处理完成,将所述文件的缓存句柄从所述第一队列移动到第二队列中。
在一些实施例中,还包括:
对所述第二队列中的每一个缓存句柄的使用时间进行检测以判断使用时间是否超过阈值;
响应于存在使用时间超过阈值的缓存句柄,将使用时间超过阈值的缓存句柄从所述第二队列中删除;
根据使用时间超过阈值的缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
在一些实施例中,还包括:
响应于所述第二队列中的缓存句柄的数量达到预设数量,从所述第二队列的尾部开始删除若干个缓存句柄;
分别根据若干个缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
在一些实施例中,还包括:
响应于所述索引容器中存在所述文件的缓存句柄,判断所述文件的缓存句柄中的句柄标志是否与所述读写业务对应;
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第二队列中,将所述第二队列中的缓存句柄移动到所述第一队列中,并利用已经打开的所述文件的相应句柄对所述读写业务进行处理。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第一队列中,利用已经打开的所述文件的相应句柄对所述读写业务进行处理,并更新所述文件的缓存句柄的使用计数。
在一些实施例中,将所述文件的缓存句柄从所述第一队列移动到第二队列中,进一步包括:
判断所述文件的缓存句柄的使用计数是否达到预设值;
响应于所述文件的缓存句柄的使用计数达到预设值,将所述文件的缓存句柄移动到所述第二队列的头部;
更新所述文件的缓存句柄的使用时间。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务不对应且所述文件的缓存句柄在所述第二队列中,将所述文件的缓存句柄从所述第二队列中和所述索引容器中删除,并根据句柄指针将对应的句柄关闭;
根据所述读写业务重新打开所述文件的相应句柄;
将所述相应句柄的标志和指针以及所述文件序号进行封装以得到文件的新缓存句柄;
将所述文件的新缓存句柄加入到所述索引容器和第一队列中;
利用重新打开的所述文件的相应句柄对所述读写业务进行处理。
本申请的实施例提出的方案通过索引容器用于文件到句柄的快速查询映射,通过第一队列用于句柄保护,通过第二队列用于高效率的失效句柄检测,有效降低分布式文件系统读写时文件句柄处理压力与频度,进而降低了读写io下的文件读写时延。
基于同一发明构思,根据本申请的另一个方面,如图3所示,本申请的实施例还提供了一种计算机设备501,包括:
至少一个处理器520;以及
存储器510,存储器510存储有可在处理器上运行的计算机程序511,处理器520执行程序时执行以下步骤:
S1,响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在所述文件的缓存句柄;
S2,响应于所述索引容器中不存在所述文件的缓存句柄,根据所述读写业务打开所述文件的相应句柄;
S3,将所述相应句柄的标志和指针以及所述文件序号进行封装以得到 所述文件的缓存句柄;
S4,将所述文件的缓存句柄加入到所述索引容器和第一队列中;
S5,利用所述文件的相应句柄对所述读写业务进行处理;
S6,响应于所述读写业务处理完成,将所述文件的缓存句柄从所述第一队列移动到第二队列中。
在一些实施例中,还包括:
对所述第二队列中的每一个缓存句柄的使用时间进行检测以判断使用时间是否超过阈值;
响应于存在使用时间超过阈值的缓存句柄,将使用时间超过阈值的缓存句柄从所述第二队列中删除;
根据使用时间超过阈值的缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
在一些实施例中,还包括:
响应于所述第二队列中的缓存句柄的数量达到预设数量,从所述第二队列的尾部开始删除若干个缓存句柄;
分别根据若干个缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
在一些实施例中,还包括:
响应于所述索引容器中存在所述文件的缓存句柄,判断所述文件的缓存句柄中的句柄标志是否与所述读写业务对应;
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第二队列中,将所述第二队列中的缓存句柄移动到所述第一队列中,并利用已经打开的所述文件的相应句柄对所述读写业务进行处理。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述 文件的缓存句柄在所述第一队列中,利用已经打开的所述文件的相应句柄对所述读写业务进行处理,并更新所述文件的缓存句柄的使用计数。
在一些实施例中,将所述文件的缓存句柄从所述第一队列移动到第二队列中,进一步包括:
判断所述文件的缓存句柄的使用计数是否达到预设值;
响应于所述文件的缓存句柄的使用计数达到预设值,将所述文件的缓存句柄移动到所述第二队列的头部;
更新所述文件的缓存句柄的使用时间。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务不对应且所述文件的缓存句柄在所述第二队列中,将所述文件的缓存句柄从所述第二队列中和所述索引容器中删除,并根据句柄指针将对应的句柄关闭;
根据所述读写业务重新打开所述文件的相应句柄;
将所述相应句柄的标志和指针以及所述文件序号进行封装以得到文件的新缓存句柄;
将所述文件的新缓存句柄加入到所述索引容器和第一队列中;
利用重新打开的所述文件的相应句柄对所述读写业务进行处理。
本申请的实施例提出的方案通过索引容器用于文件到句柄的快速查询映射,通过第一队列用于句柄保护,通过第二队列用于高效率的失效句柄检测,有效降低分布式文件系统读写时文件句柄处理压力与频度,进而降低了读写io下的文件读写时延。
基于同一发明构思,根据本申请的另一个方面,如图4所示,本申请的实施例还提供了一种计算机可读存储介质601,计算机可读存储介质601存储有计算机程序610,计算机程序610被处理器执行时执行以下步骤:
S1,响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在所述文件的缓存句柄;
S2,响应于所述索引容器中不存在所述文件的缓存句柄,根据所述读写业务打开所述文件的相应句柄;
S3,将所述相应句柄的标志和指针以及所述文件序号进行封装以得到所述文件的缓存句柄;
S4,将所述文件的缓存句柄加入到所述索引容器和第一队列中;
S5,利用所述文件的相应句柄对所述读写业务进行处理;
S6,响应于所述读写业务处理完成,将所述文件的缓存句柄从所述第一队列移动到第二队列中。
在一些实施例中,还包括:
对所述第二队列中的每一个缓存句柄的使用时间进行检测以判断使用时间是否超过阈值;
响应于存在使用时间超过阈值的缓存句柄,将使用时间超过阈值的缓存句柄从所述第二队列中删除;
根据使用时间超过阈值的缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
在一些实施例中,还包括:
响应于所述第二队列中的缓存句柄的数量达到预设数量,从所述第二队列的尾部开始删除若干个缓存句柄;
分别根据若干个缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
在一些实施例中,还包括:
响应于所述索引容器中存在所述文件的缓存句柄,判断所述文件的缓存句柄中的句柄标志是否与所述读写业务对应;
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第二队列中,将所述第二队列中的缓存句柄移动到所述第一队列中,并利用已经打开的所述文件的相应句柄对所述读写业务 进行处理。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第一队列中,利用已经打开的所述文件的相应句柄对所述读写业务进行处理,并更新所述文件的缓存句柄的使用计数。
在一些实施例中,将所述文件的缓存句柄从所述第一队列移动到第二队列中,进一步包括:
判断所述文件的缓存句柄的使用计数是否达到预设值;
响应于所述文件的缓存句柄的使用计数达到预设值,将所述文件的缓存句柄移动到所述第二队列的头部;
更新所述文件的缓存句柄的使用时间。
在一些实施例中,还包括:
响应于所述文件的缓存句柄中的句柄标志与所述读写业务不对应且所述文件的缓存句柄在所述第二队列中,将所述文件的缓存句柄从所述第二队列中和所述索引容器中删除,并根据句柄指针将对应的句柄关闭;
根据所述读写业务重新打开所述文件的相应句柄;
将所述相应句柄的标志和指针以及所述文件序号进行封装以得到文件的新缓存句柄;
将所述文件的新缓存句柄加入到所述索引容器和第一队列中;
利用重新打开的所述文件的相应句柄对所述读写业务进行处理。
本申请的实施例提出的方案通过索引容器用于文件到句柄的快速查询映射,通过第一队列用于句柄保护,通过第二队列用于高效率的失效句柄检测,有效降低分布式文件系统读写时文件句柄处理压力与频度,进而降低了读写io下的文件读写时延。
最后需要说明的是,本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,可以通过计算机程序来指令相关硬件来完成,程序 可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。
此外,应该明白的是,本文的计算机可读存储介质(例如,存储器)可以是易失性存储器或非易失性存储器,或者可以包括易失性存储器和非易失性存储器两者。
本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。为了清楚地说明硬件和软件的这种可互换性,已经就各种示意性组件、方块、模块、电路和步骤的功能对其进行了一般性的描述。这种功能是被实现为软件还是被实现为硬件取决于具体应用以及施加给整个系统的设计约束。本领域技术人员可以针对每种具体应用以各种方式来实现的功能,但是这种实现决定不应被解释为导致脱离本申请实施例公开的范围。
以上是本申请公开的示例性实施例,但是应当注意,在不背离权利要求限定的本申请实施例公开的范围的前提下,可以进行多种改变和修改。根据这里描述的公开实施例的方法权利要求的功能、步骤和/或动作不需以任何特定顺序执行。此外,尽管本申请实施例公开的元素可以以个体形式描述或要求,但除非明确限制为单数,也可以理解为多个。
应当理解的是,在本文中使用的,除非上下文清楚地支持例外情况,单数形式“一个”旨在也包括复数形式。还应当理解的是,在本文中使用的“和/或”是指包括一个或者一个以上相关联地列出的项目的任意和所有可能组合。
上述本申请实施例公开实施例序号仅仅为了描述,不代表实施例的优劣。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
所属领域的普通技术人员应当理解:以上任何实施例的讨论仅为示例性的,并非旨在暗示本申请实施例公开的范围(包括权利要求)被限于这些例子;在本申请实施例的思路下,以上实施例或者不同实施例中的技术特征之间也可以进行组合,并存在如上的本申请实施例的不同方面的许多其它变化,为了简明它们没有在细节中提供。因此,凡在本申请实施例的精神和原则之内,所做的任何省略、修改、等同替换、改进等,均应包含在本申请实施例的保护范围之内。

Claims (10)

  1. 一种文件读写业务的处理方法,其特征在于,包括以下步骤:
    响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在所述文件的缓存句柄;
    响应于所述索引容器中不存在所述文件的缓存句柄,根据所述读写业务打开所述文件的相应句柄;
    将所述相应句柄的标志和指针以及所述文件序号进行封装以得到所述文件的缓存句柄;
    将所述文件的缓存句柄加入到所述索引容器和第一队列中;
    利用所述文件的相应句柄对所述读写业务进行处理;
    响应于所述读写业务处理完成,将所述文件的缓存句柄从所述第一队列移动到第二队列中。
  2. 如权利要求1所述的方法,其特征在于,还包括:
    对所述第二队列中的每一个缓存句柄的使用时间进行检测以判断使用时间是否超过阈值;
    响应于存在使用时间超过阈值的缓存句柄,将使用时间超过阈值的缓存句柄从所述第二队列中删除;
    根据使用时间超过阈值的缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
  3. 如权利要求1所述的方法,其特征在于,还包括:
    响应于所述第二队列中的缓存句柄的数量达到预设数量,从所述第二队列的尾部开始删除若干个缓存句柄;
    分别根据若干个缓存句柄中的文件序号将所述索引容器中相应的缓存句柄删除,并根据句柄指针将对应的句柄关闭。
  4. 如权利要求1所述的方法,其特征在于,还包括:
    响应于所述索引容器中存在所述文件的缓存句柄,判断所述文件的缓存句柄中的句柄标志是否与所述读写业务对应;
    响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第二队列中,将所述第二队列中的缓存句柄移动到所述第一队列中,并利用已经打开的所述文件的相应句柄对所述读写业务进行处理。
  5. 如权利要求4所述的方法,其特征在于,还包括:
    响应于所述文件的缓存句柄中的句柄标志与所述读写业务对应且所述文件的缓存句柄在所述第一队列中,利用已经打开的所述文件的相应句柄对所述读写业务进行处理,并更新所述文件的缓存句柄的使用计数。
  6. 如权利要求5所述的方法,其特征在于,将所述文件的缓存句柄从所述第一队列移动到第二队列中,进一步包括:
    判断所述文件的缓存句柄的使用计数是否达到预设值;
    响应于所述文件的缓存句柄的使用计数达到预设值,将所述文件的缓存句柄移动到所述第二队列的头部;
    更新所述文件的缓存句柄的使用时间。
  7. 如权利要求4所述的方法,其特征在于,还包括:
    响应于所述文件的缓存句柄中的句柄标志与所述读写业务不对应且所述文件的缓存句柄在所述第二队列中,将所述文件的缓存句柄从所述第二队列中和所述索引容器中删除,并根据句柄指针将对应的句柄关闭;
    根据所述读写业务重新打开所述文件的相应句柄;
    将所述相应句柄的标志和指针以及所述文件序号进行封装以得到文件的新缓存句柄;
    将所述文件的新缓存句柄加入到所述索引容器和第一队列中;
    利用重新打开的所述文件的相应句柄对所述读写业务进行处理。
  8. 一种文件读写业务的处理系统,其特征在于,包括:
    判断模块,配置为响应于接收到文件的读写业务,根据文件序号判断索引容器中是否存在所述文件的缓存句柄;
    打开模块,配置为响应于所述索引容器中不存在所述文件的缓存句柄,根据所述读写业务打开所述文件的相应句柄;
    封装模块,配置为将所述相应句柄的标志和指针以及所述文件序号进行封装以得到所述文件的缓存句柄;
    缓存模块,配置为将所述文件的缓存句柄加入到所述索引容器和第一队列中;
    处理模块,配置为利用所述文件的相应句柄对所述读写业务进行处理;
    移动模块,配置为响应于所述读写业务处理完成,将所述文件的缓存句柄从所述第一队列移动到第二队列中。
  9. 一种计算机设备,包括:
    至少一个处理器;以及
    存储器,所述存储器存储有可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时执行如权利要求1-7任意一项所述的方法的步骤。
  10. 一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时执行如权利要求1-7任意一项所述的方法的步骤。
PCT/CN2021/121898 2021-07-28 2021-09-29 一种文件读写业务的处理方法、系统、设备以及介质 WO2023004991A1 (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US18/270,457 US20240061599A1 (en) 2021-07-28 2021-09-29 Method and system for processing file read-write service, device, and medium

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110853962.1A CN113312008B (zh) 2021-07-28 2021-07-28 一种文件读写业务的处理方法、系统、设备以及介质
CN202110853962.1 2021-07-28

Publications (1)

Publication Number Publication Date
WO2023004991A1 true WO2023004991A1 (zh) 2023-02-02

Family

ID=77381661

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/121898 WO2023004991A1 (zh) 2021-07-28 2021-09-29 一种文件读写业务的处理方法、系统、设备以及介质

Country Status (3)

Country Link
US (1) US20240061599A1 (zh)
CN (1) CN113312008B (zh)
WO (1) WO2023004991A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113312008B (zh) * 2021-07-28 2021-10-29 苏州浪潮智能科技有限公司 一种文件读写业务的处理方法、系统、设备以及介质
CN113905100A (zh) * 2021-09-29 2022-01-07 济南浪潮数据技术有限公司 动态控制客户端重传请求的方法、系统、设备和存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020040381A1 (en) * 2000-10-03 2002-04-04 Steiger Dianne L. Automatic load distribution for multiple digital signal processing system
US20110061052A1 (en) * 2009-09-03 2011-03-10 Ibm Corporation Method and system using a temporary object handle
CN107992504A (zh) * 2016-10-26 2018-05-04 中兴通讯股份有限公司 一种文件处理方法及装置
CN110309257A (zh) * 2018-03-14 2019-10-08 杭州海康威视数字技术股份有限公司 一种文件读写打开方法及装置
CN111966634A (zh) * 2020-07-27 2020-11-20 苏州浪潮智能科技有限公司 一种文件操作方法、系统、设备以及介质
CN113312008A (zh) * 2021-07-28 2021-08-27 苏州浪潮智能科技有限公司 一种文件读写业务的处理方法、系统、设备以及介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6360282B1 (en) * 1998-03-25 2002-03-19 Network Appliance, Inc. Protected control of devices by user applications in multiprogramming environments
US9817776B2 (en) * 2015-01-19 2017-11-14 Microsoft Technology Licensing, Llc Memory descriptor list caching and pipeline processing
CN107197050A (zh) * 2017-07-27 2017-09-22 郑州云海信息技术有限公司 一种分布式存储系统中文件写入的方法及系统
CN110535940B (zh) * 2019-08-29 2023-01-24 北京浪潮数据技术有限公司 一种bmc的连接管理方法、系统、设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020040381A1 (en) * 2000-10-03 2002-04-04 Steiger Dianne L. Automatic load distribution for multiple digital signal processing system
US20110061052A1 (en) * 2009-09-03 2011-03-10 Ibm Corporation Method and system using a temporary object handle
CN107992504A (zh) * 2016-10-26 2018-05-04 中兴通讯股份有限公司 一种文件处理方法及装置
CN110309257A (zh) * 2018-03-14 2019-10-08 杭州海康威视数字技术股份有限公司 一种文件读写打开方法及装置
CN111966634A (zh) * 2020-07-27 2020-11-20 苏州浪潮智能科技有限公司 一种文件操作方法、系统、设备以及介质
CN113312008A (zh) * 2021-07-28 2021-08-27 苏州浪潮智能科技有限公司 一种文件读写业务的处理方法、系统、设备以及介质

Also Published As

Publication number Publication date
US20240061599A1 (en) 2024-02-22
CN113312008A (zh) 2021-08-27
CN113312008B (zh) 2021-10-29

Similar Documents

Publication Publication Date Title
WO2023004991A1 (zh) 一种文件读写业务的处理方法、系统、设备以及介质
US20190163364A1 (en) System and method for tcp offload for nvme over tcp-ip
WO2017075923A1 (zh) 一种Redis Key管理方法及系统
US20190102346A1 (en) Offload of data lookup operations
US9367369B2 (en) Automated merger of logically associated messages in a message queue
US9507821B2 (en) Mail indexing and searching using hierarchical caches
CN109522243B (zh) 一种全闪存储中元数据缓存管理方法、装置及存储介质
JP2007509415A5 (zh)
CN110865888A (zh) 一种资源加载方法、装置、服务器及存储介质
TW201935343A (zh) 檔案處理方法、裝置及設備
TW201942766A (zh) 設備型號識別方法、裝置及處理設備
US8903866B2 (en) Handling out-of-sequence data in a streaming environment
CN107025230B (zh) 网络爬虫的处理方法及装置
WO2020199709A1 (zh) 一种刷新级联缓存的方法、系统及设备
CN111026768A (zh) 一种可实现数据快速装载的数据同步方法和装置
US20120079044A1 (en) Adaptive content-based publish/subscribe messaging
CN110764796A (zh) 更新缓存的方法和装置
US20110179253A1 (en) Efficient multi-core processing of events
CN110941595B (zh) 一种文件系统访问方法及装置
CN112860188A (zh) 一种数据迁移方法、系统、设备以及介质
WO2023143545A1 (zh) 资源处理方法、装置、电子设备及计算机可读存储介质
CN110413689B (zh) 一种内存数据库的多节点数据同步方法与装置
JPWO2020154400A5 (zh)
CN111522506A (zh) 一种数据读取的方法及装置
TWI435267B (zh) 處理器電路及讀取資料的方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21951563

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 18270457

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE