CN110187835A - 用于管理访问请求的方法、装置、设备和存储介质 - Google Patents

用于管理访问请求的方法、装置、设备和存储介质 Download PDF

Info

Publication number
CN110187835A
CN110187835A CN201910440376.7A CN201910440376A CN110187835A CN 110187835 A CN110187835 A CN 110187835A CN 201910440376 A CN201910440376 A CN 201910440376A CN 110187835 A CN110187835 A CN 110187835A
Authority
CN
China
Prior art keywords
access request
access
address
request
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910440376.7A
Other languages
English (en)
Other versions
CN110187835B (zh
Inventor
李琳
张宇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN201910440376.7A priority Critical patent/CN110187835B/zh
Publication of CN110187835A publication Critical patent/CN110187835A/zh
Priority to US16/707,393 priority patent/US11474712B2/en
Priority to KR1020200003625A priority patent/KR102236419B1/ko
Priority to JP2020003206A priority patent/JP7039631B2/ja
Application granted granted Critical
Publication of CN110187835B publication Critical patent/CN110187835B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/062Securing storage systems
    • G06F3/0622Securing storage systems in relation to access
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1605Handling requests for interconnection or transfer for access to memory bus based on arbitration
    • G06F13/161Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement
    • G06F13/1626Handling requests for interconnection or transfer for access to memory bus based on arbitration with latency improvement by reordering requests
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F12/00Accessing, addressing or allocating within memory systems or architectures
    • G06F12/14Protection against unauthorised use of memory or access to memory
    • G06F12/1416Protection against unauthorised use of memory or access to memory by checking the object accessibility, e.g. type of access defined by the memory independently of subject rights
    • G06F12/1425Protection against unauthorised use of memory or access to memory by checking the object accessibility, e.g. type of access defined by the memory independently of subject rights the protection being physical, e.g. cell, word, block
    • G06F12/1441Protection against unauthorised use of memory or access to memory by checking the object accessibility, e.g. type of access defined by the memory independently of subject rights the protection being physical, e.g. cell, word, block for a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1605Handling requests for interconnection or transfer for access to memory bus based on arbitration
    • G06F13/1642Handling requests for interconnection or transfer for access to memory bus based on arbitration with request queuing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/38Information transfer, e.g. on bus
    • G06F13/40Bus structure
    • G06F13/4063Device-to-bus coupling
    • G06F13/4068Electrical coupling
    • G06F13/4072Drivers or receivers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/0604Improving or facilitating administration, e.g. storage management
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0653Monitoring storage devices or systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0656Data buffering arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0628Interfaces specially adapted for storage systems making use of a particular technique
    • G06F3/0655Vertical data movement, i.e. input-output transfer; data movement between one or more hosts and one or more storage devices
    • G06F3/0659Command handling arrangements, e.g. command buffers, queues, command scheduling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/067Distributed or networked storage systems, e.g. storage area networks [SAN], network attached storage [NAS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F7/00Methods or arrangements for processing data by operating upon the order or content of the data handled
    • G06F7/76Arrangements for rearranging, permuting or selecting data according to predetermined rules, independently of the content of the data

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Security & Cryptography (AREA)
  • Computer Hardware Design (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开涉及云计算领域,具体地,涉及用于管理访问请求的方法、装置、设备和存储介质。在该方法中,获取针对计算系统中的存储设备进行数据访问的一组访问请求,一组访问请求分别指示针对存储设备中的一组地址的访问操作。根据一组地址中的各个地址在存储设备中的地址范围,将一组地址进行排序。基于排序后的一组访问请求中的具有连续地址的至少一部分访问请求,生成合并请求。基于合并请求,针对存储设备执行数据访问操作,其中该方法在存储设备的驱动程序中实现,驱动程序在计算系统的用户态中实现。采用上述实现方式,可以以更为有效的方式管理针对计算系统的存储设备的访问,进而提高计算系统的性能。

Description

用于管理访问请求的方法、装置、设备和存储介质
技术领域
本公开内容的实现方式概括地涉及存储设备管理,并且更具体地,涉及用于管理访问存储设备的访问请求的方法、装置、设备和计算机存储介质。
背景技术
随着计算机技术的发展,目前已经出现了具有更高硬件访问速度的高速存储设备。在硬件速度提高的同时,还要求存储设备的驱动程序能够相应地进行修改,以便最大程度地利用高速存储设备的潜力。此时,如何以更为有效的方式管理对于高速存储设备的访问,成为一个技术难题。
发明内容
根据本公开内容的示例实现方式,提供了一种用于管理访问请求的方案。
在本公开内容的第一方面中,提供了一种用于管理访问请求的方法。在该方法中,获取针对计算系统中的存储设备进行数据访问的一组访问请求,一组访问请求分别指示针对存储设备中的一组地址的访问操作。根据一组地址中的各个地址在存储设备中的地址范围,将一组地址进行排序。基于排序后的一组访问请求中的具有连续地址的至少一部分访问请求,生成合并请求。基于合并请求,针对存储设备执行数据访问操作,其中方法在存储设备的驱动程序中实现,驱动程序在计算系统的用户态中实现。
在本公开内容的第二方面中,提供了一种用于管理访问请求的装置。该装置包括:获取模块,配置用于获取针对计算系统中的存储设备进行数据访问的一组访问请求,一组访问请求分别指示针对存储设备中的一组地址的访问操作;排序模块,配置用于根据一组地址中的各个地址在存储设备中的地址范围,将一组地址进行排序;生成模块,配置用于基于排序后的一组访问请求中的具有连续地址的至少一部分访问请求,生成合并请求;以及执行模块,配置用于基于合并请求,针对存储设备执行数据访问操作,其中装置在存储设备的驱动程序中实现,驱动程序在计算系统的用户态中实现。
在本公开内容的第三方面中,提供了一种设备。该设备包括一个或多个处理器;以及存储装置,用于存储一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现根据本公开内容的第一方面的方法。
在本公开内容的第四方面中,提供了一种其上存储有计算机程序的计算机可读介质,该程序在被处理器执行时实现根据本公开内容的第一方面的方法。
应当理解,发明内容部分中所描述的内容并非旨在限定本公开内容的实现方式的关键或重要特征,亦非用于限制本公开内容的范围。本公开内容的其他特征将通过以下的描述变得容易理解。
附图说明
结合附图并参考以下详细说明,本公开内容的各实现方式的上述和其他特征、优点及方面将变得更加明显。在附图中,相同或相似的附图标记表示相同或相似的元素,其中:
图1示意性示出了针对计算系统中的存储设备进行访问的示例性过程的框图;
图2示意性示出了根据本公开内容的示例性实现方式的用于管理访问请求的技术方案的框图;
图3示意性示出了根据本公开内容的示例性实现方式的用于管理访问请求的方法的流程图;
图4示意性示出了根据本公开内容的示例性实现方式的用于针对一组访问请求进行排序并且基于排序的一组访问请求来生成合并请求的过程的框图;
图5A示意性示出了根据本公开内容的示例性实现方式的基于两个读取请求来生成合并请求的过程的框图;
图5B示意性示出了根据本公开内容的示例性实现方式的基于两个写入请求来生成合并请求的过程的框图;
图6A示意性示出了根据本公开内容的示例性实现方式的用于拆分读取的数据的过程的框图;
图6B示意性示出了根据本公开内容的示例性实现方式的向存储设备写入数据以及分别向两个写入请求返回响应的过程的框图;
图7示意性示出了根据本公开内容的示例性实现方式的用于管理访问请求的装置的框图;以及
图8示出了能够实施本公开内容的多个实现方式的计算设备的框图。
具体实施方式
下面将参照附图更详细地描述本公开内容的实现方式。虽然附图中显示了本公开内容的某些实现方式,然而应当理解的是,本公开内容可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实现方式,相反提供这些实现方式是为了更加透彻和完整地理解本公开内容。应当理解的是,本公开内容的附图及实现方式仅用于示例性作用,并非用于限制本公开内容的保护范围。
在本公开内容的实现方式的描述中,术语“包括”及其类似用语应当理解为开放性包含,即“包括但不限于”。术语“基于”应当理解为“至少部分地基于”。术语“一个实现方式”或“该实现方式”应当理解为“至少一个实现方式”。术语“第一”、“第二”等等可以指代不同的或相同的对象。下文还可能包括其他明确的和隐含的定义。
在下文中,首先参见图1描述本公开内容的应用环境。图1示意性示出了针对计算系统110中的存储设备120进行访问的示例性过程的框图100。如图1所示,计算系统110可以包括一个或多个存储设备120,并且运行于计算系统110中(或者远程访问该计算系统110)的一个或多个应用130可以发出一组访问请求140,以用于访问存储设备120中的数据。
随着存储设备硬件技术的发展,已经开发出了高速存储设备,并且高速存储设备在数据中心中所占据的比例越来越高。相对于传统低速存储设备而言,高速存储设备具备极高的数据访问速度和较低的访问延迟。例如NVMe SSD比传统SAS或SATA温氏磁盘快上千倍,并且比早期的SATA SSD快5至10倍。因而,期望存储设备的驱动程序能够随着硬件技术的发展而有所改进,以便更多地发挥高速存储设备的优势。
传统的在内核态实现的驱动程序的性能和效率难以发挥高速设备的优势。为了提高存储设备120的响应效率,目前已经提出了将存储设备120的驱动程序从内核态迁移到用户态的技术方案。以此方式,可以避免内核上下文的切换,从而降低中央处理单元(CPU)的负担,并允许CPU将更多的指令周期使用在实际处理数据存储的工作上。
然而,在用户态实现访问存储设备120的操作期间,采用轮询模式处理针对存储设备120的访问请求,迅速派发访问请求因而可以降低等待时间并降低延迟。然而,此方式单独地处理每个访问请求,导致并不能总体考虑多个访问请求进而实现优化。尽管在用户态实现访问存储设备120能够提高某些数据读写操作的性能,对于某些其他类型的数据读写操作并不会产生有益效果,甚至会降低数据访问性能。因而,期望以更为有效的方式来管理访问请求。
为了至少部分地解决上述技术方案中的不足,根据本公开的示例性实现,提供了一种在用户态实现的用于管理访问请求的方法。在该方法中,考虑了接收到的一组访问请求的访问模式。当一组访问请求中的多个访问请求所访问的存储设备120中的地址空间是连续地址空间时,则将该多个访问请求进行合并。继而,可以基于合并后的访问请求来针对存储设备120执行数据访问操作。将会理解,可以在存储设备120的驱动程序中实现上述方法,并且可以在无需计算系统110的内核态参与的情况下,在计算系统110的用户态实现本公开的各个实现方式。
根据本公开的示例性实现方式,将驱动程序运行在计算系统110的用户态意味着,驱动程序不会涉及内核态,这可以避免内核上下文切换和中断,并且将会节省CPU的大量处理开销,并允许CPU的更多时钟周期执行实际的数据存储。
计算系统110的操作系统通常可以划分为内核和多个服务器。在此微内核主要用于(1)进程(线程)管理(进程或者线程的调度),(2)低级存储器管理(用户程序逻辑空间到内存空间的物理地址的变换),以及(3)中断和陷入管理(中断和陷入)。由于微内核结构的存在,驱动程序可以运行在内核态或者用户态,并且内核态与用户态是操作系统的两种运行级别。
当一个任务(进程)执行系统调用而陷入内核代码中执行时,将其称为进程处于内核运行态(或简称为内核态),而进程的其他执行方式则属于用户态。通常而言,用户程序运行在用户态,操作系统运行在内核态。用户态和内核态之间可以进行转换,例如,可以通过系统调用、异常以及外围设备的中断来进行。用户态和内核态之间的切换将会导致额外的时间开销和计算资源的开销。
利用本公开的示例性实现方式,可以完全在用户态执行管理访问请求的过程,而不需要内核态的参与。以此方式,可以避免在用户态和内核态之间的切换,进而提高整个计算系统110的性能。进一步,利用本公开的示例性实现方式,通过在用户态实现上述方法,可以将较为零散的访问请求合并成为访问较大空间范围的访问请求。以此方式,可以降低用于处理每个零散的访问请求所产生的工作负载。进一步,由于在用户态实现上述方法并且无需核心态参与,可以降低CPU的工作负载,并且允许CPU分配更多的指令周期来处理其他事务。
在下文中,将参见图2概括描述本公开的示例性实现方式的更多细节。图2示意性示出了根据本公开内容的示例性实现方式的用于管理访问请求的技术方案的框图200。如图2所示,一组访问请求140可以包括接收到的针对存储设备120执行访问的各个访问请求。例如,访问请求列表140可以包括访问请求210、212、214、216等。根据本公开的示例性实现方式,可以在针对存储设备120的驱动程序230处实现合并过程。参见图2,例如可以将访问连续地址空间的访问请求214和216进行合并,以形成新的合并请求220。
将会理解,一组访问请求140可以包括多个访问请求,对于不涉及连续地址空间的访问请求210、……、以及212而言,可以按照现有的方式进行处理。例如,可以分别基于访问请求210、……、以及212中的每个访问请求,来访问存储设备120。例如,假设访问请求210、……、以及212是读取类型的访问请求,则此时可以从存储设备120中分别读取由访问请求210、……、以及212所指定的地址范围内的数据。又例如,假设访问请求210、……、以及212是写入类型的访问请求,则此时可以向存储设备120中的由访问请求210、……、以及212所指定的地址范围内写入相应的数据。
图3示意性示出了根据本公开内容的示例性实现方式的用于管理访问请求的方法300的流程图。可以在存储设备120的驱动程序230中实现该方法300,并且在此的驱动程序230是在计算系统110的用户态中实现的。
如图3所示,在框310处,可以获取针对计算系统110中的存储设备120进行数据访问的一组访问请求140。在此,一组访问请求140分别指示针对存储设备120中的一组地址的访问操作。换言之,每个访问请求指示针对存储设备120的一个数据访问操作。
根据本公开的示例性实现方式,可以从存储用于访问存储设备120的访问请求的环形链表410获取一组访问请求140。在下文中,将参见图4描述有关环形链表的更多细节。图4示意性示出了根据本公开内容的示例性实现方式的用于针对一组访问请求140进行排序并且基于排序的一组访问请求来生成合并请求的过程的框图400。如图4所示,环形链表410可以存储接收到的针对存储设备120进行访问的多个访问请求。该环形链表410可以包括:头指针412,用于指向待处理的访问请求中的第一个访问请求;以及尾指针422,用于指向待处理的访问请求中的最后一个访问请求。
根据本公开的示例性实现方式,可以在预定时间间隔内从环形链表410中选择一组访问请求140。将会理解,如果在每次接收到访问请求时,立即访问存储设备120中的由访问请求所指定的数据,这将会造成针对存储设备120的访问过于频繁。尤其是,当各个访问请求所涉及的数据量较小时,针对存储设备120频繁地执行访问请求将会造成计算系统110的整体性能的降低。本公开中,可以指定预定时间间隔的长度,以此方式可以将在预定时间间隔内所接收到的多个访问请求进行集中处理,以便提高访问操作的整体性能。
根据本公开的示例性实现方式,一组访问请求140的数量不高于阈值数量。可以将阈值数量设置为例如32、16、8等预定的数值。例如,可以根据接收访问请求的频率或者数量来确定该数值,或者还可以根据计算系统110对于响应时间的要求来确定该数值。如图4所示,可以从环形链表410中获取访问请求210、212、……、214、216。将会理解,在此的每个访问请求可以包括相应的访问地址,因而一组访问请求140可以包括一组访问地址。
返回图3并且在框320处,可以根据一组地址中的各个地址在存储设备中的地址范围,将一组地址进行排序。将会理解,在此的一组访问请求140可以包括读取类型和写入类型的访问请求。根据本公开的示例性实现方式,可以选择将具有相同类型的访问请求进行排序。例如,可以首先处理一组访问请求140中的读取类型的访问请求。可以从一组访问请求140中选择读取类型的访问请求,并且将选择的读取类型的访问请求进行排序。可以按照升序或者降序的顺序来进行排序。根据本公开的示例性实现方式,还可以按照类似的方式来处理一组访问请求140中的写入类型的访问请求。
如图4所示,可以针对访问请求210、212、……、214和216执行排序420,并获得排序后的访问请求214、216、212、……、210。继而,可以基于排序后的访问请求来生成合并请求220。返回图3,在框330处,基于排序后的一组访问请求中的具有连续地址的至少一部分访问请求,生成合并请求220。可以基于一组访问请求140中的各个地址之间是否连续,来执行后续处理。根据本公开的示例性实现方式,由于仅能合并具有相同类型的访问请求,因而在生成合并请求220时还需要考虑各个请求的类型。如上文所述,如果已经按照读取请求和写入请求来分别排序了各个访问请求,则此时可以直接基于排序的请求来生成合并请求。
根据本公开的示例性实现方式,还可以不区分访问请求的类型并且直接将一组访问请求进行排序。此时,需要首先判断地址连续的两个访问请求是否属于相同的类型,如果判断结果为“是”则可以生成合并请求220。如果两个访问请求的类型不同,则即使访问地址连续也需要分别针对两个访问请求执行各自的处理。
根据本公开的示例性实现方式,在至少一部分访问请求中,可以分别针对多个连续的访问请求中的每个访问请求进行逐一处理。具体地,可以确定具有连续地址的第一访问请求和第二访问请求,并基于第一访问请求的地址的开始地址和第二访问请求的地址的结束地址,确定合并请求220的地址。在下文中,将参见图5A和图5B来分别描述如何生成合并请求220。
图5A示意性示出了根据本公开内容的示例性实现方式的基于两个读取请求来生成合并请求的过程的框图500A。如图5A所示,假设访问请求510A是读取请求,并且所涉及的地址范围为(0x10...00,0x1F...FF);访问请求512A是读取请求,并且所涉及的地址范围为(0x20...00,0x2F...FF)。此时,可以基于访问请求510A的开始地址“0x10...00”和访问请求512A的结束地址“0x2F...FF”,来生成合并请求520A。此时,合并请求520A涉及读取地址范围(0x10...00,0x2F...FF)内的数据。
图5B示意性示出了根据本公开内容的示例性实现方式的基于两个写入请求来生成合并请求的过程的框图500B。如图5B所示,假设访问请求510B是写入请求,并且所涉及的地址范围为(0x10...00,0x1F...FF);访问请求512B是写入请求,并且所涉及的地址范围为(0x20...00,0x2F...FF)。此时,可以基于访问请求510B的开始地址“0x10...00”和访问请求512B的结束地址“0x2F...FF”,来生成合并请求520B。此时,合并请求520B涉及向地址范围(0x10...00,0x2F...FF)写入访问请求510B中的数据“DATA1”和访问请求512B中的数据“DATA2”。
将会理解,如果合并请求所涉及的地址的范围过大,则可能会导致数据读取/写入的时间过长。因而,还可指定合并的访问请求所涉及的地址范围不高于预定阈值。换言之,在合并一组访问请求的过程中,如果发现合并后的访问请求的合并地址范围低于预定阈值,则认为合并过程是有效的;否则将不执行合并过程,或者仅合并一部分地址连续的访问请求。
返回图3并且在框340处,基于合并请求220,针对存储设备220执行数据访问操作。此时,合并请求220的访问类型与合并前的各个访问请求的类型相同。返回图5A所示的示例,此时合并请求520A为READ(0x10...00,0x2F...FF,RDATA),表示将地址范围(0x10...00,0x2F...FF)内的数据读取至数据块RDATA。在执行该合并请求520A之后,则该数据块RDATA中将包括原本需要由访问请求510A和512A返回分别返回的数据块RDATA1和RDATA2内的数据。
根据本公开的示例性实现方式,还需要将返回的大块数据进行拆分,以便分别响应于访问请求510A和512A。具体地,当一组访问请求以及合并请求的访问类型为读取类型时,则可以从存储设备中的由合并请求指定的合并地址处读取数据(例如数据块RDATA中的数据)。继而,可以分别基于第一访问请求的地址和第二访问请求的地址,来将读取的数据进行拆分。在下文中,将参见图6A描述有关拆分数据的更多细节。
图6A示意性示出了根据本公开内容的示例性实现方式的用于拆分读取的数据的过程的框图600A。如图6A所示,可以向存储设备120执行合并请求520A,以便获取数据610A。继而,可以分别基于访问请求510A的地址(0x10...00,0x1F...FF)和访问请求512A的地址(0x20...00,0x2F...FF),来将数据610A拆分为第一数据620A和第二数据622A。
继而,可以分别向每个访问请求返回相应的数据。如图6A所示,可以向访问请求510A返回第一数据620A,而向访问请512A返回第二数据622A。此时,可以向与访问请求510A相关联的数据块RDATA1中写入第一数据620A,并且向与访问请求512A相关联的数据块RDATA2中写入第二数据622A。
根据本公开的示例性实现方式,如果一组访问请求的访问类型为写入类型,则可以基于第一访问请求中的第一数据和第二访问请求中的第二数据生成合并数据。在下文中,将参见图6B描述有关写入请求的执行过程。
图6B示意性示出了根据本公开内容的示例性实现方式的向存储设备写入数据以及分别向两个写入请求返回响应的过程的框图600B。如图6B所示,可以向存储设备120执行合并请求520B,以便向存储设备120中写入数据610B。继而,在已经成功执行了合并请求520B的情况下,可以向访问请求510B提供第一响应620B,以指示该访问请求510B已经被成功地执行;还可以向访问请求512B提供第二响应620B,以指示该访问请求512B已经被成功地执行。
在上文中已经参见图5A、5B、6A和6B描述了如何处理已经被合并的请求。将会理解,一组访问请求140中可能会包括地址不连续的访问请求。此时,对于一组访问请求140中的地址连续的访问请求以外的其他访问请求,可以基于每个其他访问请求来针对存储设备120执行相应的数据访问操作。返回图4,访问请求214和216已经被合并以形成合并请求220,而访问请求212和210并不连续,因而可以分别针对存储设备120来执行访问请求212和210。
按照上文参见图3至图6B描述的方式,可以处理一组访问请求140中的每个访问请求。根据本公开的示例性实现方式,在已经成功地处理一组访问请求140之后,还可以修改环形链表的指针,以指示一组访问请求已经被处理。将会理解,可以周期性地执行上文描述的方法300。在执行方法300期间,循环链表410中的访问请求的数量可以增加。当循环链表410中的访问请求的数量达到预定阈值时,则可以再次触发执行方法300。以此方式,尽管获取一组访问请求140将会造成一定的时间开销,然而通过合并各个访问请求,可以大大降低针对存储设备120频繁执行零散的连续的访问请求的性能开销。尤其是,当存储设备120频繁地执行大量连续访问请求时,可以显著提高计算系统110的整体性能。
在上文中已经详细描述了如何管理访问请求的方法300的多个实现方式。根据本公开的示例性实现方式,还提供了用于管理访问请求的装置。在下文中,将参见图7详细描述。图7示意性示出了根据本公开内容的示例性实现方式的用于管理访问请求的装置700的框图。如图7所示,该装置700包括:获取模块710,配置用于获取针对计算系统中的存储设备进行数据访问的一组访问请求,一组访问请求分别指示针对存储设备中的一组地址的访问操作;排序模块720,配置用于根据一组地址中的各个地址在存储设备中的地址范围,将一组地址进行排序;生成模块730,配置用于基于排序后的一组访问请求中的具有连续地址的至少一部分访问请求,生成合并请求;以及执行模块740,配置用于基于合并请求,针对存储设备执行数据访问操作,其中装置700在存储设备的驱动程序中实现,驱动程序在计算系统的用户态中实现。
根据本公开的示例性实现方式,排序模块720包括:合并模块,配置用于响应于确定至少一部分访问请求具有相同的访问类型,生成合并请求,其中访问类型包括读取类型和写入类型。
根据本公开的示例性实现方式,排序模块720包括:请求确定模块,配置用于在至少一部分访问请求中,确定具有连续地址的第一访问请求和第二访问请求;以及地址确定模块,配置用于基于第一访问请求的地址的开始地址和第二访问请求的地址的结束地址,确定合并请求的合并地址。
根据本公开的示例性实现方式,进一步包括:阈值模块,配置用于响应于确定合并请求的合并地址的范围不高于预定阈值,生成合并请求。
根据本公开的示例性实现方式,执行模块740包括:数据读取模块,配置用于响应于确定一组访问请求的访问类型为读取类型,从存储设备中的合并地址处读取数据;数据确定模块,配置用于基于第一访问请求的地址和第二访问请求的地址,分别从读取的数据中确定与第一访问请求相关联的第一数据和与第二访问请求相关联的第二数据;以及数据返回模块,配置用于分别向第一访问请求返回第一数据以及向第二访问请求返回第二数据。
根据本公开的示例性实现方式,执行模块740包括:数据合并模块,配置用于响应于一组访问请求的访问类型为写入类型,基于第一访问请求中的第一数据和第二访问请求中的第二数据生成合并数据;以及写入响应模块,配置用于响应于向存储设备中的合并地址处写入合并数据,分别向第一访问请求和第二访问请求返回第一响应和第二响应。
根据本公开的示例性实现方式,进一步包括:请求执行模块,配置用于基于一组访问请求中的至少一部分访问请求以外的其他访问请求,针对存储设备执行数据访问操作。
根据本公开的示例性实现方式,获取模块包括:请求获取模块,配置用于从存储用于访问存储设备的访问请求的环形链表获取一组访问请求。
根据本公开的示例性实现方式,进一步包括:请求选择模块,配置用于在预定时间间隔内,从环形链表中选择一组访问请求,一组访问请求的数量不高于阈值数量。
根据本公开的示例性实现方式,进一步包括:修改模块,配置用于修改环形链表的指针,以指示一组访问请求已经被处理。
图8示出了能够实施本公开内容的多个实现方式的计算设备800的框图。设备800可以用于实现图3描述的方法。如图所示,设备800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的计算机程序指令或者从存储单元808加载到随机访问存储器(RAM)803中的计算机程序指令,来执行各种适当的动作和处理。在RAM 803中,还可存储设备800操作所需的各种程序和数据。CPU801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
设备800中的多个部件连接至I/O接口805,包括:输入单元806,例如键盘、鼠标等;输出单元807,例如各种类型的显示器、扬声器等;存储单元808,例如磁盘、光盘等;以及通信单元809,例如网卡、调制解调器、无线通信收发机等。通信单元809允许设备800通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理单元801执行上文所描述的各个方法和处理,例如方法300。例如,在一些实现方式中,方法300可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元808。在一些实现方式中,计算机程序的部分或者全部可以经由ROM 802和/或通信单元809而被载入和/或安装到设备800上。当计算机程序加载到RAM 803并由CPU 801执行时,可以执行上文描述的方法300的一个或多个步骤。备选地,在其他实现方式中,CPU 801可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行方法300。
根据本公开内容的示例性实现方式,提供了一种其上存储有计算机程序的计算机可读存储介质。程序被处理器执行时实现本公开所描述的方法。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)等等。
用于实施本公开内容的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开内容的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
此外,虽然采用特定次序描绘了各操作,但是这应当理解为要求这样操作以所示出的特定次序或以顺序次序执行,或者要求所有图示的操作应被执行以取得期望的结果。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开内容的范围的限制。在单独的实现方式的上下文中描述的某些特征还可以组合地实现在单个实现中。相反地,在单个实现的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实现中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (22)

1.一种用于管理访问请求的方法,包括:
获取针对计算系统中的存储设备进行数据访问的一组访问请求,所述一组访问请求分别指示针对所述存储设备中的一组地址的访问操作;
根据所述一组地址中的各个地址在所述存储设备中的地址范围,将所述一组地址进行排序;
基于排序后的所述一组访问请求中的具有连续地址的至少一部分访问请求,生成合并请求;以及
基于所述合并请求,针对所述存储设备执行数据访问操作,其中所述方法在所述存储设备的驱动程序中实现,所述驱动程序在所述计算系统的用户态中实现。
2.根据权利要求1所述的方法,其中基于排序后的所述一组访问请求中的具有连续地址的至少一部分访问请求,生成合并请求包括:
响应于确定所述至少一部分访问请求具有相同的访问类型,生成所述合并请求,其中所述访问类型包括读取类型和写入类型。
3.根据权利要求1所述的方法,其中基于排序后的所述一组访问请求中的具有连续地址的至少一部分访问请求,生成合并请求包括:
在所述至少一部分访问请求中,确定具有连续地址的第一访问请求和第二访问请求;以及
基于所述第一访问请求的地址的开始地址和所述第二访问请求的地址的结束地址,确定所述合并请求的合并地址。
4.根据权利要求3所述的方法,进一步包括:
响应于确定所述合并请求的所述合并地址的范围不高于预定阈值,生成所述合并请求。
5.根据权利要求3所述的方法,其中基于所述合并请求,针对所述存储设备执行数据访问操作包括:
响应于确定所述一组访问请求的访问类型为读取类型,从所述存储设备中的所述合并地址处读取数据;
基于所述第一访问请求的所述地址和所述第二访问请求的所述地址,分别从读取的所述数据中确定与所述第一访问请求相关联的第一数据和与所述第二访问请求相关联的第二数据;以及
分别向所述第一访问请求返回所述第一数据以及向所述第二访问请求返回所述第二数据。
6.根据权利要求3所述的方法,其中基于所述合并请求,针对所述存储设备执行数据访问操作包括:
响应于确定所述一组访问请求的访问类型为写入类型,基于所述第一访问请求中的第一数据和所述第二访问请求中的第二数据生成合并数据;以及
响应于向所述存储设备中的所述合并地址处写入所述合并数据,分别向所述第一访问请求和所述第二访问请求返回第一响应和第二响应。
7.根据权利要求1所述的方法,进一步包括:
基于所述一组访问请求中的所述至少一部分访问请求以外的其他访问请求,针对所述存储设备执行数据访问操作。
8.根据权利要求1所述的方法,其中获取针对计算系统中的存储设备进行数据访问的一组访问请求包括:
从存储用于访问所述存储设备的访问请求的环形链表获取所述一组访问请求。
9.根据权利要求8所述的方法,进一步包括:
在预定时间间隔内,从所述环形链表中选择所述一组访问请求,所述一组访问请求的数量不高于阈值数量。
10.根据权利要求8所述的方法,进一步包括:
修改所述环形链表的指针,以指示所述一组访问请求已经被处理。
11.一种用于管理访问请求的装置,包括:
获取模块,配置用于获取针对计算系统中的存储设备进行数据访问的一组访问请求,所述一组访问请求分别指示针对所述存储设备中的一组地址的访问操作;
排序模块,配置用于根据所述一组地址中的各个地址在所述存储设备中的地址范围,将所述一组地址进行排序;
生成模块,配置用于基于排序后的所述一组访问请求中的具有连续地址的至少一部分访问请求,生成合并请求;以及
执行模块,配置用于基于所述合并请求,针对所述存储设备执行数据访问操作,其中所述装置在所述存储设备的驱动程序中实现,所述驱动程序在所述计算系统的用户态中实现。
12.根据权利要求11所述的装置,其中所述排序模块包括:
合并模块,配置用于响应于确定所述至少一部分访问请求具有相同的访问类型,生成所述合并请求,其中所述访问类型包括读取类型和写入类型。
13.根据权利要求11所述的装置,其中所述排序模块包括:
请求确定模块,配置用于在所述至少一部分访问请求中,确定具有连续地址的第一访问请求和第二访问请求;以及
地址确定模块,配置用于基于所述第一访问请求的地址的开始地址和所述第二访问请求的地址的结束地址,确定所述合并请求的合并地址。
14.根据权利要求13所述的装置,进一步包括:
阈值模块,配置用于响应于确定所述合并请求的所述合并地址的范围不高于预定阈值,生成所述合并请求。
15.根据权利要求13所述的装置,其中所述执行模块包括:
数据读取模块,配置用于响应于确定所述一组访问请求的访问类型为读取类型,从所述存储设备中的所述合并地址处读取数据;
数据确定模块,配置用于基于所述第一访问请求的所述地址和所述第二访问请求的所述地址,分别从读取的所述数据中确定与所述第一访问请求相关联的第一数据和与所述第二访问请求相关联的第二数据;以及
数据返回模块,配置用于分别向所述第一访问请求返回所述第一数据以及向所述第二访问请求返回所述第二数据。
16.根据权利要求13所述的装置,其中所述执行模块包括:
数据合并模块,配置用于响应于所述一组访问请求的访问类型为写入类型,基于所述第一访问请求中的第一数据和所述第二访问请求中的第二数据生成合并数据;以及
写入响应模块,配置用于响应于向所述存储设备中的所述合并地址处写入所述合并数据,分别向所述第一访问请求和所述第二访问请求返回第一响应和第二响应。
17.根据权利要求11所述的装置,进一步包括:
请求执行模块,配置用于基于所述一组访问请求中的所述至少一部分访问请求以外的其他访问请求,针对所述存储设备执行数据访问操作。
18.根据权利要求11所述的装置,其中所述获取模块包括:
请求获取模块,配置用于从存储用于访问所述存储设备的访问请求的环形链表获取所述一组访问请求。
19.根据权利要求18所述的装置,进一步包括:
请求选择模块,配置用于在预定时间间隔内,从所述环形链表中选择所述一组访问请求,所述一组访问请求的数量不高于阈值数量。
20.根据权利要求18所述的装置,进一步包括:
修改模块,配置用于修改所述环形链表的指针,以指示所述一组访问请求已经被处理。
21.一种用于管理访问请求的设备,所述设备包括:
一个或多个处理器;以及
存储装置,用于存储一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求1-10中任一项所述的方法。
22.一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1-10中任一项所述的方法。
CN201910440376.7A 2019-05-24 2019-05-24 用于管理访问请求的方法、装置、设备和存储介质 Active CN110187835B (zh)

Priority Applications (4)

Application Number Priority Date Filing Date Title
CN201910440376.7A CN110187835B (zh) 2019-05-24 2019-05-24 用于管理访问请求的方法、装置、设备和存储介质
US16/707,393 US11474712B2 (en) 2019-05-24 2019-12-09 Method, apparatus, device and storage medium for managing access request
KR1020200003625A KR102236419B1 (ko) 2019-05-24 2020-01-10 액세스 요청을 관리하기 위한 방법, 장치, 기기 및 저장 매체
JP2020003206A JP7039631B2 (ja) 2019-05-24 2020-01-10 アクセスリクエストを管理するための方法、装置、デバイス、および記憶媒体

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910440376.7A CN110187835B (zh) 2019-05-24 2019-05-24 用于管理访问请求的方法、装置、设备和存储介质

Publications (2)

Publication Number Publication Date
CN110187835A true CN110187835A (zh) 2019-08-30
CN110187835B CN110187835B (zh) 2023-02-03

Family

ID=67717638

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910440376.7A Active CN110187835B (zh) 2019-05-24 2019-05-24 用于管理访问请求的方法、装置、设备和存储介质

Country Status (4)

Country Link
US (1) US11474712B2 (zh)
JP (1) JP7039631B2 (zh)
KR (1) KR102236419B1 (zh)
CN (1) CN110187835B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111176566A (zh) * 2019-12-25 2020-05-19 山东方寸微电子科技有限公司 一种支持queue命令的eMMC读写控制方法及存储介质
CN112015672A (zh) * 2020-08-28 2020-12-01 北京浪潮数据技术有限公司 一种存储系统中数据处理方法、装置、设备及存储介质
CN112712167A (zh) * 2020-12-31 2021-04-27 北京清微智能科技有限公司 支持多种卷积神经网络加速的存储器访问方法及系统
CN112948279A (zh) * 2019-11-26 2021-06-11 伊姆西Ip控股有限责任公司 管理存储系统中的访问请求的方法、设备和程序产品
CN113553292A (zh) * 2021-06-28 2021-10-26 睿思芯科(深圳)技术有限公司 一种向量处理器及相关数据访存方法
WO2023108989A1 (zh) * 2021-12-16 2023-06-22 北京小米移动软件有限公司 数据访问方法、装置及非临时性计算机可读存储介质

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240078017A1 (en) * 2022-09-01 2024-03-07 Advanced Micro Devices, Inc. Memory controller and near-memory support for sparse accesses

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991098A (ja) * 1995-09-27 1997-04-04 Nec Software Ltd デバイスドライバアクセス方式
JPH09269927A (ja) * 1996-03-29 1997-10-14 Mitsubishi Electric Corp バスアクセス方法、バス、並びにバス接続システム
US5774682A (en) * 1995-12-11 1998-06-30 International Business Machines Corporation System for concurrent cache data access by maintaining and selectively merging multiple ranked part copies
KR20030051406A (ko) * 2001-12-19 2003-06-25 에이저 시스템즈 인크 메모리 시스템, 처리 시스템 및 메모리 시스템 내 사용 방법
JP2008165779A (ja) * 2000-08-04 2008-07-17 Avaya Technology Corp コネクションオリエンテッドトランザクションにおけるurlオブジェクトのインテリジェントな需要に基づく認識
US20100180086A1 (en) * 2009-01-14 2010-07-15 International Business Machines Corporation Data storage device driver
US20130060981A1 (en) * 2011-09-06 2013-03-07 Western Digital Technologies, Inc. Systems and methods for an enhanced controller architecture in data storage systems
US8898417B1 (en) * 2009-10-20 2014-11-25 Micron Technology, Inc. Block-based storage device with a memory-mapped interface
JP2015505091A (ja) * 2011-12-13 2015-02-16 エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc キャッシュのプレローディングにgpuコントローラを使用するための機構
CN104850502A (zh) * 2015-05-05 2015-08-19 华为技术有限公司 一种数据的访问方法、装置及设备
US20160011969A1 (en) * 2014-07-08 2016-01-14 Quanta Storage Inc. Method for accessing data in solid state disk
CN107635027A (zh) * 2017-09-27 2018-01-26 网易(杭州)网络有限公司 一种域名解析方法、介质、装置和计算设备
US20180189101A1 (en) * 2016-12-30 2018-07-05 Samsung Electronics Co., Ltd. Rack-level scheduling for reducing the long tail latency using high performance ssds
US20190129646A1 (en) * 2017-10-27 2019-05-02 EMC IP Holding Company LLC Method, system, and computer program product for managing storage system

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8289984B2 (en) 2003-01-13 2012-10-16 Emlilex Design & Manufacturing Corporation Allocation-unit-based virtual formatting methods and devices employing allocation-unit-based virtual formatting methods
US8055816B2 (en) * 2009-04-09 2011-11-08 Micron Technology, Inc. Memory controllers, memory systems, solid state drives and methods for processing a number of commands
US8650354B2 (en) * 2011-07-22 2014-02-11 International Business Machines Corporation Prefetching tracks using multiple caches
US9378572B2 (en) 2012-08-17 2016-06-28 Intel Corporation Shared virtual memory
US20150213047A1 (en) * 2014-01-24 2015-07-30 Netapp Inc. Coalescing sequences for host side deduplication
CN108231109B (zh) * 2014-06-09 2021-01-29 华为技术有限公司 动态随机存取存储器dram的刷新方法、设备以及系统
US20160062911A1 (en) * 2014-08-27 2016-03-03 Advanced Micro Devices, Inc. Routing direct memory access requests in a virtualized computing environment
TWI685744B (zh) * 2018-09-06 2020-02-21 大陸商深圳大心電子科技有限公司 指令處理方法及使用所述方法的儲存控制器
US10908841B2 (en) * 2018-09-24 2021-02-02 Cisco Technology, Inc. Increasing throughput of non-volatile memory express over fabric (NVMEoF) via peripheral component interconnect express (PCIe) interface
US11422938B2 (en) * 2018-10-15 2022-08-23 Texas Instruments Incorporated Multicore, multibank, fully concurrent coherence controller

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0991098A (ja) * 1995-09-27 1997-04-04 Nec Software Ltd デバイスドライバアクセス方式
US5774682A (en) * 1995-12-11 1998-06-30 International Business Machines Corporation System for concurrent cache data access by maintaining and selectively merging multiple ranked part copies
JPH09269927A (ja) * 1996-03-29 1997-10-14 Mitsubishi Electric Corp バスアクセス方法、バス、並びにバス接続システム
JP2008165779A (ja) * 2000-08-04 2008-07-17 Avaya Technology Corp コネクションオリエンテッドトランザクションにおけるurlオブジェクトのインテリジェントな需要に基づく認識
KR20030051406A (ko) * 2001-12-19 2003-06-25 에이저 시스템즈 인크 메모리 시스템, 처리 시스템 및 메모리 시스템 내 사용 방법
US20100180086A1 (en) * 2009-01-14 2010-07-15 International Business Machines Corporation Data storage device driver
US8898417B1 (en) * 2009-10-20 2014-11-25 Micron Technology, Inc. Block-based storage device with a memory-mapped interface
US20130060981A1 (en) * 2011-09-06 2013-03-07 Western Digital Technologies, Inc. Systems and methods for an enhanced controller architecture in data storage systems
JP2015505091A (ja) * 2011-12-13 2015-02-16 エーティーアイ・テクノロジーズ・ユーエルシーAti Technologies Ulc キャッシュのプレローディングにgpuコントローラを使用するための機構
US20160011969A1 (en) * 2014-07-08 2016-01-14 Quanta Storage Inc. Method for accessing data in solid state disk
CN104850502A (zh) * 2015-05-05 2015-08-19 华为技术有限公司 一种数据的访问方法、装置及设备
US20180189101A1 (en) * 2016-12-30 2018-07-05 Samsung Electronics Co., Ltd. Rack-level scheduling for reducing the long tail latency using high performance ssds
CN107635027A (zh) * 2017-09-27 2018-01-26 网易(杭州)网络有限公司 一种域名解析方法、介质、装置和计算设备
US20190129646A1 (en) * 2017-10-27 2019-05-02 EMC IP Holding Company LLC Method, system, and computer program product for managing storage system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李超等: "面向Web服务的多核体系结构流水线模型", 《装备学院学报》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112948279A (zh) * 2019-11-26 2021-06-11 伊姆西Ip控股有限责任公司 管理存储系统中的访问请求的方法、设备和程序产品
CN111176566A (zh) * 2019-12-25 2020-05-19 山东方寸微电子科技有限公司 一种支持queue命令的eMMC读写控制方法及存储介质
CN111176566B (zh) * 2019-12-25 2023-09-19 山东方寸微电子科技有限公司 一种支持queue命令的eMMC读写控制方法及存储介质
CN112015672A (zh) * 2020-08-28 2020-12-01 北京浪潮数据技术有限公司 一种存储系统中数据处理方法、装置、设备及存储介质
CN112712167A (zh) * 2020-12-31 2021-04-27 北京清微智能科技有限公司 支持多种卷积神经网络加速的存储器访问方法及系统
CN113553292A (zh) * 2021-06-28 2021-10-26 睿思芯科(深圳)技术有限公司 一种向量处理器及相关数据访存方法
WO2023108989A1 (zh) * 2021-12-16 2023-06-22 北京小米移动软件有限公司 数据访问方法、装置及非临时性计算机可读存储介质

Also Published As

Publication number Publication date
JP2020194524A (ja) 2020-12-03
US11474712B2 (en) 2022-10-18
KR102236419B1 (ko) 2021-04-08
JP7039631B2 (ja) 2022-03-22
CN110187835B (zh) 2023-02-03
KR20200135718A (ko) 2020-12-03
US20200371696A1 (en) 2020-11-26

Similar Documents

Publication Publication Date Title
CN110187835A (zh) 用于管理访问请求的方法、装置、设备和存储介质
Hernández et al. Using machine learning to optimize parallelism in big data applications
KR102668599B1 (ko) 하드웨어 가속을 위한 하드웨어 리소스들의 임베디드 스케줄링
WO2021254135A1 (zh) 任务执行方法及存储设备
CN102999132B (zh) 管理计算系统的存储模块间的热分布的方法和系统
CN111046072A (zh) 一种数据查询方法、系统、异构计算加速平台及存储介质
EP0644486A2 (en) Management of data accesses in computer systems
JP6172649B2 (ja) 情報処理装置、プログラム、及び、情報処理方法
CN110209597A (zh) 处理访问请求的方法、装置、设备和存储介质
CN102725734A (zh) 带隔离的批调度
CN101504594A (zh) 一种数据存储方法和装置
CN110291503B (zh) 信息处理系统和信息处理方法
CN115129782A (zh) 一种分布式数据库的分区级连接方法和装置
JP2012530976A (ja) 仮想化超並列プログラマブルハードウェアによる正規表現の検索
US10713162B1 (en) System and method for computer data garbage collection acceleration using peer to peer data transfers
KR20220147496A (ko) 어댑티브 니어 스토리지 연산을 위한 시스템, 방법, 디바이스 및 장치
JP5697195B2 (ja) アクセス予測に基づいてテーブルのミラーリングを制御する管理システム、プログラムおよび方法
CN108475201A (zh) 一种虚拟机启动过程中的数据获取方法和云计算系统
Baresi et al. Fine-grained dynamic resource allocation for big-data applications
CN116136783A (zh) 多加速器框架中的高效加速器卸载
CN114443680A (zh) 数据库管理系统、相关装置、方法和介质
CN114489475A (zh) 分布式存储系统及其数据存储方法
KR20110031647A (ko) 이기종 멀티프로세서 시스템 온 칩에서의 rpc 데이터 배치 방법 및 장치
Yu et al. Stateful large language model serving with pensieve
CN109981732A (zh) 海量文件传输控制方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant