CN110888592A - 基于延迟ssd系统智能并行资源利用的请求调度方法及系统 - Google Patents

基于延迟ssd系统智能并行资源利用的请求调度方法及系统 Download PDF

Info

Publication number
CN110888592A
CN110888592A CN201910408032.8A CN201910408032A CN110888592A CN 110888592 A CN110888592 A CN 110888592A CN 201910408032 A CN201910408032 A CN 201910408032A CN 110888592 A CN110888592 A CN 110888592A
Authority
CN
China
Prior art keywords
request
ssd
time
channel
batch
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910408032.8A
Other languages
English (en)
Other versions
CN110888592B (zh
Inventor
陈仁海
关启明
冯志勇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Research Institute Of Tianjin University
Original Assignee
Shenzhen Research Institute Of Tianjin University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Research Institute Of Tianjin University filed Critical Shenzhen Research Institute Of Tianjin University
Priority to CN201910408032.8A priority Critical patent/CN110888592B/zh
Publication of CN110888592A publication Critical patent/CN110888592A/zh
Application granted granted Critical
Publication of CN110888592B publication Critical patent/CN110888592B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0602Interfaces specially adapted for storage systems specifically adapted to achieve a particular effect
    • G06F3/061Improving I/O performance
    • G06F3/0611Improving I/O performance in relation to response time
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/06Digital input from, or digital output to, record carriers, e.g. RAID, emulated record carriers or networked record carriers
    • G06F3/0601Interfaces specially adapted for storage systems
    • G06F3/0668Interfaces specially adapted for storage systems adopting a particular infrastructure
    • G06F3/0671In-line storage system
    • G06F3/0673Single storage device
    • G06F3/0679Non-volatile semiconductor memory device, e.g. flash memory, one time programmable memory [OTP]
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Memory System Of A Hierarchy Structure (AREA)

Abstract

本发明公开了基于延迟SSD系统智能并行资源利用的请求调度方法及系统。方法包括通过构建包括SSD通道时间消耗模型、在闪存芯片中读写请求的执行时间模型和第n个信道的总延迟模型组成的SSD模型,然后基于该模型进行写入请求调度,根据总延迟最少时间的信道,将线性预测信息插入第n个信道队列并根据公式(6)更新该信道的总延迟时间。系统包括数据总线、与数据总线通讯的缓存寄存器和与缓存寄存器通讯的SSD;SSD包括SSD控制器、与SSD控制器通讯的闪存芯片和连接闪存芯片与SSD控制器的通道;在SSD控制器中构件SSD模型。本发明可以实现性能的提升。

Description

基于延迟SSD系统智能并行资源利用的请求调度方法及系统
技术领域
本发明涉及基于延迟SSD系统智能并行资源利用的请求调度方法及系统。
背景技术
基于闪存的固态硬盘由于其低待机功率、高密度和抗冲击性等具有吸引力的特性而在电子设备的应用中日益普及。虽然现代SSD使用高性能接口,如16GB/s PCIe接口,但SSD内部的存储介质NAND闪存的速度有限,例如40MB/s。为了弥合这一巨大的性能差距,多个并行组件被设计旨在提供快速的数据访问。但是,如何充分利用这些并行组件已成为一个具有挑战性的问题。
一些现有技术已经研究了如何利用SSD中的并行资源。有人研究了系统级并行性,侧重于多通道和多路架构。他提出了并行请求方案和微米式交织来改善这种系统级并行性。相比之下,另外的人研究了高级闪存操作和这些操作的相互作用以便利用闪存级并行性。他提出了信道交织、平面对以及多平面闪存操作以最大化这种闪存级并行性。然而,这些研究忽略了读/写请求的不同访问特性,并简单地使用循环方法将读/写请求均匀地分配给不同的并行组件,导致SSD中可用带宽利用不足。为了解决这个问题,提出了一种基于权重的调度来为读/写请求分配不同的权重。但是,这项工作对每个读/写请求使用固定权重,而没有考虑所访问的并行组件的状态,这将导致SSD内部组件的利用率不足。如何充分探索SSD内部组件的运行状态以达到充分利用SSD内部资源是本发明要解决的问题。
发明内容
本发明的目的是提供一种基于延迟SSD系统智能并行资源利用的请求调度方法及系统。本发明能提升写入和读取速度等性能。
为达到上述目的,基于延迟SSD系统智能并行资源利用的请求调度方法包括:
(1)构建SSD模型,并将SSD模型集成到SSD控制器中;SSD模型包括SSD通道时间消耗模型、在闪存芯片中读写请求的执行时间模型和第n个信道的总延迟模型;
SSD通道时间消耗模型包括SSD通道中批量写入请求的传输时间模型、SSD系统中批量读请求命令的传输时间模型和SSD系统中批量读取数据在通道中的传输时间模型;
其中,SSD通道中批量写入请求的传输时间模型用公式(1)表达,
Tchannel_w=Nrequest_batch*(Tcommands+Tdata).......(1)
Tchannel_w为SSD通道中批量写入请求的传输时间,Nrequest_batch为批量写入或读取请求的对应的通道,Tcommands为SSD通道批量写入或读入命令的时间,Tdata为SSD通道批量写入或读入数据的时间;
SSD系统中批量读请求命令的传输时间模型用公式(2)表达,
Tchannel_r_commands=Nrequest_batch*Tcommands........(2)
公式(2)中的Tchannel_r commands为SSD系统中批量读请求命令的传输时间;
SSD系统中批量读取数据在通道中的传输时间模型用公式(3)表达,
Tchannel_r_data=Nrequest_batch*Tdata.................(3)
公式(3)中的Tchannel_r_data为SSD系统中批量读取数据在通道中的传输时间;
在闪存芯片中读写请求的执行时间模型包括在闪存芯片中写入请求的执行时间模型和在闪存芯片中读取请求的执行时间模型;
在闪存芯片中写入请求的执行时间模型用公式(4)表达,在闪存芯片中读取请求的执行时间模型用公式(5)表达,
Tflash_w=Nrequest_batch*(Tcommands+Tdata)+TPROG.........(4)
Tflash_r=Nrequest_batch*(Tcommands+Tdata)+TR..............(5)
Tflash_w为在闪存芯片中写入请求的执行时间,Tflash_r为在闪存芯片中读取请求的执行时间;TR和TPROG分别是将物理页面读取到缓存寄存器以及缓存寄存器中的数据编程写入物理页的时间;
第n个信道的总延迟模型用公式(6)表达,
Figure BDA0002061884400000031
delayi为每个批次请求延迟;每个批次请求延迟delayi的计算如公式(7)所示:
delayi=Trequest_end-Trequest_arrive-Trequest_time..............(7)
Trequest_arrive是请求到达SSD控制器的时间,Trequest_end是请求执行结束的时间,Trequest_time是SSD系统处理请求的时间,SSD系统处理请求的时间包括公式(1)、(2)、(3)、(4)的至少一个时间;
(2)执行调度:当写入请求到达SSD控制器时,SSD控制器将写入请求分配给拥有最小总延迟的信道队列,信道队列的总延迟用公式(6)计算;然后,该最小总延迟的信道队列中的请求正在等待执行;最后,将线性预测信息插入第n个信道队列并根据公式(6)更新该信道的总延迟时间。
基于延迟SSD系统智能并行资源利用的请求调度系统包括数据总线、与数据总线通讯的缓存寄存器和与缓存寄存器通讯的SSD;SSD包括SSD控制器、与SSD控制器通讯的闪存芯片和连接闪存芯片与SSD控制器的通道;在SSD控制器中构件SSD模型。
进一步的,Tcommands和Tdata分别通过公式(8)和(9)表达,
Tcommands=7*Tbus...........................(8)
Tdata=Spage*Tbus...........................(9)
式中Tbus是在数据总线上传输一个物理页面所花费的时间。
进一步的,Tcommands的计算被划分成三个部分;分别为:对于一个读写请求,首先花费一个Tbus时间通过数据总线传输一个起始命令(00h),之后花费5个Tbus时间通过总线传输一个读/写操作地址,紧接着花费一个Tbus时间传输结束命令(30h)。
进一步的,执行调度是利用信道总线的空闲时间,通道中闪存的空闲时间以及批量请求使用SSD模型线性预测批量请求的延迟时间。
进一步的,线性预测信息包括批量请求、请求延迟时间和批量请求的开始和结束时间。
进一步的,SSD模型的构建是将影响SSD服务时间的特征被抽象为一组参数;参数包括通道数、每个通道中的闪存芯片数和数据总线中的数据访问时间。
本发明的有益效果是:
通过提供详细的评估和分析,以量化本发明的技术方案如何通过有效的设备建模和请求调度来增强SSD的I/O性能。实验结果表明,与最先进的技术相比,本发明的技术方案可以提高16.5%的性能。此外,观察到总线传输速率和页面读取时间的差异对性能的提升是很敏感。实验结果表明,当闪存总线消耗的时间与页面读取时间之间的差距变大时,与基线方案相比,本发明可以实现性能的提升。
附图说明
图1是SSD的内部结构。
图2是基于权重请求调度策略的13个请求调度案例图。
图3是基于延迟请求调度策略的13个请求调度案例图
图4是基于权重和基于延迟的请求调度策略的13个请求在SSD的通道上的执行对比示意图。
图5是基于权重和基于延迟的请求调度策略的13个请求在SSD的闪存上的执行对比示意图。
图6是基于延迟请求调度策略的算法描述。
图7是实验使用的数据。
图8是基于延迟和权重的请求调度策略的IOPS比较图。
图9是基于延迟和权重的请求调度策略的请求执行时间比较图
图10是研究总线的传输速率对基于权重和基于延迟两种请求调度策略的IOPS的影响。
图11是研究总线的传输速率对基于权重和基于延迟两种请求调度策略的请求执行时间的影响。
图12是页面读写延迟对基于权重和基于延迟请求调度策略的IOPS的影响。
图13是页面读写延迟对基于权重和基于延迟请求调度策略的请求执行时间的影响。
具体实施方式
下面结合附图和具体实施方式对本发明进行进一步详细说明。
参见图1,这是典型的SSD内部结构,将SSD影响其服务时间的特征被抽象为一组参数,参数包括通道数,每个通道中的闪存芯片,数据总线中的数据访问时间等,根据并行结构以及之间的参数关系构建通用的SSD模型,并将SSD模型集成到SSD控制器中。
SSD模型包括SSD通道时间消耗模型、在闪存芯片中读写请求的执行时间模型和第n个信道的总延迟模型。
SSD通道时间消耗模型包括SSD通道中批量写入请求的传输时间模型、SSD系统中批量读请求命令的传输时间模型和SSD系统中批量读取数据在通道中的传输时间模型。
其中,SSD通道中批量写入请求的传输时间模型用公式(1)表达,
Tchannel_w=Nrequest_batch*(Tcommands+Tdata).......(1)
Tchannel_w为SSD通道中批量写入请求的传输时间,Nrequest_batch为批量写入或读取请求的对应的通道,Tcommands为SSD通道批量写入或读入命令的时间,Tdata为SSD通道批量写入或读入数据的时间。
Tcommands和Tdata分别通过公式(8)和(9)表达,
Tcommands=7*Tbus...........................(8)
Tdata=Spage*Tbus...........................(9)
式中Tbus是在数据总线上传输一个物理页面所花费的时间。
Tcommands的计算被划分成三个部分;分别为:对于一个读写请求,首先花费一个Tbus时间通过数据总线传输一个起始命令(00h),之后花费5个Tbus时间通过总线传输一个读/写操作地址,紧接着花费一个Tbus时间传输结束命令(30h)。
SSD系统中批量读请求命令的传输时间模型用公式(2)表达,
Tchannel_r_commands=Nrequest_batch*Tcommands........(2)
公式(2)中的Tchannel_r commands为SSD系统中批量读请求命令的传输时间。
SSD系统中批量读取数据在通道中的传输时间模型用公式(3)表达,
Tchannel_r_data=Nrequest_batch*Tdata.................(3)
公式(3)中的Tchannel_r_data为SSD系统中批量读取数据在通道中的传输时间。
在闪存芯片中读写请求的执行时间模型包括在闪存芯片中写入请求的执行时间模型和在闪存芯片中读取请求的执行时间模型;
在闪存芯片中写入请求的执行时间模型用公式(4)表达,在闪存芯片中读取请求的执行时间模型用公式(5)表达,
Tflash_w=Nrequest_batch*(Tcommands+Tdata)+TPROG.........(4)
Tflash_r=Nrequest_batch*(Tcommands+Tdata)+TR..............(5)
Tflash_w为在闪存芯片中写入请求的执行时间,Tflash_r为在闪存芯片中读取请求的执行时间;TR和TPROG分别是将物理页面读取到缓存寄存器以及缓存寄存器中的数据编程写入物理页的时间。
第n个信道的总延迟模型用公式(6)表达,
Figure BDA0002061884400000071
delayi为每个批次请求延迟;每个批次请求延迟delayi的计算如公式(7)所示:
delayi=Trequest_end-Trequest_arrive-Trequest_time..............(7)
Trequest_arrive是请求到达SSD控制器的时间,Trequest_end是请求执行结束的时间,Trequest_time是SSD系统处理请求的时间,SSD系统处理请求的时间包括公式(1)、(2)、(3)、(4)的至少一个时间。
在本发明中信道即为通道。
基于延迟SSD系统智能并行资源利用的请求调度方法为先构建SSD模型,然后执行调度,其过程为:当写入请求到达SSD控制器时,SSD控制器将写入请求分配给拥有最小总延迟的信道队列,信道队列的总延迟用公式(6)计算;然后,该最小总延迟的信道队列中的请求正在等待执行;最后,将线性预测信息插入第n个信道队列并根据公式(6)更新该信道的总延迟时间。
因为读取请求的请求路径是固定的,所以不需要动态选择通道和闪存。
参见图2、图3、图4和图5,这是针对13个请求分别在通道队列以及SSD并行组件的上执行状态。图4和图5中Delay-based为基于延时,Weight-based为基于权重。
参见图6,这是基于延迟请求调度算法的描述。
参见图7,这是验证请求调度性能的实验数据。其中DATA SIZE为数据大小,WriteFraction为写入数量,Avg.Write Size为平均写入大小,Avg.Read Size为平均读入大小。
下面简要介绍图8至图13中的实验环境。我们开发了跟踪驱动的SSD模拟器并实现了三种方案:轮询(即图中RR),基于权重(即为图中Weight-based)的以及基于延迟(即为图中Delay-based)的技术方案。请注意,该处中使用的轮询方案将先前的智慧与SSD中的并行资源相结合。在SSD模拟器中,我们每个通道使用16个通道和8个闪存芯片,总共128个闪存芯片来模拟SSD设备。Micron 16Gb多级单元(MLC)NAND闪存用于模拟闪存器件。我们评估了拟议方案对Financial和WebSearch数据集的有效性。SSD内部总线的传输速度为38MB/s或50MB/s。我们设置MLC NAND页面读取延迟定义为20us或30us,页面写入延迟定义为200us或400us。我们在此实验中使用的页面大小为2KB。该块由128页组成,每个平面包含2,048个块。MLC闪存采用双芯片和双平面架构。
参见图8和图9,在我们的请求执行模拟示例中,对于写密集型数据Financial1,与轮询的请求调度策略相比,基于权重的请求调度策略的IOPS和请求执行时间分别提高了10%和9.1%。但是,对于读取密集型数据WebSearch1,与轮询的请求调度策略相比,基于权重的请求调度策略的IOPS和请求执行时间分别提高了95.1%和48.7%。此外,我们比较了基于延迟和基于权重的请求调度策略对IOPS和请求执行时间的影响。对于写密集型数据Financial1,与基于权重的请求调度策略相比,基于延迟的请求调度策略的IOPS和请求执行时间分别提高了9.3%和8.5%。对于读密集型应用程序WebSearch1,两个策略的IOPS和请求执行时间大致相同。
参见图10和图11,在我们的请求执行模拟示例中,我们比较了在不同总线传输速度下请求分配策略对SSD性能的影响。我们设置页面读写延迟分别为20us和200us,总线的传输速率配置为38MB/s或50MB/s。对于写密集型数据Financial1,当总线传输速率为38MB/s时,与基于权重的请求调度策略相比,基于延迟的调度策略的IOPS和请求执行时间分别提高了9.3%和8.5%。另外,图中,Weight-based-b50为基于权重的总线传输速率为50MB/S的情况,Weight-based-b38为基于权重的总线传输速率为38MB/S的情况,Delay-based-b50为基于延迟的总线传输速率为50MB/S的情况,Delay-based-b38为基于延迟的总线传输速率为38MB/S的情况,当总线的传输速率为50MB/s时,与基于权重的请求调度策略相比,基于延迟的请求调度策略的IOPS和请求执行时间分别提高了7.2%和6.7%。
见图12和图13,在我们的请求执行模拟示例中,我们比较了在不同页面读写延迟下请求调度策略对SSD性能的影响。我们设置总线传输速率配置为38MB/s,读写延迟分别设置为20us,200us和30us,400us。图中,Weight-based-r20-w200为基于权重的读出延迟为20us,写入延迟时间为200us的情况,Weight-based-r30-w400为基于权重的读出延迟为30us,写入延迟时间为400us的情况,Delay-based-r20-w200为基于延迟的读出延迟为20us,写入延迟时间为200us的情况,Delay-based-r30-w400为基于延迟的读出延迟为30us,写入延迟时间为400us的情况,对于写密集型数据Financial1,当读写延迟设置为20us,200us时,基于延迟的请求调度策略的IOPS和请求执行时间分别比基于权重的请求调度策略性能提高了9.3%和8.5%。此外,当读写延迟设置为30us,400us时,基于延迟的请求调度策略的IOPS和请求执行时间分别比基于权重的请求调度提高了16.5%和14.2%。
通过提供详细的评估和分析,以量化本发明的技术方案如何通过有效的设备建模和请求调度来增强SSD的I/O性能。实验结果表明,与最先进的技术相比,本发明的技术方案可以提高16.5%的性能。此外,观察到总线传输速率和页面读取时间的差异对性能的提升是很敏感。实验结果表明,当闪存总线消耗的时间与页面读取时间之间的差距变大时,与基线方案相比,本发明可以实现性能的提升。

Claims (10)

1.基于延迟SSD系统智能并行资源利用的请求调度方法,其特征在于:
(1)构建SSD模型,并将SSD模型集成到SSD控制器中;SSD模型包括SSD通道时间消耗模型、在闪存芯片中读写请求的执行时间模型和第n个信道的总延迟模型;
SSD通道时间消耗模型包括SSD通道中批量写入请求的传输时间模型、SSD系统中批量读请求命令的传输时间模型和SSD系统中批量读取数据在通道中的传输时间模型;
其中,SSD通道中批量写入请求的传输时间模型用公式(1)表达,
Tchannel_w=Nrequest_batch*(Tcommands+Tdata).......(1)
Tchannel_w为SSD通道中批量写入请求的传输时间,Nrequest_batch为批量写入或读取请求的对应的通道,Tcommands为SSD通道批量写入或读入命令的时间,Tdata为SSD通道批量写入或读入数据的时间;
SSD系统中批量读请求命令的传输时间模型用公式(2)表达,
Tchannel_r_commands=Nrequest_batch*Tcommands........(2)
公式(2)中的Tchannel_rcommands为SSD系统中批量读请求命令的传输时间;
SSD系统中批量读取数据在通道中的传输时间模型用公式(3)表达,
Tchannel_r_data=Nrequest_batch*Tdata.................(3)
公式(3)中的Tchannel_r_data为SSD系统中批量读取数据在通道中的传输时间;
在闪存芯片中读写请求的执行时间模型包括在闪存芯片中写入请求的执行时间模型和在闪存芯片中读取请求的执行时间模型;
在闪存芯片中写入请求的执行时间模型用公式(4)表达,在闪存芯片中读取请求的执行时间模型用公式(5)表达,
Tflash_w=Nrequest_batch*(Tcommands+Tdata)+TPROG.........(4)
Tflash_r=Nrequest_batch*(Tcommands+Tdata)+TR..............(5)
Tflash_w为在闪存芯片中写入请求的执行时间,Tflash_r为在闪存芯片中读取请求的执行时间;TR和TPROG分别是将物理页面读取到缓存寄存器以及缓存寄存器中的数据编程写入物理页的时间;
第n个信道的总延迟模型用公式(6)表达,
Figure FDA0002061884390000021
delayi为每个批次请求延迟;每个批次请求延迟delayi的计算如公式(7)所示:
delayi=Trequest_end-Trequest_arrive-Trequest_time..............(7)
Trequest_arrive是请求到达SSD控制器的时间,Trequest_end是请求执行结束的时间,Trequest_time是SSD系统处理请求的时间,SSD系统处理请求的时间包括公式(1)、(2)、(3)、(4)的至少一个时间;
(2)执行调度:当写入请求到达SSD控制器时,SSD控制器将写入请求分配给拥有最小总延迟的信道队列,信道队列的总延迟用公式(6)计算;然后,该最小总延迟的信道队列中的请求正在等待执行;最后,将线性预测信息插入第n个信道队列并根据公式(6)更新该信道的总延迟时间。
2.根据权要求1所述的基于延迟SSD系统智能并行资源利用的请求调度方法,其特征在于:Tcommands和Tdata分别通过公式(8)和(9)表达,
Tcommands=7*Tbus...........................(8)
Tdata=Spage*Tbus...........................(9)
式中Tbus是在数据总线上传输一个物理页面所花费的时间。
3.根据权要求2所述的基于延迟SSD系统智能并行资源利用的请求调度方法,其特征在于:Tcommands的计算被划分成三个部分;分别为:对于一个读写请求,首先花费一个Tbus时间通过数据总线传输一个起始命令(00h),之后花费5个Tbus时间通过总线传输一个读/写操作地址,紧接着花费一个Tbus时间传输结束命令(30h)。
4.根据权要求1所述的基于延迟SSD系统智能并行资源利用的请求调度方法,其特征在于:执行调度是利用信道总线的空闲时间,通道中闪存的空闲时间以及批量请求使用SSD模型线性预测批量请求的延迟时间。
5.根据权要求1或4所述的基于延迟SSD系统智能并行资源利用的请求调度方法,其特征在于:线性预测信息包括批量请求、请求延迟时间和批量请求的开始和结束时间。
6.根据权要求1所述的基于延迟SSD系统智能并行资源利用的请求调度方法,其特征在于:SSD模型的构建是将影响SSD服务时间的特征被抽象为一组参数;参数包括通道数、每个通道中的闪存芯片数和数据总线中的数据访问时间。
7.基于延迟SSD系统智能并行资源利用的请求调度系统,其特征在于:包括数据总线、与数据总线通讯的缓存寄存器和与缓存寄存器通讯的SSD;SSD包括SSD控制器、与SSD控制器通讯的闪存芯片和连接闪存芯片与SSD控制器的通道;在SSD控制器中构件SSD模型;
SSD模型包括SSD通道时间消耗模型、在闪存芯片中读写请求的执行时间模型和第n个信道的总延迟模型;
SSD通道时间消耗模型包括SSD通道中批量写入请求的传输时间模型、SSD系统中批量读请求命令的传输时间模型和SSD系统中批量读取数据在通道中的传输时间模型;
其中,SSD通道中批量写入请求的传输时间模型用公式(1)表达,
Tchannel_w=Nrequest_batch*(Tcommands+Tdata).......(1)
Tchannel_w为SSD通道中批量写入请求的传输时间,Nrequest_batch为批量写入或读取请求的对应的通道,Tcommands为SSD通道批量写入或读入命令的时间,Tdata为SSD通道批量写入或读入数据的时间;
SSD系统中批量读请求命令的传输时间模型用公式(2)表达,
Tchannel_r_commands=Nrequest_batch*Tcommands........(2)
公式(2)中的Tchannel_rcommands为SSD系统中批量读请求命令的传输时间;
SSD系统中批量读取数据在通道中的传输时间模型用公式(3)表达,
Tchannel_r_data=Nrequest_batch*Tdata.................(3)
公式(3)中的Tchannel_r_data为SSD系统中批量读取数据在通道中的传输时间;
在闪存芯片中读写请求的执行时间模型包括在闪存芯片中写入请求的执行时间模型和在闪存芯片中读取请求的执行时间模型;
在闪存芯片中写入请求的执行时间模型用公式(4)表达,在闪存芯片中读取请求的执行时间模型用公式(5)表达,
Tflash_w=Nrequest_batch*(Tcommands+Tdata)+TPROG.........(4)
Tflash_r=Nrequest_batch*(Tcommands+Tdata)+TR..............(5)
Tflash_w为在闪存芯片中写入请求的执行时间,Tflash_r为在闪存芯片中读取请求的执行时间;TR和TPROG分别是将物理页面读取到缓存寄存器以及缓存寄存器中的数据编程写入物理页的时间;
第n个信道的总延迟模型用公式(6)表达,
Figure FDA0002061884390000041
delayi为每个批次请求延迟;每个批次请求延迟delayi的计算如公式(7)所示:
delayi=Trequest_end-Trequest_arrive-Trequest_time..............(7)
Trequest_arrive是请求到达SSD控制器的时间,Trequest_end是请求执行结束的时间,Trequest_time是SSD系统处理请求的时间,SSD系统处理请求的时间包括公式(1)、(2)、(3)、(4)的至少一个时间。
8.根据权利要求7所述的基于延迟SSD系统智能并行资源利用的请求调度系统,其特征在于:Tcommands和Tdata分别通过公式(8)和(9)表达,
Tcommands=7*Tbus...........................(8)
Tdata=Spage*Tbus...........................(9)
式中Tbus是在数据总线上传输一个物理页面所花费的时间。
9.根据权利要求8所述的基于延迟SSD系统智能并行资源利用的请求调度系统,其特征在于:Tcommands的计算被划分成三个部分;分别为:对于一个读写请求,首先花费一个Tbus时间通过数据总线传输一个起始命令(00h),之后花费5个Tbus时间通过总线传输一个读/写操作地址,紧接着花费一个Tbus时间传输结束命令(30h)。
10.根据权利要求7所述的基于延迟SSD系统智能并行资源利用的请求调度系统,其特征在于:SSD模型的构建是将影响SSD服务时间的特征被抽象为一组参数;参数包括通道数、每个通道中的闪存芯片数和数据总线中的数据访问时间。
CN201910408032.8A 2019-05-15 2019-05-15 基于延迟ssd系统智能并行资源利用的请求调度方法及系统 Active CN110888592B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910408032.8A CN110888592B (zh) 2019-05-15 2019-05-15 基于延迟ssd系统智能并行资源利用的请求调度方法及系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910408032.8A CN110888592B (zh) 2019-05-15 2019-05-15 基于延迟ssd系统智能并行资源利用的请求调度方法及系统

Publications (2)

Publication Number Publication Date
CN110888592A true CN110888592A (zh) 2020-03-17
CN110888592B CN110888592B (zh) 2023-09-15

Family

ID=69745797

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910408032.8A Active CN110888592B (zh) 2019-05-15 2019-05-15 基于延迟ssd系统智能并行资源利用的请求调度方法及系统

Country Status (1)

Country Link
CN (1) CN110888592B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113051196A (zh) * 2021-03-26 2021-06-29 武汉理工大学 一种基于固态硬盘层差异特征的请求调度算法
CN113253927A (zh) * 2021-05-06 2021-08-13 天津大学深圳研究院 一种提升四节点互联的raid5阵列性能及寿命的调度方法
CN115269468A (zh) * 2022-09-29 2022-11-01 北京特纳飞电子技术有限公司 状态读取指令发送方法、装置、存储设备和可读存储介质
EP4280070A1 (en) * 2022-05-17 2023-11-22 Samsung Electronics Co., Ltd. Systems and methods for solid state device (ssd) simulation

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101833989A (zh) * 2010-05-27 2010-09-15 华为技术有限公司 多接口固态硬盘及其处理方法和系统
CN103135945A (zh) * 2013-03-25 2013-06-05 中国人民解放军国防科学技术大学 用于ssd的多通道动态读写调度方法
US20160253091A1 (en) * 2015-02-27 2016-09-01 HGST Netherlands B.V. Methods and systems to reduce ssd io latency
CN108829346A (zh) * 2018-05-28 2018-11-16 华中科技大学 一种适应闪存页差异的固态硬盘的用户写请求处理方法
US20190043593A1 (en) * 2018-04-23 2019-02-07 Intel Corporation Method and apparatus to prioritize read response time in a power-limited storage device
US20190042150A1 (en) * 2017-08-07 2019-02-07 Toshiba Memory Corporation Ssd architecture supporting low latency operation

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101833989A (zh) * 2010-05-27 2010-09-15 华为技术有限公司 多接口固态硬盘及其处理方法和系统
CN103135945A (zh) * 2013-03-25 2013-06-05 中国人民解放军国防科学技术大学 用于ssd的多通道动态读写调度方法
US20160253091A1 (en) * 2015-02-27 2016-09-01 HGST Netherlands B.V. Methods and systems to reduce ssd io latency
US20190042150A1 (en) * 2017-08-07 2019-02-07 Toshiba Memory Corporation Ssd architecture supporting low latency operation
US20190043593A1 (en) * 2018-04-23 2019-02-07 Intel Corporation Method and apparatus to prioritize read response time in a power-limited storage device
CN108829346A (zh) * 2018-05-28 2018-11-16 华中科技大学 一种适应闪存页差异的固态硬盘的用户写请求处理方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
陈乃金等: "用于二维RCA跨层数据传输的旁节点无冗余添加算法", 《通信学报》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113051196A (zh) * 2021-03-26 2021-06-29 武汉理工大学 一种基于固态硬盘层差异特征的请求调度算法
CN113051196B (zh) * 2021-03-26 2021-11-02 武汉理工大学 一种基于固态硬盘层差异特征的请求调度算法
CN113253927A (zh) * 2021-05-06 2021-08-13 天津大学深圳研究院 一种提升四节点互联的raid5阵列性能及寿命的调度方法
EP4280070A1 (en) * 2022-05-17 2023-11-22 Samsung Electronics Co., Ltd. Systems and methods for solid state device (ssd) simulation
CN115269468A (zh) * 2022-09-29 2022-11-01 北京特纳飞电子技术有限公司 状态读取指令发送方法、装置、存储设备和可读存储介质
CN115269468B (zh) * 2022-09-29 2023-01-24 北京特纳飞电子技术有限公司 状态读取指令发送方法、装置、存储设备和可读存储介质

Also Published As

Publication number Publication date
CN110888592B (zh) 2023-09-15

Similar Documents

Publication Publication Date Title
CN110888592B (zh) 基于延迟ssd系统智能并行资源利用的请求调度方法及系统
Ganesh et al. Fully-buffered DIMM memory architectures: Understanding mechanisms, overheads and scaling
Kaseridis et al. Minimalist open-page: A DRAM page-mode scheduling policy for the many-core era
US20200356484A1 (en) Timed Data Transfer between a Host System and a Memory Sub-System
Akel et al. Onyx: A prototype phase change memory storage array
Gao et al. Exploiting parallelism for access conflict minimization in flash-based solid state drives
Li et al. A performance & power comparison of modern high-speed dram architectures
US10572389B2 (en) Cache control aware memory controller
CN103246625B (zh) 一种数据与地址共用引脚自适应调整访存粒度的方法
US9336164B2 (en) Scheduling memory banks based on memory access patterns
WO2005114669A2 (en) System and method for improving performance in computer memory systems supporting multiple memory access latencies
US11782841B2 (en) Management of programming mode transitions to accommodate a constant size of data transfer between a host system and a memory sub-system
CN116324744A (zh) 具有多个命令子队列和对应的仲裁器的存储器控制器
CN114371813A (zh) 写入流优先级的识别和分类
US20220350655A1 (en) Controller and memory system having the same
WO2018063629A1 (en) Power management and monitoring for storage devices
US20220374150A1 (en) Adjustable timer component for semiconductor devices
Jung et al. Architecture exploration of flash memory storage controller through a cycle accurate profiling
Chen et al. Delay-based I/O request scheduling in SSDs
Liu et al. LAMS: A latency-aware memory scheduling policy for modern DRAM systems
Liang et al. Improving read performance of SSDs via balanced redirected read
Gries The impact of recent DRAM architectures on embedded systems performance
Fang et al. Core-aware memory access scheduling schemes
Xie et al. CER-IOS: internal resource utilization optimized I/O scheduling for solid state drives
Gries et al. Performance evaluation of recent DRAM architectures for embedded systems

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant