CN112860433A - 缓存服务器、内容分发网络系统及数据管理方法 - Google Patents

缓存服务器、内容分发网络系统及数据管理方法 Download PDF

Info

Publication number
CN112860433A
CN112860433A CN202110113009.3A CN202110113009A CN112860433A CN 112860433 A CN112860433 A CN 112860433A CN 202110113009 A CN202110113009 A CN 202110113009A CN 112860433 A CN112860433 A CN 112860433A
Authority
CN
China
Prior art keywords
processing unit
central processing
cache server
content data
chip set
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110113009.3A
Other languages
English (en)
Inventor
赖振楠
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hosin Global Electronics Co Ltd
Original Assignee
Hosin Global Electronics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hosin Global Electronics Co Ltd filed Critical Hosin Global Electronics Co Ltd
Priority to CN202110113009.3A priority Critical patent/CN112860433A/zh
Publication of CN112860433A publication Critical patent/CN112860433A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F13/00Interconnection of, or transfer of information or other signals between, memories, input/output devices or central processing units
    • G06F13/14Handling requests for interconnection or transfer
    • G06F13/16Handling requests for interconnection or transfer for access to memory bus
    • G06F13/1668Details of memory controller
    • G06F13/1673Details of memory controller using buffers
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/48Program initiating; Program switching, e.g. by interrupt
    • G06F9/4806Task transfer initiation or dispatching
    • G06F9/4843Task transfer initiation or dispatching by program, e.g. task dispatcher, supervisor, operating system
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/46Multiprogramming arrangements
    • G06F9/50Allocation of resources, e.g. of the central processing unit [CPU]
    • G06F9/5083Techniques for rebalancing the load in a distributed system
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/56Provisioning of proxy services
    • H04L67/568Storing data temporarily at an intermediate stage, e.g. caching

Abstract

本发明提供了一种缓存服务器、内容分发网络系统及数据管理方法,所述缓存服务器包括中央处理单元以及动态随机存取存储器,且所述动态随机存取存储器包括:电路基板以及集成到所述电路基板上的DRAM芯片组、内存控制器、闪存芯片组和第一接口,所述内存控制器与所述闪存芯片组连接,并在所述DRAM芯片组中等待所述中央处理单元读取的指令集符合第一预设条件时,从所述闪存芯片组获取所述DRAM芯片组中的指令集的后续指令集,并将所述后续指令集存储到所述DRAM芯片组。本发明可大大提高缓存服务器的数据处理速度和内容分发网络系统中客户端请求的响应速度。

Description

缓存服务器、内容分发网络系统及数据管理方法
技术领域
本发明涉及网络技术领域,更具体地说,涉及一种缓存服务器、内容分发网络系统及数据管理方法。
背景技术
内容分发网络(Content Delivery Network,CDN)是构建在现有网络基础之上的智能虚拟网络,其依靠部署在各地的缓存服务器,通过中心平台的负载均衡、内容分发、调度等功能模块,使用户就近获取所需内容,降低网络拥塞,提高用户访问响应速度和命中率。
由于内容分发网络可避开互联网上影响数据传输速度和稳定性的瓶颈和环节,使内容传输的更快、更稳定,目前越来越多的网络运营商开始采用内容分发网络为用户提供服务,并出现了内容分发网络运营商,从而使用户可就近取得所需内容,解决互联网拥挤的状况,提高用户访问网站的响应速度。
现有的内容分发网络中,部署在各地的缓存服务器采用传统的服务器,其将大部分内容数据存储在硬盘、固态硬盘等大容量存储设备中,而用户最经常访问的内容数据则存储在DRAM等内存上。在缓存服务器响应客户端请求时,若访问的内容数据在内存上,则直接从内存获得内容数据并返回给客户端,若访问的内容数据不在内存上,则需在中央处理单元控制下,先从大容量存储器中读取该内容数据,并写入到内存中。
因内存价格相对较高,缓存服务器的容量往往有限,其存储的内容数据也有限,从而缓存服务器的中央处理单元需花费大量的时间从大容量存储器读取内容数据。并且,因大容量存储设备与中央处理单元的交互速度均大大低于中央处理单元与内存的交互速度,上述缓存服务器大大影响了客户端访问内容数据的速度。
发明内容
本发明要解决的技术问题在于,针对上述内容分发网络中缓存服务器需花费大量时间从大容量存储器读取内容数据,并影响客户端获得内容数据的时间的问题,提供一种缓存服务器、内容分发网络系统及数据管理方法。
本发明解决上述技术问题的技术方案是,提供一种缓存服务器,所述缓存服务器包括中央处理单元以及动态随机存取存储器,所述中央处理单元和所述动态随机存取存储器通过系统总线相连;
所述动态随机存取存储器包括:电路基板以及集成到所述电路基板上的DRAM芯片组、内存控制器、闪存芯片组和第一接口,并经由所述第一接口和系统总线与中央处理单元连接;所述内存控制器分别与所述DRAM芯片组和第一接口连接,并响应所述中央处理单元的读写请求,从所述DRAM芯片组获取指令集以及将所述中央处理单元的执行结果数据写入到所述DRAM芯片组;
所述内存控制器与所述闪存芯片组连接,当所述DRAM芯片组中等待所述中央处理单元读取的指令集符合第一预设条件时,从所述闪存芯片组获取所述DRAM芯片组中的指令集的后续指令集,并将所述后续指令集存储到所述DRAM芯片组。
优选地,所述第一预设条件为:所述DRAM芯片组中等待所述中央处理单元读取的指令集的数量小于预设值;或者,
所述DRAM芯片组中等待所述中央处理单元读取的指令集在中央处理单元中执行的预计时间小于预设时间。
优选地,所述缓存服务器包括与所述系统总线连接的大容量存储器,所述大容量存储器存储有来自所述源网站服务器的内容数据;所述闪存芯片组中存储有所述大容量存储器中存储的并符合第二预设条件的内容数据。
优选地,所述第二预设条件为:在预定时间内,所述缓存服务器的大容量存储器中存储的内容数据被客户端请求访问的次数超过预设次数。
一种内容分发网络系统,包括如上述任一项所述缓存服务器和分别接入互联网的内容路由服务器、源网站服务器,所述缓存服务器通过互联网与所述内容路由服务器、源网站服务器通讯。
优选地,所述内容分发网络系统包括中心节点和边缘节点,所述中心节点与所有边缘节点连接;
所述中心节点和边缘节点分别包括所述缓存服务器,所述中心节点的缓存服务器的大容量存储器中存储有所有边缘节点的缓存服务器中存储的内容数据。
一种数据管理方法,运行于上述任一项所述的内容分发网络系统,所述方法包括:
所述内容路由服务器直接或间接分配客户端请求到各个缓存服务器;
所述缓存服务器的中央处理单元读取客户端请求,并在所述客户端请求对应的内容数据位于所述动态随机存取存储器时,所述中央处理单元从所述动态随机存取存储器的DRAM芯片组读取所述客户端请求的反馈指令;
所述内存控制器在所述DRAM芯片组中等待所述中央处理单元读取的指令集符合第一预设条件时,所述内存控制器从所述闪存芯片组获取所述DRAM芯片组中的指令集的后续指令集,并将所述后续指令集存储到所述DRAM芯片组。
优选地,所述缓存服务器包括与所述系统总线连接的大容量存储器,所述方法还包括:
所述源网站服务器根据各个缓存服务器接收到的客户端请求,向各个缓存服务器推送内容数据;
所述缓存服务器的中央处理单元将所述源网站服务器推送的内容数据存储到所述大容量存储器。
优选地,所述方法还包括:
所述缓存服务器的中央处理单元读取客户端请求;
所述中央处理单元在所述动态随机存取存储器中未存有所述客户端请求对应的内容数据,且所述大容量存储器存有所述客户端请求对应的内容数据时,从所述大容量存储器获取所述客户端请求对应的内容数据并反馈给所述客户端;
所述中央处理单元将所述客户端请求对应的内容数据写入到所述动态随机存取存储器的闪存芯片组。
优选地,所述方法还包括:
所述缓存服务器的中央处理单元读取客户端请求;
所述中央处理单元在所述动态随机存取存储器和大容量存储器均未存有所述客户端请求对应的内容数据时,从所述源网站服务器获取所述客户端请求对应的内容数据并反馈给所述客户端;
所述中央处理单元分别将所述客户端请求对应的内容数据写入到所述动态随机存取存储器的闪存芯片组以及所述大容量存储器。
本发明的缓存服务器、内容分发网络系统及数据管理方法,通过在缓存服务器中,由内存控制器直接根据中央处理单元正在执行的指令集更新DRAM芯片组中的内容,从而中央处理单元无需与大容量存储装置交互,使得中央处理单元可始终处于高效运行状态,大大提高了客户端请求的响应速度。
附图说明
图1是本发明实施例提供的内容分发网络系统的拓扑结构示意图;
图2是图1中缓存服务器的结构示意图;
图3是图2中动态随机存取存储器的工作原理示意图;
图4是本发明另一实施例提供的内容分发网络系统的拓扑结构示意图;
图5是本发明实施例提供的数据管理方法的流程示意图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,是本发明实施例提供的内容分发网络系统的结构示意图,该内容分发网络系统可应用于门户网站、社交网站、电子商务网站、视频网站服务等。本实施例的内容分发网络包括分别接入到互联网的源网站服务器10、内容路由服务器20以及缓存服务器30。其中源网站服务器10存储有网站的原始内容,例如网页、视频等等;缓存服务器30为CDN网络节点,位于用户接入点,是面向最终用户的内容提供设备,可缓存静态Web内容和流媒体内容,实现内容的边缘传播和存储,以便用户的就近访问;内容路由服务器20负责将用户的请求调度到适当的缓存服务器30上,具体地,内容路由服务器20通常通过负载均衡系统来实现,动态均衡各个缓存服务器30的载荷分配,为用户的请求选择最佳的访问站点,同时提高网站的可用性,具体地,内容路由服务器20可根据多种因素制定路由,包括站点与用户的临近度、内容的可用性、网络负载、设备状况等。
在本实施例中,参见图2,缓存服务器30包括中央处理单元31以及动态随机存取存储器32,且中央处理单元31和动态随机存取存储器32通过系统总线相连,上述系统总线具体可包括PCIE总线、DRAM总线等,中央处理单元31和动态随机存取存储器32通过DRAM总线相连。该缓存服务器30还可包括网络适配器等,从而中央处理单元31可与网络中的其他设备交互,例如获取客户端的网页浏览请求、获取源网站服务器10的原始内容、响应客户端的网页浏览请求、向源网站服务器10发送内容读取请求等。
结合图2所示,具体地,上述动态随机存取存储器32包括:电路基板以及集成到该电路基板上的内存控制器321、DRAM芯片组322、闪存芯片组323和第一接口(图中未示出),上述DRAM芯片组322具体可包括多个DRAM芯片颗粒,闪存芯片组323则包括多个闪存芯片(FLASH)颗粒,且闪存芯片组323的存储容量远大于DRAM芯片组322的存储容量。上述第一接口可为DRAM接口,该第一接口与系统总线(例如DRAM总线)连接,因此,通过第一接口和系统总线,动态随机存取存储器32可与中央处理单元31进行高速交互。
在电路基板内,内存控制器321分别与DRAM芯片组322及第一接口连接,从而中央处理单元31可以通过系统总线和第一接口连接内存控制器321,并通过内存控制器321从DRAM芯片组322中读取指令集(例如客户端请求的内容数据)以及写入数据到DRAM芯片组322(具体地,中央处理单元31可根据程序指针从DRAM芯片组322获取指令集并执行);内存控制器321分别与DRAM芯片组322和闪存芯片组323连接,并通过内存控制器321实现DRAM芯片组322与闪存芯片组323之间的数据交互。具体地,在DRAM芯片组322中等待中央处理单元31读取的指令集(即中央处理单元未读取的指令集,上述指令集可包括指令代码以及数据)符合第一预设条件时,内存控制器321从闪存芯片组323中获取与DRAM芯片组322中的指令集的后续指令集(包括指令代码以及数据),并将后续指令集存储到DRAM芯片组322。通过上述方式,内存控制器321可根据中央处理单元31的指令执行情况,自动预测并更新闪存芯片组323中的指令,且该更新过程无需中央处理单元31参与,从而大大节省了中央处理单元31的资源,提高了整机效率。
优选地,上述第一预设条件具体可以为:DRAM芯片组322中等待中央处理单元31读取的指令集的数量小于预设值,或者DRAM芯片组322中等待中央处理单元31读取的指令集在中央处理单元31中执行的预计时间小于预设时间。例如:当DRAM芯片组322中等待读取的指令集数量小于预设值5时,则内存控制器321从闪存芯片组323获取所述DRAM芯片组322中的指令集的后续指令集,并将所述后续指令集存储到所述DRAM芯片组322。再例如,当根据CPU执行指令集的时钟周期的平均值计算的当前DRAM芯片组322的指令集的预计时间小于预设时间1ns时,则内存控制器321从闪存芯片组323获取所述DRAM芯片组322中的指令集的后续指令集,并将所述后续指令集存储到所述DRAM芯片组322。
上述动态随机存取存储器32通过内存控制器321直接根据中央处理单元31正在执行的指令集更新DRAM芯片组322中的内容,使得动态随机存取存储器32可根据中央处理单元31的运行状态自动更新,从而DRAM芯片组322的存储容量接近闪存芯片组323的存储容量,并且在上述过程中,中央处理单元31无需与闪存芯片组323交互,使得中央处理单元31可始终处于高效运行状态,无需增加昂贵的DRAM费用即可大大提高客户端的响应速度。
结合图3所示,在本发明的一个实施例中,上述DRAM芯片组322包括互为主映射区和备映射区的两个逻辑存储区3221,上述两个逻辑存储区3221分别为DRAM芯片组322中的一段存储空间,并分别存储有供中央处理单元31处理的指令集,且中央处理单元31也将指令集的执行结果写入到上述逻辑存储区3221。中央处理单元31当前读取的指令集所在的逻辑存储区3221为主映射区,则另一逻辑存储区3221为备映射区,且两个逻辑存储区3221可根据中央处理单元31执行的跳转指令(即指令代码中的跳转代码)切换主映射区和备映射区。上述主映射区和备映射区中存储的指令集(包括内容数据)分别来自于闪存芯片组323,且主映射区或者备映射区中存储的指令集分别与闪存芯片组323中的某一段指令集(包括内容数据)对应,即主映射区和备映射区相当于闪存芯片组323的两个“窗口”,中央处理单元31可通过该两个“窗口”获取闪存芯片组323中存储的指令集。而“窗口”中展示的内容,则通过动态随机存取存储器的内存控制器321控制。
具体地,中央处理单元31按照程序计数器(Program Counter)所指定的程序位址,通过第一接口以及内存控制器321从DRAM芯片组322的主映射区获取指令集。在正常情况下,程序计数器每执行完一个指令集,自动将原位址+1,作为下一指令集的程序位址,从而中央处理单元31按照更新后的程序位址从主映射区获取下一指令集;若中央处理单元31执行跳转指令时,程序计数器按照跳转值n将原位址+n或-n,作为下一指令集的程序位址,中央处理单元31按照更新后的程序位址从主映射区获取下一指令集。当程序计数器所指定的程序位址位于备映射区时,则主映射区和备映射区完成切换。
具体地,内存控制器321可按以下方式更新DRAM芯片组322中的内容:当主映射区中等待中央处理单元31读取的指令集的数量小于预设值,或者主映射区中等待读取的指令集在中央处理单元31中执行的时间小于预设时间(由内存控制器321根据中央处理单元31当前正在处理的指令的指针,获取主映射区中所有上述指针之后的指令的数量,并以此预测等待读取的指令集在中央处理单元31中的执行时间)时,内存控制器321从闪存芯片组323获取DRAM芯片组322中的指令集的后续指令集(即DRAM芯片组322中的指令集与后续指令集构成连续的程序片段),并将后续指令集存储到DRAM芯片组322(同时根据主映射区中指令集和更新后的备映射区中指令集调整指针,使中央处理单元31可按照顺序读取指令集)。通过上述方式,动态随机存取存储器32中的指令集可及时更新,从而不会影响中央处理单元31的指令执行。
在本发明的一个实施例中,缓存服务器30还可包括与系统总线(例如PCIE总线)连接的大容量存储器,且该大容量存储器存储有来自源网站服务器10的内容数据;闪存芯片组323中存储有大容量存储器中存储的并符合第二预设条件的内容数据。优选地,上述第二预设条件具体可以为:在预设时间内,缓存服务器的大容量存储器中存储的内容数据被客户端请求访问的次数超过预设次数。当然,在实际应用中,上述第二预设条件也可以为:访问频率位于前50%的内容数据且这些内容数据的数据量小于闪存芯片组323的存储容量。
结合图4所示,在本发明的另一实施例中,上述内容分发网络系统还包括中心节点40和边缘节点50,且中心节点40与边缘节点50连接。上述中心节点40承担图1中源网站服务器10和内容路由服务器20的功能,其可实现全局媒体定位、全局负载均衡以及全局内容调度。
上述中心节点40和边缘节点50分别包括图2所示的缓存服务器30,且中心节点40的缓存服务器30的大容量存储器中存储有所有边缘节点50的缓存服务器30中存储的内容数据。
特别地,上述边缘节点50包括代理服务器51,该代理服务器51与边缘节点50内的所有缓存服务器30连接,且代理服务器51可根据各个边缘节点50内的缓存服务器30的工作状态分配客户端请求以及响应中心节点40的命令,从而实现节点内部的媒体定位和节点内部的负载均衡。
在本发明的另一实施例中,内容分发网络系统除了包括中心节点、和边缘节点外,还包括区域节点,且所述中心节点与所有区域节点连接,每一区域节点与至少一个边缘节点连接。在本实施例中,中心节点、区域节点和边缘节点分别包括图2所示的缓存服务器30,且中心节点的缓存服务器的大容量存储器中存储有所有边缘节点的缓存服务器中存储的内容数据;每一区域节点的大容量存储器中存储有所有相连的边缘节点的缓存服务器中存储的内容数据。通过上述方式,可缓解中心节点的负担,使得网络结构进一步优化。
上述中心结点40和边缘结点50之间的数据交互,以及中心节点、边缘节点及区域节点的交互属于本领域的常规技术,在此不再赘述。
结合图5所示,本发明还提供一种如上所述的内容分发网络系统的数据管理方法,该方法包括:
步骤S51:内容路由服务器直接或间接分配客户端请求到各个缓存服务器。
步骤S52:缓存服务器的中央处理单元读取客户端请求,并在客户端请求对应的内容数据位于动态随机存取存储器时,中央处理单元从动态随机存取存储器读取客户端请求的反馈指令。
该步骤中,缓存服务器的中央处理单元需先读取客户端请求,并判断在动态随机存取存储器中是否存储有客户端请求对应的内容数据。
并且,动态随机存取存储器的内存控制器在DRAM芯片组中等待中央处理单元读取的反馈指令集(包括客户端请求的内容数据)符合第一预设条件时,从闪存芯片组获取DRAM芯片组中的反馈指令集的后续反馈指令集(包括客户端请求的内容数据),并将后续反馈指令集存储到DRAM芯片组。从而中央处理单元只需访问动态随机存取存储器的DRAM芯片组即可,而无需访问闪存芯片组。
当上述缓存服务器包括与系统总线连接的大容量存储器时,对应的方法还包括:源网站服务器根据各个缓存服务器接收到的客户端请求,向各个缓存服务器推送内容数据;缓存服务器的中央处理单元将所述源网站服务器推送的内容数据存储到所述大容量存储器。
在上述步骤S52中,所述方法还包括:缓存服务器的中央处理单元在动态随机存取存储器中未存有所述客户端请求对应的内容数据,且大容量存储器存有客户端请求对应的内容数据时,从大容量存储器获取客户端请求对应的内容数据并反馈给客户端;同时,中央处理单元将客户端请求对应的内容数据写入到动态随机存取存储器的闪存芯片组。
在上述步骤S52中,所述方法还包括:缓存服务器的中央处理单元在动态随机存取存储器和大容量存储器均未存有客户端请求对应的内容数据时,从源网站服务器获取客户端请求对应的内容数据并反馈给客户端;同时,中央处理单元分别将客户端请求对应的内容数据写入到动态随机存取存储器的闪存芯片组以及大容量存储器。
上述数据管理方法可结合图1-2中的内容分发网络系统使用,并在不大量增加成本的前提下大大提高客户端的访问体验。
以上所述,仅为本发明较佳的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (10)

1.一种缓存服务器,其特征在于,所述缓存服务器包括中央处理单元以及动态随机存取存储器,所述中央处理单元和所述动态随机存取存储器通过系统总线相连;
所述动态随机存取存储器包括:电路基板以及集成到所述电路基板上的DRAM芯片组、内存控制器、闪存芯片组和第一接口,并经由所述第一接口和系统总线与中央处理单元连接;所述内存控制器分别与所述DRAM芯片组和第一接口连接,并响应所述中央处理单元的读写请求,从所述DRAM芯片组获取指令集以及将所述中央处理单元的执行结果数据写入到所述DRAM芯片组;
所述内存控制器与所述闪存芯片组连接,当所述DRAM芯片组中等待所述中央处理单元读取的指令集符合第一预设条件时,从所述闪存芯片组获取所述DRAM芯片组中的指令集的后续指令集,并将所述后续指令集存储到所述DRAM芯片组。
2.根据权利要求1所述的缓存服务器,其特征在于,所述第一预设条件为:所述DRAM芯片组中等待所述中央处理单元读取的指令集的数量小于预设值;或者,
所述DRAM芯片组中等待所述中央处理单元读取的指令集在中央处理单元中执行的预计时间小于预设时间。
3.根据权利要求1所述的缓存服务器,其特征在于,所述缓存服务器包括与所述系统总线连接的大容量存储器,所述大容量存储器存储有来自源网站服务器的内容数据;所述闪存芯片组中存储有所述大容量存储器中存储的并符合第二预设条件的内容数据。
4.根据权利要求3所述的缓存服务器,其特征在于,所述第二预设条件为:在预定时间内,所述缓存服务器的大容量存储器中存储的内容数据被客户端请求访问的次数超过预设次数。
5.一种内容分发网络系统,其特征在于,所述内容分发网络系统包括如权利要求1~4任一项的所述缓存服务器和分别接入互联网的内容路由服务器、源网站服务器,所述缓存服务器通过互联网与所述内容路由服务器、源网站服务器通讯。
6.根据权利要求5所述的内容分发网络系统,其特征在于,所述内容分发网络系统包括中心节点和边缘节点,所述中心节点与所有边缘节点连接;
所述中心节点和边缘节点分别包括所述缓存服务器,所述中心节点的缓存服务器的大容量存储器中存储有所有边缘节点的缓存服务器中存储的内容数据。
7.一种如权利要求5-6中任一项所述的内容分发网络系统的数据管理方法,其特征在于,所述方法包括:
所述内容路由服务器直接或间接分配客户端请求到各个缓存服务器;
所述缓存服务器的中央处理单元读取客户端请求,并在所述客户端请求对应的内容数据位于所述动态随机存取存储器时,所述中央处理单元从所述动态随机存取存储器的DRAM芯片组读取所述客户端请求的反馈指令;
所述内存控制器在所述DRAM芯片组中等待所述中央处理单元读取的指令集符合第一预设条件时,所述内存控制器从所述闪存芯片组获取所述DRAM芯片组中的指令集的后续指令集,并将所述后续指令集存储到所述DRAM芯片组。
8.根据权利要求7所述的数据管理方法,其特征在于,所述缓存服务器包括与所述系统总线连接的大容量存储器,所述方法还包括:
所述源网站服务器根据各个缓存服务器接收到的客户端请求,向各个缓存服务器推送内容数据;
所述缓存服务器的中央处理单元将所述源网站服务器推送的内容数据存储到所述大容量存储器。
9.根据权利要求8所述的数据管理方法,其特征在于,所述方法还包括:
所述缓存服务器的中央处理单元读取客户端请求;
所述中央处理单元在所述动态随机存取存储器中未存有所述客户端请求对应的内容数据,且所述大容量存储器存有所述客户端请求对应的内容数据时,从所述大容量存储器获取所述客户端请求对应的内容数据并反馈给所述客户端;
所述中央处理单元将所述客户端请求对应的内容数据写入到所述动态随机存取存储器的闪存芯片组。
10.根据权利要求8所述的数据管理方法,其特征在于,所述方法还包括:
所述缓存服务器的中央处理单元读取客户端请求;
所述中央处理单元在所述动态随机存取存储器和大容量存储器均未存有所述客户端请求对应的内容数据时,从所述源网站服务器获取所述客户端请求对应的内容数据并反馈给所述客户端;
所述中央处理单元分别将所述客户端请求对应的内容数据写入到所述动态随机存取存储器的闪存芯片组以及所述大容量存储器。
CN202110113009.3A 2021-01-27 2021-01-27 缓存服务器、内容分发网络系统及数据管理方法 Pending CN112860433A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110113009.3A CN112860433A (zh) 2021-01-27 2021-01-27 缓存服务器、内容分发网络系统及数据管理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110113009.3A CN112860433A (zh) 2021-01-27 2021-01-27 缓存服务器、内容分发网络系统及数据管理方法

Publications (1)

Publication Number Publication Date
CN112860433A true CN112860433A (zh) 2021-05-28

Family

ID=75986000

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110113009.3A Pending CN112860433A (zh) 2021-01-27 2021-01-27 缓存服务器、内容分发网络系统及数据管理方法

Country Status (1)

Country Link
CN (1) CN112860433A (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6047356A (en) * 1994-04-18 2000-04-04 Sonic Solutions Method of dynamically allocating network node memory's partitions for caching distributed files
CN107277093A (zh) * 2016-04-08 2017-10-20 北京优朋普乐科技有限公司 内容分发网络及其负载均衡方法
CN109586969A (zh) * 2018-12-13 2019-04-05 平安科技(深圳)有限公司 内容分发网络容灾方法、装置、计算机设备及存储介质
CN110941395A (zh) * 2019-11-15 2020-03-31 深圳宏芯宇电子股份有限公司 动态随机存取存储器、内存管理方法、系统及存储介质
CN111880611A (zh) * 2020-06-19 2020-11-03 深圳宏芯宇电子股份有限公司 用于快速交易的服务器及快速交易数据处理方法
CN112015671A (zh) * 2019-05-28 2020-12-01 慧荣科技股份有限公司 闪存控制器、存储器装置以及存取闪存模块的方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6047356A (en) * 1994-04-18 2000-04-04 Sonic Solutions Method of dynamically allocating network node memory's partitions for caching distributed files
CN107277093A (zh) * 2016-04-08 2017-10-20 北京优朋普乐科技有限公司 内容分发网络及其负载均衡方法
CN109586969A (zh) * 2018-12-13 2019-04-05 平安科技(深圳)有限公司 内容分发网络容灾方法、装置、计算机设备及存储介质
CN112015671A (zh) * 2019-05-28 2020-12-01 慧荣科技股份有限公司 闪存控制器、存储器装置以及存取闪存模块的方法
CN110941395A (zh) * 2019-11-15 2020-03-31 深圳宏芯宇电子股份有限公司 动态随机存取存储器、内存管理方法、系统及存储介质
CN111880611A (zh) * 2020-06-19 2020-11-03 深圳宏芯宇电子股份有限公司 用于快速交易的服务器及快速交易数据处理方法

Similar Documents

Publication Publication Date Title
US11487661B2 (en) Converged memory device and operation method thereof
US11838223B2 (en) Techniques for handling message queues
US6327614B1 (en) Network server device and file management system using cache associated with network interface processors for redirecting requested information between connection networks
CN101493826B (zh) 基于web应用的数据库系统及其数据管理方法
CN102882939B (zh) 负载均衡方法、设备及泛域名加速访问系统
US6611870B1 (en) Server device and communication connection scheme using network interface processors
US20150127649A1 (en) Efficient implementations for mapreduce systems
CN103338252B (zh) 一种分布式数据库并发存储虚拟请求机制的实现方法
CN110545246A (zh) 一种基于令牌桶的限流方法和装置
CN102843426B (zh) 基于智能父节点的Web缓存资源共享系统和方法
CN102868935A (zh) 在内容分发网络中响应多源的调度方法
CN109240946A (zh) 数据的多级缓存方法及终端设备
CN103236989B (zh) 一种内容分发网络中的缓存控制方法、设备及系统
RU2617331C2 (ru) Тайм-ауты адаптивного сервиса
CN109992597A (zh) 一种热点数据的存储方法及终端
CN112600761A (zh) 一种资源分配的方法、装置及存储介质
CN112799824A (zh) 一种限流方法、装置、设备和存储介质
CN116301667B (zh) 一种数据库系统,数据访问方法、装置、设备及存储介质
US10915470B2 (en) Memory system
CN111831451A (zh) 云主机内存分配方法及云主机、设备及存储介质
CN112860433A (zh) 缓存服务器、内容分发网络系统及数据管理方法
CN114996023B (zh) 目标缓存装置、处理装置、网络设备及表项获取方法
KR20150011087A (ko) 컨텐츠 전송 서비스를 위한 분산 캐싱 관리 방법 및 이를 위한 중앙 관리 장치
US11093493B1 (en) Dynamically switching between query and scan for optimizing table reads
CN115495433A (zh) 一种分布式存储系统、数据迁移方法及存储装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination