CN113704649A - 资源网站的缓存方法及装置 - Google Patents
资源网站的缓存方法及装置 Download PDFInfo
- Publication number
- CN113704649A CN113704649A CN202010430926.XA CN202010430926A CN113704649A CN 113704649 A CN113704649 A CN 113704649A CN 202010430926 A CN202010430926 A CN 202010430926A CN 113704649 A CN113704649 A CN 113704649A
- Authority
- CN
- China
- Prior art keywords
- website
- resource
- cache
- data set
- training data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 53
- 238000012549 training Methods 0.000 claims abstract description 108
- 238000003062 neural network model Methods 0.000 claims abstract description 46
- 210000002569 neuron Anatomy 0.000 claims description 43
- 238000004891 communication Methods 0.000 claims description 15
- 238000012163 sequencing technique Methods 0.000 claims description 4
- 238000004422 calculation algorithm Methods 0.000 description 14
- 238000013528 artificial neural network Methods 0.000 description 13
- 238000005516 engineering process Methods 0.000 description 11
- 230000007246 mechanism Effects 0.000 description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000007781 pre-processing Methods 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000007547 defect Effects 0.000 description 3
- 238000009434 installation Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000002699 waste material Substances 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 238000011022 operating instruction Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001960 triggered effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/957—Browsing optimisation, e.g. caching or content distillation
- G06F16/9574—Browsing optimisation, e.g. caching or content distillation of access to content, e.g. by caching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/958—Organisation or management of web site content, e.g. publishing, maintaining pages or automatic linking
- G06F16/986—Document structures and storage, e.g. HTML extensions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Information Transfer Between Computers (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例公开了一种资源网站的缓存方法、装置、电子设备及存储介质,涉及电子信息领域,包括:确定与资源网站相对应的多个二级网站,获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比;根据所述各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集;将所述训练数据集输入预设的神经元网络模型,根据所述神经元网络模型的输出结果确定所述资源网站的资源缓存策略。该方式能够动态生成训练数据集,并根据神经元网络模型的输出结果动态确定资源网站的资源缓存策略,从而使得资源缓存策略更加灵活,能够满足各类资源网站的实际缓存需求。
Description
技术领域
本发明涉及电子信息领域,具体涉及一种资源网站的缓存方法及装置。
背景技术
运营商缓存系统主要采用被动缓存方式,即先缓存资源,再提供服务。通常在运营商网络边缘通过旁路分析(比如分光、端口镜像)实时监测、分析上行链路中终端的上网资源请求,并调度系统内缓存设备对可缓存的热点资源先进行回源获取,然后当终端重复请求已缓存资源时提供这些缓存资源给终端,从而达到节省出口带宽、提高终端访问体验的目的。缓存系统采用被动缓存方式时,最核心的环节是如何设置缓存触发策略。其中,缓存触发策略用于设定缓存资源的触发条件,即:当资源满足何种条件时对其执行缓存操作。
在现有技术中,缓存触发策略通常为固定设置方式,例如,当资源的访问请求次数达到预设数值(如2次)时则对其进行缓存。但是,固定设置的缓存触发策略不够灵活,无法满足不同类型的资源网站的缓存需求。
发明内容
鉴于上述问题,提出了本发明以便提供一种克服上述问题或者至少部分地解决上述问题的一种资源网站的缓存方法及装置。
根据本发明的一个方面,提供了一种资源网站的缓存方法,包括:
确定与资源网站相对应的多个二级网站,获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比;
根据所述各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集;
将所述训练数据集输入预设的神经元网络模型,根据所述神经元网络模型的输出结果确定所述资源网站的资源缓存策略。
可选地,所述将所述训练数据集输入预设的神经元网络模型,根据所述神经元网络模型的输出结果确定所述资源网站的资源缓存策略包括:
根据所述训练数据集中包含的各个二级网站的网站缓存资源增益比确定所述神经元网络模型的输入数据;
判断所述神经元网络模型的输出结果是否大于预设阈值;
若否,剔除所述训练数据集中包含的若干二级网站,得到缩小后的训练数据集,并将所述缩小后的训练数据集再次输入所述神经元网络模型。
可选地,所述判断所述神经元网络模型的输出结果是否大于预设阈值之后,进一步包括:
若是,根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定所述资源网站的资源缓存策略。
可选地,所述剔除所述训练数据集中包含的若干二级网站,得到缩小后的训练数据集包括:
将所述训练数据集中包含的各个二级网站按照网站缓存资源增益比从大到小的顺序进行排序;
根据排序结果剔除排序靠后的若干个二级网站,得到缩小后的训练数据集。
可选地,所述根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定所述资源网站的资源缓存策略包括:
根据所述与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息,确定与所述训练数据集中包含的各个二级网站相对应的文件数据量、和/或访问请求次数;
根据所述各个二级网站相对应的文件数据量、和/或访问请求次数设置所述资源缓存策略中包含的缓存文件数据量阈值、和/或请求触发次数阈值。
可选地,所述获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比包括:
分别针对每个二级网站,获取针对该二级网站缓存的各个资源文件的文件数据量总和,以及与针对该二级网站缓存的各个资源文件相对应的服务流量总和;
根据所述服务流量总和与所述文件数据量总和之间的比值确定该二级网站的网站缓存资源增益比。
可选地,所述二级网站的网站缓存资源属性信息包括:缓存的资源文件名、资源文件数据量、以及访问请求次数;并且,所述神经元网络模型为二层M-P神经元网络模型。
依据本发明的再一方面,提供了一种资源网站的缓存装置,包括:
获取模块,适于确定与资源网站相对应的多个二级网站,获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比;
生成模块,适于根据所述各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集;
策略确定模块,适于将所述训练数据集输入预设的神经元网络模型,根据所述神经元网络模型的输出结果确定所述资源网站的资源缓存策略。
可选地,所述策略确定模块具体适于:
根据所述训练数据集中包含的各个二级网站的网站缓存资源增益比确定所述神经元网络模型的输入数据;
判断所述神经元网络模型的输出结果是否大于预设阈值;
若否,剔除所述训练数据集中包含的若干二级网站,得到缩小后的训练数据集,并将所述缩小后的训练数据集再次输入所述神经元网络模型。
可选地,所述策略确定模块具体适于:
若是,根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定所述资源网站的资源缓存策略。
可选地,所述策略确定模块具体适于:
将所述训练数据集中包含的各个二级网站按照网站缓存资源增益比从大到小的顺序进行排序;
根据排序结果剔除排序靠后的若干个二级网站,得到缩小后的训练数据集。
可选地,所述策略确定模块具体适于:
根据所述与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息,确定与所述训练数据集中包含的各个二级网站相对应的文件数据量、和/或访问请求次数;
根据所述各个二级网站相对应的文件数据量、和/或访问请求次数设置所述资源缓存策略中包含的缓存文件数据量阈值、和/或请求触发次数阈值。
可选地,所述获取模块具体适于:
分别针对每个二级网站,获取针对该二级网站缓存的各个资源文件的文件数据量总和,以及与针对该二级网站缓存的各个资源文件相对应的服务流量总和;
根据所述服务流量总和与所述文件数据量总和之间的比值确定该二级网站的网站缓存资源增益比。
可选地,所述二级网站的网站缓存资源属性信息包括:缓存的资源文件名、资源文件数据量、以及访问请求次数;并且,所述神经元网络模型为二层M-P神经元网络模型。
依据本发明的再一方面,提供了一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如上述的资源网站的缓存方法对应的操作。
依据本发明的再一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述的资源网站的缓存方法对应的操作。
在本发明提供的资源网站的缓存方法及装置中,确定与资源网站相对应的多个二级网站以及各个二级网站的网站缓存资源属性信息和网站缓存资源增益比,相应的,根据各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集,并将训练数据集输入预设的神经元网络模型,根据神经元网络模型的输出结果确定资源网站的资源缓存策略。由此可见,该方式能够动态生成训练数据集,并根据神经元网络模型的输出结果动态确定资源网站的资源缓存策略,从而使得资源缓存策略更加灵活,能够满足各类资源网站的实际缓存需求。
上述说明仅是本发明技术方案的概述,为了能够更清楚了解本发明的技术手段,而可依照说明书的内容予以实施,并且为了让本发明的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例一提供的一种资源网站的缓存方法的流程图;
图2示出了本发明实施例二提供的一种资源网站的缓存方法的流程图;
图3示出了本发明实施例三提供的一种资源网站的缓存装置的结构图;
图4示出了本发明实施例五提供的一种电子设备的结构示意图;
图5示出了M-P神经元模型的输出示意图。
具体实施方式
下面将参照附图更详细地描述本公开的示例性实施例。虽然附图中显示了本公开的示例性实施例,然而应当理解,可以以各种形式实现本公开而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本公开,并且能够将本公开的范围完整的传达给本领域的技术人员。
实施例一
图1示出了本发明实施例一提供的一种资源网站的缓存方法的流程图。如图1所示,该方法包括:
步骤S110:确定与资源网站相对应的多个二级网站,获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比。
其中,资源网站可以为各种类型的网站,本发明旨在分别针对不同的资源网站设置不同的资源缓存策略,以满足该类资源网站的实际需求。
与资源网站相对应的多个二级网站是指该资源网站下属的多个子网站,具体可以是二级网站甚至三级网站,只要是隶属于该资源网站的子网站或关联网站均可以统称为该资源网站的二级网站。
二级网站的网站缓存资源属性信息用于描述该二级网站已经缓存的各个资源文件的文件信息,如文件大小、访问请求次数等。二级网站的网站缓存资源增益比用于描述该二级网站已经缓存的各个资源文件的缓存服务率,具体可以通过该二级网站已经缓存的各个资源文件的服务流量(即缓存后提供服务的流量)与各个资源文件的文件大小之间的比值确定。由此可见,网站缓存资源增益比越大,说明该网站的资源缓存后提供服务的次数越多,即缓存服务率越高。
步骤S120:根据各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集。
具体地,针对各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比执行预处理操作,并根据预处理操作结果生成训练数据集。其中,预处理可以是各种类型的预处理,本发明对预处理的具体实现方式不作限定。
步骤S130:将训练数据集输入预设的神经元网络模型,根据神经元网络模型的输出结果确定资源网站的资源缓存策略。
具体地,根据训练数据集确定神经元网络模型的输入数据,将该输入数据输入神经元网络模型。相应的,获取神经元网络模型的输出结果,根据输出结果与预设阈值之间的比较结果判断当前训练数据集是否达标;若达标,则根据当前训练数据集中包含的各个各个二级网站的网站缓存资源属性信息确定所述资源网站的资源缓存策略。若不达标,则进一步缩小训练数据集,直至缩小后的训练数据集达标,以便根据缩小后的训练数据集中包含的各个各个二级网站的网站缓存资源属性信息确定所述资源网站的资源缓存策略。由此可见,该方式通过动态调整训练数据集的方式实现资源缓存策略的灵活配置。
在本发明提供的资源网站的缓存方法中,确定与资源网站相对应的多个二级网站以及各个二级网站的网站缓存资源属性信息和网站缓存资源增益比,相应的,根据各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集,并将训练数据集输入预设的神经元网络模型,根据神经元网络模型的输出结果确定资源网站的资源缓存策略。由此可见,该方式能够动态生成训练数据集,并根据神经元网络模型的输出结果动态确定资源网站的资源缓存策略,从而使得资源缓存策略更加灵活,能够满足各类资源网站的实际缓存需求。
实施例二
图2示出了本发明实施例二提供的一种资源网站的缓存方法的流程图。如图2所示,该方法包括:
步骤S210:确定与资源网站相对应的多个二级网站,获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比。
其中,资源网站可以为各种类型的网站,本发明旨在分别针对不同的资源网站设置不同的资源缓存策略,以满足该类资源网站的实际需求。
与资源网站相对应的多个二级网站是指该资源网站下属的多个子网站,具体可以是二级网站甚至三级网站,只要是隶属于该资源网站的子网站或关联网站均可以统称为该资源网站的二级网站。
二级网站的网站缓存资源属性信息用于描述该二级网站已经缓存的各个资源文件的文件信息,如文件大小、访问请求次数等。例如,二级网站的网站缓存资源属性信息包括:缓存的资源文件名、资源文件数据量、以及访问请求次数等。
另外,二级网站的网站缓存资源增益比用于描述该二级网站已经缓存的各个资源文件的缓存服务率,具体可以通过该二级网站已经缓存的各个资源文件的服务流量(即缓存后提供服务的流量)与各个资源文件的文件大小之间的比值确定。由此可见,网站缓存资源增益比越大,说明该网站的资源缓存后提供服务的次数越多,即缓存服务率越高。
具体实施时,在获取各个二级网站的网站缓存资源增益比时,通过以下方式实现:分别针对每个二级网站,获取针对该二级网站缓存的各个资源文件的文件数据量总和,以及与针对该二级网站缓存的各个资源文件相对应的服务流量总和;根据服务流量总和与文件数据量总和之间的比值确定该二级网站的网站缓存资源增益比。
步骤S220:根据各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集。
具体地,针对各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比执行预处理操作,并根据预处理操作结果生成训练数据集。其中,预处理可以是各种类型的预处理,本发明对预处理的具体实现方式不作限定。
步骤S230:根据训练数据集中包含的各个二级网站的网站缓存资源增益比确定神经元网络模型的输入数据。
步骤S240:判断神经元网络模型的输出结果是否大于预设阈值,并在判断结果为是时,根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定所述资源网站的资源缓存策略。
具体地,判断神经元网络模型的输出结果是否大于预设阈值;若否,剔除训练数据集中包含的若干二级网站,得到缩小后的训练数据集,并将缩小后的训练数据集再次输入神经元网络模型;若是,根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定资源网站的资源缓存策略。
由此可见,剔除训练数据集中包含的若干二级网站,得到缩小后的训练数据集,并将缩小后的训练数据集再次输入神经元网络模型的步骤可能重复执行多次,直至本次缩小后的训练数据集对应的输出结果大于预设阈值为止。相应的,在根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定资源网站的资源缓存策略时,与神经元网络模型的本次输入数据相对应的训练数据集可能是第一次输入的初始训练数据集,也可能是经N次缩小处理后得到的缩小后的训练数据集,本发明对此不作限定,具体取决于模型输出结果,N为自然数。
具体地,在剔除训练数据集中包含的若干二级网站,得到缩小后的训练数据集时,可以根据训练数据集中包含的各个二级网站的网站缓存资源增益比进行剔除,以便优先剔除网站缓存资源增益比较小的二级网站,从而挑选缓存效果较佳的二级网站进行训练。例如,将训练数据集中包含的各个二级网站按照网站缓存资源增益比从大到小的顺序进行排序;根据排序结果剔除排序靠后的若干个二级网站,得到缩小后的训练数据集。
另外,在根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定资源网站的资源缓存策略时,具体通过以下方式实现:
首先,根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息,确定与训练数据集中包含的各个二级网站相对应的文件数据量、和/或访问请求次数;其中,文件数据量主要是指文件大小,包括文件大小的最大值、最小值以及平均值等指标;访问请求次数主要是指文件缓存后被访问请求的次数。
然后,根据各个二级网站相对应的文件数据量、和/或访问请求次数设置资源缓存策略中包含的缓存文件数据量阈值、和/或请求触发次数阈值。例如,根据各个二级网站相对应的文件数据量中的文件大小的最大值、最小值和/或平均值设置资源缓存策略中包含的缓存文件数据量阈值,该缓存文件数据量阈值用于描述何种数据量的文件需要缓存。例如,可以设置缓存文件数据量阈值的上限和下限,从而将数据量大小位于上限和下限之间的资源文件进行缓存。又如,根据各个二级网站相对应的文件的访问请求次数的最大值、最小值和/或平均值设置资源缓存策略中包含的请求触发次数阈值,该请求触发次数阈值用于描述访问请求次数达到何种数值时需要针对文件进行缓存。例如,可以将请求触发次数阈值设置为与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站相对应的文件的访问请求次数的平均值。本实施例中的神经元网络模型可以为二层M-P神经元网络模型。
由此可见,本实施例采用人工智能神经网络技术进行缓存触发策略设置时,利用先验性的历史经验(即已缓存的各个网站资源信息、服务流量等),预测各个网站的冷热倾向。并且,若之前网站的已缓存资源的触发策略设置不合理,通过对各个二级网站的已缓存文件按照重新界定的缓存资源文件增益比大小范围进行取舍,组成较小规模的训练数据集,重复输入模型中,不断迭代直到得到满足要求,得到期待的y输出值作为该资源网站缓存文件大小范围和请求触发次数。
为了便于理解,下面以一个具体示例为例,详细描述本发明实施例二的具体实现细节:
在传统方式中,缓存触发策略的传统算法是根据请求资源的文件类型、文件大小和请求频率判断该资源是否是热点资源。比如,资源的文件类型方面,下载文件包括*.exe可执行文件、*.zip/rar压缩文件、*.iso镜像文件、*.msi Windows安装程序包文件等,音视频文件包括*.mp3/*.midi等音频文件、*.mp4/*.avi/*.flv/*.f4v/*.swf/*.m3u8等视频文件,APP文件包括*.apk安卓应用安装包文件、*.ipa苹果应用安装包文件等;文件大小方面,下载文件大小范围600KB-4GB之间,音视频文件大小范围500KB-4GB之间,APP安装文件大小范围1MB-1GB之间;资源被请求频率方面,按照请求次数或请求客户端IP数量阈值判断,一般阈值范围是2-10之间。传统算法判断某个资源文件是否是热点资源时,缓存系统分析该资源的文件类型是否是支持的文件类型、文件大小是否是符合大小范围,以及请求频率(请求次数或请求客户单IP数量)是否符合阈值。当上述三个条件同时满足时,缓存系统认为该资源具备可缓存价值,可作为热点资源进行存储。系统实际运行时,不同网络环境中缓存触发策略判断中的三个判断条件(即文件类型、文件大小和请求频率)根据需要调整。此外,也采用了资源URL黑白名单进行触发策略例外干预,即黑名单URL资源即使符合三个判断条件也不缓存,白名单URL资源则降低请求频率阈值为1。
由此可见,传统的缓存触发策略通过以下方式实现:
首先,获取资源信息,如URL。然后,针对资源信息进行预处理,包括:获取URL、文件类型、文件大小、请求频率等。接下来,判断资源信息是否列入URL黑名单,若是,说明不属于热点资源,不予缓存;若否,进一步判断资源信息的资源类型是否属于预设的文件类型列表,若不属于,说明不属于热点资源,不予缓存;若属于,进一步判断资源信息的文件大小是否属于预设大小范围,若否,说明不属于热点资源,不予缓存;若是,进一步判断是否列入URL白名单,若否,进一步根据请求频率是否大于预设频率阈值判断是否缓存(当请求频率大于预设频率阈值时进行缓存),若是,则直接按照热点资源缓存。由此可见,在上述方式中,能够综合URL黑名单、URL白名单、文件类型、文件大小、请求频率等多个因素判断是否缓存。
发明人在实现本发明的过程中发现,上述方式至少存在以下两个问题:第一,无法区分不同网站资源的访问热度。传统算法判断缓存触发与否时,仅依据资源文件的类型、大小和被请求频率判断是否是热点资源,判断方式过于简单和粗暴。该方法无法区分不同网站访问热度不同导致的资源访问热度差异,造成无论热门资源,还是冷门资源均采用相同的判断机制进行缓存触发判断。从实际数据来看,缓存系统上往往会存储大量访问热度低的冷门资源,甚至个别冷门资源回源后出现0次访问,造成回源带宽和存储空间的浪费。与此同时,热门资源的瞬间访问量高,但是受限于传统算法的限制,缓存系统未能及时获取该资源并形成服务流量,造成无法提高缓存效率指标(比如缓存增益比)的情况。第二、缓存触发策略精细度低,无法精细化设置策略。传统算法的缓存触发策略精细度低,无法针对热门网站、冷门网站制定网站级的触发策略,从而达到增大热门资源存储量、减少冷门资源存储浪费的效果。热门网站、冷门网站均采用相同的触发策略,势必导致热门网站资源存储不足、冷门网站资源存储过多的不均衡现象。而且,传统算法的缓存触发策略是静态策略,无法动态调整,不利于系统及时调整策略设置,实现更高的缓存效率。
为了解决上述问题,本示例针对传统算法的缓存触发策略机制缺点,采用人工智能神经网络技术制定缓存触发策略,从而解决上述传统算法的缺点,实现动态调整各个网站资源的缓存触发策略(文件大小、请求频率触发阈值),达到热门网站低触发阈值、冷门网站高触发阈值触发资源缓存的效果。精细化的网站级缓存触发策略设置将有效节约存储空间和回源带宽,提高缓存增益比指标。
具体地,本示例采用人工智能神经网络技术构建神经网络二层M-P神经元网络模型,通过将缓存系统上已缓存资源的信息(包括源站URL、文件大小、服务流量、请求次数等)进行预处理后作为训练数据集输入神经元模型,从而通过激活函数处理以产生神经元输出。图5示出了M-P神经元模型的输出示意图。如图5所述,该M-P神经元模型通过以下公式实现:
y表示输出,wi表示第i个神经元的连接权重,xi表示第i个神经元的输入,θ表示阈值。
构建神经网络模型时,将资源网站作为当前神经元对待,阈值是该资源网站的缓存资源增益比,初始默认值是2(即要求来自该网站的已缓存资源需要产生最少2倍的服务流量),换言之,上述公式中的θ=2。该资源网站的二级网站作为x1、x2、...、xi、...、xn等其他神经元对待。每个其他神经元(如xi)提供该二级网站缓存资源的文件大小范围(最小值FSMINi,最大值FSMAXi)、整体缓存增益比Ri、请求次数最小值RNi作为输入信号,并将该二级网站的整体缓存增益比占全部二级网站的整体缓存增益比之和的比例作为对应的连接权重,即wi连接权重计算公式如下式(1):
其中,Ri是第i个二级网站的整体缓存增益比。它是该二级网站的全部资源文件的整体缓存增益比,即所有资源文件的服务流量总和与文件大小总和的比例,计算公式如下式(2):
Foij是第i个二级网站第j个资源文件的服务流量(单位:MB),Fsij是第i个二级网站第j个资源文件的文件大小(单位:MB)。
当前神经元的总输入值(即各个二级网站的整体缓存增益比Ri与各自连接权重wi的乘积之和,)与神经元的阈值θ(即2)对比。如超过则输出神经元的输出。期待的y输出值定义为该资源网站缓存文件大小范围y1,y2和请求触发次数y3,按照如下计算公式(3):
如未超过,说明当前该网站的已缓存资源的触发策略设置不合理,造成已缓存文件产生的缓存增益比过低,未能达到要求的阈值。此时,通过对各个二级网站的已缓存文件按照重新界定的缓存资源文件增益比大小范围进行取舍(比如舍弃增益比低的资源文件),组成较小规模的训练数据集。重复输入模型中,计算总输入值是否符合要求。不断迭代上述过程,直到得到满足要求(即总输入值超过阈值2),从而得到期待的y输出值作为该资源网站缓存文件大小范围和请求触发次数。
以实际例子说明采用人工智能神经网络技术如何调整缓存触发策略。提取缓存系统上最近7天内某个资源网站,比如music.126.net的资源信息。从已缓存的该网站资源来看,music.126.com提供.mp3等各类音频文件,二级网站包括m7.music.126.net、m7c.music.126.net、m8.music.126.net、m8c.music.126.net、m9.music.126.net、m10.music.126.net等。
以m8.music.126.net作为某个其他神经元(即xi),原始的已缓存资源信息如表1:
表1
资源网站 | 文件名(*) | 文件大小Fs<sub>ij</sub> | 服务流量Fo<sub>ij</sub> | 请求次数RN<sub>ij</sub> |
m8.music.126.net | 5032*.mp3 | 13.76MB | 973.08MB | 71.0 |
m8.music.126.net | Ee84*.mp3 | 36.78MB | 619.97MB | 16.9 |
m8.music.126.net | 739f*.mp3 | 76.95MB | 355.38MB | 4.6 |
m8.music.126.net | 230d*.mp3 | 15.26MB | 73.46MB | 4.8 |
... | ... | ... | ... |
初始训练数据集包括m8.music.126.net全部已缓存资源,计算得到输入值和连接权重如表2:
表2
依次类推,得到全部二级网站的输入值、连接权重,从而计算总输入值为1.86,低于music.126.net资源网站的神经元的阈值(即2)。因此,采用重新迭代的方法,重新选取训练数据集。经过多次迭代后,收敛得到符合总输入值超过阈值(即2),从而计算得到缓存music.126.net资源网站资源时,最佳的文件大小范围是1.5MB-358.2MB,最低请求次数是1.8次。因此,设置该资源网站的缓存触发策略时,建议的文件大小是1.5-358MB之间,请求触发次数是2次。采用上述方法可得到其他资源网站(如hicloud.com、xiaomi.com、windowsupdate.com等)的缓存触发策略。
需要说明的是:目前互联网上资源网站除了采用源站域名直接发布,也可以采用CDN发布。CDN发布的资源URL既有IP地址网站形式,也有域名网站形式,而且资源URL中往往也包含源站域名信息,因此,上述分析资源网站的二级网站时,也可将此类CDN发布的资源URL归入相应的二级网站训练数据集里。
另外,针对缓存系统上已缓存资源的URL是IP地址形式,考虑到IP地址极为分散,且资源发布具有临时性特点,如果采用上述神经网络学习技术计算该IP地址网站的缓存触发策略,则易导致缓存触发策略设置过细,策略有效性低,因此,针对此类IP地址网站可以适当进行取舍,以控制训练数据集中包含的二级网站的数量,从而提升效率。另外,如缓存系统已缓存资源中未包含某个网站,无法组成该网站资源的训练数据集,则可先采用默认的传统算法设置缓存触发策略,待缓存资源数量达到指定数量(如1000条)后转而采用上述人工智能神经网络技术设置缓存触发策略。另外,采用人工智能神经网络技术设置的某个资源网站的缓存触发策略是可动态调整的,可按照周期(如7天)连续动态调整,从而提高缓存回源效率,达到节省存储空间和回源带宽,精准缓存热门资源的目的。
经对比发现,现网缓存系统采用上述基于人工智能神经网络技术的缓存触发策略后,缓存系统新增资源数量相比传统算法减少24%,节约存储空间30%,说明该机制有效降低了冷门资源的存储。同时,反映缓存效率的缓存增益比指标(即服务流量/回源流量比值)增长80%,进一步说明了基于人工智能神经网络技术的缓存触发策略机制效果显著。
综上可知,本发明提供了一种基于人工智能神经网络技术的缓存触发策略机制。按照上述触发机制,可确保缓存系统动态调整热门网站、冷门网站的缓存触发策略,实现有效区分热门资源、冷门资源的访问热度,精细化缓存触发策略,从而达到降低回源带宽、提高服务流量,最终有效提升缓存增益比效率指标的目的。其中,采用人工智能神经网络技术进行缓存触发策略设置时,利用先验性的历史经验(即已缓存的各个网站资源信息、服务流量等),从而预测各个网站的冷热倾向。同时,对来自同一个资源网站的多个二级网站域名或IP地址进行关联,从而降低缓存触发策略设置难度,实现了算法高效性。针对无先验性历史经验的网站资源,则采用传统算法设置缓存触发策略,待缓存资源积累后转而采用神经网络技术调整其缓存触发策略。
由此可见,上述实现方式至少具备如下优势:能够解决缓存系统传统算法造成的无法区分热门/资源的访问热度不均、缓存触发策略精细度低的机制缺点,从而确保缓存触发策略能够动态调整,能够适应各个网站的资源冷热程度进行资源获取,实现节省缓存系统存储空间和回源带宽,提高服务流量,提升缓存系统缓存效率的目的。该方式无需调整网络架构,且对缓存系统处理流程调整少,技术上易于实现。
实施例三
图3示出了本发明实施例三提供的一种资源网站的缓存装置的结构示意图,具体包括:
获取模块31,适于确定与资源网站相对应的多个二级网站,获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比;
生成模块32,适于根据所述各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集;
策略确定模块33,适于将所述训练数据集输入预设的神经元网络模型,根据所述神经元网络模型的输出结果确定所述资源网站的资源缓存策略。
可选地,所述策略确定模块具体适于:
根据所述训练数据集中包含的各个二级网站的网站缓存资源增益比确定所述神经元网络模型的输入数据;
判断所述神经元网络模型的输出结果是否大于预设阈值;
若否,剔除所述训练数据集中包含的若干二级网站,得到缩小后的训练数据集,并将所述缩小后的训练数据集再次输入所述神经元网络模型。
可选地,所述策略确定模块具体适于:
若是,根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定所述资源网站的资源缓存策略。
可选地,所述策略确定模块具体适于:
将所述训练数据集中包含的各个二级网站按照网站缓存资源增益比从大到小的顺序进行排序;
根据排序结果剔除排序靠后的若干个二级网站,得到缩小后的训练数据集。
可选地,所述策略确定模块具体适于:
根据所述与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息,确定与所述训练数据集中包含的各个二级网站相对应的文件数据量、和/或访问请求次数;
根据所述各个二级网站相对应的文件数据量、和/或访问请求次数设置所述资源缓存策略中包含的缓存文件数据量阈值、和/或请求触发次数阈值。
可选地,所述获取模块具体适于:
分别针对每个二级网站,获取针对该二级网站缓存的各个资源文件的文件数据量总和,以及与针对该二级网站缓存的各个资源文件相对应的服务流量总和;
根据所述服务流量总和与所述文件数据量总和之间的比值确定该二级网站的网站缓存资源增益比。
可选地,所述二级网站的网站缓存资源属性信息包括:缓存的资源文件名、资源文件数据量、以及访问请求次数;并且,所述神经元网络模型为二层M-P神经元网络模型。
实施例四
本申请实施例四提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的资源网站的缓存方法。可执行指令具体可以用于使得处理器执行上述方法实施例中对应的各个操作。
实施例五
图4示出了根据本发明实施例五的一种电子设备的结构示意图,本发明具体实施例并不对电子设备的具体实现做限定。
如图4所示,该电子设备可以包括:处理器(processor)402、通信接口(Communications Interface)406、存储器(memory)404、以及通信总线408。
其中:
处理器402、通信接口406、以及存储器404通过通信总线408完成相互间的通信。
通信接口406,用于与其它设备比如客户端或其它服务器等的网元通信。
处理器402,用于执行程序410,具体可以执行上述资源网站的缓存方法实施例中的相关步骤。
具体地,程序410可以包括程序代码,该程序代码包括计算机操作指令。
处理器402可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。电子设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器404,用于存放程序410。存储器404可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行上述方法实施例中对应的各个操作。
在此提供的算法和显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本公开并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此所述的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例中的一些或者全部部件的一些或者全部功能。本发明还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。
Claims (10)
1.一种资源网站的缓存方法,包括:
确定与资源网站相对应的多个二级网站,获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比;
根据所述各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集;
将所述训练数据集输入预设的神经元网络模型,根据所述神经元网络模型的输出结果确定所述资源网站的资源缓存策略。
2.根据权利要求1所述的方法,其中,所述将所述训练数据集输入预设的神经元网络模型,根据所述神经元网络模型的输出结果确定所述资源网站的资源缓存策略包括:
根据所述训练数据集中包含的各个二级网站的网站缓存资源增益比确定所述神经元网络模型的输入数据;
判断所述神经元网络模型的输出结果是否大于预设阈值;
若否,剔除所述训练数据集中包含的若干二级网站,得到缩小后的训练数据集,并将所述缩小后的训练数据集再次输入所述神经元网络模型。
3.根据权利要求1或2所述的方法,其中,所述判断所述神经元网络模型的输出结果是否大于预设阈值之后,进一步包括:
若是,根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定所述资源网站的资源缓存策略。
4.根据权利要求2所述的方法,其中,所述剔除所述训练数据集中包含的若干二级网站,得到缩小后的训练数据集包括:
将所述训练数据集中包含的各个二级网站按照网站缓存资源增益比从大到小的顺序进行排序;
根据排序结果剔除排序靠后的若干个二级网站,得到缩小后的训练数据集。
5.根据权利要求3所述的方法,其中,所述根据与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息确定所述资源网站的资源缓存策略包括:
根据所述与神经元网络模型的本次输入数据相对应的训练数据集中包含的各个二级网站的网站缓存资源属性信息,确定与所述训练数据集中包含的各个二级网站相对应的文件数据量、和/或访问请求次数;
根据所述各个二级网站相对应的文件数据量、和/或访问请求次数设置所述资源缓存策略中包含的缓存文件数据量阈值、和/或请求触发次数阈值。
6.根据权利要求1所述的方法,其中,所述获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比包括:
分别针对每个二级网站,获取针对该二级网站缓存的各个资源文件的文件数据量总和,以及与针对该二级网站缓存的各个资源文件相对应的服务流量总和;
根据所述服务流量总和与所述文件数据量总和之间的比值确定该二级网站的网站缓存资源增益比。
7.根据权利要求1所述的方法,其中,所述二级网站的网站缓存资源属性信息包括:缓存的资源文件名、资源文件数据量、以及访问请求次数;并且,所述神经元网络模型为二层M-P神经元网络模型。
8.一种资源网站的缓存装置,包括:
获取模块,适于确定与资源网站相对应的多个二级网站,获取各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比;
生成模块,适于根据所述各个二级网站的网站缓存资源属性信息以及网站缓存资源增益比生成训练数据集;
策略确定模块,适于将所述训练数据集输入预设的神经元网络模型,根据所述神经元网络模型的输出结果确定所述资源网站的资源缓存策略。
9.一种电子设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的资源网站的缓存方法对应的操作。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的资源网站的缓存方法对应的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010430926.XA CN113704649A (zh) | 2020-05-20 | 2020-05-20 | 资源网站的缓存方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010430926.XA CN113704649A (zh) | 2020-05-20 | 2020-05-20 | 资源网站的缓存方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113704649A true CN113704649A (zh) | 2021-11-26 |
Family
ID=78645683
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010430926.XA Pending CN113704649A (zh) | 2020-05-20 | 2020-05-20 | 资源网站的缓存方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113704649A (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102227121A (zh) * | 2011-06-21 | 2011-10-26 | 中国科学院软件研究所 | 基于机器学习的分布式缓存策略自适应切换方法及系统 |
CN106528561A (zh) * | 2015-09-11 | 2017-03-22 | 飞思达技术(北京)有限公司 | 基于互联网爬虫技术的互联网内容资源探测方法 |
CN107948223A (zh) * | 2016-10-12 | 2018-04-20 | 中国电信股份有限公司 | 用于缓存系统的流量处理方法、服务策略设备和缓存系统 |
CN108667734A (zh) * | 2018-05-18 | 2018-10-16 | 南京邮电大学 | 一种基于q学习和lstm神经网络的快速路由决策算法 |
CN109586937A (zh) * | 2017-09-28 | 2019-04-05 | 中兴通讯股份有限公司 | 一种缓存系统的运维方法、设备和存储介质 |
CN110020249A (zh) * | 2017-12-28 | 2019-07-16 | 中国移动通信集团山东有限公司 | 一种url资源的缓存方法、装置及电子设备 |
-
2020
- 2020-05-20 CN CN202010430926.XA patent/CN113704649A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102227121A (zh) * | 2011-06-21 | 2011-10-26 | 中国科学院软件研究所 | 基于机器学习的分布式缓存策略自适应切换方法及系统 |
CN106528561A (zh) * | 2015-09-11 | 2017-03-22 | 飞思达技术(北京)有限公司 | 基于互联网爬虫技术的互联网内容资源探测方法 |
CN107948223A (zh) * | 2016-10-12 | 2018-04-20 | 中国电信股份有限公司 | 用于缓存系统的流量处理方法、服务策略设备和缓存系统 |
CN109586937A (zh) * | 2017-09-28 | 2019-04-05 | 中兴通讯股份有限公司 | 一种缓存系统的运维方法、设备和存储介质 |
CN110020249A (zh) * | 2017-12-28 | 2019-07-16 | 中国移动通信集团山东有限公司 | 一种url资源的缓存方法、装置及电子设备 |
CN108667734A (zh) * | 2018-05-18 | 2018-10-16 | 南京邮电大学 | 一种基于q学习和lstm神经网络的快速路由决策算法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9769248B1 (en) | Performance-based content delivery | |
CN102624922B (zh) | 一种网络gis异构集群服务器负载均衡方法 | |
US6901484B2 (en) | Storage-assisted quality of service (QoS) | |
CN105516360A (zh) | 一种计算机的负载均衡方法及装置 | |
US20010000083A1 (en) | Shared cache parsing and pre-fetch | |
KR20190022431A (ko) | 랜덤 포레스트 모델의 훈련 방법, 전자장치 및 저장매체 | |
CN105550338A (zh) | 一种基于HTML5应用缓存的移动Web缓存优化方法 | |
WO2023050712A1 (zh) | 一种深度学习业务的任务调度方法及相关装置 | |
WO2021022875A1 (zh) | 数据的分布式存储方法及系统 | |
CN107483473A (zh) | 一种云环境的低速拒绝服务攻击数据流检测方法 | |
JP2020102838A5 (zh) | ||
EP3846419A3 (en) | File resource processing method and apparatus, device and medium | |
US6772199B1 (en) | Method and system for enhanced cache efficiency utilizing selective replacement exemption | |
CN115002113A (zh) | 一种移动基站边缘计算力资源调度方法、系统、电子设备 | |
CN104820674B (zh) | 一种网页分类方法及装置 | |
CN113538024B (zh) | 广告管理方法、系统及内容传输网络设备 | |
WO2017015059A1 (en) | Efficient cache warm up based on user requests | |
CN113704649A (zh) | 资源网站的缓存方法及装置 | |
CN111124439B (zh) | 一种云边协同的智能动态卸载算法 | |
CN106789853A (zh) | 一种转码器的动态调度方法及装置 | |
Shi et al. | CoLEAP: Cooperative learning-based edge scheme with caching and prefetching for DASH video delivery | |
CN104270371A (zh) | 一种基于模糊逻辑的cdn缓存服务器选择方法 | |
CN110020249B (zh) | 一种url资源的缓存方法、装置及电子设备 | |
CN116094945A (zh) | 高并发数据请求的处理方法、装置、电子设备及存储介质 | |
CN114070844B (zh) | 一种文件下载方法、装置、计算设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20211126 |