CN112242959B - 微服务限流控制方法、装置、设备及计算机存储介质 - Google Patents
微服务限流控制方法、装置、设备及计算机存储介质 Download PDFInfo
- Publication number
- CN112242959B CN112242959B CN201910642016.5A CN201910642016A CN112242959B CN 112242959 B CN112242959 B CN 112242959B CN 201910642016 A CN201910642016 A CN 201910642016A CN 112242959 B CN112242959 B CN 112242959B
- Authority
- CN
- China
- Prior art keywords
- gate
- output information
- index sequence
- hidden layer
- current
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L47/00—Traffic control in data switching networks
- H04L47/10—Flow control; Congestion control
- H04L47/215—Flow control; Congestion control using token-bucket
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Feedback Control In General (AREA)
Abstract
本发明实施例涉及网络微服务限流技术领域,公开了一种微服务限流控制方法、装置、设备及计算机存储介质,该方法包括:获取微服务的生产数据,得到指标序列;根据所述指标序列及其对应的令牌填充速率,得到GRU深度神经网络模型的权重矩阵,其中,所述GRU深度神经网络模型包含输入层、隐藏层和输出层;根据所述权重矩阵,预测输入的指标序列对应的令牌填充速率;根据所述令牌填充速率对微服务进行限流控制。通过上述方式,本发明实施例实现了对微服务的动态限流控制。
Description
技术领域
本发明实施例涉及网络微服务限流技术领域,具体涉及一种微服务限流控制方法、装置、设备及计算机存储介质。
背景技术
在数据通信网络中,每一个API接口都有访问上限,当访问频率或者并发量超过其承受范围时,需要通过限流来保证接口的可用性或降级可用性,以防止非预期的请求对系统造成的压力过大而引起系统瘫痪。
目前常用的限流方法有漏桶算法和令牌桶算法两种,这两种算法都会以一个固定的时间间隔填充桶内的令牌,并可以按需提高令牌填充速率,但是并没有考虑到服务节点宕机或者新节点加入引起的动态变化,无法实现动态限流。
发明内容
鉴于上述问题,本发明实施例提供了一种微服务限流控制方法、装置、设备及计算机存储介质,克服了上述问题或者至少部分地解决了上述问题。
根据本发明实施例的一个方面,提供了一种微服务限流控制方法,所述方法包括:
获取微服务的生产数据,得到指标序列;
根据所述指标序列及其对应的令牌填充速率,得到GRU深度神经网络模型的权重矩阵,其中,所述GRU深度神经网络模型包含输入层、隐藏层和输出层;
根据所述权重矩阵,预测输入的指标序列对应的令牌填充速率;
根据所述令牌填充速率对微服务进行限流控制。
在一种可选的方式中,获取微服务的生产数据,得到指标序列,包括:获取微服务的运行环境数据和服务数据,得到如下形式的指标序列:
P={T,CP,MP,IOPS,NIO,SV,SD,SSP},
其中,T表示生产数据的获取时间,CP、MP、IOPS、NIO均表示微服务的运行环境数据,CP表示CPU利用率、MP表示内存利用率、IOPS表示磁盘IO、NIO表示网络IO;SV、SD、SSP均表示微服务的服务数据,SV表示服务访问量、SD表示服务延时、SSP表示服务成功率。
在一种可选的方式中,根据所述指标序列及其对应的令牌填充速率,得到GRU深度神经网络模型的权重矩阵,包括:将所述指标序列及其对应的令牌填充速率按照时间排序;获取当前指标序列及其对应的第一令牌填充速率;根据所述当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号;根据所述重置门的门控信号重置所述上一时刻隐藏层的输出信息,得到重置门输出信息;根据所述重置门输出信息与所述当前指标序列,得到记忆内容;根据所述更新门的门控信号对所述记忆内容更新,得到当前时刻隐藏层的输出信息;根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率;根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到GRU深度神经网络模型的权重矩阵。
在一种可选的方式中,根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号,包括:根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,按照下述公式计算重置门的门控信号和更新门的门控信号:
rt=σ(Wr·[ht-1,xt])
zt=σ(Wz·[ht-1,xt])
其中,rt和zt分别表示重置门的门控信号和更新门的门控信号,σ表示sigmoid函数,Wr和Wz分别表示重置门的权重矩阵和更新门的权重矩阵,ht-1表示上一时刻隐藏层的输出信息,xt表示所述当前指标序列。
在一种可选的方式中,根据重置门输出信息与当前指标序列,得到记忆内容,包括:根据重置门输出信息与当前指标序列,按照如下公式得到记忆内容:
ht'=tanh(W·[ht-1',xt])
其中,ht'表示记忆内容,ht-1'表示重置门输出信息,W表示隐藏层权重矩阵。
在一种可选的方式中,根据更新门的门控信号对记忆内容更新,得到当前时刻隐藏层的输出信息,包括:根据所述更新门的门控信号,按照下述公式对所述记忆内容更新,得到当前时刻隐藏层的输出信息:
ht=(1-zt)·ht-1+zt·ht'
其中,ht表示当前时刻隐藏层的输出信息,zt表示更新门的门控信号,ht-1表示所述上一时刻隐藏层的输出信息,ht'表示记忆内容。
在一种可选的方式中,根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率,包括:根据当前时刻隐藏层的输出信息,按照下述公式计算输出层的输出结果:
yt=σ(Wo·ht),
其中,yt表示当前时刻隐藏层的输出信息,Wo表示输出层的权重矩阵,ht表示当前时刻隐藏层的输出信息;
将所述输出层的输出结果去归一化,得到所述第二令牌填充速率。
在一种可选的方式中,根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到更新门的权重矩阵和重置门的权重矩阵,包括:根据所述第二令牌填充速率与所述第一令牌填充速率的差值,计算损失函数值;将所述损失函数值最小值对应的权重矩阵,确定为所述GRU深度神经网络模型的权重矩阵。
根据本发明实施例的另一方面,提供了一种微服务限流控制装置,包括:获取模块、训练模块、预测模块和控制模块,其中,获取模块用于获取微服务的生产数据,得到指标序列。训练模块用于根据所述指标序列及其对应的令牌填充速率,得到GRU深度神经网络模型的权重矩阵,其中,所述GRU深度神经网络模型包含输入层、隐藏层和输出层。预测模块用于根据权重矩阵,预测输入的指标序列对应的令牌填充速率。控制模块用于根据令牌填充速率对微服务进行限流控制。
在一种可选的方式中,获取模块进一步用于获取微服务的运行环境数据和服务数据,得到如下形式的指标序列:
P={T,CP,MP,IOPS,NIO,SV,SD,SSP},
其中,T表示生产数据的获取时间,CP、MP、IOPS、NIO均表示微服务的运行环境数据,CP表示CPU利用率、MP表示内存利用率、IOPS表示磁盘IO、NIO表示网络IO;SV、SD、SSP均表示微服务的服务数据,SV表示服务访问量、SD表示服务延时、SSP表示服务成功率。
在一种可选的方式中,训练模块进一步用于:将所述指标序列及其对应的令牌填充速率按照时间排序;获取当前指标序列及其对应的第一令牌填充速率;根据所述当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号;根据所述重置门的门控信号重置所述上一时刻隐藏层的输出信息,得到重置门输出信息;根据所述重置门输出信息与所述当前指标序列,得到记忆内容;根据所述更新门的门控信号对所述记忆内容更新,得到当前时刻隐藏层的输出信息;根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率;根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到GRU深度神经网络模型的权重矩阵。
在一种可选的方式中,根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号,包括:根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,按照下述公式计算重置门的门控信号和更新门的门控信号:
rt=σ(Wr·[ht-1,xt])
zt=σ(Wz·[ht-1,xt])
其中,rt和zt分别表示重置门的门控信号和更新门的门控信号,σ表示sigmoid函数,Wr和Wz分别表示重置门的权重矩阵和更新门的权重矩阵,ht-1表示上一时刻隐藏层的输出信息,xt表示所述当前指标序列。
在一种可选的方式中,根据重置门输出信息与当前指标序列,得到记忆内容,包括:根据重置门输出信息与当前指标序列,按照如下公式得到记忆内容:
ht'=tanh(W·[ht-1',xt])
其中,ht'表示记忆内容,ht-1'表示重置门输出信息,W表示隐藏层权重矩阵。
在一种可选的方式中,根据更新门的门控信号对记忆内容更新,得到当前时刻隐藏层的输出信息,包括:根据所述更新门的门控信号,按照下述公式对所述记忆内容更新,得到当前时刻隐藏层的输出信息:
ht=(1-zt)·ht-1+zt·ht'
其中,ht表示当前时刻隐藏层的输出信息,zt表示更新门的门控信号,ht-1表示所述上一时刻隐藏层的输出信息,ht'表示记忆内容。
在一种可选的方式中,根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率,包括:根据当前时刻隐藏层的输出信息,按照下述公式计算输出层的输出结果:
yt=σ(Wo·ht),
其中,yt表示当前时刻输出层的输出信息,Wo表示输出层的权重矩阵,ht表示当前时刻隐藏层的输出信息;
将所述输出层的输出结果去归一化,得到所述第二令牌填充速率。
在一种可选的方式中,根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到更新门的权重矩阵和重置门的权重矩阵,包括:根据所述第二令牌填充速率与所述第一令牌填充速率的差值,计算损失函数值;将所述损失函数值最小值对应的权重矩阵,确定为所述GRU深度神经网络模型的权重矩阵。
根据本发明实施例的另一方面,提供了一种微服务限流控制设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述一种微服务限流控制方法对应的操作。
根据本发明实施例的又一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使所述处理器执行上述一种微服务限流控制方法对应的操作。
本发明实施例通过获取的指标序列及其对应的令牌填充速率,得到GRU深度神经网络模型的权重矩阵,并根据权重矩阵,预测输入的指标序列对应的令牌填充速率,根据该令牌填充速率对微服务进行限流控制,由此可见,通过本发明实施例,在对微服务进行限流控制时,综合考虑了大量样本数据,并根据输入的指标序列预测下一时刻的令牌填充速率,能够实现对微服务的动态限流控制。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明第一实施例提供的一种微服务限流控制方法的流程图;
图2示出了本发明第二实施例提供的一种微服务限流控制方法的流程图;
图3示出了本发明第三实施例提供的一种微服务限流控制装置的功能框图;
图4示出了本发明第四实施例提供的一种微服务限流控制设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1示出了本发明第一实施例的一种微服务限流控制方法流程图,如图1所示,该方法包括以下步骤:
步骤110:获取微服务的生产数据,得到指标序列。
具体的,微服务的生产数据是指微服务运行载体的参数和微服务本身的参数,包括微服务的运行环境数据和服务数据。其中,运行环境数据包括CPU、内存、网络、磁盘IO、网络IO等数据,服务数据包括服务访问量、服务延时、服务成功率等数据。由于微服务的生产数据是动态变化的,因此,对于获取的微服务的生产数据,以时间为基线获取。
在一种具体的实施方式中,根据获取的微服务的生产数据,得到如下形式的指标序列:P={T,CP,MP,IOPS,NIO,SV,SD,SSP},其中,T表示生产数据的获取时间,CP、MP、IOPS、NIO均表示微服务的运行环境数据,CP表示CPU利用率、MP表示内存利用率、IOPS表示磁盘IO、NIO表示网络IO;SV、SD、SSP均表示微服务的服务数据,SV表示服务访问量、SD表示服务延时、SSP表示服务成功率。
步骤120:根据指标序列及其对应的令牌填充速率,得到GRU深度神经网络模型的权重矩阵。
具体的,GRU深度神经网络模型包含输入层、隐藏层和输出层,其中,隐藏层具有记忆功能,可以记忆上一时刻隐藏层的输出信息。指标序列对应的令牌填充速率是某一时刻的指标序列对应的真实令牌填充速率。令牌填充速率是单位时间内令牌桶中填充令牌的个数。GRU深度神经网络模型的权重矩阵包括隐藏层的权重矩阵及输出层的权重矩阵,由于GRU深度神经网络的模型中,隐藏层是由重置门和更新门构成的,所以,隐藏层的权重矩阵进一步包括重置门的权重矩阵及更新门的权重矩阵。在隐藏层中,记忆了上一时刻隐藏层的输出信息,重置门用于控制忽略上一时刻隐藏层的输出信息的程度,重置门的值越小,说明忽略的上一时刻的输出信息越多。更新门用于控制上一时刻隐藏层输出信息被带入到当前状态中的程度,更新门的值越大,说明上一时刻输出信息被带入当前时刻越多。通过GRU深度神经网络模型,根据大量的指标序列及其对应的令牌填充速率进行训练,训练完成后,得到GRU深度神经网络模型的权重矩阵。
步骤130:根据权重矩阵,预测输入的指标序列对应的令牌填充速率。
具体的,根据输入的指标序列,以及在GRU深度神经网络模型中记忆的上一时刻的隐藏层的输出信息,通过权重矩阵预测当前输入的指标序列对应的令牌填充速率。
步骤140:根据令牌填充速率对微服务进行限流控制。
根据令牌填充速率调整令牌桶限流模型中的令牌填充速率参数,从而对微服务进行限流控制。
本发明实施例通过获取的指标序列及其对应的令牌填充速率,得到GRU深度神经网络模型的权重矩阵,并根据权重矩阵,预测输入的指标序列对应的令牌填充速率,根据该令牌填充速率对微服务进行限流控制,由此可见,通过本发明实施例,在对微服务进行限流控制时,综合考虑了大量样本数据,并根据输入的指标序列预测下一时刻的令牌填充速率,能够实现对微服务的动态限流控制。
图2示出了本发明第二实施例的一种微服务限流控制方法的流程图,与第一实施例相比,步骤120进一步包括如图2所示的如下步骤:
步骤210:将指标序列及其对应的令牌填充速率按照时间排序。
由于指标序列与获取该指标序列的时间有关,GRU深度神经网络模型是通过对大量的训练样本进行训练,得到权重矩阵的。因为GRU深度神经网络模型的隐藏层中记录的信息是相对于当前时刻的上一时刻的信息,因此,在训练前,需要将训练样本按照时间进行排序,在本发明实施例中,训练样本是由指标序列及其对应的令牌填充速率组成的。
步骤220:获取当前指标序列及其对应的第一令牌填充速率。
具体的,第一令牌填充速率是当前指标序列对应的真实令牌填充速率,在进行业务时,当前指标序列及其对应的真实令牌填充速率均会记录在一个预设的数据库或者数据存储装置中,当需要这些数据时,可以直接从数据存储处获取。
步骤230:根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号。
根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,按照下述公式计算重置门的门控信号和更新门的门控信号:
rt=σ(Wr·[ht-1,xt])
zt=σ(Wz·[ht-1,xt])
其中,rt和zt分别表示重置门的门控信号和更新门的门控信号,σ表示sigmoid函数,Wr和Wz分别表示重置门的权重矩阵和更新门的权重矩阵,ht-1表示所述上一时刻隐藏层的输出信息,xt表示所述当前指标序列。
值得说明的是,sigmoid的计算公式为:sigmoid=1/(1+e-x),使用sigmoid函数可以使得到的门控信号的取值范围限定在(0,1)之间,避免信息反向传播。
步骤240:根据重置门的门控信号重置上一时刻隐藏层的输出信息,得到重置门输出信息。
在一种具体的实施方式中,将重置门的门控信号与上一时刻隐藏层的输出信息相乘,得到重置门输出信息。
步骤250:根据重置门输出信息与当前指标序列,得到记忆内容。
具体的,记忆内容是指被带入到当前状态中的上一时刻隐藏层的输出信息。在一种具体的实施方式中,按照如下公式得到记忆内容:
ht'=tanh(W·[ht-1',xt])
其中,ht'表示记忆内容,ht-1'表示重置门输出信息,W表示隐藏层权重矩阵。
tanh是一个非线性函数,其计算公式为:tanh=(ex-e-x)/(ex+e-x),可以将函数的取值范围限定在(-1,1)之间,以避免在循环过程中扩大相差较大的信号之间的效果。
步骤260:根据更新门的门控信号对记忆内容更新,得到当前时刻隐藏层的输出信息。
在一种具体的实施方式中,通过下述公式得到当前时刻隐藏层的输出信息:ht=(1-zt)·ht-1+zt·ht',其中,ht表示当前时刻隐藏层的输出信息,zt表示更新门的门控信号,ht-1表示上一时刻隐藏层的输出信息,ht'表示记忆内容。
步骤270:根据当前时刻隐藏层的输出信息计算第二令牌填充速率。
具体的,根据所述当前时刻隐藏层的输出信息,按照下述公式计算输出层的输出结果:
yt=σ(Wo·ht),
其中,yt表示当前时刻隐藏层的输出信息,Wo表示输出层的权重矩阵,ht表示当前时刻隐藏层的输出信息;
将所述输出层的输出结果去归一化,得到所述第二令牌填充速率。
其中,输出层的输出结果是一个位于(0,1)区间的数值,在去归一化时,需要综合考虑所有训练数据对应的输出结果,将每一训练数据的输出结果与所有训练数据的输出结果作差,取绝对值后,除以所有训练数据的方差,得到第二令牌填充速率。
步骤280:根据第二令牌填充速率与第一令牌填充速率的差值,得到GRU深度神经网络模型的权重矩阵。
根据第二令牌填充速率与第一令牌填充速率的差值,计算损失函数值,将损失函数值最小值对应的权重矩阵,确定为GRU深度神经网络模型的更新门的权重矩阵。
在具体实施方式中,根据“二八”原则,从获取的所有指标序列及其对应的令牌填充速率按照时间顺序排序后,随机抽取连续的80%的样本数据作为GRU深度神经网络模型的训练数据,剩余数据作为测试数据,用于验证训练完成的GRU深度神经网络模型。对于每一训练数据,均作为当前指标序列执行步骤210至步骤270,并计算每一训练数据得到的第二令牌填充速率与第一令牌填充速率的差值,并根据差值,计算损失函数,其中,损失函数表示所有训练数据总的差值的大小。为了消除差值的正负数差异,损失函数为所有训练数据差值的平方和,例如,其中,n表示训练数据的个数。本发明实施例并不对损失函数的具体形式做限定。
值得说明的是,在使用训练数据完成训练后,使用测试数据对训练好的GRU深度神经网络进行验证,如果验证结果满足预设的准确率,则说明训练结果符合要求,如果验证结果不满足预设的准确率,则更改训练相关的参数,例如,训练步长、训练次数、训练数据等,重新进行模型训练,直至满足预设的准确率。
本发明实施例根据指标序列及其对应的令牌填充速率对GRU深度神经网络模型训练,给出了具体的训练过程,便于本领域的技术人员根据本发明实施例中的具体描述实施本发明实施例。
图3示出了本发明第三实施例的一种微服务限流控制装置实施例的结构示意图。如图3所示,该装置包括:获取模块310、训练模块320、预测模块330和控制模块340。其中,获取模块310用于获取微服务的生产数据,得到指标序列。训练模块320用于根据指标序列及其对应的令牌填充速率,得到GRU深度神经网络模型的权重矩阵,其中,所述GRU深度神经网络模型包含输入层、隐藏层和输出层。预测模块330用于根据权重矩阵,预测输入的指标序列对应的令牌填充速率。控制模块340用于根据令牌填充速率对微服务进行限流控制。
在一种可选的方式中,获取模块310进一步用于获取微服务的运行环境数据和服务数据,得到如下形式的指标序列:
P={T,CP,MP,IOPS,NIO,SV,SD,SSP},
其中,T表示生产数据的获取时间,CP、MP、IOPS、NIO均表示微服务的运行环境数据,CP表示CPU利用率、MP表示内存利用率、IOPS表示磁盘IO、NIO表示网络IO;SV、SD、SSP均表示微服务的服务数据,SV表示服务访问量、SD表示服务延时、SSP表示服务成功率。
在一种可选的方式中,训练模块320进一步用于:将所述指标序列及其对应的令牌填充速率按照时间排序;获取当前指标序列及其对应的第一令牌填充速率;根据所述当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号;根据所述重置门的门控信号重置所述上一时刻隐藏层的输出信息,得到重置门输出信息;根据所述重置门输出信息与所述当前指标序列,得到记忆内容;根据所述更新门的门控信号对所述记忆内容更新,得到当前时刻隐藏层的输出信息;根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率;根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到GRU深度神经网络模型的权重矩阵。
在一种可选的方式中,根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号,包括:根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,按照下述公式计算重置门的门控信号和更新门的门控信号:
rt=σ(Wr·[ht-1,xt])
zt=σ(Wz·[ht-1,xt])
其中,rt和zt分别表示重置门的门控信号和更新门的门控信号,σ表示sigmoid函数,Wr和Wz分别表示重置门的权重矩阵和更新门的权重矩阵,ht-1表示所述上一时刻隐藏层的输出信息,xt表示所述当前指标序列。
在一种可选的方式中,根据重置门输出信息与当前指标序列,得到记忆内容,包括:根据重置门输出信息与当前指标序列,按照如下公式得到记忆内容:
ht'=tanh(W·[ht-1',xt])
其中,ht'表示记忆内容,ht-1'表示重置门输出信息,W表示隐藏层权重矩阵。
在一种可选的方式中,根据更新门的门控信号对记忆内容更新,得到当前时刻隐藏层的输出信息,包括:根据所述更新门的门控信号,按照下述公式对所述记忆内容更新,得到当前时刻隐藏层的输出信息:
ht=(1-zt)·ht-1+zt·ht'
其中,ht表示当前时刻隐藏层的输出信息,zt表示更新门的门控信号,ht-1表示所述上一时刻隐藏层的输出信息,ht'表示记忆内容。
在一种可选的方式中,根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率,包括:根据当前时刻隐藏层的输出信息,按照下述公式计算输出层的输出结果:
yt=σ(Wo·ht),
其中,yt表示当前时刻隐藏层的输出信息,Wo表示输出层的权重矩阵,ht表示当前时刻隐藏层的输出信息;
将所述输出层的输出结果去归一化,得到所述第二令牌填充速率。
在一种可选的方式中,根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到更新门的权重矩阵和重置门的权重矩阵,包括:根据所述第二令牌填充速率与所述第一令牌填充速率的差值,计算损失函数值;将所述损失函数值最小值对应的权重矩阵,确定为所述GRU深度神经网络模型的权重矩阵。
本发明实施例根据获取模块310获取的指标序列及其对应的令牌填充速率,通过训练模块320,得到权重矩阵,并根据权重矩阵,通过预测模块330预测输入的指标序列对应的令牌填充速率,根据该令牌填充速率,通过控制模块340对微服务进行限流控制,由此可见,通过本发明实施例,在对微服务进行限流控制时,综合考虑了大量样本数据,并根据输入的指标序列预测下一时刻的令牌填充速率,能够实现对微服务的动态限流控制。
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的一种微服务限流控制方法对应的操作。
本发明实施例提供了一种计算机程序产品,所述计算机程序产品包括存储在计算机存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任意方法实施例中的一种微服务限流控制方法对应的操作。
图4示出了本发明第四实施例的一种微服务限流控制设备的结构示意图,本发明具体实施例并不对该设备的具体实现做限定。
如图4所示,该设备可以包括:处理器(processor)402、通信接口(CommunicationsInterface)404、存储器(memory)406、以及通信总线408。
其中:处理器402、通信接口404、以及存储器406通过通信总线408完成相互间的通信。通信接口404,用于与其它设备比如客户端或其它服务器等的网元通信。处理器402,用于执行程序410,具体可以执行上述一种微服务限流控制方法实施例中的相关步骤。
具体地,程序410可以包括程序代码,该程序代码包括计算机操作指令。
处理器402可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。微服务限流控制设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器406,用于存放程序410。存储器406可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序410具体可以用于使得处理器402执行以下操作:
获取微服务的生产数据,得到指标序列;
根据所述指标序列及其对应的令牌填充速率,得到GRU深度神经网络模型的权重矩阵,其中,所述GRU深度神经网络模型包含输入层、隐藏层和输出层;
根据所述权重矩阵,预测输入的指标序列对应的令牌填充速率;
根据所述令牌填充速率对微服务进行限流控制。
在一种可选的方式中,程序410具体可以用于使得处理器402执行以下操作:获取微服务的运行环境数据和服务数据,得到如下形式的指标序列:
P={T,CP,MP,IOPS,NIO,SV,SD,SSP},
其中,T表示生产数据的获取时间,CP、MP、IOPS、NIO均表示微服务的运行环境数据,CP表示CPU利用率、MP表示内存利用率、IOPS表示磁盘IO、NIO表示网络IO;SV、SD、SSP均表示微服务的服务数据,SV表示服务访问量、SD表示服务延时、SSP表示服务成功率。
在一种可选的方式中,程序410具体可以用于使得处理器402执行以下操作:将所述指标序列及其对应的令牌填充速率按照时间排序;获取当前指标序列及其对应的第一令牌填充速率;根据所述当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号;根据所述重置门的门控信号重置所述上一时刻隐藏层的输出信息,得到重置门输出信息;根据所述重置门输出信息与所述当前指标序列,得到记忆内容;根据所述更新门的门控信号对所述记忆内容更新,得到当前时刻隐藏层的输出信息;根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率;根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到GRU深度神经网络模型的权重矩阵。
在一种可选的方式中,程序410具体可以用于使得处理器402执行以下操作:根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,按照下述公式计算重置门的门控信号和更新门的门控信号:
rt=σ(Wr·[ht-1,xt])
zt=σ(Wz·[ht-1,xt])
其中,rt和zt分别表示重置门的门控信号和更新门的门控信号,σ表示sigmoid函数,Wr和Wz分别表示重置门的权重矩阵和更新门的权重矩阵,ht-1表示上一时刻隐藏层的输出信息,xt表示所述当前指标序列。
在一种可选的方式中,程序410具体可以用于使得处理器402执行以下操作:根据重置门输出信息与当前指标序列,按照如下公式得到记忆内容:
ht'=tanh(W·[ht-1',xt])
其中,ht'表示记忆内容,ht-1'表示重置门输出信息,W表示隐藏层权重矩阵。
在一种可选的方式中,程序410具体可以用于使得处理器402执行以下操作:根据所述更新门的门控信号,按照下述公式对所述记忆内容更新,得到当前时刻隐藏层的输出信息:
ht=(1-zt)·ht-1+zt·ht'
其中,ht表示当前时刻隐藏层的输出信息,zt表示更新门的门控信号,ht-1表示所述上一时刻隐藏层的输出信息,ht'表示记忆内容。
在一种可选的方式中,程序410具体可以用于使得处理器402执行以下操作:根据当前时刻隐藏层的输出信息,按照下述公式计算输出层的输出结果:
yt=σ(Wo·ht),
其中,yt表示当前时刻隐藏层的输出信息,Wo表示输出层的权重矩阵,ht表示当前时刻隐藏层的输出信息;
将所述输出层的输出结果去归一化,得到所述第二令牌填充速率。
在一种可选的方式中,程序410具体可以用于使得处理器402执行以下操作:根据所述第二令牌填充速率与所述第一令牌填充速率的差值,计算损失函数值;将所述损失函数值最小值对应的权重矩阵,确定为所述GRU深度神经网络模型的权重矩阵。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (9)
1.一种微服务限流控制方法,其特征在于,所述方法包括:
获取微服务的生产数据,得到指标序列;
将所述指标序列及其对应的令牌填充速率按照时间排序;
获取当前指标序列及其对应的第一令牌填充速率;
根据所述当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号;
根据所述重置门的门控信号重置所述上一时刻隐藏层的输出信息,得到重置门输出信息;
根据所述重置门输出信息与所述当前指标序列,得到记忆内容;
根据所述更新门的门控信号对所述记忆内容更新,得到当前时刻隐藏层的输出信息;
根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率;
根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到GRU深度神经网络模型的权重矩阵,其中,所述GRU深度神经网络模型包含输入层、隐藏层和输出层;
根据所述权重矩阵,预测输入的指标序列对应的令牌填充速率;
根据所述令牌填充速率对微服务进行限流控制。
2.根据权利要求1所述的方法,其特征在于,所述获取微服务的生产数据,得到指标序列,包括:获取微服务的运行环境数据和服务数据,得到如下形式的指标序列:
P={T,CP,MP,IOPS,NIO,SV,SD,SSP},
其中,T表示生产数据的获取时间,CP、MP、IOPS、NIO均表示微服务的运行环境数据,CP表示CPU利用率、MP表示内存利用率、IOPS表示磁盘IO、NIO表示网络IO;SV、SD、SSP均表示微服务的服务数据,SV表示服务访问量、SD表示服务延时、SSP表示服务成功率。
3.根据权利要求1所述的方法,其特征在于,所述根据所述当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号,包括:
根据当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,按照下述公式计算重置门的门控信号和更新门的门控信号:
rt=σ(Wr·[ht-1,xt])
zt=σ(Wz·[ht-1,xt])
其中,rt和zt分别表示重置门的门控信号和更新门的门控信号,σ表示sigmoid函数,Wr和Wz分别表示重置门的权重矩阵和更新门的权重矩阵,ht-1表示所述上一时刻隐藏层的输出信息,xt表示所述当前指标序列。
4.根据权利要求1所述的方法,其特征在于,所述根据所述重置门输出信息与所述当前指标序列,得到记忆内容,包括:
根据所述重置门输出信息与所述当前指标序列,按照如下公式得到记忆内容:
ht'=tanh(W·[ht-1',xt])
其中,ht'表示记忆内容,ht-1'表示重置门输出信息,W表示隐藏层权重矩阵。
5.根据权利要求1所述的方法,其特征在于,所述根据所述更新门的门控信号对所述记忆内容更新,得到当前时刻隐藏层的输出信息,包括:
根据所述更新门的门控信号,按照下述公式对所述记忆内容更新,得到所述当前时刻隐藏层的输出信息:
ht=(1-zt)·ht-1+zt·ht'
其中,ht表示当前时刻隐藏层的输出信息,zt表示更新门的门控信号,ht-1表示所述上一时刻隐藏层的输出信息,ht'表示记忆内容。
6.根据权利要求1所述的方法,其特征在于,所述根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率,包括:
根据所述当前时刻隐藏层的输出信息,按照下述公式计算输出层的输出结果:
yt=σ(Wo·ht),
其中,yt表示当前时刻隐藏层的输出信息,Wo表示输出层的权重矩阵,ht表示当前时刻隐藏层的输出信息;
将所述输出层的输出结果去归一化,得到所述第二令牌填充速率。
7.根据权利要求1所述的方法,其特征在于,所述根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到更新门的权重矩阵和重置门的权重矩阵,包括:
根据所述第二令牌填充速率与所述第一令牌填充速率的差值,计算损失函数值;
将所述损失函数值最小值对应的权重矩阵,确定为所述GRU深度神经网络模型的权重矩阵。
8.一种微服务限流控制装置,其特征在于,所述装置包括:
获取模块,用于获取微服务的生产数据,得到指标序列;
训练模块,用于将所述指标序列及其对应的令牌填充速率按照时间排序;获取当前指标序列及其对应的第一令牌填充速率;根据所述当前指标序列,和,GRU深度神经网络模型记录的上一时刻隐藏层的输出信息,计算重置门的门控信号和更新门的门控信号;根据所述重置门的门控信号重置所述上一时刻隐藏层的输出信息,得到重置门输出信息;根据所述重置门输出信息与所述当前指标序列,得到记忆内容;根据所述更新门的门控信号对所述记忆内容更新,得到当前时刻隐藏层的输出信息;根据所述当前时刻隐藏层的输出信息计算第二令牌填充速率;根据所述第二令牌填充速率与所述第一令牌填充速率的差值,得到GRU深度神经网络模型的权重矩阵,其中,所述GRU深度神经网络模型包含输入层、隐藏层和输出层;
预测模块,用于根据所述权重矩阵,预测输入的指标序列对应的令牌填充速率;
控制模块,用于根据所述令牌填充速率对微服务进行限流控制。
9.一种微服务限流控制设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7任意一项所述的方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910642016.5A CN112242959B (zh) | 2019-07-16 | 2019-07-16 | 微服务限流控制方法、装置、设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910642016.5A CN112242959B (zh) | 2019-07-16 | 2019-07-16 | 微服务限流控制方法、装置、设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112242959A CN112242959A (zh) | 2021-01-19 |
CN112242959B true CN112242959B (zh) | 2022-10-14 |
Family
ID=74167048
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910642016.5A Active CN112242959B (zh) | 2019-07-16 | 2019-07-16 | 微服务限流控制方法、装置、设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112242959B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113570129A (zh) * | 2021-07-20 | 2021-10-29 | 武汉钢铁有限公司 | 带钢酸洗浓度的预测方法及计算机可读存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6011798A (en) * | 1997-08-15 | 2000-01-04 | Intel Corporation | Adaptive transmit rate control scheduler |
CN109194583A (zh) * | 2018-08-07 | 2019-01-11 | 中国地质大学(武汉) | 基于深度增强学习的网络拥塞链路诊断方法及系统 |
CN109861920A (zh) * | 2019-01-16 | 2019-06-07 | 深圳市融汇通金科技有限公司 | 一种弹性限流的方法及装置 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4698645B2 (ja) * | 2007-08-08 | 2011-06-08 | 日本電信電話株式会社 | フロー制御装置およびフロー制御方法 |
CN101834753B (zh) * | 2010-03-30 | 2012-12-19 | 华中科技大学 | 一种基于共变正交和神经网络的网络流量预测方法 |
CN103560974B (zh) * | 2013-10-25 | 2017-01-25 | 华为技术有限公司 | 一种令牌维护的方法和装置 |
CN105515880B (zh) * | 2016-01-25 | 2018-10-30 | 重庆邮电大学 | 一种适合融合网络的令牌桶流量整形方法 |
US10922604B2 (en) * | 2016-09-09 | 2021-02-16 | Cylance Inc. | Training a machine learning model for analysis of instruction sequences |
US20180300621A1 (en) * | 2017-04-13 | 2018-10-18 | International Business Machines Corporation | Learning dependencies of performance metrics using recurrent neural networks |
CN107547433B (zh) * | 2017-07-03 | 2020-12-22 | 创新先进技术有限公司 | 基于令牌漏桶进行限流的方法、装置和设备 |
KR102424514B1 (ko) * | 2017-12-04 | 2022-07-25 | 삼성전자주식회사 | 언어 처리 방법 및 장치 |
US10593321B2 (en) * | 2017-12-15 | 2020-03-17 | Mitsubishi Electric Research Laboratories, Inc. | Method and apparatus for multi-lingual end-to-end speech recognition |
CN108540557A (zh) * | 2018-04-16 | 2018-09-14 | 江苏润和软件股份有限公司 | 一种基于动态限速的云应用负载调度方法 |
CN109272157A (zh) * | 2018-09-12 | 2019-01-25 | 中交信息技术国家工程实验室有限公司 | 一种基于门控神经网络的高速公路交通流参数预测方法及系统 |
-
2019
- 2019-07-16 CN CN201910642016.5A patent/CN112242959B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6011798A (en) * | 1997-08-15 | 2000-01-04 | Intel Corporation | Adaptive transmit rate control scheduler |
CN109194583A (zh) * | 2018-08-07 | 2019-01-11 | 中国地质大学(武汉) | 基于深度增强学习的网络拥塞链路诊断方法及系统 |
CN109861920A (zh) * | 2019-01-16 | 2019-06-07 | 深圳市融汇通金科技有限公司 | 一种弹性限流的方法及装置 |
Non-Patent Citations (3)
Title |
---|
A Variable Rate Leaky Bucket Algorithm Based on a Neural Network;Du-Hern Lee;《IEEE》;20020806;全文 * |
动态令牌分配的TCSN多级令牌桶流量监管算法;赵晋南等;《计算机工程》;20170927(第08期);全文 * |
基于神经网络和粒子群算法的MPEG视频传输控制;向涛;《计算机科学》;20050923;第32卷(第9期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN112242959A (zh) | 2021-01-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP3446260B1 (en) | Memory-efficient backpropagation through time | |
CN107609652B (zh) | 执行机器学习的分布式系统及其方法 | |
EP3583553A1 (en) | Neural architecture search for convolutional neural networks | |
CN110366734A (zh) | 优化神经网络架构 | |
CN105446988B (zh) | 预测类别的方法和装置 | |
WO2018068421A1 (zh) | 一种神经网络的优化方法及装置 | |
CN110795246A (zh) | 资源利用率的预测方法及装置 | |
CN107679625A (zh) | 针对数据记录执行机器学习的分布式系统及其方法 | |
CN110349013A (zh) | 风险控制方法及装置 | |
CN109903100A (zh) | 一种用户流失预测方法、装置及可读存储介质 | |
CN111401940A (zh) | 特征预测方法、装置、电子设备及存储介质 | |
CN109685805A (zh) | 一种图像分割方法及装置 | |
CN115082752A (zh) | 基于弱监督的目标检测模型训练方法、装置、设备及介质 | |
CN111159241B (zh) | 一种点击转化预估方法及装置 | |
CN112242959B (zh) | 微服务限流控制方法、装置、设备及计算机存储介质 | |
CN110083518B (zh) | 一种基于AdaBoost-Elman的虚拟机软件老化预测方法 | |
CN112203311B (zh) | 网元异常诊断方法、装置、设备及计算机存储介质 | |
CN113452546A (zh) | 深度学习训练通信的动态服务质量管理 | |
US7925490B2 (en) | Method of transactional simulation of a generic communication node model, and the corresponding computer program product and storage means | |
CN110610140A (zh) | 人脸识别模型的训练方法、装置、设备及可读存储介质 | |
CN110781223A (zh) | 数据处理方法及装置、处理器、电子设备及存储介质 | |
CN106557451A (zh) | 一种用于分层混合专家系统构建的特征选择的方法和设备 | |
CN105656858B (zh) | 一种数据更新方法及装置 | |
CN114238106A (zh) | 测试时间预测方法及装置、电子设备、存储介质 | |
WO2021068253A1 (zh) | 定制数据流硬件模拟仿真方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |