CN107707383B - 放通处理方法、装置、第一网元及第二网元 - Google Patents
放通处理方法、装置、第一网元及第二网元 Download PDFInfo
- Publication number
- CN107707383B CN107707383B CN201710754492.7A CN201710754492A CN107707383B CN 107707383 B CN107707383 B CN 107707383B CN 201710754492 A CN201710754492 A CN 201710754492A CN 107707383 B CN107707383 B CN 107707383B
- Authority
- CN
- China
- Prior art keywords
- network element
- request
- response
- parameter
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/01—Protocols
- H04L67/10—Protocols in which an application is distributed across nodes in the network
- H04L67/1001—Protocols in which an application is distributed across nodes in the network for accessing one among a plurality of replicated servers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/14—Network analysis or design
- H04L41/145—Network analysis or design involving simulating, designing, planning or modelling of a network
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/56—Provisioning of proxy services
- H04L67/568—Storing data temporarily at an intermediate stage, e.g. caching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L67/00—Network arrangements or protocols for supporting network services or applications
- H04L67/50—Network services
- H04L67/60—Scheduling or organising the servicing of application requests, e.g. requests for application data transmissions using the analysis and optimisation of the required network resources
- H04L67/63—Routing a service request depending on the request content or context
Landscapes
- Engineering & Computer Science (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Debugging And Monitoring (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本申请提供一种放通处理方法、装置、第一网元及第二网元,该方法包括:第一网元确定是否需要执行放通处理,若是,则第一网元向第二网元发送请求信息,所述请求信息中包括至少一个请求参数,以使所述第二网元根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数,进而,第一网元接收第二网元发送的第一响应信息,所述第一响应信息中包括所述至少一个响应参数。该方法通过神经网络模型确定出请求参数对应的响应参数,由于神经网络模型是通过训练得到神经网络决策因子,即权重信息,根据权重确定请求参数对应的响应参数,因此,能够消除查询条件的无限组合,从而能够降低资源占用,提升资源利用效率。
Description
技术领域
本申请涉及通信技术,尤其涉及一种放通处理方法、装置、第一网元及第二网元。
背景技术
随着互联网业务的迅猛发展,出现了很多互联网系统,例如电商系统、社交平台系统等,这些系统不仅需要能够快速响应业务需求,同时也要保证高可靠性和安全性。其中,放通技术就是互联网架构中的一种可靠性保障技术。放通技术是指在由多个“互相依赖”的服务构建的系统中,当其中某个服务故障失效时,为不影响使用者的业务体验,需要在服务依赖方做特殊的容错响应处理。
现有技术中,主要使用缓存放通技术与模板放通技术结合的方法来实现放通。具体地,服务依赖方预置依赖服务的放通规则,在服务依赖方启动时加载放通规则,当依赖服务由于异常而满足放通规则时,触发放通,服务依赖方优先从缓存中根据请求条件参数查找消息结果,若查找不到则根据预置的消息放通消息模板确定消息结果,并返回给调用方。
但是,使用现有技术的方法,需要使用较多缓存资源,会导致资源占用率过高。
发明内容
本申请提供一种放通处理方法、装置、第一网元及第二网元,用于解决现有技术中需要使用较多缓存资源所导致的资源占用率过高的问题。
本申请第一方面提供一种放通处理方法,该方法包括:
第一网元首先确定是否需要执行放通处理,如果需要,则第一网元向第二网元发送请求信息,所述请求信息中包括至少一个请求参数,以使所述第二网元根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数,进而,第一网元接收第二网元发送的第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
在该方法中,当需要执行放通处理时,第一网元将请求参数发送给第二网元,由第二网元通过神经网络模型确定出请求参数对应的响应参数,由于神经网络模型是通过训练得到神经网络决策因子,即权重信息,根据权重确定请求参数对应的响应参数,因此,能够消除查询条件的无限组合,从而能够降低资源占用,提升资源利用效率。另外,神经网络模型中的神经网络决策因子经过大量训练得到,因此,基于这些神经网络决策因子所得出的响应参数的准确率相比现有技术更高。
在一种可能的设计中,所述第一网元确定需要执行放通处理,包括:
第一网元向第三网元发送请求信息;
若所述第一网元在预设时间内未接收到所述第三网元的第二响应信息,则所述第一网元确定需要执行放通处理。
在一种可能的设计中,所述第一网元向第三网元发送请求信息之后,还包括:
若所述第一网元在预设时间内接收到所述第三网元的第二响应信息,则所述第一网元向所述第二网元发送所述请求信息以及所述第二响应信息,以使所述第二网元根据所述请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络。
在一种可能的设计中,所述第一网元向所述第二网元发送所述请求信息以及所述第二响应信息,包括:
所述第一网元接收到预设数量的所述第二响应信息后,向所述第二网元发送所述请求信息以及所述预设数量的所述第二响应信息。
本申请第二方面提供一种放通处理方法,该方法包括:
第二网元接收第一网元发送的请求信息,所述请求信息中包括至少一个请求参数,进而,第二网元根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数,确定出响应参数之后,所述第二网元向所述第一网元发送第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
该方法中,当需要执行放通处理时,第一网元将请求参数发送给第二网元,由第二网元通过神经网络模型确定出请求参数对应的响应参数,由于神经网络模型是通过训练得到神经网络决策因子,即权重信息,根据权重确定请求参数对应的响应参数,因此,能够消除查询条件的无限组合,从而能够降低资源占用,提升资源利用效率。另外,神经网络模型中的神经网络决策因子经过大量训练得到,因此,基于这些神经网络决策因子所得出的响应参数的准确率相比现有技术更高。
在一种可能的设计中,该方法还包括:
还包括:
所述第二网元接收所述第一网元发送的请求信息以及第二响应信息,其中,所述第二响应信息为第三网元向所述第一网元发送的响应信息,所述第二响应信息中包括至少一个响应参数;
所述第二网元根据请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络。
在一种可能的设计中,所述第二网元根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数,包括:
所述第二网元根据所述请求参数在所述神经网络模型中的权重信息,确定所述请求参数对应的至少一个响应参数。
在一种可能的设计中,所述第二网元根据请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络,包括:
所述第二网元对所述请求信息中的请求参数以及所述第二响应信息中的响应参数进行数据转换,获取转换后的数据;
所述第二网元根据所述转换后的数据,生成训练集以及测试集;
所述第二网元根据所述训练集以及所述测试集训练所述训练集中的请求参数和响应参数的权重信息。
在一种可能的设计中,所述第二网元对所述请求信息中的请求参数以及所述第二响应信息中的响应参数进行数据转换,获取转换后的数据,包括:
若所述请求参数和/或所述响应参数为字符串,则所述第二网元将所述请求参数和/或所述响应参数转换为整数值;
若所述请求参数和/或所述响应参数为整数,则所述第二网元将所述请求参数和/或所述响应参数转换为浮点数;
若所述请求参数和/或所述响应参数为时间,则所述第二网元将所述请求参数和/或所述响应参数转换为秒数。
本申请第三方面提供一种放通处理装置,该装置有实现第一方面中第一网元的功能。这些功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一种可能的设计中,该装置可以包括处理模块、发送模块以及接收模块,这些模块可以执行上述方法中的相应功能,例如:处理模块,用于确定是否需要执行放通处理;发送模块,用于在确定需要执行放通处理时,向第二网元发送请求信息,所述请求信息中包括至少一个请求参数,以使所述第二网元根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数;接收模块,用于接收所述第二网元发送的第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
本申请第四方面提供一种放通处理装置,该装置有实现第二方面中第二网元的功能。这些功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块。
在一种可能的设计中,该装置可以包括接收模块、处理模块以及发送模块,这些模块可以执行上述方法中的相应功能,例如:接收模块,用于接收第一网元发送的请求信息,所述请求信息中包括至少一个请求参数;处理模块,用于根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数;发送模块,用于向所述第一网元发送第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
本申请第五方面提供一种第一网元,该第一网元包括:存储器和处理器。存储器用于存储程序指令,处理器用于调用存储器中的程序指令,实现上述第一方面中第一网元的功能。
本申请第六方面提供一种第二网元,该第二网元包括:存储器和处理器。存储器用于存储程序指令,处理器用于调用存储器中的程序指令,实现上述第二方面中第二网元的功能。
本申请第七方面提供一种非易失性存储介质,该非易失性存储介质中存储有一个或多个程序代码,当终端设备执行该程序代码时,该终端设备执行第一方面中第一网元执行的相关方法步骤。
本申请第八方面提供一种非易失性存储介质,该非易失性存储介质中存储有一个或多个程序代码,当终端设备执行该程序代码时,该终端设备执行第二方面中第二网元执行的相关方法步骤。
附图说明
图1为服务依赖方正常工作场景下的服务调用流程示意图;
图2为使用缓存放通成功的流程示意图;
图3为使用缓存放通失败的流程示意图;
图4为使用模板放通的流程示意图;
图5为本申请提供的放通处理方法实施例一的交互流程图;
图6为本申请提供的放通处理方法实施例二的流程示意图;
图7为本申请提供的放通处理方法实施例三的交互流程图;
图8为本申请提供的放通处理方法实施例四的流程示意图;
图9为进行神经网络训练的一个示例图;
图10为本申请提供的一种放通处理装置实施例一的模块结构图;
图11为本申请提供的另一种放通处理装置实施例一的模块结构图;
图12为本申请提供的一种第一网元实施例一的实体框图;
图13为本申请提供的一种第二网元实施例一的实体框图。
具体实施方式
图1为服务依赖方正常工作场景下的服务调用流程示意图,如图1所示,正常的服务调用流程为:
S101、服务A接收用户输入的请求。
其中,用户输入请求例如可以是查询请求。
服务A为需要通过调用其他服务来获取处理结果的服务,即服务依赖方。
S102、服务A向服务B发送请求,以调用服务B来获取数据。
服务B为被调用的获取数据的服务,即依赖服务。
例如,服务A向服务B发送了一个查询请求,其中包括查询条件,服务B根据查询条件,执行查询操作获取查询结果。
S103、服务B向服务A返回获取的数据。
例如,当服务B获取到查询结果后,会将查询结果返回给服务A。
S104、服务A向用户反馈从服务B获取的数据。
例如,服务A可以在其用户界面中显示从服务B获取的数据,以供用户查看。
当服务B,即依赖服务由于某些原因故障时,在服务A向服务B发送请求之后,不会在规定的时间内接收到服务B的反馈,此时就需要服务A执行放通处理。
现有技术中,首先使用缓存放通的方法进行放通处理,如果缓存放通无法获得放通结果,则再使用模板放通的方法进行放通处理。以下分别对缓存放通的过程和模板放通的过程进行介绍。
图2为使用缓存放通成功的流程示意图,如图2所示,缓存放通的处理流程为:
S201、服务A接收用户输入的请求。
S202、服务A向服务B发送请求,以调用B服务来获取数据。
S203、服务A确定服务B满足放通条件,则服务A向缓存服务发送请求。
其中,放通条件例如可以是:在规定的时间内未收到服务B的响应则执行放通。
该规定的时间可以为服务A预设的一个时间,当服务A发出请求之后,可以启动一个定时器,当定时器超时并且未收到服务B的响应时,则向缓存服务发送请求。
S204、缓存服务根据请求中的条件查找结果。
在此之前,当服务A正常从服务B获取到数据后,服务A会将请求以及从服务B获取的数据都发送给缓存服务,由缓存服务进行保存。
当服务B故障,服务A向缓存服务发送请求时,缓存服务根据预先保存的信息,根据请求中的条件参数进行查询。
S205、如果查找到结果,则将查找的结果返回给服务A。
S206、服务A向用户反馈从缓存服务获取的数据。
缓存放通的准确率取决于请求的条件参数在缓存服务中是否存在,即取决于缓存服务的命中率,为了提高缓存服务的命中率,需要扩大缓存资源,以覆盖更多的条件参数,这会导致资源的占用率过高。
图3为使用缓存放通失败的流程示意图,如图3所示,缓存放通失败的流程为:
S301、服务A接收用户输入的请求。
S302、服务A向服务B发送请求,以调用B服务来获取数据。
S303、服务A确定服务B满足放通条件,则服务A向缓存服务发送请求。
S304、缓存服务根据请求中的条件无法查找到结果,即缓存未命中。
S305、缓存服务向服务A返回查询失败的信息。
S306、服务A确定缓存未命中。
S307、服务A向用户反馈失败信息。
为不影响用户的使用体验,在上述步骤S206之后,服务A可以通过模板放通的方法进行处理。或者,也可以在接收到用户的请求后直接使用模板放通的方法进行处理。图4为使用模板放通的流程示意图,如图4所示,使用模板放通的过程为:
S401、服务A接收用户输入的请求。
S402、服务A向服务B发送请求,以调用B服务来获取数据。
S403、服务A确定服务B满足放通条件,则服务A根据放通消息模板获取数据。
具体地,放通消息模板预先存储在服务A中,当服务B满足放通条件时,服务A根据请求的条件参数向放通模板输入实例化参数,进而获取结果数据。
S404、服务A向用户反馈获取的数据。
但是,放通模板一般都只能返回预置的单一的模板效果结果,无法覆盖复杂的业务场景,因此使用放通模板的准确率过低。
本申请的技术方案,旨在解决上述技术问题。
需要说明的是,本申请以下所述的技术方案,主要应用于读类型的数据操作类别。
为便于本领域技术人员更好地理解本申请的技术方案,以下首先对本申请涉及的技术术语进行解释:
1、服务
服务可以是互联网架构中执行特定功能的实体,其可以在一个硬件网元上实现。
2、放通
放通是指在由多个“互相依赖”的服务构建的系统中,当其中某个服务故障失效时,为不影响使用者的业务体验,需要在服务依赖方做特殊的容错响应处理。
3、神经网络模型
从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络,即成为神经网络。
神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称为权重。神经网络的输出根据网络的连接方式、权重值和激励函数的不同而不同。
基于神经网络的算法例如可以是反向传播算法等。
另外,本申请中出现的“至少一个”是指“一个”或者“一个以上”。
本申请中出现的“和/或”,描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。
图5为本申请提供的放通处理方法实施例一的交互流程图,如图5所示,该方法具体包括:
S501、第一网元接收用户输入的请求。
可选地,用户输入的请求可以为查询请求。
S502、若第一网元确定需要执行放通处理,则第一网元向第二网元发送请求信息,该请求信息中包括至少一个请求参数。
第一网元向第二网元发送上述请求信息,以使得第二网元根据上述请求信息中的请求参数,使用神经网络模型确定请求参数对应的至少一个响应参数。
可选地,上述请求信息可以为查询请求,该查询请求中可以包括一个或多个查询条件,该查询条件即为请求参数。
例如,上述请求信息为:查询号码为123的用户是否为高级用户。则在该请求中,查询条件为:号码123。
该第一网元具体为服务依赖方,即需要通过调用其他服务来获取处理结果的服务。
该第二网元具体为通过神经网络模型进行数据处理的服务,可以称之为规则学习服务。
S503、第二网元根据请求信息中的请求参数,使用神经网络模型确定上述请求参数对应的至少一个响应参数。
在此之前,第二网元通过进行神经网络训练,已建立好神经网络模型。具体训练过程将在下述实施例中进行详细说明。
进而,当第二网元接收到第一网元接收到第一网元发送的请求信息后,获取其中的请求参数,该请求参数可能为一个,也可能为多个。第二网元将这些请求参数作为神经网络模型的输入,利用神经网络模型,确定出响应参数。该响应参数为上述请求信息对应的响应参数。
例如,上述请求信息为:查询号码为123的用户是否为高级用户。则在该请求中,查询条件为:号码123。当该请求被发送到第二网元后,第二网元将号码123输入到神经网络模型中,利用神经网络模型,确定出号码123的用户为高级用户,则响应参数可以表示为:高级用户。而如果第二网元确定出号码123的用户不是高级用户,则响应参数可以表示为:非高级用户。
其中,神经网络模型中通过训练得到神经网络决策因子,即权重信息,根据权重确定请求参数对应的响应参数。
S504、第二网元向第一网元发送第一响应信息,该第一响应信息中包括上述至少一个响应参数。
S505、第一网元接收到第一响应信息后,向用户反馈响应参数。
例如,第一网元可以在其用户界面上显示号码123为高级用户的信息。
本实施例中,当需要执行放通处理时,第一网元将请求参数发送给第二网元,由第二网元通过神经网络模型确定出请求参数对应的响应参数,由于神经网络模型是通过训练得到神经网络决策因子,即权重信息,根据权重确定请求参数对应的响应参数,因此,能够消除查询条件的无限组合,从而能够降低资源占用,提升资源利用效率。另外,神经网络模型中的神经网络决策因子经过大量训练得到,因此,基于这些神经网络决策因子所得出的响应参数的准确率相比现有技术更高。
在上述实施例的基础上,本实施例涉及第一网元确定是否需要执行放通处理的具体方法,即图6为本申请提供的放通处理方法实施例二的流程示意图,如图6所示,第一网元确定需要执行放通处理的具体过程为:
S601、第一网元向第三网元发送请求信息。
其中,该第三网元为被调用的获取数据的服务,即依赖服务。
S602、若第一网元在预设时间内未接收到第三网元的第二响应信息,则第一网元确定需要执行放通处理。
在正常处理过程中,第一网元需要从第三网元获取数据,因此,当第一网元接收到用户输入的请求后,第一网元首先向第三网元发送请求信息,如果第一网元在预设的时间内没有接收到第三网络发送的第二响应信息,则说明第三网元出现故障,则第一网元确定需要执行放通处理。
在上述实施例的基础上,本实施例涉及第一网元和第二网元交互以进行神经网络训练的过程,即,图7为本申请提供的放通处理方法实施例三的交互流程图,如图7所示,神经网络训练过程为:
S701、若第一网元在预设时间内接收到第三网元的第二响应信息,则第一网元向第二网元发送上述请求信息以及第二响应信息。
该步骤S701在上述步骤S601之后执行,即在第一网元向第三网元发送请求信息后,如果第一网元在预设时间内接收到了响应信息,即第三网元未故障,则一方面,第一网元按照图1所示的正常处理流程执行,另一方面,第一网元还将请求信息以及第二响应信息发送给第二网元用于进行神经网络训练。这两方面可以同时执行,也可以按照任意的顺序执行,本申请对此不做限制。
在一种可选的实施方式中,第一网元可以在接收到一条第二响应信息后就立即向第二网元进行发送。
在另一种可选的实施方式中,第一网元也可以在接收到预设数量的第二响应信息后,将预设数量的响应信息以及对应的请求信息统一发送给第二网元。
具体地,当第一网元接收到一条第二响应信息后,首先判断当前未向第二网元发送的第二响应信息的数量是否已经达到预设数量,若是,则将预设数量的第二响应信息及每条第二响应信息对应的请求信息发送给第二网元,否则,暂存第二响应信息及其对应的请求消息。
这种方式能够提升传输效率,减少传输资源的消耗。
S702、第二网元根据请求信息中的请求参数以及第二响应信息中的响应参数训练神经网络。
以下具体说明训练神经网络的具体过程。
图8为本申请提供的放通处理方法实施例四的流程示意图,如图8所示,上述步骤S702中第二网元根据请求信息中的请求参数以及第二响应信息中的响应参数训练神经网络的过程为:
S801、第二网元对请求信息中的请求参数以及第二响应信息中的响应参数进行数据转换,获取转换后的数据。
可选地,第二网元首先确定请求参数和/或响应参数的类型,进而对于不同的类型使用不同转换方法。
具体地,若请求参数和/或响应参数为字符串,则第二网元将请求参数和/或响应参数转换为整数值。
其中,一个请求参数或响应参数对应一个唯一的整数值。
另外,如果请求参数和/或响应参数的规模大于一定的范围,则通过哈希值计算确定请求参数和/或响应参数对应的整数。
若请求参数和/或响应参数为整数,则第二网元将请求参数和/或响应参数转换为浮点数。
具体地,可以根据取值范围整除指定倍数将请求参数和/或响应参数转换为浮点数。
另外,如果请求参数和/或响应参数为枚举类型,也可以转换为浮点数。
若请求参数和/或响应参数为时间,则第二网元将请求参数和/或响应参数转换为秒数。
S802、第二网元根据转换后的数据,生成训练集以及测试集。
S803、第二网元根据训练集以及测试集训练该训练集中的请求参数的权重信息。
具体地,第二网元选择一定数量的请求参数及其对应的响应参数作为训练集,并选择一定数量的请求参数及其对应的响应参数作为测试集。进而,第二网元在训练集上训练神经网络模型,所训练出的神经网络模型中包括若干输入单元以及若干输出单元,每一组输入单元和输出单元之间存在一个权重值,代表该输入单元到该输出单元的权重值。
其中,一个输入单元表示上述一个请求参数,一个输出单元代表上述一个响应参数。
训练处神经网络模型后,再将其应用到测试集上以验证模型的准确性。
需要说明的是,上述步骤S801-S803在第一网元和第三网元正常运行期间可以持续执行,即只要第一网元从第三网元获取数据,就可以将这些数据发送给第二网元进行神经网络训练,从而不断提升神经网络模型的准确性。
图9为进行神经网络训练的一个示例图,如图9所示,经过训练之后得到的神经网络模型中包括3个输入单元,分别为a1,a2,a3,还包括2个输出单元,分别为b1和b2,其中,a1,a2,a3与b1和b2之间分别有一权重值,例如,a1和b1之间的权重为w1,a2和b1之间的权重为w2。当第二网元需要根据神经网络模型确定响应参数时,即可利用这些权重信息来确定。
以下进行具体介绍。
即上述步骤S503具体包括:
第二网元根据所述请求参数在所述神经网络模型中的权重信息,确定所述请求参数对应的至少一个响应参数。
具体地,以上述图9所示的神经网络模型为例,假设该神经网络模型中的各输入单元和输出单元的含义如下:
a1:用户号码
a2:时间
a3:用户所在地
b1:用户等级1
b2:用户等级2
a1和b1之间的权值为w1,a2和b1之间的权值为w2,a3和b1之间的权值为w3,a1和b2之间的权值为w4,a2和b2之间的权值为w5,a3和b2之间的权值为w6。
假设第二网元从第一网元接收到的请求参数为(进行数据转之后):用户号码:123,时间:111,用户所在地:5678。
另外,图9所示的模型中,a1的值为123,a2的值为111,用户所在地的值为5678。
则这些请求参数对应的响应参数为b1的概率为:
b1=g(a1*w1+a2*w2+a3*w3)
其中,g为激活函数。
相应地,这些请求参数对应的响应参数为b2的概率为:
b2=g(a1*w4+a2*w5+a3*w6)
经过计算之后,如果b1的值大于b2的值,则可以确定上述请求参数对应的响应参数为b1,如果b2的值大于b1的值,则可以确定上述请求参数对应的响应参数为b2。
图10为本申请提供的一种放通处理装置实施例一的模块结构图,如图10所示,该装置包括:
处理模块1001,用于确定是否需要执行放通处理。
发送模块1002,用于在确定需要执行放通处理时,向第二网元发送请求信息,所述请求信息中包括至少一个请求参数,以使所述第二网元根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数。
接收模块1003,用于接收所述第二网元发送的第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
该装置用于实现前述方法实施例,其实现原理和技术效果类似,此处不再赘述。
在一种可选的实施方式中,处理模块1001具体用于:
向第三网元发送请求信息;以及,
在预设时间内未接收到所述第三网元的第二响应信息时,确定需要执行放通处理。
在一种可选的实施方式中,发送模块1002还用于:
在预设时间内接收到所述第三网元的第二响应信息时,向所述第二网元发送所述请求信息以及所述第二响应信息,以使所述第二网元根据所述请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络。
在一种可选的实施方式中,发送模块1002具体用于:
接收到预设数量的所述第二响应信息后,向所述第二网元发送所述请求信息以及所述预设数量的所述第二响应信息。
图11为本申请提供的另一种放通处理装置实施例一的模块结构图,如图11所示,该装置包括:
接收模块1101,用于接收第一网元发送的请求信息,所述请求信息中包括至少一个请求参数。
处理模块1102,用于根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数。
发送模块1103,用于向所述第一网元发送第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
该装置用于实现前述方法实施例,其实现原理和技术效果类似,此处不再赘述。
在一种可选的实施方式中,接收模块1101还用于:
接收所述第一网元发送的请求信息以及第二响应信息,其中,所述第二响应信息为第三网元向所述第一网元发送的响应信息,所述第二响应信息中包括至少一个响应参数。
处理模块1102还用于:
根据请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络。
在一种可选的实施方式中,处理模块1102具体用于:
根据所述请求参数在所述神经网络模型中的权重信息,确定所述请求参数对应的至少一个响应参数。
在一种可选的实施方式中,处理模块1102具体还用于:
对所述请求信息中的请求参数以及所述第二响应信息中的响应参数进行数据转换,获取转换后的数据;以及,
根据所述转换后的数据,生成训练集以及测试集;以及,
根据所述训练集以及所述测试集训练所述训练集中的请求参数和响应参数的权重信息。
在一种可选的实施方式中,处理模块1102具体还用于:
若所述请求参数和/或所述响应参数为字符串,则所述第二网元将所述请求参数和/或所述响应参数转换为整数值;
若所述请求参数和/或所述响应参数为整数,则所述第二网元将所述请求参数和/或所述响应参数转换为浮点数;
若所述请求参数和/或所述响应参数为时间,则所述第二网元将所述请求参数和/或所述响应参数转换为秒数。
图12为本申请提供的一种第一网元实施例一的实体框图,如图12所示,该第一网元包括:
存储器1201和处理器1202。
存储器1201用于存储程序指令,处理器1202用于调用存储器1201中的程序指令,执行以下方法:
若确定需要执行放通处理,则向第二网元发送请求信息,所述请求信息中包括至少一个请求参数,以使所述第二网元根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数;
接收所述第二网元发送的第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
在一种可选的实施方式中,处理器1202还用于执行以下方法:
向第三网元发送请求信息;
若在预设时间内未接收到所述第三网元的第二响应信息,则确定需要执行放通处理。
在一种可选的实施方式中,处理器1202还用于执行以下方法:
若在预设时间内接收到所述第三网元的第二响应信息,则向所述第二网元发送所述请求信息以及所述第二响应信息,以使所述第二网元根据所述请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络。
在一种可选的实施方式中,处理器1202还用于执行以下方法:
接收到预设数量的所述第二响应信息后,向所述第二网元发送所述请求信息以及所述预设数量的所述第二响应信息。
图13为本申请提供的一种第二网元实施例一的实体框图,如图13所示,该第二网元包括:
存储器1301和处理器1302。
存储器1301用于存储程序指令,处理器1302用于调用存储器1301中的程序指令,执行以下方法:
接收第一网元发送的请求信息,所述请求信息中包括至少一个请求参数;
根据所述请求信息中的请求参数,使用神经网络模型确定所述请求参数对应的至少一个响应参数;
向所述第一网元发送第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
在一种可选的实施方式中,处理器1202还用于执行以下方法:
接收所述第一网元发送的请求信息以及第二响应信息,其中,所述第二响应信息为第三网元向所述第一网元发送的响应信息,所述第二响应信息中包括至少一个响应参数;
根据请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络。
在一种可选的实施方式中,处理器1202还用于执行以下方法:
根据所述请求参数在所述神经网络模型中的权重信息,确定所述请求参数对应的至少一个响应参数。
在一种可选的实施方式中,处理器1202还用于执行以下方法:
对所述请求信息中的请求参数以及所述第二响应信息中的响应参数进行数据转换,获取转换后的数据;
根据所述转换后的数据,生成训练集以及测试集;
根据所述训练集以及所述测试集训练所述训练集中的请求参数和响应参数的权重信息。
在一种可选的实施方式中,处理器1202还用于执行以下方法:
若所述请求参数和/或所述响应参数为字符串,则所述第二网元将所述请求参数和/或所述响应参数转换为整数值;
若所述请求参数和/或所述响应参数为整数,则所述第二网元将所述请求参数和/或所述响应参数转换为浮点数;
若所述请求参数和/或所述响应参数为时间,则所述第二网元将所述请求参数和/或所述响应参数转换为秒数。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。所述计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行所述计算机程序指令时,全部或部分地产生按照本申请所述的流程或功能。所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。所述计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,所述计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线(DSL))或无线(例如红外、无线、微波等)方式向另一个网站站点、计算机、服务器或数据中心进行传输。所述计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。所述可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘SolidState Disk(SSD))等。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、装置(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求书意欲解释为包括优选实施例以及落入本申请范围的所有变更和修改。
显然,本领域的技术人员可以对本申请进行各种改动和变型而不脱离本申请的精神和范围。这样,倘若本申请的这些修改和变型属于本申请权利要求书及其等同技术的范围之内,则本申请也意图包含这些改动和变型在内。
Claims (22)
1.一种放通处理方法,其特征在于,包括:
若第一网元确定需要执行放通处理,则所述第一网元向第二网元发送第一请求信息,所述第一请求信息中包括至少一个请求参数,以使所述第二网元根据所述第一请求信息中的至少一个请求参数,使用神经网络模型确定所述至少一个请求参数对应的至少一个响应参数;
所述第一网元接收所述第二网元发送的第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
2.根据权利要求1所述的方法,其特征在于,所述第一网元确定需要执行放通处理,包括:
第一网元向第三网元发送请求信息;
若所述第一网元在预设时间内未接收到所述第三网元的第二响应信息,则所述第一网元确定需要执行放通处理。
3.根据权利要求2所述的方法,其特征在于,所述第一网元向第三网元发送请求信息之后,还包括:
若所述第一网元在预设时间内接收到所述第三网元的第二响应信息,则所述第一网元向所述第二网元发送第二请求信息以及所述第二响应信息,以使所述第二网元根据所述第二请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络模型。
4.根据权利要求3所述的方法,其特征在于,所述第一网元向所述第二网元发送所述第二请求信息以及所述第二响应信息,包括:
所述第一网元接收到预设数量的所述第二响应信息后,向所述第二网元发送所述预设数量的所述第二响应信息以及与所述第二响应信息对应的所述第二请求消息。
5.一种放通处理方法,其特征在于,包括:
第二网元接收第一网元发送的第一请求信息,所述第一请求信息中包括至少一个请求参数,所述第一请求信息为所述第一网元确定需要执行放通处理时发送给所述第二网元的;
所述第二网元根据所述第一请求信息中的至少一个请求参数,使用神经网络模型确定所述至少一个请求参数对应的至少一个响应参数;
所述第二网元向所述第一网元发送第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
6.根据权利要求5所述的方法,其特征在于,还包括:
所述第二网元接收所述第一网元发送的第二请求信息以及第二响应信息,其中,所述第二响应信息为第三网元向所述第一网元发送的响应信息,所述第二响应信息中包括至少一个响应参数,所述第二请求信息为所述第一网元在预设时间内接收到所述第三网元的第二响应信息时发送给所述第二网元的;
所述第二网元根据所述第二请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络模型。
7.根据权利要求5或6所述的方法,其特征在于,所述第二网元根据所述第一请求信息中的至少一个请求参数,使用神经网络模型确定所述至少一个请求参数对应的至少一个响应参数,包括:
所述第二网元根据所述至少一个请求参数在所述神经网络模型中的权重信息,确定所述至少一个请求参数对应的至少一个响应参数。
8.根据权利要求6所述的方法,其特征在于,所述第二网元根据所述第二请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络模型,包括:
所述第二网元对所述第二请求信息中的请求参数以及所述第二响应信息中的响应参数进行数据转换,获取转换后的数据;
所述第二网元根据所述转换后的数据,生成训练集以及测试集;
所述第二网元根据所述训练集以及所述测试集训练所述训练集中的请求参数与响应参数之间的权重信息。
9.根据权利要求8所述的方法,其特征在于,所述第二网元对所述第二请求信息中的请求参数以及所述第二响应信息中的响应参数进行数据转换,获取转换后的数据,包括:
若所述请求参数和/或所述响应参数为字符串,则所述第二网元将所述请求参数和/或所述响应参数转换为整数值;
若所述请求参数和/或所述响应参数为整数,则所述第二网元将所述请求参数和/或所述响应参数转换为浮点数;
若所述请求参数和/或所述响应参数为时间,则所述第二网元将所述请求参数和/或所述响应参数转换为秒数。
10.一种放通处理装置,其特征在于,所述装置应用于第一网元,所述装置包括:
处理模块,用于确定是否需要执行放通处理;
发送模块,用于在确定需要执行放通处理时,向第二网元发送第一请求信息,所述第一请求信息中包括至少一个请求参数,以使所述第二网元根据所述第一请求信息中的至少一个请求参数,使用神经网络模型确定所述至少一个请求参数对应的至少一个响应参数;
接收模块,用于接收所述第二网元发送的第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
11.根据权利要求10所述的装置,其特征在于,所述处理模块具体用于:
向第三网元发送请求信息;以及,
在预设时间内未接收到所述第三网元的第二响应信息时,确定需要执行放通处理。
12.根据权利要求11所述的装置,其特征在于,所述发送模块还用于:
在预设时间内接收到所述第三网元的第二响应信息时,向所述第二网元发送第二请求信息以及所述第二响应信息,以使所述第二网元根据所述第二请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络模型。
13.根据权利要求12所述的装置,其特征在于,所述发送模块具体用于:
接收到预设数量的所述第二响应信息后,向所述第二网元发送所述预设数量的所述第二响应信息以及与所述第二响应信息对应的所述第二请求消息。
14.一种放通处理装置,其特征在于,所述装置应用于第二网元,所述装置包括:
接收模块,用于接收第一网元发送的第一请求信息,所述第一请求信息中包括至少一个请求参数,所述第一请求信息为所述第一网元确定需要执行放通处理时发送给所述第二网元的;
处理模块,用于根据所述第一请求信息中的至少一个请求参数,使用神经网络模型确定所述至少一个请求参数对应的至少一个响应参数;
发送模块,用于向所述第一网元发送第一响应信息,所述第一响应信息中包括所述至少一个响应参数。
15.根据权利要求14所述的装置,其特征在于,所述接收模块还用于:
接收所述第一网元发送的第二请求信息以及第二响应信息,其中,所述第二响应信息为第三网元向所述第一网元发送的响应信息,所述第二响应信息中包括至少一个响应参数,所述第二请求信息为所述第一网元在预设时间内接收到所述第三网元的第二响应信息时发送给所述第二网元的;
所述处理模块还用于:
根据所述第二请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络模型。
16.根据权利要求14或15所述的装置,其特征在于,所述处理模块具体用于:
根据所述至少一个请求参数在所述神经网络模型中的权重信息,确定所述至少一个请求参数对应的至少一个响应参数。
17.根据权利要求15所述的装置,其特征在于,所述处理模块在根据所述第二请求信息中的请求参数以及所述第二响应信息中的响应参数训练神经网络模型时,具体还用于:
对所述第二请求信息中的请求参数以及所述第二响应信息中的响应参数进行数据转换,获取转换后的数据;以及,
根据所述转换后的数据,生成训练集以及测试集;以及,
根据所述训练集以及所述测试集训练所述训练集中的请求参数与响应参数之间的权重信息。
18.根据权利要求17所述的装置,其特征在于,所述处理模块具体还用于:
若所述请求参数和/或所述响应参数为字符串,则所述第二网元将所述请求参数和/或所述响应参数转换为整数值;
若所述请求参数和/或所述响应参数为整数,则所述第二网元将所述请求参数和/或所述响应参数转换为浮点数;
若所述请求参数和/或所述响应参数为时间,则所述第二网元将所述请求参数和/或所述响应参数转换为秒数。
19.一种第一网元,其特征在于,所述第一网元包括:存储器和处理器;
所述存储器用于存储程序指令;
所述处理器用于调用所述存储器中的程序指令,执行权利要求1-4任一项所述的方法。
20.一种第二网元,其特征在于,所述第二网元包括:存储器和处理器;
所述存储器用于存储程序指令;
所述处理器用于调用所述存储器中的程序指令,执行权利要求5-9任一项所述的方法。
21.一种非易失性存储介质,所述非易失性存储介质中存储有一个或多个程序代码,当第一网元执行该程序代码时,所述第一网元执行权利要求1-4任一项所述的方法。
22.一种非易失性存储介质,所述非易失性存储介质中存储有一个或多个程序代码,当第二网元执行该程序代码时,所述第二网元执行权利要求5-9任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710754492.7A CN107707383B (zh) | 2017-08-29 | 2017-08-29 | 放通处理方法、装置、第一网元及第二网元 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710754492.7A CN107707383B (zh) | 2017-08-29 | 2017-08-29 | 放通处理方法、装置、第一网元及第二网元 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107707383A CN107707383A (zh) | 2018-02-16 |
CN107707383B true CN107707383B (zh) | 2021-02-12 |
Family
ID=61169881
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710754492.7A Active CN107707383B (zh) | 2017-08-29 | 2017-08-29 | 放通处理方法、装置、第一网元及第二网元 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107707383B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115277352B (zh) * | 2021-04-29 | 2023-09-19 | 中国移动通信集团辽宁有限公司 | 网元指令纠错方法、装置、电子设备及计算机存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6292905B1 (en) * | 1997-05-13 | 2001-09-18 | Micron Technology, Inc. | Method for providing a fault tolerant network using distributed server processes to remap clustered network resources to other servers during server failure |
CN101170553A (zh) * | 2006-10-24 | 2008-04-30 | 华为技术有限公司 | 实现互联网协议多媒体子系统容灾的方法和装置 |
CN102255747A (zh) * | 2011-06-09 | 2011-11-23 | 中国电信股份有限公司 | 呼叫业务处理方法与系统 |
CN106789163A (zh) * | 2016-11-25 | 2017-05-31 | 华电智连信达科技(北京)有限公司 | 一种网络设备用电信息监测方法、装置和系统 |
CN106991506A (zh) * | 2017-05-16 | 2017-07-28 | 深圳先进技术研究院 | 智能终端及其基于lstm的股票趋势预测方法 |
-
2017
- 2017-08-29 CN CN201710754492.7A patent/CN107707383B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6292905B1 (en) * | 1997-05-13 | 2001-09-18 | Micron Technology, Inc. | Method for providing a fault tolerant network using distributed server processes to remap clustered network resources to other servers during server failure |
CN101170553A (zh) * | 2006-10-24 | 2008-04-30 | 华为技术有限公司 | 实现互联网协议多媒体子系统容灾的方法和装置 |
CN102255747A (zh) * | 2011-06-09 | 2011-11-23 | 中国电信股份有限公司 | 呼叫业务处理方法与系统 |
CN106789163A (zh) * | 2016-11-25 | 2017-05-31 | 华电智连信达科技(北京)有限公司 | 一种网络设备用电信息监测方法、装置和系统 |
CN106991506A (zh) * | 2017-05-16 | 2017-07-28 | 深圳先进技术研究院 | 智能终端及其基于lstm的股票趋势预测方法 |
Non-Patent Citations (3)
Title |
---|
CM-IMS网络中重要网元容灾方案;孙建强等;《电信工程技术与标准》;20101231;全文 * |
IMS容灾原理及部署策略探讨;姜先贵等;《邮电设计技术》;20141231;全文 * |
IMS网络容灾的研究与实现;建栋锐;《中国优秀硕士学位论文全文数据库(电子期刊)》;20110315;全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN107707383A (zh) | 2018-02-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200328984A1 (en) | Method and apparatus for allocating resource | |
JP5811094B2 (ja) | 属性情報処理装置、属性情報処理方法及び属性情報評価システム | |
CN106899680A (zh) | 多区块链的分片处理方法和装置 | |
CN112181612A (zh) | 任务处理方法、装置、电子设备及计算机可读存储介质 | |
CN113469371B (zh) | 联邦学习方法和装置 | |
CN112948885B (zh) | 实现隐私保护的多方协同更新模型的方法、装置及系统 | |
CN111163130A (zh) | 一种网络服务系统及其数据传输方法 | |
CN111639902A (zh) | 基于kafka的数据审核方法、控制装置及计算机设备、存储介质 | |
US10970180B2 (en) | Methods and apparatus for verifying processing results and/or taking corrective actions in response to a detected invalid result | |
CN107707383B (zh) | 放通处理方法、装置、第一网元及第二网元 | |
CN114003337A (zh) | 访问请求的分配方法及装置 | |
CN110930253B (zh) | 智能合约内部主键生成方法、装置、计算机设备及存储介质 | |
CN110351345B (zh) | 用于业务请求处理的方法及装置 | |
US10572486B2 (en) | Data communication in a distributed data grid | |
CN106790339A (zh) | 元数据服务器、网络装置及自动资源管理方法 | |
CN110442455A (zh) | 一种数据处理方法及装置 | |
CN108964904A (zh) | 群密钥安全管理方法、装置、电子设备及存储介质 | |
CN115189910A (zh) | 一种基于网络数字孪生体的蓄意攻击生存性评估方法 | |
CN115686813A (zh) | 一种资源调度方法、装置、电子设备和存储介质 | |
CN111625375A (zh) | 帐号预约方法和装置、存储介质及电子设备 | |
CN111343172A (zh) | 网络访问权限动态处理方法及装置 | |
CN105245512B (zh) | 一种单向文件传输方法及实现该传输方法的服务器 | |
CN109510864A (zh) | 一种缓存请求的转发方法、传输方法及相关装置 | |
CN116996481B (zh) | 直播数据获取方法、装置、电子设备和存储介质 | |
CN117057799B (zh) | 资产数据处理方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
TA01 | Transfer of patent application right |
Effective date of registration: 20200225 Address after: 518129 Bantian HUAWEI headquarters office building, Longgang District, Guangdong, Shenzhen Applicant after: HUAWEI TECHNOLOGIES Co.,Ltd. Address before: 210012 HUAWEI Nanjing base, 101 software Avenue, Yuhuatai District, Jiangsu, Nanjing Applicant before: Huawei Technologies Co.,Ltd. |
|
TA01 | Transfer of patent application right | ||
GR01 | Patent grant | ||
GR01 | Patent grant |