CN112751686B - 局数据脚本生成方法、装置、计算设备及计算机存储介质 - Google Patents
局数据脚本生成方法、装置、计算设备及计算机存储介质 Download PDFInfo
- Publication number
- CN112751686B CN112751686B CN201911039389.XA CN201911039389A CN112751686B CN 112751686 B CN112751686 B CN 112751686B CN 201911039389 A CN201911039389 A CN 201911039389A CN 112751686 B CN112751686 B CN 112751686B
- Authority
- CN
- China
- Prior art keywords
- office data
- historical
- real
- attention
- office
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0893—Assignment of logical groups to network elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/085—Retrieval of network configuration; Tracking network configuration history
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L41/00—Arrangements for maintenance, administration or management of data switching networks, e.g. of packet switching networks
- H04L41/08—Configuration management of networks or network elements
- H04L41/0889—Techniques to speed-up the configuration process
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Networks & Wireless Communication (AREA)
- Signal Processing (AREA)
- Telephonic Communication Services (AREA)
Abstract
本发明实施例涉及通信技术领域,公开了一种局数据脚本生成方法、装置、计算设备及计算机存储介质,该方法包括:获取实时局数据集;对所述实时局数据集进行预处理;根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本。通过上述方式,本发明实施例能够提高局数据制作的安全性、稳定性与可靠性,提升局数据制作工作效率。
Description
技术领域
本发明实施例涉及通信技术领域,具体涉及一种局数据脚本生成方法、装置、计算设备及计算机存储介质。
背景技术
局数据(bureau data)是指为实现通信网络各系统设备间的通信、业务路由等在网络设备上配置的数据,具体是指通信网络核心网域各类网络、网元设备上的数据,可以包括设备自身的配置数据与业务数据。端局上的通信设备,如交换机、网关等,需要在配置局数据后,才能与其他局通信设备进行正常通信。随着移动通信网网络结构的变化及新业务的不断推出,通信网局数据日趋复杂,局数据制作的精确、完整对于核心网端局设备的平稳运行有着至关重要的意义。
随着网络演进速度与复杂程度日益加快加大,局数据制作复杂度也随之不断增加。传统的局数据制作需要制作人员登录设备仔细查询各项设置与具体数值,并一一核对局数据制作需求表,从而针对性地编写制作脚本。
目前的局数据制作存在诸多问题。首先目前针对不同专业、不同网元、不同厂家、不同场景均需要人工设置单独的局数据自动化制作规则,当加入新的网元或新的场景时,需要重新对其进行规则开发,通用性较差,某些业务还建设单独的烟囱式局数据制作平台,浪费人力物力资源;其次制作脚本时仍需要人工在系统页面一一填写参数,在效率上仍存在可优化的空间。
发明内容
鉴于上述问题,本发明实施例提供了一种局数据脚本生成方法、装置、计算设备及计算机存储介质,克服了上述问题或者至少部分地解决了上述问题。
根据本发明实施例的一个方面,提供了一种局数据脚本生成方法,所述方法包括:获取实时局数据集;对所述实时局数据集进行预处理;根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本。
在一种可选的方式中,所述获取实时局数据集,包括:从工单管理系统获取实时局数据需求工单、从现网获取对应的实时现网局数据配置信息形成所述实时局数据集。
在一种可选的方式中,所述获取实时局数据集之前,包括:获取历史局数据集并进行预处理;根据预处理后的所述历史局数据集训练生成所述注意力编解码神经网络模型。
在一种可选的方式中,所述获取历史局数据集并进行预处理,包括:从工单管理系统获取历史局数据需求工单、从现网获取历史现网局数据配置信息、从局数据制作系统获取历史正确局数据脚本形成所述历史局数据集;将所述历史局数据集进行清洗并进行文本序列化;将所述历史局数据需求工单与所述历史现网局数据配置信息合并,并根据合并后的所述历史局数据需求工单与所述历史现网局数据配置信息获取第一索引序列长度和第一词典大小;根据所述历史正确局数据脚本获取第二索引序列长度和第二词典大小。
在一种可选的方式中,所述根据预处理后的所述历史局数据集训练生成所述注意力编解码神经网络模型,包括:应用所述注意力编解码神经网络模型中的编码器将合并后的所述历史局数据需求工单与所述历史现网局数据配置信息进行编码生成上下文向量;应用所述注意力编解码神经网络模型中的解码器从编码后的所述上下文向量中生成的预测局数据脚本;应用目标函数衡量所述预测局数据脚本与所述历史正确局数据脚本的误差;应用梯度下降优化算法加速所述注意力编解码神经网络模型的收敛速度,找到使目标函数最小的权重值,得到所述注意力编解码神经网络模型的权重。
在一种可选的方式中,所述应用所述注意力编解码神经网络模型中的解码器从编码后的所述上下文向量中生成的预测局数据脚本,包括:应用注意力机制对所述编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,其中所述隐藏状态为所述编码器输出的所述上下文向量;应用所述注意力编解码神经网络模型中的解码器从编码后的所述新的上下文向量中生成的所述预测局数据脚本。
在一种可选的方式中,所述应用注意力机制对所述编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,包括:根据所述编码器的当前隐藏状态与所述解码器的前一个输出计算与所述编码器的当前隐藏状态对应的所述注意力权重;计算所述编码器的所有隐藏状态与对应的所述注意力权重的乘积之和,得到所述新的上下文向量。
根据本发明实施例的另一个方面,提供了一种局数据脚本生成装置,所述装置包括:局数据获取单元,用于获取实时局数据集;预处理单元,用于对所述实时局数据集进行预处理;脚本输出单元,用于根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本。
根据本发明实施例的另一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述局数据脚本生成方法的步骤。
根据本发明实施例的又一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使所述处理器执行上述局数据脚本生成方法的步骤。
本发明实施例通过获取实时局数据集;对所述实时局数据集进行预处理;根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本,能够提高局数据制作的安全性、稳定性与可靠性,提升局数据制作工作效率。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的局数据脚本生成方法的流程示意图;
图2示出了本发明实施例提供的局数据脚本生成方法的模型训练流程示意图;
图3示出了本发明实施例提供的局数据脚本生成方法的局数据示例图;
图4示出了本发明实施例提供的局数据脚本生成方法的注意力编解码神经网络模型中的注意力机制示意图;
图5示出了本发明实施例提供的局数据脚本生成方法的模型训练示例图;
图6示出了本发明实施例提供的局数据脚本生成装置的结构示意图;
图7示出了本发明实施例提供的计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1示出了本发明实施例提供的局数据脚本生成方法的流程示意图。如图1所示,该局数据脚本生成方法包括:
步骤S11:获取实时局数据集。
从网络类型和网元上分,局数据可分为:
1)核心网局数据
电路交换(Circuit Switched,CS)域涉及的网元包括:网际协议多媒体子系统安全控制(ISC)接口、汇接移动交换中心(TMSC1)、长途软交换机(SSA/CMN)、CMNB/SSB、中继媒体网关(TMG)、移动交换中心(MSC)、MSC服务器(MSS)、GMSC、媒体网关(MGW)、归属位置寄存器/归属签约用户服务器(HLR/HSS)、国际信令转接点(ISTP)、高级信令转接点(HSTP)、低级信令转接点(LSTP)等。
数据交换/分组核心网(PS/EPC)域涉及网元包括:移动管理实体/通用分组无线服务(GPRS)服务支持节点(MME/SGSN)、系统架构演进网关/GPRS网关支持节点(SAE-GW/GGSN)、HLR/HSS、策略与计费规则功能单元(PCRF)、域名服务器(DNS)、国际Diameter路由代理节点(IDRA)、高级Diameter路由代理节点(HDRA)、低级Diameter路由代理节点(LDRA)、防火墙(FW)等。
网际协议多媒体子系统(IMS)域涉及的网元包括:电话号码映射工作组/域名服务器(ENUM/DNS)、IDRA、HDRA、LDRA、HSS、签约定位功能实体(SLF)、问询呼叫会话控制功能(I-CSCF)、服务呼叫会话控制功能(S-CSCF)、紧急呼叫会话控制功能(E-CSCF)、出口网关控制功能(BGCF)、IM-MGW、MGCF、代理呼叫会话控制功能(P-CSCF)、会话边界控制器(SBC)、MRFC、多媒体资源控制器(MRFP)、策略决策功能实体(CCF)、视频互通网关(VIG)、VIG-媒体网关(MGW),中央交换机(Centrex)、分区分时分布功能(CTD)等各类应用服务器(AS)。
2)承载网局数据
主要包括网际协议(IP)承载网局数据和中国移动互联网(CMNET)局数据。涉及的网元主要包括:远程访问路由器(AR)、用户边缘设备(CE)、核心层(BB)、汇聚层(BC)、宽带远程接入服务器(BRAS)等。
3)无线网局数据
涉及的网元:基站控制器(BSC)、基站收发台(BTS)、无线网络控制器(RNC)、基站(NodeB)、演进的NodeB(eNodeB)。
4)增值业务系统
主要包括智能网、彩铃、短信、彩信、无线应用协议(WAP)等。涉及的网元包括:业务管理点(SMP)、业务控制点(SCP)、充值中心(VC)、CAIP、FW、路由器(RT)、交换机(SW)、WAP/综合网关、短消息服务中心(SMSC)、因特网通讯协议短消息网关(IP_SM_GW)、多媒体消息业务中心(MMSC)、多媒体消息网关(MMSG)、梦网网关、行业网关、互通网关、移动信息服务中心(MISC)、位置服务(LBS)、分布式控制系统(DCS)等。
在步骤S11中,从工单管理系统获取实时局数据需求工单、从现网获取对应的实时现网局数据配置信息形成所述实时局数据集。
在本发明实施例中,在步骤S11之前,需要对注意力编解码神经网络模型进行训练收敛,以获取合适的权重。如图2所示,包括:
步骤S101:获取历史局数据集并进行预处理。
在步骤S101中,从工单管理系统获取历史局数据需求工单(xi)、从现网获取历史现网局数据配置信息(ci)、从局数据制作系统获取历史正确局数据脚本(yi)形成所述历史局数据集。历史局数据集S可以表示为:
S={(x1,c1,y1),(x2,c2,y2),…,(xn,cn,yn)
如图3所示,以华为设备“新增物联网号段登记、漫游”子业务需求为例:网络功能需求为进行全网鉴权、注册。该局数据需求为漫游地注册管理设备到号段归属HLR/HSS(M-HLR/HSS)取鉴权数据和用户信息;STP/DRA转接设备将数据在漫游地注册管理设备和归属HLR/HSS(M-HLR/HSS)之间进行转发,即包括交换网和数据网分别传递用户鉴权和业务信息。GSM网全网端局的局数据实现方式为:号段漫游地MSC/MSS制作号段IMSI分析数据,E214GT分析数据,指向号段归属地HLR/HSS(M-HLR/HSS),无直达路由则指向STP进行转接。具体地,局数据实现方式包括:全网端局检查、制作IMSI分析数据,全网端局制作E214数据,全网STP制作转接数据,全网SGSN、MME检查、制作IMSI分析数据,全网DRA制作转接数据。其中前三个数据属于交换网,后两个数据应用于数据网。
获取的历史局数据需求工单为:华为GSM全网端局新增86147物联网号段,IMSI为46007,需新增E212分析。其中,E214的GT为大匹配指向STP。获取的历史现网局数据配置信息为:现网已有物联网号段为XXXX-XXXX。获取的历史正确局数据脚本为:
ADD IMSIGT:MCCMNC=K'46007,CCNDC=K'86147,MNNAME="中国移动";ADDSCCPGT:GTNM="ISDNMOV",NI=NAT,GTI=GT4,TRANSLATETYPE="00",NUMPLAN=ISDNMOV,ADDREXP=INTER,ADDR=K'8,RESULTT=STP1,SPC="H'11FE0C",GTGNM="WHGS70",MOG="PUBLIC"。
在步骤S101中,将所述历史局数据集进行清洗并进行文本序列化;将所述历史局数据需求工单与所述历史现网局数据配置信息合并,并根据合并后的所述历史局数据需求工单与所述历史现网局数据配置信息获取第一索引序列长度和第一词典大小;根据所述历史正确局数据脚本获取第二索引序列长度和第二词典大小。
在本发明实施例中,对历史局数据需求文本和历史现网局数据配置信息、历史局数据脚本进行文本清洗并将文本序列化。移除所有标点符号,若文本为中文则对文本进行分词、若文本为英文则将字母统一为小写,同时将每个词索引化(tokenize),使得每一段文本被转化成一段索引数字,并且对未达到最大文本长度的序列补零。
将历史局数据需求工单文本与历史现网局数据配置信息合并,取合并后的最长长度demand&status_length作为其第一索引序列长度,取合并后的数据集的第一词典大小为demand&status_vocab_size,取历史局数据脚本的最长长度script_length作为其第二索引序列长度,历史局数据脚本的第二词典大小为script_vocab_size。
将总数据集划分为训练集和测试集,总数据集的90%划为训练集,总数据集的10%划为测试集。训练集用于训练模型,测试集用于测试模型。
步骤S102:根据预处理后的所述历史局数据集训练生成所述注意力编解码神经网络模型。
在本发明实施例中,通过开源深度学习框架tensorflow搭建注意力机制编解码神经网络模型并进行训练。注意力机制编解码神经网络模型采用编码器-解码器(encoder-decoder)结构。神经网络的类型采用循环神经网络(recurrent neural network)。编码器用于将局数据需求工单和现网局数据配置信息编码成一个固定长度的向量,即上下文向量(context vector),解码器用于从编码后的上下文向量中生成正确局数据脚本。其中神经元均采用长短期记忆。
长短期记忆循环神经网络(long short-term memory,LSTM)是一种特殊的循环神经网络类型,所谓的循环神经网络即同一个神经网络被重复使用。LSTM可以学习长期依赖信息,通过控制缓存中的值保存的时间,可以记住长期的信息,适合进行长序列的学习。每个神经元有四个输入和一个输出,每个神经元内有一个Cell存放记忆的数值,每一个LSTM神经元中含有三个门控:遗忘门、输入门、输出门。
在步骤S102中,应用所述注意力编解码神经网络模型中的编码器将合并后的所述历史局数据需求工单与所述历史现网局数据配置信息进行编码生成上下文向量;应用所述注意力编解码神经网络模型中的解码器从编码后的所述上下文向量中生成的预测局数据脚本;应用目标函数衡量所述预测局数据脚本与所述历史正确局数据脚本的误差;应用梯度下降优化算法加速所述注意力编解码神经网络模型的收敛速度,找到使目标函数最小的权重值,得到所述注意力编解码神经网络模型的权重。
在本发明实施例中,引入注意力(attention)机制解决编解码器结构在输入或输出序列较长时性能较差的局限。注意力机制模型中编码器传递所有的隐藏状态给解码器,使得从编码器获得的更加丰富的上下文提供给解码器,同时注意力提供这样一种学习机制,当预测每一个时步上输出的序列时,解码器可以学习在更加丰富的上下文中需要聚焦于何处。注意力解码器在输出序列之前会执行一个额外的步骤,为了将注意力集中在与解码器输出序列最相关的部分输入上,解码器将执行以下内容:查看从编码器收到的所有隐藏状态,每个编码器隐藏状态都是和输入语句中的某个词最相关的,给每个隐藏状态分配一个分数,将每个隐藏状态与其softmax后的分数相乘,因此扩大了拥有高分数的隐藏状态,并缩小了低分数的隐藏状态。这个打分的操作是在解码器侧的每一个时步都会执行。注意力机制使得模型可以按需要聚焦于输入序列中的相关部分,注意力网络会给每一个输入分配一个注意力权重,如果该输入与当前操作越相关则注意力权重越接近于1,反之则越接近于0,这些注意力权重在每一个输出步骤都会重新计算。
在本发明实施例中,应用注意力机制对所述编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,其中所述隐藏状态为所述编码器输出的所述上下文向量。具体地,根据所述编码器的当前隐藏状态与所述解码器的前一个输出计算与所述编码器的当前隐藏状态对应的所述注意力权重;计算所述编码器的所有隐藏状态与对应的所述注意力权重的乘积之和,得到所述新的上下文向量。然后应用所述注意力编解码神经网络模型中的解码器从编码后的所述新的上下文向量中生成的所述预测局数据脚本。
如图4所示,图中的RNN为循环神经网络(Recurrent Neural Networks),本发明实施例中应用的是LSTM。Tx为输入时间步骤的个数,Ty为输出时间步骤的个数,attentioni为在输出时间步骤i的注意力权重,ci为在输出时间步骤i的上下文(context)。
首先计算注意力权重,权重长度为Tx,所有权重之和为1:
attentioni=softmax(LSTM(xi,yi-1))
计算注意力权重和输入的乘积之和,得到的结果成为上下文向量:
将所得的上下文向量输入到注意力编解码神经网络模型的解码器的长短期记忆神经层中:
yi=LSTM(ci)
在本发明实施例中,如图5所示,以华为设备“新增物联网号段登记、漫游”子业务需求为例应用注意力编解码神经网络模型的进行训练:
第一层为输入层:输入索引化后的历史局数据需求文本和历史现网局数据配置信息。每条索引序列长度为第一索引序列长度demand&status_length,因此该输入层输出数据的形状为(None,demand&status_length)。
第二层为嵌入层(embedding):利用词嵌入(word embedding)将每个词转化为向量,输入数据维度为第一词典大小demand&status_vocab_size,输出设置为需要将词转换为128维度的空间向量,输入序列长度为第一索引序列长度demand&status_length,因此该嵌入层输出数据的形状为(None,demand&status_length,128)。该嵌入层的作用是对输入的词进行向量映射(word embeddings),将每个词的索引转换为128维的固定形状向量。
第三、四层为编码层:含256个LSTM神经元,激活函数设置为“relu”,该编码层输出数据的形状为(None,demand&status_length,256)。
第五、六层为解码层:含256个注意力机制LSTM神经元,激活函数设置为“relu”。该解码层输出数据的形状为(None,demand&status_length,256)。
第七层全连接(Dense)层(输出层):包含Dense全连接神经元个数为第二词典大小script_vocab_size,激活函数设置为“softmax”,将softmax输出结果,送入多类交叉熵损失函数。该全连接层输出数据的形状为(None,script_vocab_size),将注意力解码层的输出形状转换成最终输出的维度。
进行注意力编解码神经网络模型训练时,将训练回合数设置为1000(epochs=1000),批处理大小设置为100(batch_size=100),选择categoricalcrossentropy多类交叉熵作为损失函数即目标函数(loss='categorical_crossentropy'),梯度下降优化算法选择adam优化器用于改善传统梯度下降的学习速度(optimizer='adam')。神经网络通过梯度下降,可以找到使目标函数最小的最优权重值,神经网络通过训练会自主学习到权重值。注意力编解码神经网络模型收敛后导出该注意力编解码神经网络模型的权重,该权重即为后续根据实时局数据集自动生成正确局数据脚本的注意力编解码神经网络模型的权重。
步骤S12:对所述实时局数据集进行预处理。
在本发明实施例中,将实时局数据需求工单、实时现网局数据配置信息合并,将合并后的实时局数据集进行预处理。在步骤S12中,针对合并后的实时局数据集,移除所有标点符号,若文本为中文则对文本进行分词、若文本为英文则将字母统一为小写,同时将每个词索引化,使得每一段文本被转化成一段索引数字,并且对未达到最大文本长度的序列补零。
取实时局数据需求工单文本与实时现网局数据配置信息合并后的最长长度demand&status_length作为其第一索引序列长度,取合并后的局数据集的第一词典大小为demand&status_vocab_size。
步骤S13:根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本。
在本发明实施例中,预处理完毕后将索引化后的实时局数据需求工单和实时现网局数据配置信息输入至已训练完毕的注意力编解码神经网络模型中,经过注意力编解码神经网络模型后输出正确局数据脚本。
局数据将通过1个输入层输入索引化后的实时局数据需求文本和实时现网局数据配置信息。每条索引序列长度为第一索引序列长度demand&status_length,因此该输入层输出数据的形状为(None,demand&status_length)。
局数据然后通过1个嵌入层利用词嵌入将每个词转化为向量,输入数据维度为第一词典大小demand&status_vocab_size,输出设置为需要将词转换为128维度的空间向量,输入序列长度为第一索引序列长度demand&status_length,因此该嵌入层输出数据的形状为(None,demand&status_length,128)。该嵌入层的作用是对输入的词进行向量映射(wordembeddings),将每个词的索引转换为128维的固定形状向量。
局数据再通过编码器,包括2个LSTM编码层,将索引化后的实时局数据需求工单和实时现网局数据配置信息进行编码生成上下文向量。编码层含256个LSTM神经元,激活函数设置为“relu”,编码层输出数据的形状为(None,demand&status_length,256)。
再通过解码器,包括2个注意力LSTM解码层,从编码后的上下文向量中生成的预测局数据脚本。解码层含256个注意力机制LSTM神经元,激活函数设置为“relu”。该解码层输出数据的形状为(None,demand&status_length,256)。在解码器中,应用注意力机制对编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,其中,隐藏状态为编码器输出的上下文向量。具体根据编码器的当前隐藏状态与解码器的前一个输出计算与编码器的当前隐藏状态对应的注意力权重;计算编码器的所有隐藏状态与对应的注意力权重的乘积之和,得到新的上下文向量。然后从新的上下文向量中生成的正确局数据脚本。
局数据最后通过1个输出层,即Dense全连接层,将注意力LSTM解码层的输出形状转换成最终输出的维度,全连接层包含Dense全连接神经元个数为第二词典大小script_vocab_size,激活函数设置为“softmax”,通过softmax输出正确局数据脚本。
如此,局数据将经过1个输入层、5个隐藏层(1个嵌入层、2个LSTM编码层、2个注意力LSTM解码层)、1个输出层(Dense全连接层),最终输出所生成的正确局数据脚本,并发送至对应的网元。本发明实施例的应用注意力编解码神经网络模型进行通用局数据脚本的自动生成方法能够解决目前针对不同专业、不同网元、不同厂家、不同场景均需要人工设置单独的局数据自动化制作规则的问题。利用注意力机制可按需聚焦于输入序列中的相关部分来自主学习局数据制作规则,从而提高局数据制作的安全性、稳定性与可靠性,提升局数据制作人员工作效率。
本发明实施例通过获取实时局数据集;对所述实时局数据集进行预处理;根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本,能够提高局数据制作的安全性、稳定性与可靠性,提升局数据制作工作效率。
图6示出了本发明实施例的局数据脚本生成装置的结构示意图。如图6所示,该局数据脚本生成装置包括:局数据获取单元601、预处理单元602、脚本输出单元603以及模型训练单元604。其中:
局数据获取单元601用于获取实时局数据集;预处理单元602用于对所述实时局数据集进行预处理;脚本输出单元603用于根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本。
在一种可选的方式中,局数据获取单元601用于:从工单管理系统获取实时局数据需求工单、从现网获取对应的实时现网局数据配置信息形成所述实时局数据集。
在一种可选的方式中,模型训练单元604用于:获取历史局数据集并进行预处理;根据预处理后的所述历史局数据集训练生成所述注意力编解码神经网络模型。
在一种可选的方式中,模型训练单元604用于:从工单管理系统获取历史局数据需求工单、从现网获取历史现网局数据配置信息、从局数据制作系统获取历史正确局数据脚本形成所述历史局数据集;将所述历史局数据集进行清洗并进行文本序列化;将所述历史局数据需求工单与所述历史现网局数据配置信息合并,并根据合并后的所述历史局数据需求工单与所述历史现网局数据配置信息获取第一索引序列长度和第一词典大小;根据所述历史正确局数据脚本获取第二索引序列长度和第二词典大小。
在一种可选的方式中,模型训练单元604用于:应用所述注意力编解码神经网络模型中的编码器将合并后的所述历史局数据需求工单与所述历史现网局数据配置信息进行编码生成上下文向量;应用所述注意力编解码神经网络模型中的解码器从编码后的所述上下文向量中生成的预测局数据脚本;应用目标函数衡量所述预测局数据脚本与所述历史正确局数据脚本的误差;应用梯度下降优化算法加速所述注意力编解码神经网络模型的收敛速度,找到使目标函数最小的权重值,得到所述注意力编解码神经网络模型的权重。
在一种可选的方式中,模型训练单元604用于:应用注意力机制对所述编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,其中所述隐藏状态为所述编码器输出的所述上下文向量;应用所述注意力编解码神经网络模型中的解码器从编码后的所述新的上下文向量中生成的所述预测局数据脚本。
在一种可选的方式中,模型训练单元604用于:根据所述编码器的当前隐藏状态与所述解码器的前一个输出计算与所述编码器的当前隐藏状态对应的所述注意力权重;计算所述编码器的所有隐藏状态与对应的所述注意力权重的乘积之和,得到所述新的上下文向量。
本发明实施例通过获取实时局数据集;对所述实时局数据集进行预处理;根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本,能够提高局数据制作的安全性、稳定性与可靠性,提升局数据制作工作效率。
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的局数据脚本生成方法。
可执行指令具体可以用于使得处理器执行以下操作:
获取实时局数据集;
对所述实时局数据集进行预处理;
根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
从工单管理系统获取实时局数据需求工单、从现网获取对应的实时现网局数据配置信息形成所述实时局数据集。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
获取历史局数据集并进行预处理;
根据预处理后的所述历史局数据集训练生成所述注意力编解码神经网络模型。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
从工单管理系统获取历史局数据需求工单、从现网获取历史现网局数据配置信息、从局数据制作系统获取历史正确局数据脚本形成所述历史局数据集;
将所述历史局数据集进行清洗并进行文本序列化;
将所述历史局数据需求工单与所述历史现网局数据配置信息合并,并根据合并后的所述历史局数据需求工单与所述历史现网局数据配置信息获取第一索引序列长度和第一词典大小;
根据所述历史正确局数据脚本获取第二索引序列长度和第二词典大小。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
应用所述注意力编解码神经网络模型中的编码器将合并后的所述历史局数据需求工单与所述历史现网局数据配置信息进行编码生成上下文向量;
应用所述注意力编解码神经网络模型中的解码器从编码后的所述上下文向量中生成的预测局数据脚本;
应用目标函数衡量所述预测局数据脚本与所述历史正确局数据脚本的误差;
应用梯度下降优化算法加速所述注意力编解码神经网络模型的收敛速度,找到使目标函数最小的权重值,得到所述注意力编解码神经网络模型的权重。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
应用注意力机制对所述编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,其中所述隐藏状态为所述编码器输出的所述上下文向量;
应用所述注意力编解码神经网络模型中的解码器从编码后的所述新的上下文向量中生成的所述预测局数据脚本。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
根据所述编码器的当前隐藏状态与所述解码器的前一个输出计算与所述编码器的当前隐藏状态对应的所述注意力权重;
计算所述编码器的所有隐藏状态与对应的所述注意力权重的乘积之和,得到所述新的上下文向量。
本发明实施例通过获取实时局数据集;对所述实时局数据集进行预处理;根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本,能够提高局数据制作的安全性、稳定性与可靠性,提升局数据制作工作效率。
本发明实施例提供了一种计算机程序产品,所述计算机程序产品包括存储在计算机存储介质上的计算机程序,所述计算机程序包括程序指令,当所述程序指令被计算机执行时,使所述计算机执行上述任意方法实施例中的局数据脚本生成方法。
可执行指令具体可以用于使得处理器执行以下操作:
获取实时局数据集;
对所述实时局数据集进行预处理;
根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
从工单管理系统获取实时局数据需求工单、从现网获取对应的实时现网局数据配置信息形成所述实时局数据集。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
获取历史局数据集并进行预处理;
根据预处理后的所述历史局数据集训练生成所述注意力编解码神经网络模型。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
从工单管理系统获取历史局数据需求工单、从现网获取历史现网局数据配置信息、从局数据制作系统获取历史正确局数据脚本形成所述历史局数据集;
将所述历史局数据集进行清洗并进行文本序列化;
将所述历史局数据需求工单与所述历史现网局数据配置信息合并,并根据合并后的所述历史局数据需求工单与所述历史现网局数据配置信息获取第一索引序列长度和第一词典大小;
根据所述历史正确局数据脚本获取第二索引序列长度和第二词典大小。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
应用所述注意力编解码神经网络模型中的编码器将合并后的所述历史局数据需求工单与所述历史现网局数据配置信息进行编码生成上下文向量;
应用所述注意力编解码神经网络模型中的解码器从编码后的所述上下文向量中生成的预测局数据脚本;
应用目标函数衡量所述预测局数据脚本与所述历史正确局数据脚本的误差;
应用梯度下降优化算法加速所述注意力编解码神经网络模型的收敛速度,找到使目标函数最小的权重值,得到所述注意力编解码神经网络模型的权重。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
应用注意力机制对所述编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,其中所述隐藏状态为所述编码器输出的所述上下文向量;
应用所述注意力编解码神经网络模型中的解码器从编码后的所述新的上下文向量中生成的所述预测局数据脚本。
在一种可选的方式中,所述可执行指令使所述处理器执行以下操作:
根据所述编码器的当前隐藏状态与所述解码器的前一个输出计算与所述编码器的当前隐藏状态对应的所述注意力权重;
计算所述编码器的所有隐藏状态与对应的所述注意力权重的乘积之和,得到所述新的上下文向量。
本发明实施例通过获取实时局数据集;对所述实时局数据集进行预处理;根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本,能够提高局数据制作的安全性、稳定性与可靠性,提升局数据制作工作效率。
图7示出了本发明实施例提供的计算设备的结构示意图,本发明具体实施例并不对设备的具体实现做限定。
如图7所示,该计算设备可以包括:处理器(processor)502、通信接口(Communications Interface)504、存储器(memory)506、以及通信总线508。
其中:处理器502、通信接口504、以及存储器506通过通信总线508完成相互间的通信。通信接口504,用于与其它设备比如客户端或其它服务器等的网元通信。处理器502,用于执行程序510,具体可以执行上述局数据脚本生成方法实施例中的相关步骤。
具体地,程序510可以包括程序代码,该程序代码包括计算机操作指令。
处理器502可能是中央处理器CPU,或者是特定集成电路ASIC(ApplicationSpecific Integrated Circuit),或者是被配置成实施本发明实施例的一个或各个集成电路。设备包括的一个或各个处理器,可以是同一类型的处理器,如一个或各个CPU;也可以是不同类型的处理器,如一个或各个CPU以及一个或各个ASIC。
存储器506,用于存放程序510。存储器506可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序510具体可以用于使得处理器502执行以下操作:
获取实时局数据集;
对所述实时局数据集进行预处理;
根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本。
在一种可选的方式中,所述程序510使所述处理器执行以下操作:
从工单管理系统获取实时局数据需求工单、从现网获取对应的实时现网局数据配置信息形成所述实时局数据集。
在一种可选的方式中,所述程序510使所述处理器执行以下操作:
获取历史局数据集并进行预处理;
根据预处理后的所述历史局数据集训练生成所述注意力编解码神经网络模型。
在一种可选的方式中,所述程序510使所述处理器执行以下操作:
从工单管理系统获取历史局数据需求工单、从现网获取历史现网局数据配置信息、从局数据制作系统获取历史正确局数据脚本形成所述历史局数据集;
将所述历史局数据集进行清洗并进行文本序列化;
将所述历史局数据需求工单与所述历史现网局数据配置信息合并,并根据合并后的所述历史局数据需求工单与所述历史现网局数据配置信息获取第一索引序列长度和第一词典大小;
根据所述历史正确局数据脚本获取第二索引序列长度和第二词典大小。
在一种可选的方式中,所述程序510使所述处理器执行以下操作:
应用所述注意力编解码神经网络模型中的编码器将合并后的所述历史局数据需求工单与所述历史现网局数据配置信息进行编码生成上下文向量;
应用所述注意力编解码神经网络模型中的解码器从编码后的所述上下文向量中生成的预测局数据脚本;
应用目标函数衡量所述预测局数据脚本与所述历史正确局数据脚本的误差;
应用梯度下降优化算法加速所述注意力编解码神经网络模型的收敛速度,找到使目标函数最小的权重值,得到所述注意力编解码神经网络模型的权重。
在一种可选的方式中,所述程序510使所述处理器执行以下操作:
应用注意力机制对所述编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,其中所述隐藏状态为所述编码器输出的所述上下文向量;
应用所述注意力编解码神经网络模型中的解码器从编码后的所述新的上下文向量中生成的所述预测局数据脚本。
在一种可选的方式中,所述程序510使所述处理器执行以下操作:
根据所述编码器的当前隐藏状态与所述解码器的前一个输出计算与所述编码器的当前隐藏状态对应的所述注意力权重;
计算所述编码器的所有隐藏状态与对应的所述注意力权重的乘积之和,得到所述新的上下文向量。
本发明实施例通过获取实时局数据集;对所述实时局数据集进行预处理;根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本,能够提高局数据制作的安全性、稳定性与可靠性,提升局数据制作工作效率。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明的内容,并且上面对特定语言所做的描述是为了披露本发明的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
应该注意的是上述实施例对本发明进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。
Claims (8)
1.一种局数据脚本生成方法,其特征在于,所述方法包括:
获取实时局数据集;
对所述实时局数据集进行预处理;
根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本,包括:局数据通过编码器,将索引化后的实时局数据需求工单和实时现网局数据配置信息进行编码生成上下文向量;在解码器中,应用注意力机制对编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,其中,隐藏状态为编码器输出的上下文向量;根据所述编码器的当前隐藏状态与所述解码器的前一个输出计算与所述编码器的当前隐藏状态对应的所述注意力权重;计算所述编码器的所有隐藏状态与对应的所述注意力权重的乘积之和,得到所述新的上下文向量,应用所述注意力编解码神经网络模型中的解码器从编码后的所述新的上下文向量中生成的预测局数据脚本。
2.根据权利要求1所述的方法,其特征在于,所述获取实时局数据集,包括:
从工单管理系统获取实时局数据需求工单、从现网获取对应的实时现网局数据配置信息形成所述实时局数据集。
3.根据权利要求1所述的方法,其特征在于,所述获取实时局数据集之前,包括:
获取历史局数据集并进行预处理;
根据预处理后的所述历史局数据集训练生成所述注意力编解码神经网络模型。
4.根据权利要求3所述的方法,其特征在于,所述获取历史局数据集并进行预处理,包括:
从工单管理系统获取历史局数据需求工单、从现网获取历史现网局数据配置信息、从局数据制作系统获取历史正确局数据脚本形成所述历史局数据集;
将所述历史局数据集进行清洗并进行文本序列化;
将所述历史局数据需求工单与所述历史现网局数据配置信息合并,并根据合并后的所述历史局数据需求工单与所述历史现网局数据配置信息获取第一索引序列长度和第一词典大小;
根据所述历史正确局数据脚本获取第二索引序列长度和第二词典大小。
5.根据权利要求4所述的方法,其特征在于,所述根据预处理后的所述历史局数据集训练生成所述注意力编解码神经网络模型,包括:
应用所述注意力编解码神经网络模型中的编码器将合并后的所述历史局数据需求工单与所述历史现网局数据配置信息进行编码生成上下文向量;
应用所述注意力编解码神经网络模型中的解码器从编码后的所述上下文向量中生成的预测局数据脚本;
应用目标函数衡量所述预测局数据脚本与所述历史正确局数据脚本的误差;
应用梯度下降优化算法加速所述注意力编解码神经网络模型的收敛速度,找到使目标函数最小的权重值,得到所述注意力编解码神经网络模型的权重。
6.一种局数据脚本生成装置,其特征在于,所述装置包括:
局数据获取单元,用于获取实时局数据集;
预处理单元,用于对所述实时局数据集进行预处理;
脚本输出单元,用于根据预处理后的所述实时局数据集应用预先训练生成的注意力编解码神经网络模型输出正确局数据脚本,包括:局数据通过编码器,将索引化后的实时局数据需求工单和实时现网局数据配置信息进行编码生成上下文向量;在解码器中,应用注意力机制对编码器输出的隐藏状态引入注意力权重,形成新的上下文向量,其中,隐藏状态为编码器输出的上下文向量;根据所述编码器的当前隐藏状态与所述解码器的前一个输出计算与所述编码器的当前隐藏状态对应的所述注意力权重;计算所述编码器的所有隐藏状态与对应的所述注意力权重的乘积之和,得到所述新的上下文向量,应用所述注意力编解码神经网络模型中的解码器从编码后的所述新的上下文向量中生成的预测局数据脚本。
7.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行根据权利要求1-5任一项所述局数据脚本生成方法的步骤。
8.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行根据权利要求1-5任一项所述局数据脚本生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911039389.XA CN112751686B (zh) | 2019-10-29 | 2019-10-29 | 局数据脚本生成方法、装置、计算设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911039389.XA CN112751686B (zh) | 2019-10-29 | 2019-10-29 | 局数据脚本生成方法、装置、计算设备及计算机存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112751686A CN112751686A (zh) | 2021-05-04 |
CN112751686B true CN112751686B (zh) | 2022-10-18 |
Family
ID=75640125
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911039389.XA Active CN112751686B (zh) | 2019-10-29 | 2019-10-29 | 局数据脚本生成方法、装置、计算设备及计算机存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112751686B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117348916B (zh) * | 2023-12-06 | 2024-03-26 | 中邮消费金融有限公司 | 脚本生成方法、装置、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1878331A (zh) * | 2006-07-07 | 2006-12-13 | 华为技术有限公司 | 交换网络局数据集中处理方法和系统 |
CN1878377A (zh) * | 2006-07-04 | 2006-12-13 | 河北全通通信有限公司 | 具有能够实现局数据制作回撤功能的局数据制作方法 |
CN101242616A (zh) * | 2007-11-22 | 2008-08-13 | 中国移动通信集团山东有限公司 | 局数据智能化制作方法及局数据智能化制作系统 |
CN201821505U (zh) * | 2009-11-23 | 2011-05-04 | 中国移动通信集团陕西有限公司 | 局数据管理系统 |
CN102780574A (zh) * | 2011-05-13 | 2012-11-14 | 中国移动通信集团广东有限公司 | 面向业务的局数据的配置方法、装置以及核查方法、装置 |
CN107182071A (zh) * | 2016-03-10 | 2017-09-19 | 中国移动通信集团陕西有限公司 | 一种局数据的处理方法及装置 |
WO2019025601A1 (en) * | 2017-08-03 | 2019-02-07 | Koninklijke Philips N.V. | HIERARCHICAL NEURAL NETWORKS WITH ATTENTION GRANULARIZED |
CN110192206A (zh) * | 2017-05-23 | 2019-08-30 | 谷歌有限责任公司 | 基于注意力的序列转换神经网络 |
-
2019
- 2019-10-29 CN CN201911039389.XA patent/CN112751686B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1878377A (zh) * | 2006-07-04 | 2006-12-13 | 河北全通通信有限公司 | 具有能够实现局数据制作回撤功能的局数据制作方法 |
CN1878331A (zh) * | 2006-07-07 | 2006-12-13 | 华为技术有限公司 | 交换网络局数据集中处理方法和系统 |
CN101242616A (zh) * | 2007-11-22 | 2008-08-13 | 中国移动通信集团山东有限公司 | 局数据智能化制作方法及局数据智能化制作系统 |
CN201821505U (zh) * | 2009-11-23 | 2011-05-04 | 中国移动通信集团陕西有限公司 | 局数据管理系统 |
CN102780574A (zh) * | 2011-05-13 | 2012-11-14 | 中国移动通信集团广东有限公司 | 面向业务的局数据的配置方法、装置以及核查方法、装置 |
CN107182071A (zh) * | 2016-03-10 | 2017-09-19 | 中国移动通信集团陕西有限公司 | 一种局数据的处理方法及装置 |
CN110192206A (zh) * | 2017-05-23 | 2019-08-30 | 谷歌有限责任公司 | 基于注意力的序列转换神经网络 |
WO2019025601A1 (en) * | 2017-08-03 | 2019-02-07 | Koninklijke Philips N.V. | HIERARCHICAL NEURAL NETWORKS WITH ATTENTION GRANULARIZED |
Also Published As
Publication number | Publication date |
---|---|
CN112751686A (zh) | 2021-05-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10515155B2 (en) | Conversational agent | |
US20190155905A1 (en) | Template generation for a conversational agent | |
CN109902274B (zh) | 一种将json字符串转化为thrift二进制流的方法及系统 | |
CN109902312B (zh) | 一种翻译方法及装置、翻译模型的训练方法及装置 | |
CN106776501A (zh) | 一种文本错别字自动更正方法和服务器 | |
CN108959388B (zh) | 信息生成方法及装置 | |
CN109978141B (zh) | 神经网络模型训练方法和装置、自然语言处理方法和装置 | |
CN113936643B (zh) | 语音识别方法、语音识别模型、电子设备和存储介质 | |
Lee et al. | Performance analysis of local exit for distributed deep neural networks over cloud and edge computing | |
CN112751686B (zh) | 局数据脚本生成方法、装置、计算设备及计算机存储介质 | |
CN112333706A (zh) | 物联网设备异常检测方法、装置、计算设备及存储介质 | |
CN113778718A (zh) | 基于动态路由的微服务资源管理方法、系统和电子设备 | |
CN113539273A (zh) | 一种语音识别方法、装置、计算机设备和存储介质 | |
CN109902313B (zh) | 一种翻译方法及装置、翻译模型的训练方法及装置 | |
CN111563391A (zh) | 机器翻译方法、装置及电子设备 | |
CN113541986B (zh) | 5g切片的故障预测方法、装置及计算设备 | |
Yang et al. | Vehicle text data compression and transmission method based on maximum entropy neural network and optimized huffman encoding algorithms | |
Teng et al. | Convolutional neural network-aided bit-flipping for belief propagation decoding of polar codes | |
CN111126420A (zh) | 一种建立识别模型的方法及装置 | |
CN114374660B (zh) | 5g消息聊天机器人的推荐方法、装置、设备及存储介质 | |
CN113747480B (zh) | 5g切片故障的处理方法、装置及计算设备 | |
CN113312445A (zh) | 数据处理方法、模型构建方法、分类方法及计算设备 | |
CN113259145A (zh) | 网络切片的端到端组网方法、组网装置及网络切片设备 | |
CN112434143A (zh) | 基于gru单元隐藏状态约束的对话方法、存储介质及系统 | |
CN113806498A (zh) | 网络切片实例运行状况的在线问答方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |