CN115705464A - 一种信息的处理方法、装置及设备 - Google Patents

一种信息的处理方法、装置及设备 Download PDF

Info

Publication number
CN115705464A
CN115705464A CN202110920324.7A CN202110920324A CN115705464A CN 115705464 A CN115705464 A CN 115705464A CN 202110920324 A CN202110920324 A CN 202110920324A CN 115705464 A CN115705464 A CN 115705464A
Authority
CN
China
Prior art keywords
layer
output
processing
gcn
message
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110920324.7A
Other languages
English (en)
Inventor
邢彪
丁东
冯杭生
胡皓
陈嫦娇
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
China Mobile Communications Group Co Ltd
China Mobile Group Zhejiang Co Ltd
Original Assignee
China Mobile Communications Group Co Ltd
China Mobile Group Zhejiang Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by China Mobile Communications Group Co Ltd, China Mobile Group Zhejiang Co Ltd filed Critical China Mobile Communications Group Co Ltd
Priority to CN202110920324.7A priority Critical patent/CN115705464A/zh
Publication of CN115705464A publication Critical patent/CN115705464A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Devices For Executing Special Programs (AREA)

Abstract

本发明公开了一种信息的处理方法、装置及设备,该方法包括:获取第一类型消息;生成所述第一类型消息的元素拓扑图;根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵;将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出;所述第一网络模型为图编码器;将所述第一输出,输入到第二网络模型进行处理,得到第二类型消息;所述第二网络模型为序列编码器。通过上述方式,本发明解决了富媒体类型的第一类型消息转换第二类型消息后容易出现乱序、不通顺等问题,取得了增加被叫用户体验的有益效果。

Description

一种信息的处理方法、装置及设备
技术领域
本发明涉及信息处理技术领域,具体涉及一种信息的处理方法、装置及设备。
背景技术
5G消息业务基于终端原生短信入口,为用户提供文本、图片、音频、视频、位置、联系人等媒体内容的发送和接收,包括点对点消息、群发消息、群聊消息、点与应用间消息。相较于功能单一的传统短信,5G消息不仅拓宽了信息收发的广度,支持用户使用文本、音视频、卡片、位置等多媒体内容,更延展了交互体验的深度,用户在消息窗口就能完成服务搜索、发现、交互、支付等业务,构建一站式服务的信息窗口。
现有技术中,5G消息转普通短信过程中,仅仅只是将5G消息中的所有文本内容进行简单合并,对于富媒体类型的5G消息来说转换普通短信后连贯性一般、阅读体验不够友好,容易出现乱序、不通顺等问题。
发明内容
鉴于上述问题,提出了本发明实施例以便提供一种克服上述问题或者至少部分地解决上述问题的信息的处理方法、装置及设备。
根据本发明实施例的一个方面,提供了一种信息的处理方法,包括:
获取第一类型消息;
生成所述第一类型消息的元素拓扑图;
根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵;
将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出;所述第一网络模型为图编码器;
将所述第一输出,输入到第二网络模型进行处理,得到第二类型消息;所述第二网络模型为序列编码器。
根据本发明实施例的另一方面,提供了一种信息的处理装置,包括:
获取模块,用于获取第一类型消息;
处理模块,用于生成所述第一类型消息的元素拓扑图;根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵;将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出;所述第一网络模型为图编码器;将所述第一输出,输入到第二网络模型进行处理,得到第二类型消息;所述第二网络模型为序列编码器。
根据本发明实施例的又一方面,提供了一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行上述信息的处理方法对应的操作。
根据本发明实施例的再一方面,提供了一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如上述信息的处理方法对应的操作。
根据本发明上述实施例提供的方案,通过获取第一类型消息;生成所述第一类型消息的元素拓扑图;根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵;将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出;所述第一网络模型为图编码器;将所述第一输出,输入到第二网络模型进行处理,得到第二类型消息,并输出;所述第二网络模型为序列编码器。解决了富媒体类型的5G消息转换普通短信后容易出现乱序、不通顺等问题,取得了增加被叫用户体验的有益效果。
上述说明仅是本发明实施例技术方案的概述,为了能够更清楚了解本发明实施例的技术手段,而可依照说明书的内容予以实施,并且为了让本发明实施例的上述和其它目的、特征和优点能够更明显易懂,以下特举本发明实施例的具体实施方式。
附图说明
通过阅读下文优选实施方式的详细描述,各种其他的优点和益处对于本领域普通技术人员将变得清楚明了。附图仅用于示出优选实施方式的目的,而并不认为是对本发明实施例的限制。而且在整个附图中,用相同的参考符号表示相同的部件。在附图中:
图1示出了本发明实施例提供的信息的处理方法流程图;
图2示出了本发明实施例提供的由图编码器和序列解码器组成的模型图;
图3示出了本发明实施例提供的LSTM神经元示意图;
图4示出了本发明实施例提供的5G消息在线转文本短信流程图;
图5示出了本发明实施例提供的信息的处理装置的结构示意图;
图6示出了本发明实施例提供的计算设备的结构示意图。
具体实施方式
下面将参照附图更详细地描述本发明的示例性实施例。虽然附图中显示了本发明的示例性实施例,然而应当理解,可以以各种形式实现本发明而不应被这里阐述的实施例所限制。相反,提供这些实施例是为了能够更透彻地理解本发明,并且能够将本发明的范围完整的传达给本领域的技术人员。
图1示出了本发明实施例提供的信息的处理方法的流程图。如图1所示,该方法包括以下步骤:
步骤11,获取第一类型消息;
步骤12,生成所述第一类型消息的元素拓扑图;
步骤13,根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵;
步骤14,将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出;所述第一网络模型为图编码器;
步骤15,将所述第一输出,输入到第二网络模型进行处理,得到第二类型消息,并输出;所述第二网络模型为序列编码器。
该实施例所述的信息的处理方法,通过获取第一类型消息;生成所述第一类型消息的元素拓扑图;根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵;将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出;所述第一网络模型为图编码器;将所述第一输出,输入到第二网络模型进行处理,得到第二类型消息,并输出;所述第二网络模型为序列编码器。解决了富媒体类型的第一类型消息(如5G消息)转换第二类型消息(如文本短消息)后容易出现乱序、不通顺等问题,取得了增加被叫用户体验的有益效果。
在本发明的一可选的实施例中,步骤12可以包括:
步骤121,对所述第一类型消息进行分解,得到至少一个元素;
具体的,所述元素包括卡片、图片、视频、位置等但不限于如上所述。
步骤122,根据元素之间的逻辑关系,生成所述第一类型消息的元素拓扑图,表示为G=(V,E),V为元素对应的节点的集合V={V1,V2,V3,…,VN},E为所述元素拓扑图的边的集合,所述边表示节点Vi和节点Vj之间的逻辑关系。
具体的,将所述第一类型消息分解后的各个元素作为节点,每个元素中的文本内容及元素类型作为节点特征,元素之间的逻辑关系作为节点的连接关系,组成所述第一类型消息的元素拓扑图:G=(V,E)。其中V为元素对应的节点的集合V={V1,V2,V3,…,VN},E为所述元素拓扑图的边的集合,所述边表示节点Vi和节点Vj之间的逻辑关系。
在本发明的又一可选的实施例中,步骤13可以包括:
步骤131,根据所述第一类型消息的元素拓扑图中边进行编码,得到第一输入矩阵A,所述A为N*N的矩阵,其中,N为所述元素拓扑图中节点的个数,所述第一输入矩阵A为邻接矩阵;
具体的,所述第一输入矩阵A为第一类型消息之间的逻辑关系,eij表示元素节点Vi和元素节点Vj之间的逻辑关系,所述逻辑关系包含并列、主次、总分等,但不限于如上所述的元素关系。
步骤132,根据所述第一类型消息的元素拓扑图中的每个元素的特征序列,得到第二输入矩阵X,所述第二输入矩阵X为N*F的矩阵,其中,F为元素的特征序列的编码长度,所述第二输入矩阵X为特征矩阵。
具体的,根据所述第一类型消息的元素拓扑图定义每个元素特征的编码序列长度为F,取第一类型消息集中最长长度F作为其编码序列长度,将每条数据的长度均填充为F,得到形状为N*F的第二输入矩阵X,取其词典大小为element_vocab_size(元素名称大小)。
下面结合图2说明上述步骤14和15的具体实现过程:
本发明的又一可选的实施例中,步骤14可以包括:
步骤141,将所述第一输入矩阵和第二输入矩阵,输入训练好的图编码器进行处理,得到第一输出Z=GCN(X,A);其中,GCN为图卷积神经网络,A为所述第一输入矩阵,X为所述第二输入矩阵。
该实施例中,图编码器由GCN(图卷积神经网络)构成,所述图编码器提取第一类型消息各元素间的逻辑关系以及各元素节点的文本内容特征,将元素拓扑的节点和边投影到低维向量空间中,得到第一输出Z,Z=GCN(X,A),A为所述第一输入矩阵,X为所述第二输入矩阵,Z为第一输出,即图编码器输出的潜在的空间向量。
在本发明的又一可选的实施例中,步骤141可以包括:
步骤1411,将所述第一输入矩阵和第二输入矩阵,输入训练好的图卷积神经网络GCN的第一层进行处理,得到所述GCN的第一层输出;
具体的,所述图卷积神经网络GCN的第一层为输入层,将所述第一输入矩阵和第二输入矩阵输入到训练好的输入层进行处理,得到所述GCN的第一层输出。
步骤1412,将所述GCN的第一层输出,输入所述GCN的第二层进行处理,得到第二层输出,所述GCN的第二层为图卷积层;
步骤1413,将所述GCN的第二层输出,输入所述GCN的第三层进行处理,得到第三层输出,所述GCN的第三层输出为图卷积层;
步骤1414,将所述GCN的第三层输出,输入所述GCN的第四层进行处理,得到第四层输出,所述GCN的第四层为图卷积层;所述GCN的第四层输出为所述第一类型消息的元素拓扑图的节点和边的潜在空间向量Z=GCN(X,A)。
该实施例中,所述GCN的第二层的卷积核的个数大于所述GCN的第三层的卷积核的个数,所述GCN的第三层卷积核的个数大于所述GCN的第四层卷积核的个数。
具体的,所述图卷积神经网络GCN的第二层为图卷积层(GCN),卷积核个数为256,激活函数设置为“relu”,将所述GCN的第一层输出进行第一类型消息元素拓扑特征进行提取,得到第二层输出。
所述图卷积神经网络GCN的第三层为图卷积层(GCN),卷积核个数为128,激活函数设置为“relu”,将所述GCN的第二层输出进行第一类型消息元素拓扑特征进行提取,得到第三层输出;
所述图卷积神经网络GCN的第四层为图卷积层(GCN),卷积核个数为64,激活函数设置为“lamda”,将所述GCN的第三层输出进行第一类型消息元素拓扑特征进行提取,得到第四层输出。所述GCN的第四层输出为所述第一类型消息的元素拓扑图的节点和边的潜在空间向量Z=GCN(X,A)。
在本发明的又一可选的实施例中,步骤15可以包括:
步骤151,将所述第一输出,输入序列解码器进行处理,输出目标类型消息;
具体的,所述序列解码器由LSTM层(长短期记忆神经层)构成,从第一类型消息的元素拓扑节点和边的潜在空间向量表示中抽取拓扑特征,生成目标规整化的目标类型消息y,y=LSTM(Z),其中,y为目标类型消息,LSTM为长短期记忆层,Z为第一输出。所述LSTM(长短期记忆神经网络)是一种特殊的循环神经网络类型,通过控制缓存中的值保存的时间,可以记住长期的信息,适合进行时间序列的预测。每个神经元有四个输入和一个输出,每个神经元内有一个Cell存放记忆的数值。
步骤152,将所述目标类型消息与预设标签矩阵对应的消息进行比对,得到第二类型消息,所述预设标签矩阵为预先标记的第一类型消息转换为第二类型消息的正确消息文本。
具体的,所述预设标签矩阵Y为人工预先标记的第一类型消息转换为规整后的第二类型消息的正确消息文本,形状为N*K。取规整后第二类型消息集的最长长度K作为其索引序列长度,取其词典大小为sortedText_vocab_size(已分类文本名称大小)。每条规整后的第二类型消息可表示为{y1,y2,y3,…,yK}。
在本发明的再一可选的实施例中,步骤151可以包括:
步骤1511,将所述第一输出,输入所述序列解码器的第一层进行处理,得到序列解码器的第一层输出,所述序列解码器的第一层为长短期记忆层LSTM;
具体的,所述序列解码器的第一层,神经元个数设置为64,激活函数设置为“relu”;将所述第一输出Z输入到该层进行处理,得到序列解码器的第一层输出。
步骤1512,将所述序列解码器的第一层输出,输入所述序列解码器的第二层进行处理,得到预列解码器的第二层输出,所述序列解码器的第二层为长短期记忆层LSTM;
具体的,所述序列解码器的第二层,神经元个数设置为128,激活函数设置为“relu”;将所述第一层输出输入到该层进行处理,得到序列解码器的第二层输出。
步骤1513,将所述序列解码器的第二层输出,输入所述序列解码器的第三层进行处理,得到序列解码器的第三层输出,所述序列解码器的第三层为长短期记忆层LSTM;
具体的,所述序列解码器的第三层,神经元个数设置为256,激活函数设置为“relu”;将所述第二层输出输入到该层进行处理,得到序列解码器的第三层输出。
所述序列解码器的第一层的神经元的个数小于所述序列解码器的第二层的神经元的个数,所述序列解码器的第二层的神经元的个数小于所述序列解码器的第三层的神经元的个数;
步骤1514,将所述序列解码器的第三层输出,输入所述序列解码器的第四层进行处理,得到序列解码器的第四层输出,所述序列解码器的第四层为全连接层,所述序列解码器的第四层输出为所述目标类型消息。
具体的,所述序列解码器的第四层为全连接(Dense)层,包含Dense全连接神经元个数为sortedText_vocab_size(已分类文本名称大小),激活函数设置为“softmax”,将softmax输出结果送入多类交叉熵损失函数。该层输出数据的形状为None,sortedText_vocab_size(没有一个,已分类文本名称大小)。
该实施例中,每一个LSTM神经元中都含有三个门控,包括遗忘门、输入们和输出门,但不限于如上所述。
如图3所示,首先通过
Figure BDA0003207159450000081
遗忘无用信息,其次通过
Figure BDA0003207159450000082
将新的信息添加进来,然后通过
Figure BDA0003207159450000083
融合新的信息和旧的信息,然后通过
Figure BDA0003207159450000084
输出目前LSTM单元已学习到的关于下一个时间戳的信息,最后通过Yt=σ(W′ht)将神经元输出。
长短期记忆神经网络在长时间序列的学习上具有较好的效果,LSTM单元内每条连接线上含有相应的权重,Xt代表输入向量,ht代表隐藏状态,Ct代表t时刻的神经元状态,Yt代表神经元的输出,W为可训练的权重矩阵,b为偏置向量。
本发明的上述实施例中,第一网络模型通过以下过程进行训练:
数据收集与预处理:
收集历史主叫始发5G消息(即上述第一类型消息),将5G消息中的各个元素作为节点,每个元素中的文本内容及元素类型作为节点特征,元素之间的逻辑关系作为节点的连接关系,从而组成该5G消息的元素拓扑图。将每个拓扑图转化为模型的输入即邻接矩阵A和特征矩阵X。
其中5G消息的元素拓扑图可表示为G=(V,E),V为元素节点的集合V={V1,V2,V3,…,VN},E为边的集合。
邻接矩阵A为5G消息各元素之间的逻辑关系,eij表示元素节点Vi和元素节点Vj之间的逻辑关系,可包含并列、主次、总分等元素关系,并对各逻辑关系进行编码。形状为N*N(N为节点的个数)。
特征矩阵X为每个元素中的文本内容及元素类型的序列表示。定义每个元素特征的编码序列长度为F,取5G消息元素集中最长长度F作为其编码序列长度,将每条数据的长度均填充为F,因此特征矩阵X可表示为N*F的特征矩阵,取其词典大小为element_vocab_size。
将总数据集划分为训练集和测试集,总数据集的90%划为训练集,总数据集的10%划为测试集。训练集用于训练模型,测试集用于测试模型。
搭建模型:
搭建图到序列结构的神经网络,由图编码器和序列解码器组成,其中图2所示的编码器利用图卷积层提取5G消息各元素间的逻辑关系以及各元素节点的文本内容特征,将元素拓扑的节点和边投影到低维向量空间中;
再利用序列解码器的LSTM层学习被提取空间特征后的5G消息元素拓扑向量表示与正确的规整后文本短信之间的关系,最终输出规整后的文本短信序列。
图编码器:由图卷积神经网络组成,负责将输入的主叫始发的5G消息元素拓扑映射为拓扑节点和边的潜在空间向量表示,Z=GCN(X,A)
第一层为输入层:输入5G消息元素拓扑的邻接矩阵A和特征矩阵X;
第二层为图卷积层(Graph Conv):卷积核个数为256,激活函数设置为“relu”;利用卷积层进行5G消息元素拓扑特征提取;
第三层为图卷积层(Graph Conv):卷积核个数为128,激活函数设置为“relu”;
第四层为图卷积层(Graph Conv):卷积核个数为64,激活函数设置为“lamda”。输出主叫始发的5G消息元素拓扑节点和边的潜在空间向量表示Z;
所述图卷积层为神经网络层的一种,每一个神经网络层都可以写成一个非线性函数:H()=f(H(),A),H(0)=X为输入数据,H(L)=Z为输出数据,L为神经网络的层数,选择不同的f()及参数也决定了不同的模型,例如:
Figure BDA0003207159450000101
W(l)是第l个神经网络层的参数矩阵,σ()是非线性激活函数(如ReLU),A为第一输入矩阵,D是A的节点对角矩阵。
序列解码器:由长短期记忆神经网络组成,负责从主叫始发的5G消息元素拓扑节点和边的潜在空间向量表示中抽取拓扑特征,生成目标规整化文本短信序列,y=LSTM(Z)。
第五层为长短期记忆层(LSTM):神经元个数设置为64,激活函数设置为“relu”;输入拓扑的潜在空间向量表示Z;
第六层为长短期记忆层(LSTM):神经元个数设置为128,激活函数设置为“relu”;
第七层为长短期记忆层(LSTM):全连接神经元个数为256,激活函数设置为“relu”;
第六层全连接(Dense)层(输出层):包含Dense全连接神经元个数为sortedText_vocab_size,激活函数设置为“softmax”,将softmax输出结果送入多类交叉熵损失函数。该层输出数据的形状为(None,sortedText_vocab_size)。
在得到第二类型消息后,计算预测的目标类型消息和第二类型消息之间的误差,训练目标,使其误差降到最小化。目标函数选择'categorical_crossentropy'多类对数损失函数:
Figure BDA0003207159450000102
Figure BDA0003207159450000103
其中n是样本数,m是分类数,yi为目标类型消息,logyi为第二类型消息。将训练回合数设置为1000(epochs=1000),梯度下降优化算法选择adam优化器用于改善传统梯度下降的学习速度(optimizer='adam')。神经网络通过梯度下降,可以找到使目标函数最小的最优权重值,神经网络通过训练会自主学习到权重值。用训练集进行训练,使得目标函数达到最小值,并在每轮训练后用测试集来评价验证模型。模型收敛后导出权重。
如图4所示,在本发明的实施例提供一种信息的处理方法的一具体实现流程,第一类型消息以5G消息为例,第二类型消息以普通文本短消息为例进行说明,包括如下:
步骤41,5G消息终端或行业chatbot(聊天机器人)通过invite(邀请)信令向主叫5GMC的SIP接入模块发起5G消息业务流程;
步骤42,SIP接入模块通过invite信令将5G消息发送至主叫5GMC的消息处理模块;
步骤43,5GMC消息处理模块提取该信令body-text字段中的XML文本,将该XML文本发送至5G消息预处理模块,根据该XML文本构建5G消息元素拓扑图。具体为将5G消息中的各个元素作为节点,每个元素中文本内容作为节点特征,元素之间的逻辑关系作为节点的连接关系。
步骤44,将代表该5G消息元素拓扑图的邻接矩阵A和特征矩阵X后发送至预训练完毕的图到序列神经网络构成的5G消息转文本短信生成器;其中邻接矩阵A为5G消息各元素之间的逻辑关系,特征矩阵X为每个元素中的文本内容及元素类型;
步骤45,5G消息转文本短信生成器利用图到序列网络来学习该5G消息中各元素间的逻辑关系,从而重组各元素中的文本内容,最终将富媒体格式的5G消息转化为普通文本短消息;
步骤46,将普通文本短消息发送至主叫5GMC的短信处理模块;
步骤47,最后主叫5GMC通过HLR/HSS找到被叫MSC,并将普通文本短消息下发到被叫用户终端。
本发明的上述实施例,通过收集历史主叫始发5G消息,将每条5G消息中的各个元素作为节点,每个元素中的文本内容及元素类型作为节点特征,元素之间的逻辑关系作为节点的连接关系,从而组成该5G消息的元素拓扑图。将每个拓扑图转化为模型的输入即邻接矩阵A和特征矩阵X,其中邻接矩阵A为5G消息各元素之间的逻辑关系,特征矩阵X为每个元素中的文本内容及元素类型,标签矩阵Y为人工标记的每条主叫始发5G消息转换为规整后的文本短消息。搭建由图编码器和序列解码器组成的图到序列网络模型,其中图编码器利用图卷积层提取主叫始发5G消息各元素间的逻辑关系以及各元素节点的文本内容特征,将元素拓扑的节点和边投影到低维向量空间中;再利用序列解码器的长短期记忆层学习被提取空间特征后的5G消息元素拓扑向量表示与正确的规整后文本短信之间的关系,最终输出规整后的文本短消息序列。从而提升5G消息转普通文本短消息的被叫用户体验。
图5示出了本发明实施例提供的一种信息的处理装置的结构50示意图。如图5所示,该装置包括:
获取模块51,用于获取第一类型消息;
处理模块52,用于生成所述第一类型消息的元素拓扑图;根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵;将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出;所述第一网络模型为图编码器;将所述第一输出,输入到第二网络模型进行处理,得到第二类型消息,并输出;所述第二网络模型为序列编码器。
可选的,所述处理模块52还用于对所述第一类型消息进行分解,得到至少一个元素;
根据元素之间的逻辑关系,生成所述第一类型消息的元素拓扑图,表示为G=(V,E),V为元素对应的节点的集合V={V1,V2,V3,…,VN},E为所述元素拓扑图的边的集合,所述边表示节点Vi和节点Vj之间的逻辑关系。
可选的,所述处理模块52还用于根据所述第一类型消息的元素拓扑图中边进行编码,得到第一输入矩阵A,所述A为N*N的矩阵,其中,N为所述元素拓扑图中节点的个数;
根据所述第一类型消息的元素拓扑图中的每个元素的特征序列,得到第二输入矩阵,所述第二输入矩阵X为N*F的矩阵,其中,F为元素的特征序列的编码长度。
可选的,所述处理模块52还用于将所述第一输入矩阵和第二输入矩阵,输入训练好的图编码器进行处理,得到第一输出Z=GCN(X,A);其中,GCN为图卷积神经网络,A为所述第一输入矩阵,X为所述第二输入矩阵。
可选的,所述处理模块52还用于将所述第一输入矩阵和第二输入矩阵,输入训练好的图卷积神经网络GCN的第一层进行处理,得到所述GCN的第一层输出;
将所述GCN的第一层输出,输入所述GCN的第二层进行处理,得到第二层输出,所述GCN的第二层为图卷积层;
将所述GCN的第二层输出,输入所述GCN的第三层进行处理,得到第三层输出,所述GCN的第三层输出为图卷积层;
将所述GCN的第三层输出,输入所述GCN的第四层进行处理,得到第四层输出,所述GCN的第四层为图卷积层;所述GCN的第四层输出为所述第一类型消息的元素拓扑图的节点和边的潜在空间向量Z=GCN(X,A),所述GCN的第二层的卷积核的个数大于所述GCN的第三层的卷积核的个数,所述GCN的第三层卷积核的个数大于所述GCN的第四层卷积核的个数。
可选的,所述处理模块52还用于将所述第一输出,输入序列解码器进行处理,输出目标类型消息;
将所述目标类型消息与预设标签矩阵对应的消息进行比对,得到第二类型消息,所述预设标签矩阵为预先标记的第一类型消息转换为第二类型消息的正确消息文本。
可选的,所述处理模块52还用于将所述第一输出,输入所述序列解码器的第一层进行处理,得到序列解码器的第一层输出,所述序列解码器的第一层为长短期记忆层LSTM;
将所述序列解码器的第一层输出,输入所述序列解码器的第二层进行处理,得到序列解码器的第二层输出,所述序列解码器的第二层为长短期记忆层LSTM;
将所述序列解码器的第二层输出,输入所述序列解码器的第三层进行处理,得到序列解码器的第三层输出,所述序列解码器的第三层为长短期记忆层LSTM;所述序列解码器的第一层的神经元的个数小于所述序列解码器的第二层的神经元的个数,所述序列解码器的第二层的神经元的个数小于所述序列解码器的第三层的神经元的个数;
将所述序列解码器的第三层输出,输入所述序列解码器的第四层进行处理,得到序列解码器的第四层输出,所述序列解码器的第四层为全连接层,所述序列解码器的第四层输出为所述目标类型消息。
需要说明的是,该实施例是与上述方法实施例对应的装置实施例,上述方法实施例中的所有实现方式均适用于该装置的实施例中,也能达到相同的技术效果。
本发明实施例提供了一种非易失性计算机存储介质,所述计算机存储介质存储有至少一可执行指令,该计算机可执行指令可执行上述任意方法实施例中的一种信息的处理方法。
图6示出了本发明实施例提供的计算设备的结构示意图,本发明具体实施例并不对计算设备的具体实现做限定。
如图6所示,该计算设备可以包括:处理器(processor)、通信接口(Communications Interface)、存储器(memory)、以及通信总线。
其中:处理器、通信接口、以及存储器通过通信总线完成相互间的通信。通信接口,用于与其它设备比如客户端或其它服务器等的网元通信。处理器,用于执行程序,具体可以执行上述用于计算设备的一种信息的处理方法实施例中的相关步骤。
具体地,程序可以包括程序代码,该程序代码包括计算机操作指令。
处理器可能是中央处理器CPU,或者是特定集成电路ASIC(Application SpecificIntegrated Circuit),或者是被配置成实施本发明实施例的一个或多个集成电路。计算设备包括的一个或多个处理器,可以是同一类型的处理器,如一个或多个CPU;也可以是不同类型的处理器,如一个或多个CPU以及一个或多个ASIC。
存储器,用于存放程序。存储器可能包含高速RAM存储器,也可能还包括非易失性存储器(non-volatile memory),例如至少一个磁盘存储器。
程序具体可以用于使得处理器执行上述任意方法实施例中的一种信息的处理方法。程序中各步骤的具体实现可以参见上述一种信息的处理方法实施例中的相应步骤和单元中对应的描述,在此不赘述。所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的设备和模块的具体工作过程,可以参考前述方法实施例中的对应过程描述,在此不再赘述。
在此提供的算法或显示不与任何特定计算机、虚拟系统或者其它设备固有相关。各种通用系统也可以与基于在此的示教一起使用。根据上面的描述,构造这类系统所要求的结构是显而易见的。此外,本发明实施例也不针对任何特定编程语言。应当明白,可以利用各种编程语言实现在此描述的本发明实施例的内容,并且上面对特定语言所做的描述是为了披露本发明实施例的最佳实施方式。
在此处所提供的说明书中,说明了大量具体细节。然而,能够理解,本发明的实施例可以在没有这些具体细节的情况下实践。在一些实例中,并未详细示出公知的方法、结构和技术,以便不模糊对本说明书的理解。
类似地,应当理解,为了精简本发明实施例并帮助理解各个发明方面中的一个或多个,在上面对本发明的示例性实施例的描述中,本发明实施例的各个特征有时被一起分组到单个实施例、图、或者对其的描述中。然而,并不应将该公开的方法解释成反映如下意图:即所要求保护的本发明实施例要求比在每个权利要求中所明确记载的特征更多的特征。更确切地说,如下面的权利要求书所反映的那样,发明方面在于少于前面公开的单个实施例的所有特征。因此,遵循具体实施方式的权利要求书由此明确地并入该具体实施方式,其中每个权利要求本身都作为本发明的单独实施例。
本领域那些技术人员可以理解,可以对实施例中的设备中的模块进行自适应性地改变并且把它们设置在与该实施例不同的一个或多个设备中。可以把实施例中的模块或单元或组件组合成一个模块或单元或组件,以及此外可以把它们分成多个子模块或子单元或子组件。除了这样的特征和/或过程或者单元中的至少一些是相互排斥之外,可以采用任何组合对本说明书(包括伴随的权利要求、摘要和附图)中公开的所有特征以及如此公开的任何方法或者设备的所有过程或单元进行组合。除非另外明确陈述,本说明书(包括伴随的权利要求、摘要和附图)中公开的每个特征可以由提供相同、等同或相似目的的替代特征来代替。
此外,本领域的技术人员能够理解,尽管在此的一些实施例包括其它实施例中所包括的某些特征而不是其它特征,但是不同实施例的特征的组合意味着处于本发明的范围之内并且形成不同的实施例。例如,在下面的权利要求书中,所要求保护的实施例的任意之一都可以以任意的组合方式来使用。
本发明的各个部件实施例可以以硬件实现,或者以在一个或者多个处理器上运行的软件模块实现,或者以它们的组合实现。本领域的技术人员应当理解,可以在实践中使用微处理器或者数字信号处理器(DSP)来实现根据本发明实施例的一些或者全部部件的一些或者全部功能。本发明实施例还可以实现为用于执行这里所描述的方法的一部分或者全部的设备或者装置程序(例如,计算机程序和计算机程序产品)。这样的实现本发明实施例的程序可以存储在计算机可读介质上,或者可以具有一个或者多个信号的形式。这样的信号可以从因特网网站上下载得到,或者在载体信号上提供,或者以任何其他形式提供。
应该注意的是上述实施例对本发明实施例进行说明而不是对本发明进行限制,并且本领域技术人员在不脱离所附权利要求的范围的情况下可设计出替换实施例。在权利要求中,不应将位于括号之间的任何参考符号构造成对权利要求的限制。单词“包含”不排除存在未列在权利要求中的元件或步骤。位于元件之前的单词“一”或“一个”不排除存在多个这样的元件。本发明实施例可以借助于包括有若干不同元件的硬件以及借助于适当编程的计算机来实现。在列举了若干装置的单元权利要求中,这些装置中的若干个可以是通过同一个硬件项来具体体现。单词第一、第二、以及第三等的使用不表示任何顺序。可将这些单词解释为名称。上述实施例中的步骤,除有特殊说明外,不应理解为对执行顺序的限定。

Claims (10)

1.一种信息的处理方法,其特征在于,包括:
获取第一类型消息;
生成所述第一类型消息的元素拓扑图;
根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵;
将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出;所述第一网络模型为图编码器;
将所述第一输出,输入到第二网络模型进行处理,得到第二类型消息,并输出;所述第二网络模型为序列编码器。
2.根据权利要求1所述的信息的处理方法,其特征在于,生成所述第一类型消息的元素拓扑图,包括:
对所述第一类型消息进行分解,得到至少一个元素;
根据元素之间的逻辑关系,生成所述第一类型消息的元素拓扑图,表示为G=(V,E),V为元素对应的节点的集合V={V1,V2,V3,…,VN},E为所述元素拓扑图的边的集合,所述边表示节点Vi和节点Vj之间的逻辑关系。
3.根据权利要求1所述的信息的处理方法,其特征在于,根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵,包括:
根据所述第一类型消息的元素拓扑图中边进行编码,得到第一输入矩阵,所述第一输入矩阵为N*N的矩阵,其中,N为所述元素拓扑图中节点的个数;
根据所述第一类型消息的元素拓扑图中的每个元素的特征序列,得到第二输入矩阵,所述第二输入矩阵为N*F的矩阵,其中,F为元素的特征序列的编码长度。
4.根据权利要求1所述的信息的处理方法,其特征在于,将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出,包括:
将所述第一输入矩阵和第二输入矩阵,输入训练好的图编码器进行处理,得到第一输出Z=GCN(X,A);其中,GCN为图卷积神经网络,A为所述第一输入矩阵,X为所述第二输入矩阵。
5.根据权利要求4所述的信息的处理方法,其特征在于,将所述第一输入矩阵和第二输入矩阵,输入训练好的图编码器进行处理,得到第一输出,包括:
将所述第一输入矩阵和第二输入矩阵,输入训练好的图卷积神经网络GCN的第一层进行处理,得到所述GCN的第一层输出;
将所述GCN的第一层输出,输入所述GCN的第二层进行处理,得到第二层输出,所述GCN的第二层为图卷积层;
将所述GCN的第二层输出,输入所述GCN的第三层进行处理,得到第三层输出,所述GCN的第三层输出为图卷积层;
将所述GCN的第三层输出,输入所述GCN的第四层进行处理,得到第四层输出,所述GCN的第四层为图卷积层;所述GCN的第四层输出为所述第一类型消息的元素拓扑图的节点和边的潜在空间向量Z=GCN(X,A),所述GCN的第二层的卷积核的个数大于所述GCN的第三层的卷积核的个数,所述GCN的第三层卷积核的个数大于所述GCN的第四层卷积核的个数。
6.根据权利要求1所述的信息的处理方法,其特征在于,将所述第一输出,输入第二网络模型进行处理,得到第二类型消息,包括:
将所述第一输出,输入序列解码器进行处理,输出目标类型消息;
将所述目标类型消息与预设标签矩阵对应的消息进行比对,得到第二类型消息,所述预设标签矩阵为预先标记的第一类型消息转换为第二类型消息的正确消息文本。
7.根据权利要求6所述的信息的处理方法,其特征在于,将所述第一输出,输入序列解码器进行处理,输出目标类型消息,包括:
将所述第一输出,输入所述序列解码器的第一层进行处理,得到预设序列解码器的第一层输出,所述序列解码器的第一层为长短期记忆层LSTM;
将所述序列解码器的第一层输出,输入所述序列解码器的第二层进行处理,得到序列解码器的第二层输出,所述序列解码器的第二层为长短期记忆层LSTM;
将所述序列解码器的第二层输出,输入所述序列解码器的第三层进行处理,得到序列解码器的第三层输出,所述序列解码器的第三层为长短期记忆层LSTM;所述序列解码器的第一层的神经元的个数小于所述序列解码器的第二层的神经元的个数,所述序列解码器的第二层的神经元的个数小于所述序列解码器的第三层的神经元的个数;
将所述序列解码器的第三层输出,输入所述序列解码器的第四层进行处理,得到序列解码器的第四层输出,所述序列解码器的第四层为全连接层,所述序列解码器的第四层输出为所述目标类型消息。
8.一种信息的处理装置,其特征在于,包括:
获取模块,用于获取第一类型消息;
处理模块,用于生成所述第一类型消息的元素拓扑图;根据所述第一类型消息的元素拓扑图,得到第一输入矩阵和第二输入矩阵;将所述第一输入矩阵和第二输入矩阵输入到训练好的第一网络模型进行处理,得到第一输出;所述第一网络模型为图编码器;将所述第一输出,输入到第二网络模型进行处理,得到第二类型消息,并输出;所述第二网络模型为序列编码器。
9.一种计算设备,包括:处理器、存储器、通信接口和通信总线,所述处理器、所述存储器和所述通信接口通过所述通信总线完成相互间的通信;
所述存储器用于存放至少一可执行指令,所述可执行指令使所述处理器执行如权利要求1-7中任一项所述的信息的处理方法对应的操作。
10.一种计算机存储介质,所述存储介质中存储有至少一可执行指令,所述可执行指令使处理器执行如权利要求1-7中任一项所述的信息的处理方法对应的操作。
CN202110920324.7A 2021-08-11 2021-08-11 一种信息的处理方法、装置及设备 Pending CN115705464A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110920324.7A CN115705464A (zh) 2021-08-11 2021-08-11 一种信息的处理方法、装置及设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110920324.7A CN115705464A (zh) 2021-08-11 2021-08-11 一种信息的处理方法、装置及设备

Publications (1)

Publication Number Publication Date
CN115705464A true CN115705464A (zh) 2023-02-17

Family

ID=85180117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110920324.7A Pending CN115705464A (zh) 2021-08-11 2021-08-11 一种信息的处理方法、装置及设备

Country Status (1)

Country Link
CN (1) CN115705464A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116456289A (zh) * 2023-06-13 2023-07-18 安徽创瑞信息技术有限公司 一种富媒体信息处理方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116456289A (zh) * 2023-06-13 2023-07-18 安徽创瑞信息技术有限公司 一种富媒体信息处理方法及系统
CN116456289B (zh) * 2023-06-13 2023-08-15 安徽创瑞信息技术有限公司 一种富媒体信息处理方法及系统

Similar Documents

Publication Publication Date Title
CN110413785B (zh) 一种基于bert和特征融合的文本自动分类方法
CN112418292B (zh) 一种图像质量评价的方法、装置、计算机设备及存储介质
CA3069365A1 (en) Generation of point of interest copy
CN112214604A (zh) 文本分类模型的训练方法、文本分类方法、装置及设备
CN111444399B (zh) 回复内容的生成方法、装置、设备及可读存储介质
CN109816032A (zh) 基于生成式对抗网络的无偏映射零样本分类方法和装置
CN112347787A (zh) 方面级别情感分类方法、装置、设备及可读存储介质
CN111340112A (zh) 分类方法、装置、服务器
CN115759482A (zh) 一种社交媒体内容传播预测方法和装置
CN112800225A (zh) 一种微博评论情绪分类方法和系统
CN114374660B (zh) 5g消息聊天机器人的推荐方法、装置、设备及存储介质
CN110955765A (zh) 智能助理的语料构建方法、装置、计算机设备和存储介质
CN115705464A (zh) 一种信息的处理方法、装置及设备
CN117473951A (zh) 文本处理方法、装置及存储介质
CN113158057A (zh) 佛经推荐处理、装置、计算机设备及存储介质
CN116958712A (zh) 基于先验概率分布的图像生成方法、系统、介质及设备
CN116738983A (zh) 模型进行金融领域任务处理的词嵌入方法、装置、设备
CN116958738A (zh) 图片识别模型的训练方法和装置、存储介质及电子设备
CN111445545A (zh) 一种文本转贴图方法、装置、存储介质及电子设备
CN113312445B (zh) 数据处理方法、模型构建方法、分类方法及计算设备
CN113747480B (zh) 5g切片故障的处理方法、装置及计算设备
CN115705463A (zh) 一种信息处理方法、装置及设备
CN115496175A (zh) 新建边缘节点接入评估方法、装置、终端设备及产品
CN117932487B (zh) 一种风险分类模型训练、风险分类方法及装置
CN112580658B (zh) 图像语义描述方法、装置、计算设备及计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination