CN111552799B - 信息处理方法、装置、电子设备及存储介质 - Google Patents

信息处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN111552799B
CN111552799B CN202010364667.5A CN202010364667A CN111552799B CN 111552799 B CN111552799 B CN 111552799B CN 202010364667 A CN202010364667 A CN 202010364667A CN 111552799 B CN111552799 B CN 111552799B
Authority
CN
China
Prior art keywords
name
remark
prediction model
neural network
different
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010364667.5A
Other languages
English (en)
Other versions
CN111552799A (zh
Inventor
田植良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Priority to CN202010364667.5A priority Critical patent/CN111552799B/zh
Publication of CN111552799A publication Critical patent/CN111552799A/zh
Application granted granted Critical
Publication of CN111552799B publication Critical patent/CN111552799B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/335Filtering based on additional data, e.g. user or group profiles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/30Noise filtering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明提供了一种信息处理方法,包括:获取与名称预测模型的使用环境相匹配的第一训练样本,确定名称预测模型中的第一神经网络的初始参数和第二神经网络的初始参数;通过名称预测模型对特征集合进行处理,确定名称预测模型的不同神经网络对应的更新参数;根据名称预测模型的不同神经网络对应的更新参数,通过特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新。本发明还提供了信息处理装置、电子设备及存储介质。本发明能够实现名称预测模型的泛化能力更强,提升名称预测模型的训练精度与训练速度,同时使得名称预测模型能够适应不同的使用场景,提升了名称备注的处理效率和准确率。

Description

信息处理方法、装置、电子设备及存储介质
技术领域
本发明涉及信息处理技术,尤其涉及信息处理方法、装置、电子设备及存储介质。
背景技术
传统技术中,在通过社交软件产品对联系人进行备注的时候,仅能够由用户手动输入备注名称,或者通过群昵称(群名片)推荐备注名称的方式完成备注,不但不利于用户对数量较多的联系人同时进行名称备注,同时手工进行名称备注的速率与准确度都影响了用户的使用体验,为此,人工智能技术(AI,Artificial Intelligence)提供了适当的文本处理进程的运行机制来支持上述应用的方案。其中,人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法和技术及应用系统人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能,在语音处理领域中,也就是通过利用数字计算机或者数字计算机控制的机器实现对自动化的对备注对象进行名称备注。
发明内容
有鉴于此,本发明实施例提供一种信息处理方法、装置、电子设备及存储介质,本发明实施例的技术方案是这样实现的:
本发明实施例提供了一种信息处理方法,包括:
获取与所述名称预测模型的使用环境相匹配的第一训练样本,其中,所述训练样本中包括相应目标用户的历史行为信息;
对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合;
通过所述名称预测模型对所述特征集合进行处理,以确定名称预测模型中的第一神经网络的初始参数和第二神经网络的初始参数;
响应于所述第一神经网络的初始参数和所述第二神经网络的初始参数,通过所述名称预测模型对所述特征集合进行处理,确定所述名称预测模型的不同神经网络对应的更新参数;
根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新,以实现通过所述名称预测模型确定与备注对象相匹配的备注名称。
上述方案中,所述基于所述备注对象的重合度,对所述不同社交网络中的备注对象的待备注名称进行过滤处理,包括:
确定所述备注对象的文本信息中的昵称信息、职位信息和姓名信息,并对所述昵称信息和所述职位信息进行过滤;
基于所述备注对象的重合度,确定与所述备注对象相对应的第一权重参数和第二权重参数;
基于所述备注对象相对应的第一权重参数和第二权重参数,对所述备注对象的文本信息中的姓名信息进行过滤与合并,以形成不同的待备注名称。
上述方案中,所述方法还包括:
将所述备注对象的标识信息及对应的备注名称发送至区块链网络,以使
所述区块链网络的节点将所述备注对象的标识信息及对应的备注名称填充至新区块,且当对所述新区块共识一致时,将所述新区块追加至区块链的尾部。
本发明实施例还提供了一种信息处理装置,所述装置包括:
信息传输模块,用于获取与所述名称预测模型的使用环境相匹配的第一训练样本,其中,所述训练样本中包括相应目标用户的历史行为信息;
训练模块,用于对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合;
所述训练模块,用于通过所述名称预测模型对所述特征集合进行处理,以确定名称预测模型中的第一神经网络的初始参数和第二神经网络的初始参数;
所述训练模块,用于响应于所述第一神经网络的初始参数和所述第二神经网络的初始参数,通过所述名称预测模型对所述特征集合进行处理,确定所述名称预测模型的不同神经网络对应的更新参数;
所述训练模块,用于根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新,以实现通过所述名称预测模型确定与备注对象相匹配的备注名称。
上述方案中,
所述传输模块,用于获取所述目标用户的日志信息;
所述传输模块,用于基于所述目标用户的日志信息,确定所述目标用户使用所述名称预测模型所推荐的备注名称作为正例样本;
所述传输模块,用于基于所述目标用户的日志信息,确定所述目标用户未使用所述名称预测模型所推荐的备注名称作为负例样本;
所述传输模块,用于基于所述正例样本和所述负例样本,确定与所述名称预测模型的使用环境相匹配的第一训练样本。
上述方案中,
所述训练模块,用于确定与所述名称预测模型的使用环境相匹配的动态噪声阈值;
所述训练模块,用于根据所述动态噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述动态噪声阈值相匹配的第二训练样本集合;
所述训练模块,用于提取与所述第二训练样本相匹配的词语级特征向量,并对所述不同的词语级特征向量进行除噪处理,形成与所待备注名称文本内容相对应的词语级特征向量集合,其中,所述与所待备注名称文本内容相对应的词语级特征向量集合包括所述待备注名称文本内容的数据来源。
上述方案中,
所述训练模块,用于确定与所述名称预测模型的使用环境相匹配的固定噪声阈值;
所述训练模块,用于根据所述固定噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述固定噪声阈值相匹配的第二训练样本集合;
所述训练模块,用于提取与所述第二训练样本相匹配的词语级特征向量,并对所述不同的词语级特征向量进行除噪处理,形成与所待备注名称文本内容相对应的词语级特征向量集合,其中,所述与所待备注名称文本内容相对应的词语级特征向量集合包括所述待备注名称文本内容的数据来源。
上述方案中,
所述训练模块,用于将所述特征集合中不同备注名称向量,代入由所述名称预测模型的第一神经网络的编码器和解码器构成的自编码网络对应的损失函数;
所述训练模块,用于确定所述损失函数满足第一收敛条件时对应所述第一神经网络的编码器的参数和相应的解码器参数作为所述第一神经网络的更新参数;
所述训练模块,用于将所述特征集合中不同语句样本,代入由所述名称预测模型的第二神经网络的编码器和解码器构成的自编码网络对应的损失函数;
所述训练模块,用于确定所述损失函数满足第二收敛条件时对应所述第二神经网络的编码器的参数和相应的解码器参数作为所述第二神经网络的更新参数。
上述方案中,
所述训练模块,用于确定与所述名称预测模型中不同神经网络相匹配的收敛条件;
所述训练模块,用于对所述第一神经网络的编码器参数和解码器参数进行迭代更新,直至所述第一神经网络的编码器和解码器构成的自编码网络对应的损失函数满足对应的收敛条件;
所述训练模块,用于对所述第二神经网络的编码器参数和解码器参数进行迭代更新,直至所述第二神经网络的编码器和解码器构成的自编码网络对应的损失函数满足对应的收敛条件。
上述方案中,所述装置还包括:
信息处理模块,用于确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度;
所述信息处理模块,用于基于所述备注对象的重合度,对所述不同社交网络中的备注对象的待备注名称进行过滤处理;
所述信息处理模块,用于响应于所述待备注名称的过滤处理结果,通过所述名称预测模型获取不同维度中的待备注名称,并将所述待备注名称转换为相应的文本特征向量;
所述信息处理模块,用于根据所述文本特征向量确定与所述文本内容所对应的至少一个词语级的隐变量;
所述信息处理模块,用于根据所述至少一个词语级的隐变量,生成与所述词语级的隐变量相对应的候选词语以及所述候选词语的被选取概率;
所述信息处理模块,用于根据所述候选词语的被选取概率,选取至少一个候选词语组成与当前社交网络中的备注对象相匹配的备注名称。
上述方案中,
所述信息处理模块,用于确定所述备注对象所对应的目标用户所对应的不同社交网络;
所述信息处理模块,用于对所述目标用户所对应的不同社交网络中的信息进行融合;
所述信息处理模块,用于基于经过融合的所述目标用户所对应的不同社交网络中的信息,确定所述备注对象在不同社交网络中的社交拓扑关系;
所述信息处理模块,用于确定所述备注对象所对应的目标用户的社交拓扑关系;
所述信息处理模块,用于基于所述备注对象在不同社交软件中的社交拓扑关系和所述目标用户的社交拓扑关系的重合比例,确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度。
上述方案中,
所述处理模块,用于基于所述目标用户在不同社交网络中的登录信息、注册信息、设备信息以及关系人网络相似度信息,确定所述不同社交网络所归属的用户;
所述处理模块,用于当确定所述不同社交网络所归属于同一目标用户时,对所述目标用户所对应的不同社交网络中的信息进行融合。
上述方案中,
所述处理模块,用于确定所述备注对象的文本信息中的昵称信息、职位信息和姓名信息,并对所述昵称信息和所述职位信息进行过滤;
所述处理模块,用于基于所述备注对象的重合度,确定与所述备注对象相对应的第一权重参数和第二权重参数;
所述处理模块,用于基于所述备注对象相对应的第一权重参数和第二权重参数,对所述备注对象的文本信息中的姓名信息进行过滤与合并,以形成不同的待备注名称。
上述方案中,
所述处理模块,用于根据所述名称预测模型所获取的不同维度中的待备注名称,对所述候选词语的被选取概率进行融合处理;
所述处理模块,用于根据所述候选词语的被选取概率的融合处理结果,选取至少一个候选词语组成所述备注对象相匹配的备注名称。
上述方案中,所述装置还包括:
显示模块,用于显示用户界面,所述用户界面中包括以第一人称视角对相应软件进程中的备注对象进行名称备注的视角画面,所述用户界面中还包括辅助信息控制组件;
所述显示模块,用于通过所述辅助信息控制组件,控制展示与所述备注对象相匹配的备注名称,以实现通过所述显示用户界面中选择与所述备注对象相匹配的备注名称。
上述方案中,
所述显示模块,用于当通过所述显示用户界面中选择与所述备注对象相匹配的备注名称完成时,触发所述辅助信息控制组件,以实现通过所述辅助信息控制组件对相应软件进程中的备注对象添加电子名片或图片。
上述方案中,
所述处理模块,用于将所述备注对象的标识信息及对应的备注名称发送至区块链网络,以使
所述区块链网络的节点将所述备注对象的标识信息及对应的备注名称填充至新区块,且当对所述新区块共识一致时,将所述新区块追加至区块链的尾部。
本发明实施例还提供了一种电子设备,所述电子设备包括:
存储器,用于存储可执行指令;
处理器,用于运行所述存储器存储的可执行指令时,实现前序的信息处理方法。
本发明实施例还提供了一种计算机可读存储介质,存储有可执行指令,其特征在于,所述可执行指令被处理器执行时实现前序的信息处理方法。
本发明实施例具有以下有益效果:
本发明实施例通过获取与所述名称预测模型的使用环境相匹配的第一训练样本,其中,所述训练样本中包括相应目标用户的历史行为信息;对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合;通过所述名称预测模型对所述特征集合进行处理,以确定名称预测模型中的第一神经网络的初始参数和第二神经网络的初始参数;响应于所述第一神经网络的初始参数和所述第二神经网络的初始参数,通过所述名称预测模型对所述特征集合进行处理,确定所述名称预测模型的不同神经网络对应的更新参数;根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新,以实现通过所述名称预测模型确定与备注对象相匹配的备注名称,由此,由此,使得名称预测模型的泛化能力更强,提升名称预测模型的训练精度与训练速度,同时使得名称预测模型能够适应不同的使用场景,避免环境噪声对名称预测模型的影响,使得名称预测模型能够产生高质量的备注名称,进而实现通过名称预测模型利用不同社交网络的信息融合产生并向用户推荐高质量的备注名称,用户可以直接使用所推荐的备注名称,减少了用户手工进行名称备注的繁琐过程,提升了名称备注的处理效率,也提升了名称备注的准确率。
附图说明
图1为本发明实施例提供的信息处理方法的使用场景示意图;
图2为本发明实施例提供的电子设备的组成结构示意图;、
图3为传统方案中生成用户备注名称的示意图;
图4为本发明实施例提供的信息处理方法一个可选的流程示意图;
图5为本发明实施例中第二神经网络一个可选的结构示意图;
图6为本发明实施例中第二神经网络一个可选的词语级机器阅读示意图;
图7为本发明实施例中第二神经网络中编码器一个可选的结构示意图;
图8为本发明实施例中第二神经网络中编码器的向量拼接示意图;
图9为本发明实施例中第二神经网络中编码器的编码过程示意图;
图10为本发明实施例中第二神经网络中解码器的解码过程示意图;
图11为本发明实施例中第二神经网络中解码器的解码过程示意图;
图12为本发明实施例中第二神经网络中解码器的解码过程示意图;
图13为本发明实施例中第二神经网络一个可选的备注名称机器阅读示意图;
图14为本发明实施例提供的信息处理方法一个可选的流程示意图;
图15是本发明实施例提供的信息处理装置100的架构示意图;
图16是本发明实施例提供的区块链网络200中区块链的结构示意图;
图17是本发明实施例提供的区块链网络200的功能架构示意图;
图18为本发明实施例中对不同社交网络中的不同联系人进行名称备注的应用环境示意图;
图19为本发明实施例中通过微信应用程序中显示备注名称的示意图;
图20为本发明实施例中通过企业微信微信应用程序中显示备注名称的示意图;
图21为本发明实施例中通过购物应用程序中显示备注名称的示意图;
图22为本发明实施例中通过即时通讯客户端的应用程序中显示备注名称的示意图;
图23为本发明实施例所提供的名称预测模型的工作过程示意图;
图24为本发明实施例中微信进程中目标用户的社交网络拓扑关系示意图;
图25为本发明实施例中名称预测模型一个可选的结构示意图;
图26为本发明实施例中名称预测模型中第二神经网络的结构示意图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明作进一步地详细描述,所描述的实施例不应视为对本发明的限制,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在以下的描述中,涉及到“一些实施例”,其描述了所有可能实施例的子集,但是可以理解,“一些实施例”可以是所有可能实施例的相同子集或不同子集,并且可以在不冲突的情况下相互结合。
对本发明实施例进行进一步详细说明之前,对本发明实施例中涉及的名词和术语进行说明,本发明实施例中涉及的名词和术语适用于如下的解释。
1)响应于,用于表示所执行的操作所依赖的条件或者状态,当满足所依赖的条件或状态时,所执行的一个或多个操作可以是实时的,也可以具有设定的延迟;在没有特别说明的情况下,所执行的多个操作不存在执行先后顺序的限制。
2)分词:又称切词,起作用为把一个完整的句子的文本信息切分成多个词,例如:刘德华是个中国歌手。分词后的结果为:刘德华、中国、歌手。
3)分词库:又称切词库,指一种特定的分词方法,不同的分词库各自对应的单词字典,并可以根据各自对应的单词字典对相应的文本信息进行分词处理。
4)模型训练,对图像数据集进行多分类学习。该模型可采用TensorFlow、torch等深度学习框架进行构建,使用CNN等神经网络层的多层结合组成多分类模型。模型的输入为图像经过openCV等工具读取形成的三通道或原通道矩阵,模型输出为多分类概率,通过softmax等算法最终输出网页类别。在训练时,模型通过交叉熵等目标函数向正确趋势逼近。
5)交易(Transaction),等同于计算机术语“事务”,交易包括了需要提交到区块链网络执行的操作,并非单指商业语境中的交易,鉴于在区块链技术中约定俗成地使用了“交易”这一术语,本发明实施例遵循了这一习惯。
6)区块链(Blockchain),是由区块(Block)形成的加密的、链式的交易的存储结构。
7)区块链网络(Blockchain Network),通过共识的方式将新区块纳入区块链的一系列的节点的集合。
8)账本(Ledger),是区块链(也称为账本数据)和与区块链同步的状态数据库的统称。
9)智能合约(Smart Contracts),也称为链码(Chaincode)或应用代码,部署在区块链网络的节点中的程序,节点执行接收的交易中所调用的智能合约,来对状态数据库的键值对数据进行更新或查询的操作。
10)共识(Consensus),是区块链网络中的一个过程,用于在涉及的多个节点之间对区块中的交易达成一致,达成一致的区块将被追加到区块链的尾部,实现共识的机制包括工作量证明(PoW,Proof of Work)、权益证明(PoS,Proof of Stake)、股份授权证明(DPoS,Delegated Proof-of-Stake)、消逝时间量证明(PoET,Proof of Elapsed Time)等。
11)卷积神经网络(CNN Convolutional Neural Networks)是一类包含卷积计算且具有深度结构的前馈神经网络(Feed forward Neural Networks),是深度学习(deeplearning)的代表算法之一。卷积神经网络具有表征学习(representation learning)能力,能够按其阶层结构对输入信息进行平移不变分类(shift-invariantclassification)。
12)token:词单元,对输入文本做任何实际处理前,都需要将其分割成诸如词、标点符号、数字或纯字母数字等语言单元。这些单元被称为词单元。
13)Soft max:归一化指数函数,是逻辑函数的一种推广。它能将一个含任意实数的K维向量“压缩”到另一个K维实向量中,使得每一个元素的范围都在[0,1]之间,并且所有元素的和为1。
14)编码器-解码器结构:机器翻译技术常用的网络结构。由编码器和解码器两部分组成,编码器将输入的文本转换为一系列能够表达输入文本特征的上下文向量,解码器接收编码器输出的结果作为自己的输入,输出对应的另一种语言的文本序列。
15)双向注意力神经网络模(BERT Bidirectional Encoder Representationsfrom Transformers)谷歌提出的双向注意力神经网络模型。
图1为本发明实施例提供的信息处理方法的使用场景示意图,参见图1,终端(包括终端10-1和终端10-2)上设置有能够执行不同功能相应客户端其中,所属客户端为终端(包括终端10-1和终端10-2)通过网络300从相应的服务器200中获取不同的备注对象进行浏览与名称备注,终端通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合,使用无线链路实现数据传输,其中,终端(包括终端10-1和终端10-2)通过网络300从相应的服务器200中所获取的文本信息类型并不相同,例如:终端(包括终端10-1和终端10-2)既可以通过网络300从相应的服务器200中获取任意类型的社交软件中的不同备注对象,也可以通过网络300从相应的服务器200中获取仅与相应名称预测模型检相匹配的备注对象进行浏览。服务器200中可以保存有通过不同分词库进行分词处理的文本信息或者相应的倒排索引。在本发明的一些实施例中,服务器200中所保存的不同目标对象可以是在不同编程语言的软件代码环境中所编写的,代码对象可以是不同类型的代码实体。例如,在C语言的软件代码中,一个代码对象可以是一个函数。在JAVA语言的软件代码中,一个代码对象可以是一个类,IOS端OC语言中可以是一段目标代码。在C++语言的软件代码中,一个代码对象可以是一个类或一个函数以执行来自于不同终端的文本处理指令。其中本申请中不再对名称预测模型所要处理的文本信息的来源进行区分。
服务器200通过网络300向终端(终端10-1和/或终端10-2)发送不同目标对象的过程中服务器200需要确定用户所选取的文本信备注名称进行监控,因此。作为一个事例,服务器200用于确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度;基于所述备注对象的重合度,对所述不同社交网络中的备注对象的待备注名称进行过滤处理;响应于所述待备注名称的过滤处理结果,通过所述名称预测模型获取不同维度中的待备注名称,并将所述待备注名称转换为相应的文本特征向量;根据所述文本特征向量确定与所述文本内容所对应的至少一个词语级的隐变量;根据所述至少一个词语级的隐变量,生成与所述词语级的隐变量相对应的候选词语以及所述候选词语的被选取概率;根据所述候选词语的被选取概率,选取至少一个候选词语组成与当前社交网络中的备注对象相匹配的备注名称,由此,可以实现通过名称预测模型能够产生并向用户推荐高质量的备注名称,用户可以直接使用所推荐的备注名称,减少了用户手工进行名称备注的繁琐过程,提升了名称备注的处理效率,也提升了名称备注的准确率,便于用户根据不同的备注信息执行性后续的不同操作。当然在使用之前还需要对名称预测模型进行训练具体包括:获取与所述名称预测模型的使用环境相匹配的第一训练样本,其中,所述训练样本中包括相应目标用户的历史行为信息;对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合;通过所述名称预测模型对所述特征集合进行处理,以确定名称预测模型中的第一神经网络的初始参数和第二神经网络的初始参数;响应于所述第一神经网络的初始参数和所述第二神经网络的初始参数,通过所述名称预测模型对所述特征集合进行处理,确定所述名称预测模型的不同神经网络对应的更新参数;根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新,以实现通过所述名称预测模型确定与备注对象相匹配的备注名称。
下面对本发明实施例的电子设备的结构做详细说明,电子设备可以各种形式来实施,如运行名称预测模型以实现信息处理功能的专用终端,也可以为运行名称预测模型以实现信息处理功能的电子设备,例如前述图1中的服务器200。图2为本发明实施例提供的电子设备的组成结构示意图,可以理解,图2仅仅示出了电子设备的示例性结构而非全部结构,根据需要可以实施图2示出的部分结构或全部结构。
本发明实施例提供的电子设备20包括:至少一个处理器201、存储器202、用户接口203和至少一个网络接口204。电子设备20中的各个组件通过总线系统205耦合在一起。可以理解,总线系统205用于实现这些组件之间的连接通信。总线系统205除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图2中将各种总线都标为总线系统205。
其中,用户接口203可以包括显示器、键盘、鼠标、轨迹球、点击轮、按键、按钮、触感板或者触摸屏等。
可以理解,存储器202可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。本发明实施例中的存储器202能够存储数据以支持终端(如10-1)的操作。这些数据的示例包括:用于在终端(如10-1)上操作的任何计算机程序,如操作系统和应用程序。其中,操作系统包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序可以包含各种应用程序。
在一些实施例中,本发明实施例提供的名称预测模型可以采用软硬件结合的方式实现,作为示例,本发明实施例提供的名称预测模型可以是采用硬件译码处理器形式的处理器,其被编程以执行本发明实施例提供的信息处理方法。例如,硬件译码处理器形式的处理器可以采用一个或多个应用专用集成电路(ASIC,Application Specific IntegratedCircuit)、DSP、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,Complex Programmable Logic Device)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)或其他电子元件。
作为本发明实施例提供的名称预测模型采用软硬件结合实施的示例,本发明实施例所提供的名称预测模型可以直接体现为由处理器201执行的软件模块组合,软件模块可以位于存储介质中,存储介质位于存储器202,处理器201读取存储器202中软件模块包括的可执行指令,结合必要的硬件(例如,包括处理器201以及连接到总线205的其他组件)完成本发明实施例提供的信息处理方法。
作为示例,处理器201可以是一种集成电路芯片,具有信号的处理能力,例如通用处理器、数字信号处理器(DSP,Digital Signal Processor),或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等,其中,通用处理器可以是微处理器或者任何常规的处理器等。
作为本发明实施例提供的名称预测模型采用硬件实施的示例,本发明实施例所提供的装置可以直接采用硬件译码处理器形式的处理器201来执行完成,例如,被一个或多个应用专用集成电路(ASIC,Application Specific Integrated Circuit)、DSP、可编程逻辑器件(PLD,Programmable Logic Device)、复杂可编程逻辑器件(CPLD,ComplexProgrammable Logic Device)、现场可编程门阵列(FPGA,Field-Programmable GateArray)或其他电子元件执行实现本发明实施例提供的信息处理方法。
本发明实施例中的存储器202用于存储各种类型的数据以支持电子设备20的操作。这些数据的示例包括:用于在电子设备20上操作的任何可执行指令,如可执行指令,实现本发明实施例的从信息处理方法的程序可以包含在可执行指令中。
在另一些实施例中,本发明实施例提供的名称预测模型可以采用软件方式实现,图2示出了存储在存储器202中的名称预测模型2020,其可以是程序和插件等形式的软件,并包括一系列的模块,作为存储器202中存储的程序的示例,可以包括名称预测模型2020,名称预测模型2020中包括以下的软件模块:信息传输模块2081,训练模块2082。当名称预测模型2020中的软件模块被处理器201读取到RAM中并执行时,将实现本发明实施例提供的信息处理方法,下面对名称预测模型2020中各个软件模块的功能进行介绍:
信息传输模块2081,用于获取与所述名称预测模型的使用环境相匹配的第一训练样本,其中,所述训练样本中包括相应目标用户的历史行为信息;
训练模块2082,用于对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合;
所述训练模块2082,用于通过所述名称预测模型对所述特征集合进行处理,以确定名称预测模型中的第一神经网络的初始参数和第二神经网络的初始参数;
所述训练模块2082,用于响应于所述第一神经网络的初始参数和所述第二神经网络的初始参数,通过所述名称预测模型对所述特征集合进行处理,确定所述名称预测模型的不同神经网络对应的更新参数;
所述训练模块2082,用于根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新,以实现通过所述名称预测模型确定与备注对象相匹配的备注名称。
结合图2示出的电子设备说明本发明实施例提供的信息处理方法,在介绍本发明实施例提供的信息处理方法之前,首先介绍本申请中通过传统的神经网络模型确定用户的备注名称的过程中,图3为传统方案中生成用户备注名称的示意图,其中,eq2seq模型是以编码器(Encode)和解码器(Decode)为代表的架构方式,seq2seq模型是根据输入序列X来生成输出序列Y。编码器(Encode)和解码器(Decode)为代表的seq2seq模型中,编码器(Encode)是将输入序列转化成一个固定长度的向量,解码器(Decode)将输入的固定长度向量解码成输出序列。如图3所示,编码器(Encoder)对输入的待处理语句进行编码,得到待处理语句的文本特征;解码器(Decoder)对文本特征进行解码后输出生成相应的文本处理结果,其中,编码器(Encode)和解码器(Decode)是一一对应的。
可见,对于图3所示的相关技术来说基于Seq2Seq模型的名称预测模型模型的缺点在于,相关技术中的模型本身只对训练数据目标文本y建立一对一的关系,很多实际场景中,同一个用户的备注名称根据职务以及不同的社会关系,其文本内容可以有很多种分词方式,现有的Seq2Seq模型由于编码器(Encode)和解码器(Decode)是一一对应的,并不能够有效对复杂的备注名称进行处理,同时很容易受到噪声信息的干扰,触发无用的识别或选择,用户体验差,同时,名称预测模型的训练与使用过程中需要获取用户的聊天消息,而有些场景下,用户的聊天消息有一定的保密性,一定程度上对系统不能完全使用这部分信息,使用的话可能会引起侵犯隐私的问题,如果用户认为隐私信息泄露,也会引起不良影响。
为解决这一相关技术中的缺陷,结合图2示出的电子设备20说明本发明实施例提供的信息处理方法,参见图4,图4为本发明实施例提供的信息处理方法一个可选的流程示意图,可以理解地,图4所示的步骤可以由运行名称预测模型的各种电子设备执行,例如可以是如带有用户名称备注功能的专用终端、电子设备或者电子设备集群,通过完成训练的名称预测模型向用户推荐备注用户的备注名称使用。下面针对图4示出的步骤进行说明。
步骤401:信息处理装置获取与所述名称预测模型的使用环境相匹配的第一训练样本。
其中,所述训练样本中包括相应目标用户的历史行为信息。其中,所述训练样本中包括相应目标用户的历史行为信息,具体来说,可以获取所述目标用户的日志信息;基于所述目标用户的日志信息,确定所述目标用户使用所述名称预测模型所推荐的备注名称作为正例样本;基于所述目标用户的日志信息,确定所述目标用户未使用所述名称预测模型所推荐的备注名称作为负例样本;基于所述正例样本和所述负例样本,确定与所述名称预测模型的使用环境相匹配的训练样本。
步骤402:信息处理装置对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合。
在本发明的一些实施例中,对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合,可以通过以下方式实现:
确定与所述名称预测模型的使用环境相匹配的动态噪声阈值;根据所述动态噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述动态噪声阈值相匹配的第二训练样本集合;提取与所述第二训练样本相匹配的词语级特征向量,并对所述不同的词语级特征向量进行除噪处理,形成与所待备注名称文本内容相对应的词语级特征向量集合,其中,所述与所待备注名称文本内容相对应的词语级特征向量集合包括所述待备注名称文本内容的数据来源。其中,由于名称预测模型的使用环境不同,与所述名称预测模型的使用环境相匹配的动态噪声阈值也不相同,例如,企业微信或者办公通讯客户端的使用环境中,终端所显示的待备注名称的文本内容仅包括了职务以及备注用户姓名信息的文本信息内容与所述名称预测模型的使用环境相匹配的动态噪声阈值需要小于个人微信或者短视频娱乐客户端环境中的动态噪声阈值。
在本发明的一些实施例中,对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合,可以通过以下方式实现:
确定与所述名称预测模型的使用环境相匹配的固定噪声阈值;根据所述固定噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述固定噪声阈值相匹配的第二训练样本集合;提取与所述第二训练样本相匹配的词语级特征向量,并对所述不同的词语级特征向量进行除噪处理,形成与所待备注名称文本内容相对应的词语级特征向量集合,其中,所述与所待备注名称文本内容相对应的词语级特征向量集合包括所述待备注名称文本内容的数据来源。其中,当名称预测模型固化于相应的硬件机构中,例如与不同目标对象进行通信的游戏终端中时,使用环境为游戏环境(包括网络游戏或者微信中的小程序游戏)中的备注对象时,由于噪声较为单一,通过固定名称预测模型相对应的固定噪声阈值,能够有效提升名称预测模型的处理速度,减少用户的等待时间,提升用户的使用体验。
步骤403:信息处理装置通过所述名称预测模型对所述特征集合进行处理,以确定名称预测模型中的第一神经网络的初始参数和第二神经网络的初始参数。
步骤404:信息处理装置响应于所述第一神经网络的初始参数和所述第二神经网络的初始参数,通过所述名称预测模型对所述特征集合进行处理,确定所述名称预测模型的不同神经网络对应的更新参数。
由于训练样本来源于不同的数据源,数据源中包括各类型应用场景的数据作为相应的训练本的数据来源,例如,本发明所提供的名称预测模型可以作为软件模块封装于车载电子设备中,也可以封装于不同的智能家居(包括但不限于:音箱、电视、冰箱、空调、洗衣机、灶具),当然也可以固化于智能机器人的硬件设备中,针对这些名称预测模型的不同使用场景,可以使用相对应的训练样本对名称预测模型进行针对性性的训练。
在本发明的一些实施例中,确定所述名称预测模型的不同神经网络对应的更新参数,可以通过以下方式实现:
将所述特征集合中不同备注名称向量,代入由所述名称预测模型的第一神经网络的编码器和解码器构成的自编码网络对应的损失函数;确定所述损失函数满足第一收敛条件时对应所述第一神经网络的编码器的参数和相应的解码器参数作为所述第一神经网络的更新参数;将所述特征集合中不同语句样本,代入由所述名称预测模型的第二神经网络的编码器和解码器构成的自编码网络对应的损失函数;确定所述损失函数满足第二收敛条件时对应所述第二神经网络的编码器的参数和相应的解码器参数作为所述第二神经网络的更新参数。
其中,本申请所提供的文本处理模型包括:第一神经网络的初始和第二神经网络,其中,第一神经网络可以为结构化CNN网络,第二神经网络可以为双向注意力神经网络模型(BERT Bidirectional Encoder Representations from Transformers)。
继续参考图5,图5为本发明实施例中第二神经网络一个可选的结构示意图,其中,Encoder包括:N=6个相同的layers组成,每一层包含两个sub-layers。第一个sub-layer就是多头注意力层(multi-head attention layer)然后是一个简单的全连接层。其中每个sub-layer都加了残差连接(residual connection)和归一化(norma lisation)。
Decoder包括:由N=6个相同的Layer组成,其中layer和encoder并不相同,这里的layer包含了三个sub-layers,其中有一个self-attention layer,encoder-decoderattention layer最后是一个全连接层。前两个sub-layer都是基于multi-head attentionlayer。
继续参考图6,图6为本发明实施例中第二神经网络一个可选的词语级机器阅读示意图,其中,encoder和decoder部分都包含了6个encoder和decoder。进入到第一个encoder的inputs结合embedding和positional embedding。通过了6个encoder之后,输出到了decoder部分的每一个decoder中;输入目标为不同来源的备注名称“希尔顿酒店经理张三,大楼物业主管李四”经过第二神经网络的处理,输出的机器阅读示结果为向量级别的:“张三、李四”。
继续参考图7,图7为本发明实施例中第二神经网络中编码器一个可选的结构示意图,其中,其输入由维度为d的查询(Q)和键(K)以及维度为d的值(V)组成,所有键计算查询的点积,并应用softmax函数获得值的权重。
继续参考图7,图7中示出了本发明实施例中第二神经网络中编码器的向量示意,其中Q,K和V的是通过输入encoder的向量x与W^Q,W^K,W^V相乘得到Q,K和V。W^Q,W^K,W^V在文章的维度是(512,64),然后假设我们inputs的维度是(m,512),其中m代表了字的个数。所以输入向量与W^Q,W^K,W^V相乘之后得到的Q、K和V的维度就是(m,64)。
继续参考图8,图8为本发明实施例中第二神经网络中编码器的向量拼接示意图,其中,Z0到Z7就是对应的8个并行的head(维度是(m,64)),然后concat这个8个head之后就得到了(m,512)维度。最后与W^O相乘之后就到了维度为(m,512)的输出的矩阵,那么这个矩阵的维度就和进入下一个encoder的维度保持一致。
继续参考图9,图9为本发明实施例中第二神经网络中编码器的编码过程示意图,其中,x1经过self-attention到了z1的状态,通过了self-attetion的张量还需要进过残差网络和Later Norm的处理,然后进入到全连接的前馈网络中,前馈网络需要进行同样的操作,进行的残差处理和正规化。最后输出的张量才可以的进入到了下一个encoder之中,然后这样的操作,迭代经过了6次,迭代处理的结果进入到decoder中。
继续参考图10,图10为本发明实施例中第二神经网络中解码器的解码过程示意图,其中,decoder的输入输出和解码过程:
输出:对应i位置的输出词的概率分布;
输入:encoder的输出&对应i-1位置decoder的输出。所以中间的attention不是self-attention,它的K,V来自encoder,Q来自上一位置decoder的输出。
继续参考图11和图12,图11为本发明实施例中第二神经网络中解码器的解码过程示意图,其中,解码器网络的最后一个decoder输出的向量会经过Linear层和softmax层。图12为本发明实施例中第二神经网络中解码器的解码过程示意图,Linear层的作用就是对decoder部分出来的向量做映射成一个logits向量,然后softmax层根据这个logits向量,将其转换为了概率值,最后找到概率最大值的位置,即完成了解码器的输出。
在本发明的一些实施例中,第二神经网络可以为双向注意力神经网络模(BERTBidirectional Encoder Representations from Transformers)。继续参考图5,图5为本发明实施例中第二神经网络一个可选的结构示意图,其中,Encoder包括:N=6个相同的layers组成,每一层包含两个sub-layers。第一个sub-layer就是多头注意力层(multi-head attention layer)然后是一个简单的全连接层。其中每个sub-layer都加了残差连接(residual connection)和归一化(normalisation)。
Decoder包括:由N=6个相同的Layer组成,其中layer和encoder并不相同,这里的layer包含了三个sub-layers,其中有一个self-attention layer,encoder-decoderattention layer最后是一个全连接层。前两个sub-layer都是基于multi-head attentionlayer。
继续参考图13,图13为本发明实施例中第二神经网络一个可选的备注名称机器阅读示意图,其中,其中,encoder和decoder部分都包含了6个encoder和decoder。进入到第一个encoder的inputs结合embedding和positional embedding。通过了6个encoder之后,输出到了decoder部分的每一个decoder中;输入目标为英语“Martin,Hilton HotelManager;EVA,office property manager”经过第二神经网络的处理,输出的机器阅读示结果为:“Martin,EVA”。
当然,本发明中的BERT模型也使用前向神经网络模型(Bi-LSTM Bi-directionalLong Short-Term Memory)、门控循环单元网络模型(GRU Gated Recurrent Unit)模型、深度语境化词表征网络模型(ELMo embedding from language model)、GPT模型、GPT2模型代替,对此,本发明不再赘述。
步骤405:信息处理装置根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新。
由此,可以实现通过所述名称预测模型确定与备注对象相匹配的备注名称。
在本发明的一些实施例中,根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新,可以通过以下方式实现:
确定与所述名称预测模型中不同神经网络相匹配的收敛条件;对所述第一神经网络的编码器参数和解码器参数进行迭代更新,直至所述第一神经网络的编码器和解码器构成的自编码网络对应的损失函数满足对应的收敛条件;对所述第二神经网络的编码器参数和解码器参数进行迭代更新,直至所述第二神经网络的编码器和解码器构成的自编码网络对应的损失函数满足对应的收敛条件。
当名称预测模型训练完成之后,结合图2示出的电子设备20说明本发明实施例提供的基于名称预测模型的信息处理方法,参见图14,图14为本发明实施例提供的信息处理方法一个可选的流程示意图,可以理解地,图14所示的步骤可以由运行名称预测模型的各种电子设备执行,例如可以是如带有用户名称备注功能的专用终端、电子设备或者电子设备集群。下面针对图14示出的步骤进行说明。
步骤1401:确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度。
其中,社交网络中可能存在的跨软件级别的信息(例如微信与企业微信之间,微信与短视频功能软件之间、微信与购物功能的软件之间)。上述涉及两个或者多个同类型的社交网络数据的融合,目标用户可能与同一个联系人在不同的社交软件中均建立的联系。因此,通过确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度,可以更加准确地向目标用户推荐相应的备注对象的备注名称,提升备注名称的准确度。
在本发明的一些实施例中,确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度;,可以通过以下方式实现:
确定所述备注对象所对应的目标用户所对应的不同社交网络;对所述目标用户所对应的不同社交网络中的信息进行融合;基于经过融合的所述目标用户所对应的不同社交网络中的信息,确定所述备注对象在不同社交网络中的社交拓扑关系;确定所述备注对象所对应的目标用户的社交拓扑关系;基于所述备注对象在不同社交软件中的社交拓扑关系和所述目标用户的社交拓扑关系的重合比例,确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度。其中,相关的社交功能和通信功能的软件(如:微信、QQ、微博)都有对用户加备注的功能,其中每个好友会有一个自定义的用户名,但在别人的通讯录/好友列表中,别人会对这个好友加一个备注名,这个备注名往往是好友的真名/昵称/社会身份+真名等(如:张三、老张、环保局张科长、环保局老张)。通常情况下,该备注是由用户自己编辑的,传统技术中,在通过社交软件产品对联系人进行备注的时候,仅能够由用户手动输入备注名称,或者通过群昵称(群名片)推荐备注名称的方式完成备注,不但不利于用户对数量较多的联系人同时进行名称备注,同时手工进行名称备注的速率与准确度都影响了用户的使用体验。因此,备注对象在不同社交软件中的社交拓扑关系和所述目标用户的社交拓扑关系的重合比例,能够有效推断出备注对象在其好友(联系人)的社交软件中的备注名称,作为相应的待备注名称。
进一步地,由于目标用户所使用的社交网络的类型多种多样,同一目标用户所持有的电子设备可能也不止一个(例如同一个目标用户地手机登录微信,笔记本电脑登录购物软件,iPad登录短视频软件)基于所述目标用户在不同社交网络中的登录信息、注册信息、设备信息以及关系人网络相似度信息,确定所述不同社交网络所归属的用户;当确定所述不同社交网络所归属于同一目标用户时,对所述目标用户所对应的不同社交网络中的信息进行融合,可以保证信息的全面性。
步骤1402:基于所述备注对象的重合度,对所述不同社交网络中的备注对象的待备注名称进行过滤处理。
其中,可以通过确定所述备注对象的文本信息中的昵称信息、职位信息和姓名信息,并对所述昵称信息和所述职位信息进行过滤。
具体来说,在对备注对象进行名称备注的过程中,不同的目标用户的备注习惯并不完全一致,具体来说通常会使用昵称加职位加姓名的备注方式进行备注,或者使用姓名加职位信息的方式进行备注,以及职位信息加姓名的方式进行备注,通过对所述昵称信息和所述职位信息进行过滤,可以有效获取备注名称可能对应的所有姓名信息,以保证向用户所推荐的备注名称中姓名信息的准确性。之后基于所述备注对象的重合度,确定与所述备注对象相对应的第一权重参数。其中,确定备注用户的真实的姓名信息时,需要对不同用户中的备注用户的备注名称进行统计,通过备注对象的重合度确定备注对象相对应的第一权重参数,可以对不同用户进行加权平均处理,能够更加准确地确定备注对象的真实姓名信息。
进一步地,基于所述备注对象的重合度,确定与所述备注对象相对应的第二权重参数。其中,确定备注用户的真实的职务(社会关系)信息时,需要对不同用户中的备注对象的备注名称进行统计,通过备注对象的重合度确定备注对象相对应的第二权重参数,可以对不同用户进行加权平均处理,能够更加准确地确定备注对象的职务信息,使得向用户推荐的备注名称中包含相应的职务信息,便于用户的后期查询与检索。
最后基于所述备注对象相对应的第一权重参数和第二权重参数,对所述备注对象的文本信息中的姓名信息进行过滤与合并,以形成不同的待备注名称。其中,采取统计+模板过滤的方式,对备注名进行筛选过滤。通过步骤504可以从众多好友的好友对好友的备注中,筛选出两个重要信息,即用户的真实姓名和用户的身份。例如,好友的备注是:张三、老张、环保局张科长、环保局老张,最终的目标是预测出“环保局张三”。其中“环保局”是身份(机构),张三是真名。
步骤1403:响应于所述待备注名称的过滤处理结果,通过所述名称预测模型获取不同维度中的待备注名称,并将所述待备注名称转换为相应的文本特征向量。
在本发明的一些实施例中,响应于所述待备注名称的过滤处理结果,通过所述名称预测模型获取不同维度中的待备注名称,并将所述待备注名称转换为相应的文本特征向量,可以通过以下方式实现:
根据所述待备注名称所携带的文本参数信息,触发相应的分词库;通过所触发的所述分词库单词词典对所待备注名称的文本内容进行分词处理,形成不同的词语级特征向量;对所述不同的词语级特征向量进行除噪处理,形成与所待备注名称文本内容相对应的词语级特征向量集合。其中,其中,所谓分词,即有动词含义也有名词含义;每个分词就是一个单词或者词组,即有确定意义的最小语义单元;对于所接收的不同的用户或者不同的名称预测模型的使用环境,其需要划分其中包含的最小语义单位也是不同的,需要及时地做出调整,这一过程叫做分词,即分词可以指上述划分最小语义单位的过程;另一方面,划分后获得的最小语义单位,也常常被称为分词,即分词这个操作执行后获得的单词;有时为了将两个意思相互区别,将后一个意思所指称的最小语义单位称为分词对象(Term);本申请中即使用分词对象这个称呼;分词对象对应于倒排表中作为索引依据的关键词。对于汉语而言,由于作为最小语义单位的词往往是由不同数量的字组成的,词之间不存在空白隔断等拼音文字中天然的区分标志,因此,对于汉语而言,准确进行分词以获得合理的分词对象是一个重要的步骤。
其中,结合前序步骤,不同用户的终端设备(例如前序图1所示的终端10-1和/或终端10-2)可以在各自对应社交软件的显示界面上(例如网页、专用APP和微信的小程序的显示界面)提供与备注用户相对应的备注名称信息,当目标用户触发相应的进程实现对备注用户进行备注名称的标注时,触发该服务器启动相应的分词指令,该分词指令携带所述文本内容所携带的文本参数信息,以触发与文本内容相匹配的分词库,该服务器接收该分词指令,以执行相应的操作形成不同的词语级特征向量。或者,该终端设备在触摸屏显示界面上显示不同的文本信息时,当检测到对文本信息的点击操作时,该终端设备向该服务器发送该分词指令,该分词指令携带该与当前用户相匹配的分词库(分词库携带有相应的用户标识符),该服务器接收该分词指令,以执行相应的操作形成不同的词语级特征向量。需要说明的是本发明实施例对该分词指令的触发方式不做限定。
在本发明的一些实施例中,不同的用户的语言习惯与操作习惯并不相同,对于不同的用户需要调整不同的分词方式,以适配不同用户的语言习惯。尤其是对于汉语而言,以汉字为基础表意单位,而真正具有含义的最小语义单位则是词;由于词与词之间并没有像英语单词之间的空格作为分割,因此,一句文本中,哪些字组成词并不确定,因此,对汉语文本进行分词就是一个重要的工作。并且,对于文本处理指令文本,其中包含一些仅仅对自然语言理解有价值的东西,而对名称预测模型而言,要查询到相关内容,必须确定哪些是真正有价值的检索依据,因此,通过前序步骤能够形成与文本处理指令文本相对应的词语级特征向量集合,避免词语级特征向量集合出现无意义的词语级特征向量,例如“的”、“地”和“得”。
步骤1404:根据所述文本特征向量确定与所述文本内容所对应的至少一个词语级的隐变量。
在本发明的一些实施例中,提取与所述文本内容相匹配的特征向量,可以通过以下方式实现:
对所述待备注名称对应的文本内容进行分词处理,形成分词处理结果;响应于所述分词处理结果,对所述文本内容进行去停用词处理,以形成与所述文本内容相匹配的文本关键词;根据所述文本内容相匹配的文本关键词,确定与所述文本内容相匹配的词性标注结果,并形成与所述文本内容相对应的词性特征向量集合。其中,由于名称预测模型所处理的文本不仅包括单一语种的文本信息还可能是多语种的复杂文本信息(例如作为文本信息的中英文混合待备注名称),其中,与英文直接将空格作为词之间的间隔不同,对于中文文本,相应的需要对中文文本进行分词,因为在汉语里面词语才能包含完整的信息。相应的可以使用中文分词工具Jieba对中文文本进行分词。另外,相应的需要对分词后的关键词集合去停用词处理,因为类似“是的”,“可以”这类词语对于相应的名称标注任务没有信息帮助。比如对于文本“张三,希尔顿饭店经理”,分词,去停用词得到“张三/经理/希尔顿饭店”(使用/作为分隔符,以下相同)两个关键词组成的集合,由此,能够有效提升名称预测模型的处理速度。
步骤1405:根据所述至少一个词语级的隐变量,生成与所述词语级的隐变量相对应的候选词语以及所述候选词语的被选取概率。
在本发明的一些实施例中,根据所述候选词语的被选取概率,选取至少一个候选词语组成与当前社交网络中的备注对象相匹配的备注名称,可以通过以下方式实现:
根据所述名称预测模型所获取的不同维度中的待备注名称,对所述候选词语的被选取概率进行融合处理;根据所述候选词语的被选取概率的融合处理结果,选取至少一个候选词语组成所述备注对象相匹配的备注名称。
其中,需要说明的是,针对短视频应用进程中的备注对象或者游戏进程中的备注对象进行名称备注处理时,本发明中与文本内容相匹配的文本信息的全局词性是指待描述待备注名称的文本内容的自然语言描述信息所对应的各个词性,全局词性向量即为各个词性组合的向量,全局词性向量特征即为各个词性组合的向量的特征。其中,词性是字、词、词组或单词的一种属性,各种语言都会定义有多种词性。作为示例地,中文包括但不限于名词、动词、形容词、量词、副词、介词等词性;英语包括但不限于noun(名词)、verb(动词)、gerund(动名词)、adjective(形容词)、adverb(副词)、article(冠词)、preposition(介词)等词性;在其他语言中,也可能包括其他类型的词性,在此不再赘述。而词性向量是相对于自然语言描述的字符较多的待备注名称的文本内容而言的,通常字符较多的待备注名称的文本内容是由两个或多个词组成的,词性向量特征即为字符较多的待备注名称的文本内容中的各个词的词性特征的组合。
步骤1406:根据所述候选词语的被选取概率,选取至少一个候选词语组成与当前社交网络中的备注对象相匹配的备注名称。
参见图15,图15是本发明实施例提供的信息处理装置100的架构示意图,包括区块链网络200(示例性示出了共识节点210-1至共识节点210-3)、认证中心300、业务主体400和业务主体500,下面分别进行说明。
区块链网络200的类型是灵活多样的,例如可以为公有链、私有链或联盟链中的任意一种。以公有链为例,任何业务主体的电子设备例如用户终端和服务器,都可以在不需要授权的情况下接入区块链网络200;以联盟链为例,业务主体在获得授权后其下辖的电子设备(例如终端/服务器)可以接入区块链网络200,此时,成为区块链网络200中的客户端节点。
在一些实施例中,客户端节点可以只作为区块链网络200的观察者,即提供支持业务主体发起交易(例如,用于上链存储数据或查询链上数据)功能,对于区块链网络200的共识节点210的功能,例如排序功能、共识服务和账本功能等,客户端节点可以缺省或者有选择性(例如,取决于业务主体的具体业务需求)地实施。从而,可以将业务主体的数据和业务处理逻辑最大程度迁移到区块链网络200中,通过区块链网络200实现数据和业务处理过程的可信和可追溯。
区块链网络200中的共识节点接收来自不同业务主体(例如图15中示出的业务主体400和业务主体500)的客户端节点(例如,图15中示出的归属于业务主体400的客户端节点410、以及归属于业务主体500的客户端节点510)提交的交易,执行交易以更新账本或者查询账本,执行交易的各种中间结果或最终结果可以返回业务主体的客户端节点中显示。
例如,客户端节点410/510可以订阅区块链网络200中感兴趣的事件,例如区块链网络200中特定的组织/通道中发生的交易,由共识节点210推送相应的交易通知到客户端节点410/510,从而触发客户端节点410/510中相应的业务逻辑。
下面以多个业务主体接入区块链网络以实现文本信息的管理与处理为例,说明区块链网络的示例性应用。
参见图15,管理环节涉及的多个业务主体,如业务主体400可以是基于人工智能的信息处理装置,业务主体500可以是带有文本显示(操作)功能的显示系统,从认证中心300进行登记注册获得各自的数字证书,数字证书中包括业务主体的公钥、以及认证中心300对业务主体的公钥和身份信息签署的数字签名,用来与业务主体针对交易的数字签名一起附加到交易中,并被发送到区块链网络,以供区块链网络从交易中取出数字证书和签名,验证消息的可靠性(即是否未经篡改)和发送消息的业务主体的身份信息,区块链网络会根据身份进行验证,例如是否具有发起交易的权限。业务主体下辖的电子设备(例如终端或者服务器)运行的客户端都可以向区块链网络200请求接入而成为客户端节点。
业务主体400的客户端节点410用于确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度;基于所述备注对象的重合度,对所述不同社交网络中的备注对象的待备注名称进行过滤处理;响应于所述待备注名称的过滤处理结果,通过所述名称预测模型获取不同维度中的待备注名称,并将所述待备注名称转换为相应的文本特征向量;根据所述文本特征向量确定与所述文本内容所对应的至少一个词语级的隐变量;根据所述至少一个词语级的隐变量,生成与所述词语级的隐变量相对应的候选词语以及所述候选词语的被选取概率;根据所述候选词语的被选取概率,选取至少一个候选词语组成与当前社交网络中的备注对象相匹配的备注名称,并将所述备注对象的标识信息及对应的备注名称发送至区块链网络200。
其中,将文本内容与所生成的目标文本发送至区块链网络200,可以预先在客户端节点410设置业务逻辑,当形成相应的文本信息时,客户端节点410将所述备注对象的标识信息及对应的备注名称自动发送至区块链网络200,也可以由业务主体400的业务人员在客户端节点410中登录,手动打包文本内容与所生成的目标文本,并将其发送至区块链网络200。在发送时,客户端节点410根据所述备注对象的标识信息及对应的备注名称生成对应更新操作的交易,在交易中指定了实现更新操作需要调用的智能合约、以及向智能合约传递的参数,交易还携带了客户端节点410的数字证书、签署的数字签名(例如,使用客户端节点410的数字证书中的私钥,对交易的摘要进行加密得到),并将交易广播到区块链网络200中的共识节点210。
区块链网络200中的共识节点210中接收到交易时,对交易携带的数字证书和数字签名进行验证,验证成功后,根据交易中携带的业务主体400的身份,确认业务主体400是否是具有交易权限,数字签名和权限验证中的任何一个验证判断都将导致交易失败。验证成功后签署节点210自己的数字签名(例如,使用节点210-1的私钥对交易的摘要进行加密得到),并继续在区块链网络200中广播。
区块链网络200中的共识节点210接收到验证成功的交易后,将交易填充到新的区块中,并进行广播。区块链网络200中的共识节点210广播的新区块时,会对新区块进行共识过程,如果共识成功,则将新区块追加到自身所存储的区块链的尾部,并根据交易的结果更新状态数据库,执行新区块中的交易:对于提交更新所述备注对象的标识信息及对应的备注名称的交易,在状态数据库中添加包括所述备注对象的标识信息及对应的备注名称的键值对。
业务主体500的业务人员在客户端节点510中登录,输入文本内容或者文本信息查询请求,客户端节点510根据文本内容或者文本信息查询请求生成对应更新操作/查询操作的交易,在交易中指定了实现更新操作/查询操作需要调用的智能合约、以及向智能合约传递的参数,交易还携带了客户端节点510的数字证书、签署的数字签名(例如,使用客户端节点510的数字证书中的私钥,对交易的摘要进行加密得到),并将交易广播到区块链网络200中的共识节点210。
区块链网络200中的共识节点210中接收到交易,对交易进行验证、区块填充及共识一致后,将填充的新区块追加到自身所存储的区块链的尾部,并根据交易的结果更新状态数据库,执行新区块中的交易:对于提交的更新某一文所述备注对象的标识信息及对应的备注名称的交易,根据不同目标文本更新状态数据库中该文本内容对应的键值对;对于提交的查询某个文本内容的交易,从状态数据库中查询文本内容对应的键值对,并返回交易结果。
值得说明的是,在图15中示例性地示出了将文本内容与所生成的目标文本直接上链的过程,但在另一些实施例中,对于文本内容的数据量较大的情况,客户端节点410可将文本内容的哈希以及相应的文本信息的哈希成对上链,将原始的文本内容以及相应的目标文本信息存储于分布式文件系统或数据库。客户端节点510从分布式文件系统或数据库获取到文本内容以及相应的目标文本信息后,可结合区块链网络200中对应的哈希进行校验,从而减少上链操作的工作量。
作为区块链的示例,参见图16,图16是本发明实施例提供的区块链网络200中区块链的结构示意图,每个区块的头部既可以包括区块中所有交易的哈希值,同时也包含前一个区块中所有交易的哈希值,新产生的交易的记录被填充到区块并经过区块链网络中节点的共识后,会被追加到区块链的尾部从而形成链式的增长,区块之间基于哈希值的链式结构保证了区块中交易的防篡改和防伪造。其中,存储在区块链网络中的文本内容可以是某一领域的专用文本(例如医疗系统的病例信息或者科学实验中的实验信息数据文本),通过存储在区块链网络中可以实现不同的节点之间共享这些文本内容。
下面说明本发明实施例提供的区块链网络的示例性的功能架构,参见图17,图17是本发明实施例提供的区块链网络200的功能架构示意图,包括应用层201、共识层202、网络层203、数据层204和资源层205,下面分别进行说明。
资源层205封装了实现区块链网路200中的各个节点210的计算资源、存储资源和通信资源。
数据层204封装了实现账本的各种数据结构,包括以文件系统中的文件实现的区块链,键值型的状态数据库和存在性证明(例如区块中交易的哈希树)。
网络层203封装了点对点(P2P,Point to Point)网络协议、数据传播机制和数据验证机制、接入认证机制和业务主体身份管理的功能。
其中,P2P网络协议实现区块链网络200中节点210之间的通信,数据传播机制保证了交易在区块链网络200中的传播,数据验证机制用于基于加密学方法(例如数字证书、数字签名、公/私钥对)实现节点210之间传输数据的可靠性;接入认证机制用于根据实际的业务场景对加入区块链网络200的业务主体的身份进行认证,并在认证通过时赋予业务主体接入区块链网络200的权限;业务主体身份管理用于存储允许接入区块链网络200的业务主体的身份、以及权限(例如能够发起的交易的类型)。
共识层202封装了区块链网络200中的节点210对区块达成一致性的机制(即共识机制)、交易管理和账本管理的功能。共识机制包括POS、POW和DPOS等共识算法,支持共识算法的可插拔。
交易管理用于验证节点210接收到的交易中携带的数字签名,验证业务主体的身份信息,并根据身份信息判断确认其是否具有权限进行交易(从业务主体身份管理读取相关信息);对于获得接入区块链网络200的授权的业务主体而言,均拥有认证中心颁发的数字证书,业务主体利用自己的数字证书中的私钥对提交的交易进行签名,从而声明自己的合法身份。
账本管理用于维护区块链和状态数据库。对于取得共识的区块,追加到区块链的尾部;执行取得共识的区块中的交易,当交易包括更新操作时更新状态数据库中的键值对,当交易包括查询操作时查询状态数据库中的键值对并向业务主体的客户端节点返回查询结果。支持对状态数据库的多种维度的查询操作,包括:根据区块向量号(例如交易的哈希值)查询区块;根据区块哈希值查询区块;根据交易向量号查询区块;根据交易向量号查询交易;根据业务主体的账号(向量号)查询业务主体的账号数据;根据通道名称查询通道中的区块链。
应用层201封装了区块链网络能够实现的各种业务,包括交易的溯源、存证和验证等。由此,当用户更换终端时,用户再次登录相应的社交应用进程或者通讯进程时,可以通过区块链网络获取区块链网络中所存储的备注对象的标识信息及对应的备注名称,避免由于设备更换所造成的备注名称丢失。
下面以微信应用程序作为社交环境为例对本发明实施例所提供的信息处理方法进行说明,其中,图18为本发明实施例中对不同社交网络中的不同联系人进行名称备注的应用环境示意图,参见图18,终端(包括终端100-1和终端100-2)上设置有能够显示相应个人微信客户端和企业微信客户端(其中个人微信和企业微信作为不同的社交软件可以共享同一用户的不同通讯录),同时终端还运行有短视频客户端和即时通讯客户端,均能够实现对不同客户端中的联系人进行名称备注,用户通过相应的客户端可以获得不同的社交信息并进行展示;终端通过网络300连接服务器200,网络300可以是广域网或者局域网,又或者是二者的组合,使用无线链路实现数据传输。其中,参考图19至图22,图19为本发明实施例中通过微信应用程序中显示备注名称的示意图,图20为本发明实施例中通过企业微信微信应用程序中显示备注名称的示意图,图21为本发明实施例中通过购物应用程序中显示备注名称的示意图;图22为本发明实施例中通过即时通讯客户端的应用程序中显示备注名称的示意图;具体来说,在微信应用程序中需要对所添加的联系人进行备注,以便于后续使用中快速准确地查找相应的联系人,现有技术中,每个好友会有一个自定义的用户名(如图19所示),但在别人的通讯录/好友列表中,别人会对这个好友加一个备注名,这个备注名往往是好友的真名/昵称/社会身份+真名等(如:张三、老张、环保局张科长、环保局老张)。通常情况下,该备注是由用户自己编辑的。在当前用户对联系人进行处理的过程中,用户手动编辑过程繁琐,影响用户的使用体验,而根据好友的编辑推荐结果单一,严重依赖好友自己编辑的结果。无法对好友姓名和身份做出全面的综合的预测,同时针对当前社交网络中所要进行名称备注的备注对象,目标用户可能已经在其他社交网络中完成名称备注,因此需要融合不同社交网络中的特征,向用户推荐更加准确地备注名称。
为解决上述缺陷,图23为本发明实施例所提供的名称预测模型的工作过程示意图,具体包括以下步骤:
步骤2301:确定不同社交网络中的目标对象重合度。
其中,参考图24,图24为本发明实施例中微信进程中目标用户的社交网络拓扑关系示意图,其中在用户的社交拓扑结构中,社交网络分析进程可以通过社交网络中的好友关系,预测出对于一个好友A而言,A的好友列表中,哪些人跟当前用户社会关系最接近,其中,社会关系的重合度可以通过目标用户的好友与待标注的用户A的好友的重合数量与目标用户的好友与待标注的用户A的好友数量的和进行确定。具体表现为:重合度=用户B的好友和用户A的好友的重合的好友的数量/(用户B的好友数量*用户A的好友数量)。其中,可以基于目标用户在不同社交网络中的登录信息、注册信息、设备信息以及关系人网络相似度信息,确定所述不同社交网络所归属的用户;当确定不同社交网络所归属于同一目标用户时,对所述目标用户所对应的不同社交网络(即微信、企业微信、购物软件和即时通讯软件)中的信息进行融合。
具体来说,由于目标用户所要进行名称备注的用户可能与所述目标用户在不同的软件中存在关联关系,因此,社交网络中可能存在的跨软件级别的信息这些信息可以包含前目标用户和好友A均在微信的社交网络、同一用户的个人微信与企业微信之间(目标用户在个人微信,好友A此时是目标用户自己是企业微信)、或者不同用户的不同应用之间(个人微信的目标用户获取QQ、企业微信、短视频应用、也可以是购物软件中的用户A的社交网络信息)。因此,在通过文本信息处理模型实现备注名称预测之前,需要在系统层面打通不同软件之间的数据,之后根据不同软件的社交网络的信息进行融合。具体步骤包括:
1)基于账户信息的用户节点融合。其中,可以根据用户注册信息(手机号)、账户关联信息进行融合,相同手机号或者被关联的两个账户视为同一个用户的账号,对这样的用户节点可以视为一个节点。2)根据用户好友关系网的相似度进行用户节点融合。其中,不同社交软件的两个用户,如果用户的好友关系网络高度相似,那么可以认为这两个用户是一个用户,会对这样的两个用户进行合并。3)根据设备信息进行合并。如果两个不同软件的用户长期共存于同一个设备中,(一个手机同时在用这两个软件),可以认为这两个软件的用户是同一个用户。4)根据指纹信息进行合并。其中,两个软件的用户使用同一个指纹识别信息登陆,可以认为是同一个用户。最后,可以根据节点合并的信息进行网络拓扑接的拓展。
步骤2302:对所筛选出的用于微信备注的用户的备注名称进行过滤处理。
其中,备注名过滤模块进行过滤处理的过程中,可以从众多好友的好友对好友的备注中,筛选出两个重要信息:1.用户的真实姓名2.用户的身份。例如,好友的备注是:张三、老张、环保局张科长、环保局老张,最终的目标是预测出“环保局张三”。其中“环保局”是身份(机构),张三是真名。
进一步地,1)本模块会有三个词表:1、昵称词表2、职位词表3、姓氏词表。里面包含了可以能收集到的所有昵称/职位/姓(如:“老张”中的“老”)、职位(如“张科长”中的“科长”)、如(“老张”的张)。根据规则(例如:职位在姓氏后面、昵称在姓氏前/后等),挑选出带有昵称/职位的备注名,这些将会过滤掉。2)再根据姓氏词表,挑选出可能包含真实姓名(“张三”)的备注名,然后对这些备注名做合并。合并就是,把所有可能的真实姓名都列出来,然后通过统计,得出哪个备注名中包含的真实姓名最频繁出现,这个姓名就是该用户的真实姓名。统计的时候,不同用户之间需要进行加权平均,权重就是依据前序步骤中所算出的重合度。3)挑选出用户的社会身份信息(机构)(如“环保局张三”的“环保局”)。可以对2)中所有写出好友真实名字而且名字之前有文字的用户做“合并”。
步骤2303:触发名称预测模型,对所述目标对象的备注名称进行推荐。
其中,模型结构参考图25和图26,图25为本发明实施例中名称预测模型一个可选的结构示意图,图26为本发明实施例中名称预测模型中第二神经网络的结构示意图,其中,名称预测模型中的第二神经网络可以使用graph-transformer模型结构,参考前序实施例所述,具体来说:名称预测模型模型所输入的备注名可以看做是图graph中的节点node,可以把备注名称的输入转化为graph形式的输入。其中,构建graph的过程可以通过以下方式实现:根据各个好友跟好友A构成的好友关系,而构建一个graph。在这个graph中,备注名称为graph的点,好友关系为graph的边。把这个graph作为输入模型。
当然,在使用graph-transformer模型之前还需进行预训练处理,具体来说,该阶段可以使用大规模图的数据对神经网络模型进行预训练。结合前序实施例中所示的训练过程不仅可以使用目标软件的社交网络信息,也可以使用已经公开的大规模图模型训练数据,进行神经网络模型的预训练,从数据使用和模型结构角度提升效果。
其中,神经网络模型的数据可以来自于已有的大规模社交网络,也可以是关系网络,knowledge graph等不同的关系网络。预训练阶段的预训练算法使用graph-bert算法,该算法本质来说就是输入的样本是无标注的图,通过bert的结构进行预训练(其中,bert就是前序实施例汇总transformer的后半部分),预训练过程中,graph-bert会自动的从图的数据中学到一些通识性的知识,完成模型训练。
进一步地,还可以把“来自哪一种软件”的信息,和“备注名的词向量”一起输入全联通层,通过全联通层进行线性变换特征融合,名称预测模型在有监督的数据上进行训练。模型的目标是预测每一个候选备注名和用户的匹配程度。
有监督数据的来源是用户在通过微信进程(备注名推荐产品)上的点击(选择)行为,完成对相应联系人的备注。当将通过名称预测模型展示给用户使用的时候,用户使用该产品的时候会“点击(选择)符合自己想法的备注名”。用户选择可以推荐的备注名,代表他认可该备注名;反之代表未认可。可以将“选择”视为正例;“未选择”视为负例。构建有监督数据进行模型训练,
当训练完成后,名称预测模型具有“给备注名进行打分”的功能,在过滤处理完成后推荐出的备注名上,利用预测出来的打分结果,进行排序。排序之后,可以对排名前几名(例如前三名)的备注名进行展示,或者对所要展示的所有的备注名称的推荐顺序进行调整。其中,可以在用户的终端中显示用户界面,所述用户界面中包括以第一人称视角对相应软件进程中的备注对象进行名称备注的视角画面,所述用户界面中还包括辅助信息控制组件;通过所述辅助信息控制组件,控制展示与所述备注对象相匹配的备注名称,以实现通过所述显示用户界面中选择与所述备注对象相匹配的备注名称。
在本发明的一些实施例中,当通过所述用户界面中选择与所述备注对象相匹配的备注名称完成时,触发所述辅助信息控制组件,以实现通过所述辅助信息控制组件对相应软件进程中的备注对象添加电子名片或图片。
以上所述,仅为本发明的实施例而已,并非用于限定本发明的保护范围,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种信息处理方法,其特征在于,所述方法包括:
获取与名称预测模型的使用环境相匹配的第一训练样本,其中,所述训练样本中包括相应目标用户的历史行为信息;
对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合;
通过所述名称预测模型对所述特征集合进行处理,以确定名称预测模型中的第一神经网络的初始参数和第二神经网络的初始参数;
响应于所述第一神经网络的初始参数和所述第二神经网络的初始参数,通过所述名称预测模型对所述特征集合进行处理,确定所述名称预测模型的不同神经网络对应的更新参数;
根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新,以实现通过所述名称预测模型确定与备注对象相匹配的备注名称;
基于所述备注对象在不同社交软件中的社交拓扑关系和所述目标用户的社交拓扑关系的重合比例,确定与经过训练的名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度;
基于所述备注对象的重合度,对所述不同社交网络中的备注对象的待备注名称进行过滤处理,响应于所述待备注名称的过滤处理结果,通过所述名称预测模型获取不同维度中的待备注名称,并将所述待备注名称转换为相应的文本特征向量;
根据所述文本特征向量确定与所述文本内容所对应的至少一个词语级的隐变量;
根据所述至少一个词语级的隐变量,生成与所述词语级的隐变量相对应的候选词语以及所述候选词语的被选取概率;
根据所述候选词语的被选取概率,选取至少一个候选词语组成与当前社交网络中的备注对象相匹配的备注名称。
2.根据权利要求1所述的方法,其特征在于,所述获取与所述名称预测模型的使用环境相匹配的第一训练样本,包括:
获取所述目标用户的日志信息;
基于所述目标用户的日志信息,确定所述目标用户使用所述名称预测模型所推荐的备注名称作为正例样本;
基于所述目标用户的日志信息,确定所述目标用户未使用所述名称预测模型所推荐的备注名称作为负例样本;
基于所述正例样本和所述负例样本,确定与所述名称预测模型的使用环境相匹配的第一训练样本。
3.根据权利要求1所述的方法,其特征在于,所述对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合,包括:
确定与所述名称预测模型的使用环境相匹配的动态噪声阈值;
根据所述动态噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述动态噪声阈值相匹配的第二训练样本集合;
提取与所述第二训练样本相匹配的词语级特征向量,并对所述不同的词语级特征向量进行除噪处理,形成与所待备注名称文本内容相对应的词语级特征向量集合,其中,所述与所待备注名称文本内容相对应的词语级特征向量集合包括所述待备注名称文本内容的数据来源。
4.根据权利要求1所述的方法,其特征在于,所述对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合,包括:
确定与所述名称预测模型的使用环境相匹配的固定噪声阈值;
根据所述固定噪声阈值对所述第一训练样本集合进行去噪处理,以形成与所述固定噪声阈值相匹配的第二训练样本集合;
提取与所述第二训练样本相匹配的词语级特征向量,并对所述不同的词语级特征向量进行除噪处理,形成与所待备注名称文本内容相对应的词语级特征向量集合,其中,所述与所待备注名称文本内容相对应的词语级特征向量集合包括所述待备注名称文本内容的数据来源。
5.根据权利要求1所述的方法,其特征在于,所述响应于所述第一神经网络的初始参数和所述第二神经网络的初始参数,通过所述名称预测模型对所述特征集合进行处理,确定所述名称预测模型的不同神经网络对应的更新参数,包括:
将所述特征集合中不同备注名称向量,代入由所述名称预测模型的第一神经网络的编码器和解码器构成的自编码网络对应的损失函数;
确定所述损失函数满足第一收敛条件时对应所述第一神经网络的编码器的参数和相应的解码器参数作为所述第一神经网络的更新参数;
将所述特征集合中不同语句样本,代入由所述名称预测模型的第二神经网络的编码器和解码器构成的自编码网络对应的损失函数;
确定所述损失函数满足第二收敛条件时对应所述第二神经网络的编码器的参数和相应的解码器参数作为所述第二神经网络的更新参数。
6.根据权利要求5所述的方法,其特征在于,所述根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新,以实现通过所述名称预测模型确定与备注对象相匹配的备注名称,包括:
确定与所述名称预测模型中不同神经网络相匹配的收敛条件;
对所述第一神经网络的编码器参数和解码器参数进行迭代更新,直至所述第一神经网络的编码器和解码器构成的自编码网络对应的损失函数满足对应的收敛条件;
对所述第二神经网络的编码器参数和解码器参数进行迭代更新,直至所述第二神经网络的编码器和解码器构成的自编码网络对应的损失函数满足对应的收敛条件。
7.根据权利要求1所述的方法,其特征在于,所述确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度,包括:
确定所述备注对象所对应的目标用户所对应的不同社交网络;
对所述目标用户所对应的不同社交网络中的信息进行融合;
基于经过融合的所述目标用户所对应的不同社交网络中的信息,确定所述备注对象在不同社交网络中的社交拓扑关系;
确定所述备注对象所对应的目标用户的社交拓扑关系;
基于所述备注对象在不同社交软件中的社交拓扑关系和所述目标用户的社交拓扑关系的重合比例,确定与名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度。
8.根据权利要求7所述的方法,其特征在于,所述对所述目标用户所对应的不同社交网络中的信息进行融合,包括:
基于所述目标用户在不同社交网络中的登录信息、注册信息、设备信息以及关系人网络相似度信息,确定所述不同社交网络所归属的用户;
当确定所述不同社交网络所归属于同一目标用户时,对所述目标用户所对应的不同社交网络中的信息进行融合。
9.根据权利要求1所述的方法,其特征在于,所述根据所述候选词语的被选取概率,选取至少一个候选词语组成与当前社交网络中的备注对象相匹配的备注名称,包括:
根据所述名称预测模型所获取的不同维度中的待备注名称,对所述候选词语的被选取概率进行融合处理;
根据所述候选词语的被选取概率的融合处理结果,选取至少一个候选词语组成所述备注对象相匹配的备注名称。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
显示用户界面,所述用户界面中包括以第一人称视角对相应软件进程中的备注对象进行名称备注的视角画面,所述用户界面中还包括辅助信息控制组件;
通过所述辅助信息控制组件,控制展示与所述备注对象相匹配的备注名称,以实现通过所述用户界面中选择与所述备注对象相匹配的备注名称。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
当通过所述用户界面中选择与所述备注对象相匹配的备注名称完成时,触发所述辅助信息控制组件,以实现通过所述辅助信息控制组件对相应软件进程中的备注对象添加电子名片或图片。
12.一种信息处理装置,其特征在于,所述装置包括:
信息传输模块,用于获取与名称预测模型的使用环境相匹配的第一训练样本,其中,所述训练样本中包括相应目标用户的历史行为信息;
训练模块,用于对所述第一训练样本集合进行去噪处理,形成相应的第二训练样本集合,并提取与所述第二训练样本相匹配的特征集合;
所述训练模块,用于通过所述名称预测模型对所述特征集合进行处理,以确定名称预测模型中的第一神经网络的初始参数和第二神经网络的初始参数;
所述训练模块,用于响应于所述第一神经网络的初始参数和所述第二神经网络的初始参数,通过所述名称预测模型对所述特征集合进行处理,确定所述名称预测模型的不同神经网络对应的更新参数;
所述训练模块,用于根据所述名称预测模型的不同神经网络对应的更新参数,通过所述特征集合对所述名称预测模型的第一神经网络的参数和第二神经网络的参数分别进行迭代更新,以实现通过所述名称预测模型确定与备注对象相匹配的备注名称;
所述训练模块,用于基于所述备注对象在不同社交软件中的社交拓扑关系和所述目标用户的社交拓扑关系的重合比例,确定与经过训练的名称预测模型的使用环境相对应的不同社交网络中的备注对象的重合度;
所述训练模块,用于基于所述备注对象的重合度,对所述不同社交网络中的备注对象的待备注名称进行过滤处理,响应于所述待备注名称的过滤处理结果,通过所述名称预测模型获取不同维度中的待备注名称,并将所述待备注名称转换为相应的文本特征向量;
所述训练模块,用于根据所述文本特征向量确定与所述文本内容所对应的至少一个词语级的隐变量;根据所述至少一个词语级的隐变量,生成与所述词语级的隐变量相对应的候选词语以及所述候选词语的被选取概率;
所述训练模块,用于根据所述候选词语的被选取概率,选取至少一个候选词语组成与当前社交网络中的备注对象相匹配的备注名称。
13.一种电子设备,其特征在于,所述电子设备包括:
存储器,用于存储可执行指令;
处理器,用于运行所述存储器存储的可执行指令时,实现权利要求1至11任一项所述的信息处理方法。
14.一种计算机可读存储介质,存储有可执行指令,其特征在于,所述可执行指令被处理器执行时实现权利要求1至11任一项所述的信息处理方法。
CN202010364667.5A 2020-04-30 2020-04-30 信息处理方法、装置、电子设备及存储介质 Active CN111552799B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010364667.5A CN111552799B (zh) 2020-04-30 2020-04-30 信息处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010364667.5A CN111552799B (zh) 2020-04-30 2020-04-30 信息处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111552799A CN111552799A (zh) 2020-08-18
CN111552799B true CN111552799B (zh) 2021-07-09

Family

ID=72006275

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010364667.5A Active CN111552799B (zh) 2020-04-30 2020-04-30 信息处理方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111552799B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112069320B (zh) * 2020-09-10 2022-06-28 东北大学秦皇岛分校 一种基于跨度的细粒度情感分析方法
CN112989186B (zh) * 2021-02-25 2024-01-12 深圳市雅阅科技有限公司 资讯信息推荐模型训练方法、装置、电子设备及存储介质
CN113094418A (zh) * 2021-03-23 2021-07-09 佛山青藤信息科技有限公司 一种基于企业微信的业务处理方法、系统及计算机设备
CN112989074A (zh) * 2021-04-23 2021-06-18 腾讯科技(深圳)有限公司 多媒体信息推荐方法、装置、电子设备及存储介质
CN113312035B (zh) * 2021-05-17 2023-06-06 南京大学 一种面向Hyperledger Fabric的智能合约开发插件的实现方法
CN113192520B (zh) * 2021-07-01 2021-09-24 腾讯科技(深圳)有限公司 一种音频信息处理方法、装置、电子设备及存储介质
CN114581487B (zh) * 2021-08-02 2022-11-25 北京易航远智科技有限公司 行人轨迹预测方法、装置、电子设备及计算机程序产品
CN114860616B (zh) * 2022-06-07 2023-05-19 慕思健康睡眠股份有限公司 一种代码检测方法、装置、设备和存储介质
CN115455306B (zh) * 2022-11-11 2023-02-07 腾讯科技(深圳)有限公司 推送模型训练、信息推送方法、装置和存储介质

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077417A (zh) * 2014-07-18 2014-10-01 中国科学院计算技术研究所 社交网络中的人物标签推荐方法和系统
EP3163515A1 (en) * 2015-10-27 2017-05-03 Pulse Energy Inc. Interpolative vertical business name categorization mechanism for energy management
CN108520470A (zh) * 2017-02-28 2018-09-11 百度在线网络技术(北京)有限公司 用于生成用户属性信息的方法和装置
CN110162692A (zh) * 2018-12-10 2019-08-23 腾讯科技(深圳)有限公司 用户标签确定方法、装置、计算机设备和存储介质
CN110704657A (zh) * 2019-09-27 2020-01-17 网易(杭州)网络有限公司 图像标签的推荐方法、装置及电子设备
CN110751188A (zh) * 2019-09-26 2020-02-04 华南师范大学 基于多标记学习的用户标签预测方法、系统及存储介质
CN110956018A (zh) * 2019-11-22 2020-04-03 腾讯科技(深圳)有限公司 文本处理模型的训练方法、文本处理方法、装置及存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108647216A (zh) * 2017-03-16 2018-10-12 上海交通大学 基于开发人员社交网络的软件众包任务推荐系统及方法

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104077417A (zh) * 2014-07-18 2014-10-01 中国科学院计算技术研究所 社交网络中的人物标签推荐方法和系统
EP3163515A1 (en) * 2015-10-27 2017-05-03 Pulse Energy Inc. Interpolative vertical business name categorization mechanism for energy management
CN108520470A (zh) * 2017-02-28 2018-09-11 百度在线网络技术(北京)有限公司 用于生成用户属性信息的方法和装置
CN110162692A (zh) * 2018-12-10 2019-08-23 腾讯科技(深圳)有限公司 用户标签确定方法、装置、计算机设备和存储介质
CN110751188A (zh) * 2019-09-26 2020-02-04 华南师范大学 基于多标记学习的用户标签预测方法、系统及存储介质
CN110704657A (zh) * 2019-09-27 2020-01-17 网易(杭州)网络有限公司 图像标签的推荐方法、装置及电子设备
CN110956018A (zh) * 2019-11-22 2020-04-03 腾讯科技(深圳)有限公司 文本处理模型的训练方法、文本处理方法、装置及存储介质

Also Published As

Publication number Publication date
CN111552799A (zh) 2020-08-18

Similar Documents

Publication Publication Date Title
CN111552799B (zh) 信息处理方法、装置、电子设备及存储介质
US20220308942A1 (en) Systems and methods for censoring text inline
CN110569377B (zh) 一种媒体文件的处理方法和装置
CN111552797B (zh) 名称预测模型的训练方法、装置、电子设备及存储介质
US10832011B2 (en) Question answering system using multilingual information sources
CN111026858B (zh) 基于项目推荐模型的项目信息处理方法及装置
CN111026319B (zh) 一种智能文本处理方法、装置、电子设备及存储介质
CN110929125B (zh) 搜索召回方法、装置、设备及其存储介质
CN111310436B (zh) 基于人工智能的文本处理方法、装置及电子设备
CN111026320B (zh) 多模态智能文本处理方法、装置、电子设备及存储介质
CN110597963A (zh) 表情问答库的构建方法、表情搜索方法、装置及存储介质
CN111552798B (zh) 基于名称预测模型的名称信息处理方法、装置、电子设备
US11966389B2 (en) Natural language to structured query generation via paraphrasing
CN114429133A (zh) 通过神经机器阅读理解依赖于话语分析来回答复杂问题
US20230032728A1 (en) Method and apparatus for recognizing multimedia content
US20210141820A1 (en) Omnichannel virtual assistant using artificial intelligence
CN115221294A (zh) 对话处理方法、装置、电子设备及存储介质
CN114330483A (zh) 数据处理方法及模型训练方法、装置、设备、存储介质
CN111142728B (zh) 车载环境智能文本处理方法、装置、电子设备及存储介质
CN111552890B (zh) 基于名称预测模型的名称信息处理方法、装置、电子设备
US11288293B2 (en) Methods and systems for ensuring quality of unstructured user input content
CN111597453B (zh) 用户画像方法、装置、计算机设备及计算机可读存储介质
CN116541517A (zh) 文本信息处理方法、装置、设备、软件程序以及存储介质
CN113434789A (zh) 基于多维度文本特征的搜索排序方法及相关设备
US20200387506A1 (en) Methods and systems for iterative alias extraction

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 40028360

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant