CN116401367A - 兴趣识别方法、装置、设备及存储介质 - Google Patents

兴趣识别方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN116401367A
CN116401367A CN202310391666.3A CN202310391666A CN116401367A CN 116401367 A CN116401367 A CN 116401367A CN 202310391666 A CN202310391666 A CN 202310391666A CN 116401367 A CN116401367 A CN 116401367A
Authority
CN
China
Prior art keywords
text data
interest
topic
graph
voice call
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310391666.3A
Other languages
English (en)
Inventor
董华
薛博文
刘晓宇
苟渝东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202310391666.3A priority Critical patent/CN116401367A/zh
Publication of CN116401367A publication Critical patent/CN116401367A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/042Knowledge-based neural networks; Logical representations of neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Probability & Statistics with Applications (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Machine Translation (AREA)

Abstract

本申请提供一种兴趣识别方法、装置、设备及存储介质,涉及大数据领域。该方法包括:获取语音通话数据,将语音通话数据转化为文本数据;根据文本数据,构建异构图,并通过统计方法确定异构图中的高频词;通过图神经网络的方式,对异构图进行分类处理,得到文本数据对应的至少一个分类;通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词;根据每个主题中的关键词和高频词,确定用户兴趣。本申请的方法,实现了用户兴趣的快速、准确识别,避免了人工识别用户兴趣的不准确性以及相应的人员浪费,减少了人力的浪费,降低了用户兴趣分析时间,提高了用户兴趣识别效率。

Description

兴趣识别方法、装置、设备及存储介质
技术领域
本申请涉及大数据领域,尤其涉及一种兴趣识别方法、装置、设备及存储介质。
背景技术
随着互联网技术以及大数据的发展,互联网用户的使用习惯已从最初的自己寻找内容转变为依赖服务方给予的内容推送,因此精确地了解每个用户兴趣,能有效帮助服务方提供个性化的服务,提高用户的使用体验。
相关技术中,服务方可以在客服与用户大量的电话通话数据中,通过人工方式查找用户可能感兴趣的内容,服务方可以通过手动记录关键词的方式来分析用户的兴趣偏好。
然而,现有技术的兴趣识别方法耗费大量的人力,且人工分析时间长、效率低。
发明内容
本申请提供一种兴趣识别方法、装置、设备及存储介质,用以解决现有技术的兴趣识别方法耗费大量的人力,且人工分析时间长、效率低的问题。
第一方面,本申请提供一种兴趣识别方法,包括:
获取语音通话数据,将所述语音通话数据转化为文本数据;
根据所述文本数据,构建异构图,并通过统计方法确定所述异构图中的高频词;
通过图神经网络的方式,对所述异构图进行分类处理,得到所述文本数据对应的至少一个分类;
通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词;
根据所述每个主题中的关键词和所述高频词,确定用户兴趣。
这里,本申请提供了一种可以自动通过语音通话数据识别用户兴趣的方法,该方法将语音通话数据对应的文本数据构建成一个异构图,通过图神经网络的方式可以快速、准确地进行文本的分类,并结合隐含狄利克雷分布,识别出用户感兴趣的主题以及每个主题对应的关键信息,实现了用户兴趣的快速、准确识别,避免了人工识别用户兴趣的不准确性以及相应的人员浪费,减少了人力的浪费,降低了用户兴趣分析时间,提高了用户兴趣识别效率。
可选地,所述根据所述文本数据,构建异构图,包括:
根据所述文本数据,确定文档节点和单词节点;
根据所述文档节点和单词节点,构建异构图。
可选地,所述异构图包括特征矩阵和邻接矩阵;
相应地,所述根据所述文档节点和单词节点,构建异构图,包括:
通过所述文档节点和所述单词节点,构建特征矩阵;
通过所述特征矩阵中所有节点之间的关系,构建邻接矩阵。
其中,本申请在文本数据中提取文档和单词,构成了异构图的节点,具体地,将文档节点和单词节点作为特征矩阵的节点,通过各个节点之间的关系,构成邻接矩阵,上述矩阵结合图神经网络,可以准确确定文档中内容的相似度,从而对文档进行准确分类,进一步地提高了用户兴趣识别的准确性。
可选地,所述通过图神经网络的方式,对所述异构图进行分类处理,得到所述文本数据对应的至少一个分类,包括:
将所述特征矩阵和所述邻接矩阵输入至预设图变分自编码器模型,通过所述预设图变分自编码器模型的输出结果确定所述文本数据对应的至少一个分类。
这里,本申请通过图变分自编码器实现对文本的分类,通过图变分自编码器的方式可以较好地对文档进行分类,从而识别当前用户感兴趣的主题,以及每个主题中的一些关键信息,进一步地提高了用户兴趣识别的准确性。
可选地,在所述将所述特征矩阵和所述邻接矩阵输入至预设图变分自编码器模型,通过所述预设图变分自编码器模型的输出结果确定所述文本数据对应的至少一个分类之前,还包括:
获取图变分自编码器模型训练样本,其中,所述图变分自编码器模型训练样本包括特征矩阵样本、邻接矩阵样本和重构邻接矩阵样本;
将所述图变分自编码器模型训练样本输入至图变分自编码器模型进行训练,得到预设图变分自编码器模型。
其中,图变分自编码器模型为无监督模型,用户在训练时无需对样本进行标注,节省了训练时间与步骤,进一步地提高了用户兴趣识别的效率。
可选地,所述通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词,包括:
对于每个分类中的文档,将所述文档输入至预设隐含狄利克雷分布模型;
通过所述隐含狄利克雷分布模型的输出结果,确定每个分类的主题以及每个主题中的关键词。
可选地,在所述对于每个分类中的文档,将所述文档输入至预设隐含狄利克雷分布模型之前,还包括:
获取隐含狄利克雷分布模型训练样本,其中,所述隐含狄利克雷分布模型训练样本包括词条样本、主题样本和文档样本;
将所述隐含狄利克雷分布模型训练样本输入至隐含狄利克雷分布模型进行训练,得到预设隐含狄利克雷分布模型。
其中,隐含狄利克雷分布模型是一种无监督学习算法,在训练时不需要手工标注的训练集,需要的仅仅是文档集以及指定主题的数量即可,节省了训练时间与步骤,进一步地提高了用户兴趣识别的效率,用户还可以指定主题数量,灵活性强。此外该模型另一个优点则是,对于每一个主题均可找出一些词语来描述它,用户兴趣识别准确性高。
可选地,在所述将所述语音通话数据转化为文本数据之前,还包括:
对所述语音通话数据进行预处理,得到过滤后语音通话数据;
相应地,所述将所述语音通话数据转化为文本数据,包括:
将所述过滤后语音通话数据转化为文本数据。
这里,本申请可以预先对语音通话数据进行预处理,过滤掉无效数据,降低内存以及处理时间,进一步地提高了用户兴趣识别的效率。
第二方面,本申请提供了一种兴趣识别装置,包括:
获取模块,用于获取语音通话数据,将所述语音通话数据转化为文本数据;
图构建模块,用于根据所述文本数据,构建异构图,并通过统计方法确定所述异构图中的高频词;
分类模块,用于通过图神经网络的方式,对所述异构图进行分类处理,得到所述文本数据对应的至少一个分类;
主题提取模块,用于通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词;
兴趣确定模块,用于根据所述每个主题中的关键词和所述高频词,确定用户兴趣。
可选地,所述图构建模块具体用于:
根据所述文本数据,确定文档节点和单词节点;
根据所述文档节点和单词节点,构建异构图。
可选地,所述异构图包括特征矩阵和邻接矩阵;
相应地,所述图构建模块还具体用于:
通过所述文档节点和所述单词节点,构建特征矩阵;
通过所述特征矩阵中所有节点之间的关系,构建邻接矩阵。
可选地,所述分类模块具体用于:
将所述特征矩阵和所述邻接矩阵输入至预设图变分自编码器模型,通过所述预设图变分自编码器模型的输出结果确定所述文本数据对应的至少一个分类。
可选地,在所述分类模块用于将所述特征矩阵和所述邻接矩阵输入至预设图变分自编码器模型,通过所述预设图变分自编码器模型的输出结果确定所述文本数据对应的至少一个分类之前,上述装置还包括第一训练模块,用于:
获取图变分自编码器模型训练样本,其中,所述图变分自编码器模型训练样本包括特征矩阵样本、邻接矩阵样本和重构邻接矩阵样本;
将所述图变分自编码器模型训练样本输入至图变分自编码器模型进行训练,得到预设图变分自编码器模型。
可选地,所述主题提取模块具体用于:
对于每个分类中的文档,将所述文档输入至预设隐含狄利克雷分布模型;
通过所述隐含狄利克雷分布模型的输出结果,确定每个分类的主题以及每个主题中的关键词。
可选地,在所述主题提取模块用于对于每个分类中的文档,将所述文档输入至预设隐含狄利克雷分布模型之前,上述装置还包括第二训练模块,用于:
获取隐含狄利克雷分布模型训练样本,其中,所述隐含狄利克雷分布模型训练样本包括词条样本、主题样本和文档样本;
将所述隐含狄利克雷分布模型训练样本输入至隐含狄利克雷分布模型进行训练,得到预设隐含狄利克雷分布模型。
可选地,在所述获取模块将所述语音通话数据转化为文本数据之前,所述获取模块还用于:
对所述语音通话数据进行预处理,得到过滤后语音通话数据;
相应地,所述获取模块还具体用于:
将所述过滤后语音通话数据转化为文本数据。
第三方面,本申请提供一种兴趣识别设备,包括:至少一个处理器和存储器;
所述存储器存储计算机执行指令;
所述至少一个处理器执行所述存储器存储的计算机执行指令,使得所述至少一个处理器执行如上第一方面以及第一方面各种可能的设计所述的兴趣识别方法。
第四方面,本发明提供一种计算机可读存储介质,所述计算机可读存储介质中存储有计算机执行指令,当处理器执行所述计算机执行指令时,实现如上第一方面以及第一方面各种可能的设计所述的兴趣识别方法。
第五方面,本发明提供一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时,实现如上第一方面以及第一方面各种可能的设计所述的兴趣识别方法。
本申请提供的兴趣识别方法、装置、设备及存储介质,将语音通话数据对应的文本数据构建成一个异构图,通过图神经网络的方式可以快速、准确地进行文本的分类,并结合隐含狄利克雷分布,识别出用户感兴趣的主题以及每个主题对应的关键信息,实现了用户兴趣的快速、准确识别,避免了人工识别用户兴趣的不准确性以及相应的人员浪费,减少了人力的浪费,降低了用户兴趣分析时间,提高了用户兴趣识别效率。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本申请的实施例,并与说明书一起用于解释本申请的原理。
图1为本申请实施例提供的一种兴趣识别系统架构示意图;
图2为本申请实施例提供的一种兴趣识别方法的流程示意图;
图3为本申请实施例提供的另一种兴趣识别方法的流程示意图;
图4为本申请实施例提供的又一种兴趣识别方法的流程示意图;
图5为本申请实施例提供的一种兴趣识别装置的结构示意图;
图6为本申请实施例提供的一种兴趣识别设备的结构示意图。
通过上述附图,已示出本申请明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本申请构思的范围,而是通过参考特定实施例为本领域技术人员说明本申请的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本申请相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本申请的一些方面相一致的装置和方法的例子。
需要说明的是,本申请所涉及的用户信息(包括但不限于用户设备信息、用户个人信息等)和数据(包括但不限于用于分析的数据、存储的数据、展示的数据等),均为经用户授权或者经过各方充分授权的信息和数据,并且相关数据的收集、使用和处理需要遵守相关法律法规和标准,并提供有相应的操作入口,供用户选择授权或者拒绝。
需要说明的是,本申请兴趣识别方法、装置、设备及存储介质可用于大数据领域,也可用于除大数据领域之外的任意领域,本申请兴趣识别方法、装置、设备及存储介质的应用领域不作限定。
下面对本申请实施例中出现的术语作解释:
图神经网络:是指使用神经网络来学习图结构数据,提取和发掘图结构数据中的特征和模式,满足聚类、分类、预测、分割、生成等图学习任务需求的算法总称。
主题模型:主题模型是用来做文档建模的,将文档转化为数值向量,数值向量的每个维度对应一个主题。
图变分自编码器(Variational Graph Auto-Encoders,VGAE):用已知的图经过编码(图卷积)学到节点向量表示的分布,在分布中采样得到节点的向量表示,然后进行解码(链路预测)重新构建图。图变分自编码器包括编码器和解码器,输入为邻接矩阵和节点特征矩阵,通过编码器可以得到节点向量的低维表示高斯分布,然后通过解码器生成图结构(链路预测)。
隐含狄利克雷分布(Latent Dirichlet Allocation,LDA),是一种主题模型(topic model),它可以将文档集中每篇文档的主题按照概率分布的形式给出。
当前服务方克服拨打的电话有一部分是由人工智能(Artificial Intelligence,AI)进行负责,因此需要提前准备可能遇到的场景,提前准备话术。这一类的通话内容无法记录用户感兴趣的话题是什么,许多的通话内容会被浪费。如果能够对这些内容进行充分的挖掘,能够有效适应用户的需求。相关技术中,服务方可以在AI或者人工客服与用户大量的电话通话数据中,通过人工方式查找用户可能感兴趣的内容,服务方可以通过手动记录关键词的方式来分析用户的兴趣偏好。然而,现有技术的兴趣识别方法耗费大量的人力,且人工分析时间长、效率低。
为了解决上述问题,本申请实施例提供一种兴趣识别方法、装置、设备及存储介质,其中该方法将语音通话数据对应的文本数据构建成一个异构图,通过图神经网络的方式可以快速、准确地进行文本的分类,并结合隐含狄利克雷分布,识别出用户感兴趣的主题以及每个主题对应的关键信息,进而根据关键信息确定用户兴趣。
可选的,图1为本申请实施例提供的一种兴趣识别系统架构示意图。在图1中,上述架构包括接收设备101、处理器102和显示设备103中至少一种。
可以理解的是,本申请实施例示意的结构并不构成对兴趣识别系统架构的具体限定。在本申请另一些可行的实施方式中,上述架构可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置,具体可根据实际应用场景确定,在此不做限制。图1所示的部件可以以硬件,软件,或软件与硬件的组合实现。
在具体实现过程中,接收设备101可以是输入/输出接口,也可以是通信接口。
处理器102可以将语音通话数据对应的文本数据构建成一个异构图,通过图神经网络的方式可以快速、准确地进行文本的分类,并结合隐含狄利克雷分布,识别出用户感兴趣的主题以及每个主题对应的关键信息,进而根据关键信息确定用户兴趣。
显示设备103可以用于对上述结果等进行显示。
显示设备还可以是触摸显示屏,用于在显示的上述内容的同时接收用户指令,以实现与用户的交互。
应理解,上述处理器可以通过处理器读取存储器中的指令并执行指令的方式实现,也可以通过芯片电路实现。
另外,本申请实施例描述的网络架构以及业务场景是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域普通技术人员可知,随着网络架构的演变和新业务场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
下面结合具体的实施例对本申请的技术方案进行详细的说明:
可选地,图2为本申请实施例提供的一种兴趣识别方法的流程示意图。本申请实施例的执行主体可以为图1中的处理器102,具体执行主体可以根据实际应用场景确定。如图2所示,该方法包括如下步骤:
S201:获取语音通话数据,将语音通话数据转化为文本数据。
可选地,可以获取预先存储的历史语音通话数据,该数据可以以云存储的方式存储在云服务器上,或者是存储在存储器中,或者获取用户输入的语音通话数据,或者是接收其它终端设备发送的语音通话数据。
可选地,若存在直接存储的文本数据,则获取文本数据。
可选地,在将语音通话数据转化为文本数据之前,还包括:对语音通话数据进行预处理,得到过滤后语音通话数据;相应地,将语音通话数据转化为文本数据,包括:将过滤后语音通话数据转化为文本数据。
这里,本申请实施例可以预先对语音通话数据进行预处理,过滤掉无效数据,降低内存以及处理时间,进一步地提高了用户兴趣识别的效率。
可选地,可以针对语音通话数据的长短来进行数据的预处理,过滤掉通话时间小于预设通话时间阈值的语音通话数据。其中,预设通话时间阈值可以根据实际情况确定,本申请实施例对此不作具体限制。
可选地,可以根据预设用户名单过滤通话数据,或者根据预设用户分类过滤通话数据,从而有效地针对不同类型\不同兴趣的用户进行准确地兴趣识别。
S202:根据文本数据,构建异构图,并通过统计方法确定异构图中的高频词。
可选地,根据文本数据,构建异构图,包括:根据文本数据,确定文档节点和单词节点;根据文档节点和单词节点,构建异构图。
可选地,异构图包括特征矩阵和邻接矩阵;相应地,根据文档节点和单词节点,构建异构图,包括:通过文档节点和单词节点,构建特征矩阵;通过特征矩阵中所有节点之间的关系,构建邻接矩阵。
其中,本申请实施例在文本数据中提取文档和单词,构成了异构图的节点,具体地,将文档节点和单词节点作为特征矩阵的节点,通过各个节点之间的关系,构成邻接矩阵,上述矩阵结合图神经网络,可以准确确定文档中内容的相似度,从而对文档进行准确分类,进一步地提高了用户兴趣识别的准确性。
可选地,通过词频-逆文本频率指数(Term Frequency-Inverse DocumentFrequency,TF-IDF)确定高频词。
其中,TF-IDF是一种统计方法,用以评估一字词对于一个文件集或一个语料库中的其中一份文件的重要程度。字词的重要性随着它在文件中出现的次数成正比增加,但同时会随着它在语料库中出现的频率成反比下降。TF-IDF加权的各种形式常被搜索引擎应用,作为文件与用户查询之间相关程度的度量或评级。
可选地,图结构表示如下:该图结构有两种节点类型:文档节点和单词节点。单词即为每个文档中不重复的单词。图结构有两种边的类型:文档节点与文档节点之间的边以及文档节点与单词节点之间的边。
可选地,具体的异构图表示为一个特征矩阵X和对应的邻接矩阵A。矩阵的维度V为其中的文档节点的个数+单词节点的个数。因为本文中每个文档节点与单词节点的自身特征并不考虑,因此可以用一个V维的单位矩阵来进行相应的表示,即特征矩阵为单位矩阵。其中,i表示行,j表示列,邻接矩阵中的每一个边权重Aij的定义方式为:
当i和j为文档节点时,i=j,则Aij=1,否则Aij=0。
当i和j为单词节点时,Aij=PMI(i,j)。这部分通过对语料库中的所有文档使用固定大小的滑动窗口来收集共现统计信息,正的点互信息(Pointwise Mutual Information,PMI)值表示语料库中的词语的语义相关度高,负的PMI值表示语料库中的词语语义相关度低或者没有。本申请实施例仅针对PMI为正的单词节点之间建立边节点。
当i为文档节点,j为单词节点时,Aij通过TF-IDF的方式得到其中的值。使用TF-IDF算法进行结巴(jieba)分词:对得到的这些文本内容,其中较短的可以组合成一篇文档,用d1,d2,d3...dn来表示这些文档。TF=某个词在di篇文档中出现的次数/di篇文章的总词数,即表示的是单个词在单个文档中出现的词频。IDF=总的文档数/出现词W的文档数。IDF反映了词W在文档之间的区别度。如果W仅在一篇文档中出现,则说明可以使用W将该文档与其他文档区别开来,即IDF可以反映W的独特性TF*IDF就可以得到词的重要性。
S203:通过图神经网络的方式,对异构图进行分类处理,得到文本数据对应的至少一个分类。
可选地,图神经网络为图变分自编码器或者图注意力网络等任意可以实现分类功能的模型。
S204:通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词。
S205:根据每个主题中的关键词和高频词,确定用户兴趣。
可选地,将每个主题中的关键词和高频词进行比较,确定用户兴趣。
可选地,若高频词中包含关键词,则确定关键词为用户兴趣。
可选地,确定用户兴趣之后,本申请实施例可直接将用户兴趣存储至AI的数据库,或者根据用户兴趣生成问答场景,以使AI根据用户兴趣与用户进行对话,提高了用户体验。
可选地,确定用户兴趣之后,根据用户兴趣为用户推送相关信息。
本申请实施例提供了一种可以自动通过语音通话数据识别用户兴趣的方法,该方法将语音通话数据对应的文本数据构建成一个异构图,通过图神经网络的方式可以快速、准确地进行文本的分类,并结合隐含狄利克雷分布,识别出用户感兴趣的主题以及每个主题对应的关键信息,实现了用户兴趣的快速、准确识别,避免了人工识别用户兴趣的不准确性以及相应的人员浪费,减少了人力的浪费,降低了用户兴趣分析时间,提高了用户兴趣识别效率。
可选地,本申请实施例通过图变分自编码器的方式进行文本数据的分类,相应的,图3为本申请实施例提供的另一种兴趣识别方法的流程示意图,如图3所示,该方法包括:
S301:获取语音通话数据,将语音通话数据转化为文本数据。
S302:根据文本数据,构建异构图,并通过统计方法确定异构图中的高频词。
其中,步骤S301、步骤S302的实现方式与步骤S201、步骤S202的实现方式类似,在此不作赘述。
S303:将特征矩阵和邻接矩阵输入至预设图变分自编码器模型,通过预设图变分自编码器模型的输出结果确定文本数据对应的至少一个分类。
可选地,在将特征矩阵和邻接矩阵输入至预设图变分自编码器模型,通过预设图变分自编码器模型的输出结果确定文本数据对应的至少一个分类之前,还包括:获取图变分自编码器模型训练样本,其中,图变分自编码器模型训练样本包括特征矩阵样本、邻接矩阵样本和重构邻接矩阵样本;将图变分自编码器模型训练样本输入至图变分自编码器模型进行训练,得到预设图变分自编码器模型。
其中,图变分自编码器模型为无监督模型,用户在训练时无需对样本进行标注,节省了训练时间与步骤,进一步地提高了用户兴趣识别的效率。
在一种可能的实现方式中,使用图神经网络的方式来对上述的特征矩阵进行进一步的处理,本申请实施例使用了图变分自编码器的方式来对上述矩阵进行进一步处理。图变分自编码器使用一个两层的图卷积神经网络作为其中的编码层,输入内容为图的一个特征矩阵X,因为每一个节点没有自己的特殊特征需要表述,因此使用一个单位矩阵来进行相关的表示,另外一个输入内容为上一步骤中得到的邻接矩阵A。通过图变分自编码器的方式,可以重构上面得到的邻接矩阵,此时矩阵中较为临近的内容的相似度也更高,通过这一方式,可以进行文本的分类。
S304:通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词。
S305:根据每个主题中的关键词和高频词,确定用户兴趣。
其中,步骤S304、步骤S305的实现方式与步骤S204、步骤S205的实现方式类似,在此不作赘述。
这里,本申请实施例通过图变分自编码器实现对文本的分类,通过图变分自编码器的方式可以较好地对文档进行分类,从而识别当前用户感兴趣的主题,以及每个主题中的一些关键信息,进一步地提高了用户兴趣识别的准确性。
可选地,本申请实施例通过预设隐含狄利克雷分布模型的方式进行文本数据的分类,相应的,图4为本申请实施例提供的又一种兴趣识别方法的流程示意图,如图4所示,该方法包括:
S401:获取语音通话数据,将语音通话数据转化为文本数据。
S402:根据文本数据,构建异构图,并通过统计方法确定异构图中的高频词。
S403:通过图神经网络的方式,对异构图进行分类处理,得到文本数据对应的至少一个分类。
其中,步骤S401-S403的实现方式与步骤S201-S203的实现方式类似,在此不作赘述。
S404:对于每个分类中的文档,将文档输入至预设隐含狄利克雷分布模型;通过隐含狄利克雷分布模型的输出结果,确定每个分类的主题以及每个主题中的关键词。
S405:根据每个主题中的关键词和高频词,确定用户兴趣。
可选地,在对于每个分类中的文档,将文档输入至预设隐含狄利克雷分布模型之前,还包括:获取隐含狄利克雷分布模型训练样本,其中,隐含狄利克雷分布模型训练样本包括词条样本、主题样本和文档样本;将隐含狄利克雷分布模型训练样本输入至隐含狄利克雷分布模型进行训练,得到预设隐含狄利克雷分布模型。
在一种可能的实现方式中,通过隐含狄利克雷分布的方式来进行主题的分析,这一方法是一种非监督学习的机器学习方法,预设隐含狄利克雷分布模型分为词条、主题和文档3层结构,用以获取大规模文档中潜在的主题分布信息。对每篇文档,LDA采用词袋模型将文本表示为词频向量,模型中词条出现的位置及先后顺序与最终得出的主题分布无关。LDA是在概率潜在语义分析(Probabilistic Latent Semantic Analysis,PLSA)模型的基础上加贝叶斯框架得到的,并且加入狄利克雷先验分布的影响。执行过程为:
对每篇文档,从主题分布中抽取一个主题;
从上述被抽到的主题所对应的单词分布中抽取一个主题;
重复上述过程直到遍历文档中的每一个单词。在具体实现的过程中可以设置需要生成的主题数。
其中,隐含狄利克雷分布模型是一种无监督学习算法,在训练时不需要手工标注的训练集,需要的仅仅是文档集以及指定主题的数量即可,节省了训练时间与步骤,进一步地提高了用户兴趣识别的效率,用户还可以指定主题数量,灵活性强。此外该模型另一个优点则是,对于每一个主题均可找出一些词语来描述它,用户兴趣识别准确性高。
通过上述方式对文本进行处理,比较高效且迅速。能够较快的掌握近期用户诉求,可以及时准备,从而更好地解决用户的一些问题。目前语音存储的成本较大,但它们也蕴含着很大的价值,如果能够通过上述的方式发掘用户潜在的兴趣,从而充分利用这些资料,减轻了存储成本。通过图变分自编码器的方式可以较好的识别当前用户感兴趣的主题,以及每个主题中的一些关键信息。避免了人工识别用户兴趣的不准确以及相应的人员浪费。
图5为本申请实施例提供的一种兴趣识别装置的结构示意图,如图5所示,本申请实施例的装置包括:获取模块501、图构建模块502、分类模块503、主题提取模块504和兴趣确定模块505。这里的兴趣识别装置可以是上述处理器本身,或者是实现处理器的功能的芯片或者集成电路。这里需要说明的是,获取模块501、图构建模块502、分类模块503、主题提取模块504和兴趣确定模块505的划分只是一种逻辑功能的划分,物理上两者可以是集成的,也可以是独立的。
其中,获取模块,用于获取语音通话数据,将语音通话数据转化为文本数据;
图构建模块,用于根据文本数据,构建异构图,并通过统计方法确定异构图中的高频词;
分类模块,用于通过图神经网络的方式,对异构图进行分类处理,得到文本数据对应的至少一个分类;
主题提取模块,用于通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词;
兴趣确定模块,用于根据每个主题中的关键词和高频词,确定用户兴趣。
可选地,图构建模块具体用于:
根据文本数据,确定文档节点和单词节点;
根据文档节点和单词节点,构建异构图。
可选地,异构图包括特征矩阵和邻接矩阵;
相应地,图构建模块还具体用于:
通过文档节点和单词节点,构建特征矩阵;
通过特征矩阵中所有节点之间的关系,构建邻接矩阵。
可选地,分类模块具体用于:
将特征矩阵和邻接矩阵输入至预设图变分自编码器模型,通过预设图变分自编码器模型的输出结果确定文本数据对应的至少一个分类。
可选地,在分类模块用于将特征矩阵和邻接矩阵输入至预设图变分自编码器模型,通过预设图变分自编码器模型的输出结果确定文本数据对应的至少一个分类之前,上述装置还包括第一训练模块,用于:
获取图变分自编码器模型训练样本,其中,图变分自编码器模型训练样本包括特征矩阵样本、邻接矩阵样本和重构邻接矩阵样本;
将图变分自编码器模型训练样本输入至图变分自编码器模型进行训练,得到预设图变分自编码器模型。
可选地,主题提取模块具体用于:
对于每个分类中的文档,将文档输入至预设隐含狄利克雷分布模型;
通过隐含狄利克雷分布模型的输出结果,确定每个分类的主题以及每个主题中的关键词。
可选地,在主题提取模块用于对于每个分类中的文档,将文档输入至预设隐含狄利克雷分布模型之前,上述装置还包括第二训练模块,用于:
获取隐含狄利克雷分布模型训练样本,其中,隐含狄利克雷分布模型训练样本包括词条样本、主题样本和文档样本;
将隐含狄利克雷分布模型训练样本输入至隐含狄利克雷分布模型进行训练,得到预设隐含狄利克雷分布模型。
可选地,在获取模块将语音通话数据转化为文本数据之前,获取模块还用于:
对语音通话数据进行预处理,得到过滤后语音通话数据;
相应地,获取模块还具体用于:
将过滤后语音通话数据转化为文本数据。
参考图6,其示出了适于用来实现本公开实施例的兴趣识别设备600的结构示意图,该兴趣识别设备600可以为终端设备或服务器。其中,终端设备可以包括但不限于诸如移动电话、笔记本电脑、数字广播接收器、个人数字助理(Personal Digital Assistant,简称PDA)、平板电脑(Portable Android Device,简称PAD)、便携式多媒体播放器(PortableMedia Player,简称PMP)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字TV、台式计算机等等的固定终端。图6示出的兴趣识别设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图6所示,兴趣识别设备600可以包括处理装置(例如中央处理器、图形处理器等)601,其可以根据存储在只读存储器(Read Only Memory,简称ROM)602中的程序或者从存储装置608加载到随机访问存储器(Random Access Memory,简称RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有兴趣识别设备600操作所需的各种程序和数据。处理装置601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
通常,以下装置可以连接至I/O接口605:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置606;包括例如液晶显示器(Liquid CrystalDisplay,简称LCD)、扬声器、振动器等的输出装置607;包括例如磁带、硬盘等的存储装置608;以及通信装置609。通信装置609可以允许兴趣识别设备600与其他设备进行无线或有线通信以交换数据。虽然图6示出了具有各种装置的兴趣识别设备600,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信装置609从网络上被下载和安装,或者从存储装置608被安装,或者从ROM 602被安装。在该计算机程序被处理装置601执行时,执行本公开实施例的方法中限定的上述功能。
需要说明的是,本公开上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:电线、光缆、RF(射频)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述兴趣识别设备中所包含的;也可以是单独存在,而未装配入该兴趣识别设备中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该兴趣识别设备执行时,使得该兴趣识别设备执行上述实施例所示的方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开的操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LocalArea Network,简称LAN)或广域网(Wide Area Network,简称WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,第一获取单元还可以被描述为“获取至少两个网际协议地址的单元”。
本文中以上描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
本申请实施例的兴趣识别设备,可以用于执行本申请上述各方法实施例中的技术方案,其实现原理和技术效果类似,此处不再赘述。
本申请实施例还提供一种计算机可读存储介质,该计算机可读存储介质中存储有计算机执行指令,计算机执行指令被处理器执行时用于实现上述任一项的兴趣识别方法。
本申请实施例还提供一种计算机程序产品,包括计算机程序,计算机程序被处理器执行时,用于实现上述任一项的兴趣识别方法。
在本申请所提供的几个实施例中,应该理解到,所揭露的系统,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求书指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求书来限制。

Claims (12)

1.一种兴趣识别方法,其特征在于,包括:
获取语音通话数据,将所述语音通话数据转化为文本数据;
根据所述文本数据,构建异构图,并通过统计方法确定所述异构图中的高频词;
通过图神经网络的方式,对所述异构图进行分类处理,得到所述文本数据对应的至少一个分类;
通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词;
根据所述每个主题中的关键词和所述高频词,确定用户兴趣。
2.根据权利要求1所述的方法,其特征在于,所述根据所述文本数据,构建异构图,包括:
根据所述文本数据,确定文档节点和单词节点;
根据所述文档节点和单词节点,构建异构图。
3.根据权利要求2所述的方法,其特征在于,所述异构图包括特征矩阵和邻接矩阵;
相应地,所述根据所述文档节点和单词节点,构建异构图,包括:
通过所述文档节点和所述单词节点,构建特征矩阵;
通过所述特征矩阵中所有节点之间的关系,构建邻接矩阵。
4.根据权利要求3所述的方法,其特征在于,所述通过图神经网络的方式,对所述异构图进行分类处理,得到所述文本数据对应的至少一个分类,包括:
将所述特征矩阵和所述邻接矩阵输入至预设图变分自编码器模型,通过所述预设图变分自编码器模型的输出结果确定所述文本数据对应的至少一个分类。
5.根据权利要求4所述的方法,其特征在于,在所述将所述特征矩阵和所述邻接矩阵输入至预设图变分自编码器模型,通过所述预设图变分自编码器模型的输出结果确定所述文本数据对应的至少一个分类之前,还包括:
获取图变分自编码器模型训练样本,其中,所述图变分自编码器模型训练样本包括特征矩阵样本、邻接矩阵样本和重构邻接矩阵样本;
将所述图变分自编码器模型训练样本输入至图变分自编码器模型进行训练,得到预设图变分自编码器模型。
6.根据权利要求1至4任一项所述的方法,其特征在于,所述通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词,包括:
对于每个分类中的文档,将所述文档输入至预设隐含狄利克雷分布模型;
通过所述隐含狄利克雷分布模型的输出结果,确定每个分类的主题以及每个主题中的关键词。
7.根据权利要求6所述的方法,其特征在于,在所述对于每个分类中的文档,将所述文档输入至预设隐含狄利克雷分布模型之前,还包括:
获取隐含狄利克雷分布模型训练样本,其中,所述隐含狄利克雷分布模型训练样本包括词条样本、主题样本和文档样本;
将所述隐含狄利克雷分布模型训练样本输入至隐含狄利克雷分布模型进行训练,得到预设隐含狄利克雷分布模型。
8.根据权利要求1至4任一项所述的方法,其特征在于,在所述将所述语音通话数据转化为文本数据之前,还包括:
对所述语音通话数据进行预处理,得到过滤后语音通话数据;
相应地,所述将所述语音通话数据转化为文本数据,包括:
将所述过滤后语音通话数据转化为文本数据。
9.一种兴趣识别装置,其特征在于,包括:
获取模块,用于获取语音通话数据,将所述语音通话数据转化为文本数据;
图构建模块,用于根据所述文本数据,构建异构图,并通过统计方法确定所述异构图中的高频词;
分类模块,用于通过图神经网络的方式,对所述异构图进行分类处理,得到所述文本数据对应的至少一个分类;
主题提取模块,用于通过隐含狄利克雷分布的方式,对每个分类中的文档进行主题分析处理,得到每个分类的主题以及每个主题中的关键词;
兴趣确定模块,用于根据所述每个主题中的关键词和所述高频词,确定用户兴趣。
10.一种兴趣识别设备,其特征在于,包括:处理器,以及与所述处理器通信连接的存储器;
所述存储器存储计算机执行指令;
所述处理器执行所述存储器存储的计算机执行指令,以实现如权利要求1至8任一项所述的方法。
11.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机执行指令,所述计算机执行指令被处理器执行时用于实现如权利要求1至8任一项所述的方法。
12.一种计算机程序产品,包括计算机程序,其特征在于,该计算机程序被处理器执行时实现权利要求1至8任一项所述的方法。
CN202310391666.3A 2023-04-13 2023-04-13 兴趣识别方法、装置、设备及存储介质 Pending CN116401367A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310391666.3A CN116401367A (zh) 2023-04-13 2023-04-13 兴趣识别方法、装置、设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310391666.3A CN116401367A (zh) 2023-04-13 2023-04-13 兴趣识别方法、装置、设备及存储介质

Publications (1)

Publication Number Publication Date
CN116401367A true CN116401367A (zh) 2023-07-07

Family

ID=87012049

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310391666.3A Pending CN116401367A (zh) 2023-04-13 2023-04-13 兴趣识别方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (1) CN116401367A (zh)

Similar Documents

Publication Publication Date Title
CN107992596B (zh) 一种文本聚类方法、装置、服务器和存储介质
CN107291828B (zh) 基于人工智能的口语查询解析方法、装置及存储介质
CN106897439B (zh) 文本的情感识别方法、装置、服务器以及存储介质
CN112164391A (zh) 语句处理方法、装置、电子设备及存储介质
CN109522396B (zh) 一种面向国防科技领域的知识处理方法及系统
CN113806588A (zh) 搜索视频的方法和装置
CN111538903B (zh) 搜索推荐词确定方法、装置、电子设备及计算机可读介质
CN111414471B (zh) 用于输出信息的方法和装置
CN113204691A (zh) 一种信息展示方法、装置、设备及介质
CN113220999A (zh) 用户特征的生成方法、装置、电子设备和存储介质
CN115840808A (zh) 科技项目咨询方法、装置、服务器及计算机可读存储介质
CN111078849A (zh) 用于输出信息的方法和装置
CN117407507A (zh) 基于大语言模型的事件处理方法、装置、设备及介质
CN113011156A (zh) 审核文本的质检方法、装置、介质以及电子设备
CN116402166A (zh) 一种预测模型的训练方法、装置、电子设备及存储介质
CN113111167A (zh) 基于深度学习模型的接处警文本车辆型号提取方法和装置
CN116010545A (zh) 一种数据处理方法、装置及设备
CN113505293B (zh) 信息推送方法、装置、电子设备及存储介质
CN115292506A (zh) 应用于办公领域的知识图谱本体构建方法和装置
CN115358817A (zh) 基于社交数据的智能产品推荐方法、装置、设备及介质
CN114490946A (zh) 基于Xlnet模型的类案检索方法、系统及设备
CN116401367A (zh) 兴趣识别方法、装置、设备及存储介质
CN114398482A (zh) 一种词典构造方法、装置、电子设备及存储介质
CN113870998A (zh) 问诊方法、装置、电子设备和存储介质
CN110502630B (zh) 信息处理方法及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination