CN112528010A - 知识推荐方法、装置、计算机设备及可读存储介质 - Google Patents
知识推荐方法、装置、计算机设备及可读存储介质 Download PDFInfo
- Publication number
- CN112528010A CN112528010A CN202011473041.4A CN202011473041A CN112528010A CN 112528010 A CN112528010 A CN 112528010A CN 202011473041 A CN202011473041 A CN 202011473041A CN 112528010 A CN112528010 A CN 112528010A
- Authority
- CN
- China
- Prior art keywords
- knowledge
- short term
- term memory
- vector
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3346—Query execution using probabilistic model
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明实施例提供了一种知识推荐方法、装置、计算机设备及可读存储介质,其中,该方法包括:接收检索问题的知识文本;将知识文本输入知识推荐模型,知识推荐模型输出多个知识以及每个知识对应的概率,知识推荐模型学习样本中知识之间的关系特征和使用轨迹特征;根据概率大小从输出的多个知识中推荐知识。该方案无论用户是否为首次使用都可以向用户推荐知识;可以基于当前检索的知识文本预测出用户后续下一步可能需要检索的知识,可以解决检索中不连续、跳跃性问题的知识推荐问题;不需要人工标注,知识推荐模型的好坏也是可以具有可量化性的,上述知识推荐方法有利于提高推荐的准确性,对于不同的知识库系统相对具有很好的推广和快速启动性。
Description
技术领域
本发明涉及信息推荐技术领域,特别涉及一种知识推荐方法、装置、计算机设备及可读存储介质。
背景技术
在推荐系统中,目前大多数采用协同过滤的思想,一方面基于知识内容一方面基于用户行为习惯。在大多数使用的知识库系统的场景中,用户还是简单的使用搜索框搜索关键词来寻找答案,经常需要多次搜索,不断改变关键字,串联搜索结果拼接出想要的答案。比如用户想问:公积金银行卡丢了怎么办。一般搜索结果:会提示先挂失和补办需要带的材料。接着用户还会问补办的公积金卡需要去公积金中心激活么,然后再次搜索。接着用户还会搜附近的公积金中心,激活公积金需要的材料,公积金中心的上班时间等一系列问题。这么一轮下来,需要搜索3-5次中间还有不同情况的分支问题。基于传统的推荐系统,在用户的搜索的第一个问题的时候就会推荐其他卡挂失方法,相关金融术语等。
目前,知识库系统推荐知识大多数是根据用户的行为习惯进行推荐,比如收藏、点赞、评论等行为。例如,现有技术提供了一种基于知识库的推荐方法、系统及装置,包括读取用户的资讯阅读记录;根据资讯阅读记录,获取资讯阅读记录中资讯的标签,得到待分析标签;根据待分析标签,分析生成推荐列表。该方法通过实时分析用户的资讯阅读记录,并在知识库和百科平台搜索库中进行分析,得到词与词之间的关系链,从而在资讯推荐过程中能够更好的处理优先级、相关性的问题,有效提高推荐的准确率,可广泛应用于资讯推荐应用中。即基于用户的使用习惯,提取知识标签,通过分类标签进行推荐。
但是,该方法存在以下缺陷:首先,在用户初次使用知识库的时候,知识库系统没有用户行为数据,没法提取到用户的特征去预测和推理以及推荐。其次,该方法推荐系统是根据知识的相关性进行推荐,在词、句子、文本层面、甚至在知识层面挖掘知识的内在联系,建立网络进行预测和推荐,这样的方式适合资讯推荐并不适合寻求答案式搜索,因为其解决不了用户遇到的不连续、跳跃性的问题。
现有技术中大多数推荐系统需要人工标准数据,比如,建立知识标签、知识图谱等。例如,现有技术提供了一种基于深度知识感知的信息推荐方法和系统,该方法包括:获取用户历史点击信息的实体集;对历史点击信息的实体集中的每一个实体,在预先建立的知识图谱中查找与其具有知识关联的实体,获取实体向量集;对实体向量集中的每一个实体,在知识图谱中查找与其对应的特征词,获取词向量集;对词向量集和历史点击信息的预设特征进行特征提取,获取历史信息特征集;根据历史信息特征集推荐一条以上候选推荐信息;计算用户对于每一条候选推荐信息的点击概率;将点击概率按照从大到小排序,生成信息推荐列表。该方法需要预先建立知识图谱,并且该方法对于知识是基于知识图谱的特征提取,特征提取好坏完全取决于建立的知识图谱,知识图谱的好坏不好量化,进而无法确保知识推荐的准确性。
发明内容
本发明实施例提供了一种知识推荐方法,以解决现有技术中知识推荐存在的无法实现用户首次使用时的知识推荐、推荐不准确、无法解决不连续或跳跃性问题的知识推荐的技术问题。该方法包括:
接收检索问题的知识文本;
将所述知识文本输入知识推荐模型,所述知识推荐模型输出多个知识以及每个知识对应的概率,其中,所述知识推荐模型是以历史检索问题的知识文本为样本训练神经网络得到的,所述知识推荐模型学习样本中知识之间的关系特征和使用轨迹特征,概率表示每个知识被检索的概率;
根据概率大小从输出的多个知识中推荐知识。
本发明实施例还提供了一种知识推荐装置,以解决现有技术中知识推荐存在的无法实现用户首次使用时的知识推荐、推荐不准确、无法解决不连续或跳跃性问题的知识推荐的技术问题。该装置包括:
检索知识接收模块,用于接收检索问题的知识文本;
推荐知识预测模块,用于将所述知识文本输入知识推荐模型,所述知识推荐模型输出多个知识以及每个知识对应的概率,其中,所述知识推荐模型是以历史检索问题的知识文本为样本训练神经网络得到的,所述知识推荐模型学习样本中知识之间的关系特征和使用轨迹特征,概率表示每个知识被检索的概率;
知识推荐模块,用于根据概率大小从输出的多个知识中推荐知识。
本发明实施例还提供了一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意的知识推荐方法,以解决现有技术中知识推荐存在的无法实现用户首次使用时的知识推荐、推荐不准确、无法解决不连续或跳跃性问题的知识推荐的技术问题。
本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述任意的知识推荐方法的计算机程序,以解决现有技术中知识推荐存在的无法实现用户首次使用时的知识推荐、推荐不准确、无法解决不连续或跳跃性问题的知识推荐的技术问题。
在本发明实施例中,针对用户的检索问题的知识文本,提出了采用提前训练的知识推荐模型来预测用户后续可能还会检索的知识以及知识对应的概率,进而根据概率向用户推荐知识即可,由于知识推荐模型是基于历史检索问题的知识文本为样本训练神经网络得到的,并不是根据当前检索用户的使用习惯或行为习惯得到的,因此,无论用户是否为首次使用都可以向用户推荐知识;同时,由于知识推荐模型是基于历史检索问题的知识文本为样本训练神经网络得到的,该知识推荐模型学习了样本中知识之间的关系特征和使用轨迹特征,即该知识推荐模型既学习了知识之间表示相关性的关系特征又学习了知识之间表示跳转顺序的使用轨迹特征,因此,该知识推荐模型可以基于当前检索的知识文本预测出用户后续下一步可能需要检索的知识,进而实现了可以解决检索中不连续、跳跃性问题的知识推荐问题;此外,由于知识推荐模型训练采用的样本是历史检索问题的知识文本,不需要人工标注,知识推荐模型的好坏也是可以具有可量化性的,因此,相对现有技术,上述知识推荐方法有利于提高推荐的准确性,对于不同的知识库系统相对具有很好的推广和快速启动性。
附图说明
此处所说明的附图用来提供对本发明的进一步理解,构成本申请的一部分,并不构成对本发明的限定。在附图中:
图1是本发明实施例提供的一种知识推荐方法的流程图;
图2是本发明实施例提供的一种训练知识推荐模型中数据流的示意图;
图3是本发明实施例提供的一种训练知识推荐模型的原理示意图;
图4是本发明实施例提供的另一种训练知识推荐模型中数据流的示意图
图5是本发明实施例提供的一种双向长短期记忆网络的数据流示意图;
图6是本发明实施例提供的一种实施上述知识推荐方法的流程图;
图7是本发明实施例提供的一种应用上述知识推荐方法的实现知识推荐的示例;
图8是本发明实施例提供的一种计算机设备的结构框图;
图9是本发明实施例提供的一种知识推荐装置的结构框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚明白,下面结合实施方式和附图,对本发明做进一步详细说明。在此,本发明的示意性实施方式及其说明用于解释本发明,但并不作为对本发明的限定。
在本发明实施例中,提供了一种知识推荐方法,如图1所示,该方法包括:
步骤102:接收检索问题的知识文本;
步骤104:将所述知识文本输入知识推荐模型,所述知识推荐模型输出多个知识以及每个知识对应的概率,其中,所述知识推荐模型是以历史检索问题的知识文本为样本训练神经网络得到的,所述知识推荐模型学习样本中知识之间的关系特征和使用轨迹特征,概率表示每个知识被检索的概率;
步骤106:根据概率大小从输出的多个知识中推荐知识。
由图1所示的流程可知,在本发明实施例中,针对用户的检索问题的知识文本,提出了采用提前训练的知识推荐模型来预测用户后续可能还会检索的知识以及知识对应的概率,进而根据概率向用户推荐知识即可,由于知识推荐模型是基于历史检索问题的知识文本为样本训练神经网络得到的,并不是根据当前检索用户的使用习惯或行为习惯得到的,因此,无论用户是否为首次使用都可以向用户推荐知识;同时,由于知识推荐模型是基于历史检索问题的知识文本为样本训练神经网络得到的,该知识推荐模型学习了样本中知识之间的关系特征和使用轨迹特征,即该知识推荐模型既学习了知识之间表示相关性的关系特征又学习了知识之间表示跳转顺序的使用轨迹特征,因此,该知识推荐模型可以基于当前检索的知识文本预测出用户后续下一步可能需要检索的知识,进而实现了可以解决检索中不连续、跳跃性问题的知识推荐问题;此外,由于知识推荐模型训练采用的样本是历史检索问题的知识文本,不需要人工标注,知识推荐模型的好坏也是可以具有可量化性的,因此,相对现有技术,上述知识推荐方法有利于提高推荐的准确性,对于不同的知识库系统相对具有很好的推广和快速启动性。
具体实施时,上述用于训练知识推荐模型的历史检索问题的知识文本可以是一段时长内的检索问题的知识文本。具体的,可以是一段时长内所有用户知识浏览行为数据的收集,如记录所有用户在一段时间中所使用到的知识集合,其中数据可以从操作记录流水中批量获取,通过程序提取出业务流程中使用的知识,无需标注,大大节省人工成本。
具体实施时,基于历史检索问题的知识文本为样本训练神经网络得到知识推荐模型的过程,本实施例提出了一种通过训练长短期记忆网络来得到知识推荐模型,例如,从历史检索问题的知识文本中提取属性特征;将每个属性特征和对应的知识ID进行向量拼接后输入长短期记忆网络,所述长短期记忆网络学习属性特征之间的关系特征和使用轨迹特征,计算不同属性特征对应知识的概率并输出,得到所述知识推荐模型。
具体的,上述长短期记忆网络(LSTM)可以采用现有的网络结构,直接将属性特征和对应的知识ID进行向量拼接后依次输入长短期记忆网络的各个节点即可,长短期记忆网络通过无监督学习方式来学习知识之间的表示相关性的关系特征和知识之间的表示跳转顺序或先后的使用轨迹特征,通过训练配置网络中节点参数值,进而可以计算出当前检索知识后续下一步可能检索的不同知识对应的概率,即实现推荐知识的预测。
具体的,如图2所示,长短期记忆网络的基础网络框架如图2所示,包括:输入层、计算处理层和输出层。输入层输入的是知识id(或ID)Kn和知识的属性特征tn,计算处理层使用LSTM的网络结构,LSTM的第一个节点输入的知识id和知识的属性向量:K1+t1,其中只做了向量的拼接。目标输出是知识idK2,LSTM的第一个节点计算输出向量g1作为LSTM的第二个节点的输入,并同时把K2输入到LSTM的第二个节点中,目标输出是知识idK3,以此类推,将第n-1个节点计算输出向量gn-1作为第n个节点的输入,并同时把知识idKn-1输入到n个LSTM节点中,目标输出是Kn。
具体实施时,上述属性特征可以是知识的类型等特征,上述知识ID可以是编码等。
具体实施时,为了进一步提高推荐的准确性,在本实施例中,在训练知识推荐模型的过程中,提出除了在输入层中直接使用知识id和属性特征作为LSTM网络的输入之外,还考虑到知识内容的特征以及知识内容的相关性,于是优化了输入层的输入,将知识id、属性特征和内容特征同时输入LSTM网络进行训练,例如,从历史检索问题的知识文本中提取属性特征;将每个属性特征和对应的知识ID进行向量拼接得到属性特征向量;对历史检索问题的知识文本进行分词,并将每个分词映射成向量,得到词向量;从所述词向量中提取知识的内容特征向量;将所述内容特征向量和所述属性特征向量输入长短期记忆网络,所述长短期记忆网络学习基于所述内容特征向量和所述属性特征向量学习知识之间的关系特征和使用轨迹特征,计算不同知识的概率并输出,得到所述知识推荐模型。
具体实施时,对知识文本进行分词的过程中,可以采用现有的分词方法,例如,通过分词将某个知识K1分解成多个词Wn,则K1=W1,W2,……Wn,每个词可以经过word2vec映射成低维词向量Vn来进行语义表达。具体的,可以使用word2vec开源工具包训练生成词向量完成文本向量化,其主要是因为word2vec是无监督学习方法并且不会丢失词之间的内在关系。
具体实施时,为了进一步提高推荐的准确性,在本实施例中,如图3所示,提出了采用双向长短期记忆网络(BI-LSTM)来提取内容特征向量和属性特征向量,进而将内容特征向量和属性特征向量输入LSTM进行训练得到知识推荐模型。
具体的,通过双向长短期记忆网络(BI-LSTM)来提取内容特征向量的过程,如图4所示,通过构造两层循环神经网络实现以两个不同方向获取信息,同时两层循环神经网络都连接相同的输入,这个结构可以提供给上一层循环神经网络每个单元结构完整的上下文信息。例如,如图5所示,将所述词向量以正向输入双向长短期记忆网络的前向长短期记忆网络中,将所述词向量以反向输入所述双向长短期记忆网络的后向长短期记忆网络中,所述双向长短期记忆网络输出从所述词向量中提取的知识的内容特征向量,知识分词后形长度为l的单词序列,将其输入BI-LSTM模块后得到两个大小为l×n的词向量矩阵,其中n为word2vec训练出的词向量维度。
具体的,如图4所示,将知识Kn分别分解成多个词Wn为例,则Kn=W1,W2,……Wn,把知识文本中映射的第一个词向量作为前向LSTM的第一个节点的输入,前向LSTM网络会输出向量再把和知识文本中映射的第二个词向量作为前向LSTM的第二个节点的输入,以此类推;同时把知识文本中映射的最后一个词向量作为后向最后一个LSTM节点的输入,后向LSTM网络会输出向量再把和知识文本中映射的倒数第二个词向量作为后向第二个LSTM节点的输入,以此类推;然后拼接双向循环网络的输出和得到即上述内容特征向量,前向输出表征了历史上下文信息,而后向输出和则表征了未来的上下文信息用。zt1代表知识K1的内容特征向量。这么处理的原因是当把bi-lstm的前向和后向输出的两个向量作为下一层LSTM网络的输入,这样的结构可以学习到知识内容之间的关系,并且可以获取上下两个知识之间的时序关系,进而得到使用轨迹。
具体的,知识的属性特征在向量化后,同样可以输入到Bi-LSTM层中,将每个属性特征和对应的知识ID进行向量拼接后以正向输入双向长短期记忆网络的前向长短期记忆网络中,将将每个属性特征和对应的知识ID进行向量拼接后以反向输入所述双向长短期记忆网络的后向长短期记忆网络中,所述双向长短期记忆网络输出所述属性特征向量,具体输入过程和将知识内容的词向量输入Bi-LSTM的流程相似,最后输出2个向量值,将两个向量值作为上述属性特征向量,可以表示为
具体实施时,将将所述内容特征向量和所述属性特征向量输入长短期记忆网络进行训练的过程,如图4所示,在输入LSTM层之前,需要把知识的内容特征向量和知识的属性特征向量进行拼接得到接着把ht1输入到LSTM单元,目标预测是K2,同时输出向量g1。第二个LSTM单元节点的输入g1和K2经过Bi-lstm层提取特征值ht2,经过LSTM单元目标输出是K3,同时输出向量g2。以此类推,调整参数训练网络。最后,使用激活函数sigmoid函数,使用Softmax作为分类器,将LSTM处理层输出向量的值映射在(0,1)区间内。输出部分取Softmax分类后的结果,以得到最终推荐的知识的概率分布。
具体实施时,可以根据概率大小从输出的多个知识中推荐知识,例如,可以取概率比较最大的前5项知识作为预测输出:输出知识id知识标题。
具体实施时,如图6所示,实施上述知识推荐方法的过程包括以下步骤:。
S1、对历史检索问题的知识进行分词处理,并将分词结果映射成词向量;
S2、对历史检索问题的知识的属性标签进行预处理,得到属性特征;
S3、将词向量输入BI-LSTM中对知识提取内容特征向量;
S4、将属性特征和知识ID向量拼接后输入BI-LSTM中提取属性特征向量;
S5、将容特征向量和属性特征向量输入LSTM中进行训练得到知识推荐模型;
S6、当用户进行检索点击某个知识;
S7、上述知识推荐方法将该知识提取属性特征向量和内容特征向量输入知识推荐模型,知识推荐模型输入推荐知识及其对应的概率。
具体的,在实施阶段,利用训练的知识推荐模型,对用户输入知识值进行预测。如图7所示,当用户1进入系统,点击了知识2,然后依次点击知识1、6、5,根据用户的点击知识的行为轨迹、知识的相关属性,知识推荐模型就会做出相应的预测。图中不同颜色表示不同类型的知识。
此外,上述知识推荐模型具有可解释性和较强的推理能力,如下表1所示,通过针对同一个搜索问题“公积金银行卡丢了怎么办”,现有推荐算法推荐的知识不如本申请中基于知识ID和知识属性训练的模型(即下表1中的本申请的推荐算法)和基于属性特征向量和内容特征向量训练的模型(即下表1中的本申请的优化推荐算法)的推荐结果准确。
表1
在本实施例中,提供了一种计算机设备,如图8所示,包括存储器802、处理器804及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述任意的知识推荐方法。
具体的,该计算机设备可以是计算机终端、服务器或者类似的运算装置。
在本实施例中,提供了一种计算机可读存储介质,所述计算机可读存储介质存储有执行上述任意的知识推荐方法的计算机程序。
具体的,计算机可读存储介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机可读存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读存储介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
基于同一发明构思,本发明实施例中还提供了一种知识推荐装置,如下面的实施例所述。由于知识推荐装置解决问题的原理与知识推荐方法相似,因此知识推荐装置的实施可以参见知识推荐方法的实施,重复之处不再赘述。以下所使用的,术语“单元”或者“模块”可以实现预定功能的软件和/或硬件的组合。尽管以下实施例所描述的装置较佳地以软件来实现,但是硬件,或者软件和硬件的组合的实现也是可能并被构想的。
图9是本发明实施例的知识推荐装置的一种结构框图,如图9所示,该装置包括:
检索知识接收模块902,用于接收检索问题的知识文本;
推荐知识预测模块904,用于将所述知识文本输入知识推荐模型,所述知识推荐模型输出多个知识以及每个知识对应的概率,其中,所述知识推荐模型是以历史检索问题的知识文本为样本训练神经网络得到的,所述知识推荐模型学习样本中知识之间的关系特征和使用轨迹特征,概率表示每个知识被检索的概率;
知识推荐模块906,用于根据概率大小从输出的多个知识中推荐知识。
在一个实施例中,还包括:
第一模型训练模块,用于从历史检索问题的知识文本中提取属性特征;将每个属性特征和对应的知识ID进行向量拼接后输入长短期记忆网络,所述长短期记忆网络学习属性特征之间的关系特征和使用轨迹特征,计算不同属性特征对应知识的概率并输出,得到所述知识推荐模型。
在一个实施例中,还包括:第二模型训练模块,包括:
属性特征提取单元,用于从历史检索问题的知识文本中提取属性特征;
属性特征向量拼接单元,用于将每个属性特征和对应的知识ID进行向量拼接得到属性特征向量;
分词单元,用于对历史检索问题的知识文本进行分词,并将每个分词映射成向量,得到词向量;
内容特征提取单元,用于从所述词向量中提取知识的内容特征向量;
模型训练单元,用于将所述内容特征向量和所述属性特征向量输入长短期记忆网络,所述长短期记忆网络学习基于所述内容特征向量和所述属性特征向量学习知识之间的关系特征和使用轨迹特征,计算不同知识的概率并输出,得到所述知识推荐模型。
在一个实施例中,所述内容特征提取单元,具体用于将所述词向量以正向输入双向长短期记忆网络的前向长短期记忆网络中,将所述词向量以反向输入所述双向长短期记忆网络的后向长短期记忆网络中,所述双向长短期记忆网络输出从所述词向量中提取的知识的内容特征向量;
所述属性特征向量拼接单元,具体用于将每个属性特征和对应的知识ID进行向量拼接后以正向输入双向长短期记忆网络的前向长短期记忆网络中,将将每个属性特征和对应的知识ID进行向量拼接后以反向输入所述双向长短期记忆网络的后向长短期记忆网络中,所述双向长短期记忆网络输出所述属性特征向量。
本发明实施例实现了如下技术效果:针对用户的检索问题的知识文本,提出了采用提前训练的知识推荐模型来预测用户后续可能还会检索的知识以及知识对应的概率,进而根据概率向用户推荐知识即可,由于知识推荐模型是基于历史检索问题的知识文本为样本训练神经网络得到的,并不是根据当前检索用户的使用习惯或行为习惯得到的,因此,无论用户是否为首次使用都可以向用户推荐知识;同时,由于知识推荐模型是基于历史检索问题的知识文本为样本训练神经网络得到的,该知识推荐模型学习了样本中知识之间的关系特征和使用轨迹特征,即该知识推荐模型既学习了知识之间表示相关性的关系特征又学习了知识之间表示跳转顺序的使用轨迹特征,因此,该知识推荐模型可以基于当前检索的知识文本预测出用户后续下一步可能需要检索的知识,进而实现了可以解决检索中不连续、跳跃性问题的知识推荐问题;此外,由于知识推荐模型训练采用的样本是历史检索问题的知识文本,不需要人工标注,知识推荐模型的好坏也是可以具有可量化性的,因此,相对现有技术,上述知识推荐方法有利于提高推荐的准确性,对于不同的知识库系统相对具有很好的推广和快速启动性。
显然,本领域的技术人员应该明白,上述的本发明实施例的各模块或各步骤可以用通用的计算装置来实现,它们可以集中在单个的计算装置上,或者分布在多个计算装置所组成的网络上,可选地,它们可以用计算装置可执行的程序代码来实现,从而,可以将它们存储在存储装置中由计算装置来执行,并且在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤,或者将它们分别制作成各个集成电路模块,或者将它们中的多个模块或步骤制作成单个集成电路模块来实现。这样,本发明实施例不限制于任何特定的硬件和软件结合。
以上所述仅为本发明的优选实施例而已,并不用于限制本发明,对于本领域的技术人员来说,本发明实施例可以有各种更改和变化。凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (10)
1.一种知识推荐方法,其特征在于,包括:
接收检索问题的知识文本;
将所述知识文本输入知识推荐模型,所述知识推荐模型输出多个知识以及每个知识对应的概率,其中,所述知识推荐模型是以历史检索问题的知识文本为样本训练神经网络得到的,所述知识推荐模型学习样本中知识之间的关系特征和使用轨迹特征,概率表示每个知识被检索的概率;
根据概率大小从输出的多个知识中推荐知识。
2.如权利要求1所述的知识推荐方法,其特征在于,以历史检索问题的知识文本为样本训练神经网络得到所述知识推荐模型,包括:
从历史检索问题的知识文本中提取属性特征;
将每个属性特征和对应的知识ID进行向量拼接后输入长短期记忆网络,所述长短期记忆网络学习属性特征之间的关系特征和使用轨迹特征,计算不同属性特征对应知识的概率并输出,得到所述知识推荐模型。
3.如权利要求1所述的知识推荐方法,其特征在于,以历史检索问题的知识文本为样本训练神经网络得到所述知识推荐模型,包括:
从历史检索问题的知识文本中提取属性特征;
将每个属性特征和对应的知识ID进行向量拼接得到属性特征向量;
对历史检索问题的知识文本进行分词,并将每个分词映射成向量,得到词向量;
从所述词向量中提取知识的内容特征向量;
将所述内容特征向量和所述属性特征向量输入长短期记忆网络,所述长短期记忆网络学习基于所述内容特征向量和所述属性特征向量学习知识之间的关系特征和使用轨迹特征,计算不同知识的概率并输出,得到所述知识推荐模型。
4.如权利要求3所述的知识推荐方法,其特征在于,从所述词向量中提取知识的内容特征向量;包括:
将所述词向量以正向输入双向长短期记忆网络的前向长短期记忆网络中,将所述词向量以反向输入所述双向长短期记忆网络的后向长短期记忆网络中,所述双向长短期记忆网络输出从所述词向量中提取的知识的内容特征向量;
将每个属性特征和对应的知识ID进行向量拼接得到属性特征向量,包括:
将每个属性特征和对应的知识ID进行向量拼接后以正向输入双向长短期记忆网络的前向长短期记忆网络中,将将每个属性特征和对应的知识ID进行向量拼接后以反向输入所述双向长短期记忆网络的后向长短期记忆网络中,所述双向长短期记忆网络输出所述属性特征向量。
5.一种知识推荐装置,其特征在于,包括:
检索知识接收模块,用于接收检索问题的知识文本;
推荐知识预测模块,用于将所述知识文本输入知识推荐模型,所述知识推荐模型输出多个知识以及每个知识对应的概率,其中,所述知识推荐模型是以历史检索问题的知识文本为样本训练神经网络得到的,所述知识推荐模型学习样本中知识之间的关系特征和使用轨迹特征,概率表示每个知识被检索的概率;
知识推荐模块,用于根据概率大小从输出的多个知识中推荐知识。
6.如权利要求5所述的知识推荐装置,其特征在于,还包括:
第一模型训练模块,用于从历史检索问题的知识文本中提取属性特征;将每个属性特征和对应的知识ID进行向量拼接后输入长短期记忆网络,所述长短期记忆网络学习属性特征之间的关系特征和使用轨迹特征,计算不同属性特征对应知识的概率并输出,得到所述知识推荐模型。
7.如权利要求5所述的知识推荐装置,其特征在于,还包括:第二模型训练模块,包括:
属性特征提取单元,用于从历史检索问题的知识文本中提取属性特征;
属性特征向量拼接单元,用于将每个属性特征和对应的知识ID进行向量拼接得到属性特征向量;
分词单元,用于对历史检索问题的知识文本进行分词,并将每个分词映射成向量,得到词向量;
内容特征提取单元,用于从所述词向量中提取知识的内容特征向量;
模型训练单元,用于将所述内容特征向量和所述属性特征向量输入长短期记忆网络,所述长短期记忆网络学习基于所述内容特征向量和所述属性特征向量学习知识之间的关系特征和使用轨迹特征,计算不同知识的概率并输出,得到所述知识推荐模型。
8.如权利要求7所述的知识推荐装置,其特征在于,所述内容特征提取单元,具体用于将所述词向量以正向输入双向长短期记忆网络的前向长短期记忆网络中,将所述词向量以反向输入所述双向长短期记忆网络的后向长短期记忆网络中,所述双向长短期记忆网络输出从所述词向量中提取的知识的内容特征向量;
所述属性特征向量拼接单元,具体用于将每个属性特征和对应的知识ID进行向量拼接后以正向输入双向长短期记忆网络的前向长短期记忆网络中,将将每个属性特征和对应的知识ID进行向量拼接后以反向输入所述双向长短期记忆网络的后向长短期记忆网络中,所述双向长短期记忆网络输出所述属性特征向量。
9.一种计算机设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现权利要求1至4中任一项所述的知识推荐方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有执行权利要求1至4中任一项所述的知识推荐方法的计算机程序。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011473041.4A CN112528010B (zh) | 2020-12-15 | 2020-12-15 | 知识推荐方法、装置、计算机设备及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011473041.4A CN112528010B (zh) | 2020-12-15 | 2020-12-15 | 知识推荐方法、装置、计算机设备及可读存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112528010A true CN112528010A (zh) | 2021-03-19 |
CN112528010B CN112528010B (zh) | 2022-09-02 |
Family
ID=74999857
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011473041.4A Active CN112528010B (zh) | 2020-12-15 | 2020-12-15 | 知识推荐方法、装置、计算机设备及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112528010B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113157870A (zh) * | 2021-05-19 | 2021-07-23 | 中国银行股份有限公司 | 一种知识关联的方法、装置及电子设备 |
CN113449001A (zh) * | 2021-07-12 | 2021-09-28 | 中国银行股份有限公司 | 一种知识处理方法、装置及电子设备 |
CN113792153A (zh) * | 2021-08-25 | 2021-12-14 | 北京百度网讯科技有限公司 | 问答推荐方法及其装置 |
CN113837836A (zh) * | 2021-09-18 | 2021-12-24 | 珠海格力电器股份有限公司 | 模型推荐方法、装置、设备及存储介质 |
Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107025228A (zh) * | 2016-01-29 | 2017-08-08 | 阿里巴巴集团控股有限公司 | 一种问题推荐方法及设备 |
CN107451199A (zh) * | 2017-07-05 | 2017-12-08 | 阿里巴巴集团控股有限公司 | 问题推荐方法及装置、设备 |
CN108509617A (zh) * | 2018-04-04 | 2018-09-07 | 上海智臻智能网络科技股份有限公司 | 知识库构建、基于知识库的智能问答方法及装置、存储介质、终端 |
CN108804689A (zh) * | 2018-06-14 | 2018-11-13 | 合肥工业大学 | 面向问答平台的融合用户隐连接关系的标签推荐方法 |
CN109165350A (zh) * | 2018-08-23 | 2019-01-08 | 成都品果科技有限公司 | 一种基于深度知识感知的信息推荐方法和系统 |
CN109582778A (zh) * | 2018-12-12 | 2019-04-05 | 东软集团股份有限公司 | 一种智能问答方法、装置、设备及介质 |
CN109670542A (zh) * | 2018-12-11 | 2019-04-23 | 田刚 | 一种基于评论外部信息的虚假评论检测方法 |
CN110032630A (zh) * | 2019-03-12 | 2019-07-19 | 阿里巴巴集团控股有限公司 | 话术推荐设备、方法及模型训练设备 |
CN110543557A (zh) * | 2019-09-06 | 2019-12-06 | 北京工业大学 | 一种基于注意力机制的医疗智能问答系统的构建方法 |
CN110597968A (zh) * | 2019-04-28 | 2019-12-20 | 河北省讯飞人工智能研究院 | 一种回复选择方法及装置 |
CN111026853A (zh) * | 2019-12-02 | 2020-04-17 | 支付宝(杭州)信息技术有限公司 | 目标问题的确定方法、装置、服务器和客服机器人 |
CN111078990A (zh) * | 2018-10-18 | 2020-04-28 | 千寻位置网络有限公司 | 对资源链接进行编排推荐系统及方法 |
CN111274494A (zh) * | 2020-01-20 | 2020-06-12 | 重庆大学 | 结合深度学习和协同过滤技术的复合标签推荐方法 |
CN111552789A (zh) * | 2020-04-27 | 2020-08-18 | 中国银行股份有限公司 | 一种客服知识库自学习方法及装置 |
CN111695354A (zh) * | 2020-05-20 | 2020-09-22 | 平安科技(深圳)有限公司 | 基于命名实体的文本问答方法、装置及可读存储介质 |
-
2020
- 2020-12-15 CN CN202011473041.4A patent/CN112528010B/zh active Active
Patent Citations (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107025228A (zh) * | 2016-01-29 | 2017-08-08 | 阿里巴巴集团控股有限公司 | 一种问题推荐方法及设备 |
CN107451199A (zh) * | 2017-07-05 | 2017-12-08 | 阿里巴巴集团控股有限公司 | 问题推荐方法及装置、设备 |
CN108509617A (zh) * | 2018-04-04 | 2018-09-07 | 上海智臻智能网络科技股份有限公司 | 知识库构建、基于知识库的智能问答方法及装置、存储介质、终端 |
CN108804689A (zh) * | 2018-06-14 | 2018-11-13 | 合肥工业大学 | 面向问答平台的融合用户隐连接关系的标签推荐方法 |
CN109165350A (zh) * | 2018-08-23 | 2019-01-08 | 成都品果科技有限公司 | 一种基于深度知识感知的信息推荐方法和系统 |
CN111078990A (zh) * | 2018-10-18 | 2020-04-28 | 千寻位置网络有限公司 | 对资源链接进行编排推荐系统及方法 |
CN109670542A (zh) * | 2018-12-11 | 2019-04-23 | 田刚 | 一种基于评论外部信息的虚假评论检测方法 |
CN109582778A (zh) * | 2018-12-12 | 2019-04-05 | 东软集团股份有限公司 | 一种智能问答方法、装置、设备及介质 |
CN110032630A (zh) * | 2019-03-12 | 2019-07-19 | 阿里巴巴集团控股有限公司 | 话术推荐设备、方法及模型训练设备 |
CN110597968A (zh) * | 2019-04-28 | 2019-12-20 | 河北省讯飞人工智能研究院 | 一种回复选择方法及装置 |
CN110543557A (zh) * | 2019-09-06 | 2019-12-06 | 北京工业大学 | 一种基于注意力机制的医疗智能问答系统的构建方法 |
CN111026853A (zh) * | 2019-12-02 | 2020-04-17 | 支付宝(杭州)信息技术有限公司 | 目标问题的确定方法、装置、服务器和客服机器人 |
CN111274494A (zh) * | 2020-01-20 | 2020-06-12 | 重庆大学 | 结合深度学习和协同过滤技术的复合标签推荐方法 |
CN111552789A (zh) * | 2020-04-27 | 2020-08-18 | 中国银行股份有限公司 | 一种客服知识库自学习方法及装置 |
CN111695354A (zh) * | 2020-05-20 | 2020-09-22 | 平安科技(深圳)有限公司 | 基于命名实体的文本问答方法、装置及可读存储介质 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113157870A (zh) * | 2021-05-19 | 2021-07-23 | 中国银行股份有限公司 | 一种知识关联的方法、装置及电子设备 |
CN113157870B (zh) * | 2021-05-19 | 2024-02-02 | 中国银行股份有限公司 | 一种知识关联的方法、装置及电子设备 |
CN113449001A (zh) * | 2021-07-12 | 2021-09-28 | 中国银行股份有限公司 | 一种知识处理方法、装置及电子设备 |
CN113449001B (zh) * | 2021-07-12 | 2024-02-20 | 中国银行股份有限公司 | 一种知识处理方法、装置及电子设备 |
CN113792153A (zh) * | 2021-08-25 | 2021-12-14 | 北京百度网讯科技有限公司 | 问答推荐方法及其装置 |
CN113792153B (zh) * | 2021-08-25 | 2023-12-12 | 北京度商软件技术有限公司 | 问答推荐方法及其装置 |
CN113837836A (zh) * | 2021-09-18 | 2021-12-24 | 珠海格力电器股份有限公司 | 模型推荐方法、装置、设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112528010B (zh) | 2022-09-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112528010B (zh) | 知识推荐方法、装置、计算机设备及可读存储介质 | |
CN112131350B (zh) | 文本标签确定方法、装置、终端及可读存储介质 | |
US20190108242A1 (en) | Search method and processing device | |
CN108932342A (zh) | 一种语义匹配的方法、模型的学习方法及服务器 | |
US11381651B2 (en) | Interpretable user modeling from unstructured user data | |
CN112287089B (zh) | 用于自动问答系统的分类模型训练、自动问答方法及装置 | |
CN111625715B (zh) | 信息提取方法、装置、电子设备及存储介质 | |
CN113569001A (zh) | 文本处理方法、装置、计算机设备及计算机可读存储介质 | |
CN111831924A (zh) | 内容推荐方法、装置、设备及可读存储介质 | |
CN112149604A (zh) | 视频特征提取模型的训练方法、视频推荐方法及装置 | |
Rafail et al. | Natural language processing | |
CN112131345A (zh) | 文本质量的识别方法、装置、设备及存储介质 | |
CN108647295B (zh) | 一种基于深度协同哈希的图片标注方法 | |
CN112165639B (zh) | 内容分发方法、装置、电子设备以及存储介质 | |
CN114328800A (zh) | 文本处理方法、装置、电子设备和计算机可读存储介质 | |
CN110968776A (zh) | 政策知识的推荐方法、装置存储介质及处理器 | |
CN112765976A (zh) | 文本相似度计算方法、装置、设备及存储介质 | |
Uttarwar et al. | Artificial intelligence based system for preliminary rounds of recruitment process | |
CN115510326A (zh) | 基于文本特征和情感倾向的网络论坛用户兴趣推荐算法 | |
CN114329181A (zh) | 一种题目推荐方法、装置及电子设备 | |
CN111723301A (zh) | 基于层次化主题偏好语义矩阵的关注关系识别及标注方法 | |
CN111897943A (zh) | 会话记录搜索方法、装置、电子设备及存储介质 | |
CN116992111B (zh) | 数据处理方法、装置、电子设备及计算机存储介质 | |
CN113807429B (zh) | 企业的分类方法、装置、计算机设备和存储介质 | |
CN115630170B (zh) | 一种文档推荐方法、系统、终端机及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |