CN113157870B - 一种知识关联的方法、装置及电子设备 - Google Patents
一种知识关联的方法、装置及电子设备 Download PDFInfo
- Publication number
- CN113157870B CN113157870B CN202110560878.0A CN202110560878A CN113157870B CN 113157870 B CN113157870 B CN 113157870B CN 202110560878 A CN202110560878 A CN 202110560878A CN 113157870 B CN113157870 B CN 113157870B
- Authority
- CN
- China
- Prior art keywords
- knowledge
- association
- feature
- features
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 238000012545 processing Methods 0.000 claims abstract description 13
- 230000006399 behavior Effects 0.000 claims description 27
- 238000004458 analytical method Methods 0.000 claims description 25
- 238000000605 extraction Methods 0.000 claims description 17
- 238000012549 training Methods 0.000 claims description 13
- 230000006870 function Effects 0.000 claims description 9
- 238000010801 machine learning Methods 0.000 claims description 8
- 238000004364 calculation method Methods 0.000 claims description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000013145 classification model Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000000513 principal component analysis Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/953—Querying, e.g. by the use of web search engines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/957—Browsing optimisation, e.g. caching or content distillation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/243—Classification techniques relating to the number of classes
- G06F18/24323—Tree-organised classifiers
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/245—Classification techniques relating to the decision surface
- G06F18/2451—Classification techniques relating to the decision surface linear, e.g. hyperplane
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/194—Calculation of difference between files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Health & Medical Sciences (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种知识关联的方法、装置及电子设备,包括:通过获取知识库中知识之间的关联参数,关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数,从知识之间的关联参数的信息中提取关联特征,并确定各个关联特征的权重,通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,基于知识间关联系数建立知识库中知识间的关联关系。由此,不仅实现了更加智能化的知识关联,提升了处理效率,并且分别从用户浏览角度和知识内容角度两个方面分析知识的关联关系,以此建立的关联关系更符合用户的需求。
Description
技术领域
本发明涉及人工智能领域,尤其涉及一种知识关联的方法、装置及电子设备。
背景技术
知识库是海量知识管理工具平台,主要功能是进行知识存储、管理,并提供知识检索的能力,但是知识库中的知识通常是独立存在的,无法通过知识之间的联系感知用户的潜在需求。
现有技术中,为了解决上述问题,通过手动的方式人为建立知识之间的关联,这种方式处理效率低,而且手动关联的方式也比较主观,难以发现知识之间隐含的关联信息。
发明内容
有鉴于此,本发明实施例提供了一种知识关联的方法及装置,实现了更加智能化的知识关联,提升了处理效率,并且分别从用户浏览角度和知识内容角度两个方面分析知识的关联关系,以此建立的关联关系更符合用户的需求,除此之外,建立的关联关系还能够体现知识之间的关联程度,有利于后续用户在知识库中进行搜索时,按照关联程度为用户提供相关结果,提升了用户的搜索体验。
本发明实施例公开了一种知识关联的方法,包括:
获取知识库中知识之间的关联参数的信息;所述关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数,所述用户浏览行为与用户浏览知识的下一跳信息有关;
从知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重;
通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数;
基于知识间的关联系数建立知识库中知识间的关联关系。
可选的,还包括:
获取用户查看知识的下一跳信息;所述用户查看知识的下一跳信息包括:查看第一知识后查看第二知识的次数;
通过所述用户查看知识的下一跳信息计算与用户浏览行为有关的知识之间的关联系数。
可选的,所述知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重,包括:
将所述关联参数的信息输入到预设的第一特征工程模型中,得到关联特征;所述第一特征工程模型为具备特征提取功能的模型;
将所述关联特征输入到预设的第二特征工程模型中,得到关联特征的权重;所述第二特征工程模型为具备特征选择的机器学习模型。
可选的,所述通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,包括:
根据预设的关联公式和每个关联特征的权重,计算知识间的关联系数。
可选的,所述通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,包括:
将关联特征和关联特征的权重输入到预先训练的关联系数分析模型中,得到知识间的关联系数;
其中,关联系数分析模型是通过如下方式进行训练后得到的:
以已知知识间关联系数的历史知识作为训练样本;
获取历史知识之间的关联参数的信息;
从历史知识关联参数的信息中提取历史关联特征,并确定历史关联特征的权重;
将历史知识的关联特征和历史关联特征的权重输入到关联系数分析模型中,对关联系数分析模型进行训练。
本发明实施例公开了一种知识关联的装置,包括:
关联参数获取单元,用于获取知识库中知识之间的关联参数的信息;所述关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数;
特征处理单元,用于从知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重;
关联系数计算单元,用于通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数;
关系建立单元,用于基于知识间的关联系数建立知识库中知识间的关联关系。
可选的,还包括:
轨迹信息获取单元,用于获取用户查看知识的下一跳信息;所述用户查看知识的下一跳信息包括:查看第一知识后查看第二知识的次数;
关联关系确定单元,用于通过所述用户查看知识的下一跳信息计算与用户浏览行为有关的知识之间的关联系数。
可选的,所述特征处理单元,包括:
特征提取子单元,用于将所述关联参数的信息输入到预设的第一特征工程模型中,得到关联特征;所述第一特征工程模型为具备特征提取功能的模型;
特征权重计算子单元,用于将所述关联特征输入到预设的第二特征工程模型中,得到关联特征的权重;所述第二特征工程模型为具备特征选择的机器学习模型。
可选的,所述关联系数计算单元,包括:
第一关联系数计算子单元,用于根据预设的关联公式和每个关联特征的权重,计算知识间的关联系数。
本发明实施例还公开了一种电子设备,包括:
处理器和存储器;
所述存储器用于存储程序,所述处理器用于执行所述存储程序时,执行上述所述的知识关联方法。
本发明实施例公开了一种知识关联的方法及装置,包括:通过获取知识库中知识之间的关联参数,关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数,其中,用户浏览行为与用户浏览知识的下一跳信息有关;从知识之间的关联参数的信息中提取关联特征,并确定各个关联特征的权重,通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,基于知识间关联系数建立知识库中知识间的关联关系。由此,不仅实现了更加智能化的知识关联,提升了处理效率,并且分别从用户浏览角度和知识内容角度两个方面分析知识的关联关系,以此建立的关联关系更符合用户的需求,除此之外,建立的关联关系还能够体现知识之间的关联程度,有利于后续用户在知识库中进行搜索时,按照关联程度为用户提供相关结果,提升了用户的搜索体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图获得其他的附图。
图1示出了本发明实施例提供的一种知识关联的方法的流程示意图;
图2示出了与用户浏览行为有关的知识间的关联系数的确定方法的流程示意图;
图3示出了本发明实施例提供的一种知识关联的装置的结构示意图;
图4示出了本发明实施例提供的一种电子设备的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参考图1,示出了本发明实施例提供的一种知识关联的方法的流程示意图,在本实施例中,该方法包括:
S101:获取知识库中知识之间的关联参数的信息;
其中,关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似系数。
本实施例中,与用户浏览行为有关的知识间的关联系数与用户浏览的轨迹有关,例如,用户在知识库中查看相关信息时,查看了知识A后,可能会查看知识B、知识C和知识D,这表示用户的浏览轨迹,该浏览轨迹表示了知识之间的关联。
在一次浏览过程中,用户的浏览轨迹包含的知识众多,为了体现用户浏览行为的关联性,本实施例中,将用户浏览时间隔最近的两条知识之间的联系作为与用户浏览行为有关的知识间的关联性,即采用用户浏览知识的下一跳信息体现与用户浏览行为有关的知识之间的关联性,具体的,参考图2,示出了与用户浏览行为有关的知识间的关联系数的确定方法包括:
S201:获取用户查看知识的下一跳信息;所述用户查看知识的下一跳信息包括:查看第一知识后查看第二知识的次数;
S202:通过所述用户查看知识的下一跳信息计算与用户浏览行为有关的知识之间的关联系数;
用户在查看第一知识后查看第二知识的不同次数,可以表示出其他的第二知识与第一知识的关联程度,其中用户查看第一知识后查看第二知识的次数越多,表示第二知识与第一知识的关联程度越高。
其中,知识间文本的相似系数,可以理解为知识之间实际内容的相似程度,本实施例中,可以采用多种方式计算知识间文本的相似系数,本实施例中不进行限定,例如可以采用文本的特征向量的欧式距离计算、或者采用分类模型分析文本间的相似度系数。
优选的,可以采用预设的文本相似度分析模型计算文本之间的相似度,具体的,包括:
将待分析的多条知识输入到预设的文本相似度分析模型中,得到知识之间的相似度;
其中,预设的文本相似度分析模型是通过如下方法训练的:
将获取的历史知识作为训练样本;
将历史知识输入到相似度分析模型中,以相似度分析模型预测的历史知识的相似度趋近于标准相似度对相似度分析模型进行优化。
其中,标准相似度是已知的或者预先确定的历史知识间的相似度。
S102:从知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重;
本实施例中,进行特征提取前,提取了特征之后,可能有一些特征存在一些残缺等有问题的数据,为了保障后续处理的稳定性和准确性,可以预先对提取到的特征进行预处理,例如对数据进行数据清洗。
本实施例中,可以采用多种方法进行特征提取和特征选择,本实施例中不进行限定,优选的,可以采用如下的方法,实现特征提取和特征选择:
将所述关联参数的信息输入到预设的第一特征工程模型中,得到关联特征;所述第一特征工程模型为具备特征提取功能的模型;
将所述关联特征输入到预设的第二特征工程模型中,得到关联特征的权重;所述第二特征工程模型为具备特征选择的机器学习模型。
其中,第一特征工程模型可以包括多种,本实施例中不进行限定,例如可以采用主成分分析模型、线性判别分析模型。
第二特征工程模型可以包括多种,本实施例中不进行限定,例如可以采用随机森林模型。
S103:通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数;
其中,知识间的关联系数表示知识间关联的程度,其中,可以通过如下的两种方式计算知识间的关联系数,包括:
实施方式一:
根据预设的关联公式和每个关联特征的权重,计算知识间的关联系数;
其中,预设的关联公式可以为加权平均公式,即可以将每个特征进行加权平均,从而确定每条知识间的关联系数。
实施方式二:
将关联特征和关联特征的权重输入到预先训练的关联系数分析模型中,得到知识间的关联系数;
其中,关联系数分析模型是通过如下方式进行训练后得到的:
以已知知识间关联系数的历史知识作为训练样本;
获取历史知识之间的关联参数的信息;
从历史知识关联参数的信息中提取历史关联特征,并确定历史关联特征的权重;
将历史知识的关联特征和历史关联特征的权重输入到关联系数分析模型中,对关联系数分析模型进行训练。
其中,关联系数分析模型可以是任意一种分类模型,本实施例中不进行限定。
本实施例中,可以采用多种方法进行特征提取和特征选择,本实施例中不进行限定,优选的,可以采用如下的方法,实现特征提取和特征选择:
将所述关联参数的信息输入到预设的第一特征工程模型中,得到关联特征;所述第一特征工程模型为具备特征提取功能的模型;
将所述关联特征输入到预设的第二特征工程模型中,得到关联特征的权重;所述第二特征工程模型为具备特征选择的机器学习模型。
其中,第一特征工程模型可以包括多种,本实施例中不进行限定,例如可以采用主成分分析模型、线性判别分析模型。
第二特征工程模型可以包括多种,本实施例中不进行限定,例如可以采用随机森林模型。
S104:基于知识间的关联系数建立知识库中知识间的关联关系;
本实施例中,知识间的关联系数不同,表示知识间关联的程度不同,本实施例中可以基于知识间的关联程度对知识进行关联,具体的,S104包括:
根据知识间的关联系数,选取出大于预设阈值的关联系数对应的知识;
将大于预设阈值的关联系数对应的知识建立关联关系。
本实施中,对于关联系数较小的,则认为知识的关联程度较小,那么可以认为这样的知识是不存在关联的,由此,选取出大于预设阈值的关联系数对应的知识,并对大于预设阈值的关联系数的知识建立关联。
本实施例中,通过获取知识库中知识之间的关联参数,关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数,从知识之间的关联参数的信息中提取关联特征,并确定各个关联特征的权重,通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,基于知识间关联系数建立知识库中知识间的关联关系。由此,本实施例中,通过对知识间的关联参数进行分析,实现了更加智能化的知识关联,提升了处理效率,并且分别从用户浏览角度和知识内容角度两个方面分析知识的关联关系,以此建立的关联关系更符合用户的需求,除此之外,建立的关联关系还能够体现知识之间的关联程度,有利于后续用户在知识库中进行搜索时,按照关联程度为用户提供相关结果,提升了用户的搜索体验。
参考图3,示出了本发明实施例提供的一种知识关联的装置的结构示意图,在本实施例中,该装置包括:
关联参数获取单元301,用于获取知识库中知识之间的关联参数的信息;所述关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数,所述用户浏览行为与用户浏览知识的下一跳信息有关;
特征处理单元302,用于从知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重;
关联系数计算单元303,用于通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数;
关系建立单元304,用于基于知识间的关联系数建立知识库中知识间的关联关系。
可选的,还包括:
轨迹信息获取单元,用于获取用户查看知识的下一跳信息;所述用户查看知识的下一跳信息包括:查看第一知识后查看第二知识的次数;
关联关系确定单元,用于通过所述用户查看知识的下一跳信息计算与用户浏览行为有关的知识之间的关联系数。
可选的,所述特征处理单元,包括:
特征提取子单元,用于将所述关联参数的信息输入到预设的第一特征工程模型中,得到关联特征;所述第一特征工程模型为具备特征提取功能的模型;
特征权重计算子单元,用于将所述关联特征输入到预设的第二特征工程模型中,得到关联特征的权重;所述第二特征工程模型为具备特征选择的机器学习模型。
可选的,所述关联系数计算单元,包括:
第一关联系数计算子单元,用于根据预设的关联公式和每个关联特征的权重,计算知识间的关联系数。
本实施例的装置,通过获取知识库中知识之间的关联参数,关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数,从知识之间的关联参数的信息中提取关联特征,并确定各个关联特征的权重,通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,基于知识间关联系数建立知识库中知识间的关联关系。由此,本实施例中,通过对知识间的关联参数进行分析,实现了更加智能化的知识关联,提升了处理效率,并且分别从用户浏览角度和知识内容角度两个方面分析知识的关联关系,以此建立的关联关系更符合用户的需求,除此之外,建立的关联关系还能够体现知识之间的关联程度,有利于后续用户在知识库中进行搜索时,按照关联程度为用户提供相关结果,提升了用户的搜索体验。
参考图4,示出了本发明实施例提供的一种电子设备的结构示意图,在本实施例中,该电子设备包括:
处理器401和存储器402;
所述存储器用于存储程序,所述处理器用于执行所述存储程序时,执行下述所述的知识关联方法:
获取知识库中知识之间的关联参数的信息;所述关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数,所述用户浏览行为与用户浏览知识的下一跳信息有关;
从知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重;
通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数;
基于知识间的关联系数建立知识库中知识间的关联关系。
可选的,还包括:
获取用户查看知识的下一跳信息;所述用户查看知识的下一跳信息包括:查看第一知识后查看第二知识的次数;
通过所述用户查看知识的下一跳信息计算与用户浏览行为有关的知识之间的关联系数。
可选的,所述知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重,包括:
将所述关联参数的信息输入到预设的第一特征工程模型中,得到关联特征;所述第一特征工程模型为具备特征提取功能的模型;
将所述关联特征输入到预设的第二特征工程模型中,得到关联特征的权重;所述第二特征工程模型为具备特征选择的机器学习模型。
可选的,所述通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,包括:
根据预设的关联公式和每个关联特征的权重,计算知识间的关联系数。
可选的,所述通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,包括:
将关联特征和关联特征的权重输入到预先训练的关联系数分析模型中,得到知识间的关联系数;
其中,关联系数分析模型是通过如下方式进行训练后得到的:
以已知知识间关联系数的历史知识作为训练样本;
获取历史知识之间的关联参数的信息;
从历史知识关联参数的信息中提取历史关联特征,并确定历史关联特征的权重;
将历史知识的关联特征和历史关联特征的权重输入到关联系数分析模型中,对关联系数分析模型进行训练。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
存储器可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。
Claims (6)
1.一种知识关联的方法,其特征在于,包括:
获取知识库中知识之间的关联参数的信息;所述关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数,所述用户浏览行为与用户浏览知识的下一跳信息有关;
从所述知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重;
通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数;
基于知识间的关联系数建立知识库中知识间的关联关系;
其中,所述知识关联的方法,还包括:
获取用户查看知识的下一跳信息;所述用户查看知识的下一跳信息包括:查看第一知识后查看第二知识的次数;
通过所述用户查看知识的下一跳信息计算与用户浏览行为有关的知识之间的关联系数;
所述知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重,包括:
将所述关联参数的信息输入到预设的第一特征工程模型中,得到关联特征;所述第一特征工程模型为具备特征提取功能的模型;
将所述关联特征输入到预设的第二特征工程模型中,得到关联特征的权重;所述第二特征工程模型为具备特征选择的机器学习模型。
2.根据权利要求1所述的方法,其特征在于,所述通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,包括:
根据预设的关联公式和每个关联特征的权重,计算知识间的关联系数。
3.根据权利要求1所述的方法,其特征在于,所述通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数,包括:
将关联特征和关联特征的权重输入到预先训练的关联系数分析模型中,得到知识间的关联系数;
其中,关联系数分析模型是通过如下方式进行训练后得到的:
以已知知识间关联系数的历史知识作为训练样本;
获取历史知识之间的关联参数的信息;
从历史知识关联参数的信息中提取历史关联特征,并确定历史关联特征的权重;
将历史知识的关联特征和历史关联特征的权重输入到关联系数分析模型中,对关联系数分析模型进行训练。
4.一种知识关联的装置,其特征在于,包括:
关联参数获取单元,用于获取知识库中知识之间的关联参数的信息;所述关联参数包括:与用户浏览行为有关的知识间的关联系数和知识间文本相似度系数,所述用户浏览行为与用户浏览知识的下一跳信息有关;
特征处理单元,用于从知识之间的关联参数的信息中提取关联特征并确定各个关联特征的权重;
关联系数计算单元,用于通过提取的关联特征以及每个关联特征的权重,计算知识间的关联系数;
关系建立单元,用于基于知识间的关联系数建立知识库中知识间的关联关系;
其中,所述知识关联的装置,还包括:
轨迹信息获取单元,用于获取用户查看知识的下一跳信息;所述用户查看知识的下一跳信息包括:查看第一知识后查看第二知识的次数;
关联关系确定单元,用于通过所述用户查看知识的下一跳信息计算与用户浏览行为有关的知识之间的关联系数;
所述特征处理单元,包括:
特征提取子单元,用于将所述关联参数的信息输入到预设的第一特征工程模型中,得到关联特征;所述第一特征工程模型为具备特征提取功能的模型;
特征权重计算子单元,用于将所述关联特征输入到预设的第二特征工程模型中,得到关联特征的权重;所述第二特征工程模型为具备特征选择的机器学习模型。
5.根据权利要求4所述的装置,其特征在于,所述关联系数计算单元,包括:
第一关联系数计算子单元,用于根据预设的关联公式和每个关联特征的权重,计算知识间的关联系数。
6.一种电子设备,其特征在于,包括:
处理器和存储器;
所述存储器用于存储程序,所述处理器用于执行所述存储程序时,执行上述权利要求1-3中任意一项所述的知识关联方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110560878.0A CN113157870B (zh) | 2021-05-19 | 2021-05-19 | 一种知识关联的方法、装置及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110560878.0A CN113157870B (zh) | 2021-05-19 | 2021-05-19 | 一种知识关联的方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113157870A CN113157870A (zh) | 2021-07-23 |
CN113157870B true CN113157870B (zh) | 2024-02-02 |
Family
ID=76877214
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110560878.0A Active CN113157870B (zh) | 2021-05-19 | 2021-05-19 | 一种知识关联的方法、装置及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113157870B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086434A (zh) * | 2018-08-13 | 2018-12-25 | 华中师范大学 | 一种基于主题图的知识聚合方法及系统 |
CN109446410A (zh) * | 2018-09-19 | 2019-03-08 | 平安科技(深圳)有限公司 | 知识点推送方法、装置及计算机可读存储介质 |
CN112084209A (zh) * | 2020-09-27 | 2020-12-15 | 中国银行股份有限公司 | 知识库的检索方法、装置、可读介质及设备 |
CN112528010A (zh) * | 2020-12-15 | 2021-03-19 | 建信金融科技有限责任公司 | 知识推荐方法、装置、计算机设备及可读存储介质 |
-
2021
- 2021-05-19 CN CN202110560878.0A patent/CN113157870B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109086434A (zh) * | 2018-08-13 | 2018-12-25 | 华中师范大学 | 一种基于主题图的知识聚合方法及系统 |
CN109446410A (zh) * | 2018-09-19 | 2019-03-08 | 平安科技(深圳)有限公司 | 知识点推送方法、装置及计算机可读存储介质 |
CN112084209A (zh) * | 2020-09-27 | 2020-12-15 | 中国银行股份有限公司 | 知识库的检索方法、装置、可读介质及设备 |
CN112528010A (zh) * | 2020-12-15 | 2021-03-19 | 建信金融科技有限责任公司 | 知识推荐方法、装置、计算机设备及可读存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113157870A (zh) | 2021-07-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106503014B (zh) | 一种实时信息的推荐方法、装置和系统 | |
CN106897334A (zh) | 一种问题推送方法和设备 | |
US20140372349A1 (en) | Method of machine learning classes of search queries | |
CN103744974B (zh) | 局部兴趣点选取的方法及设备 | |
WO2020232898A1 (zh) | 文本分类方法、装置、电子设备及计算机非易失性可读存储介质 | |
CN111506719A (zh) | 一种关联问句推荐方法、装置、设备及可读存储介质 | |
CN110795613B (zh) | 商品搜索方法、装置、系统及电子设备 | |
CN106598997B (zh) | 一种计算文本主题归属度的方法及装置 | |
CN112070550A (zh) | 基于搜索平台的关键词确定方法、装置、设备及存储介质 | |
CN116089567A (zh) | 一种搜索关键词的推荐方法、装置、设备和存储介质 | |
CN110377828B (zh) | 信息推荐方法、装置、服务器及存储介质 | |
CN110162769B (zh) | 文本主题输出方法和装置、存储介质及电子装置 | |
CN113157870B (zh) | 一种知识关联的方法、装置及电子设备 | |
CN117251761A (zh) | 数据对象分类方法、装置、存储介质及电子装置 | |
CN116738293A (zh) | 一种业务评价处理方法、装置及电子设备 | |
CN116522912A (zh) | 一种包装设计语言模型的训练方法、装置、介质及设备 | |
CN110929285A (zh) | 一种隐私数据的处理方法及装置 | |
CN113627148A (zh) | 一种知识库中知识的自动关联方法及装置 | |
US9122705B1 (en) | Scoring hash functions | |
CN112650931B (zh) | 一种内容推荐方法 | |
CN110955760B (zh) | 判决结果的评价方法和相关装置 | |
CN111191126B (zh) | 一种基于关键词的科技成果精准推送方法及装置 | |
CN107766373A (zh) | 图片所属类目的确定方法及其系统 | |
CN116523024B (zh) | 召回模型的训练方法、装置、设备及存储介质 | |
CN116992111B (zh) | 数据处理方法、装置、电子设备及计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |