CN105808526B - 商品短文本核心词提取方法和装置 - Google Patents
商品短文本核心词提取方法和装置 Download PDFInfo
- Publication number
- CN105808526B CN105808526B CN201610191177.3A CN201610191177A CN105808526B CN 105808526 B CN105808526 B CN 105808526B CN 201610191177 A CN201610191177 A CN 201610191177A CN 105808526 B CN105808526 B CN 105808526B
- Authority
- CN
- China
- Prior art keywords
- weight
- short text
- commodity
- participle
- commodity short
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
- G06N20/20—Ensemble learning
Abstract
本发明公开了一种商品短文本核心词提取方法和装置,涉及大数据处理领域。其中的商品短文本核心词提取方法包括:获取数据集内的商品短文本;对商品短文本进行分词处理;根据商品短文本的上下文信息获得商品短文本的文档向量;根据文档向量对数据集内的商品短文本进行聚类;确定商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重;根据各个分词的聚类层级权重确定商品短文本的核心词。本发明参考了商品短文本中分词的上下文信息来获得该商品短文本的文档向量,可以弥补短文本信息量少的缺陷,使基于文档向量的聚类结果更准确,进而依据分词在其商品短文本所属聚类类别的权重可以更加准确地从商品短文本中提取出核心词。
Description
技术领域
本发明涉及大数据处理领域,尤其涉及一种商品短文本核心词提取方法和装置。
背景技术
随着电子商务网站的快速发展,电子商务网站提供了品类繁多的商品以及非常详细的商品信息,越来越多的顾客在网上购买商品、评论商品。因此,电子商务网站产生了大量的商品标题数据和商品评论数据。早期的通过人工标注挖掘核心词的方法已经不能适应从海量商品数据挖掘核心词的需要。
目前一般采用词袋模型(BOW,Bag of Words)自动提取文本的核心词。在词袋模型中,文本被看作是无序的词汇集合,忽略语法甚至是单词的顺序。因此这种方法在提取长文本的核心词时效果较好,用于短文本时则效果不佳。相较于长文本,短文本包含的词语较少,因此具有特征稀疏、主题不明确的特点,准确提取核心词的难度更大。
发明内容
本发明提供了一种商品短文本的核心词提取方法和装置,用来改善从商品短文本中提取核心词的准确度问题。
根据本发明的第一个方面,提供了一种商品短文本核心词提取方法,包括:获取数据集内的商品短文本;对商品短文本进行分词处理;根据商品短文本的上下文信息获得商品短文本的文档向量;根据文档向量对数据集内的商品短文本进行聚类;确定商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重;根据各个分词的聚类层级权重确定商品短文本的核心词。
在一个实施例中,商品短文本核心词提取方法还包括:确定商品短文本中的各个分词的商品词性信息,根据商品词性及其词性权重的对应关系确定商品短文本中的分词对应的词性权重,并根据商品短文本中的各个分词对应的词性权重确定各个分词的局部权重;和/或,确定商品短文本中的各个分词在数据集内的逆向文件频率,将其确定为各个分词的文档层级权重;根据各个分词的聚类层级权重确定商品短文本的核心词包括:根据各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重确定商品短文本的核心词。
在一个实施例中,根据商品短文本的上下文信息获得商品短文本的文档向量包括:根据数据集内商品短文本的平均长度确定窗口参数;采用向量运算工具word2vec,将数据集作为输入语料、确定的窗口参数作为窗口大小进行计算,得到数据集内的商品短文本的文档向量。
在一个实施例中,聚类的数量根据商品品类的数量确定。
在一个实施例中,确定商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重包括:采用卡方公式计算商品短文本中的各个分词在商品短文本所属的类别的卡方值,将卡方值作为商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重。
在一个实施例中,采用以下方法确定商品词性及其词性权重的对应关系:获取训练语料,训练语料包括若干训练商品短文本,并标注各个训练商品短文本中的核心词和核心词对应的商品词性信息,将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重;或者,建立用户搜索的搜索词和点击的商品短文本的对应关系,将搜索词标注为对应的商品短文本的核心词,并标注核心词对应的商品词性信息,将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重。
在一个实施例中,根据商品短文本中的各个分词对应的词性权重确定各个分词的局部权重包括:对商品短文本中的各个分词对应的词性权重进行归一化处理,获得各个分词的局部权重。
在一个实施例中,根据各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重确定商品短文本的核心词包括:将各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重加权求和作为各个分词的核心权重;将商品短文本中核心权重的值最大的分词确定为商品短文本的核心词。
在一个实施例中,采用以下方法确定局部权重和文档层级权重中的至少一个以及聚类层级权重的加权系数:对训练数据集内的各个商品短文本进行分词处理;标注训练数据集内各个商品短文本的核心词和非核心词;计算训练数据集内各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重;将核心词作为正样本,非核心词作为负样本,根据各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重,采用机器学习的方法计算局部权重和文档层级权重中的至少一个以及聚类层级权重的加权系数。
在一个实施例中,商品短文本核心词提取方法还包括:在对商品短文本进行分词处理之前,去掉商品短文本中的停用词和标点符号。
在一个实施例中,商品短文本核心词提取方法还包括:在对商品短文本进行分词处理之后,统计数据集内所有分词的出现频率,去掉商品短文本中出现频率低于过滤阈值的分词。
在一个实施例中,商品短文本包括商品标题、商品评论或商品信息页内容。
在一个实施例中,商品词性信息包括品牌、系列名称、品类、名词、属性词、款式、修饰词中的一个或多个。
根据本发明的第二个方面,提供一种商品短文本核心词提取装置,包括:预处理模块,预处理模块包括:短文本获取单元,用于获取数据集内的商品短文本;分词单元,用于对商品短文本进行分词处理;权重确定模块,包括聚类层级权重确定子模块,用于确定商品短文本中各个分词的权重;聚类层级权重确定子模块包括:文档向量确定单元,用于根据商品短文本的上下文信息获得商品短文本的文档向量;聚类单元,用于根据文档向量对数据集内的商品短文本进行聚类;聚类层级权重确定单元,用于确定商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重;核心词确定模块,用于根据各个分词的聚类层级权重确定商品短文本的核心词。
在一个实施例中,权重确定模块还包括局部权重确定子模块和/或文档层级权重确定子模块;其中,局部权重确定子模块包括:商品词性信息确定单元,用于确定商品短文本中的各个分词的商品词性信息;词性权重确定单元,用于根据商品词性及其词性权重的对应关系确定商品短文本中的分词对应的词性权重;局部权重确定单元,用于根据商品短文本中的各个分词对应的词性权重确定各个分词的局部权重;其中,文档层级权重确定子模块用于确定商品短文本中的各个分词在数据集内的逆向文件频率,将其确定为各个分词的文档层级权重;核心词确定模块用于根据各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重确定商品短文本的核心词。
在一个实施例中,文档向量确定单元用于根据数据集内商品短文本的平均长度确定窗口参数,采用向量运算工具word2vec,将数据集作为输入语料、确定的窗口参数作为窗口大小进行计算,得到数据集内的商品短文本的文档向量。
在一个实施例中,聚类单元聚类的数量根据商品品类的数量确定。
在一个实施例中,聚类层级权重确定单元用于采用卡方公式计算商品短文本中的各个分词在商品短文本所属的类别的卡方值,将卡方值作为商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重。
在一个实施例中,局部权重确定模块还包括第一词性权重对应单元或者第二词性权重对应单元。其中,第一词性权重对应单元用于获取包括若干训练商品短文本的训练语料,并标注各个训练商品短文本中的核心词和核心词对应的商品词性信息,将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重。其中,第二词性权重对应单元用于建立用户搜索的搜索词和点击的商品短文本的对应关系,将搜索词标注为对应的商品短文本的核心词,并标注核心词对应的商品词性信息,再将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重。
在一个实施例中,局部权重确定单元用于对商品短文本中的各个分词对应的词性权重进行归一化处理,获得各个分词的局部权重。
在一个实施例中,核心词确定模块包括:核心权重计算单元,用于将各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重加权求和作为各个分词的核心权重;核心词确定单元,用于将商品短文本中核心权重的值最大的分词确定为商品短文本的核心词。
在一个实施例中,核心词确定模块还包括加权系数确定单元,用于确定各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重的加权系数并发送给核心权重计算单元,加权系数确定单元包括:训练数据分词子单元,用于对训练数据集内的各个商品短文本进行分词处理;训练数据标注子单元,用于标注训练数据集内各个商品短文本的核心词和非核心词;分词权重计算子单元,用于计算训练数据集内各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重;机器学习子单元,用于将核心词作为正样本,非核心词作为负样本,根据各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重,采用机器学习的方法计算局部权重和文档层级权重中的至少一个以及聚类层级权重的加权系数。
在一个实施例中,预处理模块还包括数据清理单元,用于去掉商品短文本中的停用词和标点符号,并将处理后的商品短文本发送给分词单元。
在一个实施例中,预处理模块还包括分词过滤单元,用于在对商品短文本进行分词处理之后,统计数据集内所有分词的出现频率,去掉商品短文本中出现频率低于过滤阈值的分词。
在一个实施例中,商品短文本包括商品标题、商品评论或商品信息页内容。
在一个实施例中,商品词性信息包括品牌、系列名称、品类、名词、属性词、款式、修饰词中的一个或多个。
本发明参考了商品短文本中分词的上下文信息来获得该商品短文本的文档向量,可以弥补短文本信息量少的缺陷,使基于文档向量的聚类结果更准确,进而依据分词在其商品短文本所属聚类类别的权重可以更加准确地从商品短文本中提取出核心词。
此外,在聚类层级权重的基础上,通过结合分词的局部权重,可以进一步针对商品短文本的特点,从其商品词性信息的角度对结果进行优化,提高了核心词确定的准确性。
此外,在聚类层级权重的基础上,通过结合分词的文档层级权重,能够进一步从数据集层面的重要性对核心词提取过程进行优化,从而提升了核心词确定的准确性。
通过以下参照附图对本发明的示例性实施例的详细描述,本发明的其它特征及其优点将会变得清楚。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明商品短文本核心词提取方法的一个实施例的流程图。
图2为本发明商品短文本核心词提取方法的另一个实施例的流程图。
图3A为本发明商品短文本核心词提取方法又一个实施例的流程图。
图3B为本发明商品短文本核心词提取方法再一个实施例的流程图。
图4为本发明确定各个权重的加权系数的流程图。
图5为本发明商品短文本核心词提取装置的一个实施例的结构图。
图6为本发明商品短文本核心词提取装置的另一个实施例的结构图。
图7为本发明商品短文本核心词提取装置的又一个实施例的结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。以下对至少一个示例性实施例的描述实际上仅仅是说明性的,决不作为对本发明及其应用或使用的任何限制。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
为了改善从商品短文本中提取核心词的准确度,提出本发明。在本发明中,一条商品短文本可以视为一个文档,其往往具有特征稀疏、主题不明确等特点。
下面参考图1描述本发明一个实施例的商品短文本核心词提取方法。
图1为本发明商品短文本核心词提取方法的一个实施例的流程图。如图1所示,该实施例的方法包括:
首先,对数据集内的商品短文本进行预处理,得到各个商品短文本的分词。例如,可以采用步骤S102~S105实现预处理:
步骤S102,获取数据集内的商品短文本。
其中,数据集为待测商品短文本的集合,可以从存储商品短文本的数据库中获取。例如,可以采用Hadoop提供的数据仓库工具hive进行商品短文本数据的查询和获取,也可以根据业务需求和系统设置,采用例如网页爬虫等其他方式获取。商品短文本例如可以为商品标题、商品评论或商品信息页内容等,商品信息页内容例如可以为有关商品的材质、型号等短文本信息。
步骤S103,对商品短文本进行数据清理。
其中,可以根据业务需要选择性地进行步骤S103。数据清理例如包括去掉商品短文本中的停用词和标点符号,以便提升后续数据处理的效率。其中,停用词可以进行预先设定,例如可以设置包含助词、感叹词等无意义词汇或非目标词汇的停用词表,根据停用词表清理数据集。
步骤S104,对商品短文本进行分词处理得到各个分词。
步骤S105,统计数据集内所有分词的出现频率,去掉商品短文本中出现频率低于过滤阈值的分词。
其中,可以根据业务需要,在进行分词处理之后选择性地进行步骤S105。通过过滤出现频率低于过滤阈值的分词,可以提升后续核心词的提取效率。
在预处理之后,可以确定分词的聚类层级权重,以衡量一个分词在某一类中的重要程度。例如,可以采用步骤S106~S110确定分词的聚类层级权重:
步骤S106,根据商品短文本的上下文信息获得商品短文本的文档向量。
其中,一种实现方法为,采用基于分词上下文语境的向量运算工具word2vec获得商品短文本的文档向量,从而将每条商品短文本表征为一个k维的向量,具体的维度可以设定。
在采用word2vec工具进行文档向量的计算时,还可以调整输入参数以便对结果进行优化。例如,可以根据数据集内商品短文本的平均长度确定窗口参数,将数据集作为输入语料、确定的窗口参数作为窗口大小进行计算得到数据集内的商品短文本的文档向量。合理地确定窗口大小参数可以提高文档向量计算的准确性和效率。例如,还可以对size参数进行优化。size参数用于表示向量的大小,当size参数值较大时,计算的精度较高,但是对计算设备的性能要求也相应提高。使用时,可以根据需要对size参数进行调整。
步骤S108,根据文档向量对数据集内的商品短文本进行聚类。
由于文档向量可以将商品短文本抽象为向量空间中的若干点,因此可以采用现有的基于距离的聚类算法进行聚类,例如K-MEANS算法、K-MEDOIDS算法、BIRCH算法等等。将文档向量输入特定的聚类算法进行聚类即可得到各个类。
在进行聚类时,还需要合理地确定聚类的数量,以使得具有共性的某类商品短文本能够尽可能划分到一类,尽量避免差异较大的商品短文本被划分为一类或者很相似的一些商品短文本却被聚到不同的类。
对于商品短文本,其聚类数量可以根据商品品类的数量确定,例如可以设置聚类数量大致等于商品品类的数量。品类是指电商网站中根据商品特性对商品进行分类后形成的类别名称,例如女装、箱包、日化、数码产品等,具体的品类数量、名称、细分程度等可以根据业务需求和产品情况进行设置。从而,使基于文档向量的聚类结果更准确,进而依据分词在其商品短文本所属聚类类别的权重可以更加准确地从商品短文本中提取出核心词。
步骤S110,确定商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重。
其中,可以通过计算商品短文本中的各个分词与商品短文本所属类别的相关性来确定聚类层级权重。例如,采用卡方公式计算商品短文本中的各个分词在商品短文本所属的类别的卡方值后,可以将卡方值作为商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重。
例如,对于商品短文本“Apple iPhone 6s Plus(A1699)64G玫瑰金色移动联通电信4G手机”,设经过步骤S108的聚类操作后,该短文本属于“数码产品”类别。分词“手机”的卡方值例如可以参考表1进行计算。表1为卡方算法的独立样本四格表。如表1所示,设A为“手机”在“数码产品”类中出现的短文本数量,B为“手机”在“数码产品”以外的类中出现的短文本数量,C为“数码产品”类中不包含“手机”的短文本数量,D为“数码产品”以外的类中不包含“手机”的短文本数量,N为参与聚类的所有商品短文本的数量。
属于“数码产品” | 不属于“数码产品” | 总计 | |
包含“手机” | A | B | A+B |
不包含“手机” | C | D | C+D |
总计 | A+C | B+D | N |
表1
对于短文本“Apple iPhone 6s Plus(A1699)64G玫瑰金色移动联通电信4G手机”中分词“手机”的卡方值,可以采用公式(1)进行计算:
卡方值K2即为该短文本中“手机”的聚类层级权重。
然后,采用步骤S112确定核心词:
步骤S112,根据各个分词的聚类层级权重确定商品短文本的核心词。
例如,可以在确定商品短文本中各个分词的聚类层级权重后,将聚类层级权重的值最大的分词作为核心词。也可以根据需要,采用其他方法依据聚类层级权重的值确定核心词。
通过参考商品短文本中分词的上下文信息来获得该商品短文本的文档向量,可以弥补短文本信息量少的缺陷,使基于文档向量的聚类结果更准确,进而依据分词在其商品短文本所属聚类类别的权重可以更加准确地从商品短文本中提取出核心词。
在确定商品短文本的核心词时,除了参考分词的聚类层级权重以外,还可以结合其他权重对结果进行优化。例如,可以结合局部权重衡量分词对应的商品词性信息在单条商品短文本中的重要程度,或/和,还可以结合文档层级权重衡量分词在整个数据集内的重要程度。下面对聚类层级权重结合其他权重对结果进行优化的情形进行描述。
下面参考图2描述本发明另一个实施例的商品短文本核心词提取方法。
图2为本发明商品短文本核心词提取方法的另一个实施例的流程图。如图2所示,该实施例的方法包括:
首先,对数据集内的商品短文本进行预处理,得到各个商品短文本的分词。预处理的实现可以例如参考前文中步骤S102~S105的描述。
在预处理之后,除了确定分词的聚类层级权重(参考步骤S106~S110),还可以确定分词的局部权重,以衡量分词在单条商品短文本中的重要程度。例如,可以采用步骤S206~S210确定局部权重:
步骤S206,确定商品短文本中的各个分词的商品词性信息。
其中,在本发明实施例中,商品词性信息是指引入具有商品特点的词性信息,例如品牌、系列名称、品类、属性词、款式、修饰词、书名、作者等等。同一个商品短文本中的同一个分词可以具有多种商品词性信息。
在采用本实施例的方法之前,可以预先设置商品词性信息字典,字典包括若干词语以及其对应的商品词性信息。在确定商品短文本中的各个分词的商品词性信息时,可以逐一查找分词在商品词性信息字典中对应的商品词性信息并进行标注。
步骤S208,根据商品词性及其词性权重的对应关系确定商品短文本中的分词对应的词性权重。
词性权重指某一类别的商品词性信息在商品短文本中的重要程度。例如,在商品标题中,品牌和品类为相对重要的词语,而“500ml”、“2米”等属性词为重要程度较低的词语。因此,可以根据商品词性信息的重要性和具体的业务需求设置商品词性信息对应的词性权重。上述过程可以人工设置,也可以采用基于统计的方法确定。
步骤S210,根据商品短文本中的各个分词对应的词性权重确定各个分词的局部权重。
当一个分词具有多种商品词性信息时,可以将这些商品词性信息对应的若干词性权重进行累加。此外,确定局部权重时,可以直接将分词对应的词性权重作为局部权重,也可以将商品短文本中所有的分词的词性权重进行归一化处理,将归一化处理后的结果作为各个分词的局部权重。设x为归一化处理之前某分词的局部权重,y为归一化处理之后该分词的局部权重,min和max分别为该分词所属的商品短文本中局部权重的最小值和最大值,则y的值可以通过公式(2)进行归一化计算:
y=(x-min)/(max-min)(2)
通过归一化的处理,能够直观地反映各个分词的局部权重的统计分布特性。
然后,采用步骤S212确定核心词:
步骤S212,根据各个分词的聚类层级权重和局部权重确定商品短文本的核心词。
在聚类层级权重的基础上,通过结合分词的局部权重,可以进一步针对商品短文本的特点,从其商品词性信息的角度对结果进行优化,提高了核心词确定的准确性。
本发明还提供了基于统计方式建立商品词性信息与词性权重的对应关系的方法。
一种示例性的方法,首先,获取训练语料,训练语料包括若干训练商品短文本;然后,标注各个训练商品短文本中的核心词和核心词对应的商品词性信息,例如,可以通过线下字典标注核心词及其商品词性,利用字典中记录的核心词及其对应的商品词性,对训练预料中的核心词进行商品词性的标注;最后,将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重。
另一种示例性的方法,还可以根据用户的搜索行为自动标注核心词。首先,建立用户搜索的搜索词和点击的商品短文本的对应关系;然后,将搜索词标注为对应的商品短文本的核心词,并标注核心词对应的商品词性信息;最后,将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重。其中,建立用户搜索的搜索词和点击的商品短文本的对应关系并标注核心词时,可以通过搜索点击日志建立搜索词和用户点击的商品短文本的对应关系并进行标注。例如,根据搜索点击日志,用户使用搜索词“手机”搜索商品,搜索结果为“Apple iPhone 6s 64G深空灰色电信4G手机”以及“小米Note白色移动4G手机”,而用户点击了前者,即“Apple iPhone 6s64G深空灰色电信4G手机”,则将“手机”标注为“Apple iPhone 6s 64G深空灰色电信4G手机”的核心词。
通过上述基于统计的方法确定商品词性信息对应的词性权重,使词性权重的值更能适用于当前的使用环境,从而提高了核心词提取的准确性。
下面参考图3A描述本发明又一个实施例的商品短文本核心词提取方法。
图3A为本发明商品短文本核心词提取方法的又一个实施例的流程图。如图3A所示,该实施例的方法包括:
首先,对数据集内的商品短文本进行预处理,得到各个商品短文本的分词。预处理的实现可以例如参考前文中步骤S102~S105的描述。
在预处理之后,除了确定分词的聚类层级权重(参考步骤S106~S110),还可以确定分词的文档层级权重,以衡量分词在数据集的所有商品短文本中的重要程度。例如,可以采用步骤S306确定文档层级权重:
步骤S306,确定商品短文本中的各个分词在数据集内的逆向文件频率,将其确定为各个分词的文档层级权重。
逆向文件频率(IDF或idf,inverse document frequency)表示具有某一分词的文档在语料库中的出现频率,该频率越高,则对应的idf值越小。即,如果一个分词在大量不同的文档中出现,说明该分词无法代表某一文档的特性。由于每条商品短文本相当于一个文档,因此商品短文本中的各个分词在数据集内的逆向文件频率idf值可以采用公式(3)进行计算:
其中,M表示商品短文总数量,L表示包含某一分词的商品短文本数量,idf值表示商品短文本中该分词的分档层级权重。
然后,采用步骤S312a确定核心词:
步骤S312a,根据各个分词的聚类层级权重和文档层级权重确定商品短文本的核心词。
在聚类层级权重的基础上,通过结合分词的文档层级权重,能够进一步从数据集层面的重要性对核心词提取过程进行优化,从而提升了核心词确定的准确性。
显然,根据图1-3描述的核心词提取方法,还可以结合各个实施例分别得到聚类层级权重、局部权重和文档层级权重,然后根据聚类层级权重、局部权重和文档层级权重共同作为核心词的确定依据,即,执行步骤S312b,根据各个分词的聚类层级权重、局部权重和文档层级权重确定商品短文本的核心词。上述商品短文本核心词提取方法例如可以参考图3B。
当根据一种以上的权重确定核心词时,可以首先将各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重加权求和作为各个分词的核心权重,再将商品短文本中核心权重的值最大的分词确定为商品短文本的核心词。下面参考图4描述本发明确定各个权重的加权系数的方法。
图4为本发明确定各个权重的加权系数的方法的流程图。如图4所示,该实施例的方法包括:
步骤S402,对训练数据集内的各个商品短文本进行分词处理。
步骤S404,标注训练数据集内各个商品短文本的核心词和非核心词。
例如,核心词与非核心词的标注可以采用人工手动标注的方式;也可以根据搜索点击日志,将用户搜索时采用的搜索词作为用户点击的搜索结果对应的核心词。
步骤S406,计算训练数据集内各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重。
其中,具体的计算方法采用前述各个实施例中计算各个分词的局部权重、文档层级权重中和聚类层级权重的方法。
步骤S408,将核心词作为正样本,非核心词作为负样本,根据各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重,采用机器学习的方法,例如线性回归、决策树、神经网络等算法,计算局部权重和文档层级权重中的至少一个以及聚类层级权重的加权系数。
通过采用上述方法,当根据多个权重确定商品短文本中的核心词时,能够调节各个权重之间的比重,提升核心词确定的准确性。
显然,根据需要,也可以直接将不同的权重进行直接求和作为核心权重,即各个权重的加权系数均为1,从而方便计算。
下面参考图5描述本发明一个实施例的商品短文本核心词提取装置。
图5为本发明商品短文本核心词提取装置的一个实施例的结构图。如图5所示,该实施例的装置包括:预处理模块52、权重确定模块54和核心词确定模块56。预处理模块52包括:短文本获取单元522,用于获取数据集内的商品短文本;分词单元524,用于对商品短文本进行分词处理。权重确定模块54包括聚类层级权重确定子模块542,用于确定商品短文本中各个分词的权重。聚类层级权重确定子模块542包括:文档向量确定单元5422,用于根据商品短文本的上下文信息获得商品短文本的文档向量;聚类单元5424,用于根据文档向量对数据集内的商品短文本进行聚类;聚类层级权重确定单元5426,用于确定商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重。核心词确定模块56用于根据各个分词的聚类层级权重确定商品短文本的核心词。
通过采用文档向量确定单元参考商品短文本中分词的上下文信息来获得该商品短文本的文档向量,可以弥补短文本信息量少的缺陷,使聚类单元基于文档向量的聚类结果更准确,进而聚类层级权重确定单元在其商品短文本所属聚类类别的权重可以更加准确地从商品短文本中提取出核心词。
其中,商品短文本可以包括商品标题或商品评论。
其中,文档向量确定单元5422可以用于根据数据集内商品短文本的平均长度确定窗口参数,采用向量运算工具word2vec,将数据集作为输入语料、确定的窗口参数作为窗口大小进行计算,得到数据集内的商品短文本的文档向量。
其中,聚类单元5424聚类的数量可以根据商品品类的数量确定,使基于文档向量的聚类结果更准确,进而依据分词在其商品短文本所属聚类类别的权重可以更加准确地从商品短文本中提取出核心词。
其中,聚类层级权重确定单元5426可以用于采用卡方公式计算商品短文本中的各个分词在商品短文本所属的类别的卡方值,将卡方值作为商品短文本中的各个分词在商品短文本所属的类别的聚类层级权重。
下面参考图6描述本发明另一个实施例的商品短文本核心词提取装置。
图6为本发明商品短文本核心词提取装置的另一个实施例的结构图。如图6所示,该实施例的权重确定模块54还包括局部权重确定子模块644和/或文档层级权重确定子模块646。
其中,局部权重确定子模块644包括:商品词性信息确定单元6442,用于确定商品短文本中的各个分词的商品词性信息;词性权重确定单元6444,用于根据商品词性及其词性权重的对应关系确定商品短文本中的分词对应的词性权重;局部权重确定单元6446,用于根据商品短文本中的各个分词对应的词性权重确定各个分词的局部权重。在设置聚类层级权重确定子模块的基础上,通过结合局部权重确定子模块,可以进一步针对商品短文本的特点,从其商品词性信息的角度对结果进行优化,提高了核心词确定的准确性。
其中,文档层级权重确定子模块646用于确定商品短文本中的各个分词在数据集内的逆向文件频率,将其确定为各个分词的文档层级权重;核心词确定模块56用于根据各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重确定商品短文本的核心词。在设置聚类层级权重确定子模块的基础上,通过结合文档层级权重确定子模块,能够进一步从数据集层面的重要性对核心词提取过程进行优化,从而提升了核心词确定的准确性。
其中,商品词性信息可以包括品牌、系列名称、品类、名词、属性词、款式、修饰词中的一个或多个。
其中,局部权重确定单元6446可以用于对商品短文本中的各个分词对应的词性权重进行归一化处理,获得各个分词的局部权重。通过归一化的处理,能够直观地反映各个分词的局部权重的统计分布特性。
其中,核心词确定模块可以56包括:核心权重计算单元662,用于将各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重加权求和作为各个分词的核心权重;核心词确定单元664,用于将商品短文本中核心权重的值最大的分词确定为商品短文本的核心词。
下面参考图7描述本发明又一个实施例的商品短文本核心词提取装置。
图7为本发明商品短文本核心词提取装置的又一个实施例的结构图。如图7所示,局部权重确定子模块644还可以包括第一词性权重对应单元7442或者第二词性权重对应单元7444。第一词性权重对应单元7442用于获取包括若干训练商品短文本的训练语料,并标注各个训练商品短文本中的核心词和核心词对应的商品词性信息,将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重。第二词性权重对应单元7444用于建立用户搜索的搜索词和点击的商品短文本的对应关系,将搜索词标注为对应的商品短文本的核心词,并标注核心词对应的商品词性信息,再将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重。其中,第二词性权重对应单元7444例如可以通过搜索点击日志建立搜索词和用户点击的商品短文本的对应关系。
通过采用上述基于统计的第一词性权重对应单元或者第二词性权重对应单元确定商品词性信息对应的词性权重,能够使词性权重的值更能适用于当前的使用环境,从而提高了核心词提取的准确性。
此外,核心词确定模块56还可以包括加权系数确定单元762,用于确定各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重的加权系数并发送给核心权重计算单元662。加权系数确定单元762包括:训练数据分词子单元7622,用于对训练数据集内的各个商品短文本进行分词处理;训练数据标注子单元7624,用于标注训练数据集内各个商品短文本的核心词和非核心词;分词权重计算子单元7626,用于计算训练数据集内各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重;机器学习子单元7628,用于将核心词作为正样本,非核心词作为负样本,根据各个分词的局部权重和文档层级权重中的至少一个以及聚类层级权重,采用机器学习的方法计算局部权重和文档层级权重中的至少一个以及聚类层级权重的加权系数。
通过采用加权系数确定单元,当根据多个权重确定商品短文本中的核心词时,能够调节各个权重之间的比重,提升核心词确定的准确性。
此外,预处理模块52还可以包括数据清理单元722,用于去掉商品短文本中的停用词和标点符号,并将处理后的商品短文本发送给分词单元524。从而,可以减少对非必要词汇的处理,提升后续处理的效率。
此外,预处理模块52还可以包括分词过滤单元724,用于在对商品短文本进行分词处理之后,统计数据集内所有分词的出现频率,去掉商品短文本中出现频率低于过滤阈值的分词。从而,可以提升后续核心词的提取效率。
此外,根据本发明的方法还可以实现为一种计算机程序产品,该计算机程序产品包括计算机可读介质,在该计算机可读介质上存储有用于执行本发明的方法中限定的上述功能的计算机程序。本领域技术人员还将明白的是,结合这里的公开所描述的各种示例性逻辑块、模块、电路和算法步骤可以被实现为电子硬件、计算机软件或两者的组合。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (25)
1.一种商品短文本核心词提取方法,其特征在于,包括:
获取数据集内的商品短文本;
对所述商品短文本进行分词处理;
根据所述商品短文本的上下文信息获得所述商品短文本的文档向量;
根据所述文档向量对所述数据集内的商品短文本进行聚类;
确定所述商品短文本中的各个分词在所述商品短文本所属的类别的聚类层级权重;
确定所述商品短文本中的各个分词的商品词性信息,根据商品词性和词性权重的对应关系确定所述商品短文本中的分词对应的词性权重,并根据所述商品短文本中的各个分词对应的词性权重确定所述各个分词的局部权重;
根据所述各个分词的局部权重以及聚类层级权重确定所述商品短文本的核心词。
2.根据权利要求1所述的方法,其特征在于,
还包括:确定所述商品短文本中的各个分词在所述数据集内的逆向文件频率,将所述逆向文件频率确定为所述各个分词的文档层级权重;
所述根据所述各个分词的局部权重以及聚类层级权重确定所述商品短文本的核心词包括:
根据所述各个分词的局部权重和文档层级权重以及聚类层级权重确定所述商品短文本的核心词。
3.根据权利要求1所述的方法,其特征在于,所述根据所述商品短文本的上下文信息获得所述商品短文本的文档向量包括:
根据所述数据集内商品短文本的平均长度确定窗口参数;
采用向量运算工具word2vec,将所述数据集作为输入语料、确定的窗口参数作为窗口大小进行计算,得到所述数据集内的商品短文本的文档向量。
4.根据权利要求1或2所述的方法,其特征在于,其中,所述聚类的数量根据商品品类的数量确定。
5.根据权利要求1或2所述的方法,其特征在于,所述确定所述商品短文本中的各个分词在所述商品短文本所属的类别的聚类层级权重包括:
采用卡方公式计算所述商品短文本中的各个分词在所述商品短文本所属的类别的卡方值,将所述卡方值作为所述商品短文本中的各个分词在所述商品短文本所属的类别的聚类层级权重。
6.根据权利要求1所述的方法,其特征在于,采用以下方法确定所述商品词性和词性权重的对应关系:
获取训练语料,所述训练语料包括若干训练商品短文本,并标注各个训练商品短文本中的核心词和核心词对应的商品词性信息,将具有相同商品词性信息的核心词的数量与所述训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重;
或者,
建立用户搜索的搜索词和点击的商品短文本的对应关系,将所述搜索词标注为对应的商品短文本的核心词,并标注所述核心词对应的商品词性信息,将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重。
7.根据权利要求1所述的方法,其特征在于,所述根据所述商品短文本中的各个分词对应的词性权重确定所述各个分词的局部权重包括:
对所述商品短文本中的各个分词对应的词性权重进行归一化处理,获得所述各个分词的局部权重。
8.根据权利要求2所述的方法,其特征在于,所述根据所述各个分词的局部权重以及聚类层级权重确定所述商品短文本的核心词包括:
将所述各个分词的局部权重以及聚类层级权重加权求和作为所述各个分词的核心权重,或者,将所述各个分词的局部权重和文档层级权重以及聚类层级权重加权求和作为所述各个分词的核心权重;
将所述商品短文本中核心权重的值最大的分词确定为所述商品短文本的核心词。
9.根据权利要求2所述的方法,其特征在于,
采用以下方法确定局部权重以及聚类层级权重的加权系数:
对训练数据集内的各个商品短文本进行分词处理;
标注所述训练数据集内各个商品短文本的核心词和非核心词;
计算训练数据集内各个分词的局部权重以及聚类层级权重;
将核心词作为正样本,非核心词作为负样本,根据各个分词的局部权重以及聚类层级权重,采用机器学习的方法计算局部权重以及聚类层级权重的加权系数;
或者,
采用以下方法确定局部权重和文档层级权重以及聚类层级权重的加权系数:
对训练数据集内的各个商品短文本进行分词处理;
标注所述训练数据集内各个商品短文本的核心词和非核心词;
计算训练数据集内各个分词的局部权重和文档层级权重以及聚类层级权重;
将核心词作为正样本,非核心词作为负样本,根据各个分词的局部权重和文档层级权重以及聚类层级权重,采用机器学习的方法计算局部权重和文档层级权重以及聚类层级权重的加权系数。
10.根据权利要求1所述的方法,其特征在于,还包括:在对所述商品短文本进行分词处理之前,去掉商品短文本中的停用词和标点符号。
11.根据权利要求1所述的方法,其特征在于,还包括:在对所述商品短文本进行分词处理之后,统计所述数据集内所有分词的出现频率,去掉商品短文本中出现频率低于过滤阈值的分词。
12.根据权利要求1所述的方法,其特征在于,其中,所述商品短文本包括商品标题、商品评论或商品信息页内容。
13.根据权利要求2所述的方法,其特征在于,其中,商品词性信息包括品牌、系列名称、品类、名词、属性词、款式、修饰词中的一个或多个。
14.一种商品短文本核心词提取装置,其特征在于,包括:
预处理模块,所述预处理模块包括:
短文本获取单元,用于获取数据集内的商品短文本;
分词单元,用于对所述商品短文本进行分词处理;
权重确定模块,包括:
聚类层级权重确定子模块,用于确定所述商品短文本中各个分词的权重;以及,局部权重确定子模块;
所述聚类层级权重确定子模块包括:
文档向量确定单元,用于根据所述商品短文本的上下文信息获得所述商品短文本的文档向量;
聚类单元,用于根据所述文档向量对所述数据集内的商品短文本进行聚类;
聚类层级权重确定单元,用于确定所述商品短文本中的各个分词在所述商品短文本所属的类别的聚类层级权重;
所述局部权重确定子模块,包括:
商品词性信息确定单元,用于确定所述商品短文本中的各个分词的商品词性信息;
词性权重确定单元,用于根据商品词性及其词性权重的对应关系确定所述商品短文本中的分词对应的词性权重;
局部权重确定单元,用于根据所述商品短文本中的各个分词对应的词性权重确定所述各个分词的局部权重;
核心词确定模块,用于根据所述各个分词的局部权重以及聚类层级权重确定所述商品短文本的核心词。
15.根据权利要求14所述的装置,其特征在于,
所述权重确定模块还包括文档层级权重确定子模块,所述核心词确定模块用于根据所述各个分词的局部权重和文档层级权重以及聚类层级权重确定所述商品短文本的核心词;
其中,所述文档层级权重确定子模块用于确定所述商品短文本中的各个分词在所述数据集内的逆向文件频率,将其确定为所述各个分词的文档层级权重。
16.根据权利要求14所述的装置,其特征在于,所述文档向量确定单元用于根据所述数据集内商品短文本的平均长度确定窗口参数,采用向量运算工具word2vec,将所述数据集作为输入语料、确定的窗口参数作为窗口大小进行计算,得到所述数据集内的商品短文本的文档向量。
17.根据权利要求14或15所述的装置,其特征在于,其中,所述聚类单元聚类的数量根据商品品类的数量确定。
18.根据权利要求14或15所述的装置,其特征在于,所述聚类层级权重确定单元用于采用卡方公式计算所述商品短文本中的各个分词在所述商品短文本所属的类别的卡方值,将所述卡方值作为所述商品短文本中的各个分词在所述商品短文本所属的类别的聚类层级权重。
19.根据权利要求14所述的装置,其特征在于,所述局部权重确定子模块还包括第一词性权重对应单元或者第二词性权重对应单元;
其中,所述第一词性权重对应单元用于获取包括若干训练商品短文本的训练语料,并标注各个训练商品短文本中的核心词和核心词对应的商品词性信息,将具有相同商品词性信息的核心词的数量与所述训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重;
其中,所述第二词性权重对应单元用于建立用户搜索的搜索词和点击的商品短文本的对应关系,将所述搜索词标注为对应的商品短文本的核心词,并标注所述核心词对应的商品词性信息,再将具有相同商品词性信息的核心词的数量与训练语料中所有核心词的数量的比值作为该商品词性信息对应的词性权重。
20.根据权利要求14所述的装置,其特征在于,所述局部权重确定单元用于对所述商品短文本中的各个分词对应的词性权重进行归一化处理,获得所述各个分词的局部权重。
21.根据权利要求15所述的装置,其特征在于,所述核心词确定模块包括:
核心权重计算单元,用于将所述各个分词的局部权重以及聚类层级权重、或者局部权重和文档层级权重以及聚类层级权重加权求和作为所述各个分词的核心权重;
核心词确定单元,用于将所述商品短文本中核心权重的值最大的分词确定为所述商品短文本的核心词。
22.根据权利要求21所述的装置,其特征在于,所述核心词确定模块还包括加权系数确定单元;
所述加权系数确定单元用于确定所述各个分词的局部权重以及聚类层级权重的加权系数并发送给所述核心权重计算单元,所述加权系数确定单元包括:
训练数据分词子单元,用于对训练数据集内的各个商品短文本进行分词处理;
训练数据标注子单元,用于标注所述训练数据集内各个商品短文本的核心词和非核心词;
分词权重计算子单元,用于计算训练数据集内各个分词的局部权重以及聚类层级权重;
机器学习子单元,用于将核心词作为正样本,非核心词作为负样本,根据各个分词的局部权重以及聚类层级权重,采用机器学习的方法计算局部权重以及聚类层级权重的加权系数;
或者,
所述加权系数确定单元用于确定所述各个分词的局部权重和文档层级权重以及聚类层级权重的加权系数并发送给所述核心权重计算单元,所述加权系数确定单元包括:
训练数据分词子单元,用于对训练数据集内的各个商品短文本进行分词处理;
训练数据标注子单元,用于标注所述训练数据集内各个商品短文本的核心词和非核心词;
分词权重计算子单元,用于计算训练数据集内各个分词的局部权重和文档层级权重以及聚类层级权重;
机器学习子单元,用于将核心词作为正样本,非核心词作为负样本,根据各个分词的局部权重和文档层级权重以及聚类层级权重,采用机器学习的方法计算局部权重和文档层级权重以及聚类层级权重的加权系数。
23.根据权利要求14所述的装置,其特征在于,所述预处理模块还包括数据清理单元,和/或,分词过滤单元;
其中,所述数据清理单元,用于去掉商品短文本中的停用词和标点符号,并将处理后的所述商品短文本发送给所述分词单元;
其中,所述分词过滤单元,用于在对所述商品短文本进行分词处理之后,统计所述数据集内所有分词的出现频率,去掉商品短文本中出现频率低于过滤阈值的分词。
24.根据权利要求15所述的装置,其特征在于,其中,商品词性信息包括品牌、系列名称、品类、名词、属性词、款式、修饰词中的一个或多个;或者,所述商品短文本包括商品标题、商品评论或商品信息页内容。
25.一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现权利要求1~13中任一项所述的商品短文本核心词提取方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610191177.3A CN105808526B (zh) | 2016-03-30 | 2016-03-30 | 商品短文本核心词提取方法和装置 |
AU2017243270A AU2017243270B2 (en) | 2016-03-30 | 2017-01-23 | Method and device for extracting core words from commodity short text |
US16/089,579 US11138250B2 (en) | 2016-03-30 | 2017-01-23 | Method and device for extracting core word of commodity short text |
PCT/CN2017/072157 WO2017166912A1 (zh) | 2016-03-30 | 2017-01-23 | 商品短文本核心词提取方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610191177.3A CN105808526B (zh) | 2016-03-30 | 2016-03-30 | 商品短文本核心词提取方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105808526A CN105808526A (zh) | 2016-07-27 |
CN105808526B true CN105808526B (zh) | 2019-07-30 |
Family
ID=56454267
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610191177.3A Active CN105808526B (zh) | 2016-03-30 | 2016-03-30 | 商品短文本核心词提取方法和装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US11138250B2 (zh) |
CN (1) | CN105808526B (zh) |
AU (1) | AU2017243270B2 (zh) |
WO (1) | WO2017166912A1 (zh) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105808526B (zh) | 2016-03-30 | 2019-07-30 | 北京京东尚科信息技术有限公司 | 商品短文本核心词提取方法和装置 |
CN107784019A (zh) * | 2016-08-30 | 2018-03-09 | 苏宁云商集团股份有限公司 | 一种搜索业务中搜索词处理方法及系统 |
CN106598949B (zh) * | 2016-12-22 | 2019-01-04 | 北京金山办公软件股份有限公司 | 一种词语对文本贡献度的确定方法及装置 |
CN106649276B (zh) * | 2016-12-29 | 2019-02-26 | 北京京东尚科信息技术有限公司 | 标题中核心产品词的识别方法以及装置 |
CN106886934B (zh) * | 2016-12-30 | 2018-01-23 | 北京三快在线科技有限公司 | 用于确定商家品类的方法、系统和装置 |
CN107562793A (zh) * | 2017-08-01 | 2018-01-09 | 佛山市深研信息技术有限公司 | 一种大数据挖掘方法 |
CN107730346A (zh) * | 2017-09-25 | 2018-02-23 | 北京京东尚科信息技术有限公司 | 物品聚类的方法和装置 |
US11481646B2 (en) * | 2017-10-27 | 2022-10-25 | Google Llc | Selecting answer spans from electronic documents using neural networks |
CN107862046B (zh) * | 2017-11-07 | 2019-03-26 | 宁波爱信诺航天信息有限公司 | 一种基于短文本相似度的税务商品编码分类方法及系统 |
CN110196742A (zh) * | 2018-02-27 | 2019-09-03 | 阿里巴巴集团控股有限公司 | 生成、展示数据对象信息的方法及装置 |
CN108899014B (zh) * | 2018-05-31 | 2021-06-08 | 中国联合网络通信集团有限公司 | 语音交互设备唤醒词生成方法及装置 |
CN110633464A (zh) * | 2018-06-22 | 2019-12-31 | 北京京东尚科信息技术有限公司 | 一种语义识别方法、装置、介质及电子设备 |
CN110889285B (zh) * | 2018-08-16 | 2023-06-16 | 阿里巴巴集团控股有限公司 | 确定核心词的方法、装置、设备和介质 |
CN110968685B (zh) * | 2018-09-26 | 2023-06-20 | 阿里巴巴集团控股有限公司 | 商品名称的归集方法和装置 |
CN109710762B (zh) * | 2018-12-26 | 2023-08-01 | 南京云问网络技术有限公司 | 一种融合多种特征权重的短文本聚类方法 |
CN111078884B (zh) * | 2019-12-13 | 2023-08-15 | 北京小米智能科技有限公司 | 一种关键词提取方法、装置及介质 |
CN111241275B (zh) * | 2020-01-02 | 2022-12-06 | 厦门快商通科技股份有限公司 | 一种短文本相似度评估方法和装置以及设备 |
US11900395B2 (en) * | 2020-01-27 | 2024-02-13 | Ncr Voyix Corporation | Data-driven segmentation and clustering |
CN113806524A (zh) * | 2020-06-16 | 2021-12-17 | 阿里巴巴集团控股有限公司 | 一种文本内容的层级类目构建和层级结构调整方法及装置 |
CN112016298A (zh) * | 2020-08-28 | 2020-12-01 | 中移(杭州)信息技术有限公司 | 产品特征信息的提取方法、电子设备及存储介质 |
CN112508612B (zh) * | 2020-12-11 | 2024-02-27 | 北京搜狗科技发展有限公司 | 训练广告创意生成模型、生成广告创意的方法及相关装置 |
CN112685440B (zh) * | 2020-12-31 | 2022-03-22 | 上海欣兆阳信息科技有限公司 | 标记搜索语义角色的结构化查询信息表达方法 |
CN112860898B (zh) * | 2021-03-16 | 2022-05-27 | 哈尔滨工业大学(威海) | 一种短文本框聚类方法、系统、设备及存储介质 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120183A (ja) * | 1997-10-08 | 1999-04-30 | Ntt Data Corp | キーワード抽出方法及び装置 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20030069873A1 (en) * | 1998-11-18 | 2003-04-10 | Kevin L. Fox | Multiple engine information retrieval and visualization system |
US9275129B2 (en) * | 2006-01-23 | 2016-03-01 | Symantec Corporation | Methods and systems to efficiently find similar and near-duplicate emails and files |
CN101184259B (zh) * | 2007-11-01 | 2010-06-23 | 浙江大学 | 垃圾短信中的关键词自动学习及更新方法 |
CN102063469B (zh) * | 2010-12-03 | 2013-04-24 | 百度在线网络技术(北京)有限公司 | 一种用于获取相关关键词信息的方法、装置和计算机设备 |
US8719257B2 (en) * | 2011-02-16 | 2014-05-06 | Symantec Corporation | Methods and systems for automatically generating semantic/concept searches |
CN103136300B (zh) * | 2011-12-05 | 2017-02-01 | 北京百度网讯科技有限公司 | 一种文本相关主题的推荐方法和装置 |
CN103186662B (zh) | 2012-12-28 | 2016-08-03 | 北京中油网资讯技术有限公司 | 一种动态舆情关键词抽取系统和方法 |
CN103646074B (zh) * | 2013-12-11 | 2017-06-23 | 北京奇虎科技有限公司 | 一种确定图片簇描述文本核心词的方法及装置 |
KR102131099B1 (ko) * | 2014-02-13 | 2020-08-05 | 삼성전자 주식회사 | 지식 그래프에 기초한 사용자 인터페이스 요소의 동적 수정 방법 |
US9317498B2 (en) * | 2014-05-23 | 2016-04-19 | Codeq Llc | Systems and methods for generating summaries of documents |
CN104008186B (zh) * | 2014-06-11 | 2018-10-16 | 北京京东尚科信息技术有限公司 | 从目标文本中确定关键词的方法和装置 |
CN104866572B (zh) * | 2015-05-22 | 2018-05-18 | 齐鲁工业大学 | 一种网络短文本聚类方法 |
CN104834747B (zh) | 2015-05-25 | 2018-04-27 | 中国科学院自动化研究所 | 基于卷积神经网络的短文本分类方法 |
CN105808526B (zh) * | 2016-03-30 | 2019-07-30 | 北京京东尚科信息技术有限公司 | 商品短文本核心词提取方法和装置 |
-
2016
- 2016-03-30 CN CN201610191177.3A patent/CN105808526B/zh active Active
-
2017
- 2017-01-23 US US16/089,579 patent/US11138250B2/en active Active
- 2017-01-23 AU AU2017243270A patent/AU2017243270B2/en active Active
- 2017-01-23 WO PCT/CN2017/072157 patent/WO2017166912A1/zh active Application Filing
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11120183A (ja) * | 1997-10-08 | 1999-04-30 | Ntt Data Corp | キーワード抽出方法及び装置 |
Non-Patent Citations (1)
Title |
---|
一种基于聚类的微博关键词提取方法的研究与实现;孙兴东 等;《技术研究》;20141231(第12期);第29页 |
Also Published As
Publication number | Publication date |
---|---|
US11138250B2 (en) | 2021-10-05 |
AU2017243270B2 (en) | 2022-06-30 |
US20200311113A1 (en) | 2020-10-01 |
WO2017166912A1 (zh) | 2017-10-05 |
AU2017243270A1 (en) | 2018-11-08 |
CN105808526A (zh) | 2016-07-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105808526B (zh) | 商品短文本核心词提取方法和装置 | |
CN107609121B (zh) | 基于LDA和word2vec算法的新闻文本分类方法 | |
CN104199972B (zh) | 一种基于深度学习的命名实体关系抽取与构建方法 | |
CN105843897B (zh) | 一种面向垂直领域的智能问答系统 | |
CN104778209B (zh) | 一种针对千万级规模新闻评论的观点挖掘方法 | |
CN102411563B (zh) | 一种识别目标词的方法、装置及系统 | |
CN108763213A (zh) | 主题特征文本关键词提取方法 | |
CN106599054B (zh) | 一种题目分类及推送的方法及系统 | |
CN104881458B (zh) | 一种网页主题的标注方法和装置 | |
CN106708966A (zh) | 基于相似度计算的垃圾评论检测方法 | |
CN108363725B (zh) | 一种用户评论观点提取和观点标签生成的方法 | |
CN104077407B (zh) | 一种智能数据搜索系统及方法 | |
CN104778186B (zh) | 将商品对象挂载到标准产品单元的方法及系统 | |
CN104298715B (zh) | 一种基于tf‑idf的多索引结果合并排序方法 | |
CN111104526A (zh) | 一种基于关键词语义的金融标签提取方法及系统 | |
CN108874921A (zh) | 提取文本特征词的方法、装置、终端设备及存储介质 | |
CN110362678A (zh) | 一种自动提取中文文本关键词的方法与装置 | |
CN106372122B (zh) | 一种基于维基语义匹配的文档分类方法及系统 | |
CN104281565B (zh) | 语义词典构建方法和装置 | |
CN109376352A (zh) | 一种基于word2vec和语义相似度的专利文本建模方法 | |
CN105205163B (zh) | 一种科技新闻的增量学习多层次二分类方法 | |
CN106886512A (zh) | 文章分类方法和装置 | |
CN112527958A (zh) | 用户行为倾向识别方法、装置、设备及存储介质 | |
CN109558587A (zh) | 一种针对类别分布不平衡的舆论倾向性识别的分类方法 | |
CN108304509A (zh) | 一种基于文本多向量表示相互学习的垃圾评论过滤方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |