CN110852100A - 关键词提取方法、装置、电子设备及介质 - Google Patents
关键词提取方法、装置、电子设备及介质 Download PDFInfo
- Publication number
- CN110852100A CN110852100A CN201911044136.1A CN201911044136A CN110852100A CN 110852100 A CN110852100 A CN 110852100A CN 201911044136 A CN201911044136 A CN 201911044136A CN 110852100 A CN110852100 A CN 110852100A
- Authority
- CN
- China
- Prior art keywords
- topic
- candidate word
- word
- candidate
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
Abstract
本申请公开了一种关键词提取方法、装置、电子设备及介质。其中,本申请中,在获取目标文本之后,可以基于预设方式,对目标文本进行预处理,得到至少一个候选词,再利用主题计算模型确定各候选词所对应的至少一个主题类别,再基于至少一个主题类别,从至少一个候选词中进行提取,得到至少一个目标关键词。通过应用本申请的技术方案,可以在对目标文本进行无关词语的过滤后,利用主题计算模型以及目标词嵌入模型对目标文本中的候选关键词进行提取,得到用户感兴趣的目标关键词。进而可以避免相关技术中存在的仅依靠词语出现次数来选择关键词所导致的准确率不高的问题。
Description
技术领域
本申请中涉及数据处理技术,尤其是一种关键词提取方法、装置、电子设备及介质
背景技术
由于通信时代和社会的兴起,用户会在互联网上浏览各式文本以达到查找所需内容的目的。
其中,通常在面对海量文本时,为了能够帮助用户快速查询到其所需要的内容。通常是以提取关键词的方式向用户进行展示,以使用户根据对该关键词的兴趣指数,选择是否浏览对应的文本数据。进一步的,关键词对于句子的表示有指导意义,在相似度计算、文本分类方面有重要作用,是快速获取文本主题的重要方式,在信息检索和自然语言处理等领域均有重要应用。引入关键词的概念,可以对大量的文本数据集进行切分和提取关键信息,并选择最具代表性的词作为关键字。
然而,传统的方法仅依靠词汇的统计信息进行推荐,这样的关键词提取方法的准确度难以保证。
发明内容
本申请实施例提供一种关键词提取方法、装置、电子设备及介质。
其中,根据本申请实施例的一个方面,提供的一种关键词提取方法,其特征在于,包括:
对目标文本进行预处理,得到至少一个候选词;
基于主题计算模型,确定各所述候选词所对应的至少一个主题类别;
基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词。
可选地,在基于本申请上述方法的另一个实施例中,所述基于主题计算模型,确定各所述候选词所对应的至少一个主题,包括:基于预先训练好的至少一个所述主题计算模型,对各所述候选词进行识别,得到各所述候选词对应的至少一个主题类别。
可选地,在基于本申请上述方法的另一个实施例中,所述基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词,包括:
将各所述候选词按照所述主题类别进行分类,得到各所述主题类别对应的至少一个所述候选词;
基于各所述候选词对应的词向量,对各所述主题类别中的每一个,计算该主题类别所对应的至少一个所述候选词与该主题类别所对应的至少一个主题词之间的相似度,基于计算结果,对该主题类别所对应的至少一个所述候选词进行排序;
基于排序结果,从各所述主题类别中选择排名在预设范围的候选词作为所述目标关键词。
基于预先训练好的至少一个所述主题计算模型,对各所述候选词进行识别,得到各所述候选词的至少一个主题标签,所述主题标签用于反映所述候选词所对应的所述主题类别。
可选地,在基于本申请上述方法的另一个实施例中,所述基于预先训练好的至少一个主题计算模型,对各所述候选词进行识别,得到各所述至少一个候选词对应的至少一个主题类别,包括:
基于各所述主题计算模型,分别对各所述候选词进行识别,得到每个所述候选词对应的至少一个权重系数,其中每个所述权重系数分别对应不同的主题类别;
从每个所述候选词对应的至少一个权重系数中,选取满足条件的权重系数作为目标权重系数;
将所述目标权重系数对应的主题类别作为所述候选词对应的主题类别。
可选地,在基于本申请上述方法的另一个实施例中,所述对目标文本进行预处理,得到至少一个候选词,包括:
对所述目标文本进行分词处理,获取所述目标文本对应的至少一个词组;
对所述至少一个词组进行停用词去除以及词性过滤,得到所述至少一个候选词。
可选地,在基于本申请上述方法的另一个实施例中,所述主题计算模型包含基于样本文本训练好的神经网络模型。
可选地,在基于本申请上述方法的另一个实施例中,基于词嵌入模型对所述至少一个候选词进行向量化,得到各所述候选词对应的词向量,其中,所述词嵌入模型基于样本文本预先训练得到。
根据本申请实施例的另一个方面,提供的一种关键词提取装置,包括:
获取模块,被设置为对目标文本进行预处理,得到至少一个候选词;
确定模块,被设置为基于主题计算模型,确定各所述候选词所对应的至少一个主题类别;
生成模块,被设置为基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词。
根据本申请实施例的又一个方面,提供的一种电子设备,包括:
存储器,用于存储可执行指令;以及
显示器,用于与所述存储器显示以执行所述可执行指令从而完成上述任一所述关键词提取方法的操作。
根据本申请实施例的还一个方面,提供的一种计算机可读存储介质,用于存储计算机可读取的指令,所述指令被执行时执行上述任一所述关键词提取方法的操作。
本申请中,在获取目标文本之后,可以基于预设方式,对目标文本进行预处理,得到至少一个候选词,再利用主题计算模型确定各候选词所对应的至少一个主题类别,再基于至少一个主题类别,从至少一个候选词中进行提取,得到至少一个目标关键词。通过应用本申请的技术方案,可以在对目标文本进行无关词语的过滤后,利用主题计算模型以及目标词嵌入模型对目标文本中的候选关键词进行提取,得到用户感兴趣的目标关键词。进而可以避免相关技术中存在的仅依靠词语出现次数来选择关键词所导致的准确率不高的问题。
下面通过附图和实施例,对本申请的技术方案做进一步的详细描述。
附图说明
构成说明书的一部分的附图描述了本申请的实施例,并且连同描述一起用于解释本申请的原理。
参照附图,根据下面的详细描述,可以更加清楚地理解本申请,其中:
图1为本申请视关键词提取系统架构示意图;
图2为本申请提出的一种关键词提取方法的示意图;
图3为本申请关键词提取装置的结构示意图;
图4为本申请显示电子设备结构示意图。
具体实施方式
现在将参照附图来详细描述本申请的各种示例性实施例。应注意到:除非另外具体说明,否则在这些实施例中阐述的部件和步骤的相对布置、数字表达式和数值不限制本申请的范围。
同时,应当明白,为了便于描述,附图中所示出的各个部分的尺寸并不是按照实际的比例关系绘制的。
以下对至少一个示例性实施例的描述实际上仅仅是说明性的,不作为对本申请及其应用或使用的任何限制。
对于相关领域普通技术人员已知的技术、方法和设备可能不作详细讨论,但在适当情况下,所述技术、方法和设备应当被视为说明书的一部分。
应注意到:相似的标号和字母在下面的附图中表示类似项,因此,一旦某一项在一个附图中被定义,则在随后的附图中不需要对其进行进一步讨论。
另外,本申请各个实施例之间的技术方案可以相互结合,但是必须是以本领域普通技术人员能够实现为基础,当技术方案的结合出现相互矛盾或无法实现时应当认为这种技术方案的结合不存在,也不在本申请要求的保护范围之内。
需要说明的是,本申请实施例中所有方向性指示(诸如上、下、左、右、前、后……)仅用于解释在某一特定姿态(如附图所示)下各部件之间的相对位置关系、运动情况等,如果该特定姿态发生改变时,则该方向性指示也相应地随之改变。
下面结合图1-图2来描述根据本申请示例性实施方式的用于进行关键词提取方法。需要注意的是,下述应用场景仅是为了便于理解本申请的精神和原理而示出,本申请的实施方式在此方面不受任何限制。相反,本申请的实施方式可以应用于适用的任何场景。
图1示出了可以应用本申请实施例的视频处理方法或视频处理装置的示例性系统架构100的示意图。
如图1所示,系统架构100可以包括终端设备101、102、103中的一种或多种,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。比如服务器105可以是多个服务器组成的服务器集群等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103可以是具有显示屏的各种电子设备,包括但不限于智能手机、平板电脑、便携式计算机和台式计算机等等。
本申请中的终端设备101、102、103可以为提供各种服务的终端设备。例如用户通过终端设备103(也可以是终端设备101或102)对目标文本进行预处理,得到至少一个候选词;基于主题计算模型,确定各所述候选词所对应的至少一个主题类别;基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词。
在此需要说明的是,本申请实施例所提供的视频处理方法可以由终端设备101、102、103中的一个或多个,和/或,服务器105执行,相应地,本申请实施例所提供的视频处理装置一般设置于对应终端设备中,和/或,服务器105中,但本申请不限于此。
本申请还提出一种关键词提取方法、装置、目标终端及介质。
图2示意性地示出了根据本申请实施方式的一种关键词提取方法的流程示意图。如图2所示,该方法包括:
S101,对目标文本进行预处理,得到至少一个候选词。
需要说明的是,本申请中不对获取目标文本的设备做具体限定,例如可以为智能设备,也可以为服务器。其中,智能设备可以是PC(Personal Computer,个人电脑),也可以是智能手机、平板电脑、电子书阅读器、MP3(Moving Picture Experts Group AudioLayerIII,动态影像专家压缩标准音频层面3)关键词提取器。MP4(Moving PictureExpertsGroup Audio Layer IV,动态影像专家压缩标准音频层面4)关键词提取器、又或便携计算机等具有显示功能的可移动式终端设备等等。
进一步的,本申请也不对目标文本做具体限定,也即目标文本可以为任意内容的文本。
再进一步的,本申请在获取目标文本之后,可以进一步的首先对目标文本进行预处理,并在对文本进行预处理之后,得到对应的候选词。
更进一步的,由于目标文本为未过滤的文本,其中可能包含有多个重复词语,错误词语,不相关词语等。因此,为了避免提取到用户兴趣指数较低的词语以减小用户体验的弊端,本申请可以首先利用对文本进行预处理的方式过滤掉无关词语。
需要说明的是,本申请不对目标文本进行预处理的预设方式做具体限定,例如可以为基于停用词去除和词性过滤的方式对文本进行预处理。其中,停用词是指在信息检索中,为节省存储空间和提高搜索效率,在处理自然语言数据(或文本)之前或之后会自动过滤掉某些字或词,这些字或词即被称为停用词。这些停用词都是人工输入、非自动化生成的,生成后的停用词会形成一个停用词表。通常来说,停用词的存在意义较低。另外,词性过滤即可以为使用去除固定词性的方式来实现词性过滤。例如,可以将词性为副词的词语进行去除,又或,也可以将词性为介词的词语进行去除。
S102,基于主题计算模型,确定各候选词所对应的至少一个主题类别。
可选地,本申请中的主题计算模型可以为LDA主题模型。其中,该LDA主题模型是一种文档主题生成模型,也称为一个三层贝叶斯概率模型,包含词、主题和文档三层结构。所谓生成模型,举例来说,当一篇文章的每个词都是通过“以一定概率选择了某个主题,并从这个主题中以一定概率选择某个词语”这样一个过程得到。文档到主题服从多项式分布,主题到词服从多项式分布。
另外,LDA主题模型是一种非监督机器学习技术,可以用来识别大规模文档集或语料库中潜藏的主题信息。它采用了词袋的方法,这种方法将每一篇文档视为一个词频向量,从而将文本信息转化为了易于建模的数字信息。但是词袋方法没有考虑词与词之间的顺序,这简化了问题的复杂性,同时也为模型的改进提供了契机。每一篇文本信息代表了一些主题所构成的一个概率分布,而每一个主题又代表了很多单词所构成的一个概率分布。
可选的,在LDA进行主题识别的过程中,可以先从多个候选词中随机抽取出一个主题分布,然后从该主题分布中随机抽取出主题,最后从确定后的主题对应的词分布中随机抽取出词。具体来说,可以事先给定了几个主题,例如为:“艺术”、“教育”、“学生”、“外语”等等。然后通过学习训练。获取每一个主题Topic相应的词语。然后以一定的概率选取上述某个主题,再以一定的概率选取那个主题下的某个单词,不断的反复这两步,终于生成事实上的主题类别的确定。可以理解的,LDA模型中可以从Dirichlet分布中随机抽取主题分布,这个过程不是完全随机的。假设主题分布是一个二维分布,三维空间中的底面表示主题分布的一个点,高度代表某个主题分布(某个点)被Dirichlet分布选中的概率,且选不同的Dirichlet分布会偏向不同的主题分布。
S103,基于至少一个主题类别,从至少一个候选词中进行提取,得到至少一个目标关键词。
进一步的,本申请中可以基于词嵌入模型,从至少一个候选词中进行提取,得到至少一个目标关键词。其中,词嵌入模型可以为Word2Vec模型。其中,Word2Vec模型是将文本中词转换成词向量的神经网络语言模型,广泛应用于情感分析、机器问答等自然语言处理领域。针对Word2Vec模型生成的词向量缺乏语境的多义性以及无法创建未登录词(OOV)词向量的问题,本文基于文档上下文的相似信息与Word2Vec模型结合提出符合OOV语境含义的词向量生成模型,称为Word2Vec-ACV模型。首先将文档中的词以向量的形式保存到共现矩阵中,然后将共现矩阵进行归一化处理得到平均上下文词向量,再将其组成平均上下文词向量矩阵,最后将平均上下文词向量矩阵与基于连续词袋(CBOW)和HierarchicalSoftmax的Word2Vec模型训练出来的权重矩阵相乘得到Word2Vec-ACV词向量。
进一步需要说明的是,本申请中不对利用主题计算模型以及目标词嵌入模型对至少一个候选词进行提取的实施方式做具体限定。例如可以先利用主题计算模型对文本进行处理,在利用目标词嵌入模型对至少一个候选词向量表示,进而得到目标关键词。也可以同时利用主题计算模型以及目标词嵌入模型对至少一个候选词向量进行处理,得到目标关键词。
本申请中,在获取目标文本之后,可以基于预设方式,对目标文本进行预处理,得到至少一个候选词,再利用主题计算模型确定各候选词所对应的至少一个主题类别,再基于至少一个主题类别,从至少一个候选词中进行提取,得到至少一个目标关键词。通过应用本申请的技术方案,可以在对目标文本进行无关词语的过滤后,利用主题计算模型以及目标词嵌入模型对目标文本中的候选关键词进行提取,得到用户感兴趣的目标关键词。进而可以避免相关技术中存在的仅依靠词语出现次数来选择关键词所导致的准确率不高的问题。
在本申请一种可能的实施方式中,在本申请S103(基于主题计算模型,确定各候选词所对应的至少一个主题)中,可以通过以下方式生成得到:
基于预先训练好的至少一个主题计算模型,对各候选词进行识别,得到各候选词对应的至少一个主题类别。
其中,本申请中可以包含有多个主题计算模型,每个主题计算模型可以对应有不同的主题类别。进一步的,本申请不对主题类别做具体限定,例如可以对应为人名类的主题计算模型,也可以对应为地名类的主题计算模型,还可以对应为课程类的主题计算模型等等。另外需要说明的是,本申请也不对主题计算模型的数量做具体限定,例如可以为3个,也可以为5个。
进一步的,本申请中可以基于各个主题计算模型,对至少一个候选词进行识别,并得到各至少一个候选词的主题标签。可以理解的,由于每个至少一个候选词可以分属为不同的主题类别。因此为了确定该至少一个候选词的类别,需要利用每个主题计算模型对其进行检测识别,从而确定该词语对应的主题类别。可以理解的,本申请可以根据每个主题计算模型对同一至少一个候选词进行检测识别的多个结果,选择其中最优结果对应的主题计算模型的类别作为该候选词的主题类别。
举例来说,以本申请的主题计算模型为3个,并分别为人名类的主题计算模型,地名类的主题计算模型以及课程类的主题计算模型为例,当至少一个候选词为“张三”时,分别利用人名类的主题计算模型,地名类的主题计算模型以及课程类的主题计算模型对“张三”进行检测识别,并得到人名类的主题计算模型对“张三”的匹配结果为98%,地名类的主题计算模型对“张三”的匹配结果为28%,课程类的主题计算模型对“张三”的匹配结果为2%。可以理解的,基于3个匹配结果,本申请实施例将人名类的主题计算模型作为针对至少一个候选词“张三”的最优主题计算模型,并确定候选词“张三”为人名类别的主题类别。
进一步举例而言,当至少一个候选词为“少儿班”,“北京”时,分别利用人名类的主题计算模型,地名类的主题计算模型以及课程类的主题计算模型对“少儿班”进行检测识别,并得到人名类的主题计算模型对“少儿班”的匹配结果为10%,以及对“北京”的匹配结果为30%。地名类的主题计算模型对“少儿班”的匹配结果为18%,以及对“北京”的匹配结果为99%。课程类的主题计算模型对“少儿班”的匹配结果为95%,以及对“北京”的匹配结果为2%。可以理解的,基于该多个匹配结果,本申请实施例将课程类的主题计算模型作为针对至少一个候选词“少儿班”的最优主题计算模型,并确定候选词“少儿班”为课程类别的主题类别。以及,将地名类的主题计算模型作为针对至少一个候选词“北京”的最优主题计算模型,并确定候选词“北京”为地名类别的主题类别。
在本申请另外一种实施方式中,也可以通过以下方式得到各至少一个候选词的主题标签:
将各候选词按照所述主题类别进行分类,得到各主题类别对应的至少一个候选词;
基于各候选词对应的词向量,对各主题类别中的每一个,计算该主题类别所对应的至少一个候选词与该主题类别所对应的至少一个主题词之间的相似度,基于计算结果,对该主题类别所对应的至少一个候选词进行排序;
基于排序结果,从各主题类别中选择排名在预设范围的候选词作为目标关键词。
基于预先训练好的至少一个主题计算模型,对各候选词进行识别,得到各候选词的至少一个主题标签,主题标签用于反映候选词所对应的主题类别。
进一步可选的,基于各主题计算模型,分别对各候选词进行识别,得到每个候选词对应的至少一个权重系数,其中每个权重系数分别对应不同的主题类别;
从每个候选词对应的至少一个权重系数中,选取满足条件的权重系数作为目标权重系数;
将目标权重系数对应的主题类别作为候选词对应的主题类别。
进一步的,本申请也可以利用各主题计算模型分别对各至少一个候选词进行识别得到的多个权重系数,选择其中权重系数最高的目标权重系数对应的主题类别作为该关键词对应的主题标签。
同样以上述举例来说,以本申请的主题计算模型为3个,并分别为人名类的主题计算模型,地名类的主题计算模型以及课程类的主题计算模型为例,当至少一个候选词为“张三”时,分别利用人名类的主题计算模型,地名类的主题计算模型以及课程类的主题计算模型对“张三”进行检测识别,并得到人名类的主题计算模型对“张三”的权重系数为0.8,地名类的主题计算模型对“张三”的权重系数为0.15,课程类的主题计算模型对“张三”的权重系数为0.15。可以理解的,基于3个权重系数,本申请实施例将其中权重系数中数值最高的权重系数作为针对至少一个候选词“张三”的目标权重系数,并确定候选词“张三”为人名类别的主题类别。
基于目标词嵌入模型,将各至少一个候选词分别映射为对应的词向量;
基于各至少一个候选词对应的词向量以及主题标签,得到目标关键词。
进一步的,本申请可以基于目标词嵌入模型,将各至少一个候选词分别映射为对应的词向量。举例来说,当各至少一个候选词分别为“北京”、“张三”、“数学”时,可该各至少一个候选词输入至目标词嵌入模型中,以通过词嵌入模型生成每个候选词对应的词向量。并分别对应为“北京”的词向量为(0.2,0.4),“张三”的词向量为(0.8,1.0),“数学”的词向量为(0.8,0.8)。本申请再基于各至少一个候选词对应的词向量以及主题标签,选择其中的一个待处理关键词作为目标关键词。
另外需要说明的是,本申请同样不对目标词嵌入模型做具体限定,例如可以为Word2vec以及glove模型等等。
在本申请一种可能的实施方式中,可以通过以下方式得到目标关键词:
基于主题标签,将各至少一个候选词进行分类,得到各主题类别对应的至少一个候选词;
基于各至少一个候选词对应的词向量,分别对属于同一主题类别的各个至少一个候选词进行排序;
将同一主题类别的各个至少一个候选词中,排名在预设范围的至少一个候选词作为目标关键词。
进一步的,本申请中可以基于各个主题计算模型,对至少一个候选词进行识别,并得到各至少一个候选词的主题标签。可以理解的,本申请可以根据每个主题计算模型对同一至少一个候选词进行检测识别的多个结果,选择其中最优结果对应的主题计算模型的类别作为该候选词的主题类别。且由于存在多个至少一个候选词,本申请可以将分属于同一主题类别的各个至少一个候选词按照对应的词向量大小进行排序。并选取其中排名在预设范围的至少一个候选词作为目标关键词。
需要说明的是,本申请不对预设范围做具体限定,例如可以为排名在第一名的顺序作为预设范围,也可以将排名在前三名的顺序作为预设范围。
举例来说,以本申请的至少一个候选词为5个,并分别为“张三”、“李四”、、“北京”、“西安”、“语文”为例,当利用各个主题计算模型(例如可以为人名类的主题计算模型,地名类的主题计算模型以及课程类的主题计算模型),分别对多个候选词进行检测识别,并得到“张三”对应的主题类别为人名类别、“李四”对应的主题类别为人名类别、“北京”对应的主题类别为地名类别、“西安”对应的主题类别为地名类别、“语文”对应的主题类别为课程类别时;将候选词“张三”、“李四”均划分为人名类别,“北京”、“西安”均划分为地名类别,“语文”划分为课程类别。进一步的,本申请可以利用目标词嵌入模型,对各个至少一个候选词进行向量映射,并对应为人名类别组中“张三”词向量为(0.8,1.0),“李四”词向量为(1.8,2.0)、地名类别组中“北京”词向量为(1.2,1.1),“西安”词向量为(0.5,0.6)、课程类别组中“语文”词向量为(1.3,1.5)。更进一步的,将每个类别组中的词向量最高的词语作为目标关键词,也即为“李四”、“北京”、“语文”作为目标文本中的目标关键词。
在本申请一种可能的实施方式中,在本申请S101(基于预设方式,对目标文本进行预处理,得到至少一个候选词)中,可以通过以下方式生成得到:
对目标文本进行分词处理,获取目标文本对应的至少一个词组;
对至少一个词组进行停用词去除以及词性过滤,得到至少一个候选词。
其中,对目标文本进行分词指的是将一个文本中的多个文字序列切分成多个单独的词。也就是说,分词就是将连续的字序列按照一定的规范重新组合成词序列的过程。进一步的,本申请不对分词方法做具体限定,例如可以为基于字符串匹配的分词方法、基于理解的分词方法和基于统计的分词方法。
进一步的,对于基于字符串匹配的分词方法来说,可以按照一定的策略将待分析的汉字串与预设词典中的词条进行匹配,若在预设词典中找到某个字符串,则匹配成功。可以理解的,按照扫描方向的不同,字符串匹配分词方法可以分为正向匹配和逆向匹配;按照不同长度优先匹配的情况,可以分为最大(最长)匹配和最小(最短)匹配;按照是否与词性标注过程相结合,可以分为单纯分词方法和分词与词性标注相结合的一体化方法。常用的字符串匹配方法有如下几种:(1)正向最大匹配法(从左到右的方向);(2)逆向最大匹配法(从右到左的方向);(3)最小切分(每一句中切出的词数最小);(4)双向最大匹配(进行从左到右、从右到左两次扫描)。或者,也可以为基于理解的分词方法。其中,基于理解的分词方法是通过让计算机模拟人对句子的理解,达到识别词的效果。其基本思想就是在分词的同时进行句法、语义分析,利用句法信息和语义信息来处理歧义现象。它通常包括三个部分:分词子系统、句法语义子系统、总控部分。在总控部分的协调下,分词子系统可以获得有关词、句子等的句法和语义信息来对分词歧义进行判断,即它模拟了人对句子的理解过程。这种分词方法需要使用大量的语言知识和信息。由于汉语语言知识的笼统、复杂性,难以将各种语言信息组织成机器可直接读取的形式,因此目前基于理解的分词系统还处在试验阶段。又或,还可以为基于统计的分词方法。其中,基于统计的分词方法是在给定大量已经分词的文本的前提下,利用统计机器学习模型学习词语切分的规律(称为训练),从而实现对未知文本的切分。例如最大概率分词方法和最大熵分词方法等。随着大规模语料库的建立,统计机器学习方法的研究和发展,。例如主要的统计模型有:N元文法模型(N-gram),隐马尔可夫模型(Hidden Markov Model,HMM),最大熵模型(ME),条件随机场模型(ConditionalRandom Fields,CRF)等。
再进一步的,本申请在对目标文本进行分词处理,获取目标文本对应的各词组之后,还可以利用停用词去除以及词性过滤,对多个词组进行筛除,进而得到至少一个候选词。
在本申请一种可能的实施方式中,在本申请S103(基于主题计算模型以及目标词嵌入模型,对至少一个候选词进行提取,得到目标关键词)之前,本申请还包括:
获取目标文本,以及对目标文本进行预处理,得到至少一个候选词。
进一步的,获取多个不同主题类型的样本文本。
本申请中,可以在对目标文本进行预处理,得到至少一个候选词之后,从预设的数据库中获取多个不同主题类型的样本文本。其中,本申请不对主题类型做具体限定,例如可以为课程类的样本文本,也可以为用户身份信息类的样本文本等等。
另外,还可以基于预设方式,分别对多个样本文本进行预处理,得到对应的样本数据。
可选的,基于多个不同主题类型文本对应的样本数据以及预设的神经网络初始模型,生成各主题计算模型。
进一步的,本申请中的主题计算模型可以为LDA模型。其中,LDA(LatentDirichlet Allocation)是一种非监督机器学习技术,其能够识别大规模文档集中的潜在主题信息,同时它还能够预测推断(inference)一篇新文档和哪些主题(topic)相关。LDA采用的是词袋(bag of words)的方法,将每一篇文档看成一个词频向量,如果两个不同词经常一起出现在文档中,那么LDA的训练算法倾向于把这两个词归于同一类,亦称同一主题。
更进一步的,LDA模型是一种生成模型,其原理是首先假设了一个产生文档的过程,然后根据现实的大量文档集,来学习背后的产生过程是怎么样的。LDA假设所有的文档存在K个主题(每个主题可以认为是词的分布),要生成一篇文档,首先生成该文档的一个主题分布,然后生成词的集合。
可选的,本申请可以基于LDA模型的特性,并利用多个不同主题类型文本对应的样本数据,将初始的神经网络模型进行训练,以生成符合要求的各个主题类别对应的主题计算模型。
进一步可选的,获取多个语料样本文本,每个所述语料样本文本中至少包含一个样本词汇。
基于多个语料样本文本以及预设的词嵌入初始模型,得到待训练词嵌入模型;
进一步可选的,基于多个样本文本,对待训练词嵌入模型进行训练,得到目标词嵌入模型。
进一步可选的,基于主题计算模型以及词嵌入模型,对至少一个候选词进行提取,得到目标关键词。
进一步的,本申请中可以在确定主题计算模型以及词嵌入模型之后,可以对候选词进行对应的处理。具体来说,词嵌入模型可以采用如下公式对词进行量化计算:
lda(vj)
vj
其中,vj是主题模型下的词,sim是相似度计算,lad(vj)是主题模型词的分值,对于新词idf的值默认值较小,进一步的,sim相似度计算可以通过以下公式计算得到:
其中词向量表示为:word x=(x1,...,xi,...xn)。
在本申请的另外一种实施方式中,如图4所示,本申请还提供一种关键词提取装置。其中,该装置包括获取模块301,处理模块302,生成模块303,其中:
获取模块,被设置为对目标文本进行预处理,得到至少一个候选词;
确定模块,被设置为基于主题计算模型,确定各所述候选词所对应的至少一个主题类别;
生成模块,被设置为基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词。
本申请中,在获取目标文本之后,可以基于预设方式,对目标文本进行预处理,得到至少一个候选词,再利用主题计算模型确定各候选词所对应的至少一个主题类别,再基于至少一个主题类别,从至少一个候选词中进行提取,得到至少一个目标关键词。通过应用本申请的技术方案,可以在对目标文本进行无关词语的过滤后,利用主题计算模型以及目标词嵌入模型对目标文本中的候选关键词进行提取,得到用户感兴趣的目标关键词。进而可以避免相关技术中存在的仅依靠词语出现次数来选择关键词所导致的准确率不高的问题。
在本申请的另一种实施方式中,生成模块303,还包括:
生成模块303,被配置为基于预先训练好的至少一个所述主题计算模型,对各所述候选词进行识别,得到各所述候选词对应的至少一个主题类别。
在本申请的另一种实施方式中,生成模块303,还包括:
生成模块303,被配置为将各所述候选词按照所述主题类别进行分类,得到各所述主题类别对应的至少一个所述候选词;
生成模块303,被配置为基于各所述候选词对应的词向量,对各所述主题类别中的每一个,计算该主题类别所对应的至少一个所述候选词与该主题类别所对应的至少一个主题词之间的相似度,基于计算结果,对该主题类别所对应的至少一个所述候选词进行排序;
生成模块303,被配置为基于排序结果,从各所述主题类别中选择排名在预设范围的候选词作为所述目标关键词。
生成模块303,被配置为基于预先训练好的至少一个所述主题计算模型,对各所述候选词进行识别,得到各所述候选词的至少一个主题标签,所述主题标签用于反映所述候选词所对应的所述主题类别。
在本申请的另一种实施方式中,生成模块303,还包括:
生成模块303,被配置为基于各所述主题计算模型,分别对各所述候选词进行识别,得到每个所述候选词对应的至少一个权重系数,其中每个所述权重系数分别对应不同的主题类别;
生成模块303,被配置为从每个所述候选词对应的至少一个权重系数中,选取满足条件的权重系数作为目标权重系数;
生成模块303,被配置为将所述目标权重系数对应的主题类别作为所述候选词对应的主题类别。
在本申请的另一种实施方式中,生成模块303,还包括:
生成模块303,被配置为对所述目标文本进行分词处理,获取所述目标文本对应的至少一个词组;
生成模块303,被配置为对所述至少一个词组进行停用词去除以及词性过滤,得到所述至少一个候选词。
在本申请的另一种实施方式中,还包括,处理模块304,其中:
处理模块304,被配置为:基于词嵌入模型对所述至少一个候选词进行向量化,得到各所述候选词对应的词向量,其中,所述词嵌入模型基于样本文本预先训练得到。
在本申请的另一种实施方式中,还包括,所述主题计算模型包含基于样本文本训练好的神经网络模型。
图4是根据一示例性实施例示出的一种电子设备的逻辑结构框图。例如,电子设备400可以是移动电话,计算机,数字广播终端,消息收发设备,游戏控制台,平板设备,医疗设备,健身设备,个人数字助理等。
参照图4,电子设备400可以包括以下一个或多个组件:处理器401和存储器402。
处理器401可以包括一个或多个处理核心,比如4核心处理器、8核心处理器等。处理器401可以采用DSP(Digital Signal Processing,数字信号处理)、FPGA(Field-Programmable Gate Array,现场可编程门阵列)、PLA(Programmable Logic Array,可编程逻辑阵列)中的至少一种硬件形式来实现。处理器401也可以包括主处理器和协处理器,主处理器是用于对在唤醒状态下的数据进行处理的处理器,也称CPU(Central ProcessingUnit,中央处理器);协处理器是用于对在待机状态下的数据进行处理的低功耗处理器。在一些实施例中,处理器401可以在集成有GPU(Graphics Processing Unit,图像处理器),GPU用于负责显示屏所需要显示的内容的渲染和绘制。一些实施例中,处理器401还可以包括AI(Artificial Intelligence,人工智能)处理器,该AI处理器用于处理有关机器学习的计算操作。
存储器402可以包括一个或多个计算机可读存储介质,该计算机可读存储介质可以是非暂态的。存储器402还可包括高速随机存取存储器,以及非易失性存储器,比如一个或多个磁盘存储设备、闪存存储设备。在一些实施例中,存储器402中的非暂态的计算机可读存储介质用于存储至少一个指令,该至少一个指令用于被处理器401所执行以实现本申请中方法实施例提供的互动特效标定方法。
在一些实施例中,电子设备400还可选包括有:外围设备接口403和至少一个外围设备。处理器401、存储器402和外围设备接口403之间可以通过总线或信号线相连。各个外围设备可以通过总线、信号线或电路板与外围设备接口403相连。具体地,外围设备包括:射频电路404、触摸显示屏405、摄像头406、音频电路407、定位组件408和电源409中的至少一种。
外围设备接口403可被用于将I/O(Input/Output,输入/输出)相关的至少一个外围设备连接到处理器401和存储器402。在一些实施例中,处理器401、存储器402和外围设备接口403被集成在同一芯片或电路板上;在一些其他实施例中,处理器401、存储器402和外围设备接口403中的任意一个或两个可以在单独的芯片或电路板上实现,本实施例对此不加以限定。
射频电路404用于接收和发射RF(Radio Frequency,射频)信号,也称电磁信号。射频电路404通过电磁信号与通信网络以及其他通信设备进行通信。射频电路404将电信号转换为电磁信号进行发送,或者,将接收到的电磁信号转换为电信号。可选地,射频电路404包括:天线系统、RF收发器、一个或多个放大器、调谐器、振荡器、数字信号处理器、编解码芯片组、用户身份模块卡等等。射频电路404可以通过至少一种无线通信协议来与其它终端进行通信。该无线通信协议包括但不限于:城域网、各代移动通信网络(2G、3G、4G及5G)、无线局域网和/或WiFi(Wireless Fidelity,无线保真)网络。在一些实施例中,射频电路404还可以包括NFC(Near Field Communication,近距离无线通信)有关的电路,本申请对此不加以限定。
显示屏405用于显示UI(User Interface,用户界面)。该UI可以包括图形、文本、图标、视频及其它们的任意组合。当显示屏405是触摸显示屏时,显示屏405还具有采集在显示屏405的表面或表面上方的触摸信号的能力。该触摸信号可以作为控制信号输入至处理器401进行处理。此时,显示屏405还可以用于提供虚拟按钮和/或虚拟键盘,也称软按钮和/或软键盘。在一些实施例中,显示屏405可以为一个,设置电子设备400的前面板;在另一些实施例中,显示屏405可以为至少两个,分别设置在电子设备400的不同表面或呈折叠设计;在再一些实施例中,显示屏405可以是柔性显示屏,设置在电子设备400的弯曲表面上或折叠面上。甚至,显示屏405还可以设置成非矩形的不规则图形,也即异形屏。显示屏405可以采用LCD(Liquid Crystal Display,液晶显示屏)、OLED(Organic Light-Emitting Diode,有机发光二极管)等材质制备。
摄像头组件406用于采集图像或视频。可选地,摄像头组件406包括前置摄像头和后置摄像头。通常,前置摄像头设置在终端的前面板,后置摄像头设置在终端的背面。在一些实施例中,后置摄像头为至少两个,分别为主摄像头、景深摄像头、广角摄像头、长焦摄像头中的任意一种,以实现主摄像头和景深摄像头融合实现背景虚化功能、主摄像头和广角摄像头融合实现全景拍摄以及VR(Virtual Reality,虚拟现实)拍摄功能或者其它融合拍摄功能。在一些实施例中,摄像头组件406还可以包括闪光灯。闪光灯可以是单色温闪光灯,也可以是双色温闪光灯。双色温闪光灯是指暖光闪光灯和冷光闪光灯的组合,可以用于不同色温下的光线补偿。
音频电路407可以包括麦克风和扬声器。麦克风用于采集用户及环境的声波,并将声波转换为电信号输入至处理器401进行处理,或者输入至射频电路404以实现语音通信。出于立体声采集或降噪的目的,麦克风可以为多个,分别设置在电子设备400的不同部位。麦克风还可以是阵列麦克风或全向采集型麦克风。扬声器则用于将来自处理器401或射频电路404的电信号转换为声波。扬声器可以是传统的薄膜扬声器,也可以是压电陶瓷扬声器。当扬声器是压电陶瓷扬声器时,不仅可以将电信号转换为人类可听见的声波,也可以将电信号转换为人类听不见的声波以进行测距等用途。在一些实施例中,音频电路407还可以包括耳机插孔。
定位组件408用于定位电子设备400的当前地理位置,以实现导航或LBS(LocationBased Service,基于位置的服务)。定位组件408可以是基于美国的GPS(GlobalPositioning System,全球定位系统)、中国的北斗系统、俄罗斯的格雷纳斯系统或欧盟的伽利略系统的定位组件。
电源409用于为电子设备400中的各个组件进行供电。电源409可以是交流电、直流电、一次性电池或可充电电池。当电源409包括可充电电池时,该可充电电池可以支持有线充电或无线充电。该可充电电池还可以用于支持快充技术。
在一些实施例中,电子设备400还包括有一个或多个传感器410。该一个或多个传感器410包括但不限于:加速度传感器411、陀螺仪传感器412、压力传感器413、指纹传感器414、光学传感器415以及接近传感器416。
加速度传感器411可以检测以电子设备400建立的坐标系的三个坐标轴上的加速度大小。比如,加速度传感器411可以用于检测重力加速度在三个坐标轴上的分量。处理器401可以根据加速度传感器411采集的重力加速度信号,控制触摸显示屏405以横向视图或纵向视图进行用户界面的显示。加速度传感器411还可以用于游戏或者用户的运动数据的采集。
陀螺仪传感器412可以检测电子设备400的机体方向及转动角度,陀螺仪传感器412可以与加速度传感器411协同采集用户对电子设备400的3D动作。处理器401根据陀螺仪传感器412采集的数据,可以实现如下功能:动作感应(比如根据用户的倾斜操作来改变UI)、拍摄时的图像稳定、游戏控制以及惯性导航。
压力传感器413可以设置在电子设备400的侧边框和/或触摸显示屏405的下层。当压力传感器413设置在电子设备400的侧边框时,可以检测用户对电子设备400的握持信号,由处理器401根据压力传感器413采集的握持信号进行左右手识别或快捷操作。当压力传感器413设置在触摸显示屏405的下层时,由处理器401根据用户对触摸显示屏405的压力操作,实现对UI界面上的可操作性控件进行控制。可操作性控件包括按钮控件、滚动条控件、图标控件、菜单控件中的至少一种。
指纹传感器414用于采集用户的指纹,由处理器401根据指纹传感器414采集到的指纹识别用户的身份,或者,由指纹传感器414根据采集到的指纹识别用户的身份。在识别出用户的身份为可信身份时,由处理器401授权该用户执行相关的敏感操作,该敏感操作包括解锁屏幕、查看加密信息、下载软件、关键词提取及更改设置等。指纹传感器414可以被设置电子设备400的正面、背面或侧面。当电子设备400上设置有物理按键或厂商Logo时,指纹传感器414可以与物理按键或厂商Logo集成在一起。
光学传感器415用于采集环境光强度。在一个实施例中,处理器401可以根据光学传感器415采集的环境光强度,控制触摸显示屏405的显示亮度。具体地,当环境光强度较高时,调高触摸显示屏405的显示亮度;当环境光强度较低时,调低触摸显示屏405的显示亮度。在另一个实施例中,处理器401还可以根据光学传感器415采集的环境光强度,动态调整摄像头组件406的拍摄参数。
接近传感器416,也称距离传感器,通常设置在电子设备400的前面板。接近传感器416用于采集用户与电子设备400的正面之间的距离。在一个实施例中,当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变小时,由处理器401控制触摸显示屏405从亮屏状态切换为息屏状态;当接近传感器416检测到用户与电子设备400的正面之间的距离逐渐变大时,由处理器401控制触摸显示屏405从息屏状态切换为亮屏状态。
本领域技术人员可以理解,图4中示出的结构并不构成对电子设备400的限定,可以包括比图示更多或更少的组件,或者组合某些组件,或者采用不同的组件布置。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器404,上述指令可由电子设备400的处理器420执行以完成上述关键词提取方法,该方法包括:对目标文本进行预处理,得到至少一个候选词;基于主题计算模型,确定各所述候选词所对应的至少一个主题类别;基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种应用程序/计算机程序产品,包括一条或多条指令,该一条或多条指令可以由电子设备400的处理器420执行,以完成上述关键词提取方法,该方法包括:对目标文本进行预处理,得到至少一个候选词;基于主题计算模型,确定各所述候选词所对应的至少一个主题类别;基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词。可选地,上述指令还可以由电子设备400的处理器420执行以完成上述示例性实施例中所涉及的其他步骤。本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本申请的其它实施方案。本申请旨在涵盖本申请的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本申请的一般性原理并包括本申请未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本申请的真正范围和精神由下面的权利要求指出。
应当理解的是,本申请并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本申请的范围仅由所附的权利要求来限制。
Claims (10)
1.一种关键词提取方法,其特征在于,包括:
对目标文本进行预处理,得到至少一个候选词;
基于主题计算模型,确定各所述候选词所对应的至少一个主题类别;
基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词。
2.如权利要求1所述的方法,其特征在于,所述基于主题计算模型,确定各所述候选词所对应的至少一个主题,包括:基于预先训练好的至少一个所述主题计算模型,对各所述候选词进行识别,得到各所述候选词对应的至少一个主题类别。
3.如权利要求1所述的方法,其特征在于,所述基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词,包括:
将各所述候选词按照所述主题类别进行分类,得到各所述主题类别对应的至少一个所述候选词;
基于各所述候选词对应的词向量,对各所述主题类别中的每一个,计算该主题类别所对应的至少一个所述候选词与该主题类别所对应的至少一个主题词之间的相似度,基于计算结果,对该主题类别所对应的至少一个所述候选词进行排序;
基于排序结果,从各所述主题类别中选择排名在预设范围的候选词作为所述目标关键词。
基于预先训练好的至少一个所述主题计算模型,对各所述候选词进行识别,得到各所述候选词的至少一个主题标签,所述主题标签用于反映所述候选词所对应的所述主题类别。
4.如权利要求2所述的方法,其特征在于,所述基于预先训练好的至少一个主题计算模型,对各所述候选词进行识别,得到各所述至少一个候选词对应的至少一个主题类别,包括:
基于各所述主题计算模型,分别对各所述候选词进行识别,得到每个所述候选词对应的至少一个权重系数,其中每个所述权重系数分别对应不同的主题类别;
从每个所述候选词对应的至少一个权重系数中,选取满足条件的权重系数作为目标权重系数;
将所述目标权重系数对应的主题类别作为所述候选词对应的主题类别。
5.如权利要求1所述的方法,其特征在于,所述对目标文本进行预处理,得到至少一个候选词,包括:
对所述目标文本进行分词处理,获取所述目标文本对应的至少一个词组;
对所述至少一个词组进行停用词去除以及词性过滤,得到所述至少一个候选词。
6.如权利要求1所述的方法,其特征在于,所述主题计算模型包含基于样本文本训练好的神经网络模型。
7.如权利要求6所述的方法,其特征在于,还包括:基于词嵌入模型对所述至少一个候选词进行向量化,得到各所述候选词对应的词向量,其中,所述词嵌入模型基于样本文本预先训练得到。
8.一种关键词提取装置,其特征在于,包括:
获取模块,被设置为对目标文本进行预处理,得到至少一个候选词;
确定模块,被设置为基于主题计算模型,确定各所述候选词所对应的至少一个主题类别;
生成模块,被设置为基于所述至少一个主题类别,从所述至少一个候选词中进行提取,得到至少一个目标关键词。
9.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;以及,
处理器,用于与所述存储器显示以执行所述可执行指令从而完成权利要求1-7中任一所述关键词提取方法的操作。
10.一种计算机可读存储介质,用于存储计算机可读取的指令,其特征在于,所述指令被执行时执行权利要求1-7中任一所述关键词提取方法的操作。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911044136.1A CN110852100B (zh) | 2019-10-30 | 2019-10-30 | 关键词提取方法、装置、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911044136.1A CN110852100B (zh) | 2019-10-30 | 2019-10-30 | 关键词提取方法、装置、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110852100A true CN110852100A (zh) | 2020-02-28 |
CN110852100B CN110852100B (zh) | 2023-07-21 |
Family
ID=69598166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911044136.1A Active CN110852100B (zh) | 2019-10-30 | 2019-10-30 | 关键词提取方法、装置、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110852100B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111274810A (zh) * | 2020-03-12 | 2020-06-12 | 南京创联智软信息科技有限公司 | 一种基于自然语言的语言储存系统 |
CN111460099A (zh) * | 2020-03-30 | 2020-07-28 | 招商局金融科技有限公司 | 关键词提取方法、装置及存储介质 |
CN111488451A (zh) * | 2020-06-29 | 2020-08-04 | 上海飞旗网络技术股份有限公司 | 基于svm分类模型的用户查询信息及意图提取方法及装置 |
CN111523757A (zh) * | 2020-03-18 | 2020-08-11 | 北京易华录国际技术有限公司 | 一种预案数字化管理系统及方法 |
CN111985217A (zh) * | 2020-09-09 | 2020-11-24 | 吉林大学 | 一种关键词提取方法及计算设备 |
CN112668321A (zh) * | 2020-12-29 | 2021-04-16 | 竹间智能科技(上海)有限公司 | 关键词提取方法及装置、电子设备、存储介质 |
CN112989761A (zh) * | 2021-05-20 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 文本分类方法及装置 |
CN113033333A (zh) * | 2021-03-05 | 2021-06-25 | 北京百度网讯科技有限公司 | 实体词识别方法、装置、电子设备和存储介质 |
CN113270092A (zh) * | 2021-05-11 | 2021-08-17 | 云南电网有限责任公司 | 一种基于lda算法的调度语音关键词提取方法 |
CN113377965A (zh) * | 2021-06-30 | 2021-09-10 | 中国农业银行股份有限公司 | 感知文本关键词的方法及相关装置 |
CN113496118A (zh) * | 2020-04-07 | 2021-10-12 | 北京中科闻歌科技股份有限公司 | 一种新闻主体识别方法、设备和计算机可读存储介质 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110078159A1 (en) * | 2009-09-30 | 2011-03-31 | Microsoft Corporation | Long-Query Retrieval |
CN104516986A (zh) * | 2015-01-16 | 2015-04-15 | 青岛理工大学 | 一种语句识别方法及装置 |
CN106970910A (zh) * | 2017-03-31 | 2017-07-21 | 北京奇艺世纪科技有限公司 | 一种基于图模型的关键词提取方法及装置 |
CN107193803A (zh) * | 2017-05-26 | 2017-09-22 | 北京东方科诺科技发展有限公司 | 一种基于语义的特定任务文本关键词提取方法 |
JP2018077850A (ja) * | 2016-11-10 | 2018-05-17 | 株式会社Nttドコモ | 単語正規化方法、単語正規化装置及び機械翻訳方法、機械翻訳装置 |
CN109766544A (zh) * | 2018-12-24 | 2019-05-17 | 中国科学院合肥物质科学研究院 | 基于lda和词向量的文档关键词抽取方法和装置 |
CN110232183A (zh) * | 2018-12-07 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 关键词提取模型训练方法、关键词提取方法、装置及存储介质 |
-
2019
- 2019-10-30 CN CN201911044136.1A patent/CN110852100B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20110078159A1 (en) * | 2009-09-30 | 2011-03-31 | Microsoft Corporation | Long-Query Retrieval |
CN104516986A (zh) * | 2015-01-16 | 2015-04-15 | 青岛理工大学 | 一种语句识别方法及装置 |
JP2018077850A (ja) * | 2016-11-10 | 2018-05-17 | 株式会社Nttドコモ | 単語正規化方法、単語正規化装置及び機械翻訳方法、機械翻訳装置 |
CN106970910A (zh) * | 2017-03-31 | 2017-07-21 | 北京奇艺世纪科技有限公司 | 一种基于图模型的关键词提取方法及装置 |
CN107193803A (zh) * | 2017-05-26 | 2017-09-22 | 北京东方科诺科技发展有限公司 | 一种基于语义的特定任务文本关键词提取方法 |
CN110232183A (zh) * | 2018-12-07 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 关键词提取模型训练方法、关键词提取方法、装置及存储介质 |
CN109766544A (zh) * | 2018-12-24 | 2019-05-17 | 中国科学院合肥物质科学研究院 | 基于lda和词向量的文档关键词抽取方法和装置 |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111274810A (zh) * | 2020-03-12 | 2020-06-12 | 南京创联智软信息科技有限公司 | 一种基于自然语言的语言储存系统 |
CN111523757A (zh) * | 2020-03-18 | 2020-08-11 | 北京易华录国际技术有限公司 | 一种预案数字化管理系统及方法 |
CN111460099A (zh) * | 2020-03-30 | 2020-07-28 | 招商局金融科技有限公司 | 关键词提取方法、装置及存储介质 |
CN111460099B (zh) * | 2020-03-30 | 2023-04-07 | 招商局金融科技有限公司 | 关键词提取方法、装置及存储介质 |
CN113496118A (zh) * | 2020-04-07 | 2021-10-12 | 北京中科闻歌科技股份有限公司 | 一种新闻主体识别方法、设备和计算机可读存储介质 |
CN111488451A (zh) * | 2020-06-29 | 2020-08-04 | 上海飞旗网络技术股份有限公司 | 基于svm分类模型的用户查询信息及意图提取方法及装置 |
CN111488451B (zh) * | 2020-06-29 | 2020-09-18 | 上海飞旗网络技术股份有限公司 | 基于svm分类模型的用户查询信息及意图提取方法及装置 |
CN111985217B (zh) * | 2020-09-09 | 2022-08-02 | 吉林大学 | 一种关键词提取方法、计算设备及可读存储介质 |
CN111985217A (zh) * | 2020-09-09 | 2020-11-24 | 吉林大学 | 一种关键词提取方法及计算设备 |
CN112668321A (zh) * | 2020-12-29 | 2021-04-16 | 竹间智能科技(上海)有限公司 | 关键词提取方法及装置、电子设备、存储介质 |
CN112668321B (zh) * | 2020-12-29 | 2023-11-07 | 竹间智能科技(上海)有限公司 | 关键词提取方法及装置、电子设备、存储介质 |
CN113033333A (zh) * | 2021-03-05 | 2021-06-25 | 北京百度网讯科技有限公司 | 实体词识别方法、装置、电子设备和存储介质 |
CN113033333B (zh) * | 2021-03-05 | 2024-02-23 | 北京百度网讯科技有限公司 | 实体词识别方法、装置、电子设备和存储介质 |
CN113270092A (zh) * | 2021-05-11 | 2021-08-17 | 云南电网有限责任公司 | 一种基于lda算法的调度语音关键词提取方法 |
CN112989761A (zh) * | 2021-05-20 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 文本分类方法及装置 |
CN113377965A (zh) * | 2021-06-30 | 2021-09-10 | 中国农业银行股份有限公司 | 感知文本关键词的方法及相关装置 |
CN113377965B (zh) * | 2021-06-30 | 2024-02-23 | 中国农业银行股份有限公司 | 感知文本关键词的方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN110852100B (zh) | 2023-07-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110852100B (zh) | 关键词提取方法、装置、电子设备及介质 | |
CN110750992B (zh) | 命名实体识别方法、装置、电子设备及介质 | |
CN111339737B (zh) | 实体链接方法、装置、设备及存储介质 | |
CN111368525A (zh) | 信息搜索方法、装置、设备及存储介质 | |
CN110555102A (zh) | 媒体标题识别方法、装置及存储介质 | |
CN111428522B (zh) | 翻译语料生成方法、装置、计算机设备及存储介质 | |
CN114281956A (zh) | 文本处理方法、装置、计算机设备及存储介质 | |
CN108416026B (zh) | 索引生成方法、内容搜索方法、装置及设备 | |
CN110990549B (zh) | 获取答案的方法、装置、电子设备及存储介质 | |
CN113569042A (zh) | 文本信息分类方法、装置、计算机设备及存储介质 | |
CN112289302A (zh) | 音频数据的合成方法、装置、计算机设备及可读存储介质 | |
CN111553163A (zh) | 文本相关度的确定方法、装置、存储介质及电子设备 | |
CN113486260B (zh) | 互动信息的生成方法、装置、计算机设备及存储介质 | |
CN111597823B (zh) | 中心词提取方法、装置、设备及存储介质 | |
CN115658857A (zh) | 智能对话方法、装置、设备及存储介质 | |
CN115130456A (zh) | 语句解析、匹配模型的训练方法、装置、设备及存储介质 | |
CN111428523B (zh) | 翻译语料生成方法、装置、计算机设备及存储介质 | |
CN113836946A (zh) | 训练评分模型的方法、装置、终端及存储介质 | |
CN113761195A (zh) | 文本分类方法、装置、计算机设备及计算机可读存储介质 | |
CN111737415A (zh) | 实体关系抽取方法、实体关系学习模型的获取方法及设备 | |
CN110489549A (zh) | 教学文本对比方法、装置、电子设备及介质 | |
CN116431838B (zh) | 文献检索方法、装置、系统及存储介质 | |
CN113392176B (zh) | 文本相似性的确定方法、装置、设备及介质 | |
CN111368556B (zh) | 翻译模型的性能确定方法、置信度确定方法及装置 | |
CN112925903B (zh) | 文本分类的方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |