CN113220872A - 一种文档标签生成方法、系统及可读存储介质 - Google Patents
一种文档标签生成方法、系统及可读存储介质 Download PDFInfo
- Publication number
- CN113220872A CN113220872A CN202110173106.1A CN202110173106A CN113220872A CN 113220872 A CN113220872 A CN 113220872A CN 202110173106 A CN202110173106 A CN 202110173106A CN 113220872 A CN113220872 A CN 113220872A
- Authority
- CN
- China
- Prior art keywords
- library
- label
- document
- tags
- tag
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000003860 storage Methods 0.000 title claims abstract description 14
- 238000013145 classification model Methods 0.000 claims abstract description 33
- 238000000605 extraction Methods 0.000 claims abstract description 22
- 238000012545 processing Methods 0.000 claims abstract description 20
- 238000012216 screening Methods 0.000 claims abstract description 16
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 12
- 238000012549 training Methods 0.000 claims abstract description 12
- 238000007635 classification algorithm Methods 0.000 claims abstract description 11
- 230000008713 feedback mechanism Effects 0.000 claims abstract description 8
- 238000012423 maintenance Methods 0.000 claims abstract description 8
- 239000013598 vector Substances 0.000 claims description 24
- 230000007246 mechanism Effects 0.000 claims description 17
- 230000006870 function Effects 0.000 claims description 9
- 230000002457 bidirectional effect Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 8
- 230000014509 gene expression Effects 0.000 claims description 6
- 230000011218 segmentation Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000009826 distribution Methods 0.000 claims description 4
- 238000004590 computer program Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 3
- 238000002372 labelling Methods 0.000 description 3
- 241000288105 Grus Species 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000003058 natural language processing Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000008531 maintenance mechanism Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/38—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/381—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using identifiers, e.g. barcodes, RFIDs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
Abstract
本发明提供了一种文档标签生成方法、系统及可读存储介质,包括以下步骤:S1自动化标签库生成:通过文章主题模型和命名实体抽取算法,从有限数量的文档中,获取关键词标签和名词实体标签,生成自动化标签库;S2标签分类算法:通过文本多分类模型,对系统原有文档和新入系统文档进行处理,通过S1生成的自动化标签库对文本多分类模型的分类结果进行匹配,生成对应的标签;S3标签反馈机制:对没有获得标签的文档重新通过S1中方法,获取关键词标签和名词实体标签并加入自动化标签库;S4标签库后期维护:对人工录入的标签进行筛选和/或去重处理并添加到自动化标签库中,同时定期训练文本多分类模型。
Description
【技术领域】
本发明涉及信息处理技术领域,尤其涉及一种文档标签生成方法、系统及可读存储介质。
【背景技术】
随着互联网技术的发展和各种网络技术地迅速普及,大量的文档会被储存于云盘等媒介中。但是对于这些不是以文本形式储存的数据,在人们很难通过直接的检索查找到文章中自己需要的内容或者通过检索查找到自己需要的文章。尤其是当文档内容涉密或者涉私不方便被公开时,这个问题更加严峻。因此,我们设计了一种基于文章主题模型和文本分类算法的文档标签生成方法,即满足文档内容的快速准确检索需求,也能够通过对内容的权限控制保证涉密涉私的内容的安全性。
因此,有必要研究一种文档标签生成方法、系统及可读存储介质来应对现有技术的不足,以解决或减轻上述一个或多个问题。
【发明内容】
有鉴于此,本发明提供了一种文档标签生成方法、系统及可读存储介质,可以通过对文档内容的处理获得准确的关联标签。
一方面,本发明提供一种文档标签生成方法,所述方法包括以下步骤:
S1自动化标签库生成:通过文章主题模型和命名实体抽取算法,从有限数量的文档中,获取关键词标签和名词实体标签,生成自动化标签库;
S2标签分类算法:通过文本多分类模型,对系统原有文档和新入系统文档进行处理,通过S1生成的自动化标签库对文本多分类模型的分类结果进行匹配,生成对应的标签;
S3标签反馈机制:对没有获得标签的文档重新通过S1中方法,获取关键词标签和名词实体标签并加入自动化标签库;
S4标签库后期维护:对人工录入的标签进行筛选和/或去重处理并添加到自动化标签库中,同时定期训练文本多分类模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S1具体包括:
S11:利用文章主题模型对有限数量文档进行聚类处理,提取出每个类别中的特有关键词,获取关键词标签并储存在备用标签库中;
S12:利用命名实体抽取算法从S11中文档中的命名实体进行抽取,获取名词实体标签,筛选并存入备用标签库;
S13:对备用标签库库中的名词实体标签和关键词标签进行去重以及近义词合并的处理,减少备用库中的标签数量;
S14:根据预设条件对标签进行处理,生成自动化标签库。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S14中的预设条件包括但不限于合并类似标签,所述合并类似标签具体为:相同产品不同名称表述。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S11具体包括:
S111:语料预处理,得到候选关键词集;
S112:文档中的关键词利用tf-idf及textrank打分的方式,由高到低排列,剔除停用词及不显示主题意义的词性,由此产生的tokens文件,作为LDA的输入文件;
S113:基于语料生成LDA模型,使用gensim自带的LDAmodel;
S114:将S113中的LDA模型用于某个文档得到该文档的topic概率分布和关键词,如果文档分词后得到的词语在候选关键词中,则将其作为关键词标签放入备用库中,否则列入停用词库。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S114中候选关键词的得分score=每个topic的概率*每个单词属于该topic的概率。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S12具体包括:
S121:语料预处理,得到清洁语料;
S122:利用BERT+(LSTM)+CRF网络生成的明明实体抽取模型标注语料中出现的命名实体;
S123:对文档中出现的命名实体做频率计算,并利用预设规则清除部分命名实体;
S124:将预设频率内的名词实体作为名词实体标签放入备用库中。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S2中文本多分类模型的训练方式为:使用多层级的注意力网络,训练文本多分类模型。
如上所述的方面和任一可能的实现方式,进一步提供一种实现方式,所述 S2中文本多分类模型具体包括:
单词编码:将句子中的每个词嵌入到分布向量空间的词向量中,使用双向 GRU对句子进行编码,通过将双方向的向量连接起来,得到句子的表示形式,同时捕获上下文信息;
单词注意力机制:使用乘法注意力机制,利用一层MLP获取句子的隐含表示,然后用词级上下文向量来度量单词的重要性,并通过softmax函数得到归一化的重要性;
句子编码:对句子向量使用双向GRU进行编码;
句子注意力机制:使用乘法注意力机制,利用一层MLP获取句子的隐含表示,然后用句子向量来度量单词的重要性。
如上所述的方面和任一可能的实现方式,进一步提供一种基于文章主题模型和命名实体抽取的文档标签生成系统,所述系统包括:
自动化标签库生成模块,通过文章主题模型和命名实体抽取算法,从有限数量的文档中,获取关键词标签和名词实体标签,生成自动化标签库;
标签分类算法模块,通过文本多分类模型,对系统原有文档和新入系统文档进行处理,生成对应的标签;
标签反馈机制模块,对没有获得标签的文档重新进入自动化标签库生成模块,获取关键词标签和名词实体标签并加入自动化标签库;
标签库后期维护模块,对人工录入的标签进行筛选和/或去重处理并添加到自动化标签库中,同时定期训练文本多分类模型。
如上所述的方面和任一可能的实现方式,进一步提供一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现任一项所述的文档标签生成方法的步骤。
与现有技术相比,本发明可以获得包括以下技术效果:
本发明构建了一种基于文章主题模型和命名实体抽取的文档标签生成方法,对于用户储存在固定空间的批量文档文件可以自动初始化出标签库,并计算得到每篇文档对应的标签,并且在后续的使用中,可以对新加入的文档自动赋值标签,方便用户对文档的储存管理以及准确检索;
在初始化抽取标签的过程中运用到了两种模型技术,文章主体模型能够帮助文档进行聚类,抽取出相似主题下的具有主题标志的关键词;而命名实体识别技术帮助我们对单篇文章的描述主体进行抽取,保证标签的全面覆盖,提升了初始化标签库的准确性以及全面性;
在后续的多标签分类模型中,用到了多层级的注意力网络对文档进行分类,保证了模型输出的效果效果以及速度。
当然,实施本发明的任一产品并不一定需要同时达到以上所述的所有技术效果。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明一个实施例提供的文档标签生成方法流程图;
图2是本发明一个实施例提供的文章主题模型图;
图3是本发明一个实施例提供的命名实体抽取图;
图4是本发明一个实施例提供的多标签分类算法图。
【具体实施方式】
为了更好的理解本发明的技术方案,下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
如图1所示,本发明提供一种文档标签生成方法,所述方法包括以下步骤:
S1自动化标签库生成:通过文章主题模型和命名实体抽取算法,从有限数量的文档中,获取关键词标签和名词实体标签,生成自动化标签库;
S2标签分类算法:通过文本多分类模型,对系统原有文档和新入系统文档进行处理,通过S1生成的自动化标签库对文本多分类模型的分类结果进行匹配,生成对应的标签;
S3标签反馈机制:对没有获得标签的文档重新通过S1中方法,获取关键词标签和名词实体标签并加入自动化标签库;
S4标签库后期维护:对人工录入的标签进行筛选和/或去重处理并添加到自动化标签库中,同时定期训练文本多分类模型。
所述S1具体包括:
S11:利用文章主题模型对有限数量文档进行聚类处理,提取出每个类别中的特有关键词,获取关键词标签并储存在备用标签库中;
S12:利用命名实体抽取算法从S11中文档中的命名实体进行抽取,获取名词实体标签,筛选并存入备用标签库;
S13:对备用标签库库中的名词实体标签和关键词标签进行去重以及近义词合并的处理,减少备用库中的标签数量;
S14:根据预设条件对标签进行处理,生成自动化标签库。
所述S14中的预设条件包括但不限于合并类似标签,所述合并类似标签具体为:相同产品不同名称表述。
所述S11具体包括:
S111:语料预处理,得到候选关键词集;
S112:文档中的关键词利用tf-idf及textrank打分的方式,由高到低排列,剔除停用词及不显示主题意义的词性,由此产生的tokens文件,作为LDA的输入文件;
S113:基于语料生成LDA模型,使用gensim自带的LDAmodel;
S114:将S113中的LDA模型用于某个文档得到该文档的topic概率分布和关键词,如果文档分词后得到的词语在候选关键词中,则将其作为关键词标签放入备用库中,否则列入停用词库。
所述S114中候选关键词的得分score=每个topic的概率*每个单词属于该 topic的概率。
所述S12具体包括:
S121:语料预处理,得到清洁语料;
S122:利用BERT+(LSTM)+CRF网络生成的明明实体抽取模型标注语料中出现的命名实体;
S123:对文档中出现的命名实体做频率计算,并利用预设规则清除部分命名实体;
S124:将预设频率内的名词实体作为名词实体标签放入备用库中。
所述S2中文本多分类模型的训练方式为:使用多层级的注意力网络,训练文本多分类模型。所述S2中文本多分类模型具体包括:
单词编码:将句子中的每个词嵌入到分布向量空间的词向量中,使用双向 GRU对句子进行编码,通过将双方向的向量连接起来,得到句子的表示形式,同时捕获上下文信息;
单词注意力机制:使用乘法注意力机制,利用一层MLP获取句子的隐含表示,然后用词级上下文向量来度量单词的重要性,并通过softmax函数得到归一化的重要性;
句子编码:对句子向量使用双向GRU进行编码;
句子注意力机制:使用乘法注意力机制,利用一层MLP获取句子的隐含表示,然后用句子向量来度量单词的重要性。
本发明还提供一种基于文章主题模型和命名实体抽取的文档标签生成系统,所述系统包括:
自动化标签库生成模块,通过文章主题模型和命名实体抽取算法,从有限数量的文档中,获取关键词标签和名词实体标签,生成自动化标签库;
标签分类算法模块,通过文本多分类模型,对系统原有文档和新入系统文档进行处理,生成对应的标签;
标签反馈机制模块,对没有获得标签的文档重新进入自动化标签库生成模块,获取关键词标签和名词实体标签并加入自动化标签库;
标签库后期维护模块,对人工录入的标签进行筛选和/或去重处理并添加到自动化标签库中,同时定期训练文本多分类模型。
本发明还提供一种可读存储介质,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现任一项所述的文档标签生成方法的步骤。
本发明所述系统旨在对大量的以文档格式储存的数据进行处理。通过前期对多篇文档的文档主题模型的处理抽取出相应的大量带筛选标签,然后经过人工的筛选工序,生成初期的文档标签库;之后利用文本的多分类算法,对每篇文章的内容/来源等做出判断,生成对应的标签,辅助后续的精确检索和个人推荐功能。
本发明运用多种领先的自然语言处理方法,对文档数据进行文章主题模型和文本分类两项内容,通过分类技术帮助用户快速精确查找需要的内容以及文件,实现了快速准确个性化的文档标签生成方法。该方法具体内容包括以下步骤:
S1自动化标签库生成
S1.1如图2所示,利用文章主题模型对多篇文档进行聚类处理,并提取出每个类别中的特有关键词,储存在备用标签库中;LDA文章主题算法生成文档的过程如下:
(1)语料预处理,得到候选关键词集(文档分词之后得到的词);
(2)每篇文章的关键词利用tf-idf及textrank打分的方式,由高到低排列,剔除停用词及不显示主题意义的词性,由此产生的tokens文件,作为LDA的输入文件;
(3)基于语料生成LDA模型,使用gensim自带的LDAmodel;
(4)将模型用于某个文本得到该文本的topic概率分布和关键词,如果文档分词后得到的词语在候选关键词中,那么将其作为关键词提取出来。而对于每个候选关键词,其得分score=每个topic的概率*每个单词属于该topic的概率;
(5)将一些不能体现主题意义的词列入停用词库(人工筛选)。
S1.2如图3所示,利用命名实体抽取算法对待处理文档中的命名实体进行抽取,筛选并存入备用标签库;BERT+(LSTM)+CRF利用命名实体抽取模型的过程如下:
(1)语料预处理,得到清洁语料;
(2)利用BERT+(LSTM)+CRF网络生成的明明实体抽取模型标注预料中出现的命名实体,CRF的参数化形式如下所示;
其中,Z(x)=∑yexp[∑i,kvktk(yi-1,yi,x,i)+∑i,lulsl(yi,x,i)],
tk和sl是特征函数,vk和ul是对应的权值,tk是状态转移函数,vk是对应的权值;sl是发射函数,ul是对应的权值。
(3)对文本中出现的命名实体做频率计算,并利用规则清除部分命名实体;
(4)得到排名靠前的名词实体作为我们的标签词放入标签库中。
S1.3对备用标签库库中的标签进行简单去重以及近义词合并的处理,减少备用库中的标签数量;
S1.4根据业务人员的需求,合并类似标签,比如不同产品名称表述等等,生成最终标签库
S2标签分类算法,如图4所示:
S2.1整理现有文本及对应标签;
S2.2进行模型训练,使用多层级的注意力网络,训练文本多分类模型;我们的文档模型多分类模型主要包括四个部分:
(1)单词编码,将句子中的每个词嵌入到分布向量空间的词向量中,使用双向GRU对句子进行编码。通过将双方向的向量连接起来,得到句子的表示形式,同时捕获上下文信息;
xit=Wewit,t∈[1,T]
(2)单词注意力机制,使用乘法注意力机制,首先利用一层MLP来获取句子的隐含表示,然后用词级上下文向量来度量单词的重要性,并通过softmax函数得到归一化的重要性;
uit=tanh(wwhit+bw),
(3)句子编码,与单词编码相似,对句子向量使用双向GRU进行编码;
uit=tanh(wwhit+bw),
(4)句子注意力机制,与对单词使用的注意力机制相似,句子向量用于衡量句子之间的重要性。
ui=tanh(wshi+bs),
S2.3对新入库文档进行实时处理,得到对应标签。
S3标签反馈机制
S3.1筛选出没有标签结果的文档;
S3.2将筛选出的文档批量放入S1自动化标签库生成模块再次进行标签抽取,并将新生成标签放入标签库中。
S4标签库后期维护
S4.1对系统使用人员手工录入的标签进行筛选/去重等处理,选择性增加到标签库中,并利用文本距离进行前期匹配;
S4.2定时重新训练文本多分类模型,获得能够处理新标签的模型。
本发明构建了一种基于文章主题模型和命名实体抽取的文档标签生成方法,对于用户储存在固定空间的批量文档文件可以自动初始化出标签库,并计算得到每篇文档对应的标签,并且在后续的使用中,可以对新加入的文档自动赋值标签,方便用户对文档的储存管理以及准确检索。在初始化抽取标签的过程中我们运用到了两种模型技术,文章主体模型能够帮助文档进行聚类,抽取出相似主题下的具有主题标志的关键词;而命名实体识别技术帮助我们对单篇文章的描述主体进行抽取,保证标签的全面覆盖,提升了初始化标签库的准确性以及全面性。在后续的多标签分类模型中,我们使用到了多层级的注意力网络对文档进行分类,保证了模型输出的效果效果以及速度。本发明的创新点具体包括:
(1)首先利用了主题模型和命名实体抽取两项NLP技术自动生成标签库,对我们需要得到的标签进行预测,并且利于业务人员进行整理和分类。对市场上的自动打标产品的标准不统一,数量繁杂等问题进行了改进,并且有利于业务人员相关知识的引入。
(2)将传统的人工打标签的过程利用多标签分类模型引入了自动化的打标机制,结合(1)中所提到的整理后的标签库,能够得到标准统一、满足业务人员需求、准确度高的文档标签结果,并且相比人工打标签的速度有了非常大的提升。
(3)引入了标签库的后期维护机制,方便业务人员定时对标签库中的标签进行增删改查,补充近期新的产品和关注点,删除无用的关注点,做到打出来的标签能够真正帮助业务人员提升检索效率和准确度。并且根据标签的调整我们的模型也会后续进行迭代训练,优化模型效果。
下表1为手工标签、主体标签自动生成和基于文章主题模型和命名实体抽取的文档标签生成方法(标签库+标签),三种标签生成方法的比较:
以上对本申请实施例所提供的一种文档标签生成方法、系统及可读存储介质,进行了详细介绍。以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。
如在说明书及权利要求书当中使用了某些词汇来指称特定组件。本领域技术人员应可理解,硬件制造商可能会用不同名词来称呼同一个组件。本说明书及权利要求书并不以名称的差异来作为区分组件的方式,而是以组件在功能上的差异来作为区分的准则。如在通篇说明书及权利要求书当中所提及的“包含”、“包括”为一开放式用语,故应解释成“包含/包括但不限定于”。“大致”是指在可接收的误差范围内,本领域技术人员能够在一定误差范围内解决所述技术问题,基本达到所述技术效果。说明书后续描述为实施本申请的较佳实施方式,然所述描述乃以说明本申请的一般原则为目的,并非用以限定本申请的范围。本申请的保护范围当视所附权利要求书所界定者为准。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的商品或者系统不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种商品或者系统所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的商品或者系统中还存在另外的相同要素。
应当理解,本文中使用的术语“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。另外,本文中字符“/”,一般表示前后关联对象是一种“或”的关系。
上述说明示出并描述了本申请的若干优选实施例,但如前所述,应当理解本申请并非局限于本文所披露的形式,不应看作是对其他实施例的排除,而可用于各种其他组合、修改和环境,并能够在本文所述申请构想范围内,通过上述教导或相关领域的技术或知识进行改动。而本领域人员所进行的改动和变化不脱离本申请的精神和范围,则都应在本申请所附权利要求书的保护范围内。
Claims (10)
1.一种基于文章主题模型和命名实体抽取的文档标签生成方法,其特征在于,所述方法包括以下步骤:
S1自动化标签库生成:通过文章主题模型和命名实体抽取算法,从有限数量的文档中,获取关键词标签和名词实体标签,生成自动化标签库;
S2标签分类算法:通过文本多分类模型,对系统原有文档和新入系统文档进行处理,通过S1生成的自动化标签库对文本多分类模型的分类结果进行匹配,生成对应的标签;
S3标签反馈机制:对没有获得标签的文档重新通过S1中方法,获取关键词标签和名词实体标签并加入自动化标签库;
S4标签库后期维护:对人工录入的标签进行筛选和/或去重处理并添加到自动化标签库中,同时定期训练文本多分类模型。
2.根据权利要求1所述的方法,其特征在于,所述S1具体包括:
S11:利用文章主题模型对有限数量文档进行聚类处理,提取出每个类别中的特有关键词,获取关键词标签并储存在备用标签库中;
S12:利用命名实体抽取算法从S11中文档中的命名实体进行抽取,获取名词实体标签,筛选并存入备用标签库;
S13:对备用标签库库中的名词实体标签和关键词标签进行去重以及近义词合并的处理,减少备用库中的标签数量;
S14:根据预设条件对标签进行处理,生成自动化标签库。
3.根据权利要求2所述的方法,其特征在于,所述S14中的预设条件包括但不限于合并类似标签,所述合并类似标签具体为:相同产品不同名称表述。
4.根据权利要求2所述的方法,其特征在于,所述S11具体包括:
S111:语料预处理,得到候选关键词集;
S112:文档中的关键词利用tf-idf及textrank打分的方式,由高到低排列,剔除停用词及不显示主题意义的词性,由此产生的tokens文件,作为LDA的输入文件;
S113:基于语料生成LDA模型,使用gensim自带的LDAmodel;
S114:将S113中的LDA模型用于某个文档得到该文档的topic概率分布和关键词,如果文档分词后得到的词语在候选关键词中,则将其作为关键词标签放入备用库中,否则列入停用词库。
5.根据权利要求4所述的方法,其特征在于,所述S114中候选关键词的得分score=每个topic的概率*每个单词属于该topic的概率。
6.根据权利要求2所述的方法,其特征在于,所述S12具体包括:
S121:语料预处理,得到清洁语料;
S122:利用BERT+(LSTM)+CRF网络生成的明明实体抽取模型标注语料中出现的命名实体;
S123:对文档中出现的命名实体做频率计算,并利用预设规则清除部分命名实体;
S124:将预设频率内的名词实体作为名词实体标签放入备用库中。
7.根据权利要求1所述的方法,其特征在于,所述S2中文本多分类模型的训练方式为:使用多层级的注意力网络,训练文本多分类模型。
8.根据权利要求7所述的方法,其特征在于,所述S2中文本多分类模型具体包括:
单词编码:将句子中的每个词嵌入到分布向量空间的词向量中,使用双向GRU对句子进行编码,通过将双方向的向量连接起来,得到句子的表示形式,同时捕获上下文信息;
单词注意力机制:使用乘法注意力机制,利用一层MLP获取句子的隐含表示,然后用词级上下文向量来度量单词的重要性,并通过softmax函数得到归一化的重要性;
句子编码:对句子向量使用双向GRU进行编码;
句子注意力机制:使用乘法注意力机制,利用一层MLP获取句子的隐含表示,然后用句子向量来度量单词的重要性。
9.一种基于文章主题模型和命名实体抽取的文档标签生成系统,包括上述权利要求1-8之一所述的方法,其特征在于,所述系统包括:
自动化标签库生成模块,通过文章主题模型和命名实体抽取算法,从有限数量的文档中,获取关键词标签和名词实体标签,生成自动化标签库;
标签分类算法模块,通过文本多分类模型,对系统原有文档和新入系统文档进行处理,生成对应的标签;
标签反馈机制模块,对没有获得标签的文档重新进入自动化标签库生成模块,获取关键词标签和名词实体标签并加入自动化标签库;
标签库后期维护模块,对人工录入的标签进行筛选和/或去重处理并添加到自动化标签库中,同时定期训练文本多分类模型。
10.一种可读存储介质,其特征在于,所述可读存储介质上存储有计算机程序,所述计算机程序被处理器执行时实现如权利要求1至8中任一项所述的文档标签生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110173106.1A CN113220872A (zh) | 2021-02-08 | 2021-02-08 | 一种文档标签生成方法、系统及可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110173106.1A CN113220872A (zh) | 2021-02-08 | 2021-02-08 | 一种文档标签生成方法、系统及可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113220872A true CN113220872A (zh) | 2021-08-06 |
Family
ID=77084641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110173106.1A Pending CN113220872A (zh) | 2021-02-08 | 2021-02-08 | 一种文档标签生成方法、系统及可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113220872A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723062A (zh) * | 2021-08-31 | 2021-11-30 | 远光软件股份有限公司 | 报表标签的编辑方法、装置、存储介质及终端设备 |
CN113901244A (zh) * | 2021-10-12 | 2022-01-07 | 北京达佳互联信息技术有限公司 | 多媒体资源的标签构建方法、装置、电子设备和存储介质 |
CN115964487A (zh) * | 2022-12-22 | 2023-04-14 | 南阳理工学院 | 基于自然语言的论文标签补充方法、装置及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399158A (zh) * | 2018-02-05 | 2018-08-14 | 华南理工大学 | 基于依存树和注意力机制的属性情感分类方法 |
CN108875059A (zh) * | 2018-06-29 | 2018-11-23 | 北京百度网讯科技有限公司 | 用于生成文档标签的方法、装置、电子设备和存储介质 |
CN109558487A (zh) * | 2018-11-06 | 2019-04-02 | 华南师范大学 | 基于层次性多注意力网络的文档分类方法 |
CN110162594A (zh) * | 2019-01-04 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 文本数据的观点生成方法、装置及电子设备 |
CN110580292A (zh) * | 2019-08-28 | 2019-12-17 | 腾讯科技(深圳)有限公司 | 一种文本标签生成方法、装置和计算机可读存储介质 |
CN111967262A (zh) * | 2020-06-30 | 2020-11-20 | 北京百度网讯科技有限公司 | 实体标签的确定方法和装置 |
-
2021
- 2021-02-08 CN CN202110173106.1A patent/CN113220872A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399158A (zh) * | 2018-02-05 | 2018-08-14 | 华南理工大学 | 基于依存树和注意力机制的属性情感分类方法 |
CN108875059A (zh) * | 2018-06-29 | 2018-11-23 | 北京百度网讯科技有限公司 | 用于生成文档标签的方法、装置、电子设备和存储介质 |
CN109558487A (zh) * | 2018-11-06 | 2019-04-02 | 华南师范大学 | 基于层次性多注意力网络的文档分类方法 |
CN110162594A (zh) * | 2019-01-04 | 2019-08-23 | 腾讯科技(深圳)有限公司 | 文本数据的观点生成方法、装置及电子设备 |
CN110580292A (zh) * | 2019-08-28 | 2019-12-17 | 腾讯科技(深圳)有限公司 | 一种文本标签生成方法、装置和计算机可读存储介质 |
CN111967262A (zh) * | 2020-06-30 | 2020-11-20 | 北京百度网讯科技有限公司 | 实体标签的确定方法和装置 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113723062A (zh) * | 2021-08-31 | 2021-11-30 | 远光软件股份有限公司 | 报表标签的编辑方法、装置、存储介质及终端设备 |
CN113901244A (zh) * | 2021-10-12 | 2022-01-07 | 北京达佳互联信息技术有限公司 | 多媒体资源的标签构建方法、装置、电子设备和存储介质 |
CN115964487A (zh) * | 2022-12-22 | 2023-04-14 | 南阳理工学院 | 基于自然语言的论文标签补充方法、装置及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gupta et al. | Study of Twitter sentiment analysis using machine learning algorithms on Python | |
Jung | Semantic vector learning for natural language understanding | |
CN106055538B (zh) | 主题模型和语义分析相结合的文本标签自动抽取方法 | |
CN107122413B (zh) | 一种基于图模型的关键词提取方法及装置 | |
CN106156204B (zh) | 文本标签的提取方法和装置 | |
CN106970910B (zh) | 一种基于图模型的关键词提取方法及装置 | |
CN113220872A (zh) | 一种文档标签生成方法、系统及可读存储介质 | |
Bollegala et al. | Unsupervised cross-domain word representation learning | |
CN113011533A (zh) | 文本分类方法、装置、计算机设备和存储介质 | |
Dashtipour et al. | Exploiting deep learning for Persian sentiment analysis | |
CN109933686B (zh) | 歌曲标签预测方法、装置、服务器及存储介质 | |
CN112069408A (zh) | 一种融合关系抽取的推荐系统及方法 | |
CN109086265B (zh) | 一种语义训练方法、短文本中多语义词消歧方法 | |
CN114896388A (zh) | 一种基于混合注意力的层级多标签文本分类方法 | |
CN109815400A (zh) | 基于长文本的人物兴趣提取方法 | |
CN112069312B (zh) | 一种基于实体识别的文本分类方法及电子装置 | |
Sarkar | Sentiment polarity detection in Bengali tweets using deep convolutional neural networks | |
Qiu et al. | Advanced sentiment classification of tibetan microblogs on smart campuses based on multi-feature fusion | |
CN110705304A (zh) | 一种属性词提取方法 | |
Ong et al. | Sentiment analysis of informal Malay tweets with deep learning | |
CN112862569B (zh) | 基于图像和文本多模态数据的产品外观风格评价方法和系统 | |
Hamid et al. | Bengali Slang detection using state-of-the-art supervised models from a given text | |
CN113486143A (zh) | 一种基于多层级文本表示及模型融合的用户画像生成方法 | |
CN107291686B (zh) | 情感标识的辨识方法和情感标识的辨识系统 | |
Bartusiak et al. | Sentiment analysis for polish using transfer learning approach |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |