CN115017260A - 一种基于子主题建模的关键词生成方法 - Google Patents
一种基于子主题建模的关键词生成方法 Download PDFInfo
- Publication number
- CN115017260A CN115017260A CN202210516053.3A CN202210516053A CN115017260A CN 115017260 A CN115017260 A CN 115017260A CN 202210516053 A CN202210516053 A CN 202210516053A CN 115017260 A CN115017260 A CN 115017260A
- Authority
- CN
- China
- Prior art keywords
- keywords
- text
- model
- vector
- keyword
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 41
- 238000012549 training Methods 0.000 claims abstract description 31
- 238000012360 testing method Methods 0.000 claims abstract description 15
- 238000007781 pre-processing Methods 0.000 claims abstract description 9
- 238000013507 mapping Methods 0.000 claims abstract description 3
- 239000013598 vector Substances 0.000 claims description 44
- 230000007246 mechanism Effects 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 8
- 238000005070 sampling Methods 0.000 claims description 8
- 239000011159 matrix material Substances 0.000 claims description 6
- 230000008569 process Effects 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 238000000605 extraction Methods 0.000 claims description 4
- 230000006870 function Effects 0.000 claims description 4
- 230000014509 gene expression Effects 0.000 claims description 4
- 238000011176 pooling Methods 0.000 claims description 4
- 230000010076 replication Effects 0.000 claims description 4
- 238000012795 verification Methods 0.000 claims description 3
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 2
- 238000013528 artificial neural network Methods 0.000 claims description 2
- 238000004422 calculation algorithm Methods 0.000 claims description 2
- 230000007423 decrease Effects 0.000 claims description 2
- 238000011156 evaluation Methods 0.000 claims description 2
- 239000013604 expression vector Substances 0.000 claims description 2
- 238000003064 k means clustering Methods 0.000 claims description 2
- 230000000306 recurrent effect Effects 0.000 claims description 2
- 238000010008 shearing Methods 0.000 claims description 2
- 238000010200 validation analysis Methods 0.000 claims description 2
- 230000011218 segmentation Effects 0.000 claims 3
- 238000004140 cleaning Methods 0.000 claims 1
- 238000001914 filtration Methods 0.000 claims 1
- 230000008447 perception Effects 0.000 description 5
- 238000013473 artificial intelligence Methods 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/95—Retrieval from the web
- G06F16/951—Indexing; Web crawling techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了一种基于子主题建模的关键词生成方法,所述方法包括以下步骤:步骤1:新闻文本数据采集;步骤2:数据预处理;步骤3:模型训练;步骤4:模型测试与关键词文本生成。本发明能够改善现有关键词生成方法中依赖文本完整语义作为基本解码单元,导致模型无法有效建模“文本‑关键词”一对多映射关系,进而影响生成的关键词多样性的问题。通过子主题作为解码单元提高生成关键词的质量。
Description
技术领域
本发明涉及一种基于子主题建模的关键词生成方法,该方法可用于互联网新闻内容等自动生成关键词,属于互联网和人工智能技术领域。
背景技术
随着互联网技术的飞速发展,人们能够快捷的查找和阅读各大网络媒体网站发布的新闻。相较于传统的新闻报刊需要订阅等待和手持纸质文档的不便,人们更习惯于通过手机等移动设备查阅时事新闻。然而,随之而来的网络新闻数据量呈指数型增长,也给人们从中甄别有价值和满足需求的信息带来不便。因此,如何利用人工智能技术对新闻内容进行压缩提炼,能够帮助读者在短时间内了解新闻内容大意,再决定是否继续阅读,从而能节约读者的时间成本。
根据短语是否在原文中存在完全匹配的单词序列,关键词可分为存在关键词和缺失关键词。与此相对应,获取文本关键词的方法被分为抽取式方法和生成式方法。抽取式方法首先从输入文档中截取单词序列,再通过打分或分类等机制判断是否为关键词。通过这种方法只能得到已存在关键词,然而有研究人员在相关工作中指出,缺失关键词在总关键词中占比接近一半。因此,需要更为先进的关键词方法,用于预测新闻内容的缺失关键词。随着自然语言处理技术的进步,以及基于序列到序列(Sequence-to-Sequence,Seq2Seq)框架在文本生成任务中应用的启发,基于该框架的生成式关键词方法在近些年得到了越来越多的关注。
基于Seq2Seq的关键词生成模型通常采用编码器-解码器的结构。Seq2Seq模型首先通过编码器将输入的文本序列,映射为一个能够表征文本语义的中间向量,然后通过解码器将语义向量解码并逐字生成目标输出序列。然而,标准的Seq2Seq模型通常采用“一对一”生成模式,在解决需要“一对多”生成的关键词任务时存在局限性,容易导致生成的关键词多样性欠缺。此外,确定性建模方法,也会影响模型的多样性表达能力。
为此,本发明在Seq2Seq模型的基础上,尝试将完整的新闻文本语义信息进行分解,提出一种子主题感知机制,采用基于聚类的方法为输出文本产生若干子主题,并以子主题为解码单位生成目标关键词。此外,为了提高模型对变化性信息的建模能力,引入子主题潜在变量网络进行采样实现具体关键词的生成。通过子主题建模和采样方式提高生成关键词的多样性。
发明内容
为了解决现有技术中存在的问题与不足,本发明提出一种基于子主题建模的关键词生成方法,该方法利用子主题感知机制为输入文本提供可选择的子主题,从而提高模型对“文本-关键词”的一对多关系建模的能力,在此基础上通过子主题潜在变量网络生成关键词。
为了实现上述目的,本发明的技术方案如下:一种基于子主题建模的关键词生成方法,包括如下步骤:
步骤1:新闻文本数据采集。通过爬虫工具采集多个新闻平台新闻文本,积累样本数据集,数据集中的一个样本包括新闻文本和其对应的参考关键词;
步骤2:数据预处理。对数据集中每一个样本进行预处理,并构造二元组数据,一个二元组数据包括文本和标准关键词;
步骤3:模型训练。在输入层对文本进行分句,再将文本和关键词进行分词处理,并利用Word2Vec进行向量初始化,生成词嵌入向量。在编码层,首先利用Bi-GRU编码器对文本句子和关键词进行编码,获得单词上下文语义信息,然后利用池化得到句子的向量表示和关键词的表示,接着利用多头自注意力机制获得句子在整个文本语境下的特征向量。在子主题发现层,获得文本的若干子主题,并通过采样获得子主题的向量表示。最后在关键词生成层,设计了一种子主题感知的多解码器组,利用子主题为解码单元的模式,并行生成目标关键词集合。最后利用训练损失函数训练所述模型;
步骤4:模型测试与关键词生成,根据训练所得到的最佳模型,对待预测关键词的文本进行关键词的生成。先对测试文本进行预处理,然后根据步骤2构建模型的输入形式,最后根据步骤3中训练好的关键词生成模型,生成测试文本的关键词。并对生成的关键词与参考的关键词进行比较,利用准确性F1值和多样性评价指标进行评价,检验生成关键词的质量。
一种基于子主题建模的关键词生成方法,所述方法文本输入层、编码层、子主题感知层、关键词生成层。相对于现有技术,本发明的优点如下:
(1)本发明采用的基于子主题建模的关键词生成技术,构建子主题发现机制,对完整文本语义进行分解,显示的建模“文本-关键词”的一对多映射,通过多解码器聚焦不同子主题,实现关键词在多样性方面的提高;
(2)本发明采用基于子主题潜在空间采样子主题特征表示,提高模型对关键词因对自然语言中措辞变化的建模能力,为输入的新闻文本提供更加多样化的关键词预测结果。
附图说明
图1为本发明实施例的方法流程图。
图2为本发明实施例的整体模型图。
具体实施方式
为了加深对本发明的认识和理解,下面结合具体实施例,进一步阐明本发明。
实施例1:一种基于子主题建模的关键词生成方法。该方法首先对互联网中的新闻文本进行采集和预处理;接着,采用一个双层编码方法,对输入文本中单词进行向量化表示,并利用多头注意力机制获得在全文语境下的句子特征表示;然后,通过子主题发现层产生输入文本的子主题;随后,子主题通过采样网络提取用于解码的子主题特征表示;最后,为了提高关键词生成过程对子主题的感知,利用子主题感知的多解码器组生成目标关键词。具体模型参见图2,详细实施步骤如下:
步骤1,新闻文本数据采集。为了保证数据的多样性与普适性,本实施首先从新闻媒体平台中抓取大量的文本样本,并根据人工标注产生标准关键词。新闻文本和对应的标准关键词共同构成样本数据集D。标准关键词的生成规则主要是利用“众包”技术对新闻文本进行标注,形成标准关键词。最后将所有得到的数据按照6:2:2进行分割形成训练集、验证集和测试集。
步骤2,数据预处理。为了能保证数据更适用于所设计的模型训练。首先对数据进行数据清洗,保留包含新闻文本以及参考关键词的数据并过滤重复数据,利用nltk库对样本文本进行分句处理,通过jieba库实现分词处理,以便后续模型对数据进行向量化表示。最后,将数据集分别处理为二元组的形式,其中多个关键词通过分号连接,以便于后续步骤的应用。
步骤3,模型训练。利用步骤2处理后的数据集对基于自主体建模的关键词生成模型进行训练,该步骤的实施可以分为以下子步骤:
子步骤3-1,构建输入层。首先选择训练集中出现频率靠前的50k单词构建词汇表,若该词在Word2Vec中存在,则选择Word2Vec中向量作为其训练初始化向量,否则将其向量随机初始化。然后将输入文本单词序列根据词汇表映射为索引序列,并转化为词向量表示。
子步骤3-2,构建文本编码层。本实施采用一个双层Bi-GRU循环神经网络编码器分别对原文词向量序列Esi和参考词的词向量序列Eyj进行语义编码提取。计算上下文语义表示的公式如(1)和(2):
其中,Esi表示原文第i个句子词向量矩阵,Eyj表示第j个短语的词向量矩阵,s表示输入文档,y表示关键词,Mean表示平均池化。
子步骤3-3,构建子主题发现层。基于K-Means聚类算法为输入文档构建k个子主题。具体实施如下:
5)随机选择k个句子表示初始的簇中心;
6)计算句子到各个中心的距离,并将其分配给距离最小的簇。其中距离为两个向量表示之间的余弦距离;
7)根据簇中所有句子的平均值计算一个新的中心;
8)重复步骤2和3,直到中心向量不再更新或达到最大迭代次数。
通过上述步骤,可以得到文本的子主题集合。可形式化表示公式(4):
{e1,e2,…,ek}=K–Means(Hs) (4)
其中,ei为m维二元向量,m为文本句子的数目。
子步骤3-4,构建关键词解码层。主要通过设计一种聚焦不同子主题的多解码器组并行生成关键词。解码器组中每个解码器采用结合复制机制的单向GRU实现。具体实施如下:
首先,计算第i个子主题的向量表示的公式(5):
ci=Mean(Hs,ei) (5)
在训练时需通过距离函数为每个子主题分配目标关键词,如公式(6)所示:
由于解码器组中各个解码器生成过程相同,后续将具体描述其中一个解码器的工作过程。假设第a个子主题分配的关键词序号也为a。
假设潜变量服从多元高斯分布,并通过公式(7)和公式(8)计算高斯分布参数:
在解码时间步t时,利用公式(9)输入前一单词ut-1和状态st-1,得到当前隐藏状态。公式(10)表示解码器的初始化。
st=GRU(ut-1,st-1) (9)
s0=z (10)
之后,基于注意力机制,利用公式(11)计算输入文本中每个单词的注意力权重,并通过公式(12)加权求和得到当前上下文表示向量:
αt=attention(Hs,st) (11)
其中,Hs为原文单词特征向量构成的特征矩阵。
然后,通过公式(13)得到单词在词表上的分布:
Pvocab=generation(st,ct) (13)
在复制机制中,可以将单词的注意力权重视为当前时刻,生成的单词在源文本中的分布。
最终,时间步t时,预测单词的最后分布如公式(14)和公式(15)所示:
Pfinal=(1-λt)·Pvocab+λt·Pcopy (14)
λt=copyrate(st,ct) (15)
其中Pcopy=αt,λt表示从原文复制单词的概率。
子步骤3-5,联合训练损失。本实例采用随机初始化的方式对所有的参数进行初始化,采用Adam优化器进行梯度反向传播更新模型参数,初始学习率设置为0.01,并使用最大梯度范数为5的梯度进行剪切。生成的关键词长度控制在10个单词以内。当训练损失不再下降或训练轮数超过20轮,模型训练结束,并保存在验证集上表现最好的模型。
步骤4,模型测试与关键词生成。根据步骤3所得到的最佳验证模型,对待预测的新闻文本数据集进行关键词生成。首先对数据进行步骤2的数据处理,并构建模型的输入形式,输入训练好的模型中,从而生成测试文本的关键词,并对生成的关键词与参考关键词进行F1和重复率的计算,检验生成关键词的质量。具体的计算公式如式(16)-(19)所示:
基于相同的发明构思,本发明所述的一种基于自主体建模的关键词生成方法,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,该计算机程序被加载至处理器时实现上述的用于关键词生成的基于子主题建模的生成方法。
本领域的普通技术人员将会意识到,这里所述的实施例是为了帮助读者理解本发明的原理,应理解实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请权利要求所限定的范围。
Claims (7)
1.一种基于子主题建模的关键词生成方法,其特征在于,所述方法包括以下步骤:
步骤1:新闻文本数据采集;
步骤2:数据预处理;
步骤3:模型训练;
步骤4:模型测试与关键词生成。
2.根据权利要求1所述的基于子主题建模的关键词生成方法,其特征在于,步骤1:新闻文本数据采集,具体如下,所述通过爬虫工具采集多个新闻平台新闻文本,积累样本数据集,数据集中的一个样本包括新闻文本和其对应的参考关键词。
3.根据权利要求1所述的基于子主题建模的关键词生成方法,其特征在于,步骤2:数据预处理;具体如下,首先对数据进行数据清洗,保留包含新闻文本以及参考关键词的数据并过滤重复数据,利用nltk库对样本文本进行分句处理,通过jieba库实现分词处理,以便后续模型对数据进行向量化表示,最后,将数据集分别处理为二元组的形式,其中多个关键词通过分号连接,以便于后续步骤的应用。
4.根据权利要求1所述的基于子主题建模的关键词生成方法,其特征在于,步骤3:模型训练,在输入层对文本进行分句,再将文本和关键词进行分词处理,并利用Word2Vec进行向量初始化,生成词嵌入向量,在编码层,首先利用Bi-GRU编码器对文本句子和关键词进行编码,获得单词上下文语义信息,然后利用池化得到句子的向量表示和关键词的表示,接着利用多头自注意力机制获得句子在整个文本语境下的特征向量,在子主题发现层,获得文本的若干子主题,并通过采样获得子主题的向量表示,最后在关键词生成层,设计了一种子主题感知的多解码器组,利用子主题为解码单元的模式,并行生成目标关键词集合。最后利用训练损失函数训练所述模型;
5.根据权利要求1所述的基于子主题建模的关键词生成方法,其特征在于,步骤4:模型测试与关键词生成,根据训练所得到的最佳模型,对待预测关键词的文本进行关键词的生成。先对测试文本进行预处理,然后根据步骤2构建模型的输入形式,最后根据步骤3中训练好的关键词生成模型,生成测试文本的关键词,并对生成的关键词与参考的关键词进行比较,利用准确性F1值和多样性评价指标进行评价,检验生成关键词的质量。
6.根据权利要求1所述的基于子主题建模的关键词生成方法,其特征在于,步骤3,模型训练,具体如下,利用步骤2处理后的数据集对基于自主体建模的关键词生成模型进行训练,该步骤的实施可以分为以下子步骤:
子步骤3-1,构建输入层,首先选择训练集中出现频率靠前的50k单词构建词汇表,若该词在Word2Vec中存在,则选择Word2Vec中向量作为其训练初始化向量,否则将其向量随机初始化,然后将输入文本单词序列根据词汇表映射为索引序列,并转化为词向量表示,
子步骤3-2,构建文本编码层,采用一个双层Bi-GRU循环神经网络编码器分别对原文词向量序列Esi和参考词的词向量序列Eyj进行语义编码提取,计算上下文语义表示的公式如(1)和(2):
其中,Esi表示原文第i个句子词向量矩阵,Eyj表示第j个短语的词向量矩阵,s表示输入文档,y表示关键词,Mean表示平均池化;
子步骤3-3,构建子主题发现层,基于K-Means聚类算法为输入文档构建k个子主题,具体实施如下:
1)随机选择k个句子表示初始的簇中心;
2)计算句子到各个中心的距离,并将其分配给距离最小的簇。其中距离为两个向量表示之间的余弦距离;
3)根据簇中所有句子的平均值计算一个新的中心;
4)重复步骤2和3,直到中心向量不再更新或达到最大迭代次数。
通过上述步骤,可以得到文本的子主题集合,可形式化表示公式(4):
{e1,e2,…,ek}=K–Means(Hs) (4)
其中,ei为m维二元向量,m为文本句子的数目。
子步骤3-4,构建关键词解码层,主要通过设计一种聚焦不同子主题的多解码器组并行生成关键词,解码器组中每个解码器采用结合复制机制的单向GRU实现,具体实施如下:
首先,计算第i个子主题的向量表示的公式(5):
ci=Mean(Hs,ei) (5)
在训练时需通过距离函数为每个子主题分配目标关键词,如公式(6)所示:
由于解码器组中各个解码器生成过程相同,后续将具体描述其中一个解码器的工作过程,假设第a个子主题分配的关键词序号也为a,
假设潜变量服从多元高斯分布,并通过公式(7)和公式(8)计算高斯分布参数:
在解码时间步t时,利用公式(9)输入前一单词ut-1和状态st-1,得到当前隐藏状态,公式(10)表示解码器的初始化,
st=GRU(ut-1,st-1) (9)s0=z (10)
之后,基于注意力机制,利用公式(11)计算输入文本中每个单词的注意力权重,并通过公式(12)加权求和得到当前上下文表示向量:
αt=attention(Hs,st) (11)
其中,Hs为原文单词特征向量构成的特征矩阵;
然后,通过公式(13)得到单词在词表上的分布:
Pvocab=generation(st,ct) (13)
在复制机制中,将单词的注意力权重视为当前时刻,生成的单词在源文本中的分布,
最终,时间步t时,预测单词的最后分布如公式(14)和公式(15)所示:
Pfinal=(1-λt)·Pvocab+λt·Pcopy (14)
λt=copyrate(st,ct) (15)
其中Pcopy=αt,λt表示从原文复制单词的概率;
子步骤3-5,联合训练损失,采用随机初始化的方式对所有的参数进行初始化,采用Adam优化器进行梯度反向传播更新模型参数,初始学习率设置为0.01,并使用最大梯度范数为5的梯度进行剪切,生成的关键词长度控制在10个单词以内。当训练损失不再下降或训练轮数超过20轮,模型训练结束,并保存在验证集上表现最好的模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210516053.3A CN115017260A (zh) | 2022-05-12 | 2022-05-12 | 一种基于子主题建模的关键词生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210516053.3A CN115017260A (zh) | 2022-05-12 | 2022-05-12 | 一种基于子主题建模的关键词生成方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115017260A true CN115017260A (zh) | 2022-09-06 |
Family
ID=83069850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210516053.3A Pending CN115017260A (zh) | 2022-05-12 | 2022-05-12 | 一种基于子主题建模的关键词生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115017260A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115809665A (zh) * | 2022-12-13 | 2023-03-17 | 杭州电子科技大学 | 一种基于双向多粒度注意力机制的无监督关键词抽取方法 |
-
2022
- 2022-05-12 CN CN202210516053.3A patent/CN115017260A/zh active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115809665A (zh) * | 2022-12-13 | 2023-03-17 | 杭州电子科技大学 | 一种基于双向多粒度注意力机制的无监督关键词抽取方法 |
CN115809665B (zh) * | 2022-12-13 | 2023-07-11 | 杭州电子科技大学 | 一种基于双向多粒度注意力机制的无监督关键词抽取方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110119765B (zh) | 一种基于Seq2seq框架的关键词提取方法 | |
CN113239181B (zh) | 基于深度学习的科技文献引文推荐方法 | |
CN110348016B (zh) | 基于句子关联注意力机制的文本摘要生成方法 | |
CN113792818B (zh) | 意图分类方法、装置、电子设备及计算机可读存储介质 | |
CN107229610B (zh) | 一种情感数据的分析方法及装置 | |
CN107798140B (zh) | 一种对话系统构建方法、语义受控应答方法及装置 | |
CN111291188B (zh) | 一种智能信息抽取方法及系统 | |
CN111985228B (zh) | 文本关键词提取方法、装置、计算机设备和存储介质 | |
Johnson et al. | A detailed review on word embedding techniques with emphasis on word2vec | |
CN111191002A (zh) | 一种基于分层嵌入的神经代码搜索方法及装置 | |
Moghadasi et al. | Sent2vec: A new sentence embedding representation with sentimental semantic | |
CN107665248A (zh) | 基于深度学习混合模型的文本分类方法和装置 | |
CN115048447B (zh) | 一种基于智能语义补全的数据库自然语言接口系统 | |
CN118093834B (zh) | 一种基于aigc大模型的语言处理问答系统及方法 | |
CN113836896A (zh) | 一种基于深度学习的专利文本摘要生成方法和装置 | |
CN110263343A (zh) | 基于短语向量的关键词抽取方法及系统 | |
CN111984782A (zh) | 藏文文本摘要生成方法和系统 | |
CN117217277A (zh) | 语言模型的预训练方法、装置、设备、存储介质及产品 | |
CN113051886B (zh) | 一种试题查重方法、装置、存储介质及设备 | |
US11822887B2 (en) | Robust name matching with regularized embeddings | |
CN118260439A (zh) | 密集架系统的信息管理系统及方法 | |
CN117932066A (zh) | 一种基于预训练的“提取-生成”式答案生成模型及方法 | |
CN115017260A (zh) | 一种基于子主题建模的关键词生成方法 | |
CN113535928A (zh) | 基于注意力机制下长短期记忆网络的服务发现方法及系统 | |
CN110633363B (zh) | 一种基于nlp和模糊多准则决策的文本实体推荐方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |