CN112667800A - 关键词生成方法、装置、电子设备及计算机存储介质 - Google Patents
关键词生成方法、装置、电子设备及计算机存储介质 Download PDFInfo
- Publication number
- CN112667800A CN112667800A CN202011519819.0A CN202011519819A CN112667800A CN 112667800 A CN112667800 A CN 112667800A CN 202011519819 A CN202011519819 A CN 202011519819A CN 112667800 A CN112667800 A CN 112667800A
- Authority
- CN
- China
- Prior art keywords
- keyword generation
- semantic
- generation model
- word
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 239000013598 vector Substances 0.000 claims abstract description 208
- 238000012549 training Methods 0.000 claims abstract description 108
- 230000007246 mechanism Effects 0.000 claims abstract description 18
- 230000006870 function Effects 0.000 claims description 72
- 238000011156 evaluation Methods 0.000 claims description 23
- 230000004913 activation Effects 0.000 claims description 18
- 238000004590 computer program Methods 0.000 claims description 12
- 230000009466 transformation Effects 0.000 claims description 12
- 238000012545 processing Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 7
- 238000010606 normalization Methods 0.000 claims description 6
- 238000012163 sequencing technique Methods 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 239000002131 composite material Substances 0.000 claims description 3
- 239000000284 extract Substances 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 8
- 238000007726 management method Methods 0.000 description 5
- 230000002457 bidirectional effect Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 238000004891 communication Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/335—Filtering based on additional data, e.g. user or group profiles
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Biophysics (AREA)
- Probability & Statistics with Applications (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明涉及人工智能技术,揭露了一种关键词生成方法,包括:获取文本数据,使用预设的标识符对所述文本数据进行标识,得到训练数据集;使用所述训练数据集进行训练,得到关键词生成模型;接收待处理文本,利用所述关键词生成模型提取所述待处理文本的语义信息,并采用注意力机制生成语义向量;利用所述关键词生成模型,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词。本发明还提出了关键词生成装置、设备及计算机可读存储介质。此外,本发明还涉及区块链技术,文本数据可存储于区块链节点中。本发明可以对提高关键词生成的准确性、降低生成的关键词重复性并增强生成关键词之间的连贯性。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种关键词生成方法、装置、电子设备及计算机可读存储介质。
背景技术
随着信息时代的到来,信息量的规模越来越大,用户在浏览信息的时候,往往需要先通过主题、关键词信息等进行信息筛选。
目前的关键词生成方法主要是采用无监督或者抽取式等方式对文章进行关键词或者主题的抽取,但这些方法存在以下缺陷:需要特定的分词工具;生成的关键词重复性较高,且不连贯;生成的关键词与文章内容总结的关联性不高,即准确性较低。
发明内容
本发明提供一种关键词生成方法、装置、电子设备及计算机可读存储介质,其主要目的在于实现提高关键词生成的准确性、降低生成的关键词重复性并增强生成关键词之间的连贯性。
为实现上述目的,本发明提供的一种关键词生成方法,包括:
获取文本数据,使用预设的标识符对所述文本数据进行标识,得到训练数据集;
基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型;
接收待处理文本,利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量;
利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词。
可选地,所述利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制生成语义向量,包括:
通过所述关键词生成模型中的编码器提取所述待处理文本中每个词汇的第一语义特征以及相邻词汇的第二语义特征;
计算所述第一语义特征与所述第二语义特征之间的相似度;
在所述相似度大于预设相似阈值时将所述第一语义特征和所述第二语义特征进行融合并转化为向量,得到所述待处理文本的语义向量。
可选地,所述利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词,包括:
通过所述关键词生成模型中的解码器将所述语义向量转化为多个词向量;
基于预设的惩罚因子,通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量的概率值;
按照所述概率值大小从大到小对所述多个词向量进行排序,并选取前k个词向量作为第一词向量集;
基于所述第一词向量集利用所述解码器对所述多个词向量重新进行概率计算,并选取概率值排在前面的k个词向量作为第二词向量集,将第一词向量集与第二词向量集中的每个词向量进行两两组合得到第三词向量集;
通过所述激活函数计算第三词向量集中每个词向量的概率,在所述第三词向量集中按照概率值从大到小的顺序选取与所述第一词向量集中词向量个数相同的词向量作为待更新的第一词向量集;
利用所述待更新的第一词向量集更新第三词向量集,直到更新后的第三词向量集中的词向量为所述待处理文本中的预设结束标识符对应的词向量,以及将更新后的第三词向量集中的词作为所述关键词。
可选地,所述基于预设的惩罚因子,通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量的输出概率值,包括:
通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量中每个词向量的输出概率值;
检测所述多个词向量中是否包含重复词;当所述多个词向量中包含重复词时,将所述重复词的输出概率值乘以预设的惩罚系数因子,作为所述重复词的输出概率值,并汇总所有输出概率值,得到多个词向量的输出概率值。
可选地,所述通过所述关键词生成模型中的解码器将所述语义向量转化为多个词向量,包括:
通过所述解码器的多层网络对所述语义向量进行线性变换得到变换向量;
在预设的词典中选择与所述变换向量距离小于预设距离阈值的向量,得到多个词向量。
可选地,所述基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型,包括:
将所述训练数据集输入至所述原始关键词模型生成训练结果集;
利用正交规范化损失函数和噪声对比评估损失函数计算所述训练结果集的综合损失值;
根据所述综合损失值使用反向传播算法调整所述原始关键词模型的参数,并判断预设的终止条件是否满足;
在所述终止条件不满足时,返回上述将所述训练数据集输入至所述原始关键词模型生成训练结果集步骤;
在所述终止条件满足时,执行停止训练,得到关键词生成模型。
可选地,所述利用正交规范化损失函数和噪声对比评估损失函数计算所述训练结果集的综合损失值,包括:
利用下述正交规范化损失函数计算得到所述训练结果集的正交损失值LOR:
LOR=‖HTH⊙(1-In)‖2
其中,H是根据所述原始关键词生成模型中编码器对所述训练数据集中的分隔符对应的编码输出得到的编码矩阵,HT是H的转置矩阵,(1-In)是正交系数;
利用下述噪声对比评估损失函数计算得到所述训练结果集的噪声损失值LSC:
其中,是所述原始关键词生成模型中编码器对所述训练数据集中当前输入序列对应的编码输出,是所述原始关键词生成模型中解码器对当前输入序列的编码输出,是所述原始关键词生成模型中编码器对所述训练数据集中一个输入序列对应的编码输出,N是所述训练数据集中输入序列的总数;
根据所述正交损失值以及所述噪声损失值计算所述训练结果集的综合损失值。
为了解决上述问题,本发明还提供一种关键词生成装置,所述装置包括:
数据获取模块,用于获取文本数据,使用预设的标识符对所述文本数据进行标识,得到训练数据集;
模型训练模块,用于基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型;
语义提取模块,用于接收待处理文本,利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量;
关键词生成模块,用于利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词。
为了解决上述问题,本发明还提供一种电子设备,所述电子设备包括:
存储器,存储至少一个计算机程序;及
处理器,执行所述存储器中存储的计算机程序以实现上述中任意一项所述的关键词生成方法。
为了解决上述问题,本发明还提供一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现上述中任意一项所述的关键词生成方法。
本发明实施例通过正交规范化损失函数和噪声对比评估损失函数对原始关键词生成模型进行训练,得到关键词生成模型,所述正交规范化损失函数保证了生成的关键词的多样性,所述噪声对比评估损失函数保证了生成的关键词更加能够蕴含文本的主题信息,提高了所述关键词生成模型生成关键词的准确性,并增强了生成关键词之间的连贯性;同时,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,所述惩罚因子可以降低关键词的输出概率,从而降低生成的关键词的重复性。因此本发明提出的关键词生成方法、装置及计算机可读存储介质,可以提高关键词生成的准确性、降低生成的关键词重复性并增强生成关键词之间的连贯性。
附图说明
图1为本发明一实施例提供的关键词生成方法的流程示意图;
图2为本发明一实施例提供的模型训练方法的流程示意图;
图3为本发明一实施例提供的模型提取关键词方法的流程示意图;
图4为本发明一实施例提供的关键词生成装置的模块示意图;
图5为本发明一实施例提供的实现关键词生成方法的电子设备的内部结构示意图;
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
本申请实施例提供一种关键词生成方法。所述关键词生成方法的执行主体包括但不限于服务端、终端等能够被配置为执行本申请实施例提供的该方法的电子设备中的至少一种。换言之,所述关键词生成方法可以由安装在终端设备或服务端设备的软件或硬件来执行,所述软件可以是区块链平台。所述服务端包括但不限于:单台服务器、服务器集群、云端服务器或云端服务器集群等。
参照图1所示,为本发明一实施例提供的关键词生成方法的流程示意图。在本实施例中,所述关键词生成方法包括:
S1、获取文本数据,使用预设的标识符对所述文本数据进行标识,得到训练数据集。
本发明实施例中所述文本数据包括文章、段落、语句等,以及所述标识符包括开始标识符、分隔符和结束标识符等。为进一步保证所述文本数据的私密和安全性,所述文本数据还可以存储于一区块链的节点中
详细地,所述S1包括:
从预设的数据库中获取文本数据;
对所述文本数据中每个输入序列添加标识符进行标识,得到训练数据集。
其中,所述输入序列可以是所述文本数据中的一个语句,也可以是所述文本数据中一个段落。本发明实施例中对作为训练数据集输入之前的文本数据预先添加标识符,如对所述文本数据中的每个输入序列,在起始位置添加开始标识符,在末尾添加结束标识符。其中,所述结束标识符用于标识每个输入序列之间的边界,还可以作为自然语言生成任务中的停止符。
可选地,本发明实施例中还可以对所述训练数据集中每个输出序列添加分隔符将每个输入序列对应的关键词添加在分隔符后与每个输入序列一起作为所述原始关键词生成模型的输入。
S2、基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型。
本发明实施例中,所述原始关键词生成模型是一个生成式的预训练模型,在训练时可以采用多种训练方式,包括Bidirectional LM(双向)、Left-to-Right LM(从左往右单向)和Seq-to-Seq LM(序列到序列)三种训练方式,使所述原始关键词生成模型能处理NLG(NatureLanguageGeneration自然语言生成)和NLU(NatureLanguageUnderstanding自然语言理解)任务。
本发明实施例中主要采用Seq-to-Seq LM方式进行原始关键词生成模型训练。所述序列到序列的方式是指对所述原始关键词生成模型的输入为一个连续的词序列,如一句完整的语句,输出也是一个连续词序列,输出序列中的每个词是根据输入序列Li和输入序列Li的前一个输入序列Li-1生成的,且所述输入和输出的长度不一定对等。
详细地,参阅图2所示,所述S2包括:
S20、将所述训练数据集输入至所述原始关键词模型生成训练结果集;
S21、利用正交规范化损失函数和噪声对比评估损失函数计算所述训练结果集的综合损失值;
S22、根据所述综合损失值使用反向传播算法调整所述原始关键词模型的参数,并判断预设的终止条件是否满足;
在所述终止条件不满足时,返回S20步骤;
在所述终止条件满足时,执行S23、停止训练,得到关键词生成模型。
其中,所述终止条件满足指所述损失值小于或等于预设阈值。
进一步地,所述利用正交规范化损失函数和噪声对比评估损失函数计算所述训练结果集的综合损失值,包括:
利用下述正交规范化损失函数计算得到所述训练结果集的正交损失值LOR:
LOR=‖HTH⊙(1-In)‖2
其中,LOR是正交损失值,H是根据所述原始关键词生成模型中编码器对所述训练数据集中的分隔符对应的编码输出得到的编码矩阵,HT是H的转置矩阵,(1-In)是正交系数,为常数;
其中,LSC是噪声损失值,是所述原始关键词生成模型中编码器对所述训练数据集中当前输入序列对应的编码输出,是所述原始关键词生成模型中解码器对当前输入序列的编码输出,是所述原始关键词生成模型中编码器对所述训练数据集中一个输入序列对应的编码输出,N是所述训练数据集中输入序列的总数;
根据所述正交损失值以及所述噪声损失值计算所述训练结果集的综合损失值。
本发明实施例在模型训练阶段引入的所述正交规范化损失函数,可以保证生成的关键词的多样性,所述噪声对比评估损失函数,可以保证生成的关键词更加能够蕴含文本的主题信息。
S3、接收待处理文本,利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量。
本发明实施例中所述关键词生成模型包括编码器和解码器,所述编码器用于提取输入文本的语义信息生成语义向量,所述解码器用于根据所述语义向量生成多个符合语义信息的关键词。
可选地,所述解码器包括全连接层和激活函数,用于计算所述编码器得到的多个语义向量的概率,根据所述语义向量的概率生成关键词并输出。
本发明实施例中所述语义向量是根据输入序列的语义信息得到的,包含了输入序列的语义特征,是自然语言理解(NLU)任务的结果。
详细地,所述利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量,包括:
通过所述关键词生成模型中的编码器提取所述待处理文本中每个词汇的第一语义特征以及相邻词汇的第二语义特征;
计算所述第一语义特征与所述第二语义特征之间的相似度;
在所述相似度大于预设相似阈值时将所述第一语义特征和所述第二语义特征进行融合并转化为向量,得到所述待处理文本的语义向量。
本发明实施例中所述待处理文本在输入关键词生成模型后,所述关键词生成模型按照顺序对所述待处理文本中每个词汇进行处理。
所述将所述第一语义特征和所述第二语义特征进行融合,是将所述相似度作为所述第二语义特征的权重,并按照权重与所述第一语义特征进行合并,使得权重大的词的语义特征能够在最终得到的语义特征中占比更大,体现更明显。
较佳地,本发明实施例中所述注意力机制用于区分输入序列中不同部分对输出的影响,如一个词汇的相邻词汇有助于增强该词汇的语义表示,通过增加所述注意力机制可以增强输入序列的语义向量,更好的提取输入序列的语义信息,提高模型生成关键词的准确性。
S4、利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词。
详细地,参阅图3所示,所述S4包括:
S40、通过所述关键词生成模型中的解码器将所述语义向量转化为多个词向量;
S41、基于预设的惩罚因子,通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量的概率值;
S42、按照所述概率值大小从大到小对所述多个词向量进行排序,并选取前k个词向量作为第一词向量集;
S43、基于所述第一词向量集利用所述解码器对所述多个词向量重新进行概率计算,并选取概率值排在前面的k个词向量作为第二词向量集,将第一词向量集与第二词向量集中的每个词向量进行两两组合得到第三词向量集;
S44、通过所述激活函数计算第三词向量集中每个词向量的概率,在所述第三词向量集中按照概率值从大到小的顺序选取与所述第一词向量集中词向量个数相同的词向量作为待更新的第一词向量集;
S45、利用所述待更新的第一词向量集更新第三词向量集,直到更新后的第三词向量集中的词向量为所述待处理文本中的预设结束标识符对应的词向量,以及将更新后的第三词向量集中的词作为所述关键词。
本发明实施例中对第三词向量集的更新为多次更新,例如,假设词典大小为3,包含[A,B,C],k为2。生成第1个词的时候,对P(A)、P(B)、P(C)进行排序,选取概率最大的两个,假设为A,C,得到两个序列;生成第2个词的时候,再从词典中选取2个词,假设为A,B,将当前两个序列A,C分别和前述选取出的2个词进行组合,得到新的4个序列为AA、AB、CA、CB,并计算每个序列的概率,然后保留概率最大的两个序列,假设为AA、CB;重复以上的过程,直到遇到预设的结束标识符为止,得到最终2个序列,并选择概率最高的序列输出。
进一步地,本发明实施例所述通过所述关键词生成模型中的解码器将所述语义向量转化为多个词向量,包括:通过所述解码器的多层网络对所述语义向量进行线性变换得到变换向量;在预设的词典中选择与所述变换向量距离小于预设距离阈值的向量,得到多个词向量。
进一步地,所述基于预设的惩罚因子,通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量的输出概率值,包括:
通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量中每个词向量的输出概率值;
检测所述多个词向量中是否包含重复词;
当所述多个词向量中包含重复词时,将所述重复词的输出概率值乘以预设的惩罚系数因子,作为所述重复词的输出概率值,并汇总所有输出概率值,得到多个词向量的输出概率值。
本发明实施例通过在计算重复词的概率值后,将所述概率值乘以预设的惩罚因子,如0.1,将所述重复词的概率值降低,使得所述重复词被输出的概率降低,以此降低生成关键词的重复性,提高生成关键词的质量。
本发明实施例通过所述关键词模型将待处理文本生成关键词,生成的关键词更加接近所述待处理文本的主题,且词与词之间重复性更低,连贯性更好。
本发明实施例通过正交规范化损失函数和噪声对比评估损失函数对原始关键词生成模型进行训练,得到关键词生成模型,所述正交规范化损失函数保证了生成的关键词的多样性,所述噪声对比评估损失函数保证了生成的关键词更加能够蕴含文本的主题信息,提高了所述关键词生成模型生成关键词的准确性,并增强了生成关键词之间的连贯性;同时,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,所述惩罚因子可以降低关键词的输出概率,从而降低生成的关键词的重复性。因此本发明提出的关键词生成方法、装置及计算机可读存储介质,可以提高关键词生成的准确性、降低生成的关键词重复性并增强生成关键词之间的连贯性。
如图4所示,是本发明关键词生成装置的模块示意图。
本发明所述关键词生成装置100可以安装于电子设备中。根据实现的功能,所述关键词生成装置可以包括数据获取模块101、模型训练模块102、语义提取模块103和关键词生成模块104。本发明所述模块也可以称之为单元,是指一种能够被电子设备处理器所执行,并且能够完成固定功能的一系列计算机程序段,其存储在电子设备的存储器中。
详细地,所述关键词生成装置各模块的具体实施方式如下:
所述数据获取模块101,用于获取文本数据,使用预设的标识符对所述文本数据进行标识,得到训练数据集。
本发明实施例中所述文本数据包括文章、段落、语句等,以及所述标识符包括开始标识符、分隔符和结束标识符等。为进一步保证所述文本数据的私密和安全性,所述文本数据还可以存储于一区块链的节点中
详细地,所述数据获取模块101具体用于:
从预设的数据库中获取文本数据;
对所述文本数据中每个输入序列添加标识符进行标识,得到训练数据集。
其中,所述输入序列可以是所述文本数据中的一个语句,也可以是所述文本数据中一个段落。本发明实施例中对作为训练数据集输入之前的文本数据预先添加标识符,如对所述文本数据中的每个输入序列,在起始位置添加开始标识符,在末尾添加结束标识符。其中,所述结束标识符用于标识每个输入序列之间的边界,还可以作为自然语言生成任务中的停止符。
可选地,本发明实施例中还可以对所述训练数据集中每个输出序列添加分隔符将每个输入序列对应的关键词添加在分隔符后与每个输入序列一起作为所述原始关键词生成模型的输入。
所述模型训练模块102,用于基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型。
本发明实施例中,所述原始关键词生成模型是一个生成式的预训练模型,在训练时可以采用多种训练方式,包括Bidirectional LM(双向)、Left-to-Right LM(从左往右单向)和Seq-to-Seq LM(序列到序列)三种训练方式,使所述原始关键词生成模型能处理NLG(NatureLanguageGeneration自然语言生成)和NLU(NatureLanguageUnderstanding自然语言理解)任务。
本发明实施例中主要采用Seq-to-Seq LM方式进行原始关键词生成模型训练。所述序列到序列的方式是指对所述原始关键词生成模型的输入为一个连续的词序列,如一句完整的语句,输出也是一个连续词序列,输出序列中的每个词是根据输入序列Li和输入序列Li的前一个输入序列Li-1生成的,且所述输入和输出的长度不一定对等。
详细地,所述模型训练模块102具体用于:
将所述训练数据集输入至所述原始关键词模型生成训练结果集;
利用正交规范化损失函数和噪声对比评估损失函数计算所述训练结果集的综合损失值;
根据所述综合损失值使用反向传播算法调整所述原始关键词模型的参数,并判断预设的终止条件是否满足;
在所述终止条件不满足时,返回上述将所述训练数据集输入至所述原始关键词模型生成训练结果集的步骤;
在所述终止条件满足时,执行停止训练,得到关键词生成模型。
其中,所述终止条件满足指所述损失值小于或等于预设阈值。
进一步地,所述利用正交规范化损失函数和噪声对比评估损失函数计算所述训练结果集的综合损失值,包括:
利用下述正交规范化损失函数计算得到所述训练结果集的正交损失值LOR:
LOR=‖HTH⊙(1-In)‖2
其中,LOR是正交损失值,H是根据所述原始关键词生成模型中编码器对所述训练数据集中的分隔符对应的编码输出得到的编码矩阵,HT是H的转置矩阵,(1-In)是正交系数,为常数;
其中,LSC是噪声损失值,是所述原始关键词生成模型中编码器对所述训练数据集中当前输入序列对应的编码输出,是所述原始关键词生成模型中解码器对当前输入序列的编码输出,是所述原始关键词生成模型中编码器对所述训练数据集中一个输入序列对应的编码输出,N是所述训练数据集中输入序列的总数;
根据所述正交损失值以及所述噪声损失值计算所述训练结果集的综合损失值。
本发明实施例在模型训练阶段引入的所述正交规范化损失函数,可以保证生成的关键词的多样性,所述噪声对比评估损失函数,可以保证生成的关键词更加能够蕴含文本的主题信息。
所述语义提取模块103,用于接收待处理文本,利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量。
本发明实施例中所述关键词生成模型包括编码器和解码器,所述编码器用于提取输入文本的语义信息生成语义向量,所述解码器用于根据所述语义向量生成多个符合语义信息的关键词。
可选地,所述解码器包括全连接层和激活函数,用于计算所述编码器得到的多个语义向量的概率,根据所述语义向量的概率生成关键词并输出。
本发明实施例中所述语义向量是根据输入序列的语义信息得到的,包含了输入序列的语义特征,是自然语言理解(NLU)任务的结果。
详细地,在利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量时,所述语义提取模块103具体执行下述操作:
通过所述关键词生成模型中的编码器提取所述待处理文本中每个词汇的第一语义特征以及相邻词汇的第二语义特征;
计算所述第一语义特征与所述第二语义特征之间的相似度;
在所述相似度大于预设相似阈值时将所述第一语义特征和所述第二语义特征进行融合并转化为向量,得到所述待处理文本的语义向量。
本发明实施例中所述待处理文本在输入关键词生成模型后,所述关键词生成模型按照顺序对所述待处理文本中每个词汇进行处理。
所述将所述第一语义特征和所述第二语义特征进行融合,是将所述相似度作为所述第二语义特征的权重,并按照权重与所述第一语义特征进行合并,使得权重大的词的语义特征能够在最终得到的语义特征中占比更大,体现更明显。
较佳地,本发明实施例中所述注意力机制用于区分输入序列中不同部分对输出的影响,如一个词汇的相邻词汇有助于增强该词汇的语义表示,通过增加所述注意力机制可以增强输入序列的语义向量,更好的提取输入序列的语义信息,提高模型生成关键词的准确性。
所述关键词生成模块104,用于利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词。
详细地,所述关键词生成模块104具体用于:
通过所述关键词生成模型中的解码器将所述语义向量转化为多个词向量;
基于预设的惩罚因子,通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量的概率值;
按照所述概率值大小从大到小对所述多个词向量进行排序,并选取前k个词向量作为第一词向量集;
基于所述第一词向量集利用所述解码器对所述多个词向量重新进行概率计算,并选取概率值排在前面的k个词向量作为第二词向量集,将第一词向量集与第二词向量集中的每个词向量进行两两组合得到第三词向量集;
通过所述激活函数计算第三词向量集中每个词向量的概率,在所述第三词向量集中按照概率值从大到小的顺序选取与所述第一词向量集中词向量个数相同的词向量作为待更新的第一词向量集;
利用所述待更新的第一词向量集更新第三词向量集,直到更新后的第三词向量集中的词向量为所述待处理文本中的预设结束标识符对应的词向量,以及将更新后的第三词向量集中的词作为所述关键词。
本发明实施例中对第三词向量集的更新为多次更新,例如,假设词典大小为3,包含[A,B,C],k为2。生成第1个词的时候,对P(A)、P(B)、P(C)进行排序,选取概率最大的两个,假设为A,C,得到两个序列;生成第2个词的时候,再从词典中选取2个词,假设为A,B,将当前两个序列A,C分别和前述选取出的2个词进行组合,得到新的4个序列为AA、AB、CA、CB,并计算每个序列的概率,然后保留概率最大的两个序列,假设为AA、CB;重复以上的过程,直到遇到预设的结束标识符为止,得到最终2个序列,并选择概率最高的序列输出。
进一步地,本发明实施例所述通过所述关键词生成模型中的解码器将所述语义向量转化为多个词向量,包括:通过所述解码器的多层网络对所述语义向量进行线性变换得到变换向量;在预设的词典中选择与所述变换向量距离小于预设距离阈值的向量,得到多个词向量。
进一步地,所述基于预设的惩罚因子,通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量的输出概率值,包括:
通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量中每个词向量的输出概率值;
检测所述多个词向量中是否包含重复词;当所述多个词向量中包含重复词时,将所述重复词的输出概率值乘以预设的惩罚系数因子,作为所述重复词的输出概率值,并汇总所有输出概率值,得到多个词向量的输出概率值。
本发明实施例通过在计算重复词的概率值后,将所述概率值乘以预设的惩罚因子,如0.1,将所述重复词的概率值降低,使得所述重复词被输出的概率降低,以此降低生成关键词的重复性,提高生成关键词的质量。
本发明实施例通过所述关键词模型将待处理文本生成关键词,生成的关键词更加接近所述待处理文本的主题,且词与词之间重复性更低,连贯性更好。
如图5所示,是本发明实现关键词生成方法的电子设备的结构示意图。
所述电子设备1可以包括处理器10、存储器11和总线,还可以包括存储在所述存储器11中并可在所述处理器10上运行的计算机程序,如关键词生成程序12。
其中,所述存储器11至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、移动硬盘、多媒体卡、卡型存储器(例如:SD或DX存储器等)、磁性存储器、磁盘、光盘等。所述存储器11在一些实施例中可以是电子设备1的内部存储单元,例如该电子设备1的移动硬盘。所述存储器11在另一些实施例中也可以是电子设备1的外部存储设备,例如电子设备1上配备的插接式移动硬盘、智能存储卡(Smart Media Card,SMC)、安全数字(SecureDigital,SD)卡、闪存卡(Flash Card)等。进一步地,所述存储器11还可以既包括电子设备1的内部存储单元也包括外部存储设备。所述存储器11不仅可以用于存储安装于电子设备1的应用软件及各类数据,例如关键词生成程序12的代码等,还可以用于暂时地存储已经输出或者将要输出的数据。
所述处理器10在一些实施例中可以由集成电路组成,例如可以由单个封装的集成电路所组成,也可以是由多个相同功能或不同功能封装的集成电路所组成,包括一个或者多个中央处理器(Central Processing unit,CPU)、微处理器、数字处理芯片、图形处理器及各种控制芯片的组合等。所述处理器10是所述电子设备的控制核心(Control Unit),利用各种接口和线路连接整个电子设备的各个部件,通过运行或执行存储在所述存储器11内的程序或者模块(例如执行关键词生成程序等),以及调用存储在所述存储器11内的数据,以执行电子设备1的各种功能和处理数据。
所述总线可以是外设部件互连标准(peripheral component interconnect,简称PCI)总线或扩展工业标准结构(extended industry standard architecture,简称EISA)总线等。该总线可以分为地址总线、数据总线、控制总线等。所述总线被设置为实现所述存储器11以及至少一个处理器10等之间的连接通信。
图5仅示出了具有部件的电子设备,本领域技术人员可以理解的是,图5示出的结构并不构成对所述电子设备1的限定,可以包括比图示更少或者更多的部件,或者组合某些部件,或者不同的部件布置。
例如,尽管未示出,所述电子设备1还可以包括给各个部件供电的电源(比如电池),优选地,电源可以通过电源管理装置与所述至少一个处理器10逻辑相连,从而通过电源管理装置实现充电管理、放电管理、以及功耗管理等功能。电源还可以包括一个或一个以上的直流或交流电源、再充电装置、电源故障检测电路、电源转换器或者逆变器、电源状态指示器等任意组件。所述电子设备1还可以包括多种传感器、蓝牙模块、Wi-Fi模块等,在此不再赘述。
进一步地,所述电子设备1还可以包括网络接口,可选地,所述网络接口可以包括有线接口和/或无线接口(如WI-FI接口、蓝牙接口等),通常用于在该电子设备1与其他电子设备之间建立通信连接。
可选地,该电子设备1还可以包括用户接口,用户接口可以是显示器(Display)、输入单元(比如键盘(Keyboard)),可选地,用户接口还可以是标准的有线接口、无线接口。可选地,在一些实施例中,显示器可以是LED显示器、液晶显示器、触控式液晶显示器以及OLED(Organic Light-Emitting Diode,有机发光二极管)触摸器等。其中,显示器也可以适当的称为显示屏或显示单元,用于显示在电子设备1中处理的信息以及用于显示可视化的用户界面。
应该了解,所述实施例仅为说明之用,在专利申请范围上并不受此结构的限制。
所述电子设备1中的所述存储器11存储的关键词生成程序12是多个计算机程序的组合,在所述处理器10中运行时,可以实现:
获取文本数据,使用预设的标识符对所述文本数据进行标识,得到训练数据集;
基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型;
接收待处理文本,利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量;
利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词。
进一步地,所述电子设备1集成的模块/单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读存储介质中。所述计算机可读存储介质可以是易失性的,也可以是非易失性的。例如,所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)。
本发明还提供一种计算机可读存储介质,所述可读存储介质存储有计算机程序,所述计算机程序在被电子设备的处理器所执行时,可以实现:
获取文本数据,使用预设的标识符对所述文本数据进行标识,得到训练数据集;
基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型;
接收待处理文本,利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量;
利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词。
进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备,装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能模块的形式实现。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。
因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化涵括在本发明内。不应将权利要求中的任何附关联图表记视为限制所涉及的权利要求。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
此外,显然“包括”一词不排除其他单元或步骤,单数不排除复数。系统权利要求中陈述的多个单元或装置也可以由一个单元或装置通过软件或者硬件来实现。第二等词语用来表示名称,而并不表示任何特定的顺序。
最后应说明的是,以上实施例仅用以说明本发明的技术方案而非限制,尽管参照较佳实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或等同替换,而不脱离本发明技术方案的精神和范围。
Claims (10)
1.一种关键词生成方法,其特征在于,所述方法包括:
获取文本数据,使用预设的标识符对所述文本数据进行标识,得到训练数据集;
基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型;
接收待处理文本,利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量;
利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词。
2.如权利要求1所述的关键词生成方法,其特征在于,所述利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制生成语义向量,包括:
通过所述关键词生成模型中的编码器提取所述待处理文本中每个词汇的第一语义特征以及相邻词汇的第二语义特征;
计算所述第一语义特征与所述第二语义特征之间的相似度;
在所述相似度大于预设相似阈值时将所述第一语义特征和所述第二语义特征进行融合并转化为向量,得到所述待处理文本的语义向量。
3.如权利要求2所述的关键词生成方法,其特征在于,所述利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词,包括:
通过所述关键词生成模型中的解码器将所述语义向量转化为多个词向量;
基于预设的惩罚因子,通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量的概率值;
按照所述概率值大小从大到小对所述多个词向量进行排序,并选取前k个词向量作为第一词向量集;
基于所述第一词向量集利用所述解码器对所述多个词向量重新进行概率计算,并选取概率值排在前面的k个词向量作为第二词向量集,将第一词向量集与第二词向量集中的每个词向量进行两两组合得到第三词向量集;
通过所述激活函数计算第三词向量集中每个词向量的概率,在所述第三词向量集中按照概率值从大到小的顺序选取与所述第一词向量集中词向量个数相同的词向量作为待更新的第一词向量集;
利用所述待更新的第一词向量集更新第三词向量集,直到更新后的第三词向量集中的词向量为所述待处理文本中的预设结束标识符对应的词向量,以及将更新后的第三词向量集中的词作为所述关键词。
4.如权利要求3所述的关键词生成方法,其特征在于,所述基于预设的惩罚因子,通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量的输出概率值,包括:
通过所述关键词生成模型的全连接层和激活函数计算所述多个词向量中每个词向量的输出概率值;
检测所述多个词向量中是否包含重复词;
当所述多个词向量中包含重复词时,将所述重复词的输出概率值乘以预设的惩罚系数因子,作为所述重复词的输出概率值,并汇总所有输出概率值,得到多个词向量的输出概率值。
5.如权利要求3所述的关键词生成方法,其特征在于,所述通过所述关键词生成模型中的解码器将所述语义向量转化为多个词向量,包括:
通过所述解码器的多层网络对所述语义向量进行线性变换得到变换向量;
在预设的词典中选择与所述变换向量距离小于预设距离阈值的向量,得到多个词向量。
6.如权利要求1至5中任意一项所述的关键词生成方法,其特征在于,所述基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型,包括:
将所述训练数据集输入至所述原始关键词模型生成训练结果集;
利用正交规范化损失函数和噪声对比评估损失函数计算所述训练结果集的综合损失值;
根据所述综合损失值使用反向传播算法调整所述原始关键词模型的参数,并判断预设的终止条件是否满足;
在所述终止条件不满足时,返回上述将所述训练数据集输入至所述原始关键词模型生成训练结果集步骤;
在所述终止条件满足时,执行停止训练,得到关键词生成模型。
7.如权利要求6所述的关键词生成方法,其特征在于,所述利用正交规范化损失函数和噪声对比评估损失函数计算所述训练结果集的综合损失值,包括:
利用下述正交规范化损失函数计算得到所述训练结果集的正交损失值LOR:
LOR=||HTH⊙(1-In)||2
其中,H是根据所述原始关键词生成模型中编码器对所述训练数据集中的分隔符对应的编码输出得到的编码矩阵,HT是H的转置矩阵,(1-In)是正交系数;
利用下述噪声对比评估损失函数计算得到所述训练结果集的噪声损失值LSC:
其中,是所述原始关键词生成模型中编码器对所述训练数据集中当前输入序列对应的编码输出,是所述原始关键词生成模型中解码器对当前输入序列的编码输出,是所述原始关键词生成模型中编码器对所述训练数据集中一个输入序列对应的编码输出,N是所述训练数据集中输入序列的总数;
根据所述正交损失值以及所述噪声损失值计算所述训练结果集的综合损失值。
8.一种关键词生成装置,其特征在于,所述装置包括:
数据获取模块,用于获取文本数据,使用预设的标识符对所述文本数据进行标识,得到训练数据集;
模型训练模块,用于基于正交规范化损失函数和噪声对比评估损失函数,使用所述训练数据集对预构建的原始关键词生成模型进行训练,得到关键词生成模型;
语义提取模块,用于接收待处理文本,利用所述关键词生成模型中的编码器提取所述待处理文本的语义信息,并采用注意力机制对所述语义信息进行处理生成语义向量;
关键词生成模块,用于利用所述关键词生成模型的解码器,基于预设的惩罚因子,采用集束搜索方式对所述语义向量进行关键词提取,并输出提取的关键词。
9.一种电子设备,其特征在于,所述电子设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的计算机程序,所述计算机程序被所述至少一个处理器执行,以使所述至少一个处理器能够执行如权利要求1至7中任一项所述的关键词生成方法。
10.一种计算机可读存储介质,包括存储数据区和存储程序区,存储数据区存储创建的数据,存储程序区存储有计算机程序;其中,所述计算机程序被处理器执行时实现如权利要求1至7中任一项所述的关键词生成方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011519819.0A CN112667800A (zh) | 2020-12-21 | 2020-12-21 | 关键词生成方法、装置、电子设备及计算机存储介质 |
PCT/CN2021/123901 WO2022134759A1 (zh) | 2020-12-21 | 2021-10-14 | 关键词生成方法、装置、电子设备及计算机存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011519819.0A CN112667800A (zh) | 2020-12-21 | 2020-12-21 | 关键词生成方法、装置、电子设备及计算机存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112667800A true CN112667800A (zh) | 2021-04-16 |
Family
ID=75406932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011519819.0A Pending CN112667800A (zh) | 2020-12-21 | 2020-12-21 | 关键词生成方法、装置、电子设备及计算机存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN112667800A (zh) |
WO (1) | WO2022134759A1 (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113204965A (zh) * | 2021-05-31 | 2021-08-03 | 平安科技(深圳)有限公司 | 关键词提取方法、装置、计算机设备及可读存储介质 |
CN113591917A (zh) * | 2021-06-29 | 2021-11-02 | 深圳市捷顺科技实业股份有限公司 | 一种数据增强的方法及装置 |
CN113723102A (zh) * | 2021-06-30 | 2021-11-30 | 平安国际智慧城市科技股份有限公司 | 命名实体识别方法、装置、电子设备及存储介质 |
CN113723058A (zh) * | 2021-11-02 | 2021-11-30 | 深圳市北科瑞讯信息技术有限公司 | 文本摘要与关键词抽取方法、装置、设备及介质 |
CN114492669A (zh) * | 2022-02-16 | 2022-05-13 | 平安科技(深圳)有限公司 | 关键词推荐模型训练方法、推荐方法和装置、设备、介质 |
CN114547266A (zh) * | 2022-02-21 | 2022-05-27 | 北京百度网讯科技有限公司 | 信息生成模型的训练方法、生成信息的方法、装置和设备 |
WO2022134759A1 (zh) * | 2020-12-21 | 2022-06-30 | 深圳壹账通智能科技有限公司 | 关键词生成方法、装置、电子设备及计算机存储介质 |
CN114757154A (zh) * | 2022-06-13 | 2022-07-15 | 深圳市承儒科技有限公司 | 基于深度学习的作业生成方法、装置、设备及存储介质 |
CN114818685A (zh) * | 2022-04-21 | 2022-07-29 | 平安科技(深圳)有限公司 | 关键词提取方法、装置、电子设备及存储介质 |
CN115809665A (zh) * | 2022-12-13 | 2023-03-17 | 杭州电子科技大学 | 一种基于双向多粒度注意力机制的无监督关键词抽取方法 |
CN116029291A (zh) * | 2023-03-29 | 2023-04-28 | 摩尔线程智能科技(北京)有限责任公司 | 关键词识别方法、装置、电子设备和存储介质 |
CN116189193A (zh) * | 2023-04-25 | 2023-05-30 | 杭州镭湖科技有限公司 | 一种基于样本信息的数据存储可视化方法和装置 |
WO2023137906A1 (zh) * | 2022-01-21 | 2023-07-27 | 平安科技(深圳)有限公司 | 文档标题生成方法、装置、设备及存储介质 |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115329751B (zh) * | 2022-10-17 | 2023-01-17 | 广州数说故事信息科技有限公司 | 针对网络平台发文的关键词提取方法、装置、介质及设备 |
CN115470322B (zh) * | 2022-10-21 | 2023-05-05 | 深圳市快云科技有限公司 | 一种基于人工智能的关键词生成系统及方法 |
CN115859964B (zh) * | 2022-11-24 | 2023-04-28 | 安徽冠成教育科技有限公司 | 基于教育云平台的教育资源共享方法及系统 |
CN115910047B (zh) * | 2023-01-06 | 2023-05-19 | 阿里巴巴达摩院(杭州)科技有限公司 | 数据处理方法、模型训练方法、关键词检测方法及设备 |
CN115794999B (zh) * | 2023-02-01 | 2023-04-11 | 北京知呱呱科技服务有限公司 | 一种基于扩散模型的专利文档查询方法及计算机设备 |
CN115880036B (zh) * | 2023-02-23 | 2023-06-06 | 山东金潮交通设施有限公司 | 一种车位级动态共享智能管控交易平台 |
CN116070641B (zh) * | 2023-03-13 | 2023-06-06 | 北京点聚信息技术有限公司 | 一种电子合同的在线解读方法 |
CN116796754A (zh) * | 2023-04-20 | 2023-09-22 | 浙江浙里信征信有限公司 | 基于时变上下文语义序列成对比较的可视分析方法及系统 |
CN116866054A (zh) * | 2023-07-25 | 2023-10-10 | 安徽百方云科技有限公司 | 公共信息安全监测系统及其方法 |
CN117011435B (zh) * | 2023-09-28 | 2024-01-09 | 世优(北京)科技有限公司 | 数字人形象ai生成方法及装置 |
CN117235121B (zh) * | 2023-11-15 | 2024-02-20 | 华北电力大学 | 一种能源大数据查询方法和系统 |
CN117558392B (zh) * | 2024-01-12 | 2024-04-05 | 富纳德科技(北京)有限公司 | 一种电子病历共享协作方法与系统 |
CN117743869B (zh) * | 2024-02-18 | 2024-05-17 | 哈尔滨工业大学(深圳)(哈尔滨工业大学深圳科技创新研究院) | 一种内容发现方法、系统、终端及存储介质 |
CN117891531A (zh) * | 2024-03-14 | 2024-04-16 | 蒲惠智造科技股份有限公司 | 用于saas软件的系统参数配置方法、系统、介质及电子设备 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110119765B (zh) * | 2019-04-18 | 2021-04-06 | 浙江工业大学 | 一种基于Seq2seq框架的关键词提取方法 |
CN110110330B (zh) * | 2019-04-30 | 2023-08-11 | 腾讯科技(深圳)有限公司 | 基于文本的关键词提取方法和计算机设备 |
CN111078838B (zh) * | 2019-12-13 | 2023-08-18 | 北京小米智能科技有限公司 | 关键词提取方法、关键词提取装置及电子设备 |
CN111539211A (zh) * | 2020-04-17 | 2020-08-14 | 中移(杭州)信息技术有限公司 | 实体及语义关系识别方法、装置、电子设备及存储介质 |
CN112667800A (zh) * | 2020-12-21 | 2021-04-16 | 深圳壹账通智能科技有限公司 | 关键词生成方法、装置、电子设备及计算机存储介质 |
-
2020
- 2020-12-21 CN CN202011519819.0A patent/CN112667800A/zh active Pending
-
2021
- 2021-10-14 WO PCT/CN2021/123901 patent/WO2022134759A1/zh active Application Filing
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022134759A1 (zh) * | 2020-12-21 | 2022-06-30 | 深圳壹账通智能科技有限公司 | 关键词生成方法、装置、电子设备及计算机存储介质 |
CN113204965A (zh) * | 2021-05-31 | 2021-08-03 | 平安科技(深圳)有限公司 | 关键词提取方法、装置、计算机设备及可读存储介质 |
CN113591917A (zh) * | 2021-06-29 | 2021-11-02 | 深圳市捷顺科技实业股份有限公司 | 一种数据增强的方法及装置 |
CN113591917B (zh) * | 2021-06-29 | 2024-04-09 | 深圳市捷顺科技实业股份有限公司 | 一种数据增强的方法及装置 |
CN113723102B (zh) * | 2021-06-30 | 2024-04-26 | 平安国际智慧城市科技股份有限公司 | 命名实体识别方法、装置、电子设备及存储介质 |
CN113723102A (zh) * | 2021-06-30 | 2021-11-30 | 平安国际智慧城市科技股份有限公司 | 命名实体识别方法、装置、电子设备及存储介质 |
CN113723058A (zh) * | 2021-11-02 | 2021-11-30 | 深圳市北科瑞讯信息技术有限公司 | 文本摘要与关键词抽取方法、装置、设备及介质 |
CN113723058B (zh) * | 2021-11-02 | 2022-03-08 | 深圳市北科瑞讯信息技术有限公司 | 文本摘要与关键词抽取方法、装置、设备及介质 |
WO2023137906A1 (zh) * | 2022-01-21 | 2023-07-27 | 平安科技(深圳)有限公司 | 文档标题生成方法、装置、设备及存储介质 |
CN114492669A (zh) * | 2022-02-16 | 2022-05-13 | 平安科技(深圳)有限公司 | 关键词推荐模型训练方法、推荐方法和装置、设备、介质 |
CN114547266A (zh) * | 2022-02-21 | 2022-05-27 | 北京百度网讯科技有限公司 | 信息生成模型的训练方法、生成信息的方法、装置和设备 |
CN114818685A (zh) * | 2022-04-21 | 2022-07-29 | 平安科技(深圳)有限公司 | 关键词提取方法、装置、电子设备及存储介质 |
CN114818685B (zh) * | 2022-04-21 | 2023-06-20 | 平安科技(深圳)有限公司 | 关键词提取方法、装置、电子设备及存储介质 |
CN114757154A (zh) * | 2022-06-13 | 2022-07-15 | 深圳市承儒科技有限公司 | 基于深度学习的作业生成方法、装置、设备及存储介质 |
CN115809665B (zh) * | 2022-12-13 | 2023-07-11 | 杭州电子科技大学 | 一种基于双向多粒度注意力机制的无监督关键词抽取方法 |
CN115809665A (zh) * | 2022-12-13 | 2023-03-17 | 杭州电子科技大学 | 一种基于双向多粒度注意力机制的无监督关键词抽取方法 |
CN116029291A (zh) * | 2023-03-29 | 2023-04-28 | 摩尔线程智能科技(北京)有限责任公司 | 关键词识别方法、装置、电子设备和存储介质 |
CN116189193A (zh) * | 2023-04-25 | 2023-05-30 | 杭州镭湖科技有限公司 | 一种基于样本信息的数据存储可视化方法和装置 |
CN116189193B (zh) * | 2023-04-25 | 2023-11-10 | 杭州镭湖科技有限公司 | 一种基于样本信息的数据存储可视化方法和装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2022134759A1 (zh) | 2022-06-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112667800A (zh) | 关键词生成方法、装置、电子设备及计算机存储介质 | |
CN112541338A (zh) | 相似文本匹配方法、装置、电子设备及计算机存储介质 | |
CN111460797B (zh) | 关键字抽取方法、装置、电子设备及可读存储介质 | |
CN114822812A (zh) | 角色对话模拟方法、装置、设备及存储介质 | |
CN113378970B (zh) | 语句相似性检测方法、装置、电子设备及存储介质 | |
CN112446207A (zh) | 标题生成方法、装置、电子设备及存储介质 | |
CN113821622B (zh) | 基于人工智能的答案检索方法、装置、电子设备及介质 | |
CN112820269A (zh) | 文本转语音方法、装置、电子设备及存储介质 | |
CN113360654B (zh) | 文本分类方法、装置、电子设备及可读存储介质 | |
CN112507663A (zh) | 基于文本的判断题生成方法、装置、电子设备及存储介质 | |
CN113515938A (zh) | 语言模型训练方法、装置、设备及计算机可读存储介质 | |
CN112528013A (zh) | 文本摘要提取方法、装置、电子设备及存储介质 | |
CN113064994A (zh) | 会议质量评估方法、装置、设备及存储介质 | |
CN112667775A (zh) | 基于关键词提示的检索方法、装置、电子设备及存储介质 | |
CN115221276A (zh) | 基于clip的中文图文检索模型训练方法、装置、设备及介质 | |
CN114610855A (zh) | 对话回复生成方法、装置、电子设备及存储介质 | |
CN115409041B (zh) | 一种非结构化数据提取方法、装置、设备及存储介质 | |
CN116468025A (zh) | 电子病历结构化方法、装置、电子设备及存储介质 | |
CN116450829A (zh) | 医疗文本分类方法、装置、设备及介质 | |
CN116383766A (zh) | 基于多模态数据的辅诊方法、装置、设备及存储介质 | |
CN115346095A (zh) | 视觉问答方法、装置、设备及存储介质 | |
CN114548114A (zh) | 文本情绪识别方法、装置、设备及存储介质 | |
CN114610854A (zh) | 智能问答方法、装置、设备及存储介质 | |
CN113887201A (zh) | 文本定长纠错方法、装置、设备及存储介质 | |
CN111414452A (zh) | 搜索词匹配方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40049982 Country of ref document: HK |
|
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |