CN110717327A - 标题生成方法、装置、电子设备和存储介质 - Google Patents
标题生成方法、装置、电子设备和存储介质 Download PDFInfo
- Publication number
- CN110717327A CN110717327A CN201910947572.3A CN201910947572A CN110717327A CN 110717327 A CN110717327 A CN 110717327A CN 201910947572 A CN201910947572 A CN 201910947572A CN 110717327 A CN110717327 A CN 110717327A
- Authority
- CN
- China
- Prior art keywords
- title
- text
- processed
- model
- word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 64
- 238000012549 training Methods 0.000 claims description 43
- 230000015654 memory Effects 0.000 claims description 20
- 238000013145 classification model Methods 0.000 claims description 14
- 238000010845 search algorithm Methods 0.000 claims description 8
- 230000036961 partial effect Effects 0.000 claims description 7
- 230000003247 decreasing effect Effects 0.000 claims description 6
- 238000004422 calculation algorithm Methods 0.000 claims description 5
- 238000004364 calculation method Methods 0.000 claims description 2
- 239000000126 substance Substances 0.000 claims description 2
- 238000003058 natural language processing Methods 0.000 abstract description 3
- 230000008569 process Effects 0.000 description 8
- 230000006870 function Effects 0.000 description 5
- 230000007246 mechanism Effects 0.000 description 5
- 238000004891 communication Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 230000001960 triggered effect Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 239000012634 fragment Substances 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001151 other effect Effects 0.000 description 1
- 230000002829 reductive effect Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
Abstract
本申请公开了标题生成方法、装置、电子设备和存储介质,涉及自然语言处理领域。具体实现方案为:标题生成方法包括:将待处理文本输入语言生成模型,得到待处理文本对应的多个候选标题及其的概率;计算多个候选标题的困惑度;根据多个候选标题的概率及困惑度,生成待处理文本的标题。能够生成困惑度更低、可靠性更高的标题,避免生成的标题语句不通顺或语义不准确。
Description
技术领域
本申请涉及一种数据处理领域,尤其涉及一种自然语言处理领域。
背景技术
随着网络平台的兴起,越来越多的人会撰写文章在网络上发表。当作者在网络平台发文时,往往存在写标题困难的问题。质量不佳的标题不但影响文章的分发及用户收益,还影响整个内容生态的质量。当前,实现自动生成标题的方法,存在语句欠通顺、语义欠准确的缺陷。
发明内容
本申请实施例提供一种标题生成方法、装置、电子设备和存储介质,以解决相关技术存在的问题,技术方案如下:
第一方面,本申请实施例提供了一种标题生成方法,包括:
将待处理文本输入语言生成模型,得到待处理文本对应的多个候选标题及其的概率;
计算多个候选标题的困惑度;
根据多个候选标题的概率及困惑度,生成待处理文本的标题。
通过上述技术方案,在标题生成过程中,结合候选标题的概率及困惑度确定待处理文本的标题。相比仅依据概率生成待处理文本的标题,上述技术方案能够生成困惑度更低、可靠性更高的标题,避免生成的标题语句不通顺或语义不准确。
在一种实施方式中,根据多个候选标题的概率及困惑度,生成待处理文本的标题,包括:
根据预设的概率权重和困惑度权重,对多个候选标题的概率和困惑度进行加权求和,得到多个候选标题的分值;
将分值最高的候选标题确定为待处理文本的标题。
通过上述技术方案,对候选标题的概率和困惑度进行加权求和得到分值,该分值作为从候选标题中确定待处理文本的标题的依据。通过这种方式结合概率和困惑度,可以客观、直接地得到生成标题的依据,且具有可调节性,可以通过合理设置阈值优化生成效果。
在一种实施方式中,方法还包括:
将待处理文本的标题输入标题可用性判别模型;
使用标题可用性判别模型识别待处理文本的标题是否可用。
通过上述技术方案,在标题生成后设置标题可用性判别模型,能够识别出标题是否可用,标识存在语法、语义或逻辑等质量问题的标题,避免生成错误标题导致文本质量降低。
在一种实施方式中,在将待处理文本输入语言生成模型之前,还包括:
根据用于预训练的模型获得语言生成模型的初始化网络结构;
采用训练数据训练具有初始化网络结构的语言生成模型。
通过上述技术方案,实现语言生成模型的预训练,得到语言生成模型的初始化网络结构,使得语言生成模型学习了基本的语法知识和标题语言的表达方式,然后训练具有该初始化网络结构的语言生成模型,使得生成的标题更符合自然语言要求,语句更通顺,语义更准确。
在一种实施方式中,方法还包括:
显示待处理文本的标题和提示用户输入标题的信息;
在接收到用户输入的标题的情况下,在预定的标题显示区域显示所述用户输入的标题。
通过上述技术方案,在语言生成模型输出待处理文本的标题后,可以提供给用户参考,由用户输入标题,如果用户有输入,则使用用户输入的标题,显示在预定的标题显示区域中。如此,通过与用户交互,及时修正不正确的标题,避免使用错误的标题显示在预定的标题显示区域中。
在一种实施方式中,语言生成模型为序列到序列模型;将待处理文本输入语言生成模型,得到所述待处理文本对应的多个候选标题及其的概率,包括:
将待处理文本输入序列到序列模型的编码器,得到中间语义向量;
将所述中间语义向量输入序列到序列模型的解码器,得到初始时间步的多个词序列及其的概率;
根据当前时间步的词序列和所述解码器,确定当前时间步的词序列后是否衔接结束符;
在当前时间步的词序列没有衔接结束符的情况下,将当前时间步的多个词序列进行分组;
采用集束搜索算法根据词库中词语的分值确定词序列的衔接词;其中,如果所述词语在其他组中出现过,则减少所述词语的分值;
根据所述衔接词,更新当前时间步的多个词序列及其概率;返回确定当前时间步的词序列后是否衔接结束符的步骤,直至各词序列后衔接结束符时,输出各词序列作为所述待处理文本对应的多个候选标题。
通过上述技术方案,在集束搜索(Beam Search)过程中对词序列进行分组,在某个时间步选择词序列的衔接词时,如果候选衔接词在其他组出现过,则对该词进行减分惩罚。从而实现候选标题的多样性,使得生成标题是在更宽泛的范围内最优的。
在一种实施方式中,标题可用性判别模型包括二分类模型;在将待处理文本的标题输入标题可用性判别模型之前,还包括:
识别待处理文本的标题的语法成分;
根据语法成分将待处理文本的标题划分为多个词语;
剔除待处理文本的标题中的部分词语,获得不完整标题;
以待处理文本的标题作为正例,以不完整标题作为负例,训练二分类模型。
通过上述技术方案,以不完整标题作为负例,完整标题作为正例训练二分类模型。从而该二分类模型能够准确识别出语义表达是否完整的问题。提高标题可用性判别模型识别标题是否可用的准确度。
第二方面,本申请实施例还提供一种标题生成装置,包括:
获取模块,将待处理文本输入语言生成模型,得到待处理文本对应的多个候选标题及其的概率;
计算模块,用于计算多个候选标题的困惑度;
生成模块,用于根据多个候选标题的概率及困惑度,生成待处理文本的标题。
在一种实施方式中,生成模块包括:
求和单元,用于根据预设的概率权重和困惑度权重,对多个候选标题的概率和困惑度进行加权求和,得到多个候选标题的分值;
确定单元,用于将分值最高的候选标题确定为待处理文本的标题。
在一种实施方式中,装置还包括:
输入模块,用于将待处理文本的标题输入标题可用性判别模型;
第一识别模块,用于使用标题可用性判别模型识别待处理文本的标题是否可用。
在一种实施方式中,装置还包括:
预训练模块,用于根据用于预训练的模型获得语言生成模型的初始化网络结构;
第一训练模块,用于采用训练数据训练具有初始化网络结构的语言生成模型。
在一种实施方式中,语言生成模型为序列到序列模型;获取模块包括:
编码单元,用于将待处理文本输入序列到序列模型的编码器,得到中间语义向量;
解码单元,用于将所述中间语义向量输入序列到序列模型的解码器,得到初始时间步的多个词序列及其的概率;
结束判定单元,用于根据当前时间步的词序列和所述解码器,确定当前时间步的词序列后是否衔接结束符;
分组单元,用于在当前时间步的词序列没有衔接结束符的情况下,将当前时间步的多个词序列进行分组;
选取单元,用于采用集束搜索算法根据词库中词语的分值确定词序列的衔接词;其中,如果所述词语在其他组中出现过,则减少所述词语的分值;
输出单元,用于根据所述衔接词,更新当前时间步的多个词序列及其概率;返回确定当前时间步的词序列后是否衔接结束符的步骤,直至各词序列后衔接结束符时,输出各词序列作为所述待处理文本对应的多个候选标题。
在一种实施方式中,标题可用性判别模型包括二分类模型;装置还包括:
第二识别模块,用于识别待处理文本的标题的语法成分;
划分模块,用于根据语法成分将待处理文本的标题划分为多个词语;
剔除模块,用于剔除待处理文本的标题中的部分词语,获得不完整标题;
第二训练模块,用于以待处理文本的标题作为正例,以不完整标题作为负例,训练二分类模型。
第三方面,本申请实施例还提供一种电子设备,包括:
至少一个处理器;以及
与至少一个处理器通信连接的存储器;其中,
存储器存储有可被至少一个处理器执行的指令,指令被至少一个处理器执行,以使至少一个处理器能够执行本申请任意实施例提供的方法。
第四方面,本申请实施例还提供一种存储有计算机指令的非瞬时计算机可读存储介质,计算机指令用于使计算机执行本申请任意实施例提供的方法。
上述申请中的一个实施例具有如下优点或有益效果:在标题生成过程中,结合候选标题的概率及困惑度确定待处理文本的标题。相比仅依据概率生成待处理文本的标题,上述技术方案能够生成困惑度更低、可靠性更高的标题,避免生成的标题语句不通顺或语义不准确。
上述可选方式所具有的其他效果将在下文中结合具体实施例加以说明。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3是根据本申请第三实施例的示意图;
图4是根据本申请第四实施例的示意图;
图5是根据本申请第五实施例的示意图;
图6是根据本申请第六实施例的示意图;
图7是根据本申请第七实施例的示意图;
图8是根据本申请第八实施例的示意图;
图9是用来实现本申请实施例的标题生成方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
生成标题可以基于模板挖掘生成,或者使用语言生成模型实现。例如,收集常见标题形式,形成模板,通过提取文本关键词,填充模板中的槽位,形成文本的标题。这种方式标题的丰富度不足。又如,使用seq2seq(Sequence to Sequence,序列到序列)模型,基于输入的待处理文本生成该文本的标题。这种方式生成的标题可能会语句不通顺、存在语法错误、多样性不足、片段之间没有逻辑关系或语义表达不完整等问题。
基于此,本申请实施例提供一种标题生成方法。示例性地,该标题生成方法可以在多种场景下被触发执行。例如,在文本发表平台中的文本编辑框失焦时被触发执行。又如,在上述文本编辑框中的文本字数大于设定的阈值时被触发执行。
作为一种示例性实施方式,如图1所示,本申请实施例提供一种标题生成方法,包括:
步骤S101、将待处理文本输入语言生成模型,得到待处理文本对应的多个候选标题及其的概率。
本申请实施例中,语言生成模型可以包括任意的能够根据待处理文本生成一些候选文本及其概率的模型,候选文本可以作为待处理文本的候选标题。例如,语言生成模型可以是seq2seq模型,即序列到序列模型。seq2seq模型包括编码器(encoder)和解码器(decoder),将待处理文本输入编码器,编码器输出中间语义向量作为解码器的输入。解码器可以使用多种算法搜索并输出可能的词序列。例如,贪心搜索(greedy search)算法或集束搜索(beamsearch)算法等。示例性地,使用集束搜索算法可以输出多个词序列作为多个候选标题。
步骤S102、计算多个候选标题的困惑度。
在自然语言处理中,困惑度(Perplexity,PPL)用于指示模型输出结果的确定性。可以理解,在这里,困惑度用于指示概率的准确度。示例性地,可以使用统计语言模型计算困惑度。例如,使用KenLM模型或SRILM模型计算困惑度。
步骤S103、根据多个候选标题的概率及困惑度,生成待处理文本的标题。
通过上述技术方案,在标题生成过程中,结合候选标题的概率及困惑度确定待处理文本的标题。相比仅依据概率生成待处理文本的标题,上述技术方案能够生成困惑度更低、可靠性更高的标题,避免生成的标题语句不通顺或语义不准确。
作为示例性的实施方式,上述步骤S103、根据多个候选标题的概率及困惑度,生成待处理文本的标题,包括:
根据预设的概率权重和困惑度权重,对多个候选标题的概率和困惑度进行加权求和,得到多个候选标题的分值;
将分值最高的候选标题确定为待处理文本的标题。
示例性地,困惑度权重为负值。困惑度越高,候选标题的分数越低。
通过上述技术方案,对候选标题的概率和困惑度进行加权求和得到分值,该分值作为从候选标题中确定待处理文本的标题的依据。通过这种方式结合概率和困惑度,可以客观、直接地得到生成标题的依据,且具有可调节性,可以通过合理设置阈值优化生成效果。
在一些实施例中,如图2所示,方法还可以包括:
步骤S201、将待处理文本的标题输入标题可用性判别模型。
步骤S202、使用标题可用性判别模型识别待处理文本的标题是否可用。
其中,标题可用性判别模型可以包括统计语言模型、神经网络语言模型或二分类模型中的一种或多种。标题可用性判别模型可以通过识别标题语句是否通顺、语义表达是否完整、标题片段之间是否有逻辑,来识别标题是否可用。使用标题可用性判别模型识别待处理文本的标题是否可用,有如下示例方式:
方式一、标题可用性判别模型可以包括统计语言模型。统计语言模型可以利用统计学判断一个标题是不是常见的。例如计算一些评价生成结果的指标。这些指标可以包括相似度、困惑度等。根据这些指标可以识别语句是否通顺、语义是否准确。从而识别标题是否可用。统计语言模型例如可以是5-gramm模型。
方式二、标题可用性判别模型可以包括神经网络语言模型。神经网络语言模型可以使用字符为输入,判断是否出现OOV(Out of Vocabulary,未登录词)问题。从而识别标题是否可用。
方式三、标题可用性判别模型可以包括二分类模型。二分类模型可以通过训练,将输入的标题分类为可用标题和不可用标题。
方式四、标题可用性判别模型可以包括BERT。因BERT训练时,有上下句之间的预测,因此,将生产的标题按照标点,分成多个不同的句子,可以用BERT识别句子键是否有逻辑关系。从而识别标题是否可用。
通过上述技术方案,在标题生成后设置标题可用性判别模型,能够识别出标题是否可用,标识存在语法、语义或逻辑等质量问题的标题,避免生成错误标题导致文本质量降低。
在识别出标题是否可用时,可以将识别结果呈现给编辑文本的用户,用户可以进行标题修改。通过交互用户参与,能及时修正生成的标题语法不正确的问题。
作为一种具体的示例,本申请实施例提供的方法还包括:
显示待处理文本的标题和提示用户输入标题的信息;
在接收到用户输入的标题的情况下,在预定的标题显示区域显示所述用户输入的标题。
示例性地,显示提示用户输入标题的信息可以是显示具体的文字提示信息,也可以是显示输入框,还可以是:在待处理文本的标题的显示区域,通过特定的标识(例如颜色、字体格式、指针图案等)表示该标题是否可编辑,以此提示用户输入标题。可以仅在识别出标题不可用时显示待处理文本的标题和提示用户输入标题,也可以是在生成待处理文本的标题时即显示,而不考虑是否可用。待处理文本的标题和提示用户输入标题的信息可以和标题是否可用的识别结果一并显示。
通过上述技术方案,在语言生成模型输出待处理文本的标题后,可以提供给用户参考,由用户输入标题,如果用户有输入,则使用用户输入的标题,显示在预定的标题显示区域中。如此,通过与用户交互,及时修正不正确的标题,避免使用错误的标题显示在预定的标题显示区域中。
作为一种具体的示例,标题可用性判别模型可以包括二分类模型。参见图3,在将待处理文本的标题输入标题可用性判别模型之前,还包括:
步骤S301、识别待处理文本的标题的语法成分。
步骤S302、根据语法成分将待处理文本的标题划分为多个词语。
例如,根据依存句法、词性特征进行识别成分和划分词语。
步骤S303、剔除待处理文本的标题中的部分词语,获得不完整标题。
例如,采用随机方式剔除标题中的一个或多个词语,构建不完整标题。可以构建多个不完整标题。
步骤S304、以待处理文本的标题作为正例,以不完整标题作为负例,训练二分类模型。
通过上述技术方案,以不完整标题作为负例,完整标题作为正例训练二分类模型。二分类模型能够准确识别出语义表达是否完整,提高标题可用性判别模型识别标题是否可用的准确度。
类似地,也可以将标题的不同片段或者待处理文本中的片段自由组合,构建用于训练模型的负例,利用该模型识别标题片段之间有没有逻辑或语义关联关系。
作为一种示例性实施方式,如图4所示,在将待处理文本输入语言生成模型之前,还可以包括:
步骤S401、根据用于预训练的模型获得语言生成模型的初始化网络结构;
步骤S402、采用训练数据训练具有初始化网络结构的语言生成模型。
示例性地,预训练的模型可以包括BERT(Bidirectional EncoderRepresentations from Transformers,变换器的双向编码器表示)模型。通过上述技术方案,利用BERT模型实现语言生成模型的预训练,得到语言生成模型的初始化网络结构。BERT在编码部分掩盖部分标题词,在解码部分根据上下文预测标题词,使得语言生成模型经过预训练,学习了基本的语法知识和标题语言的表达方式。利用BERT预训练得到初始化网络结构,然后训练具有该初始化网络结构的语言生成模型,使得生成的标题更符合自然语言要求,语句更通顺,语义更准确。
示例性地,语言生成模型可以是序列到序列(seq2seq)模型。seq2seq模型中的解码器(decoder)可以使用集束搜索(beam search)算法实现。在具体示例中,步骤S101、将待处理文本输入语言生成模型,得到待处理文本对应的多个候选标题及其的概率,可以包括:
1、将待处理文本输入序列到序列模型的编码器,得到中间语义向量。
2、将中间语义向量输入序列到序列模型的解码器,得到初始时间步的多个词序列及其的概率。这里,可以根据中间语义向量以及解码器的参数,确定词库中各词语作为起始词语的概率,从中选择概率最高的N个词语。这N个词语就是初始时间步的多个词序列;N可以是集束搜索的束宽(beam size)。
3、根据当前时间步的词序列和解码器,确定当前时间步的词序列后是否衔接结束符。这里,基于当前时间步的词序列和解码器的参数,可以确定当前时间步的词序列后面是否衔接结束符。如果其中一个或多个词序列衔接结束符,则这一个或多个词序列可以被输出。
4、在当前时间步的词序列没有衔接结束符的情况下,将当前时间步的多个词序列进行分组;
5、采用集束搜索算法根据词库中词语的分值确定词序列的衔接词;其中,如果所述词语在其他组中出现过,则减少所述词语的分值。
这里,示例性地,可以包括:根据当前时间步的词序列、解码器以及集束搜索算法,生成当前时间步的词序列的多个候选衔接词;如果当前时间步的词序列的候选衔接词在其他组出现过,则减少候选衔接词的分值;根据候选衔接词的分值,选取各词序列的衔接词。具体地,可以根据当前时间步的词序列以及解码器,确定词库中各词语衔接在该词序列后面的概率,提取概率最高的多个作为候选衔接词。其中,一个词序列后面的候选衔接词的个数可以由集束搜索算法的束宽(beam size)确定。然后,为一个词序列的多个候选衔接词进行打分。打分的依据可以包括这个词语的概率以及词序列之间的相似度,具体地,如果某个词序列的某个候选衔接词在其他组出现过则减分惩罚。这里的其他组指该词序列所在组外的其他组。根据候选衔接词的概率以及它是否在其他组出现过,确定了候选衔接词的分值,可以根据分值选取词序列的衔接词,例如选取分值最大的候选衔接词作为词序列的衔接词。
6、根据所述衔接词,更新当前时间步的多个词序列及其概率;返回确定当前时间步的词序列后是否衔接结束符的步骤,直至各词序列后衔接结束符时,输出各词序列作为所述待处理文本对应的多个候选标题。
这里,上一时间步的词序列及其衔接词会组成新的时间步的词序列。并且,可以根据上一时间步的词序列的概率以及这个衔接词的概率或分值,确定当前时间步的词序列的概率。在每一个时间步,都按照上述步骤3-5确定词序列的衔接词,以得到下一个时间步的词序列,直至遇到结束符,则可以输出词序列作为候选标题。
通过上述技术方案,在集束搜索(Beam Search)过程中对词序列进行分组,在某个时间步选择词序列的衔接词时,如果候选衔接词在其他组出现过,则对该词进行减分惩罚。从而实现候选标题的多样性,使得生成标题是在更宽泛的范围内最优的。
在一些实施例中,在语言生成模型的基础上,例如在seq2seq模型的基础上,可加入不同的机制解决一些技术问题:
示例一、可以加入Pointer-generate(指针生成网络)机制解决OOV问题以及生成的标题对文本细节描述不准的问题。
示例二、可以加入coverage(覆盖)机制或intra-attention(内部注意力)机制解决标题中出现重叠词的问题。
示例三、可以采用Q-learning(Q-学习)中的DDQN(Double Deep Q-Learning,双重深度Q网络)的actor-critic(玩家-评委)的学习方法,例如将seq2seq生成模型作为actor模型,Q-net(Q网络)模型作为critic模型,根据actor的损失函数在每个时间步得到选择每个词的Q值。解决seq2seq模型中的训练评估指标和推断时不一致,以及,decoder过程中一个时间步生成的词有误则整个标题不可用的问题。
本申请实施例语言生成模型融合多种生成机制,提高生成标题的可用率、多样性。
本申请实施例还提供一种标题生成装置,如图5所示,该装置500包括:
获取模块501,将待处理文本输入语言生成模型,得到待处理文本对应的多个候选标题及其的概率;
计算模块502,用于计算多个候选标题的困惑度;
生成模块503,用于根据多个候选标题的概率及困惑度,生成待处理文本的标题。
在一种实施方式中,生成模块503包括:
求和单元,用于根据预设的概率权重和困惑度权重,对多个候选标题的概率和困惑度进行加权求和,得到多个候选标题的分值;
确定单元,用于将分值最高的候选标题确定为待处理文本的标题。
在一种实施方式中,如图6所示,装置500还包括:
输入模块601,用于将待处理文本的标题输入标题可用性判别模型;
第一识别模块602,用于使用标题可用性判别模型识别待处理文本的标题是否可用。
在一种实施方式中,如图7所示,装置500还包括:
预训练模块701,用于根据用于预训练的模型获得语言生成模型的初始化网络结构;
第一训练模块702,用于采用训练数据训练具有初始化网络结构的语言生成模型。
在一种实施方式中,装置500还包括:
第一显示模块,用于显示待处理文本的标题和提示用户输入标题的信息;
第二显示模块,用于在接收到用户输入的标题的情况下,在预定的标题显示区域显示所述用户输入的标题。
在一种实施方式中,语言生成模型为序列到序列模型;
获取模块501包括:
编码单元,用于将待处理文本输入序列到序列模型的编码器,得到中间语义向量;
解码单元,用于将所述中间语义向量输入序列到序列模型的解码器,得到初始时间步的多个词序列及其的概率;
结束判定单元,用于根据当前时间步的词序列和所述解码器,确定当前时间步的词序列后是否衔接结束符;
分组单元,用于在当前时间步的词序列没有衔接结束符的情况下,将当前时间步的多个词序列进行分组;
选取单元,用于采用集束搜索算法根据词库中词语的分值确定词序列的衔接词;其中,如果所述词语在其他组中出现过,则减少所述词语的分值;
输出单元,用于根据所述衔接词,更新当前时间步的多个词序列及其概率;返回确定当前时间步的词序列后是否衔接结束符的步骤,直至各词序列后衔接结束符时,输出各词序列作为所述待处理文本对应的多个候选标题。
在一种实施方式中,标题可用性判别模型包括二分类模型;如图8所示,装置500还包括:
第二识别模块801,用于识别待处理文本的标题的语法成分;
划分模块802,用于根据语法成分将待处理文本的标题划分为多个词语;
剔除模块803,用于剔除待处理文本的标题中的部分词语,获得不完整标题;
第二训练模块804,用于以待处理文本的标题作为正例,以不完整标题作为负例,训练二分类模型。
本申请实施例提供的标题生成装置,可以实现本申请任意实施例提供的标题生成方法,具备相应的有益效果。
如图9所示,是根据本申请实施例的标题生成方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图9所示,该电子设备包括:一个或多个处理器901、存储器902,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示图形用户界面(Graphical User Interface,GUI)的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图9中以一个处理器901为例。
存储器902即为本申请所提供的非瞬时计算机可读存储介质。其中,存储器存储有可由至少一个处理器执行的指令,以使至少一个处理器执行本申请所提供的标题生成方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的标题生成方法。
存储器902作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的标题生成方法对应的程序指令/模块(例如,附图5所示的获取模块501、计算模块502和生成模块503)。处理器901通过运行存储在存储器902中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的标题生成方法。
存储器902可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据标题生成方法的电子设备的使用所创建的数据等。此外,存储器902可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器902可选包括相对于处理器901远程设置的存储器,这些远程存储器可以通过网络连接至标题生成方法的电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
标题生成方法的电子设备还可以包括:输入装置903和输出装置904。处理器901、存储器902、输入装置903和输出装置904可以通过总线或者其他方式连接,图9中以通过总线连接为例。
输入装置903可接收输入的数字或字符信息,以及产生与标题生成方法的电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置904可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(Liquid Crystal Display,LCD)、发光二极管(Light EmittingDiode,LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用集成电路(Application Specific Integrated Circuits,ASIC)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(programmable logic device,PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(Cathode Ray Tube,阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(Local Area Network,LAN)、广域网(Wide Area Network,WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
根据本申请实施例的技术方案,在标题生成过程中,结合候选标题的概率及困惑度确定待处理文本的标题。相比仅依据概率生成待处理文本的标题,上述技术方案能够生成困惑度更低、可靠性更高的标题,避免生成的标题语句不通顺或语义不准确。
在一种实施方式中,对候选标题的概率和困惑度进行加权求和得到分值,该分值作为从候选标题中确定待处理文本的标题的依据。通过这种方式结合概率和困惑度,可以客观、直接地得到生成标题的依据,且具有可调节性,可以通过合理设置阈值优化生成效果。
在一种实施方式中,在标题生成后设置标题可用性判别模型,能够识别出标题是否可用,标识存在语法、语义或逻辑等质量问题的标题,避免生成错误标题导致文本质量降低。
在一种实施方式中,利用BERT(Bidirectional Encoder Representations fromTransformers,变换器的双向编码器表示)模型实现语言生成模型的预训练,得到语言生成模型的初始化网络结构。BERT在编码部分掩盖部分标题词,在解码部分根据上下文预测标题词,使得语言生成模型经过预训练,学习了基本的语法知识和标题语言的表达方式。利用BERT预训练得到初始化网络结构,然后训练具有该初始化网络结构的语言生成模型,使得生成的标题更符合自然语言要求,语句更通顺,语义更准确。
在一种实施方式中,在集束搜索(Beam Search)过程中对词序列进行分组,在某个时间步选择词序列的衔接词时,如果候选衔接词在其他组出现过,则对该词进行减分惩罚。从而实现候选标题的多样性,使得生成标题是在更宽泛的范围内最优的。
在一种实施方式中,以不完整标题作为负例,完整标题作为正例训练二分类模型。二分类模型能够准确识别出语义表达是否完整的问题。提高标题可用性判别模型识别标题是否可用的准确度。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (15)
1.一种标题生成方法,其特征在于,包括:
将待处理文本输入语言生成模型,得到所述待处理文本对应的多个候选标题及其的概率;
计算所述多个候选标题的困惑度;
根据所述多个候选标题的概率及困惑度,生成所述待处理文本的标题。
2.根据权利要求1所述的标题生成方法,其特征在于,根据所述多个候选标题的概率及困惑度,生成所述待处理文本的标题,包括:
根据预设的概率权重和困惑度权重,对所述多个候选标题的概率和困惑度进行加权求和,得到多个候选标题的分值;
将分值最高的候选标题确定为所述待处理文本的标题。
3.根据权利要求1所述的标题生成方法,其特征在于,所述方法还包括:
将所述待处理文本的标题输入标题可用性判别模型;
使用所述标题可用性判别模型识别所述待处理文本的标题是否可用。
4.根据权利要求1所述的标题生成方法,其特征在于,在将待处理文本输入语言生成模型之前,还包括:
根据用于预训练的模型获得语言生成模型的初始化网络结构;
采用训练数据训练具有所述初始化网络结构的语言生成模型。
5.根据权利要求1所述的标题生成方法,其特征在于,所述方法还包括:
显示所述待处理文本的标题和提示用户输入标题的信息;
在接收到用户输入的标题的情况下,在预定的标题显示区域显示所述用户输入的标题。
6.根据权利要求1所述的标题生成方法,其特征在于,所述语言生成模型为序列到序列模型;将待处理文本输入语言生成模型,得到所述待处理文本对应的多个候选标题及其的概率,包括:
将待处理文本输入序列到序列模型的编码器,得到中间语义向量;
将所述中间语义向量输入序列到序列模型的解码器,得到初始时间步的多个词序列及其的概率;
根据当前时间步的词序列和所述解码器,确定当前时间步的词序列后是否衔接结束符;
在当前时间步的词序列没有衔接结束符的情况下,将当前时间步的多个词序列进行分组;
采用集束搜索算法根据词库中词语的分值确定词序列的衔接词;其中,如果所述词语在其他组中出现过,则减少所述词语的分值;
根据所述衔接词,更新当前时间步的多个词序列及其概率;返回确定当前时间步的词序列后是否衔接结束符的步骤,直至各词序列后衔接结束符时,输出各词序列作为所述待处理文本对应的多个候选标题。
7.根据权利要求3所述的标题生成方法,其特征在于,所述标题可用性判别模型包括二分类模型;在将所述待处理文本的标题输入标题可用性判别模型之前,还包括:
识别所述待处理文本的标题的语法成分;
根据所述语法成分将所述待处理文本的标题划分为多个词语;
剔除所述待处理文本的标题中的部分词语,获得不完整标题;
以所述待处理文本的标题作为正例,以所述不完整标题作为负例,训练所述二分类模型。
8.一种标题生成装置,其特征在于,包括:
获取模块,将待处理文本输入语言生成模型,得到所述待处理文本对应的多个候选标题及其的概率;
计算模块,用于计算所述多个候选标题的困惑度;
生成模块,用于根据所述多个候选标题的概率及困惑度,生成所述待处理文本的标题。
9.根据权利要求8所述的标题生成装置,其特征在于,生成模块包括:
求和单元,用于根据预设的概率权重和困惑度权重,对所述多个候选标题的概率和困惑度进行加权求和,得到多个候选标题的分值;
确定单元,用于将分值最高的候选标题确定为所述待处理文本的标题。
10.根据权利要求8所述的标题生成装置,其特征在于,所述装置还包括:
输入模块,用于将所述待处理文本的标题输入标题可用性判别模型;
第一识别模块,用于使用所述标题可用性判别模型识别所述待处理文本的标题是否可用。
11.根据权利要求8所述的标题生成装置,其特征在于,所述装置还包括:
预训练模块,用于根据用于预训练的模型获得语言生成模型的初始化网络结构;
第一训练模块,用于采用训练数据训练具有所述初始化网络结构的语言生成模型。
12.根据权利要求8所述的标题生成装置,其特征在于,所述语言生成模型为序列到序列模型;获取模块包括:
编码单元,用于将待处理文本输入序列到序列模型的编码器,得到中间语义向量;
解码单元,用于将所述中间语义向量输入序列到序列模型的解码器,得到初始时间步的多个词序列及其的概率;
结束判定单元,用于根据当前时间步的词序列和所述解码器,确定当前时间步的词序列后是否衔接结束符;
分组单元,用于在当前时间步的词序列没有衔接结束符的情况下,将当前时间步的多个词序列进行分组;
选取单元,用于采用集束搜索算法根据词库中词语的分值确定词序列的衔接词;其中,如果所述词语在其他组中出现过,则减少所述词语的分值;
输出单元,用于根据所述衔接词,更新当前时间步的多个词序列及其概率;返回确定当前时间步的词序列后是否衔接结束符的步骤,直至各词序列后衔接结束符时,输出各词序列作为所述待处理文本对应的多个候选标题。
13.根据权利要求10所述的标题生成装置,其特征在于,所述标题可用性判别模型包括二分类模型;所述装置还包括:
第二识别模块,用于识别所述待处理文本的标题的语法成分;
划分模块,用于根据所述语法成分将所述待处理文本的标题划分为多个词语;
剔除模块,用于剔除所述待处理文本的标题中的部分词语,获得不完整标题;
第二训练模块,用于以所述待处理文本的标题作为正例,以所述不完整标题作为负例,训练所述二分类模型。
14.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7中任一项所述的方法。
15.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-7中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910947572.3A CN110717327B (zh) | 2019-09-29 | 2019-09-29 | 标题生成方法、装置、电子设备和存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910947572.3A CN110717327B (zh) | 2019-09-29 | 2019-09-29 | 标题生成方法、装置、电子设备和存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110717327A true CN110717327A (zh) | 2020-01-21 |
CN110717327B CN110717327B (zh) | 2023-12-29 |
Family
ID=69212230
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910947572.3A Active CN110717327B (zh) | 2019-09-29 | 2019-09-29 | 标题生成方法、装置、电子设备和存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110717327B (zh) |
Cited By (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111401037A (zh) * | 2020-06-05 | 2020-07-10 | 平安国际智慧城市科技股份有限公司 | 自然语言的生成方法、装置、电子设备及存储介质 |
CN111460133A (zh) * | 2020-03-27 | 2020-07-28 | 北京百度网讯科技有限公司 | 主题短语生成方法、装置以及电子设备 |
CN111460801A (zh) * | 2020-03-30 | 2020-07-28 | 北京百度网讯科技有限公司 | 标题生成方法、装置及电子设备 |
CN111489803A (zh) * | 2020-03-31 | 2020-08-04 | 重庆金域医学检验所有限公司 | 基于自回归模型的报告单编码模型生成方法、系统和设备 |
CN111680482A (zh) * | 2020-05-07 | 2020-09-18 | 车智互联(北京)科技有限公司 | 一种标题图文生成方法及计算设备 |
CN111709248A (zh) * | 2020-05-28 | 2020-09-25 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、装置及电子设备 |
CN111723295A (zh) * | 2020-06-30 | 2020-09-29 | 腾讯科技(深圳)有限公司 | 一种内容分发方法、装置和存储介质 |
CN111767720A (zh) * | 2020-07-28 | 2020-10-13 | 腾讯科技(深圳)有限公司 | 一种标题生成方法、计算机及可读存储介质 |
CN111898369A (zh) * | 2020-08-17 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 文章标题生成方法、模型的训练方法、装置和电子设备 |
CN111930929A (zh) * | 2020-07-09 | 2020-11-13 | 车智互联(北京)科技有限公司 | 一种文章标题生成方法、装置及计算设备 |
CN111984845A (zh) * | 2020-08-17 | 2020-11-24 | 江苏百达智慧网络科技有限公司 | 网站错别字识别方法和系统 |
CN112348362A (zh) * | 2020-11-06 | 2021-02-09 | 中国平安人寿保险股份有限公司 | 岗位候选人的确定方法、装置、设备及介质 |
CN112860869A (zh) * | 2021-03-11 | 2021-05-28 | 中国平安人寿保险股份有限公司 | 基于分层强化学习网络的对话方法、装置及存储介质 |
CN113392639A (zh) * | 2020-09-30 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的标题生成方法、装置及服务器 |
CN113392640A (zh) * | 2020-10-13 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 一种标题确定方法、装置、设备及存储介质 |
CN113449511A (zh) * | 2020-03-24 | 2021-09-28 | 百度在线网络技术(北京)有限公司 | 文本处理的方法、装置、设备和存储介质 |
CN113806483A (zh) * | 2021-09-17 | 2021-12-17 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备及计算机程序产品 |
US11741302B1 (en) | 2022-05-18 | 2023-08-29 | Microsoft Technology Licensing, Llc | Automated artificial intelligence driven readability scoring techniques |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107797982A (zh) * | 2016-08-31 | 2018-03-13 | 百度在线网络技术(北京)有限公司 | 用于识别文本类型的方法、装置和设备 |
CN107832299A (zh) * | 2017-11-17 | 2018-03-23 | 北京百度网讯科技有限公司 | 基于人工智能的标题的改写处理方法、装置及可读介质 |
US20180254036A1 (en) * | 2015-11-06 | 2018-09-06 | Alibaba Group Holding Limited | Speech recognition method and apparatus |
CN109117485A (zh) * | 2018-09-06 | 2019-01-01 | 北京京东尚科信息技术有限公司 | 祝福语文本生成方法和装置、计算机可读存储介质 |
CN109344830A (zh) * | 2018-08-17 | 2019-02-15 | 平安科技(深圳)有限公司 | 语句输出、模型训练方法、装置、计算机设备及存储介质 |
CN109614625A (zh) * | 2018-12-17 | 2019-04-12 | 北京百度网讯科技有限公司 | 标题正文相关度的确定方法、装置、设备及存储介质 |
CN110083710A (zh) * | 2019-04-30 | 2019-08-02 | 北京工业大学 | 一种基于循环神经网络与潜变量结构的词语定义生成方法 |
CN110232183A (zh) * | 2018-12-07 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 关键词提取模型训练方法、关键词提取方法、装置及存储介质 |
CN110245353A (zh) * | 2019-06-20 | 2019-09-17 | 腾讯科技(深圳)有限公司 | 自然语言表示方法、装置、设备及存储介质 |
-
2019
- 2019-09-29 CN CN201910947572.3A patent/CN110717327B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180254036A1 (en) * | 2015-11-06 | 2018-09-06 | Alibaba Group Holding Limited | Speech recognition method and apparatus |
CN107797982A (zh) * | 2016-08-31 | 2018-03-13 | 百度在线网络技术(北京)有限公司 | 用于识别文本类型的方法、装置和设备 |
CN107832299A (zh) * | 2017-11-17 | 2018-03-23 | 北京百度网讯科技有限公司 | 基于人工智能的标题的改写处理方法、装置及可读介质 |
CN109344830A (zh) * | 2018-08-17 | 2019-02-15 | 平安科技(深圳)有限公司 | 语句输出、模型训练方法、装置、计算机设备及存储介质 |
CN109117485A (zh) * | 2018-09-06 | 2019-01-01 | 北京京东尚科信息技术有限公司 | 祝福语文本生成方法和装置、计算机可读存储介质 |
CN110232183A (zh) * | 2018-12-07 | 2019-09-13 | 腾讯科技(深圳)有限公司 | 关键词提取模型训练方法、关键词提取方法、装置及存储介质 |
CN109614625A (zh) * | 2018-12-17 | 2019-04-12 | 北京百度网讯科技有限公司 | 标题正文相关度的确定方法、装置、设备及存储介质 |
CN110083710A (zh) * | 2019-04-30 | 2019-08-02 | 北京工业大学 | 一种基于循环神经网络与潜变量结构的词语定义生成方法 |
CN110245353A (zh) * | 2019-06-20 | 2019-09-17 | 腾讯科技(深圳)有限公司 | 自然语言表示方法、装置、设备及存储介质 |
Non-Patent Citations (1)
Title |
---|
李少华;李卫疆;余正涛;: "基于GV-LDA的微博话题检测研究", 软件导刊, no. 02 * |
Cited By (32)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113449511A (zh) * | 2020-03-24 | 2021-09-28 | 百度在线网络技术(北京)有限公司 | 文本处理的方法、装置、设备和存储介质 |
CN111460133A (zh) * | 2020-03-27 | 2020-07-28 | 北京百度网讯科技有限公司 | 主题短语生成方法、装置以及电子设备 |
CN111460133B (zh) * | 2020-03-27 | 2023-08-18 | 北京百度网讯科技有限公司 | 主题短语生成方法、装置以及电子设备 |
CN111460801A (zh) * | 2020-03-30 | 2020-07-28 | 北京百度网讯科技有限公司 | 标题生成方法、装置及电子设备 |
CN111460801B (zh) * | 2020-03-30 | 2023-08-18 | 北京百度网讯科技有限公司 | 标题生成方法、装置及电子设备 |
CN111489803A (zh) * | 2020-03-31 | 2020-08-04 | 重庆金域医学检验所有限公司 | 基于自回归模型的报告单编码模型生成方法、系统和设备 |
CN111680482B (zh) * | 2020-05-07 | 2024-04-12 | 车智互联(北京)科技有限公司 | 一种标题图文生成方法及计算设备 |
CN111680482A (zh) * | 2020-05-07 | 2020-09-18 | 车智互联(北京)科技有限公司 | 一种标题图文生成方法及计算设备 |
CN111709248A (zh) * | 2020-05-28 | 2020-09-25 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、装置及电子设备 |
CN111709248B (zh) * | 2020-05-28 | 2023-07-11 | 北京百度网讯科技有限公司 | 文本生成模型的训练方法、装置及电子设备 |
CN111401037A (zh) * | 2020-06-05 | 2020-07-10 | 平安国际智慧城市科技股份有限公司 | 自然语言的生成方法、装置、电子设备及存储介质 |
CN111401037B (zh) * | 2020-06-05 | 2020-11-06 | 平安国际智慧城市科技股份有限公司 | 自然语言的生成方法、装置、电子设备及存储介质 |
CN111723295B (zh) * | 2020-06-30 | 2023-10-17 | 腾讯科技(深圳)有限公司 | 一种内容分发方法、装置和存储介质 |
CN111723295A (zh) * | 2020-06-30 | 2020-09-29 | 腾讯科技(深圳)有限公司 | 一种内容分发方法、装置和存储介质 |
CN111930929A (zh) * | 2020-07-09 | 2020-11-13 | 车智互联(北京)科技有限公司 | 一种文章标题生成方法、装置及计算设备 |
CN111930929B (zh) * | 2020-07-09 | 2023-11-10 | 车智互联(北京)科技有限公司 | 一种文章标题生成方法、装置及计算设备 |
CN111767720B (zh) * | 2020-07-28 | 2023-11-24 | 腾讯科技(深圳)有限公司 | 一种标题生成方法、计算机及可读存储介质 |
CN111767720A (zh) * | 2020-07-28 | 2020-10-13 | 腾讯科技(深圳)有限公司 | 一种标题生成方法、计算机及可读存储介质 |
CN111898369A (zh) * | 2020-08-17 | 2020-11-06 | 腾讯科技(深圳)有限公司 | 文章标题生成方法、模型的训练方法、装置和电子设备 |
CN111984845B (zh) * | 2020-08-17 | 2023-10-31 | 江苏百达智慧网络科技有限公司 | 网站错别字识别方法和系统 |
CN111984845A (zh) * | 2020-08-17 | 2020-11-24 | 江苏百达智慧网络科技有限公司 | 网站错别字识别方法和系统 |
CN111898369B (zh) * | 2020-08-17 | 2024-03-08 | 腾讯科技(深圳)有限公司 | 文章标题生成方法、模型的训练方法、装置和电子设备 |
CN113392639B (zh) * | 2020-09-30 | 2023-09-26 | 腾讯科技(深圳)有限公司 | 基于人工智能的标题生成方法、装置及服务器 |
CN113392639A (zh) * | 2020-09-30 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 基于人工智能的标题生成方法、装置及服务器 |
CN113392640A (zh) * | 2020-10-13 | 2021-09-14 | 腾讯科技(深圳)有限公司 | 一种标题确定方法、装置、设备及存储介质 |
CN113392640B (zh) * | 2020-10-13 | 2024-01-23 | 腾讯科技(深圳)有限公司 | 一种标题确定方法、装置、设备及存储介质 |
CN112348362A (zh) * | 2020-11-06 | 2021-02-09 | 中国平安人寿保险股份有限公司 | 岗位候选人的确定方法、装置、设备及介质 |
CN112860869A (zh) * | 2021-03-11 | 2021-05-28 | 中国平安人寿保险股份有限公司 | 基于分层强化学习网络的对话方法、装置及存储介质 |
CN112860869B (zh) * | 2021-03-11 | 2023-02-03 | 中国平安人寿保险股份有限公司 | 基于分层强化学习网络的对话方法、装置及存储介质 |
CN113806483B (zh) * | 2021-09-17 | 2023-09-05 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备及计算机程序产品 |
CN113806483A (zh) * | 2021-09-17 | 2021-12-17 | 北京百度网讯科技有限公司 | 数据处理方法、装置、电子设备及计算机程序产品 |
US11741302B1 (en) | 2022-05-18 | 2023-08-29 | Microsoft Technology Licensing, Llc | Automated artificial intelligence driven readability scoring techniques |
Also Published As
Publication number | Publication date |
---|---|
CN110717327B (zh) | 2023-12-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110717327A (zh) | 标题生成方法、装置、电子设备和存储介质 | |
CN111428507B (zh) | 实体链指方法、装置、设备以及存储介质 | |
JP7247441B2 (ja) | セマンティック表現モデルの処理方法、装置、電子機器、及び記憶媒体 | |
CN111523326B (zh) | 实体链指方法、装置、设备以及存储介质 | |
JP7169389B2 (ja) | 文書タイトルツリーの構築方法、装置、電子設備、記憶媒体、及びプログラム | |
AU2017408800B2 (en) | Method and system of mining information, electronic device and readable storable medium | |
JP7108675B2 (ja) | 意味マッチング方法、装置、電子機器、記憶媒体及びコンピュータプログラム | |
CN110797005B (zh) | 韵律预测方法、装置、设备和介质 | |
CN111709248A (zh) | 文本生成模型的训练方法、装置及电子设备 | |
KR102472708B1 (ko) | 감정 분석 모델을 사전 트레이닝하는 방법, 장치 및 전자 기기 | |
CN102439540A (zh) | 输入法编辑器 | |
CN111950291A (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111079945B (zh) | 端到端模型的训练方法及装置 | |
CN110738997B (zh) | 一种信息修正方法、装置、电子设备及存储介质 | |
CN111143561A (zh) | 意图识别模型训练方法、装置及电子设备 | |
EP3929768A1 (en) | Method and apparatus for generating triple sample, electronic device and computer storage medium | |
CN111783443A (zh) | 文本扰动检测方法、扰动还原方法、扰动处理方法和装置 | |
CN111950256A (zh) | 断句处理方法、装置、电子设备和计算机存储介质 | |
CN111160013A (zh) | 文本纠错方法及装置 | |
CN111522944A (zh) | 用于输出信息的方法、装置、设备以及存储介质 | |
CN112528605A (zh) | 文本风格处理方法、装置、电子设备和存储介质 | |
CN112560499A (zh) | 语义表示模型的预训练方法、装置、电子设备及存储介质 | |
CN111738015A (zh) | 文章情感极性分析方法、装置、电子设备及存储介质 | |
CN112052390A (zh) | 一种资源筛选方法、装置、电子设备及存储介质 | |
US11893977B2 (en) | Method for recognizing Chinese-English mixed speech, electronic device, and storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |