CN113626581A - 摘要生成方法及装置、计算机可读存储介质、电子设备 - Google Patents
摘要生成方法及装置、计算机可读存储介质、电子设备 Download PDFInfo
- Publication number
- CN113626581A CN113626581A CN202010377617.0A CN202010377617A CN113626581A CN 113626581 A CN113626581 A CN 113626581A CN 202010377617 A CN202010377617 A CN 202010377617A CN 113626581 A CN113626581 A CN 113626581A
- Authority
- CN
- China
- Prior art keywords
- candidate
- abstract
- phrase
- calculating
- phrases
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 238000013528 artificial neural network Methods 0.000 claims description 18
- 230000015654 memory Effects 0.000 claims description 15
- 230000000306 recurrent effect Effects 0.000 claims description 14
- 238000004364 calculation method Methods 0.000 claims description 11
- 230000002457 bidirectional effect Effects 0.000 claims description 8
- 238000010845 search algorithm Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 2
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000003058 natural language processing Methods 0.000 abstract description 2
- 238000001816 cooling Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 4
- 125000004122 cyclic group Chemical group 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000012163 sequencing technique Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000013598 vector Substances 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007418 data mining Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 238000003780 insertion Methods 0.000 description 1
- 230000037431 insertion Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 238000005057 refrigeration Methods 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 229910052709 silver Inorganic materials 0.000 description 1
- 239000004332 silver Substances 0.000 description 1
- 230000002194 synthesizing effect Effects 0.000 description 1
- 238000010257 thawing Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/216—Parsing using statistical methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本发明实施例是关于一种摘要生成方法及装置、计算机可读存储介质、电子设备,涉及自然语言处理技术,该方法包括:根据目标对象的原始描述文本中包括的多个短语的高度值以及权重值计算各短语的重要性得分;根据各重要性得分对各短语进行排序,并根据排序结果从各短语中确定多个候选词组;根据各候选词组以及原始描述文本计算目标对象的候选摘要,并根据各候选词组在各候选摘要中的困惑度计算各候选摘要的可读性得分;根据各候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各候选摘要的总体得分,并将总体得分最高的候选摘要作为目标对象的目标摘要。本发明实施例提高目标摘要的精确度。
Description
技术领域
本发明实施例涉及自然语言处理技术领域,具体而言,涉及一种摘要生成方法、摘要生成装置、计算机可读存储介质以及电子设备。
背景技术
商品摘要自动生成是利用自然语言生成技术,根据商品的详细文本介绍,自动生成短摘要的任务。商品的详细文本介绍中会包含很多卖点短语,这些卖点有较强的营销效果,如果这些卖点出现在生成的商品摘要中,将会提高摘要的质量。
现有的商品摘要生成方案中,主要是通过受限解码的方式,强制模型自动生成的文本中包含指定的短语,借助受限解码可以使指定的卖点出现在商品摘要中。
但是,上述方案存在如下缺陷:针对某一个商品,有些卖点短语可能过于生僻或与摘要语境不符,导致无法自然地融入到生成的摘要中,因此会使得最终生成的摘要的可读性较差,进而导致生成的摘要的精确度较低。
因此,需要提供一种新的摘要生成方法及装置。
需要说明的是,在上述背景技术部分发明的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明的目的在于提供一种摘要生成方法、摘要生成装置、计算机可读存储介质以及电子设备,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的生成的摘要的精确度较低的问题。
根据本公开的一个方面,提供一种摘要生成方法,包括:
根据目标对象的原始描述文本中包括的多个短语的高度值以及权重值计算各所述短语的重要性得分;
根据各所述重要性得分对各所述短语进行排序,并根据排序结果从各所述短语中确定多个候选词组;
根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要,并根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分;
根据各所述候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各所述候选摘要的总体得分,并将总体得分最高的候选摘要作为所述目标对象的目标摘要。
在本公开的一种示例性实施例中,所述摘要生成方法还包括:
计算各所述短语在所述原始描述文本中的高度值以及权重值。
在本公开的一种示例性实施例中,计算各所述短语在所述原始描述文本中的高度值以及权重值包括:
根据各所述短语在所述原始描述文本中的文本大小,计算各所述短语在所述原始描述文本中的高度值;
根据各所述短语在所述原始描述文本中出现的次数、所述短语的总数以及各所述短语在所有的短语中出现的次数,计算各所述所述短语在所述原始描述文本中的权重值。
在本公开的一种示例性实施例中,根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要包括:
利用摘要生成模型中的编码器对所述原始描述文本进行编码,生成隐层序列;其中,所述编码器为双向循环神经网络;
利用所述摘要生成模型中的解码器对所述隐层序列进行解码,生成多个词序列;其中,所述解码器为单项循环神经网络;
基于网格集束搜索算法,根据各所述词序列与各所述候选词组之间的上下文关系,将各所述候选词组插入至所述词序列中,得到所述目标对象的候选摘要;其中,每一个所述目标对象的候选摘要中均包括一个所述候选词组。
在本公开的一种示例性实施例中,在根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要之后,所述摘要生成方法还包括:
计算各所述候选词组在各所述候选摘要中的困惑度。
在本公开的一种示例性实施例中,计算各所述候选词组在各所述候选摘要中的困惑度包括:
根据各所述候选词组在各所述候选摘要中的位置,确定各所述候选摘要中与各所述候选词组对应的前置词以及后置词;
计算各所述前置词出现后,出现各所述候选词组的前置概率,以及出现各所述候选词组以后,出现各所述后置词的后置概率;
根据各所述前置概率以及后置概率,计算各所述候选词组在各所述候选摘要中的前置困惑度以及后置困惑度。
在本公开的一种示例性实施例中,根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分包括:
根据各所述候选词组在各所述候选摘要中的前置困惑度以及各所述后置困惑度,计算计算各所述候选摘要的可读性得分;
其中,各所述候选摘要的可读性得分与各所述候选词组在各所述候选摘要中的前置困惑度以及各所述后置困惑度,呈负相关。
根据本公开的一个方面,提供一种摘要生成装置,包括:
第一计算模块,用于根据目标对象的原始描述文本中包括的多个短语的高度值以及权重值计算各所述短语的重要性得分;
候选词组确定模块,用于根据各所述重要性得分对各所述短语进行排序,并根据排序结果从各所述短语中确定多个候选词组;
第二计算模块,用于根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要,并根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分;
第三计算模块,用于根据各所述候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各所述候选摘要的总体得分,并将总体得分最高的候选摘要作为所述目标对象的目标摘要。
根据本公开的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上述任意一项所述的摘要生成方法。
根据本公开的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行上述任意一项所述的摘要生成方法。
本发明实施例提供的一种摘要生成方法,一方面,根据各短语在原始描述文本中的高度值以及权重值计算各短语的重要性得分,并根据各重要性得分对各短语进行排序,并根据排序结果从各短语中确定多个候选词组;然后根据各候选词组以及原始描述文本计算目标对象的候选摘要,并根据各候选词组在各候选摘要中的困惑度计算各候选摘要的可读性得分;最后根据各候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各候选摘要的总体得分,并将总体得分最高的候选摘要作为目标对象的目标摘要,使得目标摘要同时考虑到了可读性以及候选词组的重要性,提高了目标摘要的精确度;另一方面,解决了现有技术中由于一些卖点短语可能过于生僻或与摘要语境不符,导致无法自然地融入到生成的摘要中,因此会使得最终生成的摘要的可读性较差,进而导致生成的摘要的精确度较低的问题,提高了目标摘要的可读性;再一方面,由于候选词组是通过从原始描述文本中选择得到的,因此避免了生僻或与摘要语境不符的问题。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并与说明书一起用于解释本发明的原理。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示意性示出根据本发明示例实施例的一种摘要生成方法的流程图。
图2示意性示出根据本发明示例实施例的一种解码器的示例图。
图3示意性示出根据本发明示例实施例的一种编码器的示例图。
图4示意性示出根据本发明示例实施例的一种据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要的方法流程图。
图5示意性示出根据本发明示例实施例的一种计算各所述候选词组在各所述候选摘要中的困惑度的方法流程图。
图6示意性示出根据本发明示例实施例的另一种摘要生成方法的流程图。
图7示意性示出根据本发明示例实施例的一种摘要生成装置的框图。
图8示意性示出根据本发明示例实施例的一种用于实现上述摘要生成方法的电子设备。
具体实施方式
现在将参考附图更全面地描述示例实施方式。然而,示例实施方式能够以多种形式实施,且不应被理解为限于在此阐述的范例;相反,提供这些实施方式使得本发明将更加全面和完整,并将示例实施方式的构思全面地传达给本领域的技术人员。所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施方式中。在下面的描述中,提供许多具体细节从而给出对本发明的实施方式的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而省略所述特定细节中的一个或更多,或者可以采用其它的方法、组元、装置、步骤等。在其它情况下,不详细示出或描述公知技术方案以避免喧宾夺主而使得本发明的各方面变得模糊。
此外,附图仅为本发明的示意性图解,并非一定是按比例绘制。图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。附图中所示的一些方框图是功能实体,不一定必须与物理或逻辑上独立的实体相对应。可以采用软件形式来实现这些功能实体,或在一个或多个硬件模块或集成电路中实现这些功能实体,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
商品摘要自动生成是利用自然语言生成技术,根据商品的详细文本介绍,自动生成短摘要的任务。商品的详细文本介绍中会包含很多卖点短语(一个词或多个词),这些卖点有较强的营销效果,如果这些卖点出现在生成的商品摘要中,将会提高摘要的质量。
受限解码(Constrained Decoding)可以强制模型自动生成的文本中包含指定的短语,借助受限解码可以使指定的卖点出现在商品摘要中。受限解码技术是基于网格集束搜索(Grid Beam Search)算法。
具体来说,商品摘要自动生成模型包括一个编码器和一个解码器。输入一段商品的详细描述,编码器将其编码,生成一个隐层序列;解码器利用该隐层序列逐词生成目标摘要。在解码时,对于解码过程的每一个位置,网格集束搜索算法会强制插入指定的短语并在此基础上继续生成剩余词语,直到生成包含指定短语的完整摘要。最终,在所有包含指定短语的集束候选句中,选取困惑度最小的句子作为最终的结果。
例如,原始的输出句子是(a1,a2,a3,a4),其中a为一个词,指定短语为(b1,b2),其中b为一个词,受限解码后,输出候选为{(b1,b2,a1,a2,a3,a4),(a1,b1,b2,a2,a3,a4),(a1,a2,b1,b2,a3,a4),(a1,a2,a3,b1,b2,a4),(a1,a2,a3,a4,b1,b2)},在这些候选中选取困惑度最小的句子作为最终的输出摘要。
但是,基于传统的受限解码的摘要生成模型存在可读性差的问题。针对某一个商品,有些卖点短语可能过于生僻或与摘要语境不符,导致无法自然地融入到生成的摘要中。如果指定了这样的卖点短语进行受限解码,最终生成的摘要的可读性将会非常差,反而降低了营销效果。
基于此,本发明示例实施方式中首先提供了一种摘要生成方法,该方法可以运行于服务器、服务器集群或云服务器等;当然,本领域技术人员也可以根据需求在其他平台运行本发明的方法,本示例性实施例中对此不做特殊限定。参考图1所示,该摘要生成方法可以包括以下步骤:
步骤S110.根据目标对象的原始描述文本中包括的多个短语的高度值以及权重值计算各所述短语的重要性得分。
步骤S120.根据各所述重要性得分对各所述短语进行排序,并根据排序结果从各所述短语中确定多个候选词组。
步骤S130.根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要,并根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分。
步骤S140.根据各所述候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各所述候选摘要的总体得分,并将总体得分最高的候选摘要作为所述目标对象的目标摘要。
上述摘要生成方法中,一方面,根据各短语在原始描述文本中的高度值以及权重值计算各短语的重要性得分,并根据各重要性得分对各短语进行排序,并根据排序结果从各短语中确定多个候选词组;然后根据各候选词组以及原始描述文本计算目标对象的候选摘要,并根据各候选词组在各候选摘要中的困惑度计算各候选摘要的可读性得分;最后根据各候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各候选摘要的总体得分,并将总体得分最高的候选摘要作为目标对象的目标摘要,使得目标摘要同时考虑到了可读性以及候选词组的重要性,提高了目标摘要的精确度;另一方面,解决了现有技术中由于一些卖点短语可能过于生僻或与摘要语境不符,导致无法自然地融入到生成的摘要中,因此会使得最终生成的摘要的可读性较差,进而导致生成的摘要的精确度较低的问题,提高了目标摘要的可读性;再一方面,由于候选词组是通过从原始描述文本中选择得到的,因此避免了生僻或与摘要语境不符的问题。
以下,将结合附图对本发明示例实施例摘要生成方法中包括的各步骤进行详细的解释以及说明。
首先,对本发明示例实施例的发明目的进行解释以及说明。本发明示例实施例提出一种基于动态受限解码的商品摘要自动生成方法。基于文本高度和TF-IDF计算商品详细文本介绍中的短语的重要性得分,选取重要性得分前五的短语作为候选卖点。利用生成摘要中的候选卖点前后的困惑度计算候选摘要的可读性得分。综合重要性得分和可读性得分,动态选取的最终的解码卖点和商品摘要,从而可以使生成的摘要即包含重要的卖点,又保证了较高的可读性。
其次,对本发明示例实施例中涉及到的名词进行解释以及说明。
TF-IDF:一种用于信息检索与数据挖掘的常用加权技术。TF意思是词频(TermFrequency),IDF意思是逆文本频率指数(Inverse Document Frequency)。TF-IDF由TF与IDF相乘得到。具体的:
单向循环神经网络:所谓的单向循环神经网络其实就是常见的循环神经网络,每个时刻t的输入是xt,输出是ot,隐层状态是st。如图2所示,t时刻的隐层状态受到t-1时刻的隐层状态的影响,t时刻的隐层状态继而会影响到t+1时刻的隐层状态,依次类推,U、V以及W为各层的共享权值。
双向循环神经网络:双向循环神经网络按时刻展开的结构可以如图3所示,可以看到向前和向后层共同连接着输出层,其中包含了6个共享权值,分别为输入到向前层和向后层两个权值、向前层和向后层各自隐含层到隐含层的权值、向前层和向后层各自隐含层到输出层的权值。
其中,ht为向前层的隐藏向量,h't为向后层的隐藏向量,ot为输出层,w1、w2、w3、w4、w5以及w6分别各层的共享权值,f(·)以及g(·)为具体的神经网络,该神经网络可以为双向长短器记忆网络。
集束搜索算法,Beam Search Algorithm,是一种启发式图搜索算法,通常用在图的解空间比较大的情况下,为了减少搜索所占用的空间和时间,在每一步深度扩展的时候,剪掉一些质量比较差的结点,保留下一些质量较高的结点。这样减少了空间消耗,并提高了时间效率。
使用广度优先建立策略建立搜索树,在树的每一层,按照启发代价对节点进行排序,然后仅保留预先确定的个数(Beam Width-集束宽度)的节点,仅这些节点在下一层次继续扩展,其他节点则被剪掉。
以下,将对步骤S110-步骤S140进行解释以及说明。
在步骤S110中,根据目标对象的原始描述文本中包括的多个短语的高度值以及权重值计算各所述短语的重要性得分。
首先,在本示例实施例中,上述目标对象的原始描述文本例如可以是商品的详细描述;譬如,对于XX品牌的冰箱来说,其详细描述可以包括:品牌名称、主体、功能、规格、特性、参数等等多个属性,各属性中包括的属性值即可以作为上述短语,譬如,短语可以包括:银色、对开门、LED显示、风冷、压缩机制冷、智能除霜、变频、双循环、大容量、净味保鲜、精细存储、电脑控温等等。
其次,在本示例实施例中,为了可以计算各短语的重要性得分,还需要计算各短语的高度值以及权重值。具体的可以包括:计算各所述短语在所述原始描述文本中的高度值以及权重值。其中,计算各所述短语在所述原始描述文本中的高度值以及权重值包括:首先,根据各所述短语在所述原始描述文本中的文本大小,计算各所述短语在所述原始描述文本中的高度值;其次,根据各所述短语在所述原始描述文本中出现的次数、所述短语的总数以及各所述短语在所有的短语中出现的次数,计算各所述所述短语在所述原始描述文本中的权重值。
譬如,对于短语xi来说,可以根据其在原始描述文本中的文本大小,得到对应的高度值hi;此处需要补充说明的是,由于原始描述文本中的各短语均是以图片的形式存在的,因此可以直接根据该图片的文本的大小,得到对应的高度值;当然,为了突出各目标对象的卖点,需要重点强调的卖点短语是以加粗和/或加大字体进行显示的,这也使得该短语的高度值较大,这与本发明示例实施例的思路是一致的。
进一步的,对于短语xi来说,可以根据如下方式计算得到对应的权重值di:
其中,包含短语xi的文档数即为各短语在所有的短语中出现的次数。
更进一步的,当得到上述高度值以及权重值以后,可以计算短语xi的重要性得分。其中,短语xi的重要性得分si的计算方法可以如下所示:
si=hi*di。
在步骤S120中,根据各所述重要性得分对各所述短语进行排序,并根据排序结果从各所述短语中确定多个候选词组。
在本示例实施例中,当得到各短语xi的重要性得分si以后,可以根据重要性得分的大小对各短语进行排序,然后将得分最高的若干个短语作为候选词组,也就是候选卖点。在本发明中,为了可以兼顾计算量以及计算结果的准确度,因此选取了得分最高的前五个短语作为候选词组。例如分别为(b1,b2),(b3,b4),(b5,b6,b7),(b8,b9),(b10,b11,b12);其中,每一个b都是一个词。例如,b1是风冷,b2是无霜,则(b1,b2)可以为风冷无霜。通过该方法,可以基于目标对象(商品)的不同,计算与其对应的候选卖点,进而可以提高候选卖点的准确率。
在步骤S130中,根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要,并根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分。
在本示例实施例中,首先,根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要。具体的,参考图4所示,根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要可以包括步骤S410-步骤S430。其中:
在步骤S410中,利用摘要生成模型中的编码器对所述原始描述文本进行编码,生成隐层序列;其中,所述编码器为双向循环神经网络。
在步骤S420中,利用所述摘要生成模型中的解码器对所述隐层序列进行解码,生成多个词序列;其中,所述解码器为单项循环神经网络;
在步骤S430中,基于网格集束搜索算法,根据各所述词序列与各所述候选词组之间的上下文关系,将各所述候选词组插入至所述词序列中,得到所述目标对象的候选摘要;其中,每一个所述目标对象的候选摘要中均包括一个所述候选词组。
以下,将对步骤S410-步骤S430进行解释以及说明。首先,上述编码器可以是双向循环神经网络,解码器可以是单向循环神经网络,该神经网络例如可以是长短期记忆网络。进一步的,当输入一段商品的详细描述原始描述文本后,编码器可以对其进行编码,生成一个隐层序列;解码器可以利用该隐层序列逐词生成目标摘要。在解码时,对于解码过程的每一个位置(每个位置输出一个词序列),网格集束搜索算法会强制插入候选词组并在此基础上继续生成剩余词序列,直到生成包含候选词组的完整摘要。具体的,各候选摘要例如可以是:{(a1,b1,b2,a2,a3,a4),(a1,a2,a3,b3,b4,a4),(a1,a2,a3,a4,b5,b6,b7),(b8,b9,a1,a2,a3,a4),(a1,b10,b11,b12,a2,a3,a4)},其中每一个a是原始摘要中的一个词。
此处需要进一步补充说明的是,编码器采用双向循环神经网络,可以提高隐层序列的准确性;解码器采用单向循环神经网络,便于各候选词组进行插入,进而提高候选摘要生成的效率。
进一步的,当得到上述候选摘要以后,为了可以得到各候选摘要的可读性得分,还需要计算各候选词组的困惑度。具体的,计算各所述候选词组在各所述候选摘要中的困惑度。其中,参考图5所示,计算各所述候选词组在各所述候选摘要中的困惑度可以包括步骤S510-步骤S530。其中:
在步骤S510中,根据各所述候选词组在各所述候选摘要中的位置,确定各所述候选摘要中与各所述候选词组对应的前置词以及后置词。
在步骤S520中,计算各所述前置词出现后,出现各所述候选词组的前置概率,以及出现各所述候选词组以后,出现各所述后置词的后置概率。
在步骤S530中,根据各所述前置概率以及后置概率,计算各所述候选词组在各所述候选摘要中的前置困惑度以及后置困惑度。
以下,将对步骤S510-步骤S530进行解释以及说明。首先,根据各候选词组在各候选摘要中的位置,确定其对应前置词以及后置词。例如,以“风冷无霜”为卖点,则其前置词可以为“这款”,后置词可以为“冰箱”,然后计算出现这款以后,出现风冷的前置概率,以及出现这款风冷无霜以后,出现冰箱的后置概率;具体的,其概率可以由编码器计算并输出。进一步的,当得到前置概率以及后置概率以后,前置困惑度以及后置困惑度的计算方法可以如下所示:
前置困惑度:2-logP(风冷/这款);
后置困惑度:2-logP(冰箱/这款风冷无霜)。
进一步的,当得到前置困惑度以及后置困惑度以后,可以根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分。具体的可以包括:根据各所述候选词组在各所述候选摘要中的前置困惑度以及各所述后置困惑度,计算计算各所述候选摘要的可读性得分;其中,各所述候选摘要的可读性得分与各所述候选词组在各所述候选摘要中的前置困惑度以及各所述后置困惑度,呈负相关。其中,可读性得分ri具体计算方式可以如下所示:
ri=2-logP(风冷/这款)*2-logP(冰箱/这款风冷无霜)。
在步骤S140中,根据各所述候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各所述候选摘要的总体得分,并将总体得分最高的候选摘要作为所述目标对象的目标摘要。
在本示例实施例中,总体得分的计算方式具体可以如下所示:
ti=si*ri。其中,ti为各候选摘要的总体得分。
当得到各候选摘要的总台得分以后,可以将总体得分最高的摘要作为目标摘要,例如可以是(a1,a2,a3,a4,b5,b6,b7);由此,也可以确定该商品的卖点可以为(b5,b6,b7)。通过该方法,可以避免由于候选卖点过多造成的计算量过大,进而使得摘要生成效率较低的问题。
以下,将结合图6对对本发明示例实施例摘要生成方法进行进一步的解释以及说明。参考图6所示,该摘要生成方法可以包括以下步骤:
步骤S610,检测商品介绍中的每个短语的高度,并计算商品介绍中的每个短语的TF-IDF;
步骤S620,根据短语的高度以及TF-IDF计算商品介绍中的每个短语的重要性得分;
步骤S630,取得分前五的短语作为候选卖点,并针对每个候选卖点,通过受限解码生成候选商品摘要;
步骤S640,计算每一个候选商品摘要的可读性得分,并根据候选卖点的重要性得分以及候选商品摘要的可读性得分,选取最终的商品摘要。
本发明示例实施例提供的摘要生成方法,解决了现有技术中由于重要性得分最高的卖点短语仅仅是最有亮点的描述,并不一定是最合适出现在摘要中的卖点的问题,由于最合适的卖点还要与当前的摘要语境相吻合,使当其通过受限解码加入摘要中后,摘要有较高的可读性。因此,首先将单一固定的卖点扩充为可选择的动态卖点列表,然后分别针对每一个卖点,利用受限解码生成包含对应卖点的商品摘要,然后综合考虑重要性和可读性最终确定解码卖点和对应的商品摘要。
本发明示例实施例还提供了一种摘要生成装置。参考图7所示,该摘要生成装置可以包括第一计算模块710、候选词组确定模块720、第二计算模块730以及第三计算模块740。其中:
第一计算模块710可以用于根据目标对象的原始描述文本中包括的多个短语的高度值以及权重值计算各所述短语的重要性得分。
候选词组确定模块720可以用于根据各所述重要性得分对各所述短语进行排序,并根据排序结果从各所述短语中确定多个候选词组。
第二计算模块730可以用于根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要,并根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分。
第三计算模块740可以用于根据各所述候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各所述候选摘要的总体得分,并将总体得分最高的候选摘要作为所述目标对象的目标摘要。
在本公开的一种示例性实施例中,所述摘要生成装置还包括:
第四计算模块,可以用于计算各所述短语在所述原始描述文本中的高度值以及权重值。
在本公开的一种示例性实施例中,计算各所述短语在所述原始描述文本中的高度值以及权重值包括:
根据各所述短语在所述原始描述文本中的文本大小,计算各所述短语在所述原始描述文本中的高度值;
根据各所述短语在所述原始描述文本中出现的次数、所述短语的总数以及各所述短语在所有的短语中出现的次数,计算各所述所述短语在所述原始描述文本中的权重值。
在本公开的一种示例性实施例中,根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要包括:
利用摘要生成模型中的编码器对所述原始描述文本进行编码,生成隐层序列;其中,所述编码器为双向循环神经网络;
利用所述摘要生成模型中的解码器对所述隐层序列进行解码,生成多个词序列;其中,所述解码器为单项循环神经网络;
基于网格集束搜索算法,根据各所述词序列与各所述候选词组之间的上下文关系,将各所述候选词组插入至所述词序列中,得到所述目标对象的候选摘要;其中,每一个所述目标对象的候选摘要中均包括一个所述候选词组。
在本公开的一种示例性实施例中,所述摘要生成装置还包括:
困惑度计算模块,可以用于计算各所述候选词组在各所述候选摘要中的困惑度。
在本公开的一种示例性实施例中,计算各所述候选词组在各所述候选摘要中的困惑度包括:
根据各所述候选词组在各所述候选摘要中的位置,确定各所述候选摘要中与各所述候选词组对应的前置词以及后置词;
计算各所述前置词出现后,出现各所述候选词组的前置概率,以及出现各所述候选词组以后,出现各所述后置词的后置概率;
根据各所述前置概率以及后置概率,计算各所述候选词组在各所述候选摘要中的前置困惑度以及后置困惑度。
在本公开的一种示例性实施例中,根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分包括:
根据各所述候选词组在各所述候选摘要中的前置困惑度以及各所述后置困惑度,计算计算各所述候选摘要的可读性得分;
其中,各所述候选摘要的可读性得分与各所述候选词组在各所述候选摘要中的前置困惑度以及各所述后置困惑度,呈负相关。
上述摘要生成装置中各模块的具体细节已经在对应的摘要生成方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了用于动作执行的设备的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,尽管在附图中以特定顺序描述了本发明中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
在本发明的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施方式、完全的软件实施方式(包括固件、微代码等),或硬件和软件方面结合的实施方式,这里可以统称为“电路”、“模块”或“系统”。
下面参照图8来描述根据本发明的这种实施方式的电子设备800。图8显示的电子设备800仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图8所示,电子设备800以通用计算设备的形式表现。电子设备800的组件可以包括但不限于:上述至少一个处理单元810、上述至少一个存储单元820、连接不同系统组件(包括存储单元820和处理单元810)的总线830以及显示单元840。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元810执行,使得所述处理单元810执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。例如,所述处理单元810可以执行如图1中所示的步骤S110:根据目标对象的原始描述文本中包括的多个短语的高度值以及权重值计算各所述短语的重要性得分;步骤S120:根据各所述重要性得分对各所述短语进行排序,并根据排序结果从各所述短语中确定多个候选词组;步骤S130:根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要,并根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分;步骤S140:根据各所述候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各所述候选摘要的总体得分,并将总体得分最高的候选摘要作为所述目标对象的目标摘要。。
存储单元820可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)8201和/或高速缓存存储单元8202,还可以进一步包括只读存储单元(ROM)8203。
存储单元820还可以包括具有一组(至少一个)程序模块8205的程序/实用工具8204,这样的程序模块8205包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线830可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备800也可以与一个或多个外部设备900(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备800交互的设备通信,和/或与使得该电子设备800能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口850进行。并且,电子设备800还可以通过网络适配器860与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器860通过总线830与电子设备800的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备800使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施方式的描述,本领域的技术人员易于理解,这里描述的示例实施方式可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施方式的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本发明实施方式的方法。
在本发明的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施方式中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施方式的步骤。
根据本发明的实施方式的用于实现上述方法的程序产品,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里发明的发明后,将容易想到本发明的其他实施例。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未发明的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由权利要求指出。
Claims (10)
1.一种摘要生成方法,其特征在于,包括:
根据目标对象的原始描述文本中包括的多个短语的高度值以及权重值计算各所述短语的重要性得分;
根据各所述重要性得分对各所述短语进行排序,并根据排序结果从各所述短语中确定多个候选词组;
根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要,并根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分;
根据各所述候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各所述候选摘要的总体得分,并将总体得分最高的候选摘要作为所述目标对象的目标摘要。
2.根据权利要求1所述的摘要生成方法,其特征在于,所述摘要生成方法还包括:
计算各所述短语在所述原始描述文本中的高度值以及权重值。
3.根据权利要求2所述的摘要生成方法,其特征在于,计算各所述短语在所述原始描述文本中的高度值以及权重值包括:
根据各所述短语在所述原始描述文本中的文本大小,计算各所述短语在所述原始描述文本中的高度值;
根据各所述短语在所述原始描述文本中出现的次数、所述短语的总数以及各所述短语在所有的短语中出现的次数,计算各所述所述短语在所述原始描述文本中的权重值。
4.根据权利要求1所述的摘要生成方法,其特征在于,根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要包括:
利用摘要生成模型中的编码器对所述原始描述文本进行编码,生成隐层序列;其中,所述编码器为双向循环神经网络;
利用所述摘要生成模型中的解码器对所述隐层序列进行解码,生成多个词序列;其中,所述解码器为单项循环神经网络;
基于网格集束搜索算法,根据各所述词序列与各所述候选词组之间的上下文关系,将各所述候选词组插入至所述词序列中,得到所述目标对象的候选摘要;其中,每一个所述目标对象的候选摘要中均包括一个所述候选词组。
5.根据权利要求4所述的摘要生成方法,其特征在于,在根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要之后,所述摘要生成方法还包括:
计算各所述候选词组在各所述候选摘要中的困惑度。
6.根据权利要求5所述的摘要生成方法,其特征在于,计算各所述候选词组在各所述候选摘要中的困惑度包括:
根据各所述候选词组在各所述候选摘要中的位置,确定各所述候选摘要中与各所述候选词组对应的前置词以及后置词;
计算各所述前置词出现后,出现各所述候选词组的前置概率,以及出现各所述候选词组以后,出现各所述后置词的后置概率;
根据各所述前置概率以及后置概率,计算各所述候选词组在各所述候选摘要中的前置困惑度以及后置困惑度。
7.根据权利要求6所述的摘要生成方法,其特征在于,根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分包括:
根据各所述候选词组在各所述候选摘要中的前置困惑度以及各所述后置困惑度,计算计算各所述候选摘要的可读性得分;
其中,各所述候选摘要的可读性得分与各所述候选词组在各所述候选摘要中的前置困惑度以及各所述后置困惑度,呈负相关。
8.一种摘要生成装置,其特征在于,包括:
第一计算模块,用于根据目标对象的原始描述文本中包括的多个短语的高度值以及权重值计算各所述短语的重要性得分;
候选词组确定模块,用于根据各所述重要性得分对各所述短语进行排序,并根据排序结果从各所述短语中确定多个候选词组;
第二计算模块,用于根据各所述候选词组以及所述原始描述文本计算所述目标对象的候选摘要,并根据各所述候选词组在各所述候选摘要中的困惑度计算各所述候选摘要的可读性得分;
第三计算模块,用于根据各所述候选摘要的可读性得分以及该候选摘要中包括的候选词组的重要性得分,计算各所述候选摘要的总体得分,并将总体得分最高的候选摘要作为所述目标对象的目标摘要。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1-7任一项所述的摘要生成方法。
10.一种电子设备,其特征在于,包括:
处理器;以及
存储器,用于存储所述处理器的可执行指令;
其中,所述处理器配置为经由执行所述可执行指令来执行权利要求1-7任一项所述的摘要生成方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010377617.0A CN113626581A (zh) | 2020-05-07 | 2020-05-07 | 摘要生成方法及装置、计算机可读存储介质、电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010377617.0A CN113626581A (zh) | 2020-05-07 | 2020-05-07 | 摘要生成方法及装置、计算机可读存储介质、电子设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113626581A true CN113626581A (zh) | 2021-11-09 |
Family
ID=78376871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010377617.0A Pending CN113626581A (zh) | 2020-05-07 | 2020-05-07 | 摘要生成方法及装置、计算机可读存储介质、电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113626581A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106066866A (zh) * | 2016-05-26 | 2016-11-02 | 同方知网(北京)技术有限公司 | 一种英文文献关键短语自动抽取方法与系统 |
CN108280112A (zh) * | 2017-06-22 | 2018-07-13 | 腾讯科技(深圳)有限公司 | 摘要生成方法、装置及计算机设备 |
CN108664598A (zh) * | 2018-05-09 | 2018-10-16 | 北京理工大学 | 一种具有综合优势的基于整数线性规划的抽取式文摘方法 |
US20180365220A1 (en) * | 2017-06-15 | 2018-12-20 | Microsoft Technology Licensing, Llc | Method and system for ranking and summarizing natural language passages |
CN110134780A (zh) * | 2018-02-08 | 2019-08-16 | 株式会社理光 | 文档摘要的生成方法、装置、设备、计算机可读存储介质 |
-
2020
- 2020-05-07 CN CN202010377617.0A patent/CN113626581A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106066866A (zh) * | 2016-05-26 | 2016-11-02 | 同方知网(北京)技术有限公司 | 一种英文文献关键短语自动抽取方法与系统 |
US20180365220A1 (en) * | 2017-06-15 | 2018-12-20 | Microsoft Technology Licensing, Llc | Method and system for ranking and summarizing natural language passages |
CN108280112A (zh) * | 2017-06-22 | 2018-07-13 | 腾讯科技(深圳)有限公司 | 摘要生成方法、装置及计算机设备 |
CN110134780A (zh) * | 2018-02-08 | 2019-08-16 | 株式会社理光 | 文档摘要的生成方法、装置、设备、计算机可读存储介质 |
JP2019139772A (ja) * | 2018-02-08 | 2019-08-22 | 株式会社リコー | 文書要約の生成方法、装置、電子機器、コンピュータ読み取り可能な記憶媒体 |
CN108664598A (zh) * | 2018-05-09 | 2018-10-16 | 北京理工大学 | 一种具有综合优势的基于整数线性规划的抽取式文摘方法 |
Non-Patent Citations (1)
Title |
---|
陈雪雯;: "基于子词单元的深度学习摘要生成方法", 计算机应用与软件, no. 03, 12 March 2020 (2020-03-12) * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
EP4060565A1 (en) | Method and apparatus for acquiring pre-trained model | |
CN109657054B (zh) | 摘要生成方法、装置、服务器及存储介质 | |
CN108170749B (zh) | 基于人工智能的对话方法、装置及计算机可读介质 | |
EP3648099B1 (en) | Voice recognition method, device, apparatus, and storage medium | |
US8065310B2 (en) | Topics in relevance ranking model for web search | |
CN109408826A (zh) | 一种文本信息提取方法、装置、服务器及存储介质 | |
US11308286B2 (en) | Method and device for retelling text, server, and storage medium | |
CN109657053B (zh) | 多文本摘要生成方法、装置、服务器及存储介质 | |
WO2020244065A1 (zh) | 基于人工智能的字向量定义方法、装置、设备及存储介质 | |
US20060277028A1 (en) | Training a statistical parser on noisy data by filtering | |
CN109275047B (zh) | 视频信息处理方法及装置、电子设备、存储介质 | |
JP2005285129A (ja) | 論理形式のための統計的言語モデル | |
CN112560479A (zh) | 摘要抽取模型训练方法、摘要抽取方法、装置和电子设备 | |
CN110334268B (zh) | 一种区块链项目热词生成方法以及装置 | |
CN112291612B (zh) | 视频与音频的匹配方法、装置、存储介质与电子设备 | |
CN111611805A (zh) | 一种基于图像的辅助写作方法、装置、介质及设备 | |
CN109635197A (zh) | 搜索方法、装置、电子设备及存储介质 | |
KR20160133349A (ko) | 구 표 생성 방법 및 구 표를 이용한 기계 번역 방법 | |
CN112818091A (zh) | 基于关键词提取的对象查询方法、装置、介质与设备 | |
CN110263218A (zh) | 视频描述文本生成方法、装置、设备和介质 | |
CN113704507A (zh) | 数据处理方法、计算机设备以及可读存储介质 | |
Tomer et al. | STV-BEATS: skip thought vector and bi-encoder based automatic text summarizer | |
CN112925912A (zh) | 文本处理方法、同义文本召回方法及装置 | |
CN110472241B (zh) | 生成去冗余信息句向量的方法及相关设备 | |
CN113626581A (zh) | 摘要生成方法及装置、计算机可读存储介质、电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |