CN111858911A - 工单描述信息的生成方法、装置、电子设备及存储介质 - Google Patents
工单描述信息的生成方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN111858911A CN111858911A CN202010319301.6A CN202010319301A CN111858911A CN 111858911 A CN111858911 A CN 111858911A CN 202010319301 A CN202010319301 A CN 202010319301A CN 111858911 A CN111858911 A CN 111858911A
- Authority
- CN
- China
- Prior art keywords
- work order
- document
- description information
- sample
- trained
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 63
- 239000013598 vector Substances 0.000 claims abstract description 127
- 238000013528 artificial neural network Methods 0.000 claims abstract description 80
- 230000002457 bidirectional effect Effects 0.000 claims abstract description 57
- 238000012549 training Methods 0.000 claims description 30
- 230000015654 memory Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 12
- 238000004590 computer program Methods 0.000 claims description 7
- 238000013441 quality evaluation Methods 0.000 claims description 7
- 230000008569 process Effects 0.000 abstract description 19
- 238000010586 diagram Methods 0.000 description 15
- 210000004556 brain Anatomy 0.000 description 12
- 238000007670 refining Methods 0.000 description 8
- 230000009471 action Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002996 emotional effect Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- JEIPFZHSYJVQDO-UHFFFAOYSA-N iron(III) oxide Inorganic materials O=[Fe]O[Fe]=O JEIPFZHSYJVQDO-UHFFFAOYSA-N 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/34—Browsing; Visualisation therefor
- G06F16/345—Summarisation for human users
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本申请涉及摘要生成领域,尤其涉及工单描述信息的生成方法、装置、电子设备及存储介质。本申请通过将目标工单文档中包含的多个语句输入双向神经网络中,可以生成每个语句对应的语句向量,语句向量用于表征语句在目标工单文档中的上下文信息,并根据各个语句对应的语句向量,从目标工单文档中包含的多个语句中,可以选取关键语句,进而,根据关键语句和编解码网络,可以生成目标工单文档的工单描述信息。基于上述方式,通过机器生成工单描述信息,可以提高生成工单描述信息的效率,通过双向神经网络,可以从目标工单文档中提取出关键语句,通过编解码网络,可以模拟出人的思维过程,进而,可以提高生成的工单描述信息的准确率。
Description
技术领域
本申请涉及摘要生成领域,尤其涉及工单描述信息的生成方法、装置、电子设备及存储介质。
背景技术
由于工单文档中包含的信息量较大,通常,需要对工单文档中的信息进行提炼,以生成工单描述信息。工单描述信息要求简洁明了,且概括了工单文档中的所有信息。
目前,工单描述信息大多是通过人工对工单文档中的信息进行提炼而生成的,但是,信息提炼本身就是一件较为困难的工作,大量重复的提炼工作会大大增加人工的复杂度,因此,通过人工进行提炼,不但会花费大量的时间,而且效率低下,且容易发生错误。
发明内容
有鉴于此,本申请实施例至少提供工单描述信息的生成方法、装置、电子设备及存储介质,可以提高生成工单描述信息的效率和准确率。
本申请主要包括以下几个方面:
第一方面,本申请实施例提供一种工单描述信息的生成方法,所述生成方法包括:
获取目标工单文档,并确定所述目标工单文档中包含的多个语句;
将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量;每个语句向量用于表征对应的语句在所述目标工单文档中的上下文信息;
根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句;
根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息。
在一种可能的实施方式中,所述双向神经网络包括正向神经网络和反向神经网络;所述将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量,包括:
将所述多个语句输入训练好的所述正向神经网络中,得到每个语句对应的正向向量,以及将所述多个语句输入训练好的所述反向神经网络,得到每个语句对应的反向向量;所述正向向量用于表征对应的语句在所述目标工单文档中的上文信息;所述反向向量用于表征对应的语句在所述目标工单文档中的下文信息;
将每个语句对应的所述正向向量和所述反向向量进行合并,生成每个语句对应的所述语句向量。
在一种可能的实施方式中,所述根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句,包括:
针对所述多个语句中的每个语句,将每个语句对应的语句向量输入训练好的二分类网络中,确定每个语句在所述目标工单文档中的重要概率;
根据各个语句在所述目标工单文档中的重要概率,从所述目标工单文档中包含的所述多个语句中,选取关键语句。
在一种可能的实施方式中,所述根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息,包括:
将所述关键语句包含的字词输入训练好的所述编解码网络,生成字词序列;
根据所述字词序列,生成所述目标工单文档的所述工单描述信息。
在一种可能的实施方式中,所述编解码网络包括编码网络和解码网络;所述将所述关键语句包含的字词输入训练好的编解码网络,生成字词序列,包括:
将所述关键语句包含的字词输入训练好的所述编码网络,生成编码向量;
将所述编码向量输入训练好的所述解码网络,生成所述字词序列。
在一种可能的实施方式中,在所述获取目标工单文档,并确定所述目标工单文档中包含的多个语句之前,所述生成方法还包括:
对初始的工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型;
其中,所述工单描述信息生成模型包括一个所述双向神经网络和多个所述编解码网络;不同的所述编解码网络用于处理不同领域的工单文档。
在一种可能的实施方式中,所述对初始的工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型,包括:
获取各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述;
根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型。
在一种可能的实施方式中,所述根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型,包括:
将每个所述工单样本文档输入至初始的所述工单描述信息生成模型中,生成每个所述工单样本文档对应的第二样本描述;
根据各个所述工单样本文档对应的第一样本描述和第二样本描述,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
在一种可能的实施方式中,所述根据各个所述工单样本文档对应的第一样本描述和第二样本描述,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型,包括:
按照预设的质量评定标准,将每个所述工单样本文档对应的第一样本描述和第二样本描述进行比对,得到每个所述工单样本文档对应的比对结果;
根据各个所述工单样本文档对应的比对结果,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
在一种可能的实施方式中,所述根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型,包括:
根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述双向神经网络进行训练,得到训练好的所述双向神经网络;
根据每个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对与每个领域对应的初始的所述编解码网络进行训练,得到与每个领域对应的训练好的所述编解码网络。
第二方面,本申请实施例还提供一种工单描述信息的生成装置,所述生成装置包括:
获取模块,用于获取目标工单文档,并确定所述目标工单文档中包含的多个语句;
第一生成模块,用于将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量;每个语句向量用于表征对应的语句在所述目标工单文档中的上下文信息;
选取模块,用于根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句;
第二生成模块,用于根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息。
在一种可能的实施方式中,所述双向神经网络包括正向神经网络和反向神经网络;所述第一生成模块包括:
第一生成单元,用于将所述多个语句输入训练好的所述正向神经网络中,得到每个语句对应的正向向量,以及将所述多个语句输入训练好的所述反向神经网络,得到每个语句对应的反向向量;所述正向向量用于表征对应的语句在所述目标工单文档中的上文信息;所述反向向量用于表征对应的语句在所述目标工单文档中的下文信息;
第二生成单元,用于将每个语句对应的所述正向向量和所述反向向量进行合并,生成每个语句对应的所述语句向量。
在一种可能的实施方式中,所述选取模块包括:
确定单元,用于针对所述多个语句中的每个语句,将每个语句对应的语句向量输入训练好的二分类网络中,确定每个语句在所述目标工单文档中的重要概率;
选取单元,用于根据各个语句在所述目标工单文档中的重要概率,从所述目标工单文档中包含的所述多个语句中,选取关键语句。
在一种可能的实施方式中,所述第二生成模块包括:
第三生成单元,用于将所述关键语句包含的字词输入训练好的所述编解码网络,生成字词序列;
第四生成单元,用于根据所述字词序列,生成所述目标工单文档的所述工单描述信息。
在一种可能的实施方式中,所述编解码网络包括编码网络和解码网络;所述第三生成单元,具体用于根据以下步骤生成所述字词序列:
将所述关键语句包含的字词输入训练好的所述编码网络,生成编码向量;
将所述编码向量输入训练好的所述解码网络,生成所述字词序列。
在一种可能的实施方式中,所述生成装置还包括:
第三生成模块,用于对初始的工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型;
其中,所述工单描述信息生成模型包括一个所述双向神经网络和多个所述编解码网络;不同的所述编解码网络用于处理不同领域的工单文档。
在一种可能的实施方式中,所述第三生成模块包括:
获取单元,用于获取各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述;
第五生成单元,用于根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型。
在一种可能的实施方式中,所述第五生成单元,用于根据以下步骤得到训练好的所述工单描述信息生成模型:
将每个所述工单样本文档输入至初始的所述工单描述信息生成模型中,生成每个所述工单样本文档对应的第二样本描述;
根据各个所述工单样本文档对应的第一样本描述和第二样本描述,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
在一种可能的实施方式中,所述第五生成单元,具体用于根据以下步骤得到训练好的所述工单描述信息生成模型:
按照预设的质量评定标准,将每个所述工单样本文档对应的第一样本描述和第二样本描述进行比对,得到每个所述工单样本文档对应的比对结果;
根据各个所述工单样本文档对应的比对结果,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
在一种可能的实施方式中,所述第五生成单元,还用于根据以下步骤得到训练好的所述工单描述信息生成模型:
根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述双向神经网络进行训练,得到训练好的所述双向神经网络;
根据每个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对与每个领域对应的初始的所述编解码网络进行训练,得到与每个领域对应的训练好的所述编解码网络。
第三方面,本申请实施例还提供一种电子设备,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过所述总线进行通信,所述机器可读指令被所述处理器运行时执行上述第一方面或第一方面中任一种可能的实施方式中所述的工单描述信息的生成方法的步骤。
第四方面,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述第一方面或第一方面中任一种可能的实施方式中所述的工单描述信息的生成方法的步骤。
本申请实施例中,通过将目标工单文档中包含的多个语句输入双向神经网络中,可以生成每个语句对应的语句向量,语句向量用于表征语句在目标工单文档中的上下文信息,并根据各个语句对应的语句向量,从目标工单文档中包含的多个语句中,可以选取关键语句,进而,根据关键语句和编解码网络,可以生成目标工单文档的工单描述信息。基于上述方式,通过机器生成工单描述信息,可以提高生成工单描述信息的效率,通过双向神经网络,可以从目标工单文档中提取出关键语句,通过编解码网络,可以模拟出人的思维过程,进而,可以提高生成的工单描述信息的准确率。
为使本申请的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本申请实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,应当理解,以下附图仅示出了本申请的某些实施例,因此不应被看作是对范围的限定,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他相关的附图。
图1示出了本申请实施例所提供的一种工单描述信息的生成方法的流程图;
图2示出了本申请实施例所提供的另一种工单描述信息的生成方法的流程图;
图3示出了本申请实施例所提供的一种工单描述信息的生成装置的功能模块图之一;
图4示出了图3中第一生成模块的功能模块图;
图5示出了图3中选取模块的功能模块图;
图6示出了图3中第二生成模块的功能模块图;
图7示出了本申请实施例所提供的一种工单描述信息的生成装置的功能模块图之二;
图8示出了图7中第三生成模块的功能模块图;
图9示出了本申请实施例所提供的一种电子设备的结构示意图。
主要元件符号说明:
图中:300-工单描述信息的生成装置;310-获取模块;320-第一生成模块;321-第一生成单元;322-第二生成单元;330-选取模块;331-确定单元;332-选取单元;340-第二生成模块;341-第三生成单元;342-第四生成单元;350-第三生成模块;351-获取单元;352-第五生成单元;900-电子设备;910-处理器;920-存储器;930-总线。
具体实施方式
为使本申请实施例的目的、技术方案和优点更加清楚,下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,应当理解,本申请中的附图仅起到说明和描述的目的,并不用于限定本申请的保护范围。另外,应当理解,示意性的附图并未按实物比例绘制。本申请中使用的流程图示出了根据本申请的一些实施例实现的操作。应当理解,流程图的操作可以不按顺序实现,没有逻辑的上下文关系的步骤可以反转顺序或者同时实施。此外,本领域技术人员在本申请内容的指引下,可以向流程图添加一个或多个其他操作,也可以从流程图中移除一个或多个操作。
另外,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。通常在此处附图中描述和示出的本申请实施例的组件可以以各种不同的配置来布置和设计。因此,以下对在附图中提供的本申请的实施例的详细描述并非旨在限制要求保护的本申请的范围,而是仅仅表示本申请的选定实施例。基于本申请的实施例,本领域技术人员在没有做出创造性劳动的前提下所获得的全部其他实施例,都属于本申请保护的范围。
为了使得本领域技术人员能够使用本申请内容,结合特定应用场景“生成工单描述信息”,给出以下实施方式,对于本领域技术人员来说,在不脱离本申请的精神和范围的情况下,可以将这里定义的一般原理应用于其他实施例和应用场景。
本申请实施例下述方法、装置、电子设备或计算机可读存储介质可以应用于任何需要进行生成工单描述信息的场景,本申请实施例并不对具体的应用场景作限制,任何使用本申请实施例提供的工单描述信息的生成方法及装置的方案均在本申请保护范围内。
值得注意的是,在本申请提出之前,工单描述信息大多是通过人工对工单文档中的信息进行提炼而生成的,但是,信息提炼本身就是一件较为困难的工作,大量重复的提炼工作会大大增加人工的复杂度,因此,通过人工进行提炼,不但会花费大量的时间,而且效率低下,且容易发生错误。
针对上述问题,本申请实施例,通过将目标工单文档中包含的多个语句输入双向神经网络中,可以生成每个语句对应的语句向量,语句向量用于表征语句在目标工单文档中的上下文信息,并根据各个语句对应的语句向量,从目标工单文档中包含的多个语句中,可以选取关键语句,进而,根据关键语句和编解码网络,可以生成目标工单文档的工单描述信息。基于上述方式,通过机器生成工单描述信息,可以提高生成工单描述信息的效率,通过双向神经网络,可以从目标工单文档中提取出关键语句,通过编解码网络,可以模拟出人的思维过程,进而,可以提高生成的工单描述信息的准确率。
为便于对本申请进行理解,下面结合具体实施例对本申请提供的技术方案进行详细说明。
图1为本申请实施例所提供的一种工单描述信息的生成方法的流程图。如图1所示,本申请实施例提供的工单描述信息的生成方法,包括以下步骤:
S101:获取目标工单文档,并确定所述目标工单文档中包含的多个语句。
在具体实施中,获取待生成工单描述信息的目标工单文档,并确定目标工单文档中包含的多个语句。
这里,从工单文档中提炼出工单描述信息适合多个应用场景,包括但不限于:
应用场景1:当用户与客服进行交互时,人工客服需要对用户反馈的信息进行提炼,生成工单描述信息。
应用场景2:在司机和乘客冲突检测场景中,不仅要判断音频中是否存在冲突,还要对冲突的内容进行描述,便于事后统计和分析,此任务可以看作等同生成工单描述信息。
应用场景3:在用户评论中,不仅要知道用户的情感倾向,还要知道用户的大致诉求,便于产品做出调整和改进,此任务可以看作等同生成工单描述信息。
S102:将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量;每个语句向量用于表征对应的语句在所述目标工单文档中的上下文信息。
在具体实施中,将目标工单文档中包含的多个语句输入训练好的双向神经网络中,可以得到各个语句分别对应的语句向量,其中,每个语句的语句向量可以表征出该语句在目标工单文档中的上下文信息。
这里,双向神经网络(Bi-directional Long Short-Term Memory,BiLSTM),是循环神经网络(Recurrent Neural Network,RNN)中的一种,在自然语言处理任务中被用来提取文档中的上下文信息,因此,可以通过将目标工单文档中包含的多个语句一同输入至训练好的双向神经网络中,得到每个句子对应的可以表征该语句在目标工单文档中的上下文信息的语句向量。
进一步地,双向神经网络包括正向神经网络和反向神经网络;这里,对通过双向神经网络,生成每个语句的语句向量的过程进行阐述,步骤S102中所述将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量,包括以下步骤:
步骤a1:将所述多个语句输入训练好的所述正向神经网络中,得到每个语句对应的正向向量,以及将所述多个语句输入训练好的所述反向神经网络,得到每个语句对应的反向向量;所述正向向量用于表征对应的语句在所述目标工单文档中的上文信息;所述反向向量用于表征对应的语句在所述目标工单文档中的下文信息。
在具体实施中,将目标工单文档中的多个语句一同输入训练好的正向神经网络中,可以得到各个语句对应的正向向量,以及,将目标工单文档中的多个语句一同输入训练好的反向神经网络中,可以得到各个语句对应的反向向量。这里,每个语句的正向向量可以表征该语句在目标工单文档中的上文信息,即,该语句与目标工单文档中在该语句之前的语句之间关系信息;每个语句的反向向量可以表征该语句在目标工单文档中的下文信息,即,该语句与目标工单文档中在该语句之后的语句之间关系信息。其中,各个句子对应的正向向量和反向向量可以为同一维度的向量,每个向量中包含的元素数量通常相同。
步骤a2:将每个语句对应的所述正向向量和所述反向向量进行合并,生成每个语句对应的所述语句向量。
在具体实施中,对于目标工单文档中包含的多个语句中的每个语句,将每个语句的正向向量和反向向量进行合并,即,将每个语句的正向向量和反向向量拼接到一起,得到每个语句对应的语句向量,例如,语句A对应的正向向量为c(c1,c2,c3),语句A对应的反向向量为d(d1,d2,d3),则,语句A对应的语句向量为(c1,c2,c3,d1,d2,d3)。
S103:根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句。
在具体实施中,在得到目标工单文档中包含的多个语句分别对应的语句向量后,由于每个语句的语句向量可以表征该语句在目标工单文档中的上下文信息,因此,可以根据各个语句对应的语句向量,从目标工单文档中包含的多个语句中,选取出在目标工单文档中起重要作用的关键语句。
进一步地,对选取关键语句的过程进行阐述,也即,步骤S103中所述根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句,包括以下步骤:
步骤b1:针对所述多个语句中的每个语句,将每个语句对应的语句向量输入训练好的二分类网络中,确定每个语句在所述目标工单文档中的重要概率。
在具体实施中,对于目标工单文档中包含的多个语句中的每个语句,将每个语句对应的语句向量输入训练好的二分类网络中,通过二分类网络计算出每个语句在目标工单文档中的重要概率。
这里,二分类网络可以为基于多层感知的多分类网络(MLP-Softmax,MultilayerPerceptron-Softmax),工作原理为,假设有K个不同的类别,对于给定的输入x,估算出x属于每一个类别的概率值,进而,根据概率值对输入x划分类别。
步骤b2:根据各个语句在所述目标工单文档中的重要概率,从所述目标工单文档中包含的所述多个语句中,选取关键语句。
在具体实施中,从目标工单文档中包含的多个语句中,选取重要概率高于预设阈值的语句,作为关键语句,具体地,每个语句向量在输入二分类网络后,会输出0或1,0表示该语句未被选中,即该语句不为关键语句;1表示该语句被选中,即该语句为关键语句。
需要说明的是,通过使用双向神经网络,可以从目标工单文档中提取出关键语句,故,可以使生成的工单描述信息与目标工单文档联系更紧密,可以比较好的保留目标工单文档的意思。
S104:根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息。
在具体实施中,在从目标工单文档中提取出关键语句后,根据提取出的关键语句和训练好的编解码网络,可以得到目标工单文档的工单描述信息,其中,关键语句有多个。通过编解码网络,可以模拟出人的思维过程,进而,可以提高工单描述信息的内容流畅度,可以提高生成的工单描述信息的准确率。
这里,编解码网络(Encoder-Decoder,ED)是深度学习中非常常见的一个模型框架,Encoder-Decoder框架有一个最显著的特征就是它是一个End-to-End学习的算法,所谓编码,就是将输入序列转化成一个固定长度的向量,解码,就是将之前生成的固定向量再转化成输出序列。如果用人的思维来看,就是我们先看到源序列,将其读一遍,然后在我们大脑当中就记住了这个源序列,并且存在大脑的某一个位置上,形成我们自己的记忆,然后我们再经过思考,将这个大脑里的东西转变成输出,然后写下来。那么我们大脑读入的过程叫做编码,即将输入的东西变成我们自己的记忆,放在大脑当中,而这个记忆可以叫做Context,然后我们再根据这个Context,转化成答案写下来,这个写的过程叫做解码,就是编码-存储-解码的过程。
进一步地,对根据关键语句和训练好的编解码网络,生成目标工单文档的工单描述信息进行阐述,也即,步骤S104中所述根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息,包括以下步骤:
步骤c1:将所述关键语句包含的字词输入训练好的所述编解码网络,生成字词序列。
在具体实施中,将从目标工单文档中提取出的关键语句包含的字词一同输入训练好的编解码网络中,生成目标工单文档对应的字词序列,即在编解码网络的工作当中,用编解码网络中的一个网络去模拟大脑的读入动作,用一个特定长度的特征向量去模拟大脑的记忆,用编解码网络中的另一个网络去模拟大脑思考得到答案的动作,即得到字词序列。
进一步地,编解码网络包括编码网络和解码网络;对生成字词序列进行阐述,也即,步骤c1中所述将所述关键语句包含的字词输入训练好的编解码网络,生成字词序列,包括以下步骤:
将所述关键语句包含的字词输入训练好的所述编码网络,生成编码向量;将所述编码向量输入训练好的所述解码网络,生成所述字词序列。
在具体实施中,在编解码网络的工作当中,用编码网络去模拟大脑的读入动作,用一个特定长度的特征向量去模拟大脑的记忆,用解码网络去模拟大脑思考得到答案的动作,即得到目标工单文档对应的字词序列。这样,通过编解码网络,可以模拟出人的思维过程,进而,可以提高生成的工单描述信息的准确率。
步骤c2:根据所述字词序列,生成所述目标工单文档的所述工单描述信息。
在具体实施中,将生成的字词序列作为目标工单文档的工单描述信息。
这里,可以利用Token Generation/Pointer机制处理字词,使其可以被正确生成到字词序列中。
需要说明的是,本申请通过结合双向神经网络和编码解码网络,可以提取比较重要的句子,即关键语句,并识别出句子的语义,这样,可以使生成的工单描述既保留原文的意思,又能保证内容的流畅。
在本申请实施例中,通过将目标工单文档中包含的多个语句输入双向神经网络中,可以生成每个语句对应的语句向量,语句向量用于表征语句在目标工单文档中的上下文信息,并根据各个语句对应的语句向量,从目标工单文档中包含的多个语句中,可以选取关键语句,进而,根据关键语句和编解码网络,可以生成目标工单文档的工单描述信息。基于上述方式,通过机器生成工单描述信息,可以提高生成工单描述信息的效率,通过双向神经网络,可以从目标工单文档中提取出关键语句,通过编解码网络,可以模拟出人的思维过程,进而,可以提高生成的工单描述信息的准确率。
图2为本申请实施例所提供的另一种工单描述信息的生成方法的流程图。如图2所示,本申请实施例提供的工单描述信息的生成方法,包括以下步骤:
S201:对初始的工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型;其中,所述工单描述信息生成模型包括一个所述双向神经网络和多个所述编解码网络;不同的所述编解码网络用于处理不同领域的工单文档。
在具体实施中,工单描述信息生成模型为多任务学习(Multi-Task Learning)模型,工单描述信息生成模型包括一个双向神经网络和多个编解码网络,其中,不同的编解码网络用于处理不同领域的工单文档,在对初始的工单描述信息生成模型进行训练的过程中,可以同时对双向神经网络和多个编解码网络进行训练。
这里,多任务学习模型是一种联合学习、多个任务并行学习的模型,多任务的结果相互影响,在机器学习中,比如优化某一特定指标,为了达到这个目标,会训练多个模型集合来完成指定得任务。然后,通过精细调参,来改进模型直至性能不再提升。尽管这样做可以针对一个任务得到一个可接受得性能,但是可能忽略了一些信息,这些信息有助于在指标上做得更好,具体来说,这些信息就是相关任务的监督数据,通过在相关任务间共享表示信息,模型在原始任务上泛化性能更好,这种方法称为多任务学习。
这里,不同领域的工单文档包括但不限于客服工单文档、评论工单文档、司乘对话文档,对于本申请各个领域的工单文档的工单描述信息的生成共享一个双向神经网络,由于各个领域之间的数据有一定关系,所以利用同一个双向神经网络提取关键语句,又因为每个领域有各自的特性,所以用不同的编解码网络来生成各个领域对应的工单描述信息。
进一步地,对工单描述信息生成模型的训练过程展开阐述;也即,步骤S201中所述对初始的工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型,包括以下步骤:
步骤d1:获取各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述。
在具体实施中,获取属于各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,该第一样本描述为对应的工单样本文档的标准工单描述,通常,第一样本描述为人工对对应的工单样本文档的描述。
步骤d2:根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型。
在具体实施中,通过各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的工单描述信息生成模型进行训练,得到训练好的工单描述信息生成模型。
进一步地,步骤d2中所述根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型,包括以下步骤:
根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述双向神经网络进行训练,得到训练好的所述双向神经网络;根据每个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对与每个领域对应的初始的所述编解码网络进行训练,得到与每个领域对应的训练好的所述编解码网络。
在具体实施中,工单描述信息生成模型包括一个双向神经网络和多个所述编解码网络,不同的编解码网络用于处理不同领域的工单文档,故,可以根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,一同对初始的双向神经网络进行训练,得到训练好的双向神经网络;根据每个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对与每个领域对应的初始的编解码网络进行训练,得到与每个领域对应的训练好的编解码网络。
进一步地,步骤d2中根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型,包括以下步骤:
步骤d21:将每个所述工单样本文档输入至初始的所述工单描述信息生成模型中,生成每个所述工单样本文档对应的第二样本描述。
在具体实施中,将各个工单样本文档输入至初始的工单描述信息生成模型中,可以得到各个工单样本文档的第二样本描述,即,得到机器生成的每个工单样本文档的样本描述。
步骤d22:根据各个所述工单样本文档对应的第一样本描述和第二样本描述,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
在具体实施中,根据各个工单样本文档对应的第一样本描述和第二样本描述,可以对初始的工单描述信息生成模型中的参数进行调整,得到训练好的工单描述信息生成模型。
进一步地,步骤d22中所述根据各个所述工单样本文档对应的第一样本描述和第二样本描述,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型,包括以下步骤:
按照预设的质量评定标准,将每个所述工单样本文档对应的第一样本描述和第二样本描述进行比对,得到每个所述工单样本文档对应的比对结果;根据各个所述工单样本文档对应的比对结果,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
在具体实施中,按照预设的质量评定标准,将每个工单样本文档对应的第一样本描述和第二样本描述进行比对,得到每个工单样本文档对应的比对结果,这里,质量评定标准可以为ROUGE评价方法、pyramid评价方法、BE评价方法中的任意一种,进而,根据各个工单样本文档对应的比对结果,对初始的工单描述信息生成模型中的参数进行调整,得到训练好的工单描述信息生成模型。
S202:获取目标工单文档,并确定所述目标工单文档中包含的多个语句。
S203:将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量;每个语句向量用于表征对应的语句在所述目标工单文档中的上下文信息。
S204:根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句。
S205:根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息。
其中,步骤S202-S205的描述可以参加步骤S101-S104的描述,并且能够达到相同的技术效果,对此,不再进行阐述。
在本申请实施例中,通过将目标工单文档中包含的多个语句输入双向神经网络中,可以生成每个语句对应的语句向量,语句向量用于表征语句在目标工单文档中的上下文信息,并根据各个语句对应的语句向量,从目标工单文档中包含的多个语句中,可以选取关键语句,进而,根据关键语句和编解码网络,可以生成目标工单文档的工单描述信息。基于上述方式,通过机器生成工单描述信息,可以提高生成工单描述信息的效率,通过双向神经网络,可以从目标工单文档中提取出关键语句,通过编解码网络,可以模拟出人的思维过程,进而,可以提高生成的工单描述信息的准确率。
基于同一申请构思,本申请实施例中还提供了与上述实施例提供的工单描述信息的生成方法对应的工单描述信息的生成装置,由于本申请实施例中的装置解决问题的原理与本申请上述实施例的工单描述信息的生成方法相似,因此装置的实施可以参见方法的实施,重复之处不再赘述。
如图3至图8所示,图3示出了本申请实施例所提供的一种工单描述信息的生成装置300的功能模块图之一;图4示出了图3中第一生成模块320的功能模块图;图5示出了图3中选取模块330功能模块图;图6示出了图3中第二生成模块340模块图;图7示出了本申请实施例所提供的一种工单描述信息的生成装置300模块图之二;图8示出了图7中第三生成模块350模块图。
如图3所示,所述工单描述信息的生成装置300包括:
获取模块310,用于获取目标工单文档,并确定所述目标工单文档中包含的多个语句;
第一生成模块320,用于将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量;每个语句向量用于表征对应的语句在所述目标工单文档中的上下文信息;
选取模块330,用于根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句;
第二生成模块340,用于根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息。
在一种可能的实施方式中,如图4示,所述双向神经网络包括正向神经网络和反向神经网络;所述第一生成模块320包括:
第一生成单元321,用于将所述多个语句输入训练好的所述正向神经网络中,得到每个语句对应的正向向量,以及将所述多个语句输入训练好的所述反向神经网络,得到每个语句对应的反向向量;所述正向向量用于表征对应的语句在所述目标工单文档中的上文信息;所述反向向量用于表征对应的语句在所述目标工单文档中的下文信息;
第二生成单元322,用于将每个语句对应的所述正向向量和所述反向向量进行合并,生成每个语句对应的所述语句向量。
在一种可能的实施方式中,如图5所示,所述选取模块330包括:
确定单元331,用于针对所述多个语句中的每个语句,将每个语句对应的语句向量输入训练好的二分类网络中,确定每个语句在所述目标工单文档中的重要概率;
选取单元332,用于根据各个语句在所述目标工单文档中的重要概率,从所述目标工单文档中包含的所述多个语句中,选取关键语句。
在一种可能的实施方式中,如图6所示,所述第二生成模块340包括:
第三生成单元341,用于将所述关键语句包含的字词输入训练好的所述编解码网络,生成字词序列;
第四生成单元342,用于根据所述字词序列,生成所述目标工单文档的所述工单描述信息。
在一种可能的实施方式中,如图6所示,所述编解码网络包括编码网络和解码网络;所述第三生成单元341,具体用于根据以下步骤生成所述字词序列:
将所述关键语句包含的字词输入训练好的所述编码网络,生成编码向量;
将所述编码向量输入训练好的所述解码网络,生成所述字词序列。
在一种可能的实施方式中,如图7所示,所述工单描述信息的生成装置300还包括:
第三生成模块350,用于对初始的工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型;
其中,所述工单描述信息生成模型包括一个所述双向神经网络和多个所述编解码网络;不同的所述编解码网络用于处理不同领域的工单文档。
在一种可能的实施方式中,如图8所示,所述第三生成模块350包括:
获取单元351,用于获取各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述;
第五生成单元352,用于根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型。
在一种可能的实施方式中,如图8所示,所述第五生成单元352,用于根据以下步骤得到训练好的所述工单描述信息生成模型:
将每个所述工单样本文档输入至初始的所述工单描述信息生成模型中,生成每个所述工单样本文档对应的第二样本描述;
根据各个所述工单样本文档对应的第一样本描述和第二样本描述,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
在一种可能的实施方式中,如图8所示,所述第五生成单元352,具体用于根据以下步骤得到训练好的所述工单描述信息生成模型:
按照预设的质量评定标准,将每个所述工单样本文档对应的第一样本描述和第二样本描述进行比对,得到每个所述工单样本文档对应的比对结果;
根据各个所述工单样本文档对应的比对结果,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
在一种可能的实施方式中,如图8所示,所述第五生成单元352,还用于根据以下步骤得到训练好的所述工单描述信息生成模型:
根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述双向神经网络进行训练,得到训练好的所述双向神经网络;
根据每个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对与每个领域对应的初始的所述编解码网络进行训练,得到与每个领域对应的训练好的所述编解码网络。
在本申请实施例中,通过将目标工单文档中包含的多个语句输入双向神经网络中,可以生成每个语句对应的语句向量,语句向量用于表征语句在目标工单文档中的上下文信息,并根据各个语句对应的语句向量,从目标工单文档中包含的多个语句中,可以选取关键语句,进而,根据关键语句和编解码网络,可以生成目标工单文档的工单描述信息。基于上述方式,通过机器生成工单描述信息,可以提高生成工单描述信息的效率,通过双向神经网络,可以从目标工单文档中提取出关键语句,通过编解码网络,可以模拟出人的思维过程,进而,可以提高生成的工单描述信息的准确率。
基于同一申请构思,参见图9所示,为本申请实施例提供的一种电子设备900的结构示意图,包括:处理器910、存储器920和总线930,所述存储器920存储有所述处理器910可执行的机器可读指令,当电子设备900运行时,所述处理器910与所述存储器920之间通过所述总线930进行通信,所述机器可读指令被所述处理器910运行时执行如上述实施例中任一所述的工单描述信息的生成方法的步骤。
具体地,所述机器可读指令被所述处理器910执行时可以执行如下处理:
获取目标工单文档,并确定所述目标工单文档中包含的多个语句;
将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量;每个语句向量用于表征对应的语句在所述目标工单文档中的上下文信息;
根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句;
根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息。
基于同一申请构思,本申请实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行上述实施例提供的工单描述信息的生成方法的步骤。
具体地,所述存储介质能够为通用的存储介质,如移动磁盘、硬盘等,所述存储介质上的计算机程序被运行时,能够执行上述工单描述信息的生成方法,通过机器生成工单描述信息,可以提高生成工单描述信息的效率,通过双向神经网络,可以从目标工单文档中提取出关键语句,通过编解码网络,可以模拟出人的思维过程,进而,可以提高生成的工单描述信息的准确率。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。在本申请所提供的几个实施例中,应所述理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,又例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些通信接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个处理器可执行的非易失的计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者所述技术方案的部分可以以软件产品的形式体现出来,所述计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以权利要求的保护范围为准。
Claims (13)
1.一种工单描述信息的生成方法,其特征在于,所述生成方法包括:
获取目标工单文档,并确定所述目标工单文档中包含的多个语句;
将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量;每个语句向量用于表征对应的语句在所述目标工单文档中的上下文信息;
根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句;
根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息。
2.根据权利要求1所述的生成方法,其特征在于,所述双向神经网络包括正向神经网络和反向神经网络;所述将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量,包括:
将所述多个语句输入训练好的所述正向神经网络中,得到每个语句对应的正向向量,以及将所述多个语句输入训练好的所述反向神经网络,得到每个语句对应的反向向量;所述正向向量用于表征对应的语句在所述目标工单文档中的上文信息;所述反向向量用于表征对应的语句在所述目标工单文档中的下文信息;
将每个语句对应的所述正向向量和所述反向向量进行合并,生成每个语句对应的所述语句向量。
3.根据权利要求1所述的生成方法,其特征在于,所述根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句,包括:
针对所述多个语句中的每个语句,将每个语句对应的语句向量输入训练好的二分类网络中,确定每个语句在所述目标工单文档中的重要概率;
根据各个语句在所述目标工单文档中的重要概率,从所述目标工单文档中包含的所述多个语句中,选取关键语句。
4.根据权利要求1所述的生成方法,其特征在于,所述根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息,包括:
将所述关键语句包含的字词输入训练好的所述编解码网络,生成字词序列;
根据所述字词序列,生成所述目标工单文档的所述工单描述信息。
5.根据权利要求4所述的生成方法,其特征在于,所述编解码网络包括编码网络和解码网络;所述将所述关键语句包含的字词输入训练好的编解码网络,生成字词序列,包括:
将所述关键语句包含的字词输入训练好的所述编码网络,生成编码向量;
将所述编码向量输入训练好的所述解码网络,生成所述字词序列。
6.根据权利要求1所述的生成方法,其特征在于,在所述获取目标工单文档,并确定所述目标工单文档中包含的多个语句之前,所述生成方法还包括:
对初始的工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型;
其中,所述工单描述信息生成模型包括一个所述双向神经网络和多个所述编解码网络;不同的所述编解码网络用于处理不同领域的工单文档。
7.根据权利要求6所述的生成方法,其特征在于,所述对初始的工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型,包括:
获取各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述;
根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型。
8.根据权利要求7所述的生成方法,其特征在于,所述根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型,包括:
将每个所述工单样本文档输入至初始的所述工单描述信息生成模型中,生成每个所述工单样本文档对应的第二样本描述;
根据各个所述工单样本文档对应的第一样本描述和第二样本描述,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
9.根据权利要求8所述的生成方法,其特征在于,所述根据各个所述工单样本文档对应的第一样本描述和第二样本描述,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型,包括:
按照预设的质量评定标准,将每个所述工单样本文档对应的第一样本描述和第二样本描述进行比对,得到每个所述工单样本文档对应的比对结果;
根据各个所述工单样本文档对应的比对结果,对初始的所述工单描述信息生成模型中的参数进行调整,得到训练好的所述工单描述信息生成模型。
10.根据权利要求7所述的生成方法,其特征在于,所述根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述工单描述信息生成模型进行训练,得到训练好的所述工单描述信息生成模型,包括:
根据各个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对初始的所述双向神经网络进行训练,得到训练好的所述双向神经网络;
根据每个领域的工单样本文档,以及每个工单样本文档对应的第一样本描述,对与每个领域对应的初始的所述编解码网络进行训练,得到与每个领域对应的训练好的所述编解码网络。
11.一种工单描述信息的生成装置,其特征在于,所述生成装置包括:
获取模块,用于获取目标工单文档,并确定所述目标工单文档中包含的多个语句;
第一生成模块,用于将所述多个语句输入训练好的双向神经网络中,生成每个语句对应的语句向量;每个语句向量用于表征对应的语句在所述目标工单文档中的上下文信息;
选取模块,用于根据各个语句对应的语句向量,从所述目标工单文档中包含的所述多个语句中,选取关键语句;
第二生成模块,用于根据所述关键语句和训练好的编解码网络,生成所述目标工单文档的工单描述信息。
12.一种电子设备,其特征在于,包括:处理器、存储器和总线,所述存储器存储有所述处理器可执行的机器可读指令,当电子设备运行时,所述处理器与所述存储器之间通过所述总线进行通信,所述机器可读指令被所述处理器运行时执行如权利要求1至10中任一所述的工单描述信息的生成方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机程序,所述计算机程序被处理器运行时执行如权利要求1至10中任一所述的工单描述信息的生成方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010319301.6A CN111858911A (zh) | 2020-04-21 | 2020-04-21 | 工单描述信息的生成方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010319301.6A CN111858911A (zh) | 2020-04-21 | 2020-04-21 | 工单描述信息的生成方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111858911A true CN111858911A (zh) | 2020-10-30 |
Family
ID=72985641
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010319301.6A Pending CN111858911A (zh) | 2020-04-21 | 2020-04-21 | 工单描述信息的生成方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111858911A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609840A (zh) * | 2021-08-25 | 2021-11-05 | 西华大学 | 一种汉语法律判决摘要生成方法及系统 |
CN114357951A (zh) * | 2022-02-24 | 2022-04-15 | 北京京东拓先科技有限公司 | 生成标准报告的方法、装置、设备及存储介质 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190122145A1 (en) * | 2017-10-23 | 2019-04-25 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus and device for extracting information |
CN110263330A (zh) * | 2019-05-22 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 问题语句的改写方法、装置、设备和存储介质 |
CN110532562A (zh) * | 2019-08-30 | 2019-12-03 | 联想(北京)有限公司 | 神经网络训练方法、成语误用检测方法、装置和电子设备 |
US20190370338A1 (en) * | 2017-06-22 | 2019-12-05 | Tencent Technology (Shenzhen) Company Limited | Summary generation method, apparatus, computer device, and storage medium |
US20200065389A1 (en) * | 2017-10-10 | 2020-02-27 | Tencent Technology (Shenzhen) Company Limited | Semantic analysis method and apparatus, and storage medium |
CN110852110A (zh) * | 2018-07-25 | 2020-02-28 | 富士通株式会社 | 目标语句提取方法、问题生成方法以及信息处理设备 |
-
2020
- 2020-04-21 CN CN202010319301.6A patent/CN111858911A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20190370338A1 (en) * | 2017-06-22 | 2019-12-05 | Tencent Technology (Shenzhen) Company Limited | Summary generation method, apparatus, computer device, and storage medium |
US20200065389A1 (en) * | 2017-10-10 | 2020-02-27 | Tencent Technology (Shenzhen) Company Limited | Semantic analysis method and apparatus, and storage medium |
US20190122145A1 (en) * | 2017-10-23 | 2019-04-25 | Baidu Online Network Technology (Beijing) Co., Ltd. | Method, apparatus and device for extracting information |
CN110852110A (zh) * | 2018-07-25 | 2020-02-28 | 富士通株式会社 | 目标语句提取方法、问题生成方法以及信息处理设备 |
CN110263330A (zh) * | 2019-05-22 | 2019-09-20 | 腾讯科技(深圳)有限公司 | 问题语句的改写方法、装置、设备和存储介质 |
CN110532562A (zh) * | 2019-08-30 | 2019-12-03 | 联想(北京)有限公司 | 神经网络训练方法、成语误用检测方法、装置和电子设备 |
Non-Patent Citations (3)
Title |
---|
尹伊淳;张铭;: "一种基于数据重构和富特征的神经网络机器阅读理解模型", 中文信息学报, no. 11 * |
贾晓婷;王名扬;曹宇;: "结合Doc2Vec与改进聚类算法的中文单文档自动摘要方法研究", 数据分析与知识发现, no. 02 * |
陶晓峰;吕朋朋;缪平;娄保东;: "基于深度神经网络的工单采集模型研究", 自动化与仪器仪表, no. 02 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113609840A (zh) * | 2021-08-25 | 2021-11-05 | 西华大学 | 一种汉语法律判决摘要生成方法及系统 |
CN113609840B (zh) * | 2021-08-25 | 2023-06-16 | 西华大学 | 一种汉语法律判决摘要生成方法及系统 |
CN114357951A (zh) * | 2022-02-24 | 2022-04-15 | 北京京东拓先科技有限公司 | 生成标准报告的方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111859960B (zh) | 基于知识蒸馏的语义匹配方法、装置、计算机设备和介质 | |
CN112528637A (zh) | 文本处理模型训练方法、装置、计算机设备和存储介质 | |
CN111930976B (zh) | 演示文稿生成方法、装置、设备及存储介质 | |
CN112329451B (zh) | 手语动作视频生成方法、装置、设备及存储介质 | |
CN111143551A (zh) | 文本预处理方法、分类方法、装置及设备 | |
CN111858911A (zh) | 工单描述信息的生成方法、装置、电子设备及存储介质 | |
CN111767394A (zh) | 一种基于人工智能专家系统的摘要提取方法及装置 | |
CN117709435B (zh) | 大语言模型的训练方法、代码生成方法、设备及存储介质 | |
CN114218379A (zh) | 一种面向智能问答系统的无法回答问题的归因方法 | |
CN117290694A (zh) | 问答系统评估方法、装置、计算设备及存储介质 | |
CN113779345B (zh) | 一种教学材料生成方法、装置、计算机设备和存储介质 | |
CN110852071A (zh) | 知识点检测方法、装置、设备及可读存储介质 | |
CN113627159A (zh) | 纠错模型的训练数据确定方法、装置、介质及产品 | |
CN117472431A (zh) | 代码注释生成方法、装置、计算机设备、存储介质和产品 | |
CN109885702B (zh) | 自然语言处理中的序列标注方法、装置、设备及存储介质 | |
CN111967255A (zh) | 一种基于互联网的语言自动组卷评测方法和存储介质 | |
CN116740791A (zh) | 一种阅读行为提醒方法、装置、服务器以及可读存储介质 | |
CN115687935A (zh) | 语音识别的后处理方法、装置、设备及存储介质 | |
CN112528674B (zh) | 文本处理方法、模型的训练方法、装置、设备及存储介质 | |
CN113837157B (zh) | 题目类型识别方法、系统和存储介质 | |
US20220284280A1 (en) | Data labeling for synthetic data generation | |
CN115617959A (zh) | 问题解答方法及装置 | |
CN114139535A (zh) | 一种关键词造句方法、装置、计算机设备及可读介质 | |
CN113901793A (zh) | 结合rpa和ai的事件抽取方法及装置 | |
CN113204973A (zh) | 答非所问识别模型的训练方法、装置、设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |