CN113449490B - 一种文档信息汇总方法、系统、电子设备及介质 - Google Patents
一种文档信息汇总方法、系统、电子设备及介质 Download PDFInfo
- Publication number
- CN113449490B CN113449490B CN202110690978.5A CN202110690978A CN113449490B CN 113449490 B CN113449490 B CN 113449490B CN 202110690978 A CN202110690978 A CN 202110690978A CN 113449490 B CN113449490 B CN 113449490B
- Authority
- CN
- China
- Prior art keywords
- vector value
- document
- document information
- calculation
- obtaining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 239000013598 vector Substances 0.000 claims abstract description 139
- 238000004364 calculation method Methods 0.000 claims abstract description 61
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 24
- 238000004590 computer program Methods 0.000 claims description 10
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 238000003860 storage Methods 0.000 claims description 5
- 238000010801 machine learning Methods 0.000 abstract description 15
- 230000007547 defect Effects 0.000 abstract description 5
- 238000004891 communication Methods 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000010586 diagram Methods 0.000 description 5
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000006872 improvement Effects 0.000 description 3
- 238000004519 manufacturing process Methods 0.000 description 3
- 238000013473 artificial intelligence Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- 230000001360 synchronised effect Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000000802 evaporation-induced self-assembly Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000006698 induction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/12—Use of codes for handling textual entities
- G06F40/126—Character encoding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Neurology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请公开了一种文档信息汇总方法、系统、电子设备及介质,文档信息汇总方法包括:隐藏向量值计算步骤:对源文档进行编码特征计算,获取源文档隐藏向量值后,根据所述源文档隐藏向量值计算获得目标文档隐藏向量值;输出向量计算步骤:根据所述源文档隐藏向量值与所述目标文档隐藏向量值计算获得输出向量值;文档信息汇总结果获取步骤:根据所述输出向量值计算获得所述文档信息汇总结果。本发明通过机器学习和图算法结合,利用机器学习完成汇总生成,利用图算法提取多文档之间的关系特征,从而实现基于机器学习的多文档信息生成,达到利用图算法弥补机器学习多文档信息生成不足的缺点。
Description
技术领域
本申请涉及深度学习技术领域,尤其涉及一种文档信息汇总方法、系统、电子设备及介质。
背景技术
现在是一个信息爆炸的时代,许多行业需要各种各样的信息报表,而这些信息源可能源自于不同的文章、新闻、图标,这就需要一定的汇总能力,从而使得最终获取的信息多样化、精准化。现有技术无论是通过人工,还是通过机器,从多文档来汇总内容都需要很高的成本。人工汇总需要大量的人力成本,费时费力;机器汇总则主要偏向于单文档生成汇总,且质量较高,但是许多信息在跨文档之间是存在一定关联的,只从单文档生成则缺失一定的关联性,利用机器的多文档汇总技术则存在一定性能和方法论的缺失,因而通过现有技术无法弥补机器学习多文档信息生成存在的众多缺点。
发明内容
本申请实施例提供了一种文档信息汇总方法、系统、电子设备及介质,以至少通过本发明解决了机器以及人工汇总多文档信息过程中的文档信息关联性缺失以及成本高等问题。
本发明提供了文档信息汇总方法,包括:
隐藏向量值计算步骤:对源文档进行编码特征计算,获取源文档隐藏向量值后,根据所述源文档隐藏向量值计算获得目标文档隐藏向量值;
输出向量计算步骤:根据所述源文档隐藏向量值与所述目标文档隐藏向量值计算获得输出向量值;
文档信息汇总结果获取步骤:根据所述输出向量值计算获得所述文档信息汇总结果。
上述的文档信息汇总方法中,所述隐藏向量值计算步骤包括:
源文档隐藏向量值计算步骤:通过神经网络编码器对多个所述源文档进行编码特征计算后,获取所述源文档隐藏向量值;
目标文档隐藏向量值计算步骤:根据所述源文档隐藏向量值,通过图算法对所述目标文档进行特征计算后,获取所述目标文档隐藏向量值。
上述的文档信息汇总方法中,所述输出向量计算步骤包括,根据所述源文档隐藏向量值与所述目标文档隐藏向量值,通过注意力模块计算获取所述输出向量值。
上述的文档信息汇总方法中,所述文档信息汇总结果获取步骤包括,根据所述输出向量值,通过解码器计算获取所述文档信息汇总结果。
本发明还提供文档信息汇总系统,其中,适用于上述所述的文档信息汇总方法,所述文档信息汇总系统包括:
隐藏向量值计算单元:对源文档进行编码特征计算,获取源文档隐藏向量值后,根据所述源文档隐藏向量值计算获得目标文档隐藏向量值;
输出向量计算单元:根据所述源文档隐藏向量值与所述目标文档隐藏向量值计算获得输出向量值;
文档信息汇总结果获取单元:根据所述输出向量值计算获得所述文档信息汇总结果。
上述的文档信息汇总系统中,所述隐藏向量值计算步骤单元:
源文档隐藏向量值计算模块:通过神经网络编码器对多个所述源文档进行编码特征计算后,获取所述源文档隐藏向量值;
目标文档隐藏向量值计算模块:根据所述源文档隐藏向量值,通过图算法对所述目标文档进行特征计算后,获取所述目标文档隐藏向量值。
上述的文档信息汇总系统中,根据所述源文档隐藏向量值与所述目标文档隐藏向量值,通过注意力模块计算获取所述输出向量值。
上述的文档信息汇总系统中,根据所述输出向量值,通过解码器计算获取所述文档信息汇总结果。
本发明还提供一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现上述任一项所述的文档信息汇总方法。
本发明还提供一种电子设备可读存储介质,所述电子设备可读存储介质上存储有计算机程序指令,所述计算机程序指令被所述处理器执行时实现上述任一项所述的文档信息汇总方法,并提高了自然语言处理能力。
相比于相关技术,本发明提出的一种文档信息汇总方法、系统、电子设备及介质可以代替人工,从多文档中汇总文档信息内容,并且通过图算法弥补了传统机器学习方法对多文档信息生成的不足点。
本申请的一个或多个实施例的细节在以下附图和描述中提出,以使本申请的其他特征、目的和优点更加简明易懂。
附图说明
此处所说明的附图用来提供对本申请的进一步理解,构成本申请的一部分,本申请的示意性实施例及其说明用于解释本申请,并不构成对本申请的不当限定。在附图中:
图1是根据本申请实施例的文档信息汇总方法流程图;
图2是根据本申请实施例的多文档信息生成框架图;
图3为本发明的文档信息汇总系统的结构示意图;
图4是根据本申请实施例的电子设备的框架图。
其中,附图标记为:
隐藏向量值计算单元:51;
输出向量计算单元:52;
文档信息汇总结果获取单元:53;
源文档隐藏向量值计算模块:511;
目标文档隐藏向量值计算模块:512;
总线:80;
处理器:81;
存储器:82;
通信接口:83。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行描述和说明。应当理解,此处所描述的具体实施例仅仅用以解释本申请,并不用于限定本申请。基于本申请提供的实施例,本领域普通技术人员在没有作出创造性劳动的前提下所获得的所有其他实施例,都属于本申请保护的范围。
显而易见地,下面描述中的附图仅仅是本申请的一些示例或实施例,对于本领域的普通技术人员而言,在不付出创造性劳动的前提下,还可以根据这些附图将本申请应用于其他类似情景。此外,还可以理解的是,虽然这种开发过程中所作出的努力可能是复杂并且冗长的,然而对于与本申请公开内容相关的本领域的普通技术人员而言,在本申请揭露的技术内容基础上进行的一些设计,制造或者生产等变更只是常规的技术手段,不应当理解为本申请公开的内容不充分。
在本申请中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域普通技术人员显式地和隐式地理解的是,本申请所描述的实施例在不冲突的情况下,可以与其它实施例相结合。
除非另作定义,本申请所涉及的技术术语或者科学术语应当为本申请所属技术领域内具有一般技能的人士所理解的通常意义。本申请所涉及的“一”、“一个”、“一种”、“该”等类似词语并不表示数量限制,可表示单数或复数。本申请所涉及的术语“包括”、“包含”、“具有”以及它们任何变形,意图在于覆盖不排他的包含;例如包含了一系列步骤或模块(单元)的过程、方法、系统、产品或设备没有限定于已列出的步骤或单元,而是可以还包括没有列出的步骤或单元,或可以还包括对于这些过程、方法、产品或设备固有的其它步骤或单元。本申请所涉及的“连接”、“相连”、“耦接”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电气的连接,不管是直接的还是间接的。本申请所涉及的“多个”是指两个或两个以上。“和/或”描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:单独存在A,同时存在A和B,单独存在B这三种情况。字符“/”一般表示前后关联对象是一种“或”的关系。本申请所涉及的术语“第一”、“第二”、“第三”等仅仅是区别类似的对象,不代表针对对象的特定排序。
图像算法是指对图像进行处理所用的的算法。包括对图像去噪、图像变换、图像分析、图像压缩、图像增强、图像模糊处理等。机器学习(Machine Learning,ML)是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能的核心,是使计算机具有智能的根本途径,其应用遍及人工智能的各个领域,它主要使用归纳、综合而不是演绎。环境向系统的学习部分提供某些信息,学习部分利用这些信息修改知识库,以增进系统执行部分完成任务的效能,执行部分根据知识库完成任务,同时把获得的信息反馈给学习部分。在具体的应用中,环境,知识库和执行部分决定了具体的工作内容,学习部分所需要解决的问题完全由上述3部分确定。下面我们分别叙述这3部分对设计学习系统的影响。影响学习系统设计的最重要的因素是环境向系统提供的信息。或者更具体地说是信息的质量。知识库里存放的是指导执行部分动作的一般原则,但环境向学习系统提供的信息却是各种各样的。如果信息的质量比较高,与一般原则的差别比较小,则学习部分比较容易处理。如果向学习系统提供的是杂乱无章的指导执行具体动作的具体信息,则学习系统需要在获得足够数据之后,删除不必要的细节,进行总结推广,形成指导动作的一般原则,放入知识库,这样学习部分的任务就比较繁重,设计起来也较为困难。因为学习系统获得的信息往往是不完全的,所以学习系统所进行的推理并不完全是可靠的,它总结出来的规则可能正确,也可能不正确。这要通过执行效果加以检验。正确的规则能使系统的效能提高,应予保留;不正确的规则应予修改或从数据库中删除。知识库是影响学习系统设计的第二个因素。知识的表示有多种形式,比如特征向量、一阶逻辑语句、产生式规则、语义网络和框架等等。这些表示方式各有其特点,在选择表示方式时要兼顾以下4个方面:表达能力强;易于推理;容易修改知识库;知识表示易于扩展。对于知识库最后需要说明的一个问题是学习系统不能在全然没有任何知识的情况下凭空获取知识,每一个学习系统都要求具有某些知识理解环境提供的信息,分析比较,做出假设,检验并修改这些假设。因此,更确切地说,学习系统是对现有知识的扩展和改进。执行部分是整个学习系统的核心,因为执行部分的动作就是学习部分力求改进的动作。同执行部分有关的问题有3个:复杂性、反馈和透明性。
随着图技术发展迅猛,各种图算法、知识图谱的应用,使得传统机器学习领域的发展更上一层楼。因而图谱的下游应用性能越来越好,图算法本质就是构建不同主客体之间的关联关系。因此跨文档汇总信息时,可以有效利用图算法的特性来提升多文档信息汇总的性能。
本发明通过结合图算法与机器学习方法,降低了人力成本,并提升了机器学习多文档信息生成的性能不足,从而达到了有效的汇总多文档信息的目的。
下面结合具体实施例对本发明进行说明。
实施例一
本实施例提供了文档信息汇总方法。请参照图1至图2,图1是根据本申请实施例的文档信息汇总方法流程图;图2是根据本申请实施例的多文档信息生成框架图,如图1至图2所示,文档信息汇总方法包括如下步骤:
隐藏向量值计算步骤S1:对源文档进行编码特征计算,获取源文档隐藏向量值后,根据所述源文档隐藏向量值计算获得目标文档隐藏向量值;
输出向量计算步骤S2:根据所述源文档隐藏向量值与所述目标文档隐藏向量值计算获得输出向量值;
文档信息汇总结果获取步骤S3:根据所述输出向量值计算获得所述文档信息汇总结果。
在实施例中,所述隐藏向量值计算步骤S1包括:
源文档隐藏向量值计算步骤S11:通过神经网络编码器对多个所述源文档进行编码特征计算后,获取所述源文档隐藏向量值;
目标文档隐藏向量值计算步骤S12:根据所述源文档隐藏向量值,通过图算法对所述目标文档进行特征计算后,获取所述目标文档隐藏向量值。
在具体实施中,第一步,对多个源文档进行编码特征计算,得到源文档隐藏向量值,公式如下:
Hi=Encoder(Xi)
其中Xi表示第i个源文档,即图2中的X1,X2,X3,其中X1,X2,X3,X4为源文件;Encoder为编码器用来从源文档中提取特征,可以是多种的神经网络结构,如Transformer、BiLSTM等;Hi表示通过神经网络编码器提取的源文档隐藏向量,即图2示的H1,H2,H3;
第二步,对目标文档进行编码特征计算,得到目标文档的隐藏向量值,公式如下:
Gi=Graph(Xi+1)
其中Xi+1表示的是从多文档抽取出的目标输出文本,即图2示中的X4,X4为目标产出,即要从X1,X2,X3三个文档中汇总出X4;Graph表示图算法用来提取目标产出X4的特征向量,可以是多种的算法模型,如GCN图卷积网络等;Gi表示通过图算法提取出来的目标文本的隐藏特征向量。
在实施例中,所述输出向量计算步骤S2包括,根据所述源文档隐藏向量值与所述目标文档隐藏向量值,通过注意力模块计算获取所述输出向量值。
在具体实施中,第三步,将上述得到的Hi和Gi进行attention注意力计算,公式表达如下:
Eout=Attn(Concat(Hi),Gi+1)
其中Hi表示第一步中计算的H1,H2,H3三个隐藏向量,Concat表示拼接操作,即将三个向量横向拼接;Gi+1表示第二步计算的通过图算法提取的目标文本的特征向量;Attn表示注意力计算过程,用来计算不同源文档和目标文档的特征重要程度值,主要目的是计算H1,H2,H3三个向量中,对于输出目标特征向量的贡献程度;Eout是第三步中计算的Attention的输出向量。
在实施例中,所述文档信息汇总结果获取步骤S3包括,根据所述输出向量值,通过解码器计算获取所述文档信息汇总结果。
在具体实施中,第四步,利用Decoder解码器对记性Attention计算的隐藏状态向量Eout进行解码计算,得到输出结果,公式表达如下:
Output=Decoder(Eout)
其中,Decoder表示解码器,用来将Attn模块计算后的值进行解码计算,可以是多种神经网络模型,如BiLSTM、Transformer模型;Output即产生的跨文档文本汇总的结果。
实施例二
请参照图3,图3为本发明的文档信息汇总系统的结构示意图。如图3所示,发明的文档信息汇总,适用于上述的文档信息汇总方法,文档信息汇总系统,包括:
隐藏向量值计算单元51:对源文档进行编码特征计算,获取源文档隐藏向量值后,根据所述源文档隐藏向量值计算获得目标文档隐藏向量值;
输出向量计算单元52:根据所述源文档隐藏向量值与所述目标文档隐藏向量值计算获得输出向量值;
文档信息汇总结果获取单元53:根据所述输出向量值计算获得所述文档信息汇总结果。
在实施例中,所述隐藏向量值计算步骤单元51:
源文档隐藏向量值计算模块511:通过神经网络编码器对多个所述源文档进行编码特征计算后,获取所述源文档隐藏向量值;
目标文档隐藏向量值计算模块512:根据所述源文档隐藏向量值,通过图算法对所述目标文档进行特征计算后,获取所述目标文档隐藏向量值。
在实施例中,根据所述源文档隐藏向量值与所述目标文档隐藏向量值,通过注意力模块计算获取所述输出向量值。
在实施例中,根据所述输出向量值,通过解码器计算获取所述文档信息汇总结果。
实施例三
结合图4所示,本实施例揭示了一种电子设备的一种具体实施方式。电子设备可以包括处理器81以及存储有计算机程序指令的存储器82。
具体地,上述处理器81可以包括中央处理器(CPU),或者特定集成电路(Application Specific Integrated Circuit,简称为ASIC),或者可以被配置成实施本申请实施例的一个或多个集成电路。
其中,存储器82可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器82可包括硬盘驱动器(Hard Disk Drive,简称为HDD)、软盘驱动器、固态驱动器(SolidState Drive,简称为SSD)、闪存、光盘、磁光盘、磁带或通用串行总线(Universal SerialBus,简称为USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器82可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器82可在异常数据监测装置的内部或外部。在特定实施例中,存储器82是非易失性(Non-Volatile)存储器。在特定实施例中,存储器82包括只读存储器(Read-Only Memory,简称为ROM)和随机存取存储器(Random Access Memory,简称为RAM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(Programmable Read-Only Memory,简称为PROM)、可擦除PROM(ErasableProgrammable Read-Only Memory,简称为FPROM)、电可擦除PROM(Electrically ErasableProgrammable Read-Only Memory,简称为EFPROM)、电可改写ROM(ElectricallyAlterable Read-Only Memory,简称为EAROM)或闪存(FLASH)或者两个或更多个以上这些的组合。在合适的情况下,该RAM可以是静态随机存取存储器(Static Random-AccessMemory,简称为SRAM)或动态随机存取存储器(Dynamic Random Access Memory,简称为DRAM),其中,DRAM可以是快速页模式动态随机存取存储器(Fast Page Mode DynamicRandom Access Memory,简称为FPMDRAM)、扩展数据输出动态随机存取存储器(ExtendedDate Out Dynamic Random Access Memory,简称为EDODRAM)、同步动态随机存取内存(Synchronous Dynamic Random-Access Memory,简称SDRAM)等。
存储器82可以用来存储或者缓存需要处理和/或通信使用的各种数据文件,以及处理器81所执行的可能的计算机程序指令。
处理器81通过读取并执行存储器82中存储的计算机程序指令,以实现上述实施例中的任意文档信息汇总方法。
在其中一些实施例中,电子设备还可包括通信接口83和总线80。其中,如图4所示,处理器81、存储器82、通信接口83通过总线80连接并完成相互间的通信。
通信接口83用于实现本申请实施例中各模块、装置、单元和/或设备之间的通信。通信端口83还可以实现与其他部件例如:外接设备、图像/异常数据监测设备、数据库、外部存储以及图像/异常数据监测工作站等之间进行数据通信。
总线80包括硬件、软件或两者,将电子设备的部件彼此耦接在一起。总线80包括但不限于以下至少之一:数据总线(Data Bus)、地址总线(Address Bus)、控制总线(ControlBus)、扩展总线(Expansion Bus)、局部总线(Local Bus)。举例来说而非限制,总线80可包括图形加速接口(Accelerated Graphics Port,简称为AGP)或其他图形总线、增强工业标准架构(Extended Industry Standard Architecture,简称为EISA)总线、前端总线(FrontSide Bus,简称为FSB)、超传输(Hyper Transport,简称为HT)互连、工业标准架构(Industry Standard Architecture,简称为ISA)总线、无线带宽(InfiniBand)互连、低引脚数(Low Pin Count,简称为LPC)总线、存储器总线、微信道架构(Micro ChannelArchitecture,简称为MCA)总线、外围组件互连(Peripheral Component Interconnect,简称为PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(Serial AdvancedTechnology Attachment,简称为SATA)总线、视频电子标准协会局部(Video ElectronicsStandards Association Local Bus,简称为VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线80可包括一个或多个总线。尽管本申请实施例描述和示出了特定的总线,但本申请考虑任何合适的总线或互连。
电子设备可连接异常数据监测系统,从而实现结合图1至图2描述的方法。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
综上所述,本发明通过机器学习和图算法结合,利用机器学习完成汇总生成的同时利用图算法提取多文档之间的关系特征,从而实现基于机器学习的多文档信息生成,达到利用图算法弥补机器学习多文档信息生成不足的缺点。因而解决了机器以及人工汇总多文档信息过程中的文档信息关联性缺失以及成本高等问题。
以上所述实施例仅表达了本申请的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本申请构思的前提下,还可以做出若干变形和改进,这些都属于本申请的保护范围。因此,本申请专利的保护范围应以所附权利要求的保护范围为准。
Claims (8)
1.一种文档信息汇总方法,其特征在于,包括:
隐藏向量值计算步骤:对源文档进行编码特征计算,获取源文档隐藏向量值后,根据从所述源文档中抽取出的目标文档计算获得目标文档隐藏向量值;
输出向量计算步骤:根据所述源文档隐藏向量值与所述目标文档隐藏向量值计算获得输出向量值;
文档信息汇总结果获取步骤:根据所述输出向量值计算获得所述文档信息汇总结果;
其中,所述隐藏向量值计算步骤包括:
源文档隐藏向量值计算步骤:通过神经网络编码器对多个所述源文档进行编码特征计算后,获取所述源文档隐藏向量值;
目标文档隐藏向量值计算步骤:通过图算法对所述目标文档进行特征计算后,获取所述目标文档隐藏向量值。
2.根据权利要求1所述的文档信息汇总方法,其特征在于,所述输出向量计算步骤包括,根据所述源文档隐藏向量值与所述目标文档隐藏向量值,通过注意力模块计算获取所述输出向量值。
3.根据权利要求1所述的文档信息汇总方法,其特征在于,所述文档信息汇总结果获取步骤包括,根据所述输出向量值,通过解码器计算获取所述文档信息汇总结果。
4.一种文档信息汇总系统,其特征在于,适用于上述权利要求1至3中任一项所述的文档信息汇总方法,所述文档信息汇总系统包括:
隐藏向量值计算单元:对源文档进行编码特征计算,获取源文档隐藏向量值后,根据从所述源文档中抽取出的目标文档计算获得目标文档隐藏向量值;
输出向量计算单元:根据所述源文档隐藏向量值与所述目标文档隐藏向量值计算获得输出向量值;
文档信息汇总结果获取单元:根据所述输出向量值计算获得所述文档信息汇总结果;
其中,所述隐藏向量值计算步骤单元:
源文档隐藏向量值计算模块:通过神经网络编码器对多个所述源文档进行编码特征计算后,获取所述源文档隐藏向量值;
目标文档隐藏向量值计算模块:通过图算法对所述目标文档进行特征计算后,获取所述目标文档隐藏向量值。
5.根据权利要求4所述的文档信息汇总系统,其特征在于,根据所述源文档隐藏向量值与所述目标文档隐藏向量值,通过注意力模块计算获取所述输出向量值。
6.根据权利要求5所述的文档信息汇总系统,其特征在于,根据所述输出向量值,通过解码器计算获取所述文档信息汇总结果。
7.一种电子设备,包括存储器、处理器以及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至3中任一项所述的文档信息汇总方法。
8.一种电子设备可读存储介质,所述电子设备可读存储介质上存储有计算机程序指令,所述计算机程序指令被处理器执行时实现如权利要求1至3中任一项所述的文档信息汇总方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110690978.5A CN113449490B (zh) | 2021-06-22 | 2021-06-22 | 一种文档信息汇总方法、系统、电子设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110690978.5A CN113449490B (zh) | 2021-06-22 | 2021-06-22 | 一种文档信息汇总方法、系统、电子设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113449490A CN113449490A (zh) | 2021-09-28 |
CN113449490B true CN113449490B (zh) | 2024-01-26 |
Family
ID=77812104
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110690978.5A Active CN113449490B (zh) | 2021-06-22 | 2021-06-22 | 一种文档信息汇总方法、系统、电子设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113449490B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109325549A (zh) * | 2018-10-25 | 2019-02-12 | 电子科技大学 | 一种人脸图像融合方法 |
CN109344391A (zh) * | 2018-08-23 | 2019-02-15 | 昆明理工大学 | 基于神经网络的多特征融合中文新闻文本摘要生成方法 |
CN111581970A (zh) * | 2020-05-12 | 2020-08-25 | 厦门市美亚柏科信息股份有限公司 | 一种网络语境的文本识别方法、装置及存储介质 |
CN111883224A (zh) * | 2020-07-01 | 2020-11-03 | 金蝶医疗软件科技有限公司 | 电子病历的处理方法、装置、计算机设备和存储介质 |
JP2021033995A (ja) * | 2019-08-16 | 2021-03-01 | 株式会社Nttドコモ | テキスト処理装置、方法、デバイス及びコンピューター読み取り可能な記憶媒体 |
-
2021
- 2021-06-22 CN CN202110690978.5A patent/CN113449490B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109344391A (zh) * | 2018-08-23 | 2019-02-15 | 昆明理工大学 | 基于神经网络的多特征融合中文新闻文本摘要生成方法 |
CN109325549A (zh) * | 2018-10-25 | 2019-02-12 | 电子科技大学 | 一种人脸图像融合方法 |
JP2021033995A (ja) * | 2019-08-16 | 2021-03-01 | 株式会社Nttドコモ | テキスト処理装置、方法、デバイス及びコンピューター読み取り可能な記憶媒体 |
CN111581970A (zh) * | 2020-05-12 | 2020-08-25 | 厦门市美亚柏科信息股份有限公司 | 一种网络语境的文本识别方法、装置及存储介质 |
CN111883224A (zh) * | 2020-07-01 | 2020-11-03 | 金蝶医疗软件科技有限公司 | 电子病历的处理方法、装置、计算机设备和存储介质 |
Non-Patent Citations (2)
Title |
---|
Get To The Point: Summarization with Pointer-Generator Networks;Abigail See et al;《arXiv:1704.04368v2》;第1-20页 * |
融合句义特征的多文档自动摘要算法研究;罗森林等;《北京理工大学学报》;第1059-1064页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113449490A (zh) | 2021-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11544474B2 (en) | Generation of text from structured data | |
CN109960810B (zh) | 一种实体对齐方法及装置 | |
US20220318275A1 (en) | Search method, electronic device and storage medium | |
CN110162766B (zh) | 词向量更新方法和装置 | |
CN108664512B (zh) | 文本对象分类方法及装置 | |
WO2020147409A1 (zh) | 一种文本分类方法、装置、计算机设备及存储介质 | |
CN114861889B (zh) | 深度学习模型的训练方法、目标对象检测方法和装置 | |
CN112613293B (zh) | 摘要生成方法、装置、电子设备及存储介质 | |
CN113434683B (zh) | 文本分类方法、装置、介质及电子设备 | |
US20230133981A1 (en) | Method of training image generation model, and method of generating image | |
CN115861462B (zh) | 图像生成模型的训练方法、装置、电子设备及存储介质 | |
US20230008897A1 (en) | Information search method and device, electronic device, and storage medium | |
CN111143551A (zh) | 文本预处理方法、分类方法、装置及设备 | |
CN115759119B (zh) | 一种金融文本情感分析方法、系统、介质和设备 | |
Huai et al. | Zerobn: Learning compact neural networks for latency-critical edge systems | |
CN117891930B (zh) | 基于知识图谱增强大语言模型的图书知识问答方法 | |
US20220207427A1 (en) | Method for training data processing model, electronic device and storage medium | |
CN113657411A (zh) | 神经网络模型的训练方法、图像特征提取方法及相关装置 | |
CN117635275A (zh) | 基于大数据的智能电商运营商品管理平台及方法 | |
CN117520815A (zh) | 基于多模态的信息抽取方法、装置、设备及存储介质 | |
CN113449490B (zh) | 一种文档信息汇总方法、系统、电子设备及介质 | |
CN115186738B (zh) | 模型训练方法、装置和存储介质 | |
CN113076393A (zh) | 文案生成方法及装置、计算机存储介质、电子设备 | |
CN115293143A (zh) | 一种使用Entity显式图的生成式多文档摘要方法 | |
CN114218431A (zh) | 视频搜索方法、装置、电子设备以及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |