CN115391450B - 推理信息生成方法、装置、设备、可读存储介质及产品 - Google Patents
推理信息生成方法、装置、设备、可读存储介质及产品 Download PDFInfo
- Publication number
- CN115391450B CN115391450B CN202211033631.4A CN202211033631A CN115391450B CN 115391450 B CN115391450 B CN 115391450B CN 202211033631 A CN202211033631 A CN 202211033631A CN 115391450 B CN115391450 B CN 115391450B
- Authority
- CN
- China
- Prior art keywords
- data
- training
- model
- original
- algorithm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 80
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 203
- 238000000605 extraction Methods 0.000 claims abstract description 81
- 238000012549 training Methods 0.000 claims description 233
- 238000004364 calculation method Methods 0.000 claims description 131
- 238000012545 processing Methods 0.000 claims description 22
- 230000008859 change Effects 0.000 claims description 20
- 230000006870 function Effects 0.000 claims description 18
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000002372 labelling Methods 0.000 claims description 7
- 238000013473 artificial intelligence Methods 0.000 abstract description 4
- 238000013135 deep learning Methods 0.000 abstract description 3
- 238000004590 computer program Methods 0.000 description 14
- 238000010586 diagram Methods 0.000 description 10
- 230000008569 process Effects 0.000 description 10
- 238000004891 communication Methods 0.000 description 9
- 230000003993 interaction Effects 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/26—Visual data mining; Browsing structured data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/90—Details of database functions independent of the retrieved data types
- G06F16/906—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本公开提供了推理信息生成方法、装置、设备、可读存储介质及产品,涉及人工智能领域,尤其涉及深度学习领域。具体实现方案为:获取推理信息生成请求,其中,所述推理信息生成请求中包括原始图表,所述原始图表中包括多个表头以及各表头对应的原始数据;根据所述推理信息生成请求采用预设的至少一个数据增强算法对所述各表头对应的原始数据进行数据增强操作,获得多个待处理数据;将所述待处理数据输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。从而能够实现对图表中复杂推理信息的准确提取。
Description
技术领域
本公开涉及人工智能中的深度学习,尤其涉及一种推理信息生成方法、装置、设备、可读存储介质及产品。
背景技术
图表为可直观展示统计信息属性(时间性,数量性等),对知识挖掘和信息直观生动感受起关键作用的图形结构。为了使得用户能够更加直观地对图表中的数据进行了解,可以根据图表中记录的原始数据生成推理信息。
现有的基于图表的推理信息生成方法一般是通过预定义的减法操作以及求最大值操作对原始数据进行处理,并将处理后的原始数据输入至预设的信息抽取模型中,实现推理信息的获取。但是,采用上述方法无法满足图表推理信息生成过程中的复杂推理问题,且进一步地导致信息抽取模型抽取到的推理信息准确性不高。
发明内容
本公开提供了一种用于提高推理信息准确性且提高获取到的推理信息的多样性的推理信息生成方法、装置、设备、可读存储介质及产品。
根据本公开的第一方面,提供了一种推理信息生成方法,包括:
获取推理信息生成请求,其中,所述推理信息生成请求中包括原始图表,;
根据所述推理信息生成请求采用预设的至少一个数据增强算法对所述原始图表进行数据增强操作,获得多个待处理数据;
将所述待处理数据输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。
根据本公开的第二方面,提供了一种推理信息生成方法,包括:
获取第一训练数据集;
通过对比学习的方式采用所述第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型;
获取第二训练数据集;
通过端对端的学习方式采用所述第二训练数据集对所述预训练模型进行微调操作,获得推理信息抽取模型,所述推理信息抽取模型用于在获取到推理信息生成请求之后,根据所述推理信息生成请求对原始图表对应的数据增强操作后的待处理数据进行推理信息的生成操作。
根据本公开的第三方面,提供了一种推理信息生成装置,包括:
获取模块,用于获取推理信息生成请求,其中,所述推理信息生成请求中包括原始图表;
处理模块,用于根据所述推理信息生成请求采用预设的至少一个数据增强算法对所述原始图表进行数据增强操作,获得多个待处理数据;
生成模块,用于将所述待处理数据输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。
根据本公开的第四方面,提供了一种推理信息生成装置,包括:
第一数据获取模块,用于获取第一训练数据集;
第一训练模块,用于通过对比学习的方式采用所述第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型;
第二数据获取模块,用于获取第二训练数据集;
第二训练模块,用于通过端对端的学习方式采用所述第二训练数据集对所述预训练模型进行微调操作,获得推理信息抽取模型,所述推理信息抽取模型用于在获取到推理信息生成请求之后,根据所述推理信息生成请求对原始图表对应的数据增强操作后的待处理数据进行推理信息的生成操作。
根据本公开的第五方面,提供了一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行第一方面或第二方面所述的方法。
根据本公开的第六方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行第一方面或第二方面所述的方法。
根据本公开的第七方面,提供了一种计算机程序产品,所述计算机程序产品包括:计算机程序,所述计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从所述可读存储介质读取所述计算机程序,所述至少一个处理器执行所述计算机程序使得电子设备执行第一方面或第二方面所述的方法。
根据本公开的技术解决了现有的图表推理信息生成方法生成的推理信息准确性不高,且无法适用于不同的应用场景的技术问题。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开基于的系统架构示意图;
图2为本公开实施例提供的推理信息生成方法的流程示意图;
图3为本公开又一实施例提供的推理信息生成方法的流程示意图;
图4为本公开又一实施例提供的推理信息生成方法的流程示意图;
图5为本公开实施例提供的模型训练流程图;
图6为本公开又一实施例提供的推理信息生成方法的流程示意图;
图7为本公开又一实施例提供的推理信息生成方法的流程示意图;
图8为本公开实施例提供的推理信息生成装置的结构示意图;
图9为本公开实施例提供的推理信息生成装置的结构示意图;
图10为本公开实施例提供的电子设备1000的结构示意图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
本公开提供一种推理信息生成方法、装置、设备、可读存储介质及产品应用于人工智能中的深度学习,以达到提高推理信息准确性且提高获取到的推理信息的多样性的效果。
需要说明的是,本公开提供的推理信息生成方法、装置、设备、可读存储介质及产品可运用在对各种图表推理信息生成的场景中。
现有的推理信息生成方法一般都是预定义减法操作以及求最大值操作对原始数据进行处理,将处理后的原始数据输入至预设的模型中进行推理信息的生成。但是,采用上述方法进行推理信息的生成,仅定义减法以及求最大值操作无法满足图表推理信息生成过程中的复杂推理问题,进而导致模型生成推理信息的能力下降。
在解决上述技术问题的过程中,发明人通过研究发现,为了能够解决图表推理信息生成过程中的复杂推理问题,可以预先定义多个数据增强算法,基于该多个数据增强算法对原始图表进行数据增强操作。并预先基于该多个数据增强算法,采用对比学习的方式对预设的待训练模型进行预训练操作,使得训练后的预训练模型能够具备推理信息生成的能力。进一步地,采用端对端的学习方式对预训练模型进行微调操作,使得训练后的推理信息抽取模型能够选择最准确的数据增强算法处理后的待处理数据对原始图表的推理信息进行生成。将该数据增强后的待处理数据输入至该推理信息抽取模型中,从而能够得到原始图表对应的准确的推理信息。
图1为本公开基于的系统架构示意图,如图1所示,本公开基于的系统架构至少包括:终端设备11以及服务器12,终端设备11与服务器12通信连接。其中,服务器12中设置有推理信息生成装置,该推理信息生成装置可采用C/C++、Java、Shell或Python等语言编写;终端设备21则可例如台式电脑、平板电脑等。
基于上述系统架构,服务器12能够获取终端设备11发送的推理信息生成请求。根据该推理信息生成请求采用至少一个数据增强算法13对原始图表中的原始数据进行数据增强操作,获得待处理数据。将待处理数据输入至预设的推理信息抽取模型14,获得原始图表对应的推理信息。
图2为本公开实施例提供的推理信息生成方法的流程示意图,如图2所示,该方法包括:
步骤201、获取推理信息生成请求,其中,所述推理信息生成请求中包括原始图表。
本实施例的执行主体为推理信息生成装置,该推理信息生成装置可耦合于服务器中。该服务器能够与终端设备通信连接,从而能够与终端设备进行信息交互。
在本实施方式中,为了便于用户对原始图表中的内容进行快速地理解,可以对原始图表的推理信息进行抽取。因此,用户可以根据实际需求发起推理信息生成请求,其中,该推理信息生成请求中包括原始图表。相应的,推理信息生成装置可以获取该推理信息生成请求。
步骤202、根据所述推理信息生成请求采用预设的至少一个数据增强算法对所述原始图表进行数据增强操作,获得多个待处理数据。
在本实施方式中,原始图表可以记载有大量的原始数据,而直接基于原始数据进行推理信息的生成往往效率不高,且生成的推理信息准确性不高。因此,为了提高推理信息的生成效率以及准确性,可以预先设置至少一个数据增强算法,该数据增强算法能够初步对原始数据中的复杂推理问题进行梳理,已达到数据增强的效果。
相应地,在获取到推理信息生成请求之后,可以根据该推理信息生成请求采用预设的至少一个数据增强算法对原始图表进行数据增强操作,获得多个待处理数据。
可选地,原始图表中可以包括多个表头,每一表头中可以记录有多个原始数据。为了能够对原始图表中推理信息的准确抽取,针对每一表头对应的原始数据,可以分别采用至少一个数据增强算法对原始数据进行数据增强操作,得到各表头对应的多个待处理数据。
步骤203、将所述待处理数据输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。
在本实施方式中,为了实现对推理信息的抽取操作,可以预先训练一推理信息抽取模型。其中,该推理信息抽取模型具体可以为采用对比学习的方式进行预训练,并采用端对端的方式进行微调后获得的。在预训练过程中,可以使得训练后的预训练模型能够具备推理信息生成的能力。且通过采用对比学习的方式进行训练,能够使得预训练模型生成的推理信息更加贴近准确的推理信息,并且与不准确的推理信息之间的差异更大。进一步地,通过采用端对端的方式对预训练模型进行微调操作,从而能够使得训练后的推理信息抽取模型能够在多个数据增强算法对应的待处理结果关联的推理信息中选择更准确的推理信息进行输出。有效地提高了推理信息抽取模型生成的推理信息的准确性。
进一步地,在对原始图表进行数据增强获得多个待处理数据之后,可以将待处理数据输入至该推理信息抽取模型中,获得原始图表对应的推理信息。
本实施例提供的推理信息生成方法,通过预先设置至少一个数据增强算法,从而能够基于该至少一个数据增强算法对原始图表中复杂的原始数据进行信息增强操作,以便于后续推理信息抽取模型进行推理信息的抽取操作。此外,通过采用对比学习的方式对预设的待训练模型进行预训练操作,使得训练后的预训练模型能够具备推理信息生成的能力。进一步地,采用端对端的学习方式对预训练模型进行微调操作,使得训练后的推理信息抽取模型能够选择最准确的数据增强算法处理后的待处理数据对原始图表的推理信息进行生成。从而能够提高推理信息抽取模型信息抽取的准确性。
进一步地,在上述任一实施例的基础上,所述原始图表中包括多个表头以及各表头对应的原始数据;步骤202包括:
针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据;
根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据。
在本实施例中,原始图表中可以包括多个表头,每一表头中可以记录有多个原始数据。为了提高生成的推理信息的准确性,针对每一表头对应的原始数据,可以分别采用至少一个数据增强算法进行数据增强操作。
在实际应用中,不同的数据增强算法需要使用不同的原始数据进行计算,因此,针对每一数据增强算法,可以在各表头对应的原始数据中获取与数据增强算法对应的参与计算的至少两个原始数据。根据该数据增强算法对至少两个原始数据进行计算,实现对原始图表数据增强操作,获得多个待处理数据。
可选地,在上述任一实施例的基础上,所述数据增强算法包括时序差值算法;其中,所述针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据,包括:
针对所述每一表头对应的原始数据,获取所述表头对应的原始数据中时序最晚的数据以及时序最早的数据。
所述根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据包括:
通过所述时序差值算法计算所述时序最晚的数据以及时序最早的数据之间的差值,获得第一计算结果。
确定所述第一计算结果对应的第一趋势指示符,所述第一趋势指示符用于表征所述第一计算结果的数据变化趋势。
将所述第一计算结果以及所述第一趋势指示符确定为所述待处理数据。
在本实施例中,该数据增强算法包括时序差值算法。基于该时序差值算法,针对每一表头对应的原始数据,可以获取表头对应的原始数据中时序最晚的数据以及时序最早的数据。根据该时序差值算法计算该时序最晚的数据以及时序最早的数据之间的差值,得到第一计算结果。确定该第一计算结果对应的第一趋势指示符,第一趋势指示符用于表征第一计算结果的数据变化趋势。将第一计算结果以及第一趋势指示符确定为待处理数据。
以实际应用举例来说,某一APP2022年用户数量为A,2000年用户数量为B,则22年来用户数增长量则为A-B。某一APP2022年用户数量为A,2000年用户数量为B,则22年来用户数增长量则为A-B。其中,该第一趋势指示符则可以为用户增长。
可选地,在上述任一实施例的基础上,所述数据增强算法包括差值算法;其中,所述针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据,包括:
针对每一表头对应的原始数据,获取所述表头对应的原始数据中的最大值以及次最大值。
所述根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据包括:
根据所述差值算法计算所述最大值以及次最大值之间的差值,获得第二计算结果。
确定所述第二计算结果对应的第二趋势指示符,所述第二趋势指示符用于表征所述第二计算结果对应的数据变化趋势。
将所述第二计算结果以及所述第二趋势指示符确定为所述待处理数据。
在本实施例中,数据增强算法可以包括差值算法。基于该差值算法,针对每一表头对应的原始数据,获取表头对应的原始数据中的最大值以及次最大值。根据差值算法计算最大值以及次最大值之间的差值,获得第二计算结果。确定第二计算结果对应的第二趋势指示符,第二趋势指示符用于表征第二计算结果对应的数据变化趋势。将第二计算结果以及第二趋势指示符确定为待处理数据。
可选地,在上述任一实施例的基础上,所述数据增强算法包括比例算法;其中,所述针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据,包括:
针对每一表头对应的原始数据,获取所述表头对应的原始数据中时序最晚的数据以及时序最早的数据。
所述根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据包括:
通过所述比例算法计算所述时序最晚的数据以及时序最早的数据之间的比值,获得第三计算结果。
确定所述第三计算结果对应的第三趋势指示符,所述第三趋势指示符用于表征所述第三计算结果对应的数据变化趋势。
将所述第三计算结果以及所述第三趋势指示符确定为所述待处理数据。
在本实施例中,数据增强算法可以包括比例算法。基于该比例算法,针对每一表头对应的原始数据,获取表头对应的原始数据中时序最晚的数据以及时序最早的数据。通过比例算法计算时序最晚的数据以及时序最早的数据之间的比值,获得第三计算结果。确定第三计算结果对应的第三趋势指示符,第三趋势指示符用于表征第三计算结果对应的数据变化趋势。将第三计算结果以及第三趋势指示符确定为待处理数据。
以实际应用举例来说,某一产品2000年产量为100件,2022年产量为10000件,则通过上述公式计算得到产量增长倍数为十倍。该第三趋势指示符则可以产量增长。
可选地,在上述任一实施例的基础上,所述数据增强算法包括增长率算法;其中,所述针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据,包括:
针对每一表头对应的原始数据,获取所述表头对应的原始数据中的最大值以及次最大值。
所述根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据包括:
根据所述增长率算法计算所述最大值以及次最大值之间的比值,获得第四计算结果。
确定所述第四计算结果对应的第四趋势指示符,所述第四趋势指示符用于表征所述第四计算结果对应的数据变化趋势。
将所述第四计算结果以及所述第四趋势指示符确定行为所述待处理数据。
在本实施例中,数据增强算法可以包括增长率算法,根据该增强率算法,可以针对每一表头对应的原始数据,获取表头对应的原始数据中的最大值以及次最大值。根据增长率算法计算最大值以及次最大值之间的比值,获得第四计算结果。确定第四计算结果对应的第四趋势指示符,第四趋势指示符用于表征第四计算结果对应的数据变化趋势。将第四计算结果以及第四趋势指示符确定行为待处理数据。
本实施例提供的推理信息生成方法,通过设置多样化的数据增强算法,从而针对不同场景下的原始图表均能够准确地对原始图表中的原始数据进行数据增强操作。进而基于该数据增强后的待处理数据,推理信息抽取模型能够准确地进行推理信息的抽取,以便读者快速地对原始图表进行理解。
图3为本公开又一实施例提供的推理信息生成方法的流程示意图,如图3所示,步骤202包括:
步骤301、针对每一待处理数据,确定所述待处理数据所使用的数据增强算法、参与计算的两个原始数据、计算结果、所述计算结果对应的趋势指示符。
步骤302、分别对所述数据增强结果所使用的数据增强算法、参与计算的两个原始数据、计算结果、所述计算结果对应的趋势指示符进行特征提取操作,获得所述待处理数据对应的五元组。
步骤303、通过预设的格式转换算法将所述五元组转换为目标格式,将所述目标格式的五元组输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。
在本实施例中,在将待处理数据输入至推理信息抽取模型之前,为了提高推理信息抽取模型的处理效率,首先可以将待处理数据转换为推理信息抽取模型能够识别的数据格式。
可选地,针对每一待处理数据,可以确定数据增强过程中,该待处理数据所使用的数据增强算法、参与计算的两个原始数据、计算结果、计算结果对应的趋势指示符。举例来说,数据增强算法fm,1;可以为增长率算法,参与计算的两个原始数据可以为fm,2,fm,3,计算结果可以为fm,4;例如,可以为5800,趋势指示符(fm,5;比如0),这个趋势指示符可以用来表明图表中的数据趋势是增加还是降低。
针对上述五个数据,分别对其进行特征提取操作,得到待处理数据对应的五元组。通过预设的格式转换算法将五元组转换为目标格式,将目标格式的五元组输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。其中,该格式转换算法可以如公式1所示:
其中Wf和bf是可训练的参数,fm,1是fm,1的特征表示,fm,2是fm,2的特征表示,fm,5是fm,5的特征表示。
本实施例提供的推理信息生成方法,通过在将待处理数据输入至推理信息抽取模型之前,预先对待处理数据进行特征提取,并将其转换为推理信息抽取模型能够识别并处理的目标格式,从而能够有效地提高推理信息抽取模型的处理效率,快速地实现对推理信息的抽取操作。
图4为本公开又一实施例提供的推理信息生成方法的流程示意图,如图4所示,该方法包括:
步骤401、获取第一训练数据集。
步骤402、通过对比学习的方式采用所述第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型。
步骤403、获取第二训练数据集。
步骤404、通过端对端的学习方式采用所述第二训练数据集对所述预训练模型进行微调操作,获得推理信息抽取模型,所述推理信息抽取模型用于在获取到推理信息生成请求之后,根据所述推理信息生成请求对原始图表对应的数据增强操作后的待处理数据进行推理信息的生成操作。
在本实施例中,为了实现对推理信息的抽取操作,可以预先训练一推理信息抽取模型。其中,该推理信息抽取模型具体可以为采用对比学习的方式进行预训练,并采用端对端的方式进行微调后获得的。
具体地,首先可以获取第一训练数据集。通过该第一训练数据集采用对比学习的方式对预设的待训练模型进行预训练操作,获得预训练模型。在对比学习的过程中,能够使得预训练模型生成的推理信息更加贴近准确的推理信息,并且与不准确的推理信息之间的差异更大。
进一步地,可以获取第二训练数据集,采用该第二训练数据集对该预训练模型进行微调操作。具体地,可以采用端对端的训练方式对预训练模型进行微调,获得推理信息抽取模型。从而能够使得训练后的推理信息抽取模型能够在多个数据增强算法对应的待处理结果关联的推理信息中选择更准确的推理信息进行输出。有效地提高了推理信息抽取模型生成的推理信息的准确性。
在训练获得推理信息抽取模型之后,可以将原始图表对应的待处理数据输入至该推理信息抽取模型中,获得原始图表对应的推理信息。
图5为本公开实施例提供的模型训练流程图,如图5所示,首先可以采用第一训练数据集对预设的待训练模型51进行训练操作,直至待训练模型51满足预设的收敛条件,获得预训练模型52。采用第二训练数据集对该预训练模型52进行训练操作,得到推理信息抽取模型53。
本实施例提供的推理信息生成方法,通过采用对比学习的方式对预设的待训练模型进行预训练操作,使得训练后的预训练模型能够具备推理信息生成的能力。进一步地,采用端对端的学习方式对预训练模型进行微调操作,使得训练后的推理信息抽取模型能够选择最准确的数据增强算法处理后的待处理数据对原始图表的推理信息进行生成。从而能够提高推理信息抽取模型信息抽取的准确性。
图6为本公开又一实施例提供的推理信息生成方法的流程示意图,在上述任一实施例的基础上,所述第一训练数据集中包括多个训练图表,以及各训练图表中各表头中原始数据对应的多个正例样本对以及负例样本对,各正例样本对中包括数据增强算法以及与所述数据增强算法相匹配的文本,各负例样本对中包括数据增强算法以及与数据增强算法不匹配的文本。如图6所示,步骤402包括:
步骤601、将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中,获得所述待训练模型输出的所述数据增强算法对应的第一推理结果。
步骤602、根据所述第一推理结果、所述数据增强算法对应的正例样本以及负例样本,以及预设的损失函数计算所述待训练模型对应的第一损失值。
步骤603、根据所述第一损失值对所述待训练模型进行迭代训练,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
在本实施例中,该第一训练数据集中包括多个训练图表,以及各训练图表中各表头中原始数据对应的多个正例样本对以及负例样本对,各正例样本对中包括数据增强算法以及与所述数据增强算法相匹配的文本,各负例样本对中包括数据增强算法以及与数据增强算法不匹配的文本。
在获取到第一训练数据集之后,可以将第一训练数据集中的训练图表以及数据增强算法输入至待训练模型中,以使待训练模型能够根据该训练图表以及数据增强算法进行第一推理结果的生成。进一步地,根据该第一推理结果、数据增强算法对应的正例样本以及负例样本,以及预设的损失函数计算所述待训练模型对应的第一损失值。其中,该预设的损失函数如公式2-4所示:
其中,其中J(·,·)是交叉熵损失函数,τ是温度,L是整个损失函数。M表示预定义的公式的总数,N表示公式对应的句子模板的总数。
在获得第一损失值之后,可以根据该第一损失值对待训练模型的参数进行调节。重复上述步骤对待训练模型进行迭代训练,直至待训练模型满足预设的第一收敛条件,获得所述预训练模型。其中,该预设的第一收敛条件包括但不限于第一损失值小于预设的第一损失值阈值,两次训练得到的第一损失值之间的差值小于预设的第一差值阈值,训练次数达到预设的第一次数阈值,训练时间达到预设的第一时间阈值等。
进一步地,在上述任一实施例的基础上,步骤603包括:
根据所述第一损失值对所述待训练模型的参数进行调整,以提高所述第一推理结果与所述正例样本之间的相似度,并降低所述第一推理结果与负例样本之间的相似度。
将调整后的待训练模型确定为当前的待训练模型,返回执行将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中的步骤,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
在本实施例中,在获得第一损失值之后,可以根据该第一损失值对待训练模型的参数进行调节。以提高待训练模型后续输出的第一推理结果之间的相似度,并降低第一推理结果与负例样本之间的相似度。
将调整后的待训练模型确定为当前的待训练模型,并返回执行将第一训练数据集中的训练图表以及数据增强算法输入至待训练模型中的步骤,直至待训练模型满足预设的第一收敛条件,获得预训练模型。
本实施例提供的推理信息生成方法,通过采用对比学习的方式对预设的待训练模型进行预训练操作,从而能够使得预训练模型输出的第一推理结果与正例样本更加接近,且与负例样本之间的差异性更大。有效地提高了预训练模型信息抽取的准确性。
图7为本公开又一实施例提供的推理信息生成方法的流程示意图,在上述任一实施例的基础上,所述第二训练数据集中包括多个数据对,各数据对包括图表信息、原始图表、数据增强后的待处理数据以及所述原始图表对应的标注信息,所述标注信息为准确推理信息。如图7所示,步骤404包括:
步骤701、将所述第二训练数据集中的图表信息、原始图表以及数据增强后的待处理数据输入至所述预训练模型中,获得所述预训练模型输出的第二推理结果。
步骤702、根据所述第二推理结果、所述标注信息以及预设的交叉熵损失函数计算所述预训练模型对应的第二损失值。
步骤703、根据所述第二损失值对所述预训练模型进行迭代训练,直至所述预训练模型满足预设的第二收敛条件,获得所述推理信息抽取模型。
在本实施例中,第二训练数据集中包括多个数据对,各数据对包括图表信息、原始图表、数据增强后的待处理数据以及所述原始图表对应的标注信息,所述标注信息为准确推理信息。
进一步地,由于每一表头均采用至少一个数据增强算法进行数据增强操作。因此,在推理信息生成过程中,需要选择最准确的待处理数据对应的文本作为最终的推理信息。因此,为了使得推理信息抽取模型能够具备选择最优数据增强算法对应的文本的能力,在获取到第二训练数据集之后,可以将第二训练数据集中的图表信息、原始图表以及数据增强后的待处理数据输入至预训练模型中,获得预训练模型输出的第二推理结果。
根据第二推理结果、标注信息以及预设的交叉熵损失函数计算预训练模型对应的第二损失值。根据该第二损失值对预训练模型进行迭代训练,直至预训练模型满足预设的第二收敛条件,获得推理信息抽取模型。其中,该预设的第二收敛条件包括但不限于第二损失值小于预设的第二损失值阈值,两次训练得到的第二损失值之间的差值小于预设的第二差值阈值,训练次数达到预设的第二次数阈值,训练时间达到预设的第二时间阈值等。
本实施例提供的推理信息生成方法,通过采用端对端的方式对预训练模型进行微调操作,从而能够使得训练后的推理信息抽取模型能够准确地选择数据增强算法对应的文本作为最终的推理信息,进一步地提高推理信息抽取模型信息抽取的准确性。
图8为本公开实施例提供的推理信息生成装置的结构示意图,如图8所示,该装置包括:获取模块81、处理模块82以及生成模块83,其中,获取模块81,用于获取推理信息生成请求,其中,所述推理信息生成请求中包括原始图表。处理模块82,用于根据所述推理信息生成请求采用预设的至少一个数据增强算法对所述原始图表进行数据增强操作,获得多个待处理数据。生成模块83,用于将所述待处理数据输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。
进一步地,在上述任一实施例的基础上,所述原始图表中包括多个表头以及各表头对应的原始数据;所述处理模块包括:原始数据获取单元,用于针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据;数据增强单元,用于根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据。
进一步地,在上述任一实施例的基础上,所述数据增强算法包括时序差值算法。其中,所述原始数据获取单元,包括:第一获取单元,用于针对每一表头对应的原始数据,获取所述表头对应的原始数据中时序最晚的数据以及时序最早的数据。所述数据增强单元包括:第一计算单元,用于通过所述时序差值算法计算所述时序最晚的数据以及时序最早的数据之间的差值,获得第一计算结果。第一确定单元,用于确定所述第一计算结果对应的第一趋势指示符,所述第一趋势指示符用于表征所述第一计算结果的数据变化趋势。第一处理单元,用于将所述第一计算结果以及所述第一趋势指示符确定为所述待处理数据。
进一步地,在上述任一实施例的基础上,所述数据增强算法包括差值算法。其中,所述原始数据获取单元,包括:第二获取单元,用于针对每一表头对应的原始数据,获取所述表头对应的原始数据中的最大值以及次最大值。所述数据增强单元包括:第二计算单元,用于根据所述差值算法计算所述最大值以及次最大值之间的差值,获得第二计算结果。第二确定单元,用于确定所述第二计算结果对应的第二趋势指示符,所述第二趋势指示符用于表征所述第二计算结果对应的数据变化趋势。第二处理单元,用于将所述第二计算结果以及所述第二趋势指示符确定为所述待处理数据。
进一步地,在上述任一实施例的基础上,所述数据增强算法包括比例算法。其中,所述原始数据获取单元,包括:第三获取单元,用于针对每一表头对应的原始数据,获取所述表头对应的原始数据中时序最晚的数据以及时序最早的数据。所述数据增强单元包括:第三计算单元,用于通过所述比例算法计算所述时序最晚的数据以及时序最早的数据之间的比值,获得第三计算结果。第三确定单元,用于确定所述第三计算结果对应的第三趋势指示符,所述第三趋势指示符用于表征所述第三计算结果对应的数据变化趋势。第三处理单元,用于将所述第三计算结果以及所述第三趋势指示符确定为所述待处理数据。
进一步地,在上述任一实施例的基础上,所述数据增强算法包括增长率算法。其中,所述原始数据获取单元,包括:第四获取单元,用于针对每一表头对应的原始数据,获取所述表头对应的原始数据中的最大值以及次最大值。所述数据增强单元包括:第四计算单元,用于根据所述增长率算法计算所述最大值以及次最大值之间的比值,获得第四计算结果。第四确定单元,用于确定所述第四计算结果对应的第四趋势指示符,所述第四趋势指示符用于表征所述第四计算结果对应的数据变化趋势。第四处理单元,用于将所述第四计算结果以及所述第四趋势指示符确定行为所述待处理数据。
进一步地,在上述任一实施例的基础上,其中,所述生成模块包括:数据确定单元,用于针对每一待处理数据,确定所述待处理数据所使用的数据增强算法、参与计算的两个原始数据、计算结果、所述计算结果对应的趋势指示符。特征提取单元,用于分别对所述数据增强结果所使用的数据增强算法、参与计算的两个原始数据、计算结果、所述计算结果对应的趋势指示符进行特征提取操作,获得所述待处理数据对应的五元组。转换单元,用于通过预设的格式转换算法将所述五元组转换为目标格式,将所述目标格式的五元组输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。
图9为本公开实施例提供的推理信息生成装置的结构示意图,如图9所示,该装置包括:第一数据获取模块91、第一训练模块92、第二数据获取模块93以及第二训练模块94。其中,第一数据获取模块91,用于获取第一训练数据集。第一训练模块92,用于通过对比学习的方式采用所述第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型。第二数据获取模块93,用于获取第二训练数据集。第二训练模块94,用于通过端对端的学习方式采用所述第二训练数据集对所述预训练模型进行微调操作,获得推理信息抽取模型,所述推理信息抽取模型用于在获取到推理信息生成请求之后,根据所述推理信息生成请求对原始图表对应的数据增强操作后的待处理数据进行推理信息的生成操作。
进一步地,在上述任一实施例的基础上,所述第一训练数据集中包括多个训练图表,以及各训练图表中各表头中原始数据对应的多个正例样本对以及负例样本对,各正例样本对中包括数据增强算法以及与所述数据增强算法相匹配的文本,各负例样本对中包括数据增强算法以及与数据增强算法不匹配的文本。其中,所述第一训练模块包括:第一输入单元,用于将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中,获得所述待训练模型输出的所述数据增强算法对应的第一推理结果。第一损失计算单元,用于根据所述第一推理结果、所述数据增强算法对应的正例样本以及负例样本,以及预设的损失函数计算所述待训练模型对应的第一损失值。第一训练单元,用于根据所述第一损失值对所述待训练模型进行迭代训练,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
进一步地,在上述任一实施例的基础上,其中,所述第一训练单元包括:调整子单元,用于根据所述第一损失值对所述待训练模型的参数进行调整,以提高所述第一推理结果与所述正例样本之间的相似度,并降低所述第一推理结果与负例样本之间的相似度。迭代训练子单元,用于将调整后的待训练模型确定为当前的待训练模型,返回执行将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中的步骤,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
进一步地,在上述任一实施例的基础上,所述第二训练数据集中包括多个数据对,各数据对包括图表信息、原始图表、数据增强后的待处理数据以及所述原始图表对应的标注信息,所述标注信息为准确推理信息。其中,所述第二训练模块包括:第二输入单元,用于将所述第二训练数据集中的图表信息、原始图表以及数据增强后的待处理数据输入至所述预训练模型中,获得所述预训练模型输出的第二推理结果。第二损失计算单元,用于根据所述第二推理结果、所述标注信息以及预设的交叉熵损失函数计算所述预训练模型对应的第二损失值。第二训练单元,用于根据所述第二损失值对所述预训练模型进行迭代训练,直至所述预训练模型满足预设的第二收敛条件,获得所述推理信息抽取模型。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
本公开又一实施例还提供了一种电子设备,包括:
至少一个处理器。以及
与所述至少一个处理器通信连接的存储器。其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行上述任一实施例所述的方法。
本公开又一实施例还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行上述任一实施例所述的方法。
根据本公开的实施例,本公开还提供了一种计算机程序产品,计算机程序产品包括:计算机程序,计算机程序存储在可读存储介质中,电子设备的至少一个处理器可以从可读存储介质读取计算机程序,至少一个处理器执行计算机程序使得电子设备执行上述任一实施例提供的方案。
图10为本公开实施例提供的电子设备1000的结构示意图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图10所示,设备1000包括计算单元1001,其可以根据存储在只读存储器(ROM)1002中的计算机程序或者从存储单元1008加载到随机访问存储器(RAM)1003中的计算机程序,来执行各种适当的动作和处理。在RAM 1003中,还可存储设备1000操作所需的各种程序和数据。计算单元1001、ROM 1002以及RAM 1003通过总线1004彼此相连。输入/输出(I/O)接口1005也连接至总线1004。
设备1000中的多个部件连接至I/O接口1005,包括:输入单元1006,例如键盘、鼠标等;输出单元1007,例如各种类型的显示器、扬声器等;存储单元1008,例如磁盘、光盘等;以及通信单元1009,例如网卡、调制解调器、无线通信收发机等。通信单元1009允许设备1000通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1001可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1001的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1001执行上文所描述的各个方法和处理,例如推理信息生成方法。例如,在一些实施例中,推理信息生成方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1008。在一些实施例中,计算机程序的部分或者全部可以经由ROM 1002和/或通信单元1009而被载入和/或安装到设备1000上。当计算机程序加载到RAM 1003并由计算单元1001执行时,可以执行上文描述的推理信息生成方法的一个或多个步骤。备选地,在其他实施例中,计算单元1001可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行推理信息生成方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、复杂可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务("Virtual Private Server",或简称"VPS")中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以为分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。
Claims (22)
1.一种推理信息生成方法,包括:
获取推理信息生成请求,其中,所述推理信息生成请求中包括原始图表;
根据所述推理信息生成请求采用预设的至少一个数据增强算法对所述原始图表进行数据增强操作,获得多个待处理数据;
将所述待处理数据输入至预设的推理信息抽取模型,获得原始图表对应的推理信息;其中,所述推理信息抽取模型是通过对比学习的方式采用第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型,再通过端对端的学习方式采用第二训练数据集对所述预训练模型进行微调操作获得的;其中,所述第一训练数据集中包括多个训练图表,以及各训练图表中各表头中原始数据对应的多个正例样本对以及负例样本对,各正例样本对中包括数据增强算法以及与所述数据增强算法相匹配的文本,各负例样本对中包括数据增强算法以及与数据增强算法不匹配的文本;所述通过对比学习的方式采用所述第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型,包括:将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中,获得所述待训练模型输出的所述数据增强算法对应的第一推理结果;根据所述第一推理结果、所述数据增强算法对应的正例样本以及负例样本,以及预设的损失函数计算所述待训练模型对应的第一损失值;根据所述第一损失值对所述待训练模型进行迭代训练,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
2.根据权利要求1所述的方法,所述原始图表中包括多个表头以及各表头对应的原始数据;其中,所述根据所述推理信息生成请求采用预设的至少一个数据增强算法对所述原始图表进行数据增强操作,获得多个待处理数据,包括:
针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据;
根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据。
3.根据权利要求2所述的方法,所述数据增强算法包括时序差值算法;其中,所述针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据,包括:
针对每一表头对应的原始数据,获取所述表头对应的原始数据中时序最晚的数据以及时序最早的数据;
所述根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据,包括:
通过所述时序差值算法计算所述时序最晚的数据以及时序最早的数据之间的差值,获得第一计算结果;
确定所述第一计算结果对应的第一趋势指示符,所述第一趋势指示符用于表征所述第一计算结果的数据变化趋势;
将所述第一计算结果以及所述第一趋势指示符确定为所述待处理数据。
4.根据权利要求2所述的方法,所述数据增强算法包括差值算法;其中,所述针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据,包括:
针对每一表头对应的原始数据,获取所述表头对应的原始数据中的最大值以及次最大值;
所述根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据,包括:
根据所述差值算法计算所述最大值以及次最大值之间的差值,获得第二计算结果;
确定所述第二计算结果对应的第二趋势指示符,所述第二趋势指示符用于表征所述第二计算结果对应的数据变化趋势;
将所述第二计算结果以及所述第二趋势指示符确定为所述待处理数据。
5.根据权利要求2所述的方法,所述数据增强算法包括比例算法;其中,
所述针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据,包括:
针对每一表头对应的原始数据,获取所述表头对应的原始数据中时序最晚的数据以及时序最早的数据;
所述根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据,包括:通过所述比例算法计算所述时序最晚的数据以及时序最早的数据之间的比值,获得第三计算结果;
确定所述第三计算结果对应的第三趋势指示符,所述第三趋势指示符用于表征所述第三计算结果对应的数据变化趋势;
将所述第三计算结果以及所述第三趋势指示符确定为所述待处理数据。
6.根据权利要求2所述的方法,所述数据增强算法包括增长率算法;其中,所述针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据,包括:
针对每一表头对应的原始数据,获取所述表头对应的原始数据中的最大值以及次最大值;
所述根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据,包括:
根据所述增长率算法计算所述最大值以及次最大值之间的比值,获得第四计算结果;
确定所述第四计算结果对应的第四趋势指示符,所述第四趋势指示符用于表征所述第四计算结果对应的数据变化趋势;
将所述第四计算结果以及所述第四趋势指示符确定行为所述待处理数据。
7.根据权利要求1-6任一项所述的方法,其中,所述将所述待处理数据输入至预设的推理信息抽取模型,获得原始图表对应的推理信息,包括:
针对每一待处理数据,确定所述待处理数据所使用的数据增强算法、参与计算的两个原始数据、计算结果、所述计算结果对应的趋势指示符;
分别对所述数据增强结果所使用的数据增强算法、参与计算的两个原始数据、计算结果、所述计算结果对应的趋势指示符进行特征提取操作,获得所述待处理数据对应的五元组;
通过预设的格式转换算法将所述五元组转换为目标格式,将所述目标格式的五元组输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。
8.一种推理信息生成方法,包括:
获取第一训练数据集;
通过对比学习的方式采用所述第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型;
获取第二训练数据集;
通过端对端的学习方式采用所述第二训练数据集对所述预训练模型进行微调操作,获得推理信息抽取模型,所述推理信息抽取模型用于在获取到推理信息生成请求之后,根据所述推理信息生成请求对原始图表对应的数据增强操作后的待处理数据进行推理信息的生成操作;
所述第一训练数据集中包括多个训练图表,以及各训练图表中各表头中原始数据对应的多个正例样本对以及负例样本对,各正例样本对中包括数据增强算法以及与所述数据增强算法相匹配的文本,各负例样本对中包括数据增强算法以及与数据增强算法不匹配的文本;
所述通过对比学习的方式采用所述第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型,包括:
将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中,获得所述待训练模型输出的所述数据增强算法对应的第一推理结果;根据所述第一推理结果、所述数据增强算法对应的正例样本以及负例样本,以及预设的损失函数计算所述待训练模型对应的第一损失值;根据所述第一损失值对所述待训练模型进行迭代训练,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
9.根据权利要求8所述的方法,其中,所述根据所述第一损失值对所述待训练模型进行迭代训练,包括:
根据所述第一损失值对所述待训练模型的参数进行调整,以提高所述第一推理结果与所述正例样本之间的相似度,并降低所述第一推理结果与负例样本之间的相似度;
将调整后的待训练模型确定为当前的待训练模型,返回执行将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中的步骤,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
10.根据权利要求8所述的方法,所述第二训练数据集中包括多个数据对,各数据对包括图表信息、原始图表、数据增强后的待处理数据以及所述原始图表对应的标注信息,所述标注信息为准确推理信息;其中,所述通过端对端的学习方式采用所述第二训练数据集对所述预训练模型进行微调操作,获得所述推理信息抽取模型,包括:
将所述第二训练数据集中的图表信息、原始图表以及数据增强后的待处理数据输入至所述预训练模型中,获得所述预训练模型输出的第二推理结果;
根据所述第二推理结果、所述标注信息以及预设的交叉熵损失函数计算所述预训练模型对应的第二损失值;
根据所述第二损失值对所述预训练模型进行迭代训练,直至所述预训练模型满足预设的第二收敛条件,获得所述推理信息抽取模型。
11.一种推理信息生成装置,包括:
获取模块,用于获取推理信息生成请求,其中,所述推理信息生成请求中包括原始图表;
处理模块,用于根据所述推理信息生成请求采用预设的至少一个数据增强算法对所述原始图表进行数据增强操作,获得多个待处理数据;
生成模块,用于将所述待处理数据输入至预设的推理信息抽取模型,获得原始图表对应的推理信息;其中,所述推理信息抽取模型是通过对比学习的方式采用第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型,再通过端对端的学习方式采用第二训练数据集对所述预训练模型进行微调操作获得的;其中,所述第一训练数据集中包括多个训练图表,以及各训练图表中各表头中原始数据对应的多个正例样本对以及负例样本对,各正例样本对中包括数据增强算法以及与所述数据增强算法相匹配的文本,各负例样本对中包括数据增强算法以及与数据增强算法不匹配的文本;所述通过对比学习的方式采用所述第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型,包括:将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中,获得所述待训练模型输出的所述数据增强算法对应的第一推理结果;根据所述第一推理结果、所述数据增强算法对应的正例样本以及负例样本,以及预设的损失函数计算所述待训练模型对应的第一损失值;根据所述第一损失值对所述待训练模型进行迭代训练,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
12.根据权利要求11所述的装置,所述原始图表中包括多个表头以及各表头对应的原始数据;所述处理模块包括:
原始数据获取单元,用于针对各数据增强算法,在所述各表头对应的原始数据中获取与所述数据增强算法对应的参与计算的至少两个原始数据;
数据增强单元,用于根据所述数据增强算法以及所述至少两个原始数据对所述原始图表进行数据增强操作,获得多个待处理数据。
13.根据权利要求12所述的装置,所述数据增强算法包括时序差值算法;其中,所述原始数据获取单元包括:
第一获取子单元,用于针对每一表头对应的原始数据,获取所述表头对应的原始数据中时序最晚的数据以及时序最早的数据;
所述数据增强单元包括:
第一计算子单元,用于通过所述时序差值算法计算所述时序最晚的数据以及时序最早的数据之间的差值,获得第一计算结果;
第一确定子单元,用于确定所述第一计算结果对应的第一趋势指示符,所述第一趋势指示符用于表征所述第一计算结果的数据变化趋势;
第一处理子单元,用于将所述第一计算结果以及所述第一趋势指示符确定为所述待处理数据。
14.根据权利要求12所述的装置,所述数据增强算法包括差值算法;其中,所述原始数据获取单元包括:
第二获取子单元,用于针对每一表头对应的原始数据,获取所述表头对应的原始数据中的最大值以及次最大值;
所述数据增强单元包括:
第二计算子单元,用于根据所述差值算法计算所述最大值以及次最大值之间的差值,获得第二计算结果;
第二确定子单元,用于确定所述第二计算结果对应的第二趋势指示符,所述第二趋势指示符用于表征所述第二计算结果对应的数据变化趋势;
第二处理子单元,用于将所述第二计算结果以及所述第二趋势指示符确定为所述待处理数据。
15.根据权利要求12所述的装置,所述数据增强算法包括比例算法;其中,所述原始数据获取单元包括:
第三获取子单元,用于针对每一表头对应的原始数据,获取所述表头对应的原始数据中时序最晚的数据以及时序最早的数据;
所述数据增强单元包括:
第三计算子单元,用于通过所述比例算法计算所述时序最晚的数据以及时序最早的数据之间的比值,获得第三计算结果;
第三确定子单元,用于确定所述第三计算结果对应的第三趋势指示符,所述第三趋势指示符用于表征所述第三计算结果对应的数据变化趋势;
第三处理子单元,用于将所述第三计算结果以及所述第三趋势指示符确定为所述待处理数据。
16.根据权利要求12所述的装置,所述数据增强算法包括增长率算法;其中,所述原始数据获取单元包括:
第四获取子单元,用于针对所述原始数据中的每一表头对应的原始数据,获取所述表头对应的原始数据中的最大值以及次最大值;
所述数据增强单元包括:
第四计算子单元,用于根据所述增长率算法计算所述最大值以及次最大值之间的比值,获得第四计算结果;
第四确定子单元,用于确定所述第四计算结果对应的第四趋势指示符,所述第四趋势指示符用于表征所述第四计算结果对应的数据变化趋势;
第四处理子单元,用于将所述第四计算结果以及所述第四趋势指示符确定行为所述待处理数据。
17.根据权利要求11-16任一项所述的装置,其中,所述生成模块包括:
数据确定单元,用于针对每一待处理数据,确定所述待处理数据所使用的数据增强算法、参与计算的两个原始数据、计算结果、所述计算结果对应的趋势指示符;
特征提取单元,用于分别对所述数据增强结果所使用的数据增强算法、参与计算的两个原始数据、计算结果、所述计算结果对应的趋势指示符进行特征提取操作,获得所述待处理数据对应的五元组;
转换单元,用于通过预设的格式转换算法将所述五元组转换为目标格式,将所述目标格式的五元组输入至预设的推理信息抽取模型,获得原始图表对应的推理信息。
18.一种推理信息生成装置,包括:
第一数据获取模块,用于获取第一训练数据集;
第一训练模块,用于通过对比学习的方式采用所述第一训练数据集对预设的待训练模型进行预训练操作,获得预训练模型;
第二数据获取模块,用于获取第二训练数据集;
第二训练模块,用于通过端对端的学习方式采用所述第二训练数据集对所述预训练模型进行微调操作,获得推理信息抽取模型,所述推理信息抽取模型用于在获取到推理信息生成请求之后,根据所述推理信息生成请求对原始图表对应的数据增强操作后的待处理数据进行推理信息的生成操作;
所述第一训练数据集中包括多个训练图表,以及各训练图表中各表头中原始数据对应的多个正例样本对以及负例样本对,各正例样本对中包括数据增强算法以及与所述数据增强算法相匹配的文本,各负例样本对中包括数据增强算法以及与数据增强算法不匹配的文本;其中,所述第一训练模块包括:
第一输入单元,用于将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中,获得所述待训练模型输出的所述数据增强算法对应的第一推理结果;
第一损失计算单元,用于根据所述第一推理结果、所述数据增强算法对应的正例样本以及负例样本,以及预设的损失函数计算所述待训练模型对应的第一损失值;
第一训练单元,用于根据所述第一损失值对所述待训练模型进行迭代训练,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
19.根据权利要求18所述的装置,其中,所述第一训练单元包括:
调整子单元,用于根据所述第一损失值对所述待训练模型的参数进行调整,以提高所述第一推理结果与所述正例样本之间的相似度,并降低所述第一推理结果与负例样本之间的相似度;
迭代训练子单元,用于将调整后的待训练模型确定为当前的待训练模型,返回执行将所述第一训练数据集中的训练图表以及数据增强算法输入至所述待训练模型中的步骤,直至所述待训练模型满足预设的第一收敛条件,获得所述预训练模型。
20.根据权利要求18所述的装置,所述第二训练数据集中包括多个数据对,各数据对包括图表信息、原始图表、数据增强后的待处理数据以及所述原始图表对应的标注信息,所述标注信息为准确推理信息;其中,所述第二训练模块包括:
第二输入单元,用于将所述第二训练数据集中的图表信息、原始图表以及数据增强后的待处理数据输入至所述预训练模型中,获得所述预训练模型输出的第二推理结果;
第二损失计算单元,用于根据所述第二推理结果、所述标注信息以及预设的交叉熵损失函数计算所述预训练模型对应的第二损失值;
第二训练单元,用于根据所述第二损失值对所述预训练模型进行迭代训练,直至所述预训练模型满足预设的第二收敛条件,获得所述推理信息抽取模型。
21. 一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-7或8-10中任一项所述的方法。
22.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1-7或8-10中任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211033631.4A CN115391450B (zh) | 2022-08-26 | 2022-08-26 | 推理信息生成方法、装置、设备、可读存储介质及产品 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202211033631.4A CN115391450B (zh) | 2022-08-26 | 2022-08-26 | 推理信息生成方法、装置、设备、可读存储介质及产品 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN115391450A CN115391450A (zh) | 2022-11-25 |
CN115391450B true CN115391450B (zh) | 2024-01-09 |
Family
ID=84123495
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202211033631.4A Active CN115391450B (zh) | 2022-08-26 | 2022-08-26 | 推理信息生成方法、装置、设备、可读存储介质及产品 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115391450B (zh) |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112528641A (zh) * | 2020-12-10 | 2021-03-19 | 北京百度网讯科技有限公司 | 建立信息抽取模型的方法、装置、电子设备和可读存储介质 |
WO2021216310A1 (en) * | 2020-04-21 | 2021-10-28 | Google Llc | Supervised contrastive learning with multiple positive examples |
CN113807098A (zh) * | 2021-08-26 | 2021-12-17 | 北京百度网讯科技有限公司 | 模型训练方法和装置、电子设备以及存储介质 |
CN114492788A (zh) * | 2021-12-31 | 2022-05-13 | 深存科技(无锡)有限公司 | 训练深度学习模型的方法和装置、电子设备及存储介质 |
CN114742208A (zh) * | 2022-04-22 | 2022-07-12 | 天津大学 | 一种基于对比学习和对抗学习的图预训练学习方法 |
CN114861626A (zh) * | 2022-03-14 | 2022-08-05 | 清华大学 | 一种交通警情处理方法、装置、电子设备及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11449775B2 (en) * | 2018-12-27 | 2022-09-20 | Hubspot, Inc. | Multi-client service system platform |
US11915417B2 (en) * | 2020-04-30 | 2024-02-27 | Arizona Board Of Regents On Behalf Of Arizona State University | Systems, methods, and apparatuses for training a deep model to learn contrastive representations embedded within part-whole semantics via a self-supervised learning framework |
CN111860769A (zh) * | 2020-06-16 | 2020-10-30 | 北京百度网讯科技有限公司 | 预训练图神经网络的方法以及装置 |
-
2022
- 2022-08-26 CN CN202211033631.4A patent/CN115391450B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021216310A1 (en) * | 2020-04-21 | 2021-10-28 | Google Llc | Supervised contrastive learning with multiple positive examples |
CN112528641A (zh) * | 2020-12-10 | 2021-03-19 | 北京百度网讯科技有限公司 | 建立信息抽取模型的方法、装置、电子设备和可读存储介质 |
CN113807098A (zh) * | 2021-08-26 | 2021-12-17 | 北京百度网讯科技有限公司 | 模型训练方法和装置、电子设备以及存储介质 |
CN114492788A (zh) * | 2021-12-31 | 2022-05-13 | 深存科技(无锡)有限公司 | 训练深度学习模型的方法和装置、电子设备及存储介质 |
CN114861626A (zh) * | 2022-03-14 | 2022-08-05 | 清华大学 | 一种交通警情处理方法、装置、电子设备及存储介质 |
CN114742208A (zh) * | 2022-04-22 | 2022-07-12 | 天津大学 | 一种基于对比学习和对抗学习的图预训练学习方法 |
Non-Patent Citations (1)
Title |
---|
基于对抗训练策略的语言模型数据增强技术;张一珂;张鹏远;颜永红;;自动化学报(05);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN115391450A (zh) | 2022-11-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112597754B (zh) | 文本纠错方法、装置、电子设备和可读存储介质 | |
CN113313022B (zh) | 文字识别模型的训练方法和识别图像中文字的方法 | |
CN114549874B (zh) | 多目标图文匹配模型的训练方法、图文检索方法及装置 | |
CN112559800B (zh) | 用于处理视频的方法、装置、电子设备、介质和产品 | |
CN112926306B (zh) | 文本纠错方法、装置、设备以及存储介质 | |
CN114020950B (zh) | 图像检索模型的训练方法、装置、设备以及存储介质 | |
CN112580324B (zh) | 文本纠错方法、装置、电子设备以及存储介质 | |
CN114564971B (zh) | 深度学习模型的训练方法、文本数据处理方法和装置 | |
CN115130581B (zh) | 样本生成方法、训练方法、数据处理方法以及电子设备 | |
CN113641829B (zh) | 图神经网络的训练与知识图谱的补全方法、装置 | |
CN115690443B (zh) | 特征提取模型训练方法、图像分类方法及相关装置 | |
KR20220034080A (ko) | 순환 생성 네트워크 모델의 훈련 방법, 글자 라이브러리의 구축 방법 및 장치, 전자 기기, 저장 매체, 컴퓨터 프로그램 | |
CN115457329B (zh) | 图像分类模型的训练方法、图像分类方法和装置 | |
CN115147680B (zh) | 目标检测模型的预训练方法、装置以及设备 | |
CN112506359A (zh) | 输入法中候选长句的提供方法、装置及电子设备 | |
CN113657538B (zh) | 模型训练、数据分类方法、装置、设备、存储介质及产品 | |
CN114611625A (zh) | 语言模型训练、数据处理方法、装置、设备、介质及产品 | |
CN115391450B (zh) | 推理信息生成方法、装置、设备、可读存储介质及产品 | |
WO2024040869A1 (zh) | 多任务模型的训练方法、信息推荐方法、装置和设备 | |
CN115880506B (zh) | 图像生成方法、模型的训练方法、装置及电子设备 | |
CN114882334B (zh) | 用于生成预训练模型的方法、模型训练方法及装置 | |
CN116257611A (zh) | 问答模型的训练方法、问答处理方法、装置及存储介质 | |
CN116229095A (zh) | 一种模型训练方法、视觉任务处理方法、装置及设备 | |
CN115994243A (zh) | 跨模态检索模型处理方法、装置、设备、产品及介质 | |
CN114549695A (zh) | 图像生成方法、装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |