CN116701593A - 基于GraphQL的中文问答模型训练方法及其相关设备 - Google Patents

基于GraphQL的中文问答模型训练方法及其相关设备 Download PDF

Info

Publication number
CN116701593A
CN116701593A CN202310714079.3A CN202310714079A CN116701593A CN 116701593 A CN116701593 A CN 116701593A CN 202310714079 A CN202310714079 A CN 202310714079A CN 116701593 A CN116701593 A CN 116701593A
Authority
CN
China
Prior art keywords
data
chinese
question
answer
graphql
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310714079.3A
Other languages
English (en)
Inventor
胡碧峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Property and Casualty Insurance Company of China Ltd
Original Assignee
Ping An Property and Casualty Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Property and Casualty Insurance Company of China Ltd filed Critical Ping An Property and Casualty Insurance Company of China Ltd
Priority to CN202310714079.3A priority Critical patent/CN116701593A/zh
Publication of CN116701593A publication Critical patent/CN116701593A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/353Clustering; Classification into predefined classes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/901Indexing; Data structures therefor; Storage structures
    • G06F16/9024Graphs; Linked lists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Animal Behavior & Ethology (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本申请实施例属于金融科技技术领域,应用于保险行业智能客服问答模型训练领域中,涉及一种基于GraphQL的中文问答模型训练方法及其相关设备,包括以GraphQL规范生成目标中文问题数据对应的GraphQL查询语句;通过语言分析模型获取目标中文问题数据对应的解答数据;构建第一文本对集和第二文本对集,输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;获得新的中文问题数据输入到训练完成的T5问答模型,获得模型输出结果作为解答数据。通过在端到端的T5问答模型内引入双塔模型结构,GraphQL规范构建查询语句,实现了训练出具有有效中间表示的端到端中文图谱问答模型,且对解答数据的输出进行良好的质量控制。

Description

基于GraphQL的中文问答模型训练方法及其相关设备
技术领域
本申请涉及金融科技技术领域,应用于保险行业智能客服问答模型训练领域中,尤其涉及一种基于GraphQL的中文问答模型训练方法及其相关设备。
背景技术
金融保险行业在线客服场景中,机器人自动问答可以减少客服的压力,提升服务的效率。而在垂直领域中,知识类问题尤其重要,此时图谱问答可以提供精确的问答服务,同时引入规范化的知识内容,相比FAQ问答检索系统可以有效降低知识的冗余性。
当前图谱问答方法主要分为以下两类:基于语义解析的方法和基于关键词检索的方法。中文领域缺少相应的语义中间表示,通常是将自然语言句子转化为查询语句,譬如SPARQL/Cypher。由于中文自然语言句子与查询语句的差异较大,导致直接生成的效果较差,因此中文图谱问答常采用流水线式,还缺少具有有效中间表示的端到端的图谱问答模型,导致中文直接生成查询语句的难度较大,且解答输出效果容易不可控。因此,现有技术还缺少具有有效中间表示的端到端中文图谱问答模型,易产生解答输出效果可控性较差的问题。
发明内容
本申请实施例的目的在于提出一种基于GraphQL的中文问答模型训练方法及其相关设备,以解决现有技术还缺少具有有效中间表示的端到端中文图谱问答模型,易产生解答输出效果可控性较差的问题。
为了解决上述技术问题,本申请实施例提供一种基于GraphQL的中文问答模型训练方法,采用了如下所述的技术方案:
一种基于GraphQL的中文问答模型训练方法,包括下述步骤:
从批量中文问题数据中获取单个目标中文问题数据;
以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句;
通过语义分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;
根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;
重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;
将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;
获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。
进一步的,在执行所述以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句的步骤之前,所述方法还包括:
对所述问答知识库中所有解答数据作线性化处理,获得若干个数据队列或/和若干个数据链表;
根据预设的问答场景分类实体,对所述若干个数据队列或/和若干个数据链表进行类别分类,所述问答场景分类实体包括预设的若干个与问题场景名称相关的检索关键字段;
所述以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句的步骤,具体包括:
根据预设的分词处理模型和所述问答场景分类实体,对所述目标中文问题数据进行分词处理;
根据分词处理结果,获取所述目标中文问题数据对应的多个分割映射结果,其中,所述多个分割映射结果表示不同分词处理结果分别对应的分割映射结果;
根据所述GraphQL规范将所述多个分割映射结果分别组合成相应的待选GraphQL查询语句;
根据BM25算法从所述待选GraphQL查询语句中筛选出最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句。
进一步的,所述根据BM25算法从所述待选GraphQL查询语句中筛选出最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句的步骤,具体包括:
根据BM25算法公式:计算每一个待选GraphQL查询语句的得分值,其中,Q为当前待选GraphQL查询语句,d为所述目标中文问题数据,n为构成当前待选GraphQL查询语句中所述目标中文问题数据的分词数量,i为当前分词的编号,ωi为编号为i的分词的权重,R为分词结果与所述目标中文问题数据间的相关性,qi为编号为i的分词;
选择得分值为最优解时的待选GraphQL查询语句作为所述最优GraphQL查询语句;
将所述最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句。
进一步的,所述根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对的步骤,具体包括:
以所述目标中文问题数据为第一KEY值,以所述解答数据为第一VALUE值,生成所述第一文本对;
以所述目标中文问题数据为第二KEY值,以所述GraphQL查询语句为第二VALUE值,生成所述第二文本对。
进一步的,在执行所述将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内的步骤之前,所述方法还包括:
预先在所述采用端到端模式预训练完成的T5问答模型内引入双塔模型结构,其中,所述双塔模型结构中包含两个独立的神经网络处理结构,分别为第一神经网络处理结构和第二神经网络处理结构;
所述进行T5问答模型训练的步骤,具体包括:
获取输入的所述第一文本对集和所述第二文本对集;
根据所述第一神经网络处理结构对所述第一文本对集进行训练处理,输出由所有目标中文问题数据及所有对应的解答数据构建的第一中文知识图谱;
根据所述第二神经网络处理结构对所述第二文本对集进行训练处理,输出基于所有目标中文问题数据及所有对应的GraphQL查询语句构建的第二中文知识图谱;
对所述第一中文知识图谱和所述第二中文知识图谱进行图谱整合,获取综合中文知识图谱;
设置所述综合中文知识图谱为所述T5问答模型的问答知识图谱;
在执行所述进行T5问答模型训练的步骤之后,所述方法还包括:
根据所述问答知识图谱,获得目标中文问题数据对应的所有解答数据,并基于排序规则筛选出排名前N位的解答数据,作为所述目标中文问题数据对应的终选解答数据,其中,N为正整数。
进一步的,所述根据所述第二神经网络处理结构对所述第二文本对集进行训练处理,输出基于所有目标中文问题数据及所有对应的GraphQL查询语句构建的第二中文知识图谱的步骤,具体包括:
获取所有目标中文问题数据所分别对应的GraphQL查询语句;
执行所述GraphQL查询语句,获取所有目标中文问题数据分别根据对应的GraphQL查询语句所查询到的解答数据;
输出由所有目标中文问题数据及分别根据对应的GraphQL查询语句所查询到的解答数据构建第二中文知识图谱。
进一步的,在执行所述对所述第一中文知识图谱和所述第二中文知识图谱进行图谱整合,获取综合中文知识图谱的步骤之前,所述方法还包括:
获取预先已标注的验证集,其中,所述已标注的验证集中包括待验证的中文问题数据及每个待验证的中文问题数据对应的期望解答数据;
根据所述第一中文知识图谱和所述第一神经网络处理结构,输出获取所述验证集对应的第一实际解答数据;
根据所述第二中文知识图谱和所述第二神经网络处理结构,输出获取所述验证集对应的第二实际解答数据;
基于预设的相似度算法计算所述第一实际解答数据、所述第二实际解答数据分别与所述期望解答数据的相似度;
根据所述第一实际解答数据、所述第二实际解答数据分别与所述期望解答数据的相似度,分别为所述第一中文知识图谱和所述第二中文知识图谱设置解答数据选择权重;
所述对所述第一中文知识图谱和所述第二中文知识图谱进行图谱整合,获取综合中文知识图谱的步骤,具体包括:
根据所述第一中文知识图谱和所述第二中文知识图谱分别对应的解答数据选择权重,从所述第一中文知识图谱和所述第二中文知识图谱中选择出同一目标中文问题数据对应的不同数量的解答数据作为优选解答数据;
获取所有目标中文问题数据所对应的优选解答数据,完成对所述第一中文知识图谱和所述第二中文知识图谱的图谱整合;
获取由所有目标中文问题数据及所有对应的优选解答数据构建的综合中文知识图谱。
为了解决上述技术问题,本申请实施例还提供一种基于GraphQL的中文问答模型训练装置,采用了如下所述的技术方案:
一种基于GraphQL的中文问答模型训练装置,包括:
目标中文问题数据获取模块,用于从批量中文问题数据中获取单个目标中文问题数据;
GraphQL查询语句生成模块,用于以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句;
解答数据获取模块,用于通过语义分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;
文本对生成模块,用于根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;
文本对集构建模块,用于重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;
模型训练模块,用于将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;
模型执行模块,用于获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。
为了解决上述技术问题,本申请实施例还提供一种计算机设备,采用了如下所述的技术方案:
一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现上述所述的基于GraphQL的中文问答模型训练方法的步骤。
为了解决上述技术问题,本申请实施例还提供一种计算机可读存储介质,采用了如下所述的技术方案:
一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如上述所述的基于GraphQL的中文问答模型训练方法的步骤。
与现有技术相比,本申请实施例主要有以下有益效果:
本申请实施例所述基于GraphQL的中文问答模型训练方法,通过从批量中文问题数据中获取单个目标中文问题数据;以GraphQL规范生成目标中文问题数据对应的GraphQL查询语句;通过语言分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。通过在端到端的T5问答模型内引入双塔模型结构,GraphQL规范构建查询语句,引入BM25算法筛选最优GraphQL查询语句,实现了训练出具有有效中间表示的端到端中文图谱问答模型,且对解答数据的输出进行良好的质量控制。
附图说明
为了更清楚地说明本申请中的方案,下面将对本申请实施例描述中所需要使用的附图作一个简单介绍,显而易见地,下面描述中的附图是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请可以应用于其中的示例性系统架构图;
图2根据本申请的基于GraphQL的中文问答模型训练方法的一个实施例的流程图;
图3是图2所示步骤202的一个具体实施例的流程图;
图4示出了根据本申请实施例进行T5问答模型训练的一个具体实施例的流程图;
图5是图4所示步骤403的一个具体实施例的流程图;
图6是图4所示步骤404的一个具体实施例的流程图;
图7根据本申请的基于GraphQL的中文问答模型训练装置的一个实施例的结构示意图;
图8是图7所示702的一个具体实施例的结构示意图;
图9示出了根据本申请实施例中验证设置模块的一个具体实施例的结构示意图;
图10根据本申请的计算机设备的一个实施例的结构示意图。
具体实施方式
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同;本文中在申请的说明书中所使用的术语只是为了描述具体的实施例的目的,不是旨在于限制本申请;本申请的说明书和权利要求书及上述附图说明中的术语“包括”和“具有”以及它们的任何变形,意图在于覆盖不排他的包含。本申请的说明书和权利要求书或上述附图中的术语“第一”、“第二”等是用于区别不同对象,而不是用于描述特定顺序。
在本文中提及“实施例”意味着,结合实施例描述的特定特征、结构或特性可以包含在本申请的至少一个实施例中。在说明书中的各个位置出现该短语并不一定均是指相同的实施例,也不是与其它实施例互斥的独立的或备选的实施例。本领域技术人员显式地和隐式地理解的是,本文所描述的实施例可以与其它实施例相结合。
为了使本技术领域的人员更好地理解本申请方案,下面将结合附图,对本申请实施例中的技术方案进行清楚、完整地描述。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、MP3播放器(Moving PictureExpertsGroup Audio LayerIII,动态影像专家压缩标准音频层面3)、MP4(MovingPictureExperts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的页面提供支持的后台服务器。
需要说明的是,本申请实施例所提供的基于GraphQL的中文问答模型训练方法一般由服务器/终端设备执行,相应地,基于GraphQL的中文问答模型训练装置一般设置于服务器/终端设备中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本申请的基于GraphQL的中文问答模型训练方法的一个实施例的流程图。所述的基于GraphQL的中文问答模型训练方法,包括以下步骤:
步骤201,从批量中文问题数据中获取单个目标中文问题数据。
本实施例中,所述批量中文问题数据包括保险业务历史投保客户的中文咨询数据,其可以为某些或者某个保险公司的历史投保客户的全量中文咨询数据。
步骤202,以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句。
GraphQL(Graph+Query Language)规范是Facebook2015年开源的数据查询规范。以往的查询方式,主要是靠数据需求方根据自己的需要分别以各个目标问答场景分类实体为检索关键字段的向数据支持提供方发起查询请求,获得各个目标问答场景分类实体对应的检索结果,再对检索结果进行组合,从而生成最终检索结果,而所述GraphQL规范是先根据对各个目标问答场景分类实体的问答需求生成一条最终的查询语句,通过所述查询语句一次获取到查询结果,无需发起多次查询请求,减少了查询交互次数,节省了网络资源消耗。
本实施例中,在执行所述以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句的步骤之前,所述方法还包括:对预设的问答知识库中所有解答数据作线性化处理,获得若干个数据队列或/和若干个数据链表;根据预设的问答场景分类实体,对所述若干个数据队列或/和若干个数据链表进行类别分类,所述问答场景分类实体包括预设的若干个与问题场景名称相关的检索关键字段。
本实施例中,所述问答场景包括理赔场景、保险购买场景、信用卡办理场景等,以信用卡办理场景为例,所述预设的问答场景分类实体可以包括开卡申请、信息录入、申请进度等。
先对问答知识库中所有解答数据作线性化处理,再根据预设的问答场景分类实体,对若干个数据队列或/和若干个数据链表进行类别分类,便于后期从问答知识库中进行解答数据查询和提取。
继续参考图3,图3是图2所示步骤202的一个具体实施例的流程图,包括:
步骤301,根据预设的分词处理模型和所述问答场景分类实体,对所述目标中文问题数据进行分词处理;
本实施例中,所述预设的分词处理模型可以采用现有的中文分词处理模型,例如基于Python的Jieba中文分词模型、基于Java的HanLP中文分词模型。
步骤302,根据分词处理结果,获取所述目标中文问题数据对应的多个分割映射结果,其中,所述多个分割映射结果表示不同分词处理结果分别对应的分割映射结果;
步骤303,根据所述GraphQL规范将所述多个分割映射结果分别组合成相应的待选GraphQL查询语句;
步骤304,根据BM25算法从所述待选GraphQL查询语句中筛选出最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句。
本实施例中,所述根据BM25算法从所述待选GraphQL查询语句中筛选出最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句的步骤,具体包括:根据BM25算法公式:计算每一个待选GraphQL查询语句的得分值,其中,Q为当前待选GraphQL查询语句,d为所述目标中文问题数据,n为构成当前待选GraphQL查询语句中所述目标中文问题数据的分词数量,i为当前分词的编号,ωi为编号为i的分词的权重,R为分词结果与所述目标中文问题数据间的相关性,qi为编号为i的分词;选择得分值为最优解时的待选GraphQL查询语句作为所述最优GraphQL查询语句;将所述最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句。
本申请实施例,引入BM25算法进行最优解选择,主要是考虑到当同一个目标中文问题数据存在多种分词处理结果时,生成多个GraphQL查询语句,如果对每一条GraphQL查询语句都进行查询执行,则造成查询交互次数过多,易产生过多的与问题无关或者相关性较低的解答数据。因此,采用BM25算法进行最优解选择,使得最终选择的GraphQL查询语句为与所述目标中文问题数据最相关的查询语句,避免了过多的查询交互次数,且保证了解答数据与目标中文问题数据间的相关性。
步骤203,通过语义分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据。
本实施例中,首先采用预设的语义分析模型,例如自然语言理解模型,通过所述语义分析模型分析出所述目标中文问题数据的中文语义,再通过分析出的所述目标中文问题数据的中文语义从所述预设的问答知识库中直接获取对应的解答数据,使用了基于语义分析方法获取解答数据。
步骤204,根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对。
本实施例中,所述根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对的步骤,具体包括:以所述目标中文问题数据为第一KEY值,以所述解答数据为第一VALUE值,生成所述第一文本对;以所述目标中文问题数据为第二KEY值,以所述GraphQL查询语句为第二VALUE值,生成所述第二文本对。
本实施例中,以步骤203中通过语义分析获取的解答数据与其对应的所述目标中文问题数据成对构建第一文本对,以步骤202中通过GraphQL规范生成的GraphQL查询语句与所述目标中文问题数据成对构建第二文本对,保证了通过两种不同的获取方式获取目标中文问题数据对应的解答数据,便于后期使用到的双塔模型对通过两种不同的获取方式获取的解答数据分别进行处理。
步骤205,重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集。
步骤206,将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型。
T5(Text-to-Text Transfer Transformer)模型结构是一个由Transformer层堆叠而成的Encoder-Decoder结构,即由Transformer层堆叠而成的端到端结构。
本实施例中,在执行所述将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内的步骤之前,所述方法还包括:预先在所述采用端到端模式预训练完成的T5问答模型内引入双塔模型结构,其中,所述双塔模型结构中包含两个独立的神经网络处理结构,分别为第一神经网络处理结构和第二神经网络处理结构。
双塔模型结构是一种模型结构构思,其主要特点是把模型分成两部分,这两部分分别进行解答数据推荐,互不影响和干涉。
所述T5问答模型内引入双塔模型结构,其主要目的是将T5问答模型划分为两个训练部分,一个训练部分只对第一文本对集中解答数据和对应的目标中文问题数据进行训练,获取第一中文知识图谱,另一训练部分只对通过第二文本对集获取的解答数据和对应的目标中文问题数据进行训练,获取第二中文知识图谱。这种方式使得在根据中文问题数据进行解答数据获取时,无论是通过获取的最优GraphQL查询语句,还是语义分析结果,都可获取到解答数据,实现了训练出具有有效中间表示的端到端中文图谱问答模型,且对解答数据的输出进行良好的质量控制。
继续参考图4,图4示出了根据本申请实施例进行T5问答模型训练的一个具体实施例的流程图,包括:
步骤401,获取输入的所述第一文本对集和所述第二文本对集;
步骤402,根据所述第一神经网络处理结构对所述第一文本对集进行训练处理,输出由所有目标中文问题数据及所有对应的解答数据构建的第一中文知识图谱;
步骤403,根据所述第二神经网络处理结构对所述第二文本对集进行训练处理,输出基于所有目标中文问题数据及所有对应的GraphQL查询语句构建的第二中文知识图谱;
继续参考图5,图5是图4所示步骤403的一个具体实施例的流程图,包括:
步骤501,获取所有目标中文问题数据所分别对应的GraphQL查询语句;
步骤502,执行所述GraphQL查询语句,获取所有目标中文问题数据分别根据对应的GraphQL查询语句所查询到的解答数据;
步骤503,输出由所有目标中文问题数据及分别根据对应的GraphQL查询语句所查询到的解答数据构建第二中文知识图谱。
步骤404,对所述第一中文知识图谱和所述第二中文知识图谱进行图谱整合,获取综合中文知识图谱;
在本实施例中,在执行所述对所述第一中文知识图谱和所述第二中文知识图谱进行图谱整合,获取综合中文知识图谱的步骤之前,所述方法还包括:获取预先已标注的验证集,其中,所述已标注的验证集中包括待验证的中文问题数据及每个待验证的中文问题数据对应的期望解答数据;根据所述第一中文知识图谱和所述第一神经网络处理结构,输出获取所述验证集对应的第一实际解答数据;根据所述第二中文知识图谱和所述第二神经网络处理结构,输出获取所述验证集对应的第二实际解答数据;基于预设的相似度算法计算所述第一实际解答数据、所述第二实际解答数据分别与所述期望解答数据的相似度,其中,所述预设的相似度算法可以为综合相似度分析法、欧式距离、余弦相似度算法等;根据所述第一实际解答数据、所述第二实际解答数据分别与所述期望解答数据的相似度,分别为所述第一中文知识图谱和所述第二中文知识图谱设置解答数据选择权重。
通过采用已标注的验证集进行验证,分别验证出所述第一实际解答数据、所述第二实际解答数据分别与所述期望解答数据的相似度,实质上是验证出所述第一中文知识图谱和所述第二中文知识图谱的可用性,并分别为所述第一中文知识图谱和所述第二中文知识图谱设置数据选择权重,保证了对端对端模型输出的解答数据进行质量控制。
继续参考图6,图6是图4所示步骤404的一个具体实施例的流程图,包括:
步骤601,根据所述第一中文知识图谱和所述第二中文知识图谱分别对应的解答数据选择权重,从所述第一中文知识图谱和所述第二中文知识图谱中选择出同一目标中文问题数据对应的不同数量的解答数据作为优选解答数据;
通过根据所述第一中文知识图谱和所述第二中文知识图谱分别对应的解答数据选择权重,从所述第一中文知识图谱和所述第二中文知识图谱中选择出同一目标中文问题数据对应的不同数量的解答数据作为优选解答数据,例如:输入一条目标中文问题数据,其对应的第一中文知识图谱和第二中文知识图谱的权重分别为0.8和0.2,假设期望的解答数据条目为10条,则根据第一中文知识图谱筛选出8条,根据第二中文知识图谱筛选出2条。
步骤602,获取所有目标中文问题数据所对应的优选解答数据,完成对所述第一中文知识图谱和所述第二中文知识图谱的图谱整合;
步骤603,获取由所有目标中文问题数据及所有对应的优选解答数据构建的综合中文知识图谱。
通过根据权重将第一中文知识图谱和第二中文知识图谱整合为综合中文知识图谱,使得在输入一条目标中文问题数据后,直接通过综合中文知识图谱进行解答数据获取。
步骤405,设置所述综合中文知识图谱为所述T5问答模型的问答知识图谱。
本实施例中,在执行所述进行T5问答模型训练的步骤之后,所述方法还包括:根据所述问答知识图谱,获得目标中文问题数据对应的所有解答数据,并基于排序规则筛选出排名前N位的解答数据,作为所述目标中文问题数据对应的终选解答数据,其中,N为正整数。
通过排序方式从所述问答知识图谱中获得目标条数的优解,再次保证了对端对端模型输出的解答数据进行质量控制。
步骤207,获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。
本申请通过从批量中文问题数据中获取单个目标中文问题数据;以GraphQL规范生成目标中文问题数据对应的GraphQL查询语句;通过语言分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。通过在端到端的T5问答模型内引入双塔模型结构,GraphQL规范构建查询语句,引入BM25算法筛选最优GraphQL查询语句,实现了训练出具有有效中间表示的端到端中文图谱问答模型,且对解答数据的输出进行良好的质量控制。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例中,通过在端到端的T5问答模型内引入双塔模型结构,GraphQL规范构建查询语句,引入BM25算法筛选最优GraphQL查询语句,实现了训练出具有有效中间表示的端到端中文图谱问答模型,且对解答数据的输出进行良好的质量控制。
进一步参考图7,作为对上述图2所示方法的实现,本申请提供了一种基于GraphQL的中文问答模型训练装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图7所示,本实施例所述的基于GraphQL的中文问答模型训练装置700包括:目标中文问题数据获取模块701、GraphQL查询语句生成模块702、解答数据获取模块703、文本对生成模块704、文本对集构建模块705、模型训练模块706和模型执行模块707。其中:
目标中文问题数据获取模块701,用于从批量中文问题数据中获取单个目标中文问题数据;
GraphQL查询语句生成模块702,用于以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句;
解答数据获取模块703,用于通过语言分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;
文本对生成模块704,用于根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;
文本对集构建模块705,用于重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;
模型训练模块706,用于将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;
模型执行模块707,用于获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。
继续参考图8,图8是图7所示702的一个具体实施例的结构示意图,所述GraphQL查询语句生成模块702包括分词处理子模块801、映射结果获取子模块802、GraphQL查询语句组合子模块803和最优GraphQL查询语句筛选子模块804。其中:
分词处理子模块801,用于根据预设的分词处理模型和所述问答场景分类实体,对所述目标中文问题数据进行分词处理;
映射结果获取子模块802,用于根据分词处理结果,获取所述目标中文问题数据对应的多个分割映射结果,其中,所述多个分割映射结果表示不同分词处理结果分别对应的分割映射结果;
GraphQL查询语句组合子模块803,用于根据所述GraphQL规范将所述多个分割映射结果分别组合成相应的待选GraphQL查询语句;
最优GraphQL查询语句筛选子模块804,用于根据BM25算法从所述待选GraphQL查询语句中筛选出最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句。
在本申请的一些具体实施例中,所述的基于GraphQL的中文问答模型训练装置700还包括验证设置模块,继续参考图9,图9示出了根据本申请实施例中验证设置模块的一个具体实施例的结构示意图,所述验证设置模块包括验证集获取子模块901、第一实际解答数据输出子模块902、第二实际解答数据输出子模块903、相似度计算子模块904和选择权重设置子模块905。其中:
验证集获取子模块901,用于获取预先已标注的验证集,其中,所述已标注的验证集中包括待验证的中文问题数据及每个待验证的中文问题数据对应的期望解答数据;
第一实际解答数据输出子模块902,用于根据所述第一中文知识图谱和所述第一神经网络处理结构,输出获取所述验证集对应的第一实际解答数据;
第二实际解答数据输出子模块903,用于根据所述第二中文知识图谱和所述第二神经网络处理结构,输出获取所述验证集对应的第二实际解答数据;
相似度计算子模块904,用于基于预设的相似度算法计算所述第一实际解答数据、所述第二实际解答数据分别与所述期望解答数据的相似度;
选择权重设置子模块905,用于根据所述第一实际解答数据、所述第二实际解答数据分别与所述期望解答数据的相似度,分别为所述第一中文知识图谱和所述第二中文知识图谱设置解答数据选择权重。
本申请通过从批量中文问题数据中获取单个目标中文问题数据;以GraphQL规范生成目标中文问题数据对应的GraphQL查询语句;通过语言分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。通过在端到端的T5问答模型内引入双塔模型结构,GraphQL规范构建查询语句,引入BM25算法筛选最优GraphQL查询语句,实现了训练出具有有效中间表示的端到端中文图谱问答模型,且对解答数据的输出进行良好的质量控制。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机可读指令来指令相关的硬件来完成,该计算机可读指令可存储于计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,前述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)等非易失性存储介质,或随机存储记忆体(Random Access Memory,RAM)等。
应该理解的是,虽然附图的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,其可以以其他的顺序执行。而且,附图的流程图中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,其执行顺序也不必然是依次进行,而是可以与其他步骤或者其他步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
为解决上述技术问题,本申请实施例还提供计算机设备。具体请参阅图10,图10为本实施例计算机设备基本结构框图。
所述计算机设备10包括通过系统总线相互通信连接存储器10a、处理器10b、网络接口10c。需要指出的是,图中仅示出了具有组件10a-10c的计算机设备10,但是应理解的是,并不要求实施所有示出的组件,可以替代的实施更多或者更少的组件。其中,本技术领域技术人员可以理解,这里的计算机设备是一种能够按照事先设定或存储的指令,自动进行数值计算和/或信息处理的设备,其硬件包括但不限于微处理器、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程门阵列(Field-Programmable Gate Array,FPGA)、数字处理器(Digital Signal Processor,DSP)、嵌入式设备等。
所述计算机设备可以是桌上型计算机、笔记本、掌上电脑及云端服务器等计算设备。所述计算机设备可以与用户通过键盘、鼠标、遥控器、触摸板或声控设备等方式进行人机交互。
所述存储器10a至少包括一种类型的可读存储介质,所述可读存储介质包括闪存、硬盘、多媒体卡、卡型存储器(例如,SD或DX存储器等)、随机访问存储器(RAM)、静态随机访问存储器(SRAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、可编程只读存储器(PROM)、磁性存储器、磁盘、光盘等。在一些实施例中,所述存储器10a可以是所述计算机设备10的内部存储单元,例如该计算机设备10的硬盘或内存。在另一些实施例中,所述存储器10a也可以是所述计算机设备10的外部存储设备,例如该计算机设备10上配备的插接式硬盘,智能存储卡(Smart Media Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)等。当然,所述存储器10a还可以既包括所述计算机设备10的内部存储单元也包括其外部存储设备。本实施例中,所述存储器10a通常用于存储安装于所述计算机设备10的操作系统和各类应用软件,例如基于GraphQL的中文问答模型训练方法的计算机可读指令等。此外,所述存储器10a还可以用于暂时地存储已经输出或者将要输出的各类数据。
所述处理器10b在一些实施例中可以是中央处理器(Central Processing Unit,CPU)、控制器、微控制器、微处理器、或其他数据处理芯片。该处理器10b通常用于控制所述计算机设备10的总体操作。本实施例中,所述处理器10b用于运行所述存储器10a中存储的计算机可读指令或者处理数据,例如运行所述基于GraphQL的中文问答模型训练方法的计算机可读指令。
所述网络接口10c可包括无线网络接口或有线网络接口,该网络接口10c通常用于在所述计算机设备10与其他电子设备之间建立通信连接。
本实施例提出的计算机设备,属于金融科技技术领域,应用于保险行业智能客服问答模型训练领域中。本申请通过从批量中文问题数据中获取单个目标中文问题数据;以GraphQL规范生成目标中文问题数据对应的GraphQL查询语句;通过语言分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。通过在端到端的T5问答模型内引入双塔模型结构,GraphQL规范构建查询语句,引入BM25算法筛选最优GraphQL查询语句,实现了训练出具有有效中间表示的端到端中文图谱问答模型,且对解答数据的输出进行良好的质量控制。
本申请还提供了另一种实施方式,即提供一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可读指令,所述计算机可读指令可被处理器执行,以使所述处理器执行如上述的基于GraphQL的中文问答模型训练方法的步骤。
本实施例提出的计算机可读存储介质,属于金融科技技术领域,应用于保险行业智能客服问答模型训练领域中。本申请通过从批量中文问题数据中获取单个目标中文问题数据;以GraphQL规范生成目标中文问题数据对应的GraphQL查询语句;通过语言分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。通过在端到端的T5问答模型内引入双塔模型结构,GraphQL规范构建查询语句,引入BM25算法筛选最优GraphQL查询语句,实现了训练出具有有效中间表示的端到端中文图谱问答模型,且对解答数据的输出进行良好的质量控制。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
显然,以上所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例,附图中给出了本申请的较佳实施例,但并不限制本申请的专利范围。本申请可以以许多不同的形式来实现,相反地,提供这些实施例的目的是使对本申请的公开内容的理解更加透彻全面。尽管参照前述实施例对本申请进行了详细的说明,对于本领域的技术人员来而言,其依然可以对前述各具体实施方式所记载的技术方案进行修改,或者对其中部分技术特征进行等效替换。凡是利用本申请说明书及附图内容所做的等效结构,直接或间接运用在其他相关的技术领域,均同理在本申请专利保护范围之内。

Claims (10)

1.一种基于GraphQL的中文问答模型训练方法,其特征在于,包括下述步骤:
从批量中文问题数据中获取单个目标中文问题数据;
以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句;
通过语义分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;
根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;
重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;
将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;
获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。
2.根据权利要求1所述的基于GraphQL的中文问答模型训练方法,其特征在于,在执行所述以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句的步骤之前,所述方法还包括:
对所述问答知识库中所有解答数据作线性化处理,获得若干个数据队列或/和若干个数据链表;
根据预设的问答场景分类实体,对所述若干个数据队列或/和若干个数据链表进行类别分类,所述问答场景分类实体包括预设的若干个与问题场景名称相关的检索关键字段;
所述以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句的步骤,具体包括:
根据预设的分词处理模型和所述问答场景分类实体,对所述目标中文问题数据进行分词处理;
根据分词处理结果,获取所述目标中文问题数据对应的多个分割映射结果,其中,所述多个分割映射结果表示不同分词处理结果分别对应的分割映射结果;
根据所述GraphQL规范将所述多个分割映射结果分别组合成相应的待选GraphQL查询语句;
根据BM25算法从所述待选GraphQL查询语句中筛选出最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句。
3.根据权利要求2所述的基于GraphQL的中文问答模型训练方法,其特征在于,所述根据BM25算法从所述待选GraphQL查询语句中筛选出最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句的步骤,具体包括:
根据BM25算法公式:计算每一个待选GraphQL查询语句的得分值,其中,Q为当前待选GraphQL查询语句,d为所述目标中文问题数据,n为构成当前待选GraphQL查询语句中所述目标中文问题数据的分词数量,i为当前分词的编号,ωi为编号为i的分词的权重,R为分词结果与所述目标中文问题数据间的相关性,qi为编号为i的分词;
选择得分值为最优解时的待选GraphQL查询语句作为所述最优GraphQL查询语句;
将所述最优GraphQL查询语句作为所述目标中文问题数据对应的GraphQL查询语句。
4.根据权利要求1所述的基于GraphQL的中文问答模型训练方法,其特征在于,所述根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对的步骤,具体包括:
以所述目标中文问题数据为第一KEY值,以所述解答数据为第一VALUE值,生成所述第一文本对;
以所述目标中文问题数据为第二KEY值,以所述GraphQL查询语句为第二VALUE值,生成所述第二文本对。
5.根据权利要求1所述的基于GraphQL的中文问答模型训练方法,其特征在于,在执行所述将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内的步骤之前,所述方法还包括:
预先在所述采用端到端模式预训练完成的T5问答模型内引入双塔模型结构,其中,所述双塔模型结构中包含两个独立的神经网络处理结构,分别为第一神经网络处理结构和第二神经网络处理结构;
所述进行T5问答模型训练的步骤,具体包括:
获取输入的所述第一文本对集和所述第二文本对集;
根据所述第一神经网络处理结构对所述第一文本对集进行训练处理,输出由所有目标中文问题数据及所有对应的解答数据构建的第一中文知识图谱;
根据所述第二神经网络处理结构对所述第二文本对集进行训练处理,输出基于所有目标中文问题数据及所有对应的GraphQL查询语句构建的第二中文知识图谱;
对所述第一中文知识图谱和所述第二中文知识图谱进行图谱整合,获取综合中文知识图谱;
设置所述综合中文知识图谱为所述T5问答模型的问答知识图谱;
在执行所述进行T5问答模型训练的步骤之后,所述方法还包括:
根据所述问答知识图谱,获得目标中文问题数据对应的所有解答数据,并基于排序规则筛选出排名前N位的解答数据,作为所述目标中文问题数据对应的终选解答数据,其中,N为正整数。
6.根据权利要求5所述的基于GraphQL的中文问答模型训练方法,其特征在于,所述根据所述第二神经网络处理结构对所述第二文本对集进行训练处理,输出基于所有目标中文问题数据及所有对应的GraphQL查询语句构建的第二中文知识图谱的步骤,具体包括:
获取所有目标中文问题数据所分别对应的GraphQL查询语句;
执行所述GraphQL查询语句,获取所有目标中文问题数据分别根据对应的GraphQL查询语句所查询到的解答数据;
输出由所有目标中文问题数据及分别根据对应的GraphQL查询语句所查询到的解答数据构建第二中文知识图谱。
7.根据权利要求6所述的基于GraphQL的中文问答模型训练方法,其特征在于,在执行所述对所述第一中文知识图谱和所述第二中文知识图谱进行图谱整合,获取综合中文知识图谱的步骤之前,所述方法还包括:
获取预先已标注的验证集,其中,所述已标注的验证集中包括待验证的中文问题数据及每个待验证的中文问题数据对应的期望解答数据;
根据所述第一中文知识图谱和所述第一神经网络处理结构,输出获取所述验证集对应的第一实际解答数据;
根据所述第二中文知识图谱和所述第二神经网络处理结构,输出获取所述验证集对应的第二实际解答数据;
基于预设的相似度算法计算所述第一实际解答数据、所述第二实际解答数据分别与所述期望解答数据的相似度;
根据所述第一实际解答数据、所述第二实际解答数据分别与所述期望解答数据的相似度,分别为所述第一中文知识图谱和所述第二中文知识图谱设置解答数据选择权重;
所述对所述第一中文知识图谱和所述第二中文知识图谱进行图谱整合,获取综合中文知识图谱的步骤,具体包括:
根据所述第一中文知识图谱和所述第二中文知识图谱分别对应的解答数据选择权重,从所述第一中文知识图谱和所述第二中文知识图谱中选择出同一目标中文问题数据对应的不同数量的解答数据作为优选解答数据;
获取所有目标中文问题数据所对应的优选解答数据,完成对所述第一中文知识图谱和所述第二中文知识图谱的图谱整合;
获取由所有目标中文问题数据及所有对应的优选解答数据构建的综合中文知识图谱。
8.一种基于GraphQL的中文问答模型训练装置,其特征在于,包括:
目标中文问题数据获取模块,用于从批量中文问题数据中获取单个目标中文问题数据;
GraphQL查询语句生成模块,用于以GraphQL规范生成所述目标中文问题数据对应的GraphQL查询语句;
解答数据获取模块,用于通过语义分析模型从预设的问答知识库中获取所述目标中文问题数据对应的解答数据;
文本对生成模块,用于根据所述目标中文问题数据、所述解答数据和所述GraphQL查询语句,生成第一文本对和第二文本对;
文本对集构建模块,用于重复执行以上步骤,构建所述批量中文问题数据对应的第一文本对集和第二文本对集;
模型训练模块,用于将所述第一文本对集和所述第二文本对集输入到采用端到端模式预训练完成的T5问答模型内,进行T5问答模型训练,获得训练完成的T5问答模型;
模型执行模块,用于获得新的中文问题数据输入到所述训练完成的T5问答模型,获得模型输出结果作为解答数据。
9.一种计算机设备,包括存储器和处理器,所述存储器中存储有计算机可读指令,所述处理器执行所述计算机可读指令时实现如权利要求1至7中任一项所述的基于GraphQL的中文问答模型训练方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机可读指令,所述计算机可读指令被处理器执行时实现如权利要求1至7中任一项所述的基于GraphQL的中文问答模型训练方法的步骤。
CN202310714079.3A 2023-06-15 2023-06-15 基于GraphQL的中文问答模型训练方法及其相关设备 Pending CN116701593A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310714079.3A CN116701593A (zh) 2023-06-15 2023-06-15 基于GraphQL的中文问答模型训练方法及其相关设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310714079.3A CN116701593A (zh) 2023-06-15 2023-06-15 基于GraphQL的中文问答模型训练方法及其相关设备

Publications (1)

Publication Number Publication Date
CN116701593A true CN116701593A (zh) 2023-09-05

Family

ID=87835474

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310714079.3A Pending CN116701593A (zh) 2023-06-15 2023-06-15 基于GraphQL的中文问答模型训练方法及其相关设备

Country Status (1)

Country Link
CN (1) CN116701593A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117312512A (zh) * 2023-09-25 2023-12-29 星环信息科技(上海)股份有限公司 一种基于大模型的问答方法、装置、电子设备及存储介质

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117312512A (zh) * 2023-09-25 2023-12-29 星环信息科技(上海)股份有限公司 一种基于大模型的问答方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN112231569B (zh) 新闻推荐方法、装置、计算机设备及存储介质
CN111797214A (zh) 基于faq数据库的问题筛选方法、装置、计算机设备及介质
WO2021218028A1 (zh) 基于人工智能的面试内容精炼方法、装置、设备及介质
CN112287069B (zh) 基于语音语义的信息检索方法、装置及计算机设备
WO2021135455A1 (zh) 语义召回方法、装置、计算机设备及存储介质
CN111666416A (zh) 用于生成语义匹配模型的方法和装置
CN113707299A (zh) 基于问诊会话的辅助诊断方法、装置及计算机设备
CN112836521A (zh) 问答匹配方法、装置、计算机设备及存储介质
CN113627797A (zh) 入职员工画像生成方法、装置、计算机设备及存储介质
CN114358023B (zh) 智能问答召回方法、装置、计算机设备及存储介质
CN115438149A (zh) 一种端到端模型训练方法、装置、计算机设备及存储介质
CN116701593A (zh) 基于GraphQL的中文问答模型训练方法及其相关设备
CN112598039B (zh) 获取nlp分类领域阳性样本方法及相关设备
CN116796730A (zh) 基于人工智能的文本纠错方法、装置、设备及存储介质
CN116881446A (zh) 一种语义分类方法、装置、设备及其存储介质
CN115238077A (zh) 基于人工智能的文本分析方法、装置、设备及存储介质
CN113569741A (zh) 图像试题的答案生成方法、装置、电子设备及可读介质
CN113792549B (zh) 一种用户意图识别的方法、装置、计算机设备及存储介质
CN116610784A (zh) 一种保险业务场景问答推荐方法及其相关设备
CN116796709A (zh) 一种文本生成方法、装置、计算机设备及存储介质
CN116821298A (zh) 一种应用于投保信息的关键词自动识别方法、及相关设备
CN116756404A (zh) 一种搜索场景的滚动词推荐方法、装置、设备及存储介质
CN116502624A (zh) 训练语料的扩充方法、装置、计算机设备及存储介质
CN118212074A (zh) 数据推荐方法、装置、计算机设备及存储介质
CN117407497A (zh) 基于句法分析的问句解答方法、装置、设备及其存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination