CN116756281A - 知识问答方法、装置、设备和介质 - Google Patents

知识问答方法、装置、设备和介质 Download PDF

Info

Publication number
CN116756281A
CN116756281A CN202310713452.3A CN202310713452A CN116756281A CN 116756281 A CN116756281 A CN 116756281A CN 202310713452 A CN202310713452 A CN 202310713452A CN 116756281 A CN116756281 A CN 116756281A
Authority
CN
China
Prior art keywords
knowledge
information
question
matching
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202310713452.3A
Other languages
English (en)
Inventor
张佳颖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Industrial and Commercial Bank of China Ltd ICBC
Original Assignee
Industrial and Commercial Bank of China Ltd ICBC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Industrial and Commercial Bank of China Ltd ICBC filed Critical Industrial and Commercial Bank of China Ltd ICBC
Priority to CN202310713452.3A priority Critical patent/CN116756281A/zh
Publication of CN116756281A publication Critical patent/CN116756281A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • G06F16/355Class or cluster creation or modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • G06N3/0455Auto-encoder networks; Encoder-decoder networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开提供了一种知识问答方法,涉及人工智能领域。该方法包括:响应于接收到的问题信息,将知识库中的N个知识信息与所述问题信息输入到知识问答匹配模型中,其中,所述N个知识信息具有相同的目标数据类型,所述知识库通过将多种数据类型的文档内容转换为统一的所述目标数据类型而获得;获得所述知识问答匹配模型输出的N个匹配结果,其中,所述N个匹配结果指示了所述问题信息分别与所述N个知识信息的匹配程度;根据所述N个匹配结果,确定所述N个知识信息中的M个知识信息,N和M皆为大于或等于1的整数,M小于或等于N。本公开还提供了一种知识问答装置、设备、存储介质和程序产品。

Description

知识问答方法、装置、设备和介质
技术领域
本公开涉及人工智能领域,更具体地,涉及一种知识问答方法、装置、设备、介质和程序产品。
背景技术
近年来,深度学习带动了自然语言处理和计算机视觉的快速发展。在自然语言处理领域,智能问答是一项主流任务,其旨在对给出的自然语言形式的问题,利用机器做出回答。
传统的智能问答往往是基于单种模态数据,即只能针对一种数据类型的文档实现问答。但大部分产品文档是多模态的,即由多种数据类型数据组合而成,导致难以实现理想的智能问答效果。若每种数据类型配置一套单独的智能问答系统,则会导致较高的人力和资源成本。
发明内容
鉴于上述问题,本公开提供了一种知识问答方法、装置、设备、介质和程序产品。
本公开实施例的一个方面,提供了一种知识问答方法,包括:响应于接收到的问题信息,将知识库中的N个知识信息与所述问题信息输入到知识问答匹配模型中,其中,所述N个知识信息具有相同的目标数据类型,所述知识库通过将多种数据类型的文档内容转换为统一的所述目标数据类型而获得;获得所述知识问答匹配模型输出的N个匹配结果,其中,所述N个匹配结果指示了所述问题信息分别与所述N个知识信息的匹配程度;根据所述N个匹配结果,确定所述N个知识信息中的M个知识信息,N和M皆为大于或等于1的整数,M小于或等于N。
根据本公开的实施例,所述目标数据类型包括文本类型,所述多种数据类型包括文本类型和表格类型,获得所述知识库包括:将表格类型的文档内容转换为文本类型的文档内容;将统一为文本类型的所有文档内容进行拆解,得到所述知识库。
根据本公开的实施例,所述知识问答匹配模型包括编码器和分类器,所述获得所述知识问答匹配模型输出的N个匹配结果包括:将所述问题信息分别与所述N个知识信息组合,得到N个知识对;利用所述编码器分别对所述N个知识对进行编码,得到N个第一编码结果;利用所述分类器分别对所述N个第一编码结果进行分类,得到所述N个匹配结果。
根据本公开的实施例,所述知识问答匹配模型被配置为预先通过如下操作训练得到:获得样本知识库,其中,所述样本知识库通过将多种数据类型的样本文档内容转换为统一的所述目标数据类型而获得;将样本问题信息分别和所述样本知识库中的S个样本知识信息组成S个样本知识对,其中,所述S个样本知识信息包括正样本知识信息和负样本知识信息,所述负样本知识信息与所述正样本知识信息的相似度大于或等于预设阈值,S为大于或等于2的整数;基于所述S个样本知识对训练所述知识问答匹配模型。
根据本公开的实施例,所述基于所述S个样本知识对训练所述知识问答匹配模型包括:利用所述编码器分别对所述S个样本知识对进行编码,得到S个第二编码结果;利用所述分类器分别对所述S个第二编码结果进行分类,得到S个匹配结果,所述S个匹配结果指示了所述样本问题信息分别与所述S个样本知识信息之间的匹配程度;根据所述S个匹配结果与所述S个样本知识信息的标签计算匹配损失,得到匹配损失函数值;根据所述匹配损失函数值更新所述编码器和所述分类器。
根据本公开的实施例,所述知识问答匹配模型还被配置为预先通过如下操作训练得到:将所述S个样本知识信息中任两个样本知识信息进行组合,得到Q个样本对,Q为大于或等于1的整数;利用所述编码器分别对所述Q个样本对进行编码,得到Q个第三编码结果;利用所述分类器分别计算所述Q个第三编码结果的Q个相似度;基于所述Q个相似度得到对比损失函数值;根据所述对比损失函数值更新所述编码器和所述分类器。
根据本公开的实施例,在确定所述N个知识信息中的M个知识信息之后,所述方法还包括:若M大于或等于2,对所述M个知识信息进行排序,获得排序结果;基于所述排序结果,返回答案信息,其中,所述答案信息包括所述M个知识信息中的至少一个知识信息,所述至少一个知识信息中各自的数据类型与所述目标数据类型相同或不同。
根据本公开的实施例,在响应于接收到的问题信息,将知识库中的N个知识信息与所述问题信息输入到知识问答匹配模型中之前,所述方法还包括:响应于接收到的问题信息,确定与所述问题信息对应的金融产品文档,所述金融产品文档包括所述多种数据类型的金融产品内容;将所述多种数据类型的金融产品内容转换为统一的所述目标数据类型;将统一为所述目标数据类型的所有金融产品内容进行拆解,得到所述知识库中的N个知识信息。
本公开实施例的另一方面提供了一种知识问答装置,包括:输入模块,用于响应于接收到的问题信息,将知识库中的N个知识信息与所述问题信息输入到知识问答匹配模型中,其中,所述N个知识信息具有相同的目标数据类型,所述知识库通过将多种数据类型的文档内容转换为统一的所述目标数据类型而获得;匹配模块,用于获得所述知识问答匹配模型输出的N个匹配结果,其中,所述N个匹配结果指示了所述问题信息分别与所述N个知识信息的匹配程度;确定模块,用于根据所述N个匹配结果,确定所述N个知识信息中的M个知识信息,N和M皆为大于或等于1的整数,M小于或等于N。
所述装置包括分别用于执行如上所述任意一项所述的方法的各个步骤的模块。
本公开实施例的另一方面提供了一种电子设备,包括:一个或多个处理器;存储装置,用于存储一个或多个程序,其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得一个或多个处理器执行如上所述的方法。
本公开实施例的另一方面还提供了一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行如上所述的方法。
本公开实施例的另一方面还提供了一种计算机程序产品,包括计算机程序,该计算机程序被处理器执行时实现如上所述的方法。
上述一个或多个实施例具有如下有益效果:通过将多种数据类型的文档内容转换为统一的目标数据类型得到知识库,并应用到知识问答匹配模型中,便于知识问答匹配模型对问题信息分别与N个知识信息之间的匹配程度进行准确预测,从而获得准确的M个知识信息,实现基于多模态的文档的问答能力,提升智能问答服务水平。
附图说明
通过以下参照附图对本公开实施例的描述,本公开的上述内容以及其他目的、特征和优点将更为清楚,在附图中:
图1示意性示出了根据本公开实施例的知识问答方法的应用场景图;
图2示意性示出了根据本公开实施例的知识问答方法的流程图;
图3示意性示出了根据本公开实施例的获得知识库的流程图;
图4示意性示出了根据本公开实施例的获得知识信息的流程图;
图5示意性示出了根据本公开实施例的返回答案信息的流程图;
图6示意性示出了根据本公开实施例的获得匹配结果的流程图;
图7示意性示出了根据本公开实施例的预先训练模型的架构图;
图8示意性示出了根据本公开实施例的预先训练模型的流程图;
图9示意性示出了根据本公开另一实施例的训练模型的流程图;
图10示意性示出了根据本公开另一实施例的训练模型的流程图;
图11示意性示出了根据本发明实施例的知识问答装置的结构框图;以及
图12示意性示出了根据本公开实施例的适于实现知识问答方法的电子设备的方框图。
具体实施方式
以下,将参照附图来描述本公开的实施例。但是应该理解,这些描述只是示例性的,而并非要限制本公开的范围。在下面的详细描述中,为便于解释,阐述了许多具体的细节以提供对本公开实施例的全面理解。然而,明显地,一个或多个实施例在没有这些具体细节的情况下也可以被实施。此外,在以下说明中,省略了对公知结构和技术的描述,以避免不必要地混淆本公开的概念。
在此使用的术语仅仅是为了描述具体实施例,而并非意在限制本公开。在此使用的术语“包括”、“包含”等表明了特征、步骤、操作和/或部件的存在,但是并不排除存在或添加一个或多个其他特征、步骤、操作或部件。
在此使用的所有术语(包括技术和科学术语)具有本领域技术人员通常所理解的含义,除非另外定义。应注意,这里使用的术语应解释为具有与本说明书的上下文相一致的含义,而不应以理想化或过于刻板的方式来解释。
在使用类似于“A、B和C等中至少一个”这样的表述的情况下,一般来说应该按照本领域技术人员通常理解该表述的含义来予以解释(例如,“具有A、B和C中至少一个的系统”应包括但不限于单独具有A、单独具有B、单独具有C、具有A和B、具有A和C、具有B和C、和/或具有A、B、C的系统等)。
例如,相关技术中智能问答技术研究一般聚焦于基于纯文本的问答(如多篇章问答)或基于纯表格的问答(如表格问答)。其中,多篇章问答和表格问答的常见做法如下:
(1)多篇章问答:通过深度学习的方法将问题和篇章转化为高维的向量表示,然后计算问题的向量表示和篇章的向量表示之间的近似程度,随后从多个篇章中找出和问题最相关的篇章,再用单篇章的方法(比如BERTQA)根据该篇章得出答案。
(2)表格问答:将表格转化成一个数据库,通过语义解析的方法把问题转化为数据库语言SQL,然后从数据库中查询出答案。
举例而言,在金融领域,大部分产品文档是多模态的,即由文本、表格、图片等多种模态数据组合而成,故实现直接基于多模态的金融产品文档的问答是至关重要的。
本公开的一些实施例提供了一种知识问答方法,通过将多种数据类型的文档内容转换为统一的目标数据类型得到知识库,并应用到知识问答匹配模型中,便于知识问答匹配模型对问题信息分别与N个知识信息之间的匹配程度进行准确预测,从而获得准确的M个知识信息,实现基于多模态的文档的问答能力,以解决业务手工维护知识库存在人力成本高等问题,提升智能问答服务水平。
可以理解,本公开实施例并不局限在金融场景,可以应用在如电商客服、售后回复和知识学习等多个场景中。
在本公开的技术方案中,所涉及的用户个人信息的收集、存储、使用、加工、传输、提供、公开和应用等处理,均符合相关法律法规的规定,采取了必要保密措施,且不违背公序良俗。
图1示意性示出了根据本公开实施例的知识问答方法的应用场景图。需要注意的是,图1所示仅为可以应用本公开实施例的示例,以帮助本领域技术人员理解本公开的技术内容,但并不意味着本公开实施例不可以用于其他设备、系统、环境或场景。
如图1所示,根据该实施例的应用场景100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如购物类应用、网页浏览器应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等(仅为示例)。
终端设备101、102、103可以是具有显示屏并且支持网页浏览的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。
服务器105可以是提供各种服务的服务器,例如对用户利用终端设备101、102、103所浏览的网站提供支持的后台管理服务器(仅为示例)。后台管理服务器可以对接收到的用户请求等数据进行分析等处理,并将处理结果(例如根据用户请求获取或生成的网页、信息、或数据等)反馈给终端设备。
服务器105可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或分布式系统,还可以是提供云服务、云计算、网络服务、中间件服务等基础云计算服务的云服务器。
在一些实施例中,用户可以使用终端设备101、102、103,访问其上安装的应用或web页面,进入知识问答页面,如客服页面,输入自已的问题。终端设备101、102、103可以将问题信息经由网络104发送到服务器105中进行处理。
本公开实施例所提供的知识问答方法一般可以由服务器105执行。相应地,本公开实施例所提供的知识问答装置一般可以设置于服务器105中。本公开实施例所提供的知识问答方法也可以由不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群执行。相应地,本公开实施例所提供的知识问答装置也可以设置于不同于服务器105且能够与终端设备101、102、103和/或服务器105通信的服务器或服务器集群中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
以下将基于图1描述的场景,通过图2~图10对本公开实施例的知识问答方法进行详细描述。
图2示意性示出了根据本公开实施例的知识问答方法的流程图。如图2所示,该实施例的知识问答方法包括:
在操作S210,响应于接收到的问题信息,将知识库中的N个知识信息与问题信息输入到知识问答匹配模型中,其中,N个知识信息具有相同的目标数据类型,知识库通过将多种数据类型的文档内容转换为统一的目标数据类型而获得。
待回答问题可以是用户通过终端设备101、102、103的客户端应用输入的一句话,可以是从客户端采集到的用户语音中提取的问题文本,然后由客户端将待回答问题发送至服务器105。
各企业可以设置各自对应的知识库,或,一个企业可以针对各个业务分别建立对应的知识库,知识库中包含领域内的大量常见问题以及对应的答案。比如,对于金融领域对应的知识库中存储的是与金融相关的常见问题以及答案,电商领域对应的知识库中存储的是与电商相关的常见问题以及答案。操作S210中知识库是与该问题信息所属领域相关的知识库,该知识库中包含大量属于该领域的常见问题以及对应的答案。
在一些实施例中,每个知识信息中可以包括预先确定的候选问题,以及该候选问题下的正确答案信息。便于后续先将问题信息与候选问题进行匹配,再返回正确答案信息,提高匹配效率。在另一些实施例中,每个知识信息中可以仅存在答案信息。后续可以直接将问题信息与答案信息进行匹配。
多种数据类型包括文本、表格、公式(如MathType或LaTeX语言)、图片、音频或视频等,又称多模态数据。多种数据类型的文档内容可以来自同一份文档,也可以来自不同的文档,例如一份文档中可以包括至少一种数据类型。文档可以是在计算机生成及存储的电子文档,也可以是纸质文档后扫描后生成的图片或电子文档,本公开不做限定。
图3示意性示出了根据本公开实施例的获得知识库的流程图。目标数据类型包括文本类型,多种数据类型包括文本类型和表格类型,如图3所示,该实施例获得知识库包括:
在操作S310,将表格类型的文档内容转换为文本类型的文档内容。
例如金融产品文档中,具有文字内容和表格内容,表格内容例如包括存款不同年限、不同金额的利率和收益情况。
如果表格是可编辑的,例如word或Excel中的表格,则可以直接读取其中行、列以及各单元格位置信息等得到文本内容。
如果表格是图片格式的,则将该图像输入至神经网络后,神经网络可以对该图像进行处理,识别表格结构,并输出文字内容。具体而言,利用神经网络来识别表格线。进而,计算表格线的位置、长度等。接着,神经网络基于表格线获取表格结构。例如,利用表格线的位置和长度计算表格中单元格的位置、大小、以及每个单元格占有的行列数量。最后,输出具有表格结构的可编辑表格文件,或是直接输出其中的文字内容。
在操作S320,将统一为文本类型的所有文档内容进行拆解,得到知识库。
例如,可以将所有文档内容进行分段,如保留原有的分段格式,每个表格为其中一段,按照段落进行拆解,每个段落视为一个知识信息。又例如,可以根据原文档中的目录进行拆解,每个小节为一个知识信息。再例如,读取文档内容,利用自然语言处理模型进行语义分析,并按照语义对其中的每句话进行聚类,每个聚类簇作为一个知识信息。可以理解,还可以使用其他方式进行拆解,例如按照金融产品文档中各个业务,或每个业务的各个功能拆解,本公开不进行限定。
根据本公开的实施例,通过将表格类型转换为文本类型,无需各自针对表格类型和文本类型部署两个模型,通过单个知识问答匹配模型即可将原本为表格类型或文本类型的知识信息与问题信息准确匹配。
图4示意性示出了根据本公开实施例的获得知识信息的流程图。在响应于接收到的问题信息,将知识库中的N个知识信息与问题信息输入到知识问答匹配模型中之前,如图4所示,该实施例获得知识信息包括:
在操作S410,响应于接收到的问题信息,确定与问题信息对应的金融产品文档,金融产品文档包括多种数据类型的金融产品内容。
金融产品文档是指描述金融产品的文件,可以包括对内的金融产品需求文档,或对外的金融产品说明书等。金融产品内容可以包括产品的特点、风险、简介、投资策略、风险提示、投资组合信息、费用说明和法律条款等内容。
在操作S420,将多种数据类型的金融产品内容转换为统一的目标数据类型。
例如目标数据类型可以包括文本、表格、音频、图片或视频中的至少一种。例如,可以将文本输入至文本转语音软件,获得音频。例如可以将原来的文本、表格和音频数据统一转化为文本类型,再输入至生成式模型中,生成图片或视频。
在操作S430,将统一为目标数据类型的所有金融产品内容进行拆解,得到知识库中的N个知识信息。
大部分金融产品文档是多模态的,即由文本、表格等多种模态数据组合而成,根据本公开的实施例,可以实现直接基于多模态的金融产品文档的问答水平,提升文档理解的能力。
在操作S220,获得知识问答匹配模型输出的N个匹配结果,其中,N个匹配结果指示了问题信息分别与N个知识信息的匹配程度。
示例性地,匹配程度可以指匹配概率,例如以0~1之间的数值表征,越趋近于1则匹配程度越高。匹配程度高,则表明该知识信息为该问题信息的答案。
在操作S230,根据N个匹配结果,确定N个知识信息中的M个知识信息,N和M皆为大于或等于1的整数,M小于或等于N。
例如,以匹配概率为0.8作为阈值,则N个匹配结果中包括M个知识信息,各自与问题信息的匹配概率大于或等于0.8。这样能够便于后续确定出较为准确的答案。
根据本公开的实施例,通过将多种数据类型的文档内容转换为统一的目标数据类型得到知识库,并应用到知识问答匹配模型中,便于知识问答匹配模型对问题信息分别与N个知识信息之间的匹配程度进行准确预测,从而获得准确的M个知识信息,实现基于多模态的文档的问答能力,以解决业务手工维护知识库存在人力成本高等问题,提升智能问答服务水平。
图5示意性示出了根据本公开实施例的返回答案信息的流程图。在确定N个知识信息中的M个知识信息之后,如图5所示,该实施例返回答案信息包括:
在操作S510,若M大于或等于2,对M个知识信息进行排序,获得排序结果。
在一些实施例中,按照每个知识信息与问题信息的匹配概率进行排序,概率大者位于前,反之则位于后。
在另一些实施例中,可以计算M个知识信息中至少两个知识信息之间的关联度,关联度可以根据语义相似度、上下文关系、逻辑关系等确定。当关联度较高时,可以合并为一个知识信息。合并后的知识信息可以进行匹配概率的叠加或求平均。最后,将M个知识信息中合并得到的至少一个知识信息和其余未参与合并的知识信息进行排序,概率大者位于前,反之则位于后。这样能够给用户较为全面的答案。
在操作S520,基于排序结果,返回答案信息,其中,答案信息包括M个知识信息中的至少一个知识信息,至少一个知识信息中各自的数据类型与目标数据类型相同或不同。
例如M的值为10,可以将排序结果中TOP1、TOP2、TOP3和TOP4发送至客户端进行显示,还可以将全部发送至客户端进行显示。
在一些实施例中,上述至少一个知识信息可以目标数据类型的格式在客户端显示。
在另一些实施例中,以上述至少一个知识信息为基准,确定各自原文档中对应的内容,以原数据类型的格式在客户端显示,这样给用户较佳的观看体验。
在另一些实施例中,上述至少一个知识信息中部分以原数据类型的格式在客户端显示,其余部分以目标数据类型的格式在客户端显示。可以根据用户的问题信息、用户以往的问题历史或用户当前办理的业务等至少之一确定。
根据本公开的实施例,通过排序结果,进而提高得到的答案信息的准确性。
深度学习模型训练需要大量的标注数据,而现实并没有大规模的标注数据,这极大程度会导致模型深度有限且泛化性能差。尤其是在自然语言领域,某些特定场景可用的语料少且需各种脱敏删减。预训练语言模型的出现,改变了模型训练的传统范式,有效解决了标注数据稀缺问题。目前,预训练语言模型训练是基于大规模无标注文本数据完成的,会得到一个通用的语言模型,然后针对特定任务,在标注数据上初始化或微调,获得最终模型并用于真实场景的后端部署。
在本公开的一些实施例中,知识问答匹配模型包括编码器和分类器,其中,编码器采用对预训练语言模型微调后的最终模型。
图6示意性示出了根据本公开实施例的获得匹配结果的流程图。如图6所示,该实施例是操作S220的其中一个实施例,包括:
在操作S610,将问题信息分别与N个知识信息组合,得到N个知识对。
在操作S620,利用编码器分别对N个知识对进行编码,得到N个第一编码结果。
在一些实施例中,编码器可以选择为基于预训练模型Bert(BidirectionalEncoder Representations from Transformers)的改进模型Roberta。相较于Bert,Roberta主要有三大改进点:一是动态Masking,每次模型输入一个序列时,都会生成一个新的Mask方式,即不在预处理的时候进行Mask,而是在向模型输入时动态生成Mask。二是取消了下一句子预测任务,以提升模型性能。三是扩大Batch Size大小,有助于模型并行化训练。
可以理解,本公开并非将编码器仅限定在Roberta,使用Bert模型或其他预训练模型同样在本公开的发明构思范围之内。
在操作S630,利用分类器分别对N个第一编码结果进行分类,得到N个匹配结果,所述N个匹配结果指示了所述问题信息分别与所述N个知识信息的匹配程度。
示例性地,分类器用于基于编码器输出的编码结果的语义表示,确定匹配结果的类别,如匹配或不匹配。进一步地,例如匹配概率大于等于0.8,则类别为匹配,反之则为不匹配。
在一种可能的实现方式中,知识问答匹配模型包括词嵌入提取单元,其可以是一个编码矩阵,例如one-hot编码矩阵。知识对经词嵌入提取后输出到编码器。分类器可以是二分类器、三分类器等,其分类类别可以根据实际需求进行设计。
下面结合图7~图10,进一步说明预先训练知识问答匹配模型的过程。
图7示意性示出了根据本公开实施例的预先训练模型的架构图。
参考图7,知识问答匹配模型包括编码器Encoder和分类器FFNN(全连接神经网络)。编码器Encoder可以使用如上述的模型Roberta。分类器可以包括Sigmod或Softmax函数层,例如Sigmod函数用于做二分类任务,可以把输出的可能性映射到一个分布上。具体的,Sigmod函数层接收到目标向量后,预测问题和知识之间的匹配程度。
图7中知识问答匹配模型为单塔融合式模型,也称Interaction-based,即将两个文本一同输入进编码器,在编码的过程中让它们相互交换信息,再得到最终结果。
图8示意性示出了根据本公开实施例的预先训练模型的流程图。如图8所示,该实施例中知识问答匹配模型被配置为预先通过如下操作训练得到:
在操作S810,获得样本知识库,其中,样本知识库通过将多种数据类型的样本文档内容转换为统一的目标数据类型而获得。
在操作S820,将样本问题信息分别和样本知识库中的S个样本知识信息组成S个样本知识对,其中,S个样本知识信息包括正样本知识信息和负样本知识信息,负样本知识信息与正样本知识信息的相似度大于或等于预设阈值,S为大于或等于2的整数。
例如金融产品文档包含文本和表格两种结构,故在对文档进行处理时须统一格式,即将表格数据也转换为文本数据。进而将整体的文本数据拆解为知识集D,对于某一问题q,知识集中属于答案的被标注为正例集D+,知识集中不属于答案的被标注为负例集D-。最后构建q-d(d属于D+或D-)问题-知识pair对。
例如从多模态的金融产品文档中,将表格类型转换为文本类型,接着将文本类型的所有文档内容转化为知识d,作为样本知识信息。
比如,金融领域中一个示例性样本知识对包括:q-信用卡逾期一天怎么办?d-及时还款,并缴纳逾期利息。
可以理解的是,问题q可以是一个或多个,知识d可以一个或多个。在一个问题对应一个答案的情况下,各个样本知识对之间的样本问题信息和知识信息都不同。在一个问题对应多个答案的情况下,多个样本知识对之间可能存在相同的样本问题信息。
在模型训练中,正样本知识信息是指能够作为对应问题信息的答案的样本知识信息。负样本是指不能够作为对应问题信息的答案的样本知识信息,其作用是让模型在分类过程中能够进行正确的判断。
通常情况下,负样本的数量远大于正样本的数量,如果采样质量不高的负样本,会导致模型的训练效率低、分类效果差。因此,可以采用高质量的负样本采样策略。为了构造模型难以区分的、具有高质量的负样本,具体策略是使用模型对所有候选知识进行向量表示或者基于传统的检索算法(如BM25),去采样与所标注的正样本高度相似的负样本作为高质量负样本。最终以一定的比例混合高质量以及全局随机负样本,得到最终的负样本集合。同时,在每轮训练结束后随机打乱样本顺序并控制正负样本的比例(1:4),避免模型过拟合。
在操作S830,基于S个样本知识对训练知识问答匹配模型。
根据本公开的实施例,主要通过使用基于大规模语料预训练的语言模型作为编码器,采用高质量的负采样策略,通过构造模型难以区分的、具有高质量的负样本,可提升模型训练效率和分类效果,同时也可提升模型的泛化能力,减少过拟合风险。
图9示意性示出了根据本公开另一实施例的训练模型的流程图。如图9所示,该实施例是操作S730的其中一个实施例,包括:
在操作S910,利用编码器分别对S个样本知识对进行编码,得到S个第二编码结果。
在操作S920,利用分类器分别对S个第二编码结果进行分类,得到S个匹配结果,S个匹配结果指示了样本问题信息分别与S个样本知识信息之间的匹配程度。
在操作S930,根据S个匹配结果与S个样本知识信息的标签计算匹配损失,得到匹配损失函数值。S个样本知识信息的标签包括正样本标签或负样本标签。
在操作S940,根据匹配损失函数值更新编码器和分类器。
对于匹配损失,主要是将编码器获得的问题-知识的统一表示向量输入全连接神经网络,计算匹配的二分类损失,即匹配损失函数值,可以通过交叉熵损失函数得到。
图10示意性示出了根据本公开另一实施例的训练模型的流程图。如图10所示,该实施例是操作S730的其中一个实施例,包括:
在操作S1010,将S个样本知识信息中任两个样本知识信息进行组合,得到Q个样本对,Q为大于或等于1的整数。
每个样本对可以包括两个正样本知识信息,或两个负样本知识信息,或一个正样本知识信息和一个负样本知识信息。
在操作S1020,利用编码器分别对Q个样本对进行编码,得到Q个第三编码结果。
可以理解,本公开的第一编码结果、第二编码结果和第三编码结果分别为编码器针对其输入的表示向量。
在操作S1030,利用分类器分别计算Q个第三编码结果的Q个相似度。
在操作S1040,基于Q个相似度得到对比损失函数值。
对于对比损失,主要是将正负例知识的表示向量输入全连接神经网络计算对比学习的损失。其中,在模型中添加对比学习可加强模型匹配,有助于模型学习到更加鲁棒、泛化性更强的特征,提高模型的性能。
对比学习中的损失函数li,j如下式1所示:分子中只计算正样本对的距离,负样本只会在对比损失的分母中出现,当正样本对距离越小,负样本对距离越大,损失越小。
其中,分子中的zi和zj同属一个类别或互为近邻关系,分母中的zi和zk为任意一对样本,sim()用于计算样本间的距离,τ为温度系数超参数。1≤i≤S,1≤j≤S,1≤k≤S,i≠j,i≠k。
在操作S1050,根据对比损失函数值更新编码器和分类器。
在该实施例中,对比损失用于指示正样本知识信息的表示向量和负样本知识信息的表示向量之间的差异程度,该差异程度可以采用距离或相似度来表示。通过最小化对比损失式1,来增强编码器的鲁棒性,从而提高了分类器的分类效果,进而提高知识问答匹配模型的效果和鲁棒性。
根据本公开的实施例,在对模型进行分类损失之外,还计算模型的对比损失,综合上述分类损失和对比损失优化模型参数,以达到训练知识问答匹配模型的目的。这样,在知识问答匹配模型的训练过程中,不仅要正确给出匹配结果,还要通过计算对比损失,使得正样本之间的距离尽可能的近,正样本与负样本之间的距离尽可能的远,避免模型的编码器被负样本信息所干扰,该方法不仅能够提高分类器的准确性和鲁棒性,同时还会提高编码器的鲁棒性,从而实现了知识问答匹配模型的分类效果和鲁棒性的整体提高。
在一些实施例中,在模型的训练过程中,可以先进行一阶段训练,例如根据匹配损失函数值运行反向传播算法更新编码器和分类器,再进行二阶段训练,对经一阶段训练的模型,根据对比损失函数值运行反向传播算法更新编码器和分类器。在另一些实施例中,每一批次的样本,可以获得匹配损失函数值和对比损失函数值,根据两者获得综合损失函数值后,运行反向传播算法更新编码器和分类器。
在一些实施例中,参照图7和图5,验证时可以进行后处理操作,对候选答案排序,得到由文档知识组成的问题答案。
在本公开的一些实施例,训练得到的知识问答匹配模型可以具有以下效果:
(1)端到端的方式:采用端到端的知识问答匹配模型,相较于Pipeline的问答模型,其可有效避免多个子任务叠加错误,可充分利用深度学习模型的自适应能力。端到端的模型是指,将问答任务作为一个整体进行处理,直接从问题的输入到答案的输出,不需要中间的子任务。例如:深度学习模型可以直接输入问题和文本,输出答案。
(2)采用高质量的负采样策略:通过构造模型难以区分的、具有高质量的负样本,可提升模型训练效率和分类效果,同时也可提升模型的泛化能力,减少过拟合风险。
(3)利用对比学习增强模型匹配:基于有监督场景,利用对比学习进一步提升来自大规模预训练语言模型得到的向量表示,更好地促进问答匹配任务,从而提升模型性能。
基于上述知识问答方法,本公开还提供了一种知识问答装置。以下将结合图11对该装置进行详细描述。
图11示意性示出了根据本发明实施例的知识问答装置1100的结构框图。
如图11,知识问答装置1100可以包括输入模块1110、匹配模块1120和确定模块1130。
输入模块1110可以执行操作S210,用于响应于接收到的问题信息,将知识库中的N个知识信息与问题信息输入到知识问答匹配模型中,其中,N个知识信息具有相同的目标数据类型,知识库通过将多种数据类型的文档内容转换为统一的目标数据类型而获得。
匹配模块1120可以执行操作S220,用于获得知识问答匹配模型输出的N个匹配结果,其中,N个匹配结果指示了问题信息分别与N个知识信息的匹配程度。
在一些实施例中,匹配模块1120可以执行操作S610~操作S630,在此不再赘述。
确定模块830可以执行操作S230,根据N个匹配结果,确定N个知识信息中的M个知识信息,N和M皆为大于或等于1的整数,M小于或等于N。
在一些实施例中,知识问答装置1100可以包括知识库模块,该模块可以执行操作S310~操作S320,操作S410~操作S430,在此不再赘述。
在一些实施例中,知识问答装置1100可以包括排序模块,该模块可以执行操作S510~操作S520,在此不再赘述。
在一些实施例中,知识问答装置1100可以包括模型训练模块,该模块可以执行操作S810~操作S830,操作S910~操作S940,操作S1010~操作S1050,在此不再赘述。
需要说明的是,知识问答装置1100包括用于执行图2~图10任一个实施例所描述的方法中各个步骤的模块。装置部分实施例中各模块/单元/子单元等的实施方式、解决的技术问题、实现的功能、以及达到的技术效果分别与方法部分实施例中各对应的步骤的实施方式、解决的技术问题、实现的功能、以及达到的技术效果相同或类似,在此不再赘述。
根据本公开的实施例,输入模块1110、匹配模块1120和确定模块1130中的任意多个模块可以合并在一个模块中实现,或者其中的任意一个模块可以被拆分成多个模块。或者,这些模块中的一个或多个模块的至少部分功能可以与其他模块的至少部分功能相结合,并在一个模块中实现。
根据本公开的实施例,输入模块1110、匹配模块1120和确定模块1130中的至少一个可以至少被部分地实现为硬件电路,例如现场可编程门阵列(FPGA)、可编程逻辑阵列(PLA)、片上系统、基板上的系统、封装上的系统、专用集成电路(ASIC),或可以通过对电路进行集成或封装的任何其他的合理方式等硬件或固件来实现,或以软件、硬件以及固件三种实现方式中任意一种或以其中任意几种的适当组合来实现。或者,输入模块1110、匹配模块1120和确定模块1130中的至少一个可以至少被部分地实现为计算机程序模块,当该计算机程序模块被运行时,可以执行相应的功能。
图12示意性示出了根据本公开实施例的适于实现知识问答方法的电子设备的方框图。
如图12所示,根据本公开实施例的电子设备1200包括处理器1201,其可以根据存储在只读存储器(ROM)1202中的程序或者从存储部分1208加载到随机访问存储器(RAM)1203中的程序而执行各种适当的动作和处理。处理器1201例如可以包括通用微处理器(例如CPU)、指令集处理器和/或相关芯片组和/或专用微处理器(例如,专用集成电路(ASIC))等等。处理器1201还可以包括用于缓存用途的板载存储器。处理器1201可以包括用于执行根据本公开实施例的方法流程的不同动作的单一处理单元或者是多个处理单元。
在RAM 1203中,存储有电子设备1200操作所需的各种程序和数据。处理器1201、ROM 1202以及RAM 1203通过总线1204彼此相连。处理器1201通过执行ROM 1202和/或RAM1203中的程序来执行根据本公开实施例的方法流程的各种操作。需要注意,程序也可以存储在除ROM 1202和RAM 1203以外的一个或多个存储器中。处理器1201也可以通过执行存储在一个或多个存储器中的程序来执行根据本公开实施例的方法流程的各种操作。
根据本公开的实施例,电子设备1200还可以包括输入/输出(I/O)接口1205,输入/输出(I/O)接口1205也连接至总线1204。电子设备1200还可以包括连接至I/O接口1205的以下部件中的一项或多项:包括键盘、鼠标等的输入部分1206。包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分1207。包括硬盘等的存储部分1208。以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分1209。通信部分1209经由诸如因特网的网络执行通信处理。驱动器1210也根据需要连接至I/O接口1205。可拆卸介质1211,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器1210上,以便于从其上读出的计算机程序根据需要被安装入存储部分1208。
本公开还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的设备/装置/系统中所包含的。也可以是单独存在,而未装配入该设备/装置/系统中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被执行时,实现根据本公开实施例的方法。
根据本公开的实施例,计算机可读存储介质可以是非易失性的计算机可读存储介质,例如可以包括但不限于:便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本公开中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。例如,根据本公开的实施例,计算机可读存储介质可以包括上文描述的ROM 1202和/或RAM 1203和/或ROM 1202和RAM 1203以外的一个或多个存储器。
本公开的实施例还包括一种计算机程序产品,其包括计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。当计算机程序产品在计算机系统中运行时,该程序代码用于使计算机系统实现本公开实施例所提供的方法。
在该计算机程序被处理器1201执行时执行本公开实施例的系统/装置中限定的上述功能。根据本公开的实施例,上文描述的系统、装置、模块、单元等可以通过计算机程序模块来实现。
在一种实施例中,该计算机程序可以依托于光存储器件、磁存储器件等有形存储介质。在另一种实施例中,该计算机程序也可以在网络介质上以信号的形式进行传输、分发,并通过通信部分1209被下载和安装,和/或从可拆卸介质1211被安装。该计算机程序包含的程序代码可以用任何适当的网络介质传输,包括但不限于:无线、有线等等,或者上述的任意合适的组合。
在这样的实施例中,该计算机程序可以通过通信部分1209从网络上被下载和安装,和/或从可拆卸介质1211被安装。在该计算机程序被处理器1201执行时,执行本公开实施例的系统中限定的上述功能。根据本公开的实施例,上文描述的系统、设备、装置、模块、单元等可以通过计算机程序模块来实现。
根据本公开的实施例,可以以一种或多种程序设计语言的任意组合来编写用于执行本公开实施例提供的计算机程序的程序代码,具体地,可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。程序设计语言包括但不限于诸如Java,C++,python,“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,上述模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图或流程图中的每个方框、以及框图或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
本领域技术人员可以理解,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合或/或结合,即使这样的组合或结合没有明确记载于本公开中。特别地,在不脱离本公开精神和教导的情况下,本公开的各个实施例和/或权利要求中记载的特征可以进行多种组合和/或结合。所有这些组合和/或结合均落入本公开的范围。
以上对本公开的实施例进行了描述。但是,这些实施例仅仅是为了说明的目的,而并非为了限制本公开的范围。尽管在以上分别描述了各实施例,但是这并不意味着各个实施例中的措施不能有利地结合使用。本公开的范围由所附权利要求及其等同物限定。不脱离本公开的范围,本领域技术人员可以做出多种替代和修改,这些替代和修改都应落在本公开的范围之内。

Claims (12)

1.一种知识问答方法,包括:
响应于接收到的问题信息,将知识库中的N个知识信息与所述问题信息输入到知识问答匹配模型中,其中,所述N个知识信息具有相同的目标数据类型,所述知识库通过将多种数据类型的文档内容转换为统一的所述目标数据类型而获得;
获得所述知识问答匹配模型输出的N个匹配结果,其中,所述N个匹配结果指示了所述问题信息分别与所述N个知识信息的匹配程度;
根据所述N个匹配结果,确定所述N个知识信息中的M个知识信息,N和M皆为大于或等于1的整数,M小于或等于N。
2.根据权利要求1所述的方法,其中,所述目标数据类型包括文本类型,所述多种数据类型包括文本类型和表格类型,获得所述知识库包括:
将表格类型的文档内容转换为文本类型的文档内容;
将统一为文本类型的所有文档内容进行拆解,得到所述知识库。
3.根据权利要求1所述的方法,其中,所述知识问答匹配模型包括编码器和分类器,所述获得所述知识问答匹配模型输出的N个匹配结果包括:
将所述问题信息分别与所述N个知识信息组合,得到N个知识对;
利用所述编码器分别对所述N个知识对进行编码,得到N个第一编码结果;
利用所述分类器分别对所述N个第一编码结果进行分类,得到所述N个匹配结果。
4.根据权利要求3所述的方法,其中,所述知识问答匹配模型被配置为预先通过如下操作训练得到:
获得样本知识库,其中,所述样本知识库通过将多种数据类型的样本文档内容转换为统一的所述目标数据类型而获得;
将样本问题信息分别和所述样本知识库中的S个样本知识信息组成S个样本知识对,其中,所述S个样本知识信息包括正样本知识信息和负样本知识信息,所述负样本知识信息与所述正样本知识信息的相似度大于或等于预设阈值,S为大于或等于2的整数;
基于所述S个样本知识对训练所述知识问答匹配模型。
5.根据权利要求4所述的方法,其中,所述基于所述S个样本知识对训练所述知识问答匹配模型包括:
利用所述编码器分别对所述S个样本知识对进行编码,得到S个第二编码结果;
利用所述分类器分别对所述S个第二编码结果进行分类,得到S个匹配结果,所述S个匹配结果指示了所述样本问题信息分别与所述S个样本知识信息之间的匹配程度;
根据所述S个匹配结果与所述S个样本知识信息的标签计算匹配损失,得到匹配损失函数值;
根据所述匹配损失函数值更新所述编码器和所述分类器。
6.根据权利要求5所述的方法,其中,所述知识问答匹配模型还被配置为预先通过如下操作训练得到:
将所述S个样本知识信息中任两个样本知识信息进行组合,得到Q个样本对,Q为大于或等于1的整数;
利用所述编码器分别对所述Q个样本对进行编码,得到Q个第三编码结果;
利用所述分类器分别计算所述Q个第三编码结果的Q个相似度;
基于所述Q个相似度得到对比损失函数值;
根据所述对比损失函数值更新所述编码器和所述分类器。
7.根据权利要求1所述的方法,其中,在确定所述N个知识信息中的M个知识信息之后,所述方法还包括:
若M大于或等于2,对所述M个知识信息进行排序,获得排序结果;
基于所述排序结果,返回答案信息,其中,所述答案信息包括所述M个知识信息中的至少一个知识信息,所述至少一个知识信息中各自的数据类型与所述目标数据类型相同或不同。
8.根据权利要求1所述的方法,其中,在响应于接收到的问题信息,将知识库中的N个知识信息与所述问题信息输入到知识问答匹配模型中之前,所述方法还包括:
响应于接收到的问题信息,确定与所述问题信息对应的金融产品文档,所述金融产品文档包括所述多种数据类型的金融产品内容;
将所述多种数据类型的金融产品内容转换为统一的所述目标数据类型;
将统一为所述目标数据类型的所有金融产品内容进行拆解,得到所述知识库中的N个知识信息。
9.一种知识问答装置,包括:
输入模块,用于响应于接收到的问题信息,将知识库中的N个知识信息与所述问题信息输入到知识问答匹配模型中,其中,所述N个知识信息具有相同的目标数据类型,所述知识库通过将多种数据类型的文档内容转换为统一的所述目标数据类型而获得;
匹配模块,用于获得所述知识问答匹配模型输出的N个匹配结果,其中,所述N个匹配结果指示了所述问题信息分别与所述N个知识信息的匹配程度;
确定模块,用于根据所述N个匹配结果,确定所述N个知识信息中的M个知识信息,N和M皆为大于或等于1的整数,M小于或等于N。
10.一种电子设备,包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
其中,当所述一个或多个程序被所述一个或多个处理器执行时,使得所述一个或多个处理器执行根据权利要求1~8中任一项所述的方法。
11.一种计算机可读存储介质,其上存储有可执行指令,该指令被处理器执行时使处理器执行根据权利要求1~8中任一项所述的方法。
12.一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现根据权利要求1~8中任一项所述的方法。
CN202310713452.3A 2023-06-15 2023-06-15 知识问答方法、装置、设备和介质 Pending CN116756281A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310713452.3A CN116756281A (zh) 2023-06-15 2023-06-15 知识问答方法、装置、设备和介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310713452.3A CN116756281A (zh) 2023-06-15 2023-06-15 知识问答方法、装置、设备和介质

Publications (1)

Publication Number Publication Date
CN116756281A true CN116756281A (zh) 2023-09-15

Family

ID=87954726

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310713452.3A Pending CN116756281A (zh) 2023-06-15 2023-06-15 知识问答方法、装置、设备和介质

Country Status (1)

Country Link
CN (1) CN116756281A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117131181A (zh) * 2023-10-24 2023-11-28 国家电网有限公司 一种异构知识问答模型的构建方法、信息提取方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117131181A (zh) * 2023-10-24 2023-11-28 国家电网有限公司 一种异构知识问答模型的构建方法、信息提取方法及系统
CN117131181B (zh) * 2023-10-24 2024-04-05 国家电网有限公司 一种异构知识问答模型的构建方法、信息提取方法及系统

Similar Documents

Publication Publication Date Title
WO2020249125A1 (zh) 用于自动训练机器学习模型的方法和系统
CN109522483B (zh) 用于推送信息的方法和装置
CN110597962B (zh) 搜索结果展示方法、装置、介质及电子设备
US10755332B2 (en) Multi-perceptual similarity detection and resolution
CN106354856B (zh) 基于人工智能的深度神经网络强化搜索方法和装置
CN116127020A (zh) 生成式大语言模型训练方法以及基于模型的搜索方法
CN112463968B (zh) 文本分类方法、装置和电子设备
CN110377733A (zh) 一种基于文本的情绪识别方法、终端设备及介质
CN114298122A (zh) 数据分类方法、装置、设备、存储介质及计算机程序产品
CN116756281A (zh) 知识问答方法、装置、设备和介质
CN117114063A (zh) 用于训练生成式大语言模型和用于处理图像任务的方法
CN116955591A (zh) 用于内容推荐的推荐语生成方法、相关装置和介质
CN116402166A (zh) 一种预测模型的训练方法、装置、电子设备及存储介质
CN115631008B (zh) 商品推荐方法、装置、设备及介质
CN113742488B (zh) 基于多任务学习的嵌入式知识图谱补全方法和装置
CN112948561B (zh) 一种问答知识库自动扩建的方法和装置
CN112446738A (zh) 广告数据处理方法、装置、介质以及电子设备
CN110879868A (zh) 顾问方案生成方法、装置、系统、电子设备及介质
US20220300852A1 (en) Method and System for Automating Scenario Planning
CN116756539A (zh) 项目推荐方法、装置、计算机设备及存储介质
CN115482490A (zh) 物品分类模型训练方法及物品分类方法、装置及介质
CN116304352A (zh) 消息推送方法、装置、设备及存储介质
CN117033757A (zh) 信息选取方法、装置、电子设备及存储介质
CN117112795A (zh) 标识名称识别方法、装置、电子设备及存储介质
CN116740748A (zh) 票证识别方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination