CN116720008A - 一种机器阅读方法、装置、存储介质及电子设备 - Google Patents

一种机器阅读方法、装置、存储介质及电子设备 Download PDF

Info

Publication number
CN116720008A
CN116720008A CN202311010113.5A CN202311010113A CN116720008A CN 116720008 A CN116720008 A CN 116720008A CN 202311010113 A CN202311010113 A CN 202311010113A CN 116720008 A CN116720008 A CN 116720008A
Authority
CN
China
Prior art keywords
text
word
target
sample
answer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311010113.5A
Other languages
English (en)
Other versions
CN116720008B (zh
Inventor
洪星芸
邵研
赵鑫安
尹越
段曼妮
王永恒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Lab
Original Assignee
Zhejiang Lab
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Lab filed Critical Zhejiang Lab
Priority to CN202311010113.5A priority Critical patent/CN116720008B/zh
Publication of CN116720008A publication Critical patent/CN116720008A/zh
Application granted granted Critical
Publication of CN116720008B publication Critical patent/CN116720008B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/953Querying, e.g. by the use of web search engines
    • G06F16/9535Search customisation based on user profiles and personalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/3331Query processing
    • G06F16/334Query execution
    • G06F16/3344Query execution using natural language analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本说明书公开了一种机器阅读方法、装置、存储介质及电子设备。在采用本说明书提供的机器阅读方法,确定目标问题的目标答案时,可通过搜索引擎获取目标问题的候选文本,并以匹配度计算的方式确定出与目标问题匹配的匹配文本;通过预先训练的阅读模型以及生成式模型,根据目标问题与匹配文本,分别得到第一候选答案和第二候选答案;最终根据目标问题与各候选答案之间的相似度确定出最终的候选答案并回复给用户。在采用本方法时可无需预先设置具有庞大数据量的问答模板以及知识库等内容,实施成本较低,且能够适用于多种不同的场景,灵活性较强。

Description

一种机器阅读方法、装置、存储介质及电子设备
技术领域
本说明书涉及计算机技术领域,尤其涉及一种机器阅读方法、装置、存储介质及电子设备。
背景技术
如今,问答系统通过准确、简洁的自然语言与用户进行交互,满足人们对快速、准确获取信息的需求。以问答能力为核心的问答机器人,在智能客服、智能音箱、车载智能交互系统等各个领域得到了广泛应用。根据应用场景和需求的差异,问答系统的实现方式不尽相同。目前,常见的问答方法有:基于常见问题集的问答与基于知识库的问答。
基于常见问题集的问答通过准备常用问答对的方式,将用户问题与库中的问题进行匹配,得到相应的答案。该方法效率较高,但是依赖问答库的构建,如果用户问题没有出现在问答库中,则无法回答;而如果想要扩大问答库的规模,则需要较高的成本。
基于知识库的问答同样依赖构建好的知识库或知识图谱。对于用户的问题,需要进行实体识别、实体链接、模板匹配、查询语句生成等操作,在知识库中查询得到问题结果。对于限定域内的问题,需要预先进行实体抽取和链接,构建知识图谱。基于模板匹配的方法虽然相应速度快,准确率高,但是需要满足各种不同的提问方法,事先准备模板,同样需要较高的时间和人力成本。
可以看出,目前已有的问答方法均过于依赖事先准备的模板与库,且灵活性较低,构建与维护的成本都较高。
因此,如何得到更加灵活准确的问答系统是一个亟待解决的问题。
发明内容
本说明书提供一种机器阅读方法、装置、存储介质及电子设备,以至少部分地解决现有技术存在的上述问题。
本说明书采用下述技术方案:
本说明书提供了一种机器阅读方法,包括:
获取用户输入的目标问题;
采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果,作为候选文本;
针对每个候选文本,将该候选文本与所述目标问题输入预先训练的匹配模型,得到所述匹配模型输出的该候选文本的匹配度;
将所述匹配度最高的候选文本确定为所述目标问题的匹配文本;
将所述匹配文本与所述目标问题输入预先训练的阅读模型,得到所述阅读模型输出的理解结果;
根据所述理解结果确定所述目标问题的第一候选答案;
将所述匹配文本与所述目标问题输入预先训练的生成式模型,得到所述生成式模型生成的第二候选答案;
确定所述目标问题与所述第一候选答案的相似度,并确定所述目标问题与所述第二候选答案的相似度;
将所述第一候选答案与所述第二候选答案中,与所述目标问题的相似度最高的确定为所述目标问题的目标答案,并向所述用户回复所述目标答案。
可选地,采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果,作为候选文本,具体包括:
采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果;
对所述搜索结果进行分段处理,得到所述搜索结果的分段文本,作为候选文本。
可选地,预先训练匹配模型,具体包括:
获取样本问题;
采用搜索引擎对所述样本问题进行搜索,选择所述搜索引擎返回的若干个搜索结果,作为样本文本;
针对每个样本文本,根据该样本文本在搜索引擎返回的搜索结果中的排序,确定该样本文本的标注;
将该样本文本与所述样本问题输入待训练的匹配模型,得到所述匹配模型输出的该样本文本的待优化匹配度;
以所述待优化匹配度与所述标注之间的差异最小为优化目标,对所述匹配模型进行训练。
可选地,所述阅读模型包括:分词子网、提取子网、处理子网、输出子网;
将所述匹配文本与所述目标问题输入预先训练的阅读模型,得到所述阅读模型输出的理解结果,具体包括:
将所述匹配文本与所述目标问题输入预先训练的阅读模型;
通过所述分词子网,对所述匹配文本与所述目标问题进行分词处理,得到所述匹配文本的文本分词与所述目标问题的问题分词;
通过所述提取子网,提取各文本分词与各问题分词的分词特征;
将所述分词特征输入所述处理子网,得到各文本分词与各问题分词的综合特征;
将所述综合特征输入所述输出子网,得到所述输出子网针对每个文本分词输出的该文本分词作为起始词的概率与该文本分词作为结束词的概率。
可选地,根据所述理解结果确定所述目标问题的第一候选答案,具体包括:
针对所述匹配文本中的任意两个文本分词,将该两个文本分词确定为第一分词与第二分词,其中,所述第一分词在所述候选文本中的位置在所述第二分词在所述匹配文本中的位置之前;
当所述第一分词作为起始词的概率与所述第二分词作为结束词的概率之和最大时,将所述第一分词在所述匹配文本中的位置与所述第二分词在所述匹配文本中的位置之间的内容确定为第一候选答案。
可选地,预先训练阅读模型,具体包括:
获取样本问题与样本匹配文本,所述样本匹配文本中包含所述样本问题的答案;
根据所述样本问题在所述样本匹配文本中的答案确定所述样本匹配文本中每个样本文本分词作为起始词的标注概率和作为结束词的标注概率;
将所述样本匹配文本与所述样本问题输入待训练的阅读模型;
通过所述分词子网,对所述样本匹配文本与所述样本问题进行分词处理,得到所述样本匹配文本的样本文本分词与所述样本问题的样本问题分词;
通过所述提取子网,提取各样本文本分词与各样本问题分词的待优化分词特征;
将所述待优化分词特征输入所述处理子网,得到各样本文本分词与各样本问题分词的待优化综合特征;
将所述待优化综合特征输入所述输出子网,得到所述输出子网针对每个样本文本分词输出的该样本文本分词作为起始词的待优化概率与该样本文本分词作为结束词的待优化概率;
以每个样本文本分词作为起始词的待优化概率与作为起始词的标注概率之间的差异最小,且每个样本文本分词作为结束词的待优化概率与作为结束词的标注概率之间的差异最小为优化目标,对所述阅读模型进行训练。
可选地,确定所述目标问题与所述第一候选答案的相似度,并确定所述目标问题与所述第二候选答案的相似度,具体包括:
对所述目标问题、所述第一候选答案与所述第二候选答案分别进行分词处理,得到所述目标问题的问题分词、所述第一候选答案的第一答案分词与所述第二候选答案的第二答案分词;
确定所述问题分词与所述第一答案分词之间的交并比,作为所述目标问题与所述第一候选答案之间的相似度;并,
确定所述问题分词与所述第二答案分词之间的交并比,作为所述目标问题与所述第二候选答案之间的相似度。
本说明书提供的一种机器阅读装置,所述装置包括:
获取模块,用于获取用户输入的目标问题;
搜索模块,用于采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果,作为候选文本;
输入模块,用于针对每个候选文本,将该候选文本与所述目标问题输入预先训练的匹配模型,得到所述匹配模型输出的该候选文本的匹配度;
匹配模块,用于将所述匹配度最高的候选文本确定为所述目标问题的匹配文本;
阅读模块,用于将所述匹配文本与所述目标问题输入预先训练的阅读模型,得到所述阅读模型输出的理解结果;
第一模块,用于根据所述理解结果确定所述目标问题的第一候选答案;
第二模块,用于将所述匹配文本与所述目标问题输入预先训练的生成式模型,得到所述生成式模型生成的第二候选答案;
确定模块,用于确定所述目标问题与所述第一候选答案的相似度,并确定所述目标问题与所述第二候选答案的相似度;
回复模块,用于将所述第一候选答案与所述第二候选答案中,与所述目标问题的相似度最高的确定为所述目标问题的目标答案,并向所述用户回复所述目标答案。
本说明书提供了一种计算机可读存储介质,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述机器阅读方法。
本说明书提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上述机器阅读方法。
本说明书采用的上述至少一个技术方案能够达到以下有益效果:
在本说明书提供的机器阅读方法中,获取用户输入的目标问题;采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果,作为候选文本;针对每个候选文本,将该候选文本与所述目标问题输入预先训练的匹配模型,得到所述匹配模型输出的该候选文本的匹配度;将所述匹配度最高的候选文本确定为所述目标问题的匹配文本;将所述匹配文本与所述目标问题输入预先训练的阅读模型,得到所述阅读模型输出的理解结果;根据所述理解结果确定所述目标问题的第一候选答案;将所述匹配文本与所述目标问题输入预先训练的生成式模型,得到所述生成式模型生成的第二候选答案;确定所述目标问题与所述第一候选答案的相似度,并确定所述目标问题与所述第二候选答案的相似度;将所述第一候选答案与所述第二候选答案中,与所述目标问题的相似度最高的确定为所述目标问题的目标答案,并向所述用户回复所述目标答案。
在采用本说明书提供的机器阅读方法,确定目标问题的目标答案时,可通过搜索引擎获取目标问题的候选文本,并以匹配度计算的方式确定出与目标问题匹配的匹配文本;通过预先训练的阅读模型以及生成式模型,根据目标问题与匹配文本,分别得到第一候选答案和第二候选答案;最终根据目标问题与各候选答案之间的相似度确定出最终的候选答案并回复给用户。在采用本方法时可无需预先设置具有庞大数据量的问答模板以及知识库等内容,实施成本较低,且能够适用于多种不同的场景,灵活性较强。
附图说明
此处所说明的附图用来提供对本说明书的进一步理解,构成本说明书的一部分,本说明书的示意性实施例及其说明用于解释本说明书,并不构成对本说明书的不当限定。在附图中:
图1为本说明书中一种机器阅读方法的流程示意图;
图2为本说明书中一种阅读模型方法的模型结构示意图;
图3为本说明书提供的一种机器阅读装置的示意图;
图4为本说明书提供的对应于图1的电子设备示意图。
具体实施方式
为使本说明书的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
图1为本说明书中一种机器阅读方法的流程示意图,具体包括以下步骤:
S100:获取用户输入的目标问题。
本说明书所提供的机器阅读方法中的所有步骤均可由任何具有计算功能的电子设备实现,例如终端、服务器等设备。
机器阅读理解是一种利用算法使得计算机理解文章语义并回答相关问题的技术。这种方法不依赖于知识库,也可以在不同的场景内灵活迁移,开发和维护成本较低。
本说明书所提供的机器阅读方法用于针对用户输入的目标问题,通过阅读文本的方式对用户的问题进行回答。基于此,在此步骤中,可首先获取用户输入的目标问题。
其中,用户可通过多种方式输入目标问题,包括但不限于语音输入、文本输入、图像输入等,在接收到用户的目标问题后,为了更好地执行后续步骤,会对目标问题进行处理后,最终转换为文本形式的目标问题。
S102:采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果,作为候选文本。
在步骤S100中获取到目标问题后,可在此步骤中,采用搜索引擎对目标问题进行搜索,并将搜索引擎返回的结果中排序最靠前的指定数量个搜索结果作为候选文本。
可以想到的,本方法所要达成的目标为机器通过阅读理解的方式回答用户提出的问题。其中,机器的阅读是对文本内容进行阅读,因此需要收集文本作为阅读理解的基础。同时,机器所需要阅读的文本内容需要与目标问题相关,基于此,可在此步骤中采用搜索引擎搜索与目标问题相关的文本内容。其中,采用的搜索引擎可以是任意常见的搜索引擎,可包括但不限于百度、谷歌、必应等。更进一步地,多种不同的搜索引擎可单独使用,也可共同使用。换句话说,可仅采用一个搜索引擎目标问题对目标问题搜索,得到搜索结果;也可同时采用多个不同的搜索引擎对目标问题进行搜索,并获取每个搜索引擎返回的搜索结果,本说明书对此不做具体限制。
通常情况下,搜索引擎会按照相关性从高到低的顺序返回搜索结果,排序越靠前的搜索结果,表明其与搜索内容的相关性越高。因此,在此步骤中,本方法将搜索引擎返回的排序最高的指定数量个搜索结果,也就是与目标问题相关性最高的指定数量个搜索结果,作为候选文本。其中,排序最高的搜索结果指排序最靠前的搜索结果;指定数量可根据具体需求进行设置,例如5或10等,本说明书对此不做具体限制。
额外的,在部分情况下,还可通过在ElasticSearch(ES)索引中进行检索,来代替在搜索引擎中进行检索的方式,获取候选文本。在ES索引中可预先存储大量文本,在应用时,可在ES索引中对目标问题进行检索,得到ES索引所存储的文本中与目标问题相关的结果。可以想到的,在ES索引中,检索返回的结果同样会按照与目标问题的相关性从高到低的顺序进行排序。
在实际应用中,由于ES所适用的场景通常为某一领域中深度较大知识的检索,或是对企业、机构等内部信息进行检索。由于ES索引需要预先构造,因此其内部存储的文本数量相比搜索引擎要更少,但ES索引中存储的信息通常专业性与隐私性较强,在针对特定问题的检索时,其返回的候选文本的质量会远远优于搜索引擎返回的候选文本的质量。
值得一提的是,在实现此步骤时,上述采用搜索引擎获取候选文本的方式,与采用ES索引获取候选文本的方式可同时使用,也可仅使用其中的一种,本说明书对此不做具体限制。
与日常生活中使用搜索引擎时相同的,一个文本形式的搜索结果可能是一篇文章、一篇报道或一个词条等,大部分搜索结果中可能会包含大量的文本内容。但实际上,与目标问题相关的文本可能只占其中的一小部分,并非搜索结果中的所有文本内容都能起到作用。因此,可更优地,在确定候选文本时,将选择出的搜索结果的摘要确定为候选文本。具体的,可采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果;获取所述排序最高的指定数量个搜索结果的摘要,作为候选文本。
通常情况下,搜索结果的摘要内容较为精简,且能够相对完整地概括出搜索结果中的所有关键信息。在将搜索结果的摘要作为候选文本的情况下,既能够减少机器阅读时所需要处理的数据量,也能够保证机器阅读时仍获取必要的信息,可更好地实现本说明书所提供的机器阅读方法。
此外,还可对得到的搜索结果进行分段处理,并将得到的搜索内容的各分段,作为候选文本,尽可能地使每个候选文本的长度都不会过大。具体的,可采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果;对所述搜索结果进行分段处理,得到所述搜索结果的分段文本,作为候选文本。其中,根据每个搜索结果本身内容的不同,每个搜索结果能够分出的段数也可能不同。
当然,在上述情况下,很可能会出现搜索结果分段后,得到的候选文本数量过多的情况。例如,假设获取了搜索结果中最靠前的10条,且平均每条搜索结果分为5段,那么最终便会得到50个候选文本。而事实上,对于目标问题所希望得到的答案可能仅存在于其中几个候选文本中,大多数候选文本虽然与目标问题相关,但可能并不准确地包含真正的答案。基于此,可考虑对候选文本进行进一步地筛选,最终仅保留指定数量个候选文本。其中,对候选文本进行进一步筛选的方法可存在多种,本说明书对此不做具体限制。
S104:针对每个候选文本,将该候选文本与所述目标问题输入预先训练的匹配模型,得到所述匹配模型输出的该候选文本的匹配度。
正如步骤S102中所描述的,实际上能够准确包含目标问题所需要的答案的候选文本并不多,甚至可能只有一个。因此,可在此步骤中,采用预先训练的匹配模型对目标问题与各候选文本进行比对,确定每个候选文本的匹配度,更进一步地对候选文本进行筛选。
其中,匹配模型的作用为根据输入的目标问题与候选文本,确定目标问题与候选文本之间的匹配度。一个候选文本的匹配度用于表征该候选文本包含目标问题所需要的答案的可能性,取值范围为[0,1]。一个候选文本的匹配度越大,则该候选文本包含目标问题所需要的答案的可能性就越高;反之,匹配度越小,则该候选文本包含目标问题所需要的答案的可能性就越低。匹配模型的模型结构与参数可根据具体需求进行设置,只需能够实现上述确定匹配度的功能即可,本说明书对此不做具体限制。
S106:将所述匹配度最高的候选文本确定为所述目标问题的匹配文本。
正如步骤S104中所描述的,一个候选文本的匹配度越高,那么就表明该候选文本越有可能包含目标问题所需的答案。因此,可在此步骤中,将步骤S104中确定出的匹配度最高的候选文本确定为目标问题的匹配文本。
S108:将所述匹配文本与所述目标问题输入预先训练的阅读模型,得到所述阅读模型输出的理解结果。
在步骤S106中确定出大概率包含目标问题所需的答案的匹配文本后,可在此步骤中,采用预先训练的阅读模型,在匹配文本中找出目标问题所需的答案。其中,阅读模型的功能为根据输入的匹配文本与目标问题,给出基于目标问题对匹配文本的理解结果。理解结果用于在匹配文本中提取出目标问题所需的答案。阅读模型的模型结构与参数可根据具体需求进行设置,本说明书对此不做具体限制。
为了使上述阅读模型的作用更加清楚,本说明书在此给出一种具体实施例以供参考。图2为本说明书中提供的一种阅读模型的模型结构示意图。具体的,如图2所示,阅读模型可包括:分词子网、提取子网、处理子网、输出子网;在将匹配文本与目标问题输入预先训练的阅读模型,得到阅读模型输出的理解结果时,可将所述匹配文本与所述目标问题输入预先训练的阅读模型;通过所述分词子网,对所述匹配文本与所述目标问题进行分词处理,得到所述匹配文本的文本分词与所述目标问题的问题分词;通过所述提取子网,提取各文本分词与各问题分词的分词特征;将所述分词特征输入所述处理子网,得到各文本分词与各问题分词的综合特征;将所述综合特征输入所述输出子网,得到所述输出子网针对每个文本分词输出的该文本分词作为起始词的概率与该文本分词作为结束词的概率。
在阅读模型中,可首先对目标问题与匹配文本进行分词,得到目标问题的问题分词与匹配文本的文本分词。当然,在分词的过程中还可额外包括停用词过滤的过程,使得到的问题分词与文本分词中不包含无意义的停用词。随后,可通过提取子网提取各问题分词与文本分词的分词特征,并通过处理子网对各问题分词与文本分词的分词特征进行全局性的处理,使各分词相互学习各自的特征,得到各问题分词与各文本分词的综合特征,其中,处理的方式可例如注意力机制等。最终,可通过输出子网根据各文本分词与各问题分词的特征,输出理解结果。在上述实施例中,理解结果可以是每个文本分词作为起始词的概率与作为结束词的概率,其中,起始词和结束词分别为目标问题所需要的答案的起始词与结束词。
S110:根据所述理解结果确定所述目标问题的第一候选答案。
根据步骤S108中确定出的阅读模型输出的理解结果,便能够在匹配文本中得到目标问题所需的答案,作为第一候选答案。
仍以步骤S108中的实施例为例,在该实施例中,阅读模型输出的理解结果为匹配文本中的每个文本分词作为答案的起始词的概率与作为答案的结束词的概率。根据上述理解结果,便能够在匹配文本中确定出第一候选答案。具体的,可针对所述候选文本中的任意两个文本分词,将该两个文本分词确定为第一分词与第二分词,其中,所述第一分词在所述候选文本中的位置在所述第二分词在所述候选文本中的位置之前;当所述第一分词作为起始词的概率与所述第二分词作为结束词的概率之和最大时,将所述第一分词在所述候选文本中的位置与所述第二分词在所述候选文本中的位置之间的内容确定为第一候选答案。
在匹配文本中,每一个文本分词都会存在由阅读模型输出的两个概率,分别为该文本分词作为答案起始词的概率与该文本分词作为答案结束词的概率。换句话说,每个文本分词都存在作为答案起始词与答案结束词的可能。基于此,如果以选择两个文本分词,一个作为答案起始词,一个作为答案结束词为规则,对匹配文本中的各文本分词进行排列组合,那么便能够得到所有可能的分词组合。其中,采用第一分词表示答案起始词,采用第二分词表示答案结束词。但不难想到,只有当选择的第一分词在匹配文本中的位置比选择的第二分词在匹配文本中的位置靠前,或者第一分词不在第二分词之后(考虑第一分词与第二分词可能为同一词的情况),这一组分词组合才能得到有效的答案。因此,可将第一分词的位置在第二分词之后的情况全部舍弃。
在此基础上,由于每个文本分词都存在作为起始词的概率与作为结束词的概率,因此,可在每组分词中,将文本分词在对应位置的概率相加,得到每组分词的得分。即,针对每组分词,将该组分词中的第一分词作为起始词的概率,与该组分词中的第二分词作为结束词的概率相加,将相加的结果作为该组分词的得分。随后,选择得分最高的一组分词,确定该组中第一分词在匹配文本中的位置,以及该组中第二分词在匹配文本中的位置,并将候选文本在两个位置之间的内容确定为第一候选答案。
S112:将所述匹配文本与所述目标问题输入预先训练的生成式模型,得到所述生成式模型生成的第二候选答案。
在本说明书提供的机器阅读方法中,还需要考虑到的是,在部分情况下,可能根据目标问题在搜索引擎中得到的所有搜索结果中均不包含完全正确的答案。此时,确定出的第一候选答案很可能并不准确,需要额外的备选答案提供给用户。基于此,可在此步骤中,将匹配文本与目标问题输入预先训练的生成式模型,得到生成式模型生成的第二候选答案。
生成式问答是机器阅读理解的一种。依赖近期快速发展的大语言模型,可以直接根据问题生成回答。目前,已经存在一些能够使用的生成式模型,在本说明书提供的机器阅读方法中,可在此步骤中直接使用已有的生成式模型,得到目标问题的第二候选答案。当然,也可重新训练新的生成式模型或对已有的生成式模型的参数进行一定程度的调整,本说明书对此不做具体限制。
更进一步地,由于生成式模型的可控性相对较弱,可能存在着答案错误的问题。因此,可在输入目标问题与匹配文本时,构造出特定的形式进行输入,以对生成式模型予以提示,使生成式模型能够生成更加准确的第二候选答案。具体的,可按照下述形式构造输入:
{请根据以下文本,回答所给出的问题。问题:目标问题。文本:匹配文本。}
举例来说,假设目标问题为“深海鱼机器人由什么供电”,那么可将目标问题与其对应的匹配文本构造为上述格式的输入:{请根据以下文本,回答所给出的问题。问题:深海鱼机器人由什么供电?文本:我们的研究目标就是以全新技术路线实现深潜器的小型化、柔性化、智能化,大幅降低深海探测的难度和成本。该机器人有以下特色,作为机器人,它没有电机,而是通过身体两侧的智能人工肌肉驱动。通常情况下,电子器件紧密地捆绑在一起,它们之间的空间不到1毫米。研究团队发现,为机器人机翼供电的电子器件,特别容易发生耐压故障。研究人员尽可能地将电路板分割开来,以解决深海的压力问题。他们将不同的组件分别放在不同的电路板上,放在机器人身体的不同位置,并用柔性导线连接起来。分散式设计的电子元件封装在硅胶基体中,减轻了不同电子元件接口处的剪切应力,以及电子元件与印刷电路板接口处的剪切应力,并有可能扩展到各种软设备。科研人员巧妙地利用了围绕在人工肌肉外的海水作为离子导电负极,由机器鱼自带能源在人工肌肉内外侧厚度方向产生电势差,让高分子薄膜发生舒张与收缩形变,这样一来“翅膀”就能上下拍动,机器鱼可以轻松地用锂离子电池驱动电子肌肉来驱动自己的鱼鳍。}
在将上述内容输入生成式模型后,便能够得到生成式模型输出的第二候选答案。
S114:确定所述目标问题与所述第一候选答案的相似度,并确定所述目标问题与所述第二候选答案的相似度。
在得到第一候选答案与第二候选答案后,需要在两个候选答案中选择一个更优的作为目标问题的最终答案向用户回复。因此,可在此步骤中,通过相似度的方式来确定出更优的候选答案。在本方法中,确定目标问题与第一候选答案的相似度,以及与第二候选答案的相似度的方式可存在多种,本说明书在此给出一种具体实施例以供参考。
具体的,可对所述目标问题、所述第一候选答案与所述第二候选答案分别进行分词处理,得到所述目标问题的问题分词、所述第一候选答案的第一答案分词与所述第二候选答案的第二答案分词;确定所述问题分词与所述第一答案分词之间的交并比,作为所述目标问题与所述第一候选答案之间的相似度;并,确定所述问题分词与所述第二答案分词之间的交并比,作为所述目标问题与所述第二候选答案之间的相似度。
对目标问题、第一候选答案、第二候选答案均进行分词处理,得到目标问题的问题分词,第一候选答案的第一答案分词,第二候选答案的第二答案分词。额外的,在分词处理的过程中还可进行停用词过滤处理。可将属于各不同对象的分词分别组成分词集合,也就是将各问题分词组成问题分词集合,将各第一答案分词组成第一答案分词集合,将第二答案分词组成第二答案分词集合。将集合中的每个分词作为一个元素,确定问题分词集合与第一答案分词集合之间的交并比,作为目标问题与第一候选答案之间的相似度;以及问题分词集合与第二答案分词集合之间的交并比,作为目标问题与第二候选答案之间的相似度。
S116:将所述第一候选答案与所述第二候选答案中,与所述目标问题的相似度最高的确定为所述目标问题的目标答案,并向所述用户回复所述目标答案。
在步骤S114中分别确定出目标问图与第一候选答案与第二候选答案之间的相似度后,便可在此步骤中,选择相似度更高的候选答案,确定为最终回复给用户的目标答案。
在采用本说明书提供的机器阅读方法,确定目标问题的目标答案时,可通过搜索引擎获取目标问题的候选文本,并以匹配度计算的方式确定出与目标问题匹配的匹配文本;通过预先训练的阅读模型以及生成式模型,根据目标问题与匹配文本,分别得到第一候选答案和第二候选答案;最终根据目标问题与各候选答案之间的相似度确定出最终的候选答案并回复给用户。在采用本方法时可无需预先设置具有庞大数据量的问答模板以及知识库等内容,实施成本较低,且能够适用于多种不同的场景,灵活性较强。
额外的,本说明书中采用的匹配模型可预先训练。具体的,可获取样本问题;采用搜索引擎对所述样本问题进行搜索,选择所述搜索引擎返回的若干个搜索结果,作为样本文本;针对每个样本文本,根据该样本文本在搜索引擎返回的搜索结果中的排序,确定该样本文本的标注;将该样本文本与所述样本问题输入待训练的匹配模型,得到所述匹配模型输出的该样本文本的待优化匹配度;以所述待优化匹配度与所述标注之间的差异最小为优化目标,对所述匹配模型进行训练。
匹配模型的作用为确定问题与文本之间的匹配度,因此在训练时需要以样本问题与样本文本为基础进行训练。为了与本方法中的步骤一致,在训练时,样本文本同样为通过搜索引擎对样本问题进行搜索得到。但需要注意的是,在训练的过程中,从搜索结果中得到的样本文本是不需要特定条件的。换句话说,可在搜索引擎针对样本问题返回的搜索结果中随机挑选若干搜索结果作为样本文本。其中,挑选出的样本文本的数量可根据具体需求进行设置。
而此时,可根据样本文本在搜索引擎返回的搜索结果中的排序,为样本文本确定标注。例如,可将在搜索结果中排序为1-5的样本文本的标注确定为“1”或“100%”,意为“匹配”;将其他排序的样本文本的标注确定为“0”或“0%”,意为“不匹配”。由此,以匹配模型输出的样本文本的待优化匹配度和标注之间的差异最小为优化目标,对匹配模型进行训练,调整匹配模型的参数即可。
额外的,本说明书中采用的阅读模型也可预先训练。在阅读模型的结构如图2所示的情况下,可具体的,获取样本问题与样本匹配文本,所述样本匹配文本中包含所述样本问题的答案;根据所述样本问题在所述样本匹配文本中的答案确定所述样本匹配文本中每个样本文本分词作为起始词的标注概率和作为结束词的标注概率;将所述样本匹配文本与所述样本问题输入待训练的阅读模型;通过所述分词子网,对所述样本匹配文本与所述样本问题进行分词处理,得到所述样本匹配文本的样本文本分词与所述样本问题的样本问题分词;通过所述提取子网,提取各样本文本分词与各样本问题分词的待优化分词特征;将所述待优化分词特征输入所述处理子网,得到各样本文本分词与各样本问题分词的待优化综合特征;将所述待优化综合特征输入所述输出子网,得到所述输出子网针对每个样本文本分词输出的该样本文本分词作为起始词的待优化概率与该样本文本分词作为结束词的待优化概率;以每个样本文本分词作为起始词的待优化概率与作为起始词的标注概率之间的差异最小,且每个样本文本分词作为结束词的待优化概率与作为结束词的标注概率之间的差异最小为优化目标,对所述阅读模型进行训练。
阅读模型的功能为基于目标问题给出对匹配文本的理解结果。在本说明书提供的具体实施例中,理解结果为匹配文本中每个文本分词作为答案起始词的概率和作为答案结束词的概率。因此,需要获取样本问题以及样本匹配文本对阅读模型进行训练,且样本匹配文本中需要包含样本问题的答案。
在确定样本匹配文本中包含的答案后,便能够确定样本匹配文本中每个样本文本分词作为起始词的标注概率和作为结束词的标注概率。具体的,可在样本匹配文本中,将答案的起始词对应的样本文本分词作为起始词的标注概率设置为“1”或“100%”,将其它样本文本分词作为起始词的标注概率设置为“0”或“0%”;同样的,将答案的结束词对应的样本文本分词作为结束词的标注概率设置为“1”或“100%”,将其它样本文本分词作为结束词的标注概率设置为“0”或“0%”。在上述标注概率的设置下,便能够在训练时,以每个样本文本分词作为起始词的待优化概率与作为起始词的标注概率之间的差异最小,且每个样本文本分词作为结束词的待优化概率与作为结束词的标注概率之间的差异最小为优化目标,对阅读模型进行训练,调整阅读模型的参数。
以上是本说明书提供的机器阅读方法,基于同样的思路,本说明书还提供了相应的机器阅读装置,如图3所示。
图3为本说明书提供的一种机器阅读装置示意图,具体包括:
获取模块200,用于获取用户输入的目标问题;
搜索模块202,用于采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果,作为候选文本;
输入模块204,用于针对每个候选文本,将该候选文本与所述目标问题输入预先训练的匹配模型,得到所述匹配模型输出的该候选文本的匹配度;
匹配模块206,用于将所述匹配度最高的候选文本确定为所述目标问题的匹配文本;
阅读模块208,用于将所述匹配文本与所述目标问题输入预先训练的阅读模型,得到所述阅读模型输出的理解结果;
第一模块210,用于根据所述理解结果确定所述目标问题的第一候选答案;
第二模块212,用于将所述匹配文本与所述目标问题输入预先训练的生成式模型,得到所述生成式模型生成的第二候选答案;
确定模块214,用于确定所述目标问题与所述第一候选答案的相似度,并确定所述目标问题与所述第二候选答案的相似度;
回复模块216,用于将所述第一候选答案与所述第二候选答案中,与所述目标问题的相似度最高的确定为所述目标问题的目标答案,并向所述用户回复所述目标答案。
可选地,所述搜索模块202,具体用于采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果;对所述搜索结果进行分段处理,得到所述搜索结果的分段文本,作为候选文本。
可选地,所述装置还包括第一训练模块218,具体用于获取样本问题;采用搜索引擎对所述样本问题进行搜索,选择所述搜索引擎返回的若干个搜索结果,作为样本文本;针对每个样本文本,根据该样本文本在搜索引擎返回的搜索结果中的排序,确定该样本文本的标注;将该样本文本与所述样本问题输入待训练的匹配模型,得到所述匹配模型输出的该样本文本的待优化匹配度;以所述待优化匹配度与所述标注之间的差异最小为优化目标,对所述匹配模型进行训练。
可选地,所述阅读模型包括:分词子网、提取子网、处理子网、输出子网;
所述阅读模块208,具体用于将所述匹配文本与所述目标问题输入预先训练的阅读模型;通过所述分词子网,对所述匹配文本与所述目标问题进行分词处理,得到所述匹配文本的文本分词与所述目标问题的问题分词;通过所述提取子网,提取各文本分词与各问题分词的分词特征;将所述分词特征输入所述处理子网,得到各文本分词与各问题分词的综合特征;将所述综合特征输入所述输出子网,得到所述输出子网针对每个文本分词输出的该文本分词作为起始词的概率与该文本分词作为结束词的概率。
可选地,所述第一模块210,具体用于针对所述匹配文本中的任意两个文本分词,将该两个文本分词确定为第一分词与第二分词,其中,所述第一分词在所述候选文本中的位置在所述第二分词在所述匹配文本中的位置之前;当所述第一分词作为起始词的概率与所述第二分词作为结束词的概率之和最大时,将所述第一分词在所述匹配文本中的位置与所述第二分词在所述匹配文本中的位置之间的内容确定为第一候选答案。
可选地,所述装置还包括第二训练模块220,具体用于获取样本问题与样本匹配文本,所述样本匹配文本中包含所述样本问题的答案;根据所述样本问题在所述样本匹配文本中的答案确定所述样本匹配文本中每个样本文本分词作为起始词的标注概率和作为结束词的标注概率;将所述样本匹配文本与所述样本问题输入待训练的阅读模型;通过所述分词子网,对所述样本匹配文本与所述样本问题进行分词处理,得到所述样本匹配文本的样本文本分词与所述样本问题的样本问题分词;通过所述提取子网,提取各样本文本分词与各样本问题分词的待优化分词特征;将所述待优化分词特征输入所述处理子网,得到各样本文本分词与各样本问题分词的待优化综合特征;将所述待优化综合特征输入所述输出子网,得到所述输出子网针对每个样本文本分词输出的该样本文本分词作为起始词的待优化概率与该样本文本分词作为结束词的待优化概率;以每个样本文本分词作为起始词的待优化概率与作为起始词的标注概率之间的差异最小,且每个样本文本分词作为结束词的待优化概率与作为结束词的标注概率之间的差异最小为优化目标,对所述阅读模型进行训练。
可选地,所述确定模块214,具体用于对所述目标问题、所述第一候选答案与所述第二候选答案分别进行分词处理,得到所述目标问题的问题分词、所述第一候选答案的第一答案分词与所述第二候选答案的第二答案分词;确定所述问题分词与所述第一答案分词之间的交并比,作为所述目标问题与所述第一候选答案之间的相似度;并,确定所述问题分词与所述第二答案分词之间的交并比,作为所述目标问题与所述第二候选答案之间的相似度。
本说明书还提供了一种计算机可读存储介质,该存储介质存储有计算机程序,计算机程序可用于执行上述图1提供的机器阅读方法。
本说明书还提供了图4所示的电子设备的示意结构图。如图4所述,在硬件层面,该电子设备包括处理器、内部总线、网络接口、内存以及非易失性存储器,当然还可能包括其他业务所需要的硬件。处理器从非易失性存储器中读取对应的计算机程序到内存中然后运行,以实现上述图1所述的机器阅读方法。当然,除了软件实现方式之外,本说明书并不排除其他实现方式,比如逻辑器件抑或软硬件结合的方式等等,也就是说以下处理流程的执行主体并不限定于各个逻辑单元,也可以是硬件或逻辑器件。
对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(ProgrammableLogic Device, PLD)(例如现场可编程门阵列(Field Programmable Gate Array,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(HardwareDescription Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(AdvancedBoolean Expression Language)、AHDL(Altera Hardware Description Language)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(JavaHardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby HardwareDescription Language)等,目前最普遍使用的是VHDL(Very-High-Speed IntegratedCircuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20 以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本申请的实施例可提供为方法、系统、或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请是参照根据本申请实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本说明书的实施例可提供为方法、系统或计算机程序产品。因此,本说明书可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本说明书可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于系统实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
以上所述仅为本说明书的实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书可以有各种更改和变化。凡在本说明书的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。

Claims (10)

1.一种机器阅读方法,其特征在于,包括:
获取用户输入的目标问题;
采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果,作为候选文本;
针对每个候选文本,将该候选文本与所述目标问题输入预先训练的匹配模型,得到所述匹配模型输出的该候选文本的匹配度;
将所述匹配度最高的候选文本确定为所述目标问题的匹配文本;
将所述匹配文本与所述目标问题输入预先训练的阅读模型,得到所述阅读模型输出的理解结果;
根据所述理解结果确定所述目标问题的第一候选答案;
将所述匹配文本与所述目标问题输入预先训练的生成式模型,得到所述生成式模型生成的第二候选答案;
确定所述目标问题与所述第一候选答案的相似度,并确定所述目标问题与所述第二候选答案的相似度;
将所述第一候选答案与所述第二候选答案中,与所述目标问题的相似度最高的确定为所述目标问题的目标答案,并向所述用户回复所述目标答案。
2.如权利要求1所述的方法,其特征在于,采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果,作为候选文本,具体包括:
采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果;
对所述搜索结果进行分段处理,得到所述搜索结果的分段文本,作为候选文本。
3.如权利要求1所述的方法,其特征在于,预先训练匹配模型,具体包括:
获取样本问题;
采用搜索引擎对所述样本问题进行搜索,选择所述搜索引擎返回的若干个搜索结果,作为样本文本;
针对每个样本文本,根据该样本文本在搜索引擎返回的搜索结果中的排序,确定该样本文本的标注;
将该样本文本与所述样本问题输入待训练的匹配模型,得到所述匹配模型输出的该样本文本的待优化匹配度;
以所述待优化匹配度与所述标注之间的差异最小为优化目标,对所述匹配模型进行训练。
4.如权利要求1所述的方法,其特征在于,所述阅读模型包括:分词子网、提取子网、处理子网、输出子网;
将所述匹配文本与所述目标问题输入预先训练的阅读模型,得到所述阅读模型输出的理解结果,具体包括:
将所述匹配文本与所述目标问题输入预先训练的阅读模型;
通过所述分词子网,对所述匹配文本与所述目标问题进行分词处理,得到所述匹配文本的文本分词与所述目标问题的问题分词;
通过所述提取子网,提取各文本分词与各问题分词的分词特征;
将所述分词特征输入所述处理子网,得到各文本分词与各问题分词的综合特征;
将所述综合特征输入所述输出子网,得到所述输出子网针对每个文本分词输出的该文本分词作为起始词的概率与该文本分词作为结束词的概率。
5.如权利要求4所述的方法,其特征在于,根据所述理解结果确定所述目标问题的第一候选答案,具体包括:
针对所述匹配文本中的任意两个文本分词,将该两个文本分词确定为第一分词与第二分词,其中,所述第一分词在所述候选文本中的位置在所述第二分词在所述匹配文本中的位置之前;
当所述第一分词作为起始词的概率与所述第二分词作为结束词的概率之和最大时,将所述第一分词在所述匹配文本中的位置与所述第二分词在所述匹配文本中的位置之间的内容确定为第一候选答案。
6.如权利要求4所述的方法,其特征在于,预先训练阅读模型,具体包括:
获取样本问题与样本匹配文本,所述样本匹配文本中包含所述样本问题的答案;
根据所述样本问题在所述样本匹配文本中的答案确定所述样本匹配文本中每个样本文本分词作为起始词的标注概率和作为结束词的标注概率;
将所述样本匹配文本与所述样本问题输入待训练的阅读模型;
通过所述分词子网,对所述样本匹配文本与所述样本问题进行分词处理,得到所述样本匹配文本的样本文本分词与所述样本问题的样本问题分词;
通过所述提取子网,提取各样本文本分词与各样本问题分词的待优化分词特征;
将所述待优化分词特征输入所述处理子网,得到各样本文本分词与各样本问题分词的待优化综合特征;
将所述待优化综合特征输入所述输出子网,得到所述输出子网针对每个样本文本分词输出的该样本文本分词作为起始词的待优化概率与该样本文本分词作为结束词的待优化概率;
以每个样本文本分词作为起始词的待优化概率与作为起始词的标注概率之间的差异最小,且每个样本文本分词作为结束词的待优化概率与作为结束词的标注概率之间的差异最小为优化目标,对所述阅读模型进行训练。
7.如权利要求1所述的方法,其特征在于,确定所述目标问题与所述第一候选答案的相似度,并确定所述目标问题与所述第二候选答案的相似度,具体包括:
对所述目标问题、所述第一候选答案与所述第二候选答案分别进行分词处理,得到所述目标问题的问题分词、所述第一候选答案的第一答案分词与所述第二候选答案的第二答案分词;
确定所述问题分词与所述第一答案分词之间的交并比,作为所述目标问题与所述第一候选答案之间的相似度;并,
确定所述问题分词与所述第二答案分词之间的交并比,作为所述目标问题与所述第二候选答案之间的相似度。
8.一种机器阅读装置,其特征在于,包括:
获取模块,用于获取用户输入的目标问题;
搜索模块,用于采用搜索引擎对所述目标问题进行搜索,得到所述搜索引擎返回的排序最高的指定数量个搜索结果,作为候选文本;
输入模块,用于针对每个候选文本,将该候选文本与所述目标问题输入预先训练的匹配模型,得到所述匹配模型输出的该候选文本的匹配度;
匹配模块,用于将所述匹配度最高的候选文本确定为所述目标问题的匹配文本;
阅读模块,用于将所述匹配文本与所述目标问题输入预先训练的阅读模型,得到所述阅读模型输出的理解结果;
第一模块,用于根据所述理解结果确定所述目标问题的第一候选答案;
第二模块,用于将所述匹配文本与所述目标问题输入预先训练的生成式模型,得到所述生成式模型生成的第二候选答案;
确定模块,用于确定所述目标问题与所述第一候选答案的相似度,并确定所述目标问题与所述第二候选答案的相似度;
回复模块,用于将所述第一候选答案与所述第二候选答案中,与所述目标问题的相似度最高的确定为所述目标问题的目标答案,并向所述用户回复所述目标答案。
9.一种计算机可读存储介质,其特征在于,所述存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述权利要求1~7任一项所述的方法。
10.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现上述权利要求1~7任一项所述的方法。
CN202311010113.5A 2023-08-11 2023-08-11 一种机器阅读方法、装置、存储介质及电子设备 Active CN116720008B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311010113.5A CN116720008B (zh) 2023-08-11 2023-08-11 一种机器阅读方法、装置、存储介质及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311010113.5A CN116720008B (zh) 2023-08-11 2023-08-11 一种机器阅读方法、装置、存储介质及电子设备

Publications (2)

Publication Number Publication Date
CN116720008A true CN116720008A (zh) 2023-09-08
CN116720008B CN116720008B (zh) 2024-01-09

Family

ID=87868406

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311010113.5A Active CN116720008B (zh) 2023-08-11 2023-08-11 一种机器阅读方法、装置、存储介质及电子设备

Country Status (1)

Country Link
CN (1) CN116720008B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117370536A (zh) * 2023-12-07 2024-01-09 之江实验室 一种任务执行方法、装置、存储介质及电子设备
CN117573815A (zh) * 2024-01-17 2024-02-20 之江实验室 一种基于向量相似度匹配优化的检索增强生成方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766423A (zh) * 2018-12-29 2019-05-17 上海智臻智能网络科技股份有限公司 基于神经网络的问答方法及装置、存储介质、终端
CN110619123A (zh) * 2019-09-19 2019-12-27 电子科技大学 一种机器阅读理解方法
CN112464641A (zh) * 2020-10-29 2021-03-09 平安科技(深圳)有限公司 基于bert的机器阅读理解方法、装置、设备及存储介质
CN115169368A (zh) * 2022-09-07 2022-10-11 北京沃丰时代数据科技有限公司 基于多文档的机器阅读理解方法及装置
CN115292469A (zh) * 2022-09-28 2022-11-04 之江实验室 一种结合段落搜索和机器阅读理解的问答方法
US20230088411A1 (en) * 2021-09-17 2023-03-23 Institute For Information Industry Machine reading comprehension apparatus and method
CN116340497A (zh) * 2023-05-06 2023-06-27 杭州实在智能科技有限公司 基于文本检索和阅读理解技术的智能对话机器人系统
CN116403231A (zh) * 2023-04-14 2023-07-07 福州大学 基于双视图对比学习与图剪枝的多跳阅读理解方法及系统

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109766423A (zh) * 2018-12-29 2019-05-17 上海智臻智能网络科技股份有限公司 基于神经网络的问答方法及装置、存储介质、终端
CN110619123A (zh) * 2019-09-19 2019-12-27 电子科技大学 一种机器阅读理解方法
CN112464641A (zh) * 2020-10-29 2021-03-09 平安科技(深圳)有限公司 基于bert的机器阅读理解方法、装置、设备及存储介质
US20230088411A1 (en) * 2021-09-17 2023-03-23 Institute For Information Industry Machine reading comprehension apparatus and method
CN115169368A (zh) * 2022-09-07 2022-10-11 北京沃丰时代数据科技有限公司 基于多文档的机器阅读理解方法及装置
CN115292469A (zh) * 2022-09-28 2022-11-04 之江实验室 一种结合段落搜索和机器阅读理解的问答方法
CN116403231A (zh) * 2023-04-14 2023-07-07 福州大学 基于双视图对比学习与图剪枝的多跳阅读理解方法及系统
CN116340497A (zh) * 2023-05-06 2023-06-27 杭州实在智能科技有限公司 基于文本检索和阅读理解技术的智能对话机器人系统

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ENJI ZHOU等: "Improvement of Weak Coupling Between Questions and Answers for Machine Reading Comprehension", 《ICMLCA 2021; 2ND INTERNATIONAL CONFERENCE ON MACHINE LEARNING AND COMPUTER APPLICATION》, pages 193 - 197 *
苏立新;郭嘉丰;范意兴;兰艳艳;徐君;程学旗;: "面向多片段答案的抽取式阅读理解模型", 计算机学报, no. 05, pages 856 - 867 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117370536A (zh) * 2023-12-07 2024-01-09 之江实验室 一种任务执行方法、装置、存储介质及电子设备
CN117370536B (zh) * 2023-12-07 2024-03-12 之江实验室 一种任务执行方法、装置、存储介质及电子设备
CN117573815A (zh) * 2024-01-17 2024-02-20 之江实验室 一种基于向量相似度匹配优化的检索增强生成方法
CN117573815B (zh) * 2024-01-17 2024-04-30 之江实验室 一种基于向量相似度匹配优化的检索增强生成方法

Also Published As

Publication number Publication date
CN116720008B (zh) 2024-01-09

Similar Documents

Publication Publication Date Title
CN110795543B (zh) 基于深度学习的非结构化数据抽取方法、装置及存储介质
CN116720008B (zh) 一种机器阅读方法、装置、存储介质及电子设备
CN117235226A (zh) 一种基于大语言模型的问题应答方法及装置
CN113221555B (zh) 一种基于多任务模型的关键词识别方法、装置及设备
CN117591661B (zh) 一种基于大语言模型的问答数据构建方法及装置
CN116188632A (zh) 一种图像的生成方法、装置、存储介质及电子设备
CN116738233A (zh) 在线训练模型的方法、装置、设备及存储介质
CN117951274A (zh) 一种基于融合向量和关键词检索的rag知识问答方法和装置
CN115952272A (zh) 一种生成对话信息的方法、装置、设备及可读存储介质
CN110795541A (zh) 文本查询方法、装置、电子设备及计算机可读存储介质
CN112085120A (zh) 多媒体数据的处理方法、装置、电子设备及存储介质
CN116303989A (zh) 一种面向多种检索场景的专利检索方法、装置、设备
CN117828064B (zh) 一种问答系统及问答系统的构建方法
CN117034942B (zh) 一种命名实体识别方法、装置、设备及可读存储介质
CN117056494B (zh) 开放域问答的方法、装置、电子设备和计算机存储介质
CN117236340A (zh) 问答方法、装置、设备和介质
CN117131155A (zh) 多类目识别方法、装置、电子设备及储存介质
CN116662657A (zh) 一种模型训练和信息推荐的方法、装置、存储介质及设备
CN117216547A (zh) 模型训练方法、语言处理方法、装置及计算机设备
CN114117028A (zh) 一种信息推荐方法、装置、存储介质及电子设备
CN113836296A (zh) 一种佛学问答摘要的生成方法、装置、设备及存储介质
CN117271611B (zh) 一种基于大模型的信息检索方法、装置及设备
CN117573849B (zh) 一种知识图谱多跳问答方法、装置、设备及存储介质
CN117556006B (zh) 标准问题确定方法及装置、电子设备和存储介质
CN114116816B (zh) 一种推荐方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant