CN112182180A - 问答处理的方法、电子设备、计算机可读介质 - Google Patents

问答处理的方法、电子设备、计算机可读介质 Download PDF

Info

Publication number
CN112182180A
CN112182180A CN202011036463.5A CN202011036463A CN112182180A CN 112182180 A CN112182180 A CN 112182180A CN 202011036463 A CN202011036463 A CN 202011036463A CN 112182180 A CN112182180 A CN 112182180A
Authority
CN
China
Prior art keywords
question
standard
answered
text
entity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011036463.5A
Other languages
English (en)
Inventor
王炳乾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BOE Technology Group Co Ltd
Original Assignee
BOE Technology Group Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by BOE Technology Group Co Ltd filed Critical BOE Technology Group Co Ltd
Priority to CN202011036463.5A priority Critical patent/CN112182180A/zh
Publication of CN112182180A publication Critical patent/CN112182180A/zh
Priority to US17/789,620 priority patent/US20230039496A1/en
Priority to PCT/CN2021/110785 priority patent/WO2022062707A1/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/33Querying
    • G06F16/332Query formulation
    • G06F16/3329Natural language query formulation or dialogue systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/36Creation of semantic tools, e.g. ontology or thesauri
    • G06F16/367Ontology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/205Parsing
    • G06F40/216Parsing using statistical methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/09Supervised learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Probability & Statistics with Applications (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本公开实施例提供了一种问答处理的方法,该方法包括:获取待回答问题;基于文本统计算法,根据与待回答问题的文本相似度,从预设的多个标准问题中,确定满足预设条件的多个标准问题作为候选标准问题;基于深度文本匹配算法,从多个所述候选标准问题中,确定一个与待回答问题的语义相似度最高的候选标准问题作为匹配标准问题;至少根据所述匹配标准问题,确定所述待回答问题的答案。本公开实施例还提供了一种电子设备、计算机可读介质。

Description

问答处理的方法、电子设备、计算机可读介质
技术领域
本公开实施例自动问答技术领域,特别涉及问答处理的方法、电子设备、计算机可读介质。
背景技术
自动问答是一种根据预设的数据库(如知识图谱),自动回答用户提出的问题的技术。
为实现自动问答,可以是确定与用户提出的问题匹配的“意图”,即为“匹配式自动问答”。
但是,现有的将问题与“意图”匹配的算法,或者错误率高,容易产生语义偏移;或者运算量大,效率低,速度慢,在高并发场景下难以实用。
发明内容
本公开实施例提供一种问答处理的方法,其包括:
获取待回答问题;
基于文本统计算法,根据与待回答问题的文本相似度,从预设的多个标准问题中,确定满足预设条件的多个标准问题作为候选标准问题;
基于深度文本匹配算法,从多个所述候选标准问题中,确定一个与待回答问题的语义相似度最高的候选标准问题作为匹配标准问题;
至少根据所述匹配标准问题,确定所述待回答问题的答案。
本公开实施例还提供一种电子设备,其包括:
一个或多个处理器;
存储器,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述任意一种问答处理的方法;
一个或多个I/O接口,连接在所述处理器与存储器之间,配置为实现所述处理器与存储器的信息交互。
本公开实施例还提供一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现上述任意一种问答处理的方法。
根据本公开实施例,先用高效率的文本统计算法全面召回可能与待回答问题匹配的候选标准问题,实现高的查全率;再用高准确性的深度文本匹配算法从候选标准问题中选出与待回答问题准确匹配的匹配标准问题,实现高查准率;即本公开实施例可同时实现高查全率和高差准率。
附图说明
附图用来提供对本公开实施例的进一步理解,并且构成说明书的一部分,与本公开实施例一起用于解释本公开,并不构成对本公开的限制。通过参考附图对详细示例实施例进行描述,以上和其它特征和优点对本领域技术人员将变得更加显而易见,在附图中:
图1为一种知识图谱的局部内容示意图;
图2本公开实施例提供的一种问答处理的方法的流程图;
图3本公开实施例提供的另一种问答处理的方法的流程图;
图4本公开实施例提供的另一种问答处理的方法的逻辑过程示意图;
图5本公开实施例提供的另一种问答处理的方法中使用的深度学习文本匹配模型的逻辑结构示意图;
图6为本公开实施例提供的一种电子设备的组成框图;
图7为本公开实施例提供的一种计算机可读介质的组成框图。
具体实施方式
为使本领域的技术人员更好地理解本公开实施例的技术方案,下面结合附图对本公开实施例提供的问答处理的方法、电子设备、计算机可读介质进行详细描述。
在下文中将参考附图更充分地描述本公开实施例,但是所示的实施例可以以不同形式来体现,且不应当被解释为限于本公开阐述的实施例。反之,提供这些实施例的目的在于使本公开透彻和完整,并将使本领域技术人员充分理解本公开的范围。
本公开实施例可借助本公开的理想示意图而参考平面图和/或截面图进行描述。因此,可根据制造技术和/或容限来修改示例图示。
在不冲突的情况下,本公开各实施例及实施例中的各特征可相互组合。
本公开所使用的术语仅用于描述特定实施例,且不意欲限制本公开。如本公开所使用的术语“和/或”包括一个或多个相关列举条目的任何和所有组合。如本公开所使用的单数形式“一个”和“该”也意欲包括复数形式,除非上下文另外清楚指出。如本公开所使用的术语“包括”、“由……制成”,指定存在所述特征、整体、步骤、操作、元件和/或组件,但不排除存在或添加一个或多个其它特征、整体、步骤、操作、元件、组件和/或其群组。
除非另外限定,否则本公开所用的所有术语(包括技术和科学术语)的含义与本领域普通技术人员通常理解的含义相同。还将理解,诸如那些在常用字典中限定的那些术语应当被解释为具有与其在相关技术以及本公开的背景下的含义一致的含义,且将不解释为具有理想化或过度形式上的含义,除非本公开明确如此限定。
本公开实施例不限于附图中所示的实施例,而是包括基于制造工艺而形成的配置的修改。因此,附图中例示的区具有示意性属性,并且图中所示区的形状例示了元件的区的具体形状,但并不是旨在限制性的。
在一些相关技术中,可通过“匹配式自动问答”自动对用户提出的问题进行回答,即找出用户提出的问题的答案。
匹配式自动问答可基于预设的知识图谱和标准问题实现。
其中,知识图谱(知识库)是表示实体及其属性的值的数据的集合(即数据库);在知识图谱中,以实体为节点,而实体与其对应的属性的值之间通过边相连,从而构成结构化的、网络状的数据库。例如,参照图1,对实体“蒙娜丽莎”,其“作者”属性的值为“达芬奇(当然其也是另一个实体)”,而“创作时间”属性的值为“1504年”等。
实体也称“知识”或“概念”,是指存在或曾经存在的实际物质或抽象定义,如人物、物品、物质、结构、产品、建筑、艺术品、地点、国家、组织、事件、技术、定理、理论等。
每个“问题(Query)”实际都对应一定的“意图(Intention)”,即“意图”是问题所要表达的实质意义。例如,问题“蒙娜丽莎的作者是谁”的“意图”就是要询问实体“蒙娜丽莎”的“作者”属性的值。
对一定的“意图”,可预先配置有与“意图”对应的代码,当代码被运行时即可从知识图谱中获得与“意图”匹配的内容作为答案。例如,对询问实体“蒙娜丽莎”的“作者”属性的值的“意图”,可从知识图谱中检索到实体“蒙娜丽莎”的“作者”属性的值为“达芬奇”,从而以“达芬奇”作为答案。
对同样的“意图”,不同的用户可能用不同的方式“发问”,或者说每个“意图”对应有很多不同的“问法”。为此,对每个“意图”,可预先为其设定多种不同的“问法”,或者说是设定“标准问题”。例如,对询问实体“达芬奇”的“国籍”属性的“意图”,对应的标准问题可示例性的包括:
请问达芬奇的国籍是什么;
达芬奇是哪国人啊;
谁知道达芬奇出生在哪里;
有人能告诉我达芬奇的国籍么。
其中,以上标准问题也可为“模板”的形式,即其中的“实体”可不是具体的实体内容,而是与实体的类型对应的“类型标签”;其中,实体的类型是指实体在某个方面的“特性”或所属的“分类”。例如,达芬奇是一位历史人物,故实体“达芬奇”属于“人物”的类型。
其中,类型标签可用特定的字符或字符组合表示,且最好是不常用的字符或字符组合,该字符或字符组合可为数字、字母、符号、汉字。例如,以上“人物”类型的“类型标签”可用字母“RW”表示,或用汉字“叒”表示。从而,以上的各标准问题的形式也可转变为:
请问RW的国籍是什么或请问叒的国籍是什么;
RW是哪国人啊或叒是哪国人啊;
谁知道RW出生在哪里或谁知道叒出生在哪里;
有人能告诉我RW的国籍么或有人能告诉我叒的国籍么。
由此,对用户提出的问题,只要确定其与某个标准问题最“相似(或者说匹配)”,也就等于确定了该用户提出的问题与该标准问题的“意图”相同,从而可根据该标准问题的“意图”,从知识图谱中找出用户提出的问题的答案。例如,可以是运行与以上标准问题的“意图”对应的代码,以从知识图谱中找出用户提出的问题的答案。
显然,如果用户提出的问题与某个标准问题完全相同,则二者显然是匹配的。但是,一个“意图”对应的可行问法是很多的,标准问题不可能将其穷举,故用户提出的问题很可能与所有标准问题都不完全相同。比如对以上询问实体“达芬奇”的“国籍”属性的“意图”,用户提出的问题可能是四川方言,如“达芬奇生于啥子地方哦”,与所有的标准问题均不同。
因此,很多情况下,需要对用户提出的问题与标准问题进行分析,以确定用户提出的问题实际与哪个标准问题匹配。
例如,可用representation-based(表述-基础)模型实现用户问题与标准问题的匹配,其具体是将文本(用户提出的问题与标准问题)转化为句向量后,再计算句向量间的相似度。但是,representation-based模型容易产生“语义偏移”,从而可能无法找到“意图”真正与用户提出的问题匹配的标准问题,造成匹配错误,无法得出正确的答案。
例如,也可用interaction-based(交互-基础)模型实现用户问题与标准问题的匹配,其具体是获取交叉矩阵,以进行更细粒度的匹配,从而语义偏移的可能性低。但是,interaction-based模型所需的运算量大,效率低,给出答案的耗时较长,尤其对高并发场景其很难实用。
第一方面,本公开实施例提供一种问答处理的方法。
本公开实施例的方法用于在匹配式自动问答中给出答案,尤其基于预设的知识图谱和预设的标准问题实现。
具体的,针对用户提出的问题(待回答问题,也称用户问题),本公开实施例可从大量预设的标准问题中找到与待回答问题匹配(即表示表示相同的“意图”)的标准问题(匹配标准问题),并根据匹配标准问题(或者说匹配标准问题的“意图”)获得待回答问题的答案,对待回答问题进行自动回答;尤其是,可根据匹配标准问题从预设的知识图谱中获取待回答问题的答案。
参照图2,本公开实施例的问答处理的方法包括:
S001、获取待回答问题。
获取由用户提出的,需要进行回答的问题(Query),作为待回答问题。
其中,获取待回答问题的具体方式是多样的。例如,可以是通过键盘、话筒等输入设备,获取由用户直接输入的内容作为待回答问题;或者,也可以是通过网络传输等,从远程获取待回答问题。
S002、基于文本统计算法,根据与待回答问题的文本相似度,从预设的多个标准问题中,确定满足预设条件的多个标准问题作为候选标准问题。
通过文本统计算法,对各标准问题与待回答问题的文本(或者说文字)内容进行分析,从而获取到从文本的内容(而不是文本代表的意义)上看,各标准问题与待回答问题的相似程度(即文本相似度);并且根据文本相似度,选择多个标准问题最为作为用于后续处理的候选标准问题。
其中,这里选择的候选标准问题当然应该是与待回答问题的文本相似度相对较高的标准问题,例如是与待回答问题的文本相似度排在前特定位,或者是超过特定值的标准问题。
具体的,此处的文本统计算法可以是文本相似度算法。
可见,相互匹配的待回答问题和标准问题的文本内容虽然不一定完全相同,但二者通常具有较高的相似性(文本相似度)。因此,本步骤选出的多个候选标准问题中,有很大概率是包括与待回答问题匹配(即“意图”相同)的标准问题的。当然,此时的候选标准问题中也可能有一些与待回答问题“意图”并不相同,但该问题可在后续处理中解决。
也就是说,本步骤可保证将真正匹配的标准问题“召回”,即其“召回率(查全率)”较高。
而相对于要分析语义的深度文本匹配算法,仅计算文本内容的统计特性的文本统计算法所需的运算量小,效率高,故即使在高并发场景下也可实用。
S003、基于深度文本匹配算法,从多个候选标准问题中,确定一个与待回答问题的语义相似度最高的候选标准问题作为匹配标准问题。
对以上选出的各候选标准问题,进一步通过深度文本匹配算法分析它们与待回答问题的语义相似度,即分析从语义(即文本表示的实际意义)上看,哪个候选标准问题与待回答问题最接近,并以其作为匹配标准问题,即与待回答问题的“意图”相同的标准问题。
深度文本匹配算法是从语义的相似度判断匹配标准问题的,故其语义偏移的可能性低,准确性高,从而使本公开实施例可选出真正与待回答问题匹配的匹配标准问题,以供后续根据匹配标准问题得出准确的答案,提高本公开实施例的“准确性(查准率)”。
可见,根据本公开实施例,只要用深度文本匹配算法处理以上选出的候选标准问题即可,而不是处理所有的标准问题,而候选标准问题的数量显然远远小于标准问题的总数,从而其大大降低了深度文本匹配算法所处理的数据量,由此其处理速度块,即使在高并发场景下也可高效率的完成。
S004、至少根据匹配标准问题,确定待回答问题的答案。
在确定了匹配标准问题后,也就是确定了待回答问题的“意图”,故可根据该匹配标准问题(“意图”)出待回答问题的答案。
根据本公开实施例,先用高效率的文本统计算法全面召回可能与待回答问题匹配的候选标准问题,实现高的查全率;再用高准确性的深度文本匹配算法从候选标准问题中选出与待回答问题准确匹配的匹配标准问题,实现高查准率;即本公开实施例可同时实现高查全率和高差准率。
其中,文本统计算法虽然处理的数据量较大,但其算法本身效率很高,深度文本匹配算法虽然相对效率较低,但其处理的数据量(仅处理候选标准问题)较少,因此本公开实施例整体的效率高,耗时短,可用于高并发场景。
在一些实施例中,至少根据匹配标准问题,确定待回答问题的答案(步骤S004)包括:至少根据匹配标准问题,在预设的知识图谱中确定待回答问题的答案。
作为本公开实施例的一种方式,在得到匹配标准问题(意图)后,可根据其从预设的知识图谱中,查找到对应待回答问题的答案。
例如,可以是运行与匹配标准问题的“意图”对应的代码,从而从知识图谱中得出匹配标准问题的答案,也就是待回答问题的答案。
其中,本公开实施例使用的知识图谱可以是针对某个特定领域的知识图谱,如针对艺术领域的知识图谱,从而本公开实施例实现的是“垂直领域”的自动问答。或者,本公开实施例使用的知识图谱也可以是包括多个领域的内容的知识图谱,从而本公开实施例实现的是“开放领域”的自动问答。
在一些实施例中,参照图3、图4,本公开实施例的问答处理的方法可包括以下步骤:
S101、获取待回答问题。
获取由用户提出的,需要进行回答的问题(Query),作为待回答问题。
其中,获取待回答问题的具体方式是多样的。例如,可以是通过键盘、话筒等输入设备,获取由用户直接输入的内容作为待回答问题;或者,也可以是通过网络传输等,从远程获取待回答问题。
例如,待回答问题可以是“达芬奇的最后的晚餐创作于哪一年”。
S102、确定待回答问题中属于知识图谱的实体为问题实体。
通常而言,待回答问题是要问关于某个实体的问题,故其中必然包括实体,因此可对待回答问题进行实体识别,以确定其中实体,并将其作为“问题实体”。
其中,以上“问题实体”是存在于相应知识图谱中的实体,因为本公开实施例是基于知识图谱进行的,对知识图谱中不存在的实体,即使识别超出来也没有实际意义。
例如,对以上“达芬奇的最后的晚餐创作于哪一年”的待回答问题,其中可识别出“达芬奇”和“最后的晚餐”都是“问题实体”。
由于实体识别基于知识图谱,故可通过“远程监督”的方式进行实体识别。例如,可采用现有的分词工具,如jieba(结巴)分词工具,并以知识图谱作为分词工具的用户词典,从而用分词工具对待回答问题进行分词和实体识别。这种方式不需要大量的标注数据,也不需要训练深度学习网络,从而其节省时间和运算量,效率和精度高,容易实现。
当然,如果是通过其它方式进行问题实体的识别也是可行的。例如,可通过Bi-LSTM-CRF模型进行实体识别。
在一些实施例中,确定待回答问题中属于知识图谱的实体为问题实体(S102)包括:
S1021、确定待回答问题中属于知识图谱的实体为问题实体,并将待回答问题中的问题实体替换为与其类型对应的类型标签。
在实体识别过程中,除识别出“有哪些”实体外,还可给出被识别的实体的“类型”,即实体在某个方面的“特性”或所属的“分类”。因此,本步骤中,还可进一步将待回答问题中的实体替换为对应的类型标签。
例如,对以上“达芬奇的最后的晚餐创作于哪一年”的待回答问题,其中可识别出“达芬奇”和“最后的晚餐”都是问题实体;进而还可识别出实体“达芬奇”的类型为“人物”,其对应的类型标签为“RW”或“叒”;而实体“最后的晚餐”的类型为“作品”,其对应的类型标签为“ZP”或“叕”。
由此,可将“达芬奇的最后的晚餐创作于哪一年”的待回答问题转变为以下形式:
RW的ZP创作于哪一年或叒的叕创作于哪一年。
当然,应当理解,以上实体类型的划分、类型标签的表示方式都是示例性的,它们也可为不同的形式。例如,类型的划分可有不同,如“达芬奇”的类型也可为“画家”、“作者”、“艺术家”等;而“最后的晚餐”的类型也可为“画作”等。再如,“人物”和“作品”的类型标签也可为其它的字符或字符组合。
S103、基于文本统计算法,根据与待回答问题的文本相似度,从预设的多个标准问题中,确定满足预设条件的多个标准问题作为候选标准问题。
基于文本统计算法确定各预设的标准问题与待回答问题的文本相似度,之后根据文本相似度,确定其中满足预设条件的多个标准问题为候选标准问题。
具体的,上述预设条件可以是设定一个文本相似度阈值,将预设的多个标准问题中高于该文本相似度阈值的标准问题作为候选标准问题,也可以是从预设的多个标准问题中选取与待回答问题的文本相似度排名靠前的多个标准问题作为候选标准问题,例如排名前5,前10或者前15都是可以的,具体的可以根据实际需求设定。
在一些实施例中,候选标准问题的个数在5个至15个之间。
具体的,候选标准问题的个数可根据需要确定,例如是5~15个,再比如是10个。
在一些实施例中,本步骤(S103)具体包括:
(1)对待回答问题进行分词,得到n个待处理词。
其中,n为大于或等于1的整数。
由于后续需要将“词”与文本进行比较,故首先需要将待回答问题分为n个用于后续过程的词(待处理词)。
其中,分词过程具体可选用已知的分词工具实现,在此不再详细描述。
在一些实施例中,本步骤可包括:对待回答问题进行分词,除去得到的词中预设的排除词,以剩余的n个词为待处理词。
在待回答问题中,有一些词是没有实质意义的,比如部分副词、语气词(如“的”、“啊”之类),故这些词最好不进入后续的处理过程以降低运算量。为此,可预先设置“排除词(体用词)”的词表,对待回答问题分出的词,若属于排除词,则删除掉,不作为待处理词。
(2)确定每个待处理词与每个标准问题的文本相似度。
其中,第i个待处理词与标准问题d的文本相似度TF-IDF(i,d)=TF(i,d)*IFDi,TF(i,d)=(第i个待处理词在标准问题d中的出现次数/标准问题d中词的总个数),IFDi=lg[标准问题的总个数/(含有第i个待处理词的标准问题的个数+1)]。
以上算法可计算每个词与文本库中的每个文本的相关性,即文本相似度。本公开实施例中,以每个标准问题为一个“文本”,以所有标准问题构成“文本库”。
具体的,第i个待处理词与标准问题d的文本相似度TF-IDF(i,d)由第一子相似度TF(i,d)和第二子相似度IFDi两部分相乘得到。
其中,第一子相似度TF(i,d)=(第i个待处理词在标准问题d中的出现次数/标准问题d中词的总个数),即,第一子相似度TF(i,d)表示词(待处理词)在文本(标准问题)中出现的“频率”,其代表排除了文本长度的影响后,词与文本的相关程度。
第二子相似度IFDi=lg[标准问题的总个数/(含有第i个待处理词的标准问题的个数+1)];该公式的意义是:词(待处理词)在文本库(所有的标准问题)的越多文本(标准问题)中出现,则其第二子相似度IFDi就越低。
可见,在很多文本中都出现的词往往是“通用词(比如“的”这样的词)”,反而没什么实际意义,故通过以上的第二子相似度IFDi,可消除“通用词”的影响。
由此,将第一子相似度和第二子相似度相乘得到的文本相似度,可最准确的表明待处理词与标准问题的相关程度。
(3)确定每个标准问题与待回答问题的文本相似度。
其中,每个标准问题d与待回答问题的文本相似度
Figure BDA0002703059120000111
如前,待回答问题包括n个待处理词,故其与标准问题的文本相似度,应当是其中所有待处理词与标准问题的相关程度的总和,即所有待处理词与标准问题的文本相似度之和。由此,标准问题d与待回答问题的文本相似度
Figure BDA0002703059120000112
(4)根据与待回答问题的文本相似度,确定满足预设条件的多个标准问题为候选标准问题。
在确定出每个标准问题与待回答问题的文本相似度后,即可根据文本相似度,确定其中满足预设条件的多个标准问题为候选标准问题。
具体的,上述预设条件可以是设定一个文本相似度阈值,将预设的多个标准问题中高于该文本相似度阈值的标准问题作为候选标准问题,也可以是从预设的多个标准问题中选取与待回答问题的文本相似度排名靠前的多个标准问题作为候选标准问题,例如排名前5,前10或者前15都是可以的,具体的可以根据实际需求设定。
在一些实施例中,在确定每个待处理词与每个标准问题的文本相似度前,还包括:计算并存储多个预设词与每个标准问题的文本相似度,多个预设词为标准问题中包括的词;
确定每个待处理词与每个标准问题的文本相似度包括:当待处理词为存储的多个预设词中的一个,则以存储的多个预设词中的一个与每个标准问题的文本相似度,为该待处理词与每个标准问题的文本相似度。
如前,待回答问题与各标准问题的文本相似度,实际是由其中的各“词(待处理词)”与各标准问题的文本相似度确定的。
为此,可预先对各标准问题进行分词,以其中部分或全部的词作为预设词,并预先计算这些预设词与各标准问题的文本相似度,再将结果(即“预设词—标准问题—文本相似度”的对应关系)存储下来作为索引。
从而,在后续确定待处理词与标准问题的文本相似度时,可先检索每个待处理词是否为以上预存的预设词中的一个,如果是(即待处理词属于预设词),则可通过查询索引的方式直接得到该待处理词(预设词)与各标准问题的文本相似度,而不用再实际计算其文本相似度,从而文本相似度计算中所需的运算量。
在一些实施例中,每个标准问题用于询问标准实体的标准属性的值;
标准问题中的标准实体用与其类型对应的类型标签代表。
作为本公开实施例的一种方式,每个标准问题的“意图”是询问标准实体的标准属性的值。
例如,标准问题“请问蒙娜丽莎是何时创作的”,是用于询问实体(标准实体)“蒙娜丽莎”的“创作时间”属性(标准属性)的。
当然,每个标准问题中存在的实体可能是多个,但其中只有对应需要询问的标准属性的实体才是标准实体。而标准问题中具体哪些是标准实体,以及其标准属性是什么,可在设置标准问题时就预先设定好的。
显然,标准问题中的标准实体可以是具体的实体(如“蒙娜丽莎”),但由于具体实体的数量众多,故这样标准问题的数量也会非常多。为减少标准问题的数量,可以是标准问题为“模板”形式,即标准问题中的标准实体是“类型标签”的形式。由此,“模板”形式标准问题的“意图”不是询问一个“具体实体”的标准属性,而是询问“一类实体”的标准属性。
例如,以上“请问蒙娜丽莎是何时创作的”的标准问题,其具体可为:
请问ZP是何时创作的或请问叕是何时创作的;
其中,以上“ZP”和“叕”均为“作品”类型的类型标签,故以上标准问题是用于询问“作品类”实体(标准实体)的“创作时间”属性(标准属性)的。
S104、基于深度学习文本匹配模型,从多个候选标准问题中,确定一个与待回答问题的语义相似度最高的候选标准问题作为匹配标准问题。
在得到多个候选标准问题后,可将候选标准问题与待回答问题输入预先设置的深度学习文本匹配模型中,以得到深度学习文本匹配模型输出的各候选标准问题与待回答问题的语义相似度(即在意义上的相似程度),从而确定与待回答问题的语义相似度最高的候选标准问题作为匹配标准问题,即确定出与待回答问题具有相同“意图”的匹配标准问题,以供后续根据匹配标准问题得出待回答问题的答案。
例如,对以上“达芬奇的最后的晚餐创作于哪一年”的待回答问题,确定的匹配标准问题可以是“请问蒙娜丽莎是何时创作的”。
在一些实施例中,深度学习文本匹配模型配置为:使用基于转换器的双向编码器表征模型,根据待回答问题和标准问题得到待回答问题文本表示向量、标准问题文本表示向量,以及待回答问题文本表示向量和标准问题文本表示向量的交互信息;
对待回答问题文本表示向量、标准问题文本表示向量分别进行全局最大池化,对待回答问题文本表示向量、标准问题文本表示向量分别进行全局平均池化;
将根据交互信息、待回答问题文本表示向量的全局最大池化结果与标准问题文本表示向量的全局最大池化结果的差、待回答问题文本表示向量的全局平均池化结果与标准问题文本表示向量的全局平均池化结果的差输入全连接层,得到待回答问题和标准问题的语义相似度。
示例性的,参照图5,本公开实施例中的深度学习文本匹配模型可利用基于转换器的双向编码器表征模型(BERT模型,Bidirectional Encoder Representations fromTransformers),先将输入的文本(待回答问题和候选标准问题)进行词嵌入以表示成h0的形式,然后将h0通过一个L层的Transformer(转换器)网络得到文本表示向量hL,其中:
CLS为BERT模型中处理的文本的标记符号,SEP为不同文本之间(待回答问题与候选标准问题)的分隔符;
h0=XWt+Ws+Wp
hi=Transformer(hi-1),i∈[1,L];
其中,X表示对输入的文本(待回答问题和候选标准问题)进行分词后得到的词序列,Wt为词嵌入矩阵,Wp为位置嵌入矩阵,Ws句子嵌入矩阵,Transformer()表示Transformer网络对括号中的内容进行一层处理;hi表示第i层Transformer网络的输出,故i不为L时hi是Transformer网络的隐藏层的输出,而i为L时hi就是hL是,即Transformer网络最终输出的文本表示向量hL
以下将BERT模型输出的待回答问题文本表示向量与候选标准问题文本表示向量分别用q和d表示。
为获取待回答问题与候选标准问题间的语义相似度,还需要挖掘q和d之间的交互信息和差异信息,将他们拼接起来得到hqd,并送入一个全连接层(如Dense层)进行二分类(如Sigmoid函数分类)。
其中,Dense是一个函数,其是全连接层的一种具体实现形式,其计算公式如下:
Out=Activation(Wx+bias);
其中,x为函数的输入,其是一个n维向量;W是预设的权重,为m*n维向量的形式;Activation表示激活函数;bias表示预设的偏置;Out为函数的输出,为m维向量。
具体的,其中交互信息hcls由BERT模型输出,具体是BERT模型中标记符号CLS对应的最终隐藏状态再经池化后的输出,即Transformer网络的第L-1层的输出经池化后的结果,其可在一定程度上表示q和d(或待回答问题与候选标准问题)的相关性(但不是语义相似度)。
而差异信息通过以下方式得出:分别将q和d进行全局最大池化(Global MaxPool)和全局平均池化(GlobalAverage Pool),再分别求它们的全局平均池化结果间的差和全局最大池化结果间的差,作为差异信息。
其中,q和d的全局最大池化和全局平均池化的结果如下:
qavep=GlobalAveragePool(q);qmaxp=GlobalMaxPool(q);
davep=GlobalAveragePool(d);dmaxp=GlobalMaxPool(d);
从而,qavep-davep表示q和d的全局平均池化结果间的差;qmaxp-dmaxp表示q和d的全局最大池化结果间的差,二者共同为差异信息;差异信息可在一定程度上表示q和d(或待回答问题与候选标准问题)的差异性(但不是二者在文字上的直接区别)。
从而,交互信息hcls和差异信息的拼接结果hqd可表示为:
hqd=Concatenate([hcls,|qavep-davep|,|qmaxp-dmaxp|];
其中,Concatenate表示拼接,hcls为交互信息,qavep-davep和qmaxp-dmaxp为的差异信息。
其中,q和d是文本特征向量,它们分别是一个形状为[B,L,H]的向量,其中B是批大小(每次处理的数据的大小),L表示文本(待回答问题文本与候选标准问题)的长度,H表示隐藏层维度。
其中,全局平均池化是对向量在第二维上求平均,故形状为[1,L,H]的向量的全局平均池化结果是一个[1,H]形状的向量,而对形状为[B,L,H]的向量的全局平均池化的结果就是形状为[B,H]的向量。同理,全局最大池化是对向量在第二维上取最大值,故其对形状为[B,L,H]的向量的处理结果也是形状为[B,H]的向量。进而,差异信息(全局平均池化结果的差qavep-davep和全局最大池化结果的差qmaxp-dmaxp)也都是形状为[B,H]的向量。
而如前,交互信息hcls是一条样本(文本)标志为[CLS]代表的向量,故其形状也是[B,H]。
而以上拼接,是指将交互信息向量hcls,以及差异信息对应的两个向量qavep-davep、qmaxp-dmaxp直接在第一维上拼接,从而拼接结果hqd是形状为[B,3*H]的向量。
而在确定出交互信息和差异信息的拼接结果hqd后,进一步用Sigmoid函数
对其进行分类,以输出候选标准问题与待回答问题间的语意相似度
Figure BDA0002703059120000151
Figure BDA0002703059120000161
其中,W为训练得到的参数矩阵,W∈RK×H;其中,K是要分类的标签数量,这里标签为0(表示不相似的匹配结果)或1(表示相似的匹配结果),即K=2;b为偏置项;R表示实数空间;H表示神经网络隐藏层维度。
当然,本公开实施例中采用的深度学习文本匹配模型也可以不是以上形式,而是其它的深度学习文本匹配模型,如representation-based模型、interaction-based模型等。
当然,深度学习文本匹配模型(如实现以上S104步骤的具体过程的深度学习文本匹配模型)可以是通过预先的训练得到的。
其中,训练过程可以是:将具有预设结果(语义相似度)的训练样本(预设的待回答问题和候选标准问题)输入深度学习文本匹配模型,并将深度学习文本匹配模型输出的结果与预设结果进行比较,通过损失函数确定应如何调整深度学习文本匹配模型中的各参数。
其中,以上深度学习文本匹配模型训练时可用交叉熵损失函数作为目标函数(损失函数)loss:
Figure BDA0002703059120000162
其中,y为训练样本标签(即预设结果);
Figure BDA0002703059120000163
为模型预测标签(即模型输出的结果);从而可根据loss对以上参数矩阵W中的所有参数进行联合微调,使正确结果的对数概率最大化,即loss最小化。
S105、确定与匹配标准问题的标准实体对应的问题实体为匹配问题实体,确定知识图谱中匹配问题实体的标准属性的值为答案。
如前,匹配标准问题是用于询问其中的“标准实体”的“标准属性”的,而由于待回答问题与匹配标准问题的“意图”相同,故待回答问题必然是用于询问其中“某个问题实体”的“标准属性”。
因此,只要确定待回答问题中与匹配标准问题的标准实体对应的问题实体(匹配问题实体),就可确定待回答问题是用于询问“匹配问题实体”的“标准属性”的,从而可从知识图谱中找出“匹配问题实体”的“标准属性”的值,作为待回答问题的答案。
例如,匹配标准问题“请问蒙娜丽莎是何时创作的”询问的是标准实体“蒙娜丽莎”的“创作时间”标准属性;若确定待回答问题“达芬奇的最后的晚餐创作于哪一年”中的“最后的晚餐”为匹配标准实体,则可在预设的知识图谱中,查找匹配标准实体“最后的晚餐”的“创作时间”标准属性的值,并输出结果“1498年”。
在一些实施例中,确定与匹配标准问题的标准实体对应的问题实体为匹配问题实体包括:确定与匹配标准问题的标准实体具有相同类型标签的问题实体为匹配问题实体。
如前,当匹配标准问题中的标准实体为类型标签的形式时,则可从待回答问题的问题实体中,确定与标准实体的类型标签相同的问题实体为匹配问题实体。
例如,匹配标准问题“请问ZP是何时创作的”中,标准实体的类型标签为ZP(作品);而待回答问题“达芬奇的最后的晚餐创作于哪一年”中包括“达芬奇”和“最后的晚餐”两个问题实体,二者的类型标签分别为“RW(人物)”和“ZP(作品)”;其中,问题实体“最后的晚餐”的类型标签为ZP(作品)”,与标准实体的类型标签一样,从而可确定“最后的晚餐”为匹配问题实体;进而,可确定答案为知识图谱中“最后的晚餐”实体(匹配问题实体)的“创作时间”属性(标准属性)的值,即“1498年”。
也就是说,通过匹配标准问题的标准属性,可确定待回答问题要问的是“什么内容”,而通过待回答问题的匹配问题实体,则可确定待回答问题是有关“什么东西”的,二者结合,即可确定待回答问题要问的是“什么东西的什么内容”,并据此从知识图谱中给出准确的答案。
第二方面,参照图6,本公开实施例提供一种电子设备,其包括:
一个或多个处理器;
存储器,其上存储有一个或多个程序,当一个或多个程序被一个或多个处理器执行,使得一个或多个处理器实现上述任意一项的问答处理的方法;
一个或多个I/O接口,连接在处理器与存储器之间,配置为实现处理器与存储器的信息交互。
其中,处理器为具有数据处理能力的器件,其包括但不限于中央处理器(CPU)等;存储器为具有数据存储能力的器件,其包括但不限于随机存取存储器(RAM,更具体如SDRAM、DDR等)、只读存储器(ROM)、带电可擦可编程只读存储器(EEPROM)、闪存(FLASH);I/O接口(读写接口)连接在处理器与存储器间,能实现存储器与处理器的信息交互,其包括但不限于数据总线(Bus)等。
第三方面,参照图7,本公开实施例提供一种计算机可读介质,其上存储有计算机程序,程序被处理器执行时实现上述任意一种问答处理的方法。
本领域普通技术人员可以理解,上文中所公开的全部或某些步骤、系统、装置中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
在硬件实施方式中,在以上描述中提及的功能模块/单元之间的划分不一定对应于物理组件的划分;例如,一个物理组件可以具有多个功能,或者一个功能或步骤可以由若干物理组件合作执行。
某些物理组件或所有物理组件可以被实施为由处理器,如中央处理器(CPU)、数字信号处理器或微处理器执行的软件,或者被实施为硬件,或者被实施为集成电路,如专用集成电路。这样的软件可以分布在计算机可读介质上,计算机可读介质可以包括计算机存储介质(或非暂时性介质)和通信介质(或暂时性介质)。如本领域普通技术人员公知的,术语计算机存储介质包括在用于存储信息(诸如计算机可读指令、数据结构、程序模块或其它数据)的任何方法或技术中实施的易失性和非易失性、可移除和不可移除介质。计算机存储介质包括但不限于随机存取存储器(RAM,更具体如SDRAM、DDR等)、只读存储器(ROM)、带电可擦可编程只读存储器(EEPROM)、闪存(FLASH)或其它磁盘存储器;只读光盘(CD-ROM)、数字多功能盘(DVD)或其它光盘存储器;磁盒、磁带、磁盘存储或其它磁存储器;可以用于存储期望的信息并且可以被计算机访问的任何其它的介质。此外,本领域普通技术人员公知的是,通信介质通常包含计算机可读指令、数据结构、程序模块或者诸如载波或其它传输机制之类的调制数据信号中的其它数据,并且可包括任何信息递送介质。
本公开已经公开了示例实施例,并且虽然采用了具体术语,但它们仅用于并仅应当被解释为一般说明性含义,并且不用于限制的目的。在一些实例中,对本领域技术人员显而易见的是,除非另外明确指出,否则可单独使用与特定实施例相结合描述的特征、特性和/或元素,或可与其它实施例相结合描述的特征、特性和/或元件组合使用。因此,本领域技术人员将理解,在不脱离由所附的权利要求阐明的本公开的范围的情况下,可进行各种形式和细节上的改变。

Claims (11)

1.一种问答处理的方法,其包括:
获取待回答问题;
基于文本统计算法,根据与待回答问题的文本相似度,从预设的多个标准问题中,确定满足预设条件的多个标准问题作为候选标准问题;
基于深度文本匹配算法,从多个所述候选标准问题中,确定一个与待回答问题的语义相似度最高的候选标准问题作为匹配标准问题;
至少根据所述匹配标准问题,确定所述待回答问题的答案。
2.根据权利要求1所述的方法,其中,
所述深度文本匹配算法为预设的深度学习文本匹配模型;所述深度学习文本匹配模型配置为:
使用基于转换器的双向编码器表征模型,根据待回答问题和标准问题得到待回答问题文本表示向量、标准问题文本表示向量,以及待回答问题文本表示向量和标准问题文本表示向量的交互信息;
对待回答问题文本表示向量、标准问题文本表示向量分别进行全局最大池化,对待回答问题文本表示向量、标准问题文本表示向量分别进行全局平均池化;
将根据交互信息、待回答问题文本表示向量的全局最大池化结果与标准问题文本表示向量的全局最大池化结果的差、待回答问题文本表示向量的全局平均池化结果与标准问题文本表示向量的全局平均池化结果的差输入全连接层,得到待回答问题和标准问题的语义相似度。
3.根据权利要求1所述的方法,其中,
所述至少根据所述匹配标准问题,确定所述待回答问题的答案包括:至少根据所述匹配标准问题,在预设的知识图谱中确定所述待回答问题的答案;
每个所述标准问题用于询问标准实体的标准属性的值;
在所述获取待回答问题与所述确定满足预设条件的多个标准问题作为候选标准问题之间,还包括:确定所述待回答问题中属于所述知识图谱的实体为问题实体;
所述至少根据所述匹配标准问题,在预设的知识图谱中确定所述待回答问题的答案包括:确定与所述匹配标准问题的标准实体对应的问题实体为匹配问题实体,确定所述知识图谱中匹配问题实体的标准属性的值为答案。
4.根据权利要求3所述的方法,其中,
所述标准问题中的标准实体用与其类型对应的类型标签代表;
所述确定所述待回答问题中属于所述知识图谱的实体为问题实体包括:确定所述待回答问题中属于所述知识图谱的实体为问题实体,并将所述待回答问题中的问题实体替换为与其类型对应的类型标签。
5.根据权利要求4所述的方法,其中,所述确定与所述匹配标准问题的标准实体对应的问题实体为匹配问题实体包括:
确定与所述匹配标准问题的标准实体具有相同类型标签的问题实体为匹配问题实体。
6.根据权利要求1所述的方法,其中,所述确定满足预设条件的多个标准问题作为候选标准问题包括:
对所述待回答问题进行分词,得到n个待处理词;n为大于或等于1的整数;
确定每个所述待处理词与每个标准问题的文本相似度;其中,第i个待处理词与标准问题d的文本相似度TF-IDF(i,d)=TF(i,d)*IFDi,TF(i,d)=(第i个待处理词在标准问题d中的出现次数/标准问题d中词的总个数),IFDi=lg[标准问题的总个数/(含有第i个待处理词的标准问题的个数+1)];
确定每个标准问题与待回答问题的文本相似度;其中,每个标准问题d与待回答问题的文本相似度
Figure FDA0002703059110000021
根据与待回答问题的文本相似度,确定满足预设条件的多个标准问题为候选标准问题。
7.根据权利要求6所述的方法,其中,所述对所述待回答问题进行分词,得到n个待处理词包括:
对所述待回答问题进行分词,除去得到的词中预设的排除词,以剩余的n个词为待处理词。
8.根据权利要求6所述的方法,其中,
在所述确定每个所述待处理词与每个标准问题的文本相似度前,还包括:计算并存储多个预设词与每个标准问题的文本相似度,所述多个预设词为标准问题中包括的词;
所述确定每个所述待处理词与每个标准问题的文本相似度包括:当所述待处理词为所述存储的多个预设词中的一个,则以所述存储的多个预设词中的一个与每个标准问题的文本相似度,为该待处理词与每个标准问题的文本相似度。
9.根据权利要求1所述的方法,其中,
所述候选标准问题的个数在5个至15个之间。
10.一种电子设备,其包括:
一个或多个处理器;
存储器,其上存储有一个或多个程序,当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现根据权利要求1至9中任意一项所述的问答处理的方法;
一个或多个I/O接口,连接在所述处理器与存储器之间,配置为实现所述处理器与存储器的信息交互。
11.一种计算机可读介质,其上存储有计算机程序,所述程序被处理器执行时实现根据权利要求1至9中任意一项所述的问答处理的方法。
CN202011036463.5A 2020-09-27 2020-09-27 问答处理的方法、电子设备、计算机可读介质 Pending CN112182180A (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CN202011036463.5A CN112182180A (zh) 2020-09-27 2020-09-27 问答处理的方法、电子设备、计算机可读介质
US17/789,620 US20230039496A1 (en) 2020-09-27 2021-08-05 Question-and-answer processing method, electronic device and computer readable medium
PCT/CN2021/110785 WO2022062707A1 (zh) 2020-09-27 2021-08-05 问答处理的方法、电子设备、计算机可读介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011036463.5A CN112182180A (zh) 2020-09-27 2020-09-27 问答处理的方法、电子设备、计算机可读介质

Publications (1)

Publication Number Publication Date
CN112182180A true CN112182180A (zh) 2021-01-05

Family

ID=73945185

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011036463.5A Pending CN112182180A (zh) 2020-09-27 2020-09-27 问答处理的方法、电子设备、计算机可读介质

Country Status (3)

Country Link
US (1) US20230039496A1 (zh)
CN (1) CN112182180A (zh)
WO (1) WO2022062707A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112632232A (zh) * 2021-03-09 2021-04-09 北京世纪好未来教育科技有限公司 一种文本匹配方法、装置、设备及介质
CN113342924A (zh) * 2021-07-05 2021-09-03 北京读我网络技术有限公司 答案检索方法及装置、存储介质及电子设备
CN113360623A (zh) * 2021-06-25 2021-09-07 达闼机器人有限公司 一种文本匹配方法、电子设备及可读存储介质
CN113434657A (zh) * 2021-07-21 2021-09-24 广州华多网络科技有限公司 电商客服应答方法及其相应的装置、设备、介质
CN113609275A (zh) * 2021-08-24 2021-11-05 腾讯科技(深圳)有限公司 信息处理方法、装置、设备及存储介质
WO2022062707A1 (zh) * 2020-09-27 2022-03-31 京东方科技集团股份有限公司 问答处理的方法、电子设备、计算机可读介质
CN114490996A (zh) * 2022-04-19 2022-05-13 深圳追一科技有限公司 意图识别方法、装置、计算机设备和存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115859989A (zh) * 2023-02-13 2023-03-28 神州医疗科技股份有限公司 基于远程监督的实体识别方法及系统
CN116069917A (zh) * 2023-03-01 2023-05-05 广州嘉为科技有限公司 一种智能回答方法、装置及存储介质
CN116303977B (zh) * 2023-05-17 2023-08-04 中国兵器工业计算机应用技术研究所 一种基于特征分类的问答方法及系统

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234106A (ja) * 2011-05-09 2012-11-29 Manabing Kk 問題自動作成装置および作成方法
CN108804521A (zh) * 2018-04-27 2018-11-13 南京柯基数据科技有限公司 一种基于知识图谱的问答方法及农业百科问答系统
CN110727779A (zh) * 2019-10-16 2020-01-24 信雅达系统工程股份有限公司 基于多模型融合的问答方法及系统
CN110781680A (zh) * 2019-10-17 2020-02-11 江南大学 基于孪生网络和多头注意力机制的语义相似度匹配方法
CN111581354A (zh) * 2020-05-12 2020-08-25 金蝶软件(中国)有限公司 一种faq问句相似度计算方法及其系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10831997B2 (en) * 2018-08-09 2020-11-10 CloudMinds Technology, Inc. Intent classification method and system
CN110134795A (zh) * 2019-04-17 2019-08-16 深圳壹账通智能科技有限公司 生成验证问题组的方法、装置、计算机设备和存储介质
CN111259647A (zh) * 2020-01-16 2020-06-09 泰康保险集团股份有限公司 基于人工智能的问答文本匹配方法、装置、介质及电子设备
CN112182180A (zh) * 2020-09-27 2021-01-05 京东方科技集团股份有限公司 问答处理的方法、电子设备、计算机可读介质

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012234106A (ja) * 2011-05-09 2012-11-29 Manabing Kk 問題自動作成装置および作成方法
CN108804521A (zh) * 2018-04-27 2018-11-13 南京柯基数据科技有限公司 一种基于知识图谱的问答方法及农业百科问答系统
CN110727779A (zh) * 2019-10-16 2020-01-24 信雅达系统工程股份有限公司 基于多模型融合的问答方法及系统
CN110781680A (zh) * 2019-10-17 2020-02-11 江南大学 基于孪生网络和多头注意力机制的语义相似度匹配方法
CN111581354A (zh) * 2020-05-12 2020-08-25 金蝶软件(中国)有限公司 一种faq问句相似度计算方法及其系统

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022062707A1 (zh) * 2020-09-27 2022-03-31 京东方科技集团股份有限公司 问答处理的方法、电子设备、计算机可读介质
CN112632232A (zh) * 2021-03-09 2021-04-09 北京世纪好未来教育科技有限公司 一种文本匹配方法、装置、设备及介质
CN112632232B (zh) * 2021-03-09 2022-03-15 北京世纪好未来教育科技有限公司 一种文本匹配方法、装置、设备及介质
CN113360623A (zh) * 2021-06-25 2021-09-07 达闼机器人有限公司 一种文本匹配方法、电子设备及可读存储介质
CN113342924A (zh) * 2021-07-05 2021-09-03 北京读我网络技术有限公司 答案检索方法及装置、存储介质及电子设备
CN113434657A (zh) * 2021-07-21 2021-09-24 广州华多网络科技有限公司 电商客服应答方法及其相应的装置、设备、介质
CN113609275A (zh) * 2021-08-24 2021-11-05 腾讯科技(深圳)有限公司 信息处理方法、装置、设备及存储介质
CN113609275B (zh) * 2021-08-24 2024-03-26 腾讯科技(深圳)有限公司 信息处理方法、装置、设备及存储介质
CN114490996A (zh) * 2022-04-19 2022-05-13 深圳追一科技有限公司 意图识别方法、装置、计算机设备和存储介质
CN114490996B (zh) * 2022-04-19 2023-02-28 深圳追一科技有限公司 意图识别方法、装置、计算机设备和存储介质

Also Published As

Publication number Publication date
US20230039496A1 (en) 2023-02-09
WO2022062707A1 (zh) 2022-03-31

Similar Documents

Publication Publication Date Title
CN112182180A (zh) 问答处理的方法、电子设备、计算机可读介质
CN111078837B (zh) 智能问答信息处理方法、电子设备及计算机可读存储介质
CN111274371B (zh) 一种基于知识图谱的智能人机对话方法及设备
WO2021190662A1 (zh) 医学文献排序方法、装置、电子设备及存储介质
CN112632258A (zh) 文本数据处理方法、装置、计算机设备和存储介质
CN110795942B (zh) 基于语义识别的关键词确定方法、装置和存储介质
CN116662518A (zh) 问答方法、装置、电子设备及可读存储介质
CN113486670B (zh) 基于目标语义的文本分类方法、装置、设备及存储介质
CN114282513A (zh) 文本语义相似度的匹配方法、系统、智能终端及存储介质
CN114492429A (zh) 文本主题的生成方法、装置、设备及存储介质
CN113761151A (zh) 同义词挖掘、问答方法、装置、计算机设备和存储介质
US11854537B2 (en) Systems and methods for parsing and correlating solicitation video content
WO2023177723A1 (en) Apparatuses and methods for querying and transcribing video resumes
CN113688243B (zh) 语句中实体的标注方法、装置、设备以及存储介质
CN114254622A (zh) 一种意图识别方法和装置
CN115203372A (zh) 文本意图分类方法、装置、计算机设备及存储介质
CN112364666B (zh) 文本表征方法、装置及计算机设备
CN114398482A (zh) 一种词典构造方法、装置、电子设备及存储介质
CN114969341A (zh) 一种针对餐饮行业评论的细粒度情感分析方法及装置
CN114116971A (zh) 用于生成相似文本的模型训练方法、装置及计算机设备
CN112579774A (zh) 模型训练方法、模型训练装置及终端设备
CN114595324A (zh) 电网业务数据分域的方法、装置、终端和非暂时性存储介质
CN113673237A (zh) 模型训练、意图识别方法、装置、电子设备及存储介质
CN113051886A (zh) 一种试题查重方法、装置、存储介质及设备
CN114626378A (zh) 命名实体识别方法、装置、电子设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination