CN111767366A - 问答资源挖掘方法、装置、计算机设备及存储介质 - Google Patents
问答资源挖掘方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN111767366A CN111767366A CN201910257005.5A CN201910257005A CN111767366A CN 111767366 A CN111767366 A CN 111767366A CN 201910257005 A CN201910257005 A CN 201910257005A CN 111767366 A CN111767366 A CN 111767366A
- Authority
- CN
- China
- Prior art keywords
- question
- answer
- candidate
- pairs
- pair
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本申请提出一种问答资源挖掘方法、装置、计算机设备及存储介质,其中,方法包括:获取待处理的多个会话语料;将每个会话语料输入至预先训练的问题识别模型,以获取每个会话语料中包含的多个候选问题;从与每个候选问题对应的会话语料中,获取与候选问题对应的至少一个候选答案,组成多个候选问答对;将多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据置信度从多个候选问答对中筛选出目标问答对。通过本方法,能够实现问答资源的自动挖掘,节省人力成本,降低时耗,提高问答资源挖掘的准确率和召回率,解决现有技术中人工挖掘问答对耗时长、根据语气词识别出问题再确定问答对的准确率和召回率低的技术问题。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种问答资源挖掘方法、装置、计算机设备及存储介质。
背景技术
自动问答系统综合运用知识表示、信息检索、自然语言处理等技术,能够根据接收的用户以自然语言形式输入的问题,返回简洁而准确的答案。自动问答系统相比于传统的搜索引擎,具有更方便、更准确的优点,是当前自然语言处理及人工智能领域的研究热点。
自动问答系统的实现需要问答库的支撑,自动问答系统中需要预先设置问答库,从问答库中获取与用户输入的问题匹配的答案。
目前,问答库的构建方式主要有两种,一是通过人工挖掘的方式从海量的互联网数据中提取出问题和对应的答案构建问答库,这种方式需要耗费大量的人力且耗时较长;另一种是通过识别句子中包含的语气词来判断该句子是否为问句进行问题识别,再获取与问题对应的答案构建问答库,这种方式仅能识别疑问句,对于非疑问句表达的问题无法识别,从而导致问答对挖掘的准确率和召回率较低。
发明内容
本申请旨在至少在一定程度上解决相关技术中的技术问题之一。
为此,本申请提出一种问答资源挖掘方法、装置、计算机设备及存储介质,用于解决现有技术中人工挖掘问答对耗时长、根据语气词识别出问题再确定问答对的准确率和召回率低的技术问题。
为达上述目的,本申请第一方面实施例提出了一种问答资源挖掘方法,包括:
获取待处理的多个会话语料;
将每个会话语料输入至预先训练的问题识别模型,以获取所述每个会话语料中包含的多个候选问题;
从与每个候选问题对应的会话语料中,获取与所述候选问题对应的至少一个候选答案,组成多个候选问答对;
将所述多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据所述置信度从所述多个候选问答对中筛选出目标问答对。
本申请实施例的问答资源挖掘方法,通过获取待处理的多个会话语料,将每个会话语料输入至预先训练的问题识别模型以获取每个会话语料中包含的多个候选问题,从与每个候选问题对应的会话语料中,获取与候选问题对应的至少一个候选答案,组成多个候选问答对,进而将多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据置信度从多个候选问答对中筛选出目标问答对。由此,实现了问答资源的自动挖掘,整个过程无需人工参与,节省了人力成本,提高了问答资源的挖掘速度和效率,降低了时耗,通过预先训练的问题识别模型来识别出问题,而不依赖于句子包含的语气词来确定问题,有利于提高问题识别的准确率和召回率,进而提高问答资源挖掘的准确率和召回率,为实现精准的自动问答提供了条件。
为达上述目的,本申请第二方面实施例提出了一种问答资源挖掘装置,包括:
获取模块,用于获取待处理的多个会话语料;
识别模块,用于将每个会话语料输入至预先训练的问题识别模型,以获取所述每个会话语料中包含的多个候选问题;
候选答案获取模块,用于从与每个候选问题对应的会话语料中,获取与所述候选问题对应的至少一个候选答案,组成多个候选问答对;
筛选模块,用于将所述多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据所述置信度从所述多个候选问答对中筛选出目标问答对。
本申请实施例的问答资源挖掘装置,通过获取待处理的多个会话语料,将每个会话语料输入至预先训练的问题识别模型以获取每个会话语料中包含的多个候选问题,从与每个候选问题对应的会话语料中,获取与候选问题对应的至少一个候选答案,组成多个候选问答对,进而将多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据置信度从多个候选问答对中筛选出目标问答对。由此,实现了问答资源的自动挖掘,整个过程无需人工参与,节省了人力成本,提高了问答资源的挖掘速度和效率,降低了时耗,通过预先训练的问题识别模型来识别出问题,而不依赖于句子包含的语气词来确定问题,有利于提高问题识别的准确率和召回率,进而提高问答资源挖掘的准确率和召回率,为实现精准的自动问答提供了条件。
为达上述目的,本申请第三方面实施例提出了一种计算机设备,包括:处理器和存储器;其中,所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于实现如第一方面实施例所述的问答资源挖掘方法。
为达上述目的,本申请第四方面实施例提出了一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如第一方面实施例所述的问答资源挖掘方法。
为达上述目的,本申请第五方面实施例提出了一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,实现如第一方面实施例所述的问答资源挖掘方法。
本申请附加的方面和优点将在下面的描述中部分给出,部分将从下面的描述中变得明显,或通过本申请的实践了解到。
附图说明
本申请上述的和/或附加的方面和优点从下面结合附图对实施例的描述中将变得明显和容易理解,其中:
图1为本申请一实施例提出的问答资源挖掘方法的流程示意图;
图2为会话语料示例图;
图3为本申请另一实施例提出的问答资源挖掘方法的流程示意图;
图4为本申请一实施例提出的问答资源挖掘装置的结构示意图;
图5为本申请另一实施例提出的问答资源挖掘装置的结构示意图;
图6为本申请又一实施例提出的问答资源挖掘装置的结构示意图;
图7为本申请再一实施例提出的问答资源挖掘装置的结构示意图;以及
图8为本申请实施例所提供的计算机设备的结构示意图。
具体实施方式
下面详细描述本申请的实施例,所述实施例的示例在附图中示出,其中自始至终相同或类似的标号表示相同或类似的元件或具有相同或类似功能的元件。下面通过参考附图描述的实施例是示例性的,旨在用于解释本申请,而不能理解为对本申请的限制。
下面参考附图描述本申请实施例的问答资源挖掘方法、装置、计算机设备及存储介质。
图1为本申请一实施例提出的问答资源挖掘方法的流程示意图。
如图1所示,该问答资源挖掘方法可以包括以下步骤:
步骤101,获取待处理的多个会话语料。
在我们的日常生活中,经常会遇到通过互联网寻找问题答案的情况。比如,用户想要知道植物奶油与动物奶油的区别时,可以去百度知道中进行提问,其他用户对该问题进行回答,则该用户提出的问题与其他用户的回答即可构成一个会话语料。又比如,用户从电商平台购买物品时,在购买之前通常会询问客服一些问题,以了解物品的信息,则用户与客服的聊天记录可以构成一个会话语料。从而,本实施例中,可以从互联网上收集海量的互联网数据来获取待处理的多个会话语料。其中,会话语料可以是聊天记录、答记者问文稿、问答网站上的问答数据等。
步骤102,将每个会话语料输入至预先训练的问题识别模型,以获取每个会话语料中包含的多个候选问题。
本实施例中,获取了待处理的会话语料后,可以将每个会话语料输入至预先训练的问题识别模型中,利用问题识别模型从会话语料中识别出包含的多个候选问题。
在从会话语料中识别候选问题之前,需要先构建并训练出问题识别模型。在本申请实施例一种可能的实现方式中,可以预先获取大量的训练会话语料,并对训练会话语料中的问题进行标注,以标注出每个训练会话语料中包含的问题。其中,对训练会话语料中的问题进行标注时,可以采用“0”和“1”进行标注,比如,“0”表示所标注的句子不是问题,“1”表示所标注的句子是问题。完成对训练会话语料的问题标注后,即可将标注后的训练会话语料作为训练样本,对卷积神经网络(Convolutional Neural Network,CNN)模型进行训练,生成问题识别模型。在训练过程中,根据CNN模型的输出结果不断调整模型的参数,当预先设置的损失函数收敛,或者模型的识别结果的准确率达到预期时,训练完成,得到问题识别模型。
通过利用问题标注后的训练样本对模型进行训练得到问题识别模型,以用户识别会话语料中的问题,使得在问题识别时不依赖于句子包含的语气词,不仅可以识别出疑问句的问题,还可以识别出非疑问句的问题,提高了问题识别的准确率和召回率。
进而,利用问题识别模型对待处理的会话语料进行识别,可以识别出会话语料中包含的候选问题。
步骤103,从与每个候选问题对应的会话语料中,获取与候选问题对应的至少一个候选答案,组成多个候选问答对。
本实施例中,识别出每个会话语料中的候选问题之后,可以基于预设的规则从同一会话语料中获取与候选问题对应的至少一个候选答案,组成多个候选问答对。
作为一种示例,可以将会话语料中的所有回答作为一个候选问题的候选答案,构成候选问答对。例如,对于如图2所示的会话语料,利用问题识别模型可以识别出该会话语料中包含的候选问题有三个,分别为Q1、Q2和Q3。对于候选问题Q1,从该会话语料中确定Q1对应的候选答案分别为A1、A2和A3,根据候选问题Q1和对应的候选答案,可以构成三个候选问答对,分别为<Q1,A1>、<Q1,A2>和<Q1,A3>;对于候选问题Q2,从该会话语料中确定Q2对应的候选答案分别为A1、A2和A3,根据候选问题Q2和对应的候选答案,可以构成三个候选问答对,分别为<Q2,A1>、<Q2,A2>和<Q2,A3>;对于候选问题Q3,从该会话语料中确定Q3对应的候选答案分别为A1、A2和A3,根据候选问题Q3和对应的候选答案,可以构成三个候选问答对,分别为<Q3,A1>、<Q3,A2>和<Q3,A3>。
作为一种示例,可以将候选问题后出现的回答确定为该候选问题对应的候选答案。例如,在图2所示的会话语料中,利用问题识别模型识别出候选问题Q1、Q2和Q3后,对于Q1,从该会话语料中确定Q1对应的候选答案分别为A1、A2和A3,根据候选问题Q1和对应的候选答案,可以构成三个候选问答对,分别为<Q1,A1>、<Q1,A2>和<Q1,A3>;对于Q2,从该会话语料中确定Q2对应的候选答案分别为A1、A2和A3,根据候选问题Q2和对应的候选答案,可以构成三个候选问答对,分别为<Q2,A1>、<Q2,A2>和<Q2,A3>;对于Q3,从该会话语料中确定Q3对应的候选答案为A3,可构成候选问答对<Q3,A3>。
步骤104,将多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据置信度从多个候选问答对中筛选出目标问答对。
本实施例中,挖掘出多个候选问答对之后,可以利用预先训练好的答案匹配模型,获取每个候选问答对的置信度,根据置信度从多个候选问答对中筛选出目标问答对。
利用答案匹配模型从候选问答对中筛选出目标问答对之前,需要先训练得到答案匹配模型。在本申请实施例一种可能的实现方式中,可以从用于训练问题识别模型的训练会话语料中,标注出正样本和负样本,其中,正样本为训练会话语料中答案与问题匹配的问答对,负样本为训练会话语料中答案与问题不匹配的问答对。例如,假设图2所示的会话语料为一个训练会话语料,则在进行正负样本标注时,将<Q1,A1>标注为正样本,将<Q1,A2>和<Q1,A3>标注为负样本。接着,利用标注后的正样本和负样本对卷积神经网络模型进行训练,生成答案匹配模型。在训练过程中,根据卷积神经网络模型的输出结果不断调整模型的参数,当预先设置的损失函数收敛,或者模型输出的答案匹配结果的准确率达到预期时,训练完成,得到答案匹配模型。
在本申请实施例一种可能的实现方式中,可以结合注意力机制和卷积神经网络训练得到答案匹配模型,在计算问答对中的答案与问题之间的置信度(即匹配度)时,将问题和答案分别表示成m*k的问题矩阵和n*k的答案矩阵,其中,m表示问题中包含的分词的个数,n表示答案中包含的分词的个数,k表示每个分词对应的词向量的维度。采用注意力机制对问题和答案的信息进行交互,具体地,对于问题矩阵中的某个词向量,计算该词向量与答案矩阵中每个词向量的余弦相似度作为该词向量相对于答案中每个分词的权重,再利用公式(1)对各个权重进行归一化,利用归一化后的各个权重与答案矩阵中对应的词向量进行加权求和,得到该词向量基于答案的词向量表达。
其中,i表示第i个分词,n表示矩阵中包含的词向量的个数,vi表示相对于第i个分词对应的权重,wi表示归一化处理后相对于第i个分词的权重。
比如,问题矩阵为答案矩阵为对于Q中的第一个词向量q1,分别计算q1与A中的各个词向量的余弦相似度,得到对应的权重v1、v2、v3和v4,再利用公式(1)进行归一化,得到归一化后的权重w1、w2、w3和w4,进而通过加权求和,得到q1基于A的词向量表达为q1’=w1*a1+w2*a2+w3*a3+w4*a4。词向量q2和q3基于A的词向量表达可以采用类似的方式得到。同理,答案矩阵A中各个词向量基于Q的表达也能够采用类似的方式得到,本申请不再一一描述。
之后,利用基于A表达的Q的矩阵Q’和基于Q表达的A的矩阵A’,计算Q’与A’之间的置信度并输出。
结合注意力机制进行模型训练得到答案匹配模型,有利于从大量信息中筛选出有用的内容,从而提高答案匹配模型的效率和准确率。
需要说明的是,神经网络模型也可以采用循环神经网络模型、长短期记忆模型等,本申请仅以卷积神经网络模型作为示例,不能作为对本申请的限制。
本实施例中,训练得到答案匹配模型之后,即可利用答案匹配模型对多个候选问答对中,候选问题与候选答案之间的置信度进行计算,进而根据答案匹配模型输出的置信度结果,从多个候选问答对中筛选出目标问答对。例如,对于同一候选问题对应的多个候选问答对,可以将置信度最高的候选问答对确定为目标问答对。又例如,可以将置信度达到预设阈值的候选问答对确定为目标问答对;进一步地,若同一候选问题对应的多个候选问答对中,置信度达到预设阈值的候选问答度不止一个,则可以从中选择置信度最高的作为目标问答对;进一步地,若置信度最高的候选问答度不止一个,则可以从中任意选择一个作为目标问答对。
本实施例的问答资源挖掘方法,通过获取待处理的多个会话语料,将每个会话语料输入至预先训练的问题识别模型以获取每个会话语料中包含的多个候选问题,从与每个候选问题对应的会话语料中,获取与候选问题对应的至少一个候选答案,组成多个候选问答对,进而将多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据置信度从多个候选问答对中筛选出目标问答对。由此,实现了问答资源的自动挖掘,整个过程无需人工参与,节省了人力成本,提高了问答资源的挖掘速度和效率,降低了时耗,通过预先训练的问题识别模型来识别出问题,而不依赖于句子包含的语气词来确定问题,有利于提高问题识别的准确率和召回率,进而提高问答资源挖掘的准确率和召回率,为实现精准的自动问答提供了条件。
为了确保挖掘的问答资源的全面性,通常获取海量的对话数据作为会话语料用于问答对的挖掘,由于数据量大,难免存在比较相似或相同的会话语料,进而导致挖掘出的问答对中存在相同或相似的问答对,使得挖掘出的问答对重复。针对这种情况,可以在挖掘出目标问答对之后,进一步对目标问答对进行筛选或过滤,以滤除目标问答对中相同或相似的问答对,降低用于构建问答库的问答对的数量,进而降低后续自动问答系统从问答库中获取与用户输入的问题匹配的答案时的运算量。
在本申请实施例一种可能的实现方式中,可以采用聚类的方式对目标问答对进行筛选,下面结合附图3进行详细说明。图3为本申请另一实施例提出的问答资源挖掘方法的流程示意图。
如图3所示,在如图1所示实施例的基础上,在步骤104之后,还包括以下步骤:
步骤201,对目标问答对进行聚类,生成问答对簇。
本实施例中,确定目标问答对之后,可以采用相关的聚类算法对目标问答对进行聚类,将多个目标问答对划分为多个问答对簇。
作为一种示例,可以采用密度聚类算法对目标问答对进行聚类。聚类过程描述如下:对于每个目标问答对,对该目标问答对中问题和答案中的各分词对应的词向量进行求和,得到该目标问答对的句子向量,利用每个目标问答对的句子向量构建成一棵索引树。对于索引树中的每个节点,计算该节点与其周围预设个数节点(比如100个节点,该数值可以根据目标问答对的数量大小进行调整)的平均距离,将该平均距离确定为该节点的密度,其中,距离越小,表明密度越大。计算得到每个节点的密度之后,案子密度从大到小的顺序,先计算密度第二大的节点与密度最大的节点之间的距离,是否小于预设的半径(半径为密度聚类算法的参数),若是,则将密度第二大的节点划分至密度最大的节点所在的问答簇中,若否,则利用密度第二大的节点建立一个问答对簇;继续计算密度第三大的节点分别与密度最大的节点和密度第二大的节点之间的距离,若计算得到的较小的距离大于或等于预设的半径,则利用密度第三大的节点建立一个问答对簇,以此类推,直至完成对密度最小的节点的聚类之后,聚类完成,得到多个问答对簇。
在本申请实施例一种可能的实现方式中,对目标问答对进行聚类生成问答对簇时,可以先基于密度聚类对目标问答对中的问题进行聚类,生成问题簇。具体地,对于每个目标问答对,先将问题中各分词对应的词向量进行求和,得到该问题的问题向量,利用每个问题向量构建索引树,再采用前述密度聚类方式进行聚类,生成多个问题簇。接着,在每个问题簇中,对该问题簇中的目标问答对进行子聚类,生成问答对簇。具体地,进行子聚类时,调整密度聚类算法的半径小于对问题进行聚类生成问题簇时设置的半径,对于问题簇中的每个目标问答对,对该目标问答对中问题和答案中的各分词对应的词向量进行求和,得到该目标问答对的问答对向量,利用每个目标问答对的问答对向量构建成一棵索引树,再采用前述相同的密度聚类方式进行聚类,得到多个问答对簇。
通过先基于密度聚类对目标问答对中的问题进行聚类生成问题簇,再对问题簇中的的目标问答对进行子聚类生成问答对簇,实现了更细粒度的聚类。步骤202,将每个问答对簇的簇心对应的目标问答对,确定为标准问答对。
本实施例中,对目标问答对进行聚类得到问答对簇之后,可以将每个问答对簇的簇心对应的目标问答对,确定为标准问答对。
作为一种示例,可以在进行聚类时确定问答对簇的簇心。比如,在进行聚类时,密度最大的节点和密度第二大的节点聚在同一个簇中,密度第三大的节点在另一个问答对簇中,则可以将密度最大的节点和密度第三大的节点作为对应簇的簇心,将密度最大的节点和密度第三大的节点分别对应的目标问答对确定为标准问答对。
作为一种示例,可以重新计算每个问答对簇中各节点的密度,将密度最大的节点确定为该问答对簇的簇心,并将该密度最大的节点对应的目标问答对确定为标准问答对。
在本申请实施例一种可能的实现方式中,在确定标准问答对之前,还可以对问答对簇进行过滤,将包含目标问答对的个数小于预设值的问答对簇滤除,仅保留包含至少预设值个数的目标问答对的问答对簇,以使确定的标准问答对更准确,提高标准问答对的可信度。
本实施例的问答资源挖掘方法,通过在确定目标问答对之后,对目标问答对进行聚类,生成问答对簇,进而将每个问答对簇的簇心对应的目标问答对确定为标准问答对,由此,能够滤除目标问答对中相同或相似的问答对,以及滤除发散性的问答对,提高了问答对的准确率,还降低了用于构建问答库的问答对的数量,有利于降低后续自动问答系统从问答库中获取与用户输入的问题匹配的答案时的运算量。
为了实现上述实施例,本申请还提出一种问答资源挖掘装置。
图4为本申请一实施例提出的问答资源挖掘装置的结构示意图。
如图4所示,该问答资源挖掘装置50包括:获取模块510、识别模块520、候选答案获取模块530,以及筛选模块540。其中,
获取模块510,用于获取待处理的多个会话语料。
识别模块520,用于将每个会话语料输入至预先训练的问题识别模型,以获取每个会话语料中包含的多个候选问题。
候选答案获取模块530,用于从与每个候选问题对应的会话语料中,获取与候选问题对应的至少一个候选答案,组成多个候选问答对。
筛选模块540,用于将多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据置信度从多个候选问答对中筛选出目标问答对。
为了利用本申请的问答资源挖掘装置自动挖掘出问答资源,需要先训练得到问题识别模型和答案匹配模型,从而,在本申请实施例一种可能的实现方式中,如图5所示,在如图4所示实施例的基础上,该问答资源挖掘装置50还包括:
第一训练模块500,用于对获取的训练会话语料进行标注,以标注出训练会话语料中的问题;将标注后的训练会话语料作为训练样本,对卷积神经网络模型进行训练,生成问题识别模型。
第二训练模块501,用于从训练会话语料中标注出正样本和负样本,其中,正样本为训练会话语料中答案与问题匹配的问答对,负样本为训练会话语料中答案与问题不匹配的问答对;利用正样本和负样本对卷积神经网络模型进行训练,生成答案匹配模型。
在本申请实施例一种可能的实现方式中,如图6所示,在如图4所示实施例的基础上,该问答资源挖掘装置50还包括:
聚类模块550,用于对目标问答对进行聚类,生成问答对簇。
在本申请实施例一种可能的实现方式中,聚类模块550具体用于基于密度聚类对目标问答对中的问题进行聚类,生成问题簇;对问题簇中的目标问答对进行子聚类,生成问答对簇。
确定模块560,用于将每个问答对簇的簇心对应的目标问答对,确定为标准问答对。
进一步地,在本申请实施例一种可能的实现方式中,如图7所示,在如图6所示实施例的基础上,该问答资源挖掘装置50还包括:
过滤模块502,用于将包含目标问答对的个数小于预设值的问答对簇滤除。
需要说明的是,前述对问答资源挖掘方法实施例的解释说明也适用于该实施例的问答资源挖掘装置,其实现原理类似,此处不再赘述。
本申请实施例的问答资源挖掘装置,通过获取待处理的多个会话语料,将每个会话语料输入至预先训练的问题识别模型以获取每个会话语料中包含的多个候选问题,从与每个候选问题对应的会话语料中,获取与候选问题对应的至少一个候选答案,组成多个候选问答对,进而将多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据置信度从多个候选问答对中筛选出目标问答对。由此,实现了问答资源的自动挖掘,整个过程无需人工参与,节省了人力成本,提高了问答资源的挖掘速度和效率,降低了时耗,通过预先训练的问题识别模型来识别出问题,而不依赖于句子包含的语气词来确定问题,有利于提高问题识别的准确率和召回率,进而提高问答资源挖掘的准确率和召回率,为实现精准的自动问答提供了条件。
为了实现上述实施例,本申请还提出一种计算机设备,包括:处理器和存储器。其中,处理器通过读取存储器中存储的可执行程序代码来运行与可执行程序代码对应的程序,以用于实现如前述实施例所述的问答资源挖掘方法。
图8为本申请实施例所提供的计算机设备的结构示意图,示出了适于用来实现本申请实施方式的示例性计算机设备90的框图。图8显示的计算机设备90仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图8所示,计算机设备90以通用计算机设备的形式表现。计算机设备90的组件可以包括但不限于:一个或者多个处理器或者处理单元906,系统存储器910,连接不同系统组件(包括系统存储器910和处理单元906)的总线908。
总线908表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(Industry StandardArchitecture;以下简称:ISA)总线,微通道体系结构(Micro Channel Architecture;以下简称:MAC)总线,增强型ISA总线、视频电子标准协会(Video Electronics StandardsAssociation;以下简称:VESA)局域总线以及外围组件互连(Peripheral ComponentInterconnection;以下简称:PCI)总线。
计算机设备90典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备90访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器910可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(Random Access Memory;以下简称:RAM)911和/或高速缓存存储器912。计算机设备90可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统913可以用于读写不可移动的、非易失性磁介质(图8未显示,通常称为“硬盘驱动器”)。尽管图8中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如:光盘只读存储器(Compact Disc ReadOnly Memory;以下简称:CD-ROM)、数字多功能只读光盘(Digital Video Disc Read OnlyMemory;以下简称:DVD-ROM)或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线908相连。系统存储器910可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本申请各实施例的功能。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。
具有一组(至少一个)程序模块9140的程序/实用工具914,可以存储在例如系统存储器910中,这样的程序模块9140包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块9140通常执行本申请所描述的实施例中的功能和/或方法。
计算机设备90也可以与一个或多个外部设备10(例如键盘、指向设备、显示器100等)通信,还可与一个或者多个使得用户能与该终端设备90交互的设备通信,和/或与使得该计算机设备90能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口902进行。并且,计算机设备90还可以通过网络适配器900与一个或者多个网络(例如局域网(Local Area Network;以下简称:LAN),广域网(Wide Area Network;以下简称:WAN)和/或公共网络,例如因特网)通信。如图8所示,网络适配器900通过总线908与计算机设备90的其它模块通信。应当明白,尽管图8中未示出,可以结合计算机设备90使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元906通过运行存储在系统存储器910中的程序,从而执行各种功能应用以及数据处理,例如实现前述实施例中提及的问答资源挖掘方法。
为了实现上述实施例,本申请还提出一种非临时性计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时,实现如前述实施例所述的问答资源挖掘方法。
为了实现上述实施例,本申请还提出一种计算机程序产品,当所述计算机程序产品中的指令由处理器执行时,实现如前述实施例所述的问答资源挖掘方法。
在本说明书的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本申请的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本申请的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本申请的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本申请的实施例所属技术领域的技术人员所理解。
在流程图中表示或在此以其他方式描述的逻辑和/或步骤,例如,可以被认为是用于实现逻辑功能的可执行指令的定序列表,可以具体实现在任何计算机可读介质中,以供指令执行系统、装置或设备(如基于计算机的系统、包括处理器的系统或其他可以从指令执行系统、装置或设备取指令并执行指令的系统)使用,或结合这些指令执行系统、装置或设备而使用。就本说明书而言,“计算机可读介质”可以是任何可以包含、存储、通信、传播或传输程序以供指令执行系统、装置或设备或结合这些指令执行系统、装置或设备而使用的装置。计算机可读介质的更具体的示例(非穷尽性列表)包括以下:具有一个或多个布线的电连接部(电子装置),便携式计算机盘盒(磁装置),随机存取存储器(RAM),只读存储器(ROM),可擦除可编辑只读存储器(EPROM或闪速存储器),光纤装置,以及便携式光盘只读存储器(CDROM)。另外,计算机可读介质甚至可以是可在其上打印所述程序的纸或其他合适的介质,因为可以例如通过对纸或其他介质进行光学扫描,接着进行编辑、解译或必要时以其他合适方式进行处理来以电子方式获得所述程序,然后将其存储在计算机存储器中。
应当理解,本申请的各部分可以用硬件、软件、固件或它们的组合来实现。在上述实施方式中,多个步骤或方法可以用存储在存储器中且由合适的指令执行系统执行的软件或固件来实现。如,如果用硬件来实现和在另一实施方式中一样,可用本领域公知的下列技术中的任一项或他们的组合来实现:具有用于对数据信号实现逻辑功能的逻辑门电路的离散逻辑电路,具有合适的组合逻辑门电路的专用集成电路,可编程门阵列(PGA),现场可编程门阵列(FPGA)等。
本技术领域的普通技术人员可以理解实现上述实施例方法携带的全部或部分步骤是可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,该程序在执行时,包括方法实施例的步骤之一或其组合。
此外,在本申请各个实施例中的各功能单元可以集成在一个处理模块中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,也可以存储在一个计算机可读取存储介质中。
上述提到的存储介质可以是只读存储器,磁盘或光盘等。尽管上面已经示出和描述了本申请的实施例,可以理解的是,上述实施例是示例性的,不能理解为对本申请的限制,本领域的普通技术人员在本申请的范围内可以对上述实施例进行变化、修改、替换和变型。
Claims (10)
1.一种问答资源挖掘方法,其特征在于,包括:
获取待处理的多个会话语料;
将每个会话语料输入至预先训练的问题识别模型,以获取所述每个会话语料中包含的多个候选问题;
从与每个候选问题对应的会话语料中,获取与所述候选问题对应的至少一个候选答案,组成多个候选问答对;
将所述多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据所述置信度从所述多个候选问答对中筛选出目标问答对。
2.如权利要求1所述的方法,其特征在于,在所述从所述多个候选问答对中筛选出目标问答对之后,还包括:
对所述目标问答对进行聚类,生成问答对簇;
将每个问答对簇的簇心对应的目标问答对,确定为标准问答对。
3.如权利要求2所述的方法,其特征在于,所述对所述目标问答对进行聚类,生成问答对簇,包括:
基于密度聚类对所述目标问答对中的问题进行聚类,生成问题簇;
对所述问题簇中的目标问答对进行子聚类,生成所述问答对簇。
4.如权利要求2所述的方法,其特征在于,在所述将每个问答对簇的簇心对应的目标问答对,确定为标准问答对之前,还包括:
将包含目标问答对的个数小于预设值的问答对簇滤除。
5.如权利要求1所述的方法,其特征在于,在所述将每个会话语料输入至预先训练的问题识别模型之前,还包括:
对获取的训练会话语料进行标注,以标注出所述训练会话语料中的问题;
将标注后的所述训练会话语料作为训练样本,对卷积神经网络模型进行训练,生成所述问题识别模型。
6.如权利要求5所述的方法,其特征在于,在所述将所述多个候选问答对输入预先训练的分类模型之前,还包括:
从所述训练会话语料中标注出正样本和负样本,其中,所述正样本为所述训练会话语料中答案与问题匹配的问答对,所述负样本为所述训练会话语料中答案与问题不匹配的问答对;
利用所述正样本和所述负样本对所述卷积神经网络模型进行训练,生成所述答案匹配模型。
7.一种问答资源挖掘装置,其特征在于,包括:
获取模块,用于获取待处理的多个会话语料;
识别模块,用于将每个会话语料输入至预先训练的问题识别模型,以获取所述每个会话语料中包含的多个候选问题;
候选答案获取模块,用于从与每个候选问题对应的会话语料中,获取与所述候选问题对应的至少一个候选答案,组成多个候选问答对;
筛选模块,用于将所述多个候选问答对输入预先训练的答案匹配模型以获取每个候选问答对的置信度,并根据所述置信度从所述多个候选问答对中筛选出目标问答对。
8.如权利要求7所述的问答资源挖掘装置,其特征在于,还包括:
聚类模块,用于对所述目标问答对进行聚类,生成问答对簇;
确定模块,用于将每个问答对簇的簇心对应的目标问答对,确定为标准问答对。
9.一种计算机设备,其特征在于,包括处理器和存储器;
其中,所述处理器通过读取所述存储器中存储的可执行程序代码来运行与所述可执行程序代码对应的程序,以用于实现如权利要求1-6中任一项所述的问答资源挖掘方法。
10.一种非临时性计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-6中任一项所述的问答资源挖掘方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910257005.5A CN111767366B (zh) | 2019-04-01 | 2019-04-01 | 问答资源挖掘方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910257005.5A CN111767366B (zh) | 2019-04-01 | 2019-04-01 | 问答资源挖掘方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111767366A true CN111767366A (zh) | 2020-10-13 |
CN111767366B CN111767366B (zh) | 2023-07-14 |
Family
ID=72718143
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910257005.5A Active CN111767366B (zh) | 2019-04-01 | 2019-04-01 | 问答资源挖掘方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111767366B (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112231456A (zh) * | 2020-10-15 | 2021-01-15 | 泰康保险集团股份有限公司 | 问题生成方法、装置、存储介质和的电子设备 |
CN112397197A (zh) * | 2020-11-16 | 2021-02-23 | 康键信息技术(深圳)有限公司 | 基于人工智能的问诊数据处理方法及装置 |
CN112417121A (zh) * | 2020-11-20 | 2021-02-26 | 平安普惠企业管理有限公司 | 客户意图识别方法、装置、计算机设备及存储介质 |
CN112507103A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 任务型对话及模型训练方法、装置、设备和存储介质 |
CN113010679A (zh) * | 2021-03-18 | 2021-06-22 | 平安科技(深圳)有限公司 | 问答对生成方法、装置、设备及计算机可读存储介质 |
CN113010664A (zh) * | 2021-04-27 | 2021-06-22 | 数网金融有限公司 | 一种数据处理方法、装置及计算机设备 |
CN113239164A (zh) * | 2021-05-13 | 2021-08-10 | 杭州摸象大数据科技有限公司 | 多轮对话流程构建方法、装置、计算机设备及存储介质 |
CN113468176A (zh) * | 2021-06-30 | 2021-10-01 | 北京百度网讯科技有限公司 | 信息录入方法和装置、电子设备、计算机可读存储介质 |
CN115017284A (zh) * | 2022-06-01 | 2022-09-06 | 阿里巴巴(中国)有限公司 | 问答库构建方法、评分方法、电子设备和存储介质 |
CN117271751A (zh) * | 2023-11-16 | 2023-12-22 | 北京百悟科技有限公司 | 交互方法、装置、设备和存储介质 |
CN117556906A (zh) * | 2024-01-11 | 2024-02-13 | 卓世智星(天津)科技有限公司 | 问答数据集生成方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103377224A (zh) * | 2012-04-24 | 2013-10-30 | 北京百度网讯科技有限公司 | 识别问题类型的方法及装置、建立识别模型的方法及装置 |
CN103810218A (zh) * | 2012-11-14 | 2014-05-21 | 北京百度网讯科技有限公司 | 一种基于问题簇的自动问答方法和装置 |
CN109062973A (zh) * | 2018-06-29 | 2018-12-21 | 北京百度网讯科技有限公司 | 一种问答资源的挖掘方法、装置、服务器及存储介质 |
CN109388697A (zh) * | 2018-10-10 | 2019-02-26 | 成都小多科技有限公司 | 处理问答语料的方法、装置及电子终端 |
-
2019
- 2019-04-01 CN CN201910257005.5A patent/CN111767366B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103377224A (zh) * | 2012-04-24 | 2013-10-30 | 北京百度网讯科技有限公司 | 识别问题类型的方法及装置、建立识别模型的方法及装置 |
CN103810218A (zh) * | 2012-11-14 | 2014-05-21 | 北京百度网讯科技有限公司 | 一种基于问题簇的自动问答方法和装置 |
CN109062973A (zh) * | 2018-06-29 | 2018-12-21 | 北京百度网讯科技有限公司 | 一种问答资源的挖掘方法、装置、服务器及存储介质 |
CN109388697A (zh) * | 2018-10-10 | 2019-02-26 | 成都小多科技有限公司 | 处理问答语料的方法、装置及电子终端 |
Non-Patent Citations (1)
Title |
---|
侯永帅;张耀允;王晓龙;陈清财;王宇亮;户保田;: "中文问答系统中时间敏感问句的识别和检索", 计算机研究与发展, no. 12 * |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112231456B (zh) * | 2020-10-15 | 2024-02-23 | 泰康保险集团股份有限公司 | 问题生成方法、装置、存储介质和的电子设备 |
CN112231456A (zh) * | 2020-10-15 | 2021-01-15 | 泰康保险集团股份有限公司 | 问题生成方法、装置、存储介质和的电子设备 |
CN112397197A (zh) * | 2020-11-16 | 2021-02-23 | 康键信息技术(深圳)有限公司 | 基于人工智能的问诊数据处理方法及装置 |
CN112417121A (zh) * | 2020-11-20 | 2021-02-26 | 平安普惠企业管理有限公司 | 客户意图识别方法、装置、计算机设备及存储介质 |
CN112507103A (zh) * | 2020-12-18 | 2021-03-16 | 北京百度网讯科技有限公司 | 任务型对话及模型训练方法、装置、设备和存储介质 |
CN113010679A (zh) * | 2021-03-18 | 2021-06-22 | 平安科技(深圳)有限公司 | 问答对生成方法、装置、设备及计算机可读存储介质 |
CN113010664A (zh) * | 2021-04-27 | 2021-06-22 | 数网金融有限公司 | 一种数据处理方法、装置及计算机设备 |
CN113239164A (zh) * | 2021-05-13 | 2021-08-10 | 杭州摸象大数据科技有限公司 | 多轮对话流程构建方法、装置、计算机设备及存储介质 |
CN113239164B (zh) * | 2021-05-13 | 2023-07-04 | 杭州摸象大数据科技有限公司 | 多轮对话流程构建方法、装置、计算机设备及存储介质 |
CN113468176A (zh) * | 2021-06-30 | 2021-10-01 | 北京百度网讯科技有限公司 | 信息录入方法和装置、电子设备、计算机可读存储介质 |
CN113468176B (zh) * | 2021-06-30 | 2023-09-26 | 北京百度网讯科技有限公司 | 信息录入方法和装置、电子设备、计算机可读存储介质 |
CN115017284A (zh) * | 2022-06-01 | 2022-09-06 | 阿里巴巴(中国)有限公司 | 问答库构建方法、评分方法、电子设备和存储介质 |
CN117271751B (zh) * | 2023-11-16 | 2024-02-13 | 北京百悟科技有限公司 | 交互方法、装置、设备和存储介质 |
CN117271751A (zh) * | 2023-11-16 | 2023-12-22 | 北京百悟科技有限公司 | 交互方法、装置、设备和存储介质 |
CN117556906A (zh) * | 2024-01-11 | 2024-02-13 | 卓世智星(天津)科技有限公司 | 问答数据集生成方法、装置、电子设备及存储介质 |
CN117556906B (zh) * | 2024-01-11 | 2024-04-05 | 卓世智星(天津)科技有限公司 | 问答数据集生成方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111767366B (zh) | 2023-07-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111767366A (zh) | 问答资源挖掘方法、装置、计算机设备及存储介质 | |
CN111858859A (zh) | 自动问答处理方法、装置、计算机设备及存储介质 | |
CN110377911B (zh) | 对话框架下的意图识别方法和装置 | |
CN108597519B (zh) | 一种话单分类方法、装置、服务器和存储介质 | |
CN110795543B (zh) | 基于深度学习的非结构化数据抽取方法、装置及存储介质 | |
CN112015859A (zh) | 文本的知识层次抽取方法及装置、计算机设备及可读介质 | |
US10388177B2 (en) | Cluster analysis of participant responses for test generation or teaching | |
CN109086265B (zh) | 一种语义训练方法、短文本中多语义词消歧方法 | |
CN116824278B (zh) | 图像内容分析方法、装置、设备和介质 | |
CN112149754A (zh) | 一种信息的分类方法、装置、设备及存储介质 | |
CN109408175B (zh) | 通用高性能深度学习计算引擎中的实时交互方法及系统 | |
CN110826327A (zh) | 情感分析方法、装置、计算机可读介质及电子设备 | |
CN110991183A (zh) | 问题的谓词确定方法、装置、设备及存储介质 | |
CN113806500B (zh) | 信息处理方法、装置和计算机设备 | |
CN116402166B (zh) | 一种预测模型的训练方法、装置、电子设备及存储介质 | |
CN113033912A (zh) | 问题解决人推荐方法及装置 | |
CN113569018A (zh) | 问答对挖掘方法及装置 | |
WO2023280229A1 (zh) | 图像处理方法、电子设备及存储介质 | |
CN111753062A (zh) | 一种会话应答方案确定方法、装置、设备及介质 | |
CN111680148B (zh) | 针对用户问句进行智能应答的方法和装置 | |
CN114398482A (zh) | 一种词典构造方法、装置、电子设备及存储介质 | |
CN110059180B (zh) | 文章作者身份识别及评估模型训练方法、装置及存储介质 | |
CN114357152A (zh) | 信息处理方法、装置、计算机可读存储介质和计算机设备 | |
CN113377951A (zh) | 智能客服机器人的语料构建方法及装置 | |
CN113761152A (zh) | 一种问答模型的训练方法、装置、设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |