CN111966782A - 多轮对话的检索方法、装置、存储介质及电子设备 - Google Patents
多轮对话的检索方法、装置、存储介质及电子设备 Download PDFInfo
- Publication number
- CN111966782A CN111966782A CN202010605457.0A CN202010605457A CN111966782A CN 111966782 A CN111966782 A CN 111966782A CN 202010605457 A CN202010605457 A CN 202010605457A CN 111966782 A CN111966782 A CN 111966782A
- Authority
- CN
- China
- Prior art keywords
- information
- context
- candidate reply
- consistency
- reply
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 45
- 230000015654 memory Effects 0.000 claims description 19
- 230000002776 aggregation Effects 0.000 claims description 15
- 238000004220 aggregation Methods 0.000 claims description 15
- 238000012549 training Methods 0.000 claims description 13
- 230000004931 aggregating effect Effects 0.000 claims description 3
- 238000004364 calculation method Methods 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 10
- 238000013135 deep learning Methods 0.000 abstract description 9
- 238000013473 artificial intelligence Methods 0.000 abstract description 6
- 238000003058 natural language processing Methods 0.000 abstract description 6
- 238000010586 diagram Methods 0.000 description 13
- 239000011159 matrix material Substances 0.000 description 9
- 230000008569 process Effects 0.000 description 6
- 238000004891 communication Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 238000004590 computer program Methods 0.000 description 4
- 238000013145 classification model Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000006403 short-term memory Effects 0.000 description 2
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/245—Query processing
- G06F16/2453—Query optimisation
- G06F16/24534—Query rewriting; Transformation
- G06F16/24542—Plan optimisation
- G06F16/24545—Selectivity estimation or determination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/31—Indexing; Data structures therefor; Storage structures
- G06F16/313—Selection or weighting of terms for indexing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/3331—Query processing
- G06F16/334—Query execution
- G06F16/3344—Query execution using natural language analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/36—Creation of semantic tools, e.g. ontology or thesauri
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
- G06N3/0442—Recurrent networks, e.g. Hopfield networks characterised by memory or gating, e.g. long short-term memory [LSTM] or gated recurrent units [GRU]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/02—Knowledge representation; Symbolic representation
- G06N5/022—Knowledge engineering; Knowledge acquisition
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Operations Research (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Machine Translation (AREA)
Abstract
本申请公开了多轮对话的检索方法、装置、存储介质及电子设备,涉及人工智能、自然语言处理、深度学习技术领域。具体实现方案为:获取当前问题信息,并获取当前问题信息的上下文信息;获取当前问题信息的多个候选回复信息;根据上下文信息生成上下文特征,并根据多个候选回复信息生成多个候选回复特征;分别计算上下文特征与多个候选回复特征之间的一致性信息;根据上下文特征与多个候选回复特征之间的一致性信息从多个候选回复信息之中选择一个候选回复信息进行回复。能够有效提升回复信息与当前问题信息的匹配程度,提升多轮对话的对话效果,从而提升用户的对话体验度。
Description
技术领域
本申请涉及计算机技术领域,具体涉及人工智能、自然语言处理、深度学习技术领域,尤其涉及多轮对话的检索方法、装置、存储介质及电子设备。
背景技术
问答系统(Question Answering System,QA)是目前人工智能和自然语言处理技术领域中的一个倍受关注并具有广泛发展前景的研究方向,且当今各各大互联网公司都在争相研发问答机器人、智能客服等问答系统,特别是在医疗,教育等行业,智能的问答系统起着至关重要的作用。
发明内容
提供了一种多轮对话的检索方法、装置、存储介质及电子设备,能够有效提升回复信息与当前问题信息的匹配程度,提升多轮对话的对话效果,从而提升用户的对话体验度。
根据第一方面,提供了一种多轮对话的检索方法,包括:获取当前问题信息,并获取所述当前问题信息的上下文信息;获取所述当前问题信息的多个候选回复信息;根据所述上下文信息生成上下文特征,并根据所述多个候选回复信息生成多个候选回复特征;分别计算所述上下文特征与所述多个候选回复特征之间的一致性信息;根据所述上下文特征与所述多个候选回复特征之间的一致性信息从所述多个候选回复信息之中选择一个候选回复信息进行回复。
根据第二方面,提供了一种多轮对话的检索装置,包括:第一获取模块,用于获取当前问题信息,并获取所述当前问题信息的上下文信息;第二获取模块,用于获取所述当前问题信息的多个候选回复信息;生成模块,用于根据所述上下文信息生成上下文特征,并根据所述多个候选回复信息生成多个候选回复特征;计算模块,用于分别计算所述上下文特征与所述多个候选回复特征之间的一致性信息;回复模块,用于根据所述上下文特征与所述多个候选回复特征之间的一致性信息从所述多个候选回复信息之中选择一个候选回复信息进行回复。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与所述至少一个处理器通信连接的存储器;其中,所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行本申请实施例的多轮对话的检索方法。
根据第四方面,提出了一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行本申请实施例公开的多轮对话的检索方法。
根据本申请的技术能够提升多轮对话的对话效果。
应当理解,本部分所描述的内容并非旨在标识本申请的实施例的关键或重要特征,也不用于限制本申请的范围。本申请的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本申请的限定。其中:
图1是根据本申请第一实施例的示意图;
图2是根据本申请第二实施例的示意图;
图3为本申请实施例的应用效果示意图;
图4是根据本申请第三实施例的示意图;
图5为本申请实施例的建模场景示意图;
图6是根据本申请第四实施例的示意图;
图7是根据本申请第五实施例的示意图;
图8用来实现本申请实施例的多轮对话的检索方法的电子设备的框图。
具体实施方式
以下结合附图对本申请的示范性实施例做出说明,其中包括本申请实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本申请的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
图1是根据本申请第一实施例的示意图。其中,需要说明的是,本实施例的多轮对话的检索方法的执行主体为多轮对话的检索装置,该装置可以由软件和/或硬件的方式实现,该装置可以配置在电子设备中,电子设备可以包括但不限于终端、服务器端等。
本申请实施例涉及人工智能技术领域、自然语言处理技术领域、深度学习技术领域,其中,人工智能(Artificial Intelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。自然语言处理,能实现人与计算机之间用自然语言进行有效通信的各种理论和方法。深度学习是学习样本数据的内在规律和表示层次,这些学习过程中获得的信息对诸如文字,图像和声音等数据的解释有很大的帮助。深度学习的最终目标是让机器能够像人一样具有分析学习能力,能够识别文字、图像和声音等数据。
如图1所示,该多轮对话的检索方法包括:
S101:获取当前问题信息,并获取当前问题信息的上下文信息。
其中,用户当前输入的问题,可以被称为当前问题,当前问题信息可以例如为当前问题的内容,也即是说,在多轮对话过程中,可以识别用户输入的当前问题信息,并在获取当前问题信息的同时,获取当前问题信息的上下文信息,该上下文信息具体可以例如为,当前问题的上下文的文本内容等,对此不作限制。
假设多轮对话可以表示为U={u1,u2,…,un},则其中的un即可以被称为当前问题,而un包含的内容、特征等,则可以被称为当前问题信息,u1,u2,…,包含的内容、特征等,则可以被称为上下文信息。
S102:获取当前问题信息的多个候选回复信息。
上述在获取当前问题信息,并获取当前问题信息的上下文信息后,可以从对话知识库内获取当前问题信息的多个候选回复信息,其中的对话知识库可以是外部知识库,也即是说,该外部知识库接入了多轮对话的检索装置的本地知识库,从而使得在确定回复信息时,可以参考外部知识库提供的内容。
例如,多个候选回复可以表示为R={r1,r2,…,rm}为候选回复的列表,Y={y1,y2,…,ym}为相应的二分类标签,其中yi=1表示ri是正确回复,否则yi=0,候选回复R={r1,r2,…,rm}相关的一些内容、特征等,可以被称为候选回复信息。
S103:根据上下文信息生成上下文特征,并根据多个候选回复信息生成多个候选回复特征。
上述在获取当前问题信息的多个候选回复信息后,还根据上下文信息生成上下文特征,并根据多个候选回复信息生成多个候选回复特征,其中,上下文特征用于描述上下文信息之间的特征情况,而候选回复特征,用于描述相应的候选回复信息的特征情况,该上下文特征和候选回复特征,被用于后续确定出最相适配的候选回复。
一些实施例中,可以对上下文信息进行特征识别,从而将识别到的特征作为上下文特征,以及对各个候选回复信息进行特征识别,从而将识别到的特征作为候选回复特征。
而本申请实施例中,在保障候选回复与当前问题的适配性的同时,还为了提升特征匹配的效率,当上下文信息为多个时,还可以将多个上下文信息进行拼接以形成上下文聚合信息,并根据上下文聚合信息生成上下文特征,也即是说,若上下文信息为多个,每个上下文信息对应一条上下文语句,则本申请实施例可以对多个上下文信息进行聚合,从而压缩了数据量,提升后续模型匹配的效率。
其中的上下文聚合信息,能够用于描述上下文信息的聚合特征,该上下文聚合信息,可以是直接对多个上下文信息拼接得到的,或者,也可以是从各个上下文信息中抽取至少一个特征词,并将各个特征词拼接得到上下文聚合信息,或者也可以是采用其他任意可能的方式形成上下文聚合信息。
而本申请实施例中,在根据上下文聚合信息生成上下文特征时,可以是确定与各上下文信息对应的编码特征和权重,从而基于权重对多个编码特征进行聚合,从而得到上下文特征,在确定上下文特征时,不仅仅考虑了上下文信息对应的编码特征,还考量了各个编码特征在上下文环境中的权重,从而有效提升上下文特征的精准性,保障后续的模型分析效果。
作为一种示例,可以将各上下文信息输入一个编码模型,该编码模型可以是预先训练得到的,从而采用该编码信息确定与上下文信息对应的编码特征和权重,而后基于权重对多个编码特征进行聚合,从而得到上下文特征。
另外一些实施例中,根据上下文聚合信息生成上下文特征,还可以是确定多个上下文信息之间的交叉特征,并将交叉特征作为上下文特征,多个上下文信息之间的交叉特征能够用于描述上下文信息之间的相关性,并能够呈现出上下文信息在整个多轮对话之中的内在关联性特征,由此,通过识别到上下文信息之间的相关性以及上下文信息在整个多轮对话之中的内在关联性特征,能够辅助后续确定出更为匹配的候选回复,提升多轮对话效果。
作为一种示例,可以预先训练一个多层循环神经网络模型(Recurrent NeuralNetwork,RNNs)得到的,将多个上下文信息输入至该RNNs模型中,该RNNs模型包括多层BiLSTM模型,BiLSTM模型是(Bi-directional Long Short-Term Memory,双向长短期记忆模型)的缩写,是由前向LSTM与后向LSTM组合而成,从而根据每层BiLSTM的输出确定多个上下文信息之间的交叉特征,对此不作限制。
S104:分别计算上下文特征与多个候选回复特征之间的一致性信息。
上述在根据上下文信息生成上下文特征,并根据多个候选回复信息生成多个候选回复特征后,可以针对每个候选回复特征,确定其与上下文特征之间的一致性信息。
其中,该一致性信息被用于描述各个候选回复特征与上下文特征之间的匹配程度。
一些实施例中,分别计算上下文特征与多个候选回复特征之间的一致性信息,可以是将上下文特征和多个候选回复特征输入一致性匹配模型,所述一致性匹配模型是采用外部的对话知识库训练得到的,以生成上下文特征与多个候选回复特征之间的一致性信息,能够学习得到各个候选回复特征与上下文特征之间的匹配程度,并且由于一致性匹配模型是采用外部的对话知识库训练得到的,从而丰富了候选回复的匹配精准度,可以有效地弥补背景知识之间的差距,即对话系统和人之间的差距,提升了一致性信息的获取效率,在保障一致性信息的描述效果的同时,提升了整个多轮对话的响应效率,提升用户的对话体验度。
S105:根据上下文特征与多个候选回复特征之间的一致性信息从多个候选回复信息之中选择一个候选回复信息进行回复。
作为一种示例,参见图2,图2是根据本申请第二实施例的示意图,输入为多轮对话可以表示为U={u1,u2,…,un},将对话的上下文u1,u2,…,和当前问题un分别输入到多层循环神经网络模型中,而后,还将根据多个候选回复信息生成多个候选回复特征也输入到多层循环神经网络模型中,由RNNs模型根据上下文信息生成上下文特征,并根据多个候选回复信息生成多个候选回复特征,而后,还可以由一致性匹配模型分别计算上下文特征与多个候选回复特征之间的一致性信息,也即是说,由一致性匹配模型将话语句子的编码特征进行匹配,从而确定出上下文特征与多个候选回复特征之间的一致性信息,以及将一致性信息输入至分类模型,由分类模型从多个候选回复信息之中选择一个候选回复信息进行回复。
一并参见上述图2,采用多层RNNs,将对话上下文中所有上下文信息拼接为上下文聚合信息,并计算上下文特征与候选回复特征之间的交叉特征,以用于丰富一致性匹配模型的特征,当训练一致性匹配模型时,可以训练一个初始的时序模型对多轮对话进行建模,聚合所有上下文信息,最后采用多层感知机(Multi-Layer Perceptron,MLP)作为最后一层的分类模型,从而返回匹配得分,并根据匹配得分去从多个候选回复信息之中选择一个候选回复信息进行回复。
上述图2中L层的BiLSTM模型抽取上下文信息的编码特征,对每层BiLSTM的输出进行加权求和作为相应上下文的编码特征,其中wl为注意力attention的权值,在一致性匹配模型训练过程中学习获得:
其中,表示学习到的BILSTM各层上下文中词的特征,表示第l层BILSTM上下文特征,luk表示上下文中词的数量,表示学习到的BILSTM各层候选回复中词的特征,表示第l层BILSTM候选回复特征,lr表示候选回复中词的数量,L表示BILSTM的层数,从而使得一致性匹配模型能够以全局方式将各个候选回复与整个上下文匹配,即将整个上下文视为一个序列,选取与上下文内容中最相关的候选回复并作为最终确定的候选回复,在选取与上下文内容中最相关的候选回复并作为最终确定的候选回复的过程中,还可以过滤不相关的噪声,能够有效提升候选回复的匹配程度。
针对一致性匹配模型处理上下文特征和多个候选回复特征,以得到上下文特征与多个候选回复特征之间的一致性信息的举例说明可以如下:
其中,表示候选回复特征之中词的注意力attention的权值,ci BiLSTM表示第i个上下文特征,rj BiLSTM表示第j个候选回复特征,eij=ci BiLSTMrj BiLSTM表示相似矩阵,eij具体为相似矩阵内的元素,表示第i个上下文特征与第j个候选回复特征之间的注意力attention的权值,lc表示上下文拼接后词的数量,lr表示回复候选中词的数量,表示上下文特征中词的对齐特征,而后,对候选回复特征和上下文特征中的每一个词都进行上述计算,形成候选回复特征与上下文特征的匹配矩阵,从而采用该匹配矩阵去确定一致性信息。
本申请实施例中,正是将人工智能和自然语言处理方法应用在多轮对话的检索方法中,并且,采用外部知识库的内容训练一个深度学习中的数学模型,也即是说,采用深度学习中的建模的方法训练一个结合了外部知识库的内容的一致性匹配模型,从而辅助确定上下文特征与多个候选回复特征之间的一致性信息,实现高效地、准确地确定出多轮对话中的候选回复,由于结合了外部知识库的内容,可以弥补背景知识之间的差距,即对话系统和人之间的差距,上述的一致性匹配模型能够通过参考知识库中的事实来生成对问题的自然和正确答案。
参见图3,图3为本申请实施例的应用效果示意图。
本实施例中,通过获取当前问题信息,并获取当前问题信息的上下文信息,并获取当前问题信息的多个候选回复信息,根据上下文信息生成上下文特征,并根据多个候选回复信息生成多个候选回复特征,以及根据上下文特征与多个候选回复特征之间的一致性信息从多个候选回复信息之中选择一个候选回复信息进行回复,能够有效提升回复信息与当前问题信息的匹配程度,提升多轮对话的对话效果,从而提升用户的对话体验度。
图4是根据本申请第三实施例的示意图。
如图4所示,该多轮对话的检索方法还包括:
S401:获取对话知识库。
其中的对话知识库可以是外部知识库KB,也即是说,该外部知识库KB接入了多轮对话的检索装置的本地知识库,从而使得在确定回复信息时,可以参考外部知识库提供的内容。
S402:根据样本候选回复信息从对话知识库之中选择多个样本问题答案对,其中,样本问题答案对包括样本上下文信息和样本回复信息。
其中,多个样本问题答案对可以表示为QA对,也即是说,将样本候选回复信息rj当作检索词去外部知识库KB中检索,即基于样本候选回复信息rj检索的相关QA对,表示为P={Q,A}∈KB={(Q1,A1),...,(Qp,Ap)},其中,样本问题答案对包括样本上下文信息和样本回复信息。
S403:根据样本回复信息和样本候选回复信息生成目标一致性信息。
上述在根据样本候选回复信息从对话知识库之中选择多个样本问题答案对后,可以参考下述公式根据样本回复信息和样本候选回复信息生成目标一致性信息,其中该目标一致性信息为用于训练一致性匹配模型的标定的一致性信息。
作为一种示例,可以令tri和tuj分别表示样本候选回复信息rj中第i个词和对话上下文中第j个词,则一致性匹配矩阵可计算如下,mij为矩阵元素:
其中,p为检索的相关QA对数量,分子表示在检索的相关的所有QA对中,Q包含tuj并且同时A包含tri的概率,分母第一项表示A包含tri的概率,第二项表示Q包含tuj的概率,mij表示一致性匹配矩阵中的矩阵元素,MI表示共现信息运算的函数标识,Ak表示上下文中第k个问题,Qk表示第k个问题的回复,通过上述公式,可以对检索到的相关QA对Q,A中tri和tuj的互信息,以对tri和tuj一致性特征编码,从而得到目标一致性信息。
S404:将样本上下文信息和样本候选回复信息输入至一致性匹配模型以生成预测一致性信息。
S405:根据预测一致性信息和目标一致性信息对一致性匹配模型进行训练。
上述在根据样本回复信息和样本候选回复信息生成目标一致性信息后,可以将样本上下文信息和样本候选回复信息输入至一致性匹配模型以生成预测一致性信息,以及根据预测一致性信息和目标一致性信息对一致性匹配模型进行训练,例如,可以生成预测一致性信息和目标一致性信息之间的损失值,当损失值小于设定阈值时,则确定对一致性匹配模型进行训练完成,若损失值大于设定阈值,则持续地对一致性匹配模型进行训练。
参见图5,图5为本申请实施例的建模场景示意图。
本实施例中,通过获取对话知识库,根据样本候选回复信息从对话知识库之中选择多个样本问题答案对,其中,样本问题答案对包括样本上下文信息和样本回复信息,并根据样本回复信息和样本候选回复信息生成目标一致性信息,以及将样本上下文信息和样本候选回复信息输入至一致性匹配模型以生成预测一致性信息,根据预测一致性信息和目标一致性信息对一致性匹配模型进行训练,从而训练得到一致性匹配模型,使得训练得到的一致性匹配模型具有较好的一致性信息的获取性能,从而使得该一致性匹配模型能够有效地辅助进行多轮对话,保障多轮对话的效率和效果。
图6是根据本申请第四实施例的示意图。
如图6所示,该多轮对话的检索装置600包括:
第一获取模块601,用于获取当前问题信息,并获取所述当前问题信息的上下文信息。
第二获取模块602,用于获取所述当前问题信息的多个候选回复信息。
生成模块603,用于根据所述上下文信息生成上下文特征,并根据所述多个候选回复信息生成多个候选回复特征。
计算模块604,用于分别计算所述上下文特征与所述多个候选回复特征之间的一致性信息。
回复模块605,用于根据所述上下文特征与所述多个候选回复特征之间的一致性信息从所述多个候选回复信息之中选择一个候选回复信息进行回复。
在本申请的一些实施例中,所述计算模块604,具体用于:
将所述上下文特征和所述多个候选回复特征输入一致性匹配模型,以生成所述上下文特征与所述多个候选回复特征之间的一致性信息。
在本申请的一些实施例中,参见图7,图7是根据本申请第五实施例的示意图,还包括:
训练模块606,用于获取对话知识库,根据样本候选回复信息从所述对话知识库之中选择多个样本问题答案对,其中,所述样本问题答案对包括样本上下文信息和样本回复信息,并根据所述样本回复信息和所述样本候选回复信息生成目标一致性信息,将所述样本上下文信息和所述样本候选回复信息输入至所述一致性匹配模型以生成预测一致性信息,以及根据所述预测一致性信息和所述目标一致性信息对所述一致性匹配模型进行训练。
在本申请的一些实施例中,所述上下文信息为多个,所述生成模块603,具体用于:
将所述多个上下文信息进行拼接以形成上下文聚合信息;
根据所述上下文聚合信息生成所述上下文特征。
在本申请的一些实施例中,所述生成模块603,还用于:
确定与各所述上下文信息对应的编码特征和权重;
基于所述权重对多个所述编码特征进行聚合,从而得到所述上下文特征。
在本申请的一些实施例中,所述生成模块603,还用于:
确定所述多个上下文信息之间的交叉特征,并将所述交叉特征作为所述上下文特征。
需要说明的是,前述对多轮对话的检索方法的解释说明也适用于本实施例的多轮对话的检索装置,此处不再赘述。
本实施例中,通过获取当前问题信息,并获取当前问题信息的上下文信息,并获取当前问题信息的多个候选回复信息,根据上下文信息生成上下文特征,并根据多个候选回复信息生成多个候选回复特征,以及根据上下文特征与多个候选回复特征之间的一致性信息从多个候选回复信息之中选择一个候选回复信息进行回复,能够有效提升回复信息与当前问题信息的匹配程度,提升多轮对话的对话效果,从而提升用户的对话体验度。
根据本申请的实施例,本申请还提供了一种电子设备和一种可读存储介质。
如图8所示,是根据本申请实施例的多轮对话的检索方法的电子设备的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本申请的实现。
如图8所示,该电子设备包括:一个或多个处理器801、存储器802,以及用于连接各部件的接口,包括高速接口和低速接口。各个部件利用不同的总线互相连接,并且可以被安装在公共主板上或者根据需要以其它方式安装。处理器可以对在电子设备内执行的指令进行处理,包括存储在存储器中或者存储器上以在外部输入/输出装置(诸如,耦合至接口的显示设备)上显示GUI的图形信息的指令。在其它实施方式中,若需要,可以将多个处理器和/或多条总线与多个存储器和多个存储器一起使用。同样,可以连接多个电子设备,各个设备提供部分必要的操作(例如,作为服务器阵列、一组刀片式服务器、或者多处理器系统)。图8中以一个处理器801为例。
存储器802即为本申请所提供的非瞬时计算机可读存储介质。其中,所述存储器存储有可由至少一个处理器执行的指令,以使所述至少一个处理器执行本申请所提供的多轮对话的检索方法。本申请的非瞬时计算机可读存储介质存储计算机指令,该计算机指令用于使计算机执行本申请所提供的多轮对话的检索方法。
存储器802作为一种非瞬时计算机可读存储介质,可用于存储非瞬时软件程序、非瞬时计算机可执行程序以及模块,如本申请实施例中的多轮对话的检索方法对应的程序指令/模块(例如,附图6所示的第一获取模块601、第二获取模块602、生成模块603、计算模块604,以及回复模块605)。处理器801通过运行存储在存储器802中的非瞬时软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述方法实施例中的多轮对话的检索方法。
存储器802可以包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需要的应用程序;存储数据区可存储根据执行多轮对话的检索方法的电子设备的使用所创建的数据等。此外,存储器802可以包括高速随机存取存储器,还可以包括非瞬时存储器,例如至少一个磁盘存储器件、闪存器件、或其他非瞬时固态存储器件。在一些实施例中,存储器802可选包括相对于处理器801远程设置的存储器,这些远程存储器可以通过网络连接至该电子设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
该电子设备还可以包括:输入装置803和输出装置804。处理器801、存储器802、输入装置803和输出装置804可以通过总线或者其他方式连接,图8中以通过总线连接为例。
输入装置803可接收输入的数字或字符信息,以及产生与该电子设备的用户设置以及功能控制有关的键信号输入,例如触摸屏、小键盘、鼠标、轨迹板、触摸板、指示杆、一个或者多个鼠标按钮、轨迹球、操纵杆等输入装置。输出装置804可以包括显示设备、辅助照明装置(例如,LED)和触觉反馈装置(例如,振动电机)等。该显示设备可以包括但不限于,液晶显示器(LCD)、发光二极管(LED)显示器和等离子体显示器。在一些实施方式中,显示设备可以是触摸屏。
此处描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、专用ASIC(专用集成电路)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
这些计算程序(也称作程序、软件、软件应用、或者代码)包括可编程处理器的机器指令,并且可以利用高级过程和/或面向对象的编程语言、和/或汇编/机器语言来实施这些计算程序。如本文使用的,术语“机器可读介质”和“计算机可读介质”指的是用于将机器指令和/或数据提供给可编程处理器的任何计算机程序产品、设备、和/或装置(例如,磁盘、光盘、存储器、可编程逻辑装置(PLD)),包括,接收作为机器可读信号的机器指令的机器可读介质。术语“机器可读信号”指的是用于将机器指令和/或数据提供给可编程处理器的任何信号。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本发申请中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本申请公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本申请保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本申请的精神和原则之内所作的修改、等同替换和改进等,均应包含在本申请保护范围之内。
Claims (14)
1.一种多轮对话的检索方法,其中,包括:
获取当前问题信息,并获取所述当前问题信息的上下文信息;
获取所述当前问题信息的多个候选回复信息;
根据所述上下文信息生成上下文特征,并根据所述多个候选回复信息生成多个候选回复特征;
分别计算所述上下文特征与所述多个候选回复特征之间的一致性信息;
根据所述上下文特征与所述多个候选回复特征之间的一致性信息从所述多个候选回复信息之中选择一个候选回复信息进行回复。
2.如权利要求1所述的多轮对话的检索方法,其中,所述分别计算所述上下文特征与所述多个候选回复特征之间的一致性信息,包括:
将所述上下文特征和所述多个候选回复特征输入一致性匹配模型,以生成所述上下文特征与所述多个候选回复特征之间的一致性信息;所述一致性匹配模型是采用外部的对话知识库训练得到的。
3.如权利要求2所述的多轮对话的检索方法,其中,所述一致性匹配模型通过以下步骤训练得到:
获取对话知识库;
根据样本候选回复信息从所述对话知识库之中选择多个样本问题答案对,其中,所述样本问题答案对包括样本上下文信息和样本回复信息;
根据所述样本回复信息和所述样本候选回复信息生成目标一致性信息;
将所述样本上下文信息和所述样本候选回复信息输入至所述一致性匹配模型以生成预测一致性信息;
根据所述预测一致性信息和所述目标一致性信息对所述一致性匹配模型进行训练。
4.如权利要求1所述的多轮对话的检索方法,其中,所述上下文信息为多个,所述根据所述上下文信息生成上下文特征,包括:
将所述多个上下文信息进行拼接以形成上下文聚合信息;
根据所述上下文聚合信息生成所述上下文特征。
5.如权利要求4所述的多轮对话的检索方法,其中,所述根据所述上下文聚合信息生成所述上下文特征,包括:
确定与各所述上下文信息对应的编码特征和权重;
基于所述权重对多个所述编码特征进行聚合,从而得到所述上下文特征。
6.如权利要求4所述的多轮对话的检索方法,其中,所述根据所述上下文聚合信息生成所述上下文特征,包括:
确定所述多个上下文信息之间的交叉特征,并将所述交叉特征作为所述上下文特征。
7.一种多轮对话的检索装置,其中,包括:
第一获取模块,用于获取当前问题信息,并获取所述当前问题信息的上下文信息;
第二获取模块,用于获取所述当前问题信息的多个候选回复信息;
生成模块,用于根据所述上下文信息生成上下文特征,并根据所述多个候选回复信息生成多个候选回复特征;
计算模块,用于分别计算所述上下文特征与所述多个候选回复特征之间的一致性信息;
回复模块,用于根据所述上下文特征与所述多个候选回复特征之间的一致性信息从所述多个候选回复信息之中选择一个候选回复信息进行回复。
8.如权利要求7所述的多轮对话的检索装置,其中,所述计算模块,具体用于:
将所述上下文特征和所述多个候选回复特征输入一致性匹配模型,以生成所述上下文特征与所述多个候选回复特征之间的一致性信息;所述一致性匹配模型是采用外部的对话知识库训练得到的。
9.如权利要求8所述的多轮对话的检索装置,还包括:
训练模块,用于获取对话知识库,根据样本候选回复信息从所述对话知识库之中选择多个样本问题答案对,其中,所述样本问题答案对包括样本上下文信息和样本回复信息,并根据所述样本回复信息和所述样本候选回复信息生成目标一致性信息,将所述样本上下文信息和所述样本候选回复信息输入至所述一致性匹配模型以生成预测一致性信息,以及根据所述预测一致性信息和所述目标一致性信息对所述一致性匹配模型进行训练。
10.如权利要求7所述的多轮对话的检索装置,其中,所述上下文信息为多个,所述生成模块,具体用于:
将所述多个上下文信息进行拼接以形成上下文聚合信息;
根据所述上下文聚合信息生成所述上下文特征。
11.如权利要求10所述的多轮对话的检索装置,其中,所述生成模块,还用于:
确定与各所述上下文信息对应的编码特征和权重;
基于所述权重对多个所述编码特征进行聚合,从而得到所述上下文特征。
12.如权利要求10所述的多轮对话的检索装置,其中,所述生成模块,还用于:
确定所述多个上下文信息之间的交叉特征,并将所述交叉特征作为所述上下文特征。
13.一种电子设备,其特征在于,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-6中任一项所述的方法。
14.一种存储有计算机指令的非瞬时计算机可读存储介质,其特征在于,所述计算机指令用于使所述计算机执行权利要求1-6中任一项所述的方法。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010605457.0A CN111966782B (zh) | 2020-06-29 | 2020-06-29 | 多轮对话的检索方法、装置、存储介质及电子设备 |
JP2021064823A JP2021108178A (ja) | 2020-06-29 | 2021-04-06 | マルチラウンド対話の検索方法、装置、記憶媒体および電子機器 |
EP21179713.9A EP3862891A3 (en) | 2020-06-29 | 2021-06-16 | Method and apparatus for retrieving multi-turn dialogue, storage medium, and electronic device |
US17/349,129 US11947578B2 (en) | 2020-06-29 | 2021-06-16 | Method for retrieving multi-turn dialogue, storage medium, and electronic device |
KR1020210082458A KR20210088463A (ko) | 2020-06-29 | 2021-06-24 | 다중 라운드 대화 검색 방법, 장치, 저장매체 및 전자기기 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010605457.0A CN111966782B (zh) | 2020-06-29 | 2020-06-29 | 多轮对话的检索方法、装置、存储介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111966782A true CN111966782A (zh) | 2020-11-20 |
CN111966782B CN111966782B (zh) | 2023-12-12 |
Family
ID=73360980
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010605457.0A Active CN111966782B (zh) | 2020-06-29 | 2020-06-29 | 多轮对话的检索方法、装置、存储介质及电子设备 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11947578B2 (zh) |
EP (1) | EP3862891A3 (zh) |
JP (1) | JP2021108178A (zh) |
KR (1) | KR20210088463A (zh) |
CN (1) | CN111966782B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113312521A (zh) * | 2021-06-15 | 2021-08-27 | 北京百度网讯科技有限公司 | 内容检索方法、装置、电子设备和介质 |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115757749B (zh) * | 2023-01-05 | 2023-05-16 | 北京红棉小冰科技有限公司 | 一种对话处理方法、装置、电子设备及存储介质 |
CN116737888B (zh) * | 2023-01-11 | 2024-05-17 | 北京百度网讯科技有限公司 | 对话生成模型的训练方法和答复文本的确定方法、装置 |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090287678A1 (en) * | 2008-05-14 | 2009-11-19 | International Business Machines Corporation | System and method for providing answers to questions |
US20180082187A1 (en) * | 2016-09-16 | 2018-03-22 | International Business Machines Corporation | System and Method for Scoring the Geographic Relevance of Answers in a Deep Question Answering System Based on Geographic Context of an Input Question |
CN108038209A (zh) * | 2017-12-18 | 2018-05-15 | 深圳前海微众银行股份有限公司 | 答案选择方法、装置和计算机可读存储介质 |
CN108280218A (zh) * | 2018-02-07 | 2018-07-13 | 逸途(北京)科技有限公司 | 一种基于检索和生产混合问答的流程系统 |
CN109271496A (zh) * | 2018-08-30 | 2019-01-25 | 广东工业大学 | 一种基于文本、知识库及序列到序列的自然问答方法 |
CN109597876A (zh) * | 2018-11-07 | 2019-04-09 | 中山大学 | 一种基于强化学习的多轮对话答复选择模型及其方法 |
CN110096567A (zh) * | 2019-03-14 | 2019-08-06 | 中国科学院自动化研究所 | 基于qa知识库推理的多轮对话回复选择方法、系统 |
CN110837548A (zh) * | 2019-11-05 | 2020-02-25 | 泰康保险集团股份有限公司 | 答案匹配方法、装置、电子设备及存储介质 |
CN111046132A (zh) * | 2019-10-25 | 2020-04-21 | 众安信息技术服务有限公司 | 一种检索多轮对话的客服问答处理方法及其系统 |
CN111177355A (zh) * | 2019-12-30 | 2020-05-19 | 北京百度网讯科技有限公司 | 基于搜索数据的人机对话交互方法、装置和电子设备 |
CN111291172A (zh) * | 2020-03-05 | 2020-06-16 | 支付宝(杭州)信息技术有限公司 | 用于处理文本的方法和装置 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8935277B2 (en) * | 2012-03-30 | 2015-01-13 | Sap Se | Context-aware question answering system |
US10296848B1 (en) * | 2018-03-05 | 2019-05-21 | Clinc, Inc. | Systems and method for automatically configuring machine learning models |
US11194973B1 (en) * | 2018-11-12 | 2021-12-07 | Amazon Technologies, Inc. | Dialog response generation |
EP3885937A4 (en) * | 2018-11-22 | 2022-01-19 | Sony Group Corporation | RESPONSE GENERATION DEVICE, RESPONSE GENERATION METHOD AND RESPONSE GENERATION PROGRAM |
US10664527B1 (en) * | 2019-01-18 | 2020-05-26 | PolyAI Limited | Response retrieval system and method |
CN110309283B (zh) * | 2019-06-28 | 2023-03-21 | 创新先进技术有限公司 | 一种智能问答的答案确定方法及装置 |
CN111108501B (zh) * | 2019-12-25 | 2024-02-06 | 深圳市优必选科技股份有限公司 | 一种基于上下文的多轮对话方法、装置、设备及存储介质 |
-
2020
- 2020-06-29 CN CN202010605457.0A patent/CN111966782B/zh active Active
-
2021
- 2021-04-06 JP JP2021064823A patent/JP2021108178A/ja active Pending
- 2021-06-16 EP EP21179713.9A patent/EP3862891A3/en not_active Withdrawn
- 2021-06-16 US US17/349,129 patent/US11947578B2/en active Active
- 2021-06-24 KR KR1020210082458A patent/KR20210088463A/ko not_active Application Discontinuation
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090287678A1 (en) * | 2008-05-14 | 2009-11-19 | International Business Machines Corporation | System and method for providing answers to questions |
US20180082187A1 (en) * | 2016-09-16 | 2018-03-22 | International Business Machines Corporation | System and Method for Scoring the Geographic Relevance of Answers in a Deep Question Answering System Based on Geographic Context of an Input Question |
CN108038209A (zh) * | 2017-12-18 | 2018-05-15 | 深圳前海微众银行股份有限公司 | 答案选择方法、装置和计算机可读存储介质 |
CN108280218A (zh) * | 2018-02-07 | 2018-07-13 | 逸途(北京)科技有限公司 | 一种基于检索和生产混合问答的流程系统 |
CN109271496A (zh) * | 2018-08-30 | 2019-01-25 | 广东工业大学 | 一种基于文本、知识库及序列到序列的自然问答方法 |
CN109597876A (zh) * | 2018-11-07 | 2019-04-09 | 中山大学 | 一种基于强化学习的多轮对话答复选择模型及其方法 |
CN110096567A (zh) * | 2019-03-14 | 2019-08-06 | 中国科学院自动化研究所 | 基于qa知识库推理的多轮对话回复选择方法、系统 |
CN111046132A (zh) * | 2019-10-25 | 2020-04-21 | 众安信息技术服务有限公司 | 一种检索多轮对话的客服问答处理方法及其系统 |
CN110837548A (zh) * | 2019-11-05 | 2020-02-25 | 泰康保险集团股份有限公司 | 答案匹配方法、装置、电子设备及存储介质 |
CN111177355A (zh) * | 2019-12-30 | 2020-05-19 | 北京百度网讯科技有限公司 | 基于搜索数据的人机对话交互方法、装置和电子设备 |
CN111291172A (zh) * | 2020-03-05 | 2020-06-16 | 支付宝(杭州)信息技术有限公司 | 用于处理文本的方法和装置 |
Non-Patent Citations (3)
Title |
---|
L SHANG: "neural responding machine for short-text conversation", ARXIV * |
杨成彪;吕荣荣;吴刚;: "一种基于记忆网络的多轮对话下的意图识别方法", 电子技术与软件工程, no. 10 * |
陈晨: "基于深度学习的开放领域对话系统研究综述", 计算机学报 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113312521A (zh) * | 2021-06-15 | 2021-08-27 | 北京百度网讯科技有限公司 | 内容检索方法、装置、电子设备和介质 |
CN113312521B (zh) * | 2021-06-15 | 2023-08-01 | 北京百度网讯科技有限公司 | 内容检索方法、装置、电子设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
JP2021108178A (ja) | 2021-07-29 |
EP3862891A2 (en) | 2021-08-11 |
CN111966782B (zh) | 2023-12-12 |
KR20210088463A (ko) | 2021-07-14 |
EP3862891A3 (en) | 2021-12-29 |
US20210311979A1 (en) | 2021-10-07 |
US11947578B2 (en) | 2024-04-02 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111625635A (zh) | 问答处理、语言模型的训练方法、装置、设备及存储介质 | |
CN109376222B (zh) | 问答匹配度计算方法、问答自动匹配方法及装置 | |
CN112487173B (zh) | 人机对话方法、设备和存储介质 | |
CN111144507B (zh) | 情感分析模型预训练方法、装置及电子设备 | |
CN112560496A (zh) | 语义分析模型的训练方法、装置、电子设备及存储介质 | |
CN113553412B (zh) | 问答处理方法、装置、电子设备和存储介质 | |
CN111966782A (zh) | 多轮对话的检索方法、装置、存储介质及电子设备 | |
CN111428514A (zh) | 语义匹配方法、装置、设备以及存储介质 | |
CN111259671A (zh) | 文本实体的语义描述处理方法、装置及设备 | |
CN113553414B (zh) | 智能对话方法、装置、电子设备和存储介质 | |
CN112148975A (zh) | 会话推荐方法、装置及设备 | |
EP4113357A1 (en) | Method and apparatus for recognizing entity, electronic device and storage medium | |
CN111950291A (zh) | 语义表示模型的生成方法、装置、电子设备及存储介质 | |
CN111737954A (zh) | 文本相似度确定方法、装置、设备和介质 | |
CN114416943B (zh) | 对话模型的训练方法、装置、电子设备及存储介质 | |
CN111429204A (zh) | 酒店推荐方法、系统、电子设备和存储介质 | |
CN111667056A (zh) | 用于搜索模型结构的方法和装置 | |
CN112541362B (zh) | 一种泛化处理的方法、装置、设备和计算机存储介质 | |
CN113590776A (zh) | 基于知识图谱的文本处理方法、装置、电子设备及介质 | |
CN111522944A (zh) | 用于输出信息的方法、装置、设备以及存储介质 | |
CN110674260A (zh) | 语义相似模型的训练方法、装置、电子设备和存储介质 | |
CN111753761A (zh) | 模型生成方法、装置、电子设备及存储介质 | |
CN116245097A (zh) | 训练实体识别模型的方法、实体识别方法及对应装置 | |
CN111782785A (zh) | 自动问答方法、装置、设备以及存储介质 | |
CN114547244A (zh) | 用于确定信息的方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |