CN114626388A - 意图识别方法、装置、电子设备及存储介质 - Google Patents
意图识别方法、装置、电子设备及存储介质 Download PDFInfo
- Publication number
- CN114626388A CN114626388A CN202210359847.3A CN202210359847A CN114626388A CN 114626388 A CN114626388 A CN 114626388A CN 202210359847 A CN202210359847 A CN 202210359847A CN 114626388 A CN114626388 A CN 114626388A
- Authority
- CN
- China
- Prior art keywords
- intention
- user
- recall
- intentions
- intent
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
- G06F40/35—Discourse or dialogue representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/10—Text processing
- G06F40/166—Editing, e.g. inserting or deleting
- G06F40/186—Templates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/205—Parsing
- G06F40/211—Syntactic parsing, e.g. based on context-free grammar [CFG] or unification grammars
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/289—Phrasal analysis, e.g. finite state techniques or chunking
- G06F40/295—Named entity recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Human Computer Interaction (AREA)
- Machine Translation (AREA)
Abstract
本公开提供一种意图识别方法、装置、电子设备及存储介质,该方法包括:获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据;根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图;将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据;将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。本公开能够识别分散在用户分多轮输入的语句中的意图,同时,通过模板,能够提高小样本场景下的意图识别性能。
Description
技术领域
本公开涉及技术领域,尤其涉及一种意图识别方法、装置、电子设备及存储介质。
背景技术
本部分旨在为权利要求书中陈述的本公开的实施方式提供背景或上下文。此处的描述不因为包括在本部分中就承认是现有技术。
在对话系统中,对话机器人需要对用户话语进行语义理解,并在语义理解的基础上产生合适的回复。对话系统中的语义理解通常由自然语言理解(Natural LanguageUnderstanding,NLU)模块负责。该模块的核心就是“意图识别”,即根据用户话语识别用户所想表达的意图。然后根据识别到的意图,进行恰当的回复。因此,对话机器人能否准确的识别用户意图直接影响了对话系统的性能和用户体验。
意图识别按照对话轮数划分,可分为单轮意图识别和多轮意图识别。前者的特点是用户说的每一句话都有一个具体的意图;后者的特点是用户说的多句话才有一个具体意图。现有对话系统通常假设用户意图为单轮意图,然而实际对话场景中,用户常常会采用多句话来表述自己所遇到的问题,当遇到此类情况时,现有对话系统进行意图识别的准确性较低。
发明内容
有鉴于此,本公开的目的在于提出一种意图识别方法、装置、电子设备及存储介质。
基于上述目的,本公开示例性实施例提供了一种意图识别方法,包括:
获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据;
根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图;
将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据;
将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。
在一些示例性实施例中,所述根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图,包括:
根据所述拼接的对话数据,基于词相似召回所述用户的意图,得到若干词层面的召回的意图;
根据所述拼接的对话数据,基于语义相似召回所述用户的意图,得到若干语义层面的召回的意图;
根据所述拼接的对话数据中的所述当前输入,基于机器学习算法召回所述用户的意图,得到若干机器学习算法层面的召回的意图;
对所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图进行融合,得到若干融合的召回的意图,并根据所述融合的召回的意图,得到若干所述备选的意图;
其中,所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图从属于同一意图库。
在一些示例性实施例中,所述根据所述拼接的对话数据,基于词相似召回所述用户的意图,得到若干词层面的召回的意图,包括:
从所述意图库中检索包含与所述拼接的对话数据中的词的相似度达到词相似度阈值的词的意图,作为所述词层面的召回的意图。
在一些示例性实施例中,所述根据所述拼接的对话数据,基于语义相似召回所述用户的意图,得到若干语义层面的召回的意图,包括:
对所述拼接的对话数据进行编码,得到对话数据语义向量;
从所述意图库中检索与所述对话数据语义向量的相似度达到语义向量相似度阈值的所述意图语义向量,其中,所述意图库中的意图包含预先编码得到的意图语义向量;
将所述意图语义向量对应的意图作为所述语义层面的召回的意图。
在一些示例性实施例中,所述根据所述拼接的对话数据中的所述当前输入,基于机器学习算法召回所述用户的意图,得到若干机器学习算法层面的召回的意图,包括:
预先基于机器学习算法构建并训练意图召回模型;
将所述当前输入输入所述意图召回模型,获取所述意图召回模型输出的的召回的意图,作为所述机器学习算法层面的召回的意图。
在一些示例性实施例中,所述对所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图进行融合,得到若干融合的召回的意图,并根据所述融合的召回的意图得到若干所述备选的意图,包括:
对于任一所述召回的意图,分别计算所述召回的意图的词层面分数、语义层面分数和机器学习算法层面分数,并分别对所述词层面分数、所述语义层面分数和所述机器学习算法层面分数进行归一化,将归一化后的词层面分数、语义层面分数和机器学习算法层面分数的平均值作为所述召回的意图的融合分数;
将所述融合分数高于融合分数阈值的所述召回的意图,作为所述备选的意图。
在一些示例性实施例中,所述计算所述召回的意图的词层面分数、语义层面分数和机器学习算法层面分数,包括:
计算所述召回的意图和所述拼接的对话数据的词层面的相似度,作为所述召回的意图的所述词层面分数;
计算所述召回的意图对应的意图语义向量和所述对话数据语义向量的相似度,作为所述召回的意图的所述语义层面分数;
获取基于所述机器学习算法得到所述召回的意图的概率,作为所述召回的意图的所述机器学习算法层面分数。
在一些示例性实施例中,所述对所述词层面分数、所述语义层面分数和所述机器学习算法层面分数进行归一化,包括:
分别获取所述词层面分数、所述语义层面分数和所述机器学习算法层面分数中的最高分数;
对所述词层面分数、所述语义层面分数和机器学习算法层面分数中的任一分数,将所述分数除以其对应的层面的所述最高分数,得到所述归一化后的词层面分数、语义层面分数和机器学习算法层面分数。
在一些示例性实施例中,所述模板为填充文本字符串空白的完形填空模板;
所述将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据,包括:
确定所述拼接的对话数据对应的任务类型,将所述拼接的对话数据和所述备选的意图填充入所述任务类型对应的所述模板。
在一些示例性实施例中,所述将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图,包括:
对所述模板化的对话数据进行编码,分别计算编码后的模板化的对话数据中的所述备选的意图的分数,对所述分数最高的所述备选的意图进行解码,将解码后的备选的意图,作为所述确定的意图。
基于同一发明构思,本公开示例性实施例还提供了一种意图识别装置,包括:
对话数据获取模块,被配置为获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据;
备选意图获取模块,被配置为根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图;
用户数据模板化模块,被配置为将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据;
用户意图确定模块,被配置为将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。
基于同一发明构思,本公开示例性实施例还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如上任意一项所述的方法。
基于同一发明构思,本公开示例性实施例还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行如上任一所述方法。
从上面所述可以看出,本公开实施例提供的意图识别方法、装置、电子设备及存储介质,方法包括:获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据;根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图;将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据;将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。本公开能够识别分散在用户分多轮输入的语句中的意图,同时,通过模板,能够提高小样本场景下的意图识别性能。
附图说明
为了更清楚地说明本公开或相关技术中的技术方案,下面将对实施例或相关技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本公开的实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本公开实施例提供的意图识别方法的应用场景示意图;
图2为本公开实施例提供的意图识别方法的一种流程示意图;
图3为本公开实施例提供的意图识别方法的另一种流程示意图;
图4为本公开实施例提供的意图识别方法的另一种流程示意图;
图5为本公开实施例提供的意图识别装置的结构示意图;
图6为本公开实施例提供的电子设备的一种结构示意图。
具体实施方式
为使本公开的目的、技术方案和优点更加清楚明白,下面将参考若干示例性实施方式来描述本公开的原理和精神。应当理解,给出这些实施方式仅仅是为了使本领域技术人员能够更好地理解进而实现本公开,而并非以任何方式限制本公开的范围。相反,提供这些实施方式是为了使本公开更加透彻和完整,并且能够将本公开的范围完整地传达给本领域的技术人员。
根据本公开的实施方式,提出了一种意图识别方法、装置、电子设备及存储介质。
在本文中,需要理解的是,附图中的任何元素数量均用于示例而非限制,以及任何命名都仅用于区分,而不具有任何限制含义。
需要说明的是,除非另外定义,本公开实施例使用的技术术语或者科学术语应当为本公开所属领域内具有一般技能的人士所理解的通常意义。本公开实施例中使用的“第一”、“第二”以及类似的词语并不表示任何顺序、数量或者重要性,而只是用来区分不同的组成部分。“包括”或者“包含”等类似的词语意指出现该词前面的元件或者物件涵盖出现在该词后面列举的元件或者物件及其等同,而不排除其他元件或者物件。“连接”或者“相连”等类似的词语并非限定于物理的或者机械的连接,而是可以包括电性的连接,不管是直接的还是间接的。“上”、“下”、“左”、“右”等仅用于表示相对位置关系,当被描述对象的绝对位置改变后,则该相对位置关系也可能相应地改变。
下面参考本公开的若干代表性实施方式,详细阐释本公开的原理和精神。
相关技术中,针对多轮意图识别场景,进行意图识别的准确性较低。
具体的,相关技术中,进行意图识别的方法一般有两种:基于规则的识别方法和基于神经网络的识别方法。
基于规则的识别方法,包括:
通过人工分析每个意图下的有代表性的例句总结出规则模板,然后将用户的输入语句进行分词、词性标注、命名实体识别、依存句法分析、语义分析等操作后套用已有的模板,当与之匹对的某个意图模板达到一定的阈值之后就认为该输入就属于该意图类别。
基于神经网络的识别方法,包括:
将意图识别建模成分类问题,采用诸如CNN、LSTM、BERT等模型在数据集上学习,然后进行意图识别。具体的,针对每一个意图,人工标注符合该意图的话术,构建意图分类数据集,在该数据集上,基于神经网络模型进行监督学习。应用时,将用户话语输入模型,模型给出意图预测分布,通常取概率最大的意图为用户所要表达的意图。
本公开的发明人发现,造成上述相关技术中针对多轮意图识别场景,进行意图识别的准确性较低的原因是:
基于规则的识别方法,需要大量人力编写规则模板,成本较高,泛化性和灵活性较差,不同的业务,规则模板又不相同,难以通用,每新增一个业务,需要为其编写大量规则模板,而且规则模板的编写需要一定的专家知识,才能抽象出更准确更一般化的规则模板,并且基于规则的识别方法,在应对多轮意图时通用性会更差。
基于神经网络的识别方法,需要大量标注数据才能得到较好的识别性能。然而大量的数据标注是昂贵的,实际场景中可用的标注数据是少量的,需要大量的标注数据支持,实际场景下很难得到大量标注数据,而且多轮意图数据标注难度大、标注数据需要更多更昂贵的人力成本。
综上,相关技术专注于研究单轮意图识别,忽略了对多轮意图识别的研究;进一步的,相关技术需要大量数据作为支持,无法很好地迁移至小样本场景下的多轮意图识别。
为了解决上述问题,本公开提供了一种意图识别方案,具体包括:获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据;根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图;将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据;将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。本公开能够识别分散在用户分多轮输入的语句中的意图,同时,通过模板,能够提高小样本场景下的意图识别性能。
在介绍了本公开的基本原理之后,下面具体介绍本公开的各种非限制性实施方式。
参考图1,其为本公开实施例提供的意图识别方法的应用场景示意图。
该应用场景包括终端设备101、服务器102和数据存储系统103。其中,终端设备101、服务器102以及数据存储系统103之间均可通过有线或无线的通信网络连接。终端设备101包括但不限于桌面计算机、移动电话、移动电脑、平板电脑、媒体播放器、智能可穿戴设备、个人数字助理(personal digital assistant,PDA)或其它能够实现上述功能的电子设备等。服务器102和数据存储系统103均可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。
服务器102用于向终端设备101的用户提供对话服务,终端设备101中安装有与服务器102通信的客户端,用户可通过该客户端输入话语,点击发送按钮后,客户端将该话语发送给服务器102,服务器102获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据;根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图;将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据;将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图,进一步的,根据意图获得与该意图对应的答案,将该答案发送给客户端,客户端向用户展示该答案。
数据存储系统103中存储有大量数据。
下面结合图1的应用场景,来描述根据本公开示例性实施方式的意图识别方案。需要注意的是,上述应用场景仅是为了便于理解本公开的精神和原理而示出,本公开的实施方式在此方面不受任何限制。相反,本公开的实施方式可以应用于适用的任何场景。
参考图2,其为本公开实施例提供的意图识别方法的一种流程示意图。
意图识别方法,包括以下步骤:
步骤S210、获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据。
其中,考虑到用户的意图可能分散在用户分多轮输入的语句中(即用户分多轮输入的语句加起来才有一个具体的意图,而非每轮输入的语句都有一个具体的意图),本公开在获取用户的当前输入的同时,还获取了用户与机器人客服的至少一轮历史对话(每轮历史对话中,包括用户输入的语句和机器人客服答复的语句)。
在一些示例性实施例中,可以根据预设的轮数获取多轮对话,可以根据预设的时长获取多轮对话,还可以进一步分析不同轮对话之间的上下文关系以获取相关度较高的多轮对话。其中,本公开对于获取多轮对话的方法不做限制。
在一些示例性实施例中,将所述当前输入拼接在所述历史对话之后,得到所述拼接的对话数据。
作为一个具体示例,假设用户的当前输入为“用户:左耳不能正常使用。”,用户与机器人客服的至少一轮历史对话为“用户:[耳机订单]。用户:耳机质量有问题。机器人客服:您好,很高兴为您服务。”,则拼接的对话数据为“用户:[耳机订单]。用户:耳机质量有问题。机器人客服:您好,很高兴为您服务。用户:左耳不能正常使用。”
步骤S220、根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图。
其中,召回用户的意图(简称意图召回)指的是对用户的意图进行初步识别,意图召回的目标在于从意图数据库中存储的海量的意图中识别出用户可能的意图,以将这些可能的意图作为后续意图识别的输入。
另外,由于意图召回的目标在于从意图数据库中存储的海量的意图中识别出用户可能的意图,这种情况下,要求能检索的意图尽可能检索到,因为意图召回检索不到的意图,将不可能出现在意图识别的过程中。
意图召回相较于后续进行的意图识别,具有识别结果数量较多,识别精确度较低的特点,然而,意图召回能够提高意图识别的效率,并且能够降低意图识别的成本。
步骤S230、将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据。
在一些示例性实施例中,所述模板为填充文本字符串空白的完形填空模板。
作为一个具体示例,模板的格式为:
“{context}
{question}
{option}”。(即{上下文}{问题}{选项})。
其中,{context}处用于填充拼接的对话数据(即当前输入和历史对话),{question}处用于填充问题,{option}处用于填充意图召回结果。
则,模板化的用户数据为:
“用户:[耳机订单]。
用户:耳机质量有问题。
机器人客服:您好,很高兴为您服务。
用户:左耳不能正常使用。
根据以上对话,选择最佳选项来回答以下问题。
问题:请问用户表达的意图与选项中哪一个意图最接近?
选项:
A.耳机无法充电。
B.耳机重量。
C.耳机无法开机。
D.无实际意图。”。
在一些示例性实施例中,所述将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据,包括:
确定所述拼接的对话数据对应的任务类型,将所述拼接的对话数据和所述备选的意图填充入所述任务类型对应的所述模板。
具体实施时,预先针对不同的任务构建不同的模板,即分析每个任务下的具有代表性的案例总结出模板,应用模板时,根据任务的类型选择相应的模板。模板化的用户数据,相较于非模板化的用户数据,可以提高意图识别的准确性和效率。
步骤S240、将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。
在一些示例性实施例中,所述将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图,包括:
对所述模板化的对话数据进行编码,分别计算编码后的模板化的对话数据中的所述备选的意图的分数,对所述分数最高的所述备选的意图进行解码,将解码后的备选的意图,作为所述确定的意图。
在一些示例性实施例中,所述计算编码后的模板化的对话数据中的所述备选的意图的分数,包括:
对于任一备选的意图,计算该备选的意图中的每一个字i的被输出的概率p_i,并计算概率p_i的对数log2(p_i),然后计算该备选的意图中的所有字对应的log2(p_i)的平均值,将该平均值作为该备选的意图的分数。
计算公式如下:
其中,score表示备选的意图的分数,n表示备选的意图中的字的数量。
从上面所述可以看出,本公开实施例提供的意图识别方法,包括:获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据;根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图;将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据;将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。本公开能够识别分散在用户分多轮输入的语句中的意图,同时,通过模板,能够提高小样本场景下的意图识别性能。
参考图3,其为本公开实施例提供的意图识别方法的另一种流程示意图。
意图识别方法,包括以下步骤:
步骤S310、获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据。
在一些示例性实施例中,将所述当前输入拼接在所述历史对话之后,得到所述拼接的对话数据。
步骤S320、根据所述拼接的对话数据,基于词相似召回所述用户的意图,得到若干词层面的召回的意图。
在一些示例性实施例中,所述根据所述拼接的对话数据,基于词相似召回所述用户的意图,得到若干词层面的召回的意图,包括:
从所述意图库中检索包含与所述拼接的对话数据中的词的相似度达到词相似度阈值的词的意图,作为所述词层面的召回的意图。
步骤S330、根据所述拼接的对话数据,基于语义相似召回所述用户的意图,得到若干语义层面的召回的意图。
在一些示例性实施例中,所述根据所述拼接的对话数据,基于语义相似召回所述用户的意图,得到若干语义层面的召回的意图,包括:
对所述拼接的对话数据进行编码,得到对话数据语义向量;
从所述意图库中检索与所述对话数据语义向量的相似度达到语义向量相似度阈值的所述意图语义向量,其中,所述意图库中的意图包含预先编码得到的意图语义向量;
将所述意图语义向量对应的意图作为所述语义层面的召回的意图。
步骤S340、根据所述拼接的对话数据中的所述当前输入,基于机器学习算法召回所述用户的意图,得到若干机器学习算法层面的召回的意图。
在一些示例性实施例中,所述根据所述拼接的对话数据中的所述当前输入,基于机器学习算法召回所述用户的意图,得到若干机器学习算法层面的召回的意图,包括:
预先基于机器学习算法构建并训练意图召回模型;
将所述当前输入输入所述意图召回模型,获取所述意图召回模型输出的的召回的意图,作为所述机器学习算法层面的召回的意图。
步骤S350、对所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图进行融合,得到若干融合的召回的意图,并根据所述融合的召回的意图,得到若干所述备选的意图。
其中,所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图从属于同一意图库。
在一些示例性实施例中,所述对所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图进行融合,得到若干融合的召回的意图,并根据所述融合的召回的意图得到若干所述备选的意图,包括:
对于任一所述召回的意图,分别计算所述召回的意图的词层面分数、语义层面分数和机器学习算法层面分数,并分别对所述词层面分数、所述语义层面分数和所述机器学习算法层面分数进行归一化,将归一化后的词层面分数、语义层面分数和机器学习算法层面分数的平均值作为所述召回的意图的融合分数;
将所述融合分数高于融合分数阈值的所述召回的意图,作为所述备选的意图。
在一些示例性实施例中,所述计算所述召回的意图的词层面分数、语义层面分数和机器学习算法层面分数,包括:
计算所述召回的意图和所述拼接的对话数据的词层面的相似度,作为所述召回的意图的所述词层面分数。
具体实施时,计算词层面相似度的公式如下:
其中,score(Q,d)表示词层面相似度,Q表示拼接的对话数据,R(qi,d)表示比例,d表示召回的意图,Wi表示召回的意图中词qi的权重,n表示召回的意图中词的数量,R表示……。
计算所述召回的意图对应的意图语义向量和所述对话数据语义向量的相似度,作为所述召回的意图的所述语义层面分数;
获取基于所述机器学习算法得到所述召回的意图的概率,作为所述召回的意图的所述机器学习算法层面分数。
在一些示例性实施例中,所述对所述词层面分数、所述语义层面分数和所述机器学习算法层面分数进行归一化,包括:
分别获取所述词层面分数、所述语义层面分数和所述机器学习算法层面分数中的最高分数;
对所述词层面分数、所述语义层面分数和机器学习算法层面分数中的任一分数,将所述分数除以其对应的层面的所述最高分数,得到所述归一化后的词层面分数、语义层面分数和机器学习算法层面分数。
步骤S360、将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据。
在一些示例性实施例中,所述模板为填充文本字符串空白的完形填空模板。
在一些示例性实施例中,所述将所述拼接的对话数据和所述意图召回结果填充入预先构建的模板,得到模板化的用户数据,包括:
确定所述拼接的对话数据对应的任务类型,将所述拼接的对话数据和所述意图召回结果填充入所述任务类型对应的所述模板。
步骤S370、将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。
在一些示例性实施例中,所述将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图,包括:
对所述模板化的对话数据进行编码,分别计算编码后的模板化的对话数据中的所述备选的意图的分数,对所述分数最高的所述备选的意图进行解码,将解码后的备选的意图,作为所述确定的意图。
参考图4,其为本公开实施例提供的意图识别方法的另一种流程示意图。
意图识别方法,包括以下步骤:
步骤S410、获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据。
步骤S420、根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图。
步骤S430、将所述拼接的对话数据和所述备选的意图填充入预先构建的多个不同的模板,得到多个模板化的用户数据。
在一些示例性实施例中,对于同一任务类型,构建多个其对应的模板。
步骤S440、将多个所述模板化的用户数据分别输入预先构建并训练的意图识别模型,得到确定的意图。
需要说明的是,本公开实施例的方法可以由单个设备执行,例如一台计算机或服务器等。本实施例的方法也可以应用于分布式场景下,由多台设备相互配合来完成。在这种分布式场景的情况下,这多台设备中的一台设备可以只执行本公开实施例的方法中的某一个或多个步骤,这多台设备相互之间会进行交互以完成所述的方法。
需要说明的是,上述对本公开的一些实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于上述实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种意图识别装置。
参考图5,意图识别装置,包括:
对话数据获取模块510,被配置为获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据。
备选意图获取模块520,被配置为根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图。
在一些示例性实施例中,备选意图获取模块520,具体被配置为:
根据所述拼接的对话数据,基于词相似召回所述用户的意图,得到若干词层面的召回的意图;
根据所述拼接的对话数据,基于语义相似召回所述用户的意图,得到若干语义层面的召回的意图;
根据所述拼接的对话数据中的所述当前输入,基于机器学习算法召回所述用户的意图,得到若干机器学习算法层面的召回的意图;
对所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图进行融合,得到若干融合的召回的意图,并根据所述融合的召回的意图,得到若干所述备选的意图;
其中,所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图从属于同一意图库。
在一些示例性实施例中,备选意图获取模块520,具体被配置为:
从所述意图库中检索包含与所述拼接的对话数据中的词的相似度达到词相似度阈值的词的意图,作为所述词层面的召回的意图。
在一些示例性实施例中,备选意图获取模块520,具体被配置为:
对所述拼接的对话数据进行编码,得到对话数据语义向量;
从所述意图库中检索与所述对话数据语义向量的相似度达到语义向量相似度阈值的所述意图语义向量,其中,所述意图库中的意图包含预先编码得到的意图语义向量;
将所述意图语义向量对应的意图作为所述语义层面的召回的意图。
在一些示例性实施例中,备选意图获取模块520,具体被配置为:
预先基于机器学习算法构建并训练意图召回模型;
将所述当前输入输入所述意图召回模型,获取所述意图召回模型输出的的召回的意图,作为所述机器学习算法层面的召回的意图。
在一些示例性实施例中,备选意图获取模块520,具体被配置为:
对于任一所述召回的意图,分别计算所述召回的意图的词层面分数、语义层面分数和机器学习算法层面分数,并分别对所述词层面分数、所述语义层面分数和所述机器学习算法层面分数进行归一化,将归一化后的词层面分数、语义层面分数和机器学习算法层面分数的平均值作为所述召回的意图的融合分数;
将所述融合分数高于融合分数阈值的所述召回的意图,作为所述备选的意图。
在一些示例性实施例中,备选意图获取模块520,具体被配置为:
计算所述召回的意图和所述拼接的对话数据的词层面的相似度,作为所述召回的意图的所述词层面分数;
计算所述召回的意图对应的意图语义向量和所述对话数据语义向量的相似度,作为所述召回的意图的所述语义层面分数;
获取基于所述机器学习算法得到所述召回的意图的概率,作为所述召回的意图的所述机器学习算法层面分数。
在一些示例性实施例中,备选意图获取模块520,具体被配置为:
分别获取所述词层面分数、所述语义层面分数和所述机器学习算法层面分数中的最高分数;
对所述词层面分数、所述语义层面分数和机器学习算法层面分数中的任一分数,将所述分数除以其对应的层面的所述最高分数,得到所述归一化后的词层面分数、语义层面分数和机器学习算法层面分数。
用户数据模板化模块530,被配置为将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据。
在一些示例性实施例中,所述模板为填充文本字符串空白的完形填空模板;用户数据模板化模块530,具体被配置为:
确定所述拼接的对话数据对应的任务类型,将所述拼接的对话数据和所述备选的意图填充入所述任务类型对应的所述模板。
用户意图确定模块540,被配置为将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。
在一些示例性实施例中,用户意图确定模块540,具体被配置为:
对所述模板化的对话数据进行编码,分别计算编码后的模板化的对话数据中的所述备选的意图的分数,对所述分数最高的所述备选的意图进行解码,将解码后的备选的意图,作为所述确定的意图。
为了描述的方便,描述以上装置时以功能分为各种模块分别描述。当然,在实施本公开时可以把各模块的功能在同一个或多个软件和/或硬件中实现。
上述实施例的装置用于实现前述任一实施例中相应的意图识别方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现上任意一实施例所述的意图识别方法。
图6示出了本实施例所提供的一种更为具体的电子设备硬件结构示意图,该设备可以包括:处理器1010、存储器1020、输入/输出接口1030、通信接口1040和总线1050。其中处理器1010、存储器1020、输入/输出接口1030和通信接口1040通过总线1050实现彼此之间在设备内部的通信连接。
处理器1010可以采用通用的CPU(Central Processing Unit,中央处理器)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本说明书实施例所提供的技术方案。
存储器1020可以采用ROM(Read Only Memory,只读存储器)、RAM(Random AccessMemory,随机存取存储器)、静态存储设备,动态存储设备等形式实现。存储器1020可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1020中,并由处理器1010来调用执行。
输入/输出接口1030用于连接输入/输出模块,以实现信息输入及输出。输入/输出模块可以作为组件配置在设备中(图中未示出),也可以外接于设备以提供相应功能。其中输入设备可以包括键盘、鼠标、触摸屏、麦克风、各类传感器等,输出设备可以包括显示器、扬声器、振动器、指示灯等。
通信接口1040用于连接通信模块(图中未示出),以实现本设备与其他设备的通信交互。其中通信模块可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信。
总线1050包括一通路,在设备的各个组件(例如处理器1010、存储器1020、输入/输出接口1030和通信接口1040)之间传输信息。
需要说明的是,尽管上述设备仅示出了处理器1010、存储器1020、输入/输出接口1030、通信接口1040以及总线1050,但是在具体实施过程中,该设备还可以包括实现正常运行所必需的其他组件。此外,本领域的技术人员可以理解的是,上述设备中也可以仅包含实现本说明书实施例方案所必需的组件,而不必包含图中所示的全部组件。
上述实施例的电子设备用于实现前述任一实施例中相应的意图识别方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
基于同一发明构思,与上述任意实施例方法相对应的,本公开还提供了一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使所述计算机执行如上任一实施例所述的意图识别方法。
上述非暂态计算机可读存储介质可以是计算机能够存取的任何可用介质或数据存储设备,包括但不限于磁性存储器(例如软盘、硬盘、磁带、磁光盘(MO)等)、光学存储器(例如CD、DVD、BD、HVD等)、以及半导体存储器(例如ROM、EPROM、EEPROM、非易失性存储器(NAND FLASH)、固态硬盘(SSD))等。
上述实施例的存储介质存储的计算机指令用于使所述计算机执行如上示例性方法部分中任一实施例所述的意图识别方法,并且具有相应的方法实施例的有益效果,在此不再赘述。
本领域技术技术人员知道,本公开的实施方式可以实现为一种系统、方法或计算机程序产品。因此,本公开可以具体实现为以下形式,即:完全的硬件、完全的软件(包括固件、驻留软件、微代码等),或者硬件和软件结合的形式,本文一般称为“电路”、“模块”或“系统”。此外,在一些实施例中,本公开还可以实现为在一个或多个计算机可读介质中的计算机程序产品的形式,该计算机可读介质中包含计算机可读的程序代码。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是,但不限于,电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举示例)例如可以包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络(包括局域网(LAN)或广域网(WAN))连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
应当理解,流程图和/或框图的每个方框以及流程图和/或框图中各方框的组合都可以由计算机程序指令实现。这些计算机程序指令可以提供给通用计算机、专用计算机或其它可编程数据处理装置的处理器,从而生产出一种机器,这些计算机程序指令通过计算机或其它可编程数据处理装置执行,产生了实现流程图和/或框图中的方框中规定的功能/操作的装置。
也可以把这些计算机程序指令存储在能使得计算机或其它可编程数据处理装置以特定方式工作的计算机可读介质中,这样,存储在计算机可读介质中的指令就产生出一个包括实现流程图和/或框图中的方框中规定的功能/操作的指令装置的产品。
也可以把计算机程序指令加载到计算机、其它可编程数据处理装置、或其它设备上,使得在计算机、其它可编程数据处理装置或其它设备上执行一系列操作步骤,以产生计算机实现的过程,从而使得在计算机或其它可编程装置上执行的指令能够提供实现流程图和/或框图中的方框中规定的功能/操作的过程。
此外,尽管在附图中以特定顺序描述了本公开方法的操作,但是,这并非要求或者暗示必须按照该特定顺序来执行这些操作,或是必须执行全部所示的操作才能实现期望的结果。相反,流程图中描绘的步骤可以改变执行顺序。附加地或备选地,可以省略某些步骤,将多个步骤合并为一个步骤执行,和/或将一个步骤分解为多个步骤执行。
申请文件中提及的动词“包括”、“包含”及其词形变化的使用不排除除了申请文件中记载的那些元素或步骤之外的元素或步骤的存在。元素前的冠词“一”或“一个”不排除多个这种元素的存在。
虽然已经参考若干具体实施方式描述了本公开的精神和原理,但是应该理解,本公开并不限于所公开的具体实施方式,对各方面的划分也不意味着这些方面中的特征不能组合以进行受益,这种划分仅是为了表述的方便。本公开旨在涵盖所附权利要求的精神和范围内所包括的各种修改和等同布置。所附权利要求的范围符合最宽泛的解释,从而包含所有这样的修改及等同结构和功能。
Claims (13)
1.一种意图识别方法,其特征在于,包括:
获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据;
根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图;
将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据;
将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。
2.根据权利要求1所述的方法,其特征在于,所述根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图,包括:
根据所述拼接的对话数据,基于词相似召回所述用户的意图,得到若干词层面的召回的意图;
根据所述拼接的对话数据,基于语义相似召回所述用户的意图,得到若干语义层面的召回的意图;
根据所述拼接的对话数据中的所述当前输入,基于机器学习算法召回所述用户的意图,得到若干机器学习算法层面的召回的意图;
对所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图进行融合,得到若干融合的召回的意图,并根据所述融合的召回的意图,得到若干所述备选的意图;
其中,所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图从属于同一意图库。
3.根据权利要求2所述的方法,其特征在于,所述根据所述拼接的对话数据,基于词相似召回所述用户的意图,得到若干词层面的召回的意图,包括:
从所述意图库中检索包含与所述拼接的对话数据中的词的相似度达到词相似度阈值的词的意图,作为所述词层面的召回的意图。
4.根据权利要求2所述的方法,其特征在于,所述根据所述拼接的对话数据,基于语义相似召回所述用户的意图,得到若干语义层面的召回的意图,包括:
对所述拼接的对话数据进行编码,得到对话数据语义向量;
从所述意图库中检索与所述对话数据语义向量的相似度达到语义向量相似度阈值的意图语义向量,其中,所述意图库中的意图包含预先编码得到的意图语义向量;
将所述意图语义向量对应的意图作为所述语义层面的召回的意图。
5.根据权利要求2所述的方法,其特征在于,所述根据所述拼接的对话数据中的所述当前输入,基于机器学习算法召回所述用户的意图,得到若干机器学习算法层面的召回的意图,包括:
预先基于机器学习算法构建并训练意图召回模型;
将所述当前输入输入所述意图召回模型,获取所述意图召回模型输出的的召回的意图,作为所述机器学习算法层面的召回的意图。
6.根据权利要求2所述的方法,其特征在于,所述对所述词层面的召回的意图、所述语义层面的召回的意图和所述机器学习算法层面的召回的意图进行融合,得到若干融合的召回的意图,并根据所述融合的召回的意图得到若干所述备选的意图,包括:
针对每一所述召回的意图,分别计算所述召回的意图的词层面分数、语义层面分数和机器学习算法层面分数,并分别对所述词层面分数、所述语义层面分数和所述机器学习算法层面分数进行归一化,将归一化后的词层面分数、语义层面分数和机器学习算法层面分数的平均值作为所述召回的意图的融合分数;
将所述融合分数高于融合分数阈值的所述召回的意图,作为所述备选的意图。
7.根据权利要求6所述的方法,其特征在于,所述计算所述召回的意图的词层面分数、语义层面分数和机器学习算法层面分数,包括:
计算所述召回的意图和所述拼接的对话数据的词层面的相似度,作为所述召回的意图的所述词层面分数;
计算所述召回的意图对应的意图语义向量和所述对话数据语义向量的相似度,作为所述召回的意图的所述语义层面分数;
获取基于所述机器学习算法得到所述召回的意图的概率,作为所述召回的意图的所述机器学习算法层面分数。
8.根据权利要求6所述的方法,其特征在于,所述对所述词层面分数、所述语义层面分数和所述机器学习算法层面分数进行归一化,包括:
分别获取所述词层面分数、所述语义层面分数和所述机器学习算法层面分数中的最高分数;
针对对所述词层面分数、所述语义层面分数和机器学习算法层面分数中的每一分数,将所述分数除以其对应的层面的所述最高分数,得到所述归一化后的词层面分数、语义层面分数和机器学习算法层面分数。
9.根据权利要求1所述的方法,其特征在于,所述模板为包含用于填充文本字符串空白的完形填空模板;
所述将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据,包括:
确定所述拼接的对话数据对应的任务类型,将所述拼接的对话数据和所述备选的意图填充入所述任务类型对应的所述模板。
10.根据权利要求1所述的方法,其特征在于,所述将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图,包括:
对所述模板化的对话数据进行编码,分别计算编码后的模板化的对话数据中的所述备选的意图的分数,对所述分数最高的所述备选的意图进行解码,将解码后的备选的意图,作为所述确定的意图。
11.一种意图识别装置,其特征在于,包括:
对话数据获取模块,被配置为获取用户的当前输入以及与所述用户相关的至少一轮历史对话,并拼接所述当前输入和所述历史对话,得到拼接的对话数据;
备选意图获取模块,被配置为根据所述拼接的对话数据召回所述用户的意图,得到若干召回的意图,并根据所述召回的意图,得到若干备选的意图;
用户数据模板化模块,被配置为将所述拼接的对话数据和所述备选的意图填充入预先构建的模板,得到模板化的用户数据;
用户意图确定模块,被配置为将所述模板化的用户数据输入预先构建并训练的意图识别模型,得到确定的意图。
12.一种电子设备,其特征在于,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如权利要求1至10任意一项所述的方法。
13.一种非暂态计算机可读存储介质,其特征在于,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令用于使计算机执行权利要求1至10任一所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210359847.3A CN114626388A (zh) | 2022-04-06 | 2022-04-06 | 意图识别方法、装置、电子设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210359847.3A CN114626388A (zh) | 2022-04-06 | 2022-04-06 | 意图识别方法、装置、电子设备及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114626388A true CN114626388A (zh) | 2022-06-14 |
Family
ID=81905763
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210359847.3A Pending CN114626388A (zh) | 2022-04-06 | 2022-04-06 | 意图识别方法、装置、电子设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114626388A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115062629A (zh) * | 2022-07-12 | 2022-09-16 | 平安科技(深圳)有限公司 | 会话信息的识别方法及装置、存储介质、计算机设备 |
-
2022
- 2022-04-06 CN CN202210359847.3A patent/CN114626388A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115062629A (zh) * | 2022-07-12 | 2022-09-16 | 平安科技(深圳)有限公司 | 会话信息的识别方法及装置、存储介质、计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11216510B2 (en) | Processing an incomplete message with a neural network to generate suggested messages | |
US11948058B2 (en) | Utilizing recurrent neural networks to recognize and extract open intent from text inputs | |
US11816439B2 (en) | Multi-turn dialogue response generation with template generation | |
US9892414B1 (en) | Method, medium, and system for responding to customer requests with state tracking | |
CN108985358B (zh) | 情绪识别方法、装置、设备及存储介质 | |
CN111737411A (zh) | 人机对话中的响应方法、对话系统及存储介质 | |
CN113505198B (zh) | 关键词驱动的生成式对话回复方法、装置及电子设备 | |
US11036996B2 (en) | Method and apparatus for determining (raw) video materials for news | |
US8315874B2 (en) | Voice user interface authoring tool | |
CN112825249A (zh) | 语音处理方法和设备 | |
CN115132209B (zh) | 语音识别方法、装置、设备和介质 | |
US11170765B2 (en) | Contextual multi-channel speech to text | |
CN114911915A (zh) | 一种基于知识图谱的问答搜索方法、系统、设备和介质 | |
CN115394321A (zh) | 音频情感识别方法、装置、设备、存储介质及产品 | |
CN117591663B (zh) | 一种基于知识图谱的大模型prompt生成方法 | |
CN115148212A (zh) | 一种语音交互方法、智能设备及系统 | |
CN114626388A (zh) | 意图识别方法、装置、电子设备及存储介质 | |
JP7182584B2 (ja) | スピーチ理解における解析異常の情報を出力するための方法 | |
CN116644180A (zh) | 文本匹配模型的训练方法、训练系统和文本标签确定方法 | |
CN116861913A (zh) | 基于gpt大模型的立场检测方法及相关设备 | |
CN116974554A (zh) | 代码数据处理方法、装置、计算机设备和存储介质 | |
CN115827865A (zh) | 一种融合多特征图注意力机制的不良文本分类方法及系统 | |
US20220092403A1 (en) | Dialog data processing | |
CN115101075A (zh) | 一种语音识别的方法以及相关装置 | |
JP2022121386A (ja) | テキストベースの話者変更検出を活用した話者ダイアライゼーション補正方法およびシステム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |