CN111611383A - 用户意图的识别方法、装置、计算机设备及存储介质 - Google Patents

用户意图的识别方法、装置、计算机设备及存储介质 Download PDF

Info

Publication number
CN111611383A
CN111611383A CN202010455342.8A CN202010455342A CN111611383A CN 111611383 A CN111611383 A CN 111611383A CN 202010455342 A CN202010455342 A CN 202010455342A CN 111611383 A CN111611383 A CN 111611383A
Authority
CN
China
Prior art keywords
candidate
text information
positive
intention
negative
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010455342.8A
Other languages
English (en)
Inventor
李小娟
徐国强
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
OneConnect Smart Technology Co Ltd
OneConnect Financial Technology Co Ltd Shanghai
Original Assignee
OneConnect Financial Technology Co Ltd Shanghai
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by OneConnect Financial Technology Co Ltd Shanghai filed Critical OneConnect Financial Technology Co Ltd Shanghai
Priority to CN202010455342.8A priority Critical patent/CN111611383A/zh
Publication of CN111611383A publication Critical patent/CN111611383A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/30Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
    • G06F16/35Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Biophysics (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)

Abstract

本发明涉及人工智能中的人机对话技术领域,提供一种用户意图的识别方法、装置、计算机设备及存储介质,该方法包括:获取用户端提供的文本信息,并从预设的意图识别系统中获取多个内置话术;将与文本信息的意图相似度达到第一预设阈值的内置话术作为候选话术;根据训练好的正反义分类模型得到候选话术的分类结果;基于分类结果获得候选话术的正反义分值;根据候选话术和意图相似度获得各个候选话术的候选值;根据候选值大小选择候选话术作为意图识别结果。通过本发明的实施,能够解决现有技术中的用户意图的识别技术存在的用户意图识别精准度较低的问题。本发明还涉及区块链技术,且本发明可应用于智慧政务领域中,从而推动智慧城市的建设。

Description

用户意图的识别方法、装置、计算机设备及存储介质
技术领域
本发明涉及人机对话技术领域,尤其涉及一种用户意图的识别方法、装置、计算机设备及存储介质。
背景技术
近些年来,企业为减少人力投入,提高客服对话效率,越来越多的企业将用户意图的识别技术应用到客服场景中。目前,现有的用户意图的识别一般采用以下两种方法:第一种是当用户输入语句时,机器不识别用户输入的对话,利用预先设定的模板直接向用户反馈与各种服务对应的话术,用户根据反馈的话术选择对应的服务;第二种是当用户输入语句时,机器人识别用户输入的对话,进而获取到用户的意图,进而选择对应的话术向用户反馈。虽然上述两种方法能够在一定程度上实现用户意图的识别过程,但是由于中文语言的复杂性,仅仅通过字面识别通常不能完全识别出用户的意图,容易造成对用户意图的误判。
综上所述,现有技术中的用户意图的识别技术存在用户意图识别精准度较低的问题。
发明内容
本发明提供一种用户意图的识别方法、装置、计算机设备及存储介质,以解决现有技术中的用户意图的识别技术存在的用户意图识别精准度较低的问题。
本发明提供一种用户意图的识别方法,包括:
获取用户端提供的文本信息,并从预设的意图识别系统中获取多个内置话术;
计算文本信息与各个内置话术之间的意图相似度,将意图相似度达到第一预设阈值的内置话术作为候选话术;
根据预先训练好的正反义分类模型判断候选话术与文本信息之间的正反义关系,得到各个候选话术的分类结果;
基于分类结果获得各个候选话术的正反义分值;
计算各个候选话术的意图相似度和正反义分值之和,得到各个候选话术的候选值;
按照候选值的大小从候选话术中选择至少一个候选话术作为意图识别结果。
本发明提供一种用户意图的识别装置,包括:
内置话术获取模块,用于获取用户端提供的文本信息,并从预设的意图识别系统中获取多个内置话术;
候选话术获取模块,用于计算文本信息与各个内置话术之间的意图相似度,将意图相似度达到第一预设阈值的内置话术作为候选话术;
分类结果获取模块,用于根据预先训练好的正反义分类模型判断候选话术与文本信息之间的正反义关系,得到各个候选话术的分类结果;
正反义分值获取模块,用于基于分类结果获得各个候选话术的正反义分值;
候选值获取模块,用于计算各个候选话术的意图相似度和正反义分值之和,得到各个候选话术的候选值;
意图识别结果获取模块,用于按照候选值的大小从候选话术中选择至少一个候选话术作为意图识别结果。
本发明提供一种计算机设备,包括存储器、处理器以及存储在存储器中并可在处理器上运行的计算机程序,处理器执行计算机程序时实现本发明提供的一种用户意图的识别方法的步骤。
本发明提供一种计算机可读存储介质,计算机可读存储介质存储有计算机程序,计算机程序被处理器执行时实现本发明提供的一种用户意图的识别方法的步骤。
本申请提供的一种用户意图的识别方法、装置、计算机设备及存储介质,首先获取用户端提供的文本信息,并从预设的意图识别系统中获取多个内置话术,然后计算文本信息与各个内置话术之间的意图相似度,将意图相似度达到第一预设阈值的内置话术作为候选话术,再根据预先训练好的正反义分类模型判断候选话术与文本信息之间的正反义关系,得到各个候选话术的分类结果,再之,基于分类结果获得各个候选话术的正反义分值,然后计算各个候选话术的意图相似度和正反义分值之和,得到各个候选话术的候选值,最后按照候选值的大小从候选话术中选择至少一个候选话术作为意图识别结果。在本发明中,在对用户端提供的文本信息进行意图识别的过程中加入正反义判断,而不仅仅根据文本信息的字面获得用户的意图,解决了现有技术中的用户意图的识别技术存在的用户意图识别精准度较低的问题,进而能够向用户反馈更加准确的话术。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例的用户意图的识别方法的一应用环境示意图;
图2是本发明实施例的用户意图的识别方法的流程示意图
图2是本发明实施例的用户意图的识别方法的流程示意图;
图3是本发明实施例的用户意图的识别方法中步骤12的流程示意图;
图4是本发明实施例的用户意图的识别方法中步骤13的流程示意图;
图5是本发明实施例的用户意图的识别方法中步骤131的流程示意图;
图6是本发明实施例的用户意图的识别方法中步骤14的流程示意图;
图7是本发明实施例的用户意图的识别方法的又一的流程示意图;
图8是本发明实施例的用户意图的识别装置的模块示意图;
图9是本发明实施例的用户意图的识别装置的又一模块示意图;
图10是本发明实施例的计算机设备的模块示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的第一实施例提供的用户意图的识别方法,可应用于如图1所示的应用环境中,其中,服务端从客户端获取用户端提供的文本信息,并从预设的意图识别系统中获取多个内置话术,然后计算文本信息与各个内置话术之间的意图相似度,将意图相似度达到第一预设阈值的内置话术作为候选话术,再根据预先训练好的正反义分类模型判断候选话术与文本信息之间的正反义关系,得到各个候选话术的分类结果,再之基于分类结果获得各个候选话术的正反义分值,然后计算各个候选话术的意图相似度和正反义分值之和,得到各个候选话术的候选值,最后按照候选值的大小从候选话术中选择至少一个候选话术作为意图识别结果,并将意图识别结果发送至客户端。服务端可以是具备图像数据处理能力的设备,服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。其中,客户端可以是独立开发APP、小程序、网页、公众号等。客户端能够与终端设备结合使用,终端设备可以但不限于各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备。服务端可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
在本发明实施例中,如图2所示,提供一种用户意图的识别方法,以该方法应用在图1中的服务端为例进行说明,包括如下步骤11至步骤16。
步骤11:获取用户端提供的文本信息,并从预设的意图识别系统中获取多个内置话术。
其中,文本信息应当包含代表用户输入信息的文本。可以从用户输入的语句中直接获取文本信息,也可以从用户输入的语音获取文本信息。当从用户输入的语音获取文本信息时,应当利用语音识别技术从用户输入的语音识别获取文本信息。
另外,意图识别系统应当是预先构建,在意图识别系统中存储有多个内置话术,内置话术用于与用户端提供的文本信息进行匹配。当内置话术的意图与文本信息的意图越接近,越容易根据内置话术向用户反馈符合用户需求的话术。
需要注意的是,为进一步保证上述内置话术的的私密和安全性,上述内置话术可以存储于一区块链的节点中。
步骤12:计算文本信息与各个内置话术之间的意图相似度,将意图相似度达到第一预设阈值的内置话术作为候选话术。
其中,意图相似度用于表示文本信息与各个内置话术之间的相似度,第一预设阈值越大,获得的候选话术与文本信息的相似度越大。另外,在本实实施例中,需要将与候选话术对应的意图相似度和意图相似度相互联系起来,一一对应。
进一步地,作为本实施例的一种实施方式,如图3所示,上述步骤12还包括以下步骤121至步骤123:
步骤121:分别对文本信息和内置话术进行分词处理,获得第一词汇集和第二词汇集,第一词汇集代表文本信息,每一个第二词汇集代表一个内置话术。
其中,第一词汇集和第二词汇集中的各个元素可以是字、词、词组中的至少一种。另外,在本实施例中,可以先对文本信息中的各个文字、字符进行隔离,通过在词典中查询相邻的多个文字、字符,判断相邻的多个文字、字符能否形成词组或短语,当相邻的多个文字、字符能够形成词组或短语,则将该相邻的多个文字、字符隔离成对应的词组或短语;当相邻的多个文字、字符能够形成词组或短语,则将该相邻的多个文字、字符按照单个文字、字符的方式进行隔离。
步骤122:计算第一词汇集与各个第二词汇集之间的文本相似度,将文本相似度作为意图相似度。
其中,具体可以通过余弦相似度计算方法、欧氏距离计算方法、海明公式计算方法等计算第一词汇集和第二词汇集之间的文本相似度。
步骤123:比较意图相似度与第一预设阈值之间的大小,将意图相似度超过第一预设阈值的内置话术作为候选话术。
其中,当第一预设阈值越大,候选话术与文本信息的意图相似度越高。
通过上述步骤121至步骤123的实施,能够计算获得文本信息和内置话术之间的文本相似度,从而获得与文本信息的文本高度相似的候选话术。
步骤13:根据预先训练好的正反义分类模型判断候选话术与文本信息之间的正反义关系,得到各个候选话术的分类结果。
其中,分类结果表示候选话术与文本信息之间的正反义关系。例如,文本信息为“这个问题我差不多了解了”(正向),候选话术为“这个问题我了解的不多”(反向),此时该候选话术与文本信息之间的正反义关系为“反向关系”,此时候选话术的分类结果为“反向关系”。
进一步地,作为本实施例的一种实施方式,如图4所示,上述步骤13还包括以下步骤131至步骤132:
步骤131:根据预先训练好的正反义分类模型分别获得候选话术和文本信息的所属类别。
其中,候选话术和文本信息的所属类别至少包括正向类别和反向类别。
进一步地,作为本实施例的一种实施方式,如图5所示,上述步骤131还包括以下步骤1311至步骤1314:
步骤1311:预先训练好的正反义分类模型获取文本信息,并将文本信息转换成词向量矩阵。
其中,具体是根据预先训练好的正反义模型中的词向量层获得该词向量矩阵,词向量矩阵可以用来表示文本信息。例如,文本信息为“差不多可以”,此时文本信息可以用词向量矩阵如下表(1)所示:
0 0 0 0 0
1 1 2 0 0
0 0 1 1 0
0 1 1 0 2
1 0 0 2 2
表(1)
步骤1312:通过预先训练好的正反义模型中的多个卷积核分别从词向量矩阵中提取文本信息的上下文特征,并将多个上下文特征分别用矩阵进行表示以获得多个特征向量。
其中,正反义模型中包括多种卷积核,每种卷积核的数量为至少一个,每种卷积核的尺寸不同,同一种卷积核的尺寸相同。优选地,正反义模型可以包括6个卷积核,六个卷积核的尺寸大小分别为2×5、2×5、3×5、3×5、4×5、4×5。其中,具体是通过上述六个卷积核将代表各个上下文特征的矩阵分别进行卷积计算,从代表各个上下文特征的矩阵中进一步地提取特征,获得各个特征向量,特征向量可以用于表示文本信息中文本的上下文信息的特征。例如,以两个尺寸大小为3×5的卷积核从上述词向量矩阵中提取文本信息的上下文特征,并将该上下文特征用特征向量进行表示,具体地,第一个尺寸大小为3×5的卷积核从上述表(1)中提取获得的特征向量用下表(2)表示:
Figure BDA0002509141480000081
Figure BDA0002509141480000091
表(2)
第二个尺寸大小为3×5的卷积核从上述表(1)中提取获得的特征向量可以用下表(3)进行表示:
1 1 -1 1 1
-1 1 0 1 1
-1 -1 1 1 -1
表(3)
步骤1313:分别对多个特征向量进行最大池化以获得每个特征向量的最大值,将多个特征向量的最大值进行拼接,获得文本信息的特征表达向量。
其中,具体是从各个特征向量中获得特征向量的最大值,然后将各个最大值进行拼接,将拼接的结果作为文本信息的特征表达向量。优选地,由于正反义模型中设置有六个卷积核,因此,在上述步骤1312中获得六个特征向量,在步骤1313中获得六个最大值,并将最大值进行拼接。
具体地,以上述步骤1312中表(2)和表(3)对应的特征向量为例,计算与表(2)对应的特征向量的最大值,计算过程如下:先获得特征向量的三个极大值:第一个极大值:(0)+(0+1*1+0+0+0)+(0+0+1*1+1*1+0)=3;第二个极大值:(1*1+1*1+2*-1+0+0)+(0+0+0+1*1+0)+(0+1*1+1*1+0+2*-1)=1;第三个极大值:(0+0+1*-1+0+0)+(0+0+0+0+2*-1)+(1*-1+0+0+2*1+2*-1)=-4;获得与表(2)对应的极大值表示如下表(4)所示:
Figure BDA0002509141480000092
Figure BDA0002509141480000101
表(4)
同理可得与表(3)对应的极大值表示如下表(5)所示:
2
-1
2
表(5)
然后再对与表(4)和表(5)对应的极大值表示进行最大池化处理获得最大值并进行拼接,由于与表(4)对应的最大值为-4,与表(5)对应的最大值为2,因此,两个尺寸大小均为3×5的卷积核拼接获得的特征表达向量如下表(6)所示:
4
2
表(6)
需要注意的是,上述步骤1312至步骤1313中均是以尺寸大小为3×5的卷积核进行详细描述,尺寸大小分别为2×5、2×5、4×5、4×5的卷积核拼接获得的特征表达向量的方法与上述步骤1312至步骤1313中尺寸大小为3×5的卷积核拼接获得的特征表达向量的方法类似,此处不再赘述。
步骤1314:预先训练好的正反义模型中的softmax层根据特征表达向量获得文本信息属于各个所属类别的概率值,根据概率值的大小确定文本信息的所属类别。
其中,具体是预先训练好的正反义模型中的softmax层根据特征表达向量获得文本信息属于正向类别的概率值和属于反向类别的概率值,当正向类别的概率值大于反向类别的概率值时,确定文本信息的所属类别为正向类别;当正向类别的概率值小于反向类别的概率值时,确定文本信息的所属类别为反向类别。
需要注意的是,在本实施例中,获得文本信息的所属类别的方法与获取候选话术的所属类别的方法类似,因此,对获取候选话术的所属类别的方法此处不再赘述。
通过上述步骤1311至步骤1314的实施,能够获得文本信息和候选话术的正反义的所属类别,使得在后续的对文本的判断过程中,可以对文本所表达的实际含义进行准确判断,避免表意相近,实际含义不同的两个文本判为相似文本。
步骤132:根据候选话术和文本信息的所属类别获得候选话术与文本信息之间的正反义关系,得到各个候选话术的分类结果。
其中,分类结果就是可以包括正向关系和反向关系。具体地,当候选话术与文本信息的所属类别相同时,候选话术与文本信息之间为正向关系;当候选话术与文本信息的所属类别不相同时,候选话术与文本信息之间为反向关系。
通过上述步骤131至步骤132的实施,能够判断出候选话术与文本信息之间的正反义关系,当将其应用于多轮对话过程中时,有利于向用户反馈更加准确的内容。
步骤14:基于分类结果获得各个候选话术的正反义分值。
其中,正反义分值可以包括任意数值,例如负数、零。优选地,可以根据多轮对话的应用业务类型预先定义正反义分值的大小,通常来说,分类结果为正向关系时,候选话术的正反义分值较高,分类结果为反向关系时,候选话术的正反义分值较低。
进一步地,作为本实施例的一种实施方式,如图6所示,上述步骤14还包括以下步骤141至步骤143:
步骤141:获取候选话术所处的应用场景。
其中,应用场景具体可以是根据功能下的场景,具体可以是处于不同业务下的场景。
步骤142:根据应用场景获取候选话术对应的权重值。
其中,由于每个候选话术对应不同的功能需求,针对不同的功能需求调用对应的话术,通过控制候选话术对应的权重值来调整候选话术所处的应用场景在总的正反义分值中的占比。
步骤143:根据分类结果和权重值获得候选话术的正反义分值。
其中,具体可以预先构建分类结果与预设分值的映射表,根据分类结果从预先构建的映射表获得预设分值,将该预设分值与权重值做加法或者乘法运算,从而得到正反义分值。
通过上述步骤141至步骤143的实施,能够根据不同的场景需求,调整分类结果获得正反义分值的权重,从而得到正反义分值。
步骤15:计算各个候选话术的意图相似度和正反义分值之和,得到各个候选话术的候选值。
其中,具体是将各个候选话术的意图相似值和正反义分值进行求和计算,从而获得各个候选话术的候选值。
步骤16:按照候选值的大小从候选话术中选择至少一个候选话术作为意图识别结果。
其中,具体可以按照候选值的大小进行排序,将排名在预设范围内的候选话术作为意图识别结果。另外,意图识别结果中的候选话术应当是与文本信息的意图想接近,从而根据用户端的意图向用户反馈对应的话术。
进一步地,作为本实施例的一种实施方式,如图7所示,在上述步骤11之前,还需要获得预先训练好的正反义分类模型,获得预先训练好的正反义分类模型包括以下步骤21至步骤26:
步骤21:通过正反义分类模型分别获取多个样本文本信息,并分别将样本文本信息转换成样本词向量矩阵。
其中,样本文本信息应当预先标注,且至少包含正向样本文本信息和反向样本文本信息,正向样本文本信息和反向样本文本信息的比例应当接近,如正向样本文本信息和反向样本文本信息之间的比为1:1。
步骤22:通过正反义模型中的多个卷积核分别从样本词向量矩阵中提取样本文本信息的样本上下文特征,并将多个样本上下文特征分别用矩阵进行表示以获得多个样本特征向量。
其中,获得样本特征向量的方法与上述步骤1312中获得特征向量的方法类似,此处不再赘述。
步骤23:分别对多个样本特征向量进行最大池化以获得每个样本特征向量的最大值,将多个样本特征向量的最大值进行拼接,获得样本文本信息的样本特征表达向量。
其中,获得样本特征表达向量的方法与上述步骤1313中获得样本特征表达向量的方法类似,此处不再赘述。
步骤24:正反义模型中的softmax层根据样本特征表达向量获得样本文本信息属于各个预测所属类别的概率值,根据概率值的大小确定样本文本信息的预测所属类别。
其中,获得样本文本信息的预测所属类别的方法与上述步骤1314中获得文本信息的所属类别的方法类似,此处不再赘述。另外,还可以在根据样本表达向量获得预测所属类别的过程中加入dropout和L2正则化操作,以防止过拟合现象。
步骤25:将各个样本文本信息的预测所属类别与样本文本信息的实际所属类别进行对比,计算预测样本文本信息的预测所属类别的正确率。
其中,正确率为预测各个样本文本信息的预测所属类别与样本文本信息的实际所属类别的数量在总样本数量中的占比。
步骤26:当正确率未达到预设正确率阈值时,调整正反义模型中的参数,循环获取上下文特征至本步骤,直至正确率达到预设正确率阈值时,将当前的正反义分类模型确定为预先训练好的正反义分类模型。
通过上述步骤21至步骤26的实施,能够获得预先训练好的正反义分类模型,以便于后续步骤11至步骤16中对用户意图的识别。
需要注意的是,本发明提供的各实施例可应用于智慧政务领域中,从而推动智慧城市的建设。
应理解,上述实施例中各步骤的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。
本发明的第二实施例提供一种用户意图的识别装置,该用户意图的识别装置与上述提供的用户意图的识别方法一一对应。
进一步地,如图8所示,该用户意图的识别装置包括内置话术获取模块41、候选话术获取模块42、分类结果获取模块43、正反义分值获取模块44、候选值获取模块45和意图识别结果获取模块46。各功能模块详细说明如下:
内置话术获取模块41,用于获取用户端提供的文本信息,并从预设的意图识别系统中获取多个内置话术;
候选话术获取模块42,用于计算文本信息与各个内置话术之间的意图相似度,将意图相似度达到第一预设阈值的内置话术作为候选话术;
分类结果获取模块43,用于根据预先训练好的正反义分类模型判断候选话术与文本信息之间的正反义关系,得到各个候选话术的分类结果;
正反义分值获取模块44,用于基于分类结果获得各个候选话术的正反义分值;
候选值获取模块45,用于计算各个候选话术的意图相似度和正反义分值之和,得到各个候选话术的候选值;
意图识别结果获取模块46,用于按照候选值的大小从候选话术中选择至少一个候选话术作为意图识别结果。
进一步地,作为本实施例的一种实施方式,如图9所示,上述分类结果获取模块43具体包括所属类别获取单元431和分类结果获取单元432。各功能单元详细说明如下:
所属类别获取单元431,用于根据预先训练好的正反义分类模型分别获得候选话术和文本信息的所属类别;
分类结果获取单元432,用于根据候选话术和文本信息的所属类别获得候选话术与文本信息之间的正反义关系,得到各个候选话术的分类结果。
进一步地,作为本实施例的一种实施方式,上述步骤431具体包括词向量矩阵获取子单元、特征向量获取子单元、特征表达向量获取子单元和所属类别获取子单元。各功能子单元详细说明如下:
词向量矩阵获取子单元,用于预先训练好的正反义分类模型获取文本信息,并将文本信息转换成词向量矩阵;
特征向量获取子单元,用于通过预先训练好的正反义模型中的多个卷积核分别从词向量矩阵中提取文本信息的上下文特征,并将多个上下文特征分别用矩阵进行表示以获得多个特征向量;
特征表达向量获取子单元,用于分别对多个特征向量进行最大池化以获得每个特征向量的最大值,将多个特征向量的最大值进行拼接,获得文本信息的特征表达向量;
所属类别获取子单元,用于预先训练好的正反义模型中的softmax层根据特征表达向量获得文本信息属于各个所属类别的概率值,根据概率值的大小确定文本信息的所属类别。
进一步地,作为本实施例的一种实施方式,上述候选话术获取模块42具体包括内置话术获取单元、意图相似度获取单元和候选话术获取单元。各功能单元详细说明如下:
内置话术获取单元,用于分别对文本信息和内置话术进行分词处理,获得第一词汇集和第二词汇集,第一词汇集代表文本信息,每一个第二词汇集代表一个内置话术;
意图相似度获取单元,用于计算第一词汇集与各个第二词汇集之间的文本相似度,将文本相似度作为意图相似度;
候选话术获取单元,用于比较意图相似度与第一预设阈值之间的大小,将意图相似度超过第一预设阈值的内置话术作为候选话术。
进一步地,作为本实施例的一种实施方式,上述正反义分值获取模块44具体包括应用场景获取单元、权重值获取单元和正反义分值获取单元。各功能单元详细说明如下:
应用场景获取单元,用于获取候选话术所处的应用场景;
权重值获取单元,用于根据应用场景获取候选话术对应的权重值;
正反义分值获取单元,用于根据分类结果和权重值获得候选话术的正反义分值。
进一步地,作为本实施例的一种实施方式,用户意图的识别装置还包括样本词向量矩阵获取模块、样本特征向量获取模块、样本特征表达向量获取模块、预测所属类别获取模块、正确率获取模块和正反义分类模型获取模块。各功能模块详细说明如下:
样本词向量矩阵获取模块,用于通过正反义分类模型分别获取多个样本文本信息,并分别将样本文本信息转换成样本词向量矩阵;
样本特征向量获取模块,用于通过正反义模型中的多个卷积核分别从样本词向量矩阵中提取样本文本信息的样本上下文特征,并将多个样本上下文特征分别用矩阵进行表示以获得多个样本特征向量;
样本特征表达向量获取模块,用于分别对多个样本特征向量进行最大池化以获得每个样本特征向量的最大值,将多个样本特征向量的最大值进行拼接,获得样本文本信息的样本特征表达向量;
预测所属类别获取模块,用于正反义模型中的softmax层根据样本特征表达向量获得样本文本信息属于各个预测所属类别的概率值,根据概率值的大小确定样本文本信息的预测所属类别;
正确率获取模块,用于将各个样本文本信息的预测所属类别与样本文本信息的实际所属类别进行对比,计算预测样本文本信息的预测所属类别的正确率;
正反义分类模型获取模块,用于当正确率未达到预设正确率阈值时,调整正反义模型中的参数,循环获取上下文特征至本步骤,直至正确率达到预设正确率阈值时,将当前的正反义分类模型确定为预先训练好的正反义分类模型。
关于用户意图的识别装置的具体限定可以参见上文中对于用户意图的识别方法的限定,在此不再赘述。上述用户意图的识别装置中的各个模块/单元可全部或部分通过软件、硬件及其组合来实现。上述各模块可以硬件形式内嵌于或独立于计算机设备中的处理器中,也可以以软件形式存储于计算机设备中的存储器中,以便于处理器调用执行以上各个模块对应的操作。
本发明的第三实施例提供了一种计算机设备,该计算机设备可以是服务器,其内部结构图可以如图10所示。该计算机设备包括通过系统总线连接的处理器、存储器、网络接口和数据库。其中,该计算机设备的处理器用于提供计算和控制能力。该计算机设备的存储器包括非易失性存储介质、内存储器。该非易失性存储介质存储有操作系统、计算机程序和数据库。该内存储器为非易失性存储介质中的操作系统和计算机程序的运行提供环境。该计算机设备的数据库用于存储用户意图的识别方法中涉及到的数据。该计算机设备的网络接口用于与外部的终端通过网络连接通信。进一步地,所述计算机可用存储介质可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序等;存储数据区可存储根据区块链节点的使用所创建的数据等。
根据本申请的一个实施例提供了一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现所述用户意图的识别方法的步骤,例如图2所示的步骤11至步骤16、如图3所示的步骤121至步骤123、如图4所示的步骤131至步骤132、如图5所示的步骤1311至步骤1314、如图6所示的步骤141至步骤143以及如图7所示的步骤21至步骤26。
本发明的第四实施例提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现本发明实施例提供的用户意图的识别方法的步骤,例如图2所示的步骤11至步骤16、如图3所示的步骤121至步骤123、如图4所示的步骤131至步骤132、如图5所示的步骤1311至步骤1314、如图6所示的步骤141至步骤143以及如图7所示的步骤21至步骤26。或者,计算机程序被处理器执行时实现上述第一实施例提供的用户意图的识别方法的各模块/单元的功能。为避免重复,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一非易失性计算机可读取存储介质中,该计算机程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
本发明所指区块链是分布式数据存储、点对点传输、共识机制、加密算法等计算机技术的新型应用模式。区块链(Blockchain),本质上是一个去中心化的数据库,是一串使用密码学方法相关联产生的数据块,每一个数据块中包含了一批次网络交易的信息,用于验证其信息的有效性(防伪)和生成下一个区块。区块链可以包括区块链底层平台、平台产品服务层以及应用服务层等。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,仅以上述各功能单元、模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能单元、模块完成,即将所述装置的内部结构划分成不同的功能单元或模块,以完成以上描述的全部或者部分功能。
以上所述实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的精神和范围,均应包含在本发明的保护范围之内。

Claims (10)

1.一种用户意图的识别方法,其特征在于,所述方法包括:
获取用户端提供的文本信息,并从预设的意图识别系统中获取多个内置话术;
计算所述文本信息与各个所述内置话术之间的意图相似度,将所述意图相似度达到第一预设阈值的所述内置话术作为候选话术;
根据预先训练好的正反义分类模型判断所述候选话术与所述文本信息之间的正反义关系,得到各个所述候选话术的分类结果;
基于所述分类结果获得各个所述候选话术的正反义分值;
计算各个所述候选话术的所述意图相似度和所述正反义分值之和,得到各个所述候选话术的候选值;
按照所述候选值的大小从所述候选话术中选择至少一个所述候选话术作为意图识别结果。
2.根据权利要求1所述的用户意图的识别方法,其特征在于,所述根据预先训练好的正反义分类模型判断所述候选话术与所述文本信息之间的正反义关系,得到各个所述候选话术的分类结果包括:
根据所述预先训练好的正反义分类模型分别获得所述候选话术和所述文本信息的所属类别;
根据所述候选话术和所述文本信息的所属类别获得所述候选话术与所述文本信息之间的正反义关系,得到各个所述候选话术的分类结果。
3.根据权利要求2所述的用户意图的识别方法,其特征在于,所述根据所述预先训练好的正反义分类模型分别获得所述候选话术和所述文本信息的所属类别包括:
所述预先训练好的正反义分类模型获取所述文本信息,并将所述文本信息转换成词向量矩阵;
通过所述预先训练好的正反义模型中的多个卷积核分别从所述词向量矩阵中提取所述文本信息的上下文特征,并将多个所述上下文特征分别用矩阵进行表示以获得多个特征向量;
分别对多个所述特征向量进行最大池化以获得每个所述特征向量的最大值,将多个所述特征向量的最大值进行拼接,获得所述文本信息的特征表达向量;
所述预先训练好的正反义模型中的softmax层根据所述特征表达向量获得所述文本信息属于各个所述所属类别的概率值,根据所述概率值的大小确定所述文本信息的所述所属类别。
4.根据权利要求1所述的用户意图的识别方法,其特征在于,所述计算所述文本信息与各个所述内置话术之间的意图相似度,将所述意图相似度达到第一预设阈值的所述内置话术作为候选话术包括:
分别对所述文本信息和所述内置话术进行分词处理,获得第一词汇集和第二词汇集,所述第一词汇集代表所述文本信息,每一个所述第二词汇集代表一个所述内置话术;
计算所述第一词汇集与各个所述第二词汇集之间的文本相似度,将所述文本相似度作为所述意图相似度;
比较所述意图相似度与所述第一预设阈值之间的大小,将所述意图相似度超过所述第一预设阈值的所述内置话术作为候选话术。
5.根据权利要求1所述的用户意图识别方法,其特征在于,所述基于所述分类结果获得各个所述候选话术的正反义分值包括:
获取所述候选话术所处的应用场景;
根据所述应用场景获取所述候选话术对应的权重值;
根据所述分类结果和所述权重值获得所述候选话术的正反义分值。
6.根据权利要求1所述的用户意图的识别方法,其特征在于,获得所述预先训练好的正反义分类模型包括以下步骤:
通过所述正反义分类模型分别获取多个样本文本信息,并分别将所述样本文本信息转换成样本词向量矩阵;
通过所述正反义模型中的多个卷积核分别从所述样本词向量矩阵中提取所述样本文本信息的样本上下文特征,并将所述多个样本上下文特征分别用矩阵进行表示以获得多个样本特征向量;
分别对多个所述样本特征向量进行最大池化以获得每个所述样本特征向量的最大值,将多个所述样本特征向量的最大值进行拼接,获得所述样本文本信息的样本特征表达向量;
所述正反义模型中的softmax层根据所述样本特征表达向量获得所述样本文本信息属于各个所述预测所属类别的概率值,根据所述概率值的大小确定所述样本文本信息的所述预测所属类别;
将各个所述样本文本信息的预测所属类别与所述样本文本信息的实际所属类别进行对比,计算预测所述样本文本信息的预测所属类别的正确率;
当所述正确率未达到预设正确率阈值时,调整所述正反义模型中的参数,循环获取所述上下文特征至本步骤,直至所述正确率达到预设正确率阈值时,将当前的所述正反义分类模型确定为预先训练好的正反义分类模型。
7.一种用户意图的识别装置,其特征在于,包括:
内置话术获取模块,用于获取用户端提供的文本信息,并从预设的意图识别系统中获取多个内置话术;
候选话术获取模块,用于计算所述文本信息与各个所述内置话术之间的意图相似度,将所述意图相似度达到第一预设阈值的所述内置话术作为候选话术;
分类结果获取模块,用于根据预先训练好的正反义分类模型判断所述候选话术与所述文本信息之间的正反义关系,得到各个所述候选话术的分类结果;
正反义分值获取模块,用于基于所述分类结果获得各个所述候选话术的正反义分值;
候选值获取模块,用于计算各个所述候选话术的所述意图相似度和所述正反义分值之和,得到各个所述候选话术的候选值;
意图识别结果获取模块,用于按照所述候选值的大小从所述候选话术中选择至少一个所述候选话术作为意图识别结果。
8.根据权利要求7所述的用户意图的识别装置,其特征在于,所述候选话术获取模块包括:
所属类别获取单元,用于根据所述预先训练好的正反义分类模型分别获得所述候选话术和所述文本信息的所属类别;
分类结果获取单元,用于根据所述候选话术和所述文本信息的所属类别获得所述候选话术与所述文本信息之间的正反义关系,得到各个所述候选话术的分类结果。
9.一种计算机设备,包括存储器、处理器以及存储在所述存储器中并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至6中任一项所述用户意图的识别方法的步骤。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至6中任一项所述用户意图的识别方法的步骤。
CN202010455342.8A 2020-05-26 2020-05-26 用户意图的识别方法、装置、计算机设备及存储介质 Pending CN111611383A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010455342.8A CN111611383A (zh) 2020-05-26 2020-05-26 用户意图的识别方法、装置、计算机设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010455342.8A CN111611383A (zh) 2020-05-26 2020-05-26 用户意图的识别方法、装置、计算机设备及存储介质

Publications (1)

Publication Number Publication Date
CN111611383A true CN111611383A (zh) 2020-09-01

Family

ID=72200682

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010455342.8A Pending CN111611383A (zh) 2020-05-26 2020-05-26 用户意图的识别方法、装置、计算机设备及存储介质

Country Status (1)

Country Link
CN (1) CN111611383A (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111930854A (zh) * 2020-10-10 2020-11-13 北京福佑多多信息技术有限公司 意图预测的方法及装置
CN112256855A (zh) * 2020-11-13 2021-01-22 泰康保险集团股份有限公司 用户意图的识别方法和装置
CN112989003A (zh) * 2021-04-01 2021-06-18 网易(杭州)网络有限公司 意图识别方法、装置、处理设备及介质
CN114254622A (zh) * 2021-12-10 2022-03-29 马上消费金融股份有限公司 一种意图识别方法和装置
WO2022142006A1 (zh) * 2020-12-30 2022-07-07 平安科技(深圳)有限公司 基于语义识别的话术推荐方法、装置、设备及存储介质

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111930854A (zh) * 2020-10-10 2020-11-13 北京福佑多多信息技术有限公司 意图预测的方法及装置
CN112256855A (zh) * 2020-11-13 2021-01-22 泰康保险集团股份有限公司 用户意图的识别方法和装置
WO2022142006A1 (zh) * 2020-12-30 2022-07-07 平安科技(深圳)有限公司 基于语义识别的话术推荐方法、装置、设备及存储介质
CN112989003A (zh) * 2021-04-01 2021-06-18 网易(杭州)网络有限公司 意图识别方法、装置、处理设备及介质
CN114254622A (zh) * 2021-12-10 2022-03-29 马上消费金融股份有限公司 一种意图识别方法和装置

Similar Documents

Publication Publication Date Title
CN111611383A (zh) 用户意图的识别方法、装置、计算机设备及存储介质
CN110162633B (zh) 语音数据意图确定方法、装置、计算机设备和存储介质
CN109871446B (zh) 意图识别中的拒识方法、电子装置及存储介质
CN109960725B (zh) 基于情感的文本分类处理方法、装置和计算机设备
WO2020237869A1 (zh) 一种问题意图识别方法、装置、计算机设备及存储介质
CN110569500A (zh) 文本语义识别方法、装置、计算机设备和存储介质
CN110472224B (zh) 服务质量的检测方法、装置、计算机设备和存储介质
WO2021204017A1 (zh) 文本意图识别方法、装置以及相关设备
CN111583911B (zh) 基于标签平滑的语音识别方法、装置、终端及介质
CN113297366B (zh) 多轮对话的情绪识别模型训练方法、装置、设备及介质
CN110688499A (zh) 数据处理方法、装置、计算机设备和存储介质
CN114120978A (zh) 情绪识别模型训练、语音交互方法、装置、设备及介质
CN113486175B (zh) 文本分类方法、文本分类装置、计算机设备及存储介质
CN110598210B (zh) 实体识别模型训练、实体识别方法、装置、设备及介质
CN114678014A (zh) 意图识别方法、装置、计算机设备及计算机可读存储介质
CN113836192B (zh) 平行语料的挖掘方法、装置、计算机设备及存储介质
CN113240510A (zh) 异常用户预测方法、装置、设备及存储介质
CN113254613A (zh) 对话问答方法、装置、设备及存储介质
CN113204630A (zh) 一种文本匹配方法、装置、计算机设备及可读存储介质
CN113468322A (zh) 关键词识别模型的训练、提取方法、装置、设备及介质
CN112632248A (zh) 问答方法、装置、计算机设备和存储介质
CN116343755A (zh) 领域自适应语音识别方法、装置、计算机设备及存储介质
CN114756659A (zh) 语言模型训练方法、装置、设备及存储介质
WO2021217619A1 (zh) 基于标签平滑的语音识别方法、终端及介质
CN111626039A (zh) 文本相似度识别模型的训练方法、装置及相关设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination