CN111104498A - 一种任务型对话系统中的语义理解方法 - Google Patents
一种任务型对话系统中的语义理解方法 Download PDFInfo
- Publication number
- CN111104498A CN111104498A CN201911270705.4A CN201911270705A CN111104498A CN 111104498 A CN111104498 A CN 111104498A CN 201911270705 A CN201911270705 A CN 201911270705A CN 111104498 A CN111104498 A CN 111104498A
- Authority
- CN
- China
- Prior art keywords
- domain
- label
- intent
- task
- intention
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Biomedical Technology (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
Abstract
本发明公开了一种任务型对话系统中的语义理解方法,包括步骤:收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,根据损失函数值多次迭代,获得最终的多任务级联神经网络模型;将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。该发明解决了目前语义理解系统识别准确率低的问题,提高了任务型对话系统中自然语言理解三个子任务的识别准确率。
Description
技术领域
本发明涉及自然语言理解领域,尤其涉及一种基于深度学习的任务型对话系统中的语义理解方法。
背景技术
由于人机对话系统充满巨大的潜力和诱人的商业价值,人机对话引起了越来越多的关注。随着大数据和深度学习技术的发展,创建自动人机对话系统作为人类的个人助理或聊天伙伴,不再是幻想。人机对话系统的目的是机器能够智能地跟人进行多轮自然语言的交互。人机对话系统根据不同的功能,大致分为两类:一类是闲聊型对话系统,典型的代表有微软小冰。小冰对话系统主要通过语音、文字、图片与人交互,这类系统并不执着于某项特定的任务,主要是实现与人自由、平等的情感上的一个交流。另一类对话系统是任务型对话系统,这类系统的代表有阿里小蜜,任务型对话系统以任务为导向,帮助人们实现某项特定的任务。由于任务型对话系统能够极大地减少人工的成本,提高人们的工作效率,并且相较于目前的人工客服,能够实现全天24小时服务,减少客户的等待时间,具有巨大的商业价值,因此得到了大量研究。
任务型对话系统使用最广泛的方法是将对话系统看成流水线式的系统,所述系统由自然语言理解模块、对话管理模块,对话策略学习模块和对话生成模块组成。由于流水线模式的系统可能存在错误传播,因此作为任务型对话系统中第一个步骤的自然语言理解模块,具有至关重要作用。自然语言理解模块主要的工作是对用户的输入进行语义分析,获取用户的对话行为以及与任务相关的重要的信息。
在任务型对话系统中,早期系统使用基于模板的方法解决自然语言理解模块,主要是通过人工对数据进行研究,基于字、词的组合提取出具体任务的模板,在得到模板的集合之后,给每个模板设定固定的使用顺序,最后再对每一轮的对话依次使用模板进行精确匹配,从而提取任务需要的特定语义信息。这种方法的缺点是显而易见的。第一个是这种方法需要耗费大量的人力,成本过高。第二个缺点是每一个任务的模板差异性太大,往往不能复用,泛化能力太差,在准确率上表现不佳。
除了基于模板的方法,部分系统使用机器学习方法分别单独解决领域分类、意图识别以及槽填充这三个任务,但是这些方法普遍存在识别准确率较低的问题。
发明内容
本发明的目的在于克服现有任务型对话系统预测句准确率低的问题,提供一种基于多任务学习的任务型对话系统中的语义理解方法。本发明采用BERT作为三个任务共享的强大的特征提取器,利用多任务级联训练三个任务,训练得到能够识别用户语句的领域、意图和槽信息的自然语言理解模型,提供了一种简洁有效的语义理解方法。
本发明的目的能够通过以下技术方案实现:
一种任务型对话系统中的语义理解方法,包括步骤:
收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;
对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;
根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,模型根据损失函数值进行迭代,获得最终的多任务级联神经网络模型;
将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。
具体地,所述特定任务包括领域识别、意图分类以及预定义的槽值填充。
具体地,根据对话数据的槽值标注该语句槽值的首标签和尾标签。
具体地,所述构建的多任务级联神经网络模型结构包括BERT层、domain嵌入层、intent嵌入层、domain分类层、intent分类层以及槽标签分类层。
具体地,对收集的对话数据进行预处理为:
对收集的对话数据按句子进行划分,每个句子按字进行划分得到字嵌入特征,并采用字符“[CLS]”作为每个句子的开端,采用字符“[SEP]”作为句子间的分隔符。
具体地,根据预处理后的数据对构建的多任务级联神经网络模型进行训练的步骤中,包括:
将预处理后的字嵌入特征输入BERT层进行处理,获得相应的隐状态序列;
将隐状态序列中字符“[CLS]”对应的隐藏层向量输入domain分类层的Softmax分类器中,获取领域标签;
将领域标签输入domain嵌入层进行处理后获得领域标签的嵌入表示,将该嵌入表示与字符“[CLS]”对应的隐藏层向量进行拼接,输入到intent分类层的Softmax分类器中,获取意图标签;
将意图标签输入intent嵌入层进行处理后获得意图标签的嵌入表示,将领域标签的嵌入表示和意图标签的嵌入表示分别与隐状态序列中每个字的隐藏层向量进行拼接,输入到槽标签分类层中,获取槽值的首标签和尾标签。
更进一步地,获得领域标签的方法为:
领域的概率分布的计算方法如下:
p(domain|s)=softmax(Wd·h1+bd)
其中,domain表示领域的标签类别,s表示输入的句子。Wd表示领域权重矩阵,bd表示领域偏移向量。取概率最大的类别作为该句子的领域标签。
更进一步地,获得意图标签的方法为:
意图的概率分布的计算方法如下:
其中,intent表示意图的标签类别,Wi表示意图权重矩阵,bi表示意图偏移向量,e_d(domain)表示将domain变换为领域嵌入向量。取概率最大的类别作为该句子的意图标签。
更进一步地,获得槽值的首标签和尾标签的方法为:
首标签Hi的计算方式如下:
尾标签Ti的计算方式如下:
其中,Wh和Wt分别表示首标签和尾标签权重矩阵,bh和bt分别表示首标签和尾标签偏移向量,e_i(intent)表示将intent变换为意图嵌入向量。
具体地,多任务级联神经网络损失函数计算方法为:
Loss=2.5*Lossdomain+1.5*Lossintent+Losshead+Losstail
其中,Lossdomain表示领域分类任务的损失函数,Lossintent表示意图识别任务的损失函数,Losshead和Losstail分别表示槽填充任务的首标签和尾标签的损失函数。三个子任务的损失函数如下:
领域分类任务的损失函数:
其中,D为领域类别的数量;yd为指示变量(0或1),如果该类别和样本的类别相同就是1,否则是0;pd为对于观测样本属于类别d的预测概率。
意图识别任务的损失函数:
其中,I为意图类别的数量;yi为指示变量(0或1),如果该类别和样本的类别相同就是1,否则是0;pi为对于观测样本属于类别i的预测概率。
槽填充任务的首标签的损失函数Losshead:
其中,H为槽填充中首标签类别的数量;yh为指示变量(0或1),如果该类别和样本的类别相同就是1,否则是0;ph为对于观测样本属于类别d的预测概率。
槽填充任务的尾标签的损失函数Losstail:
其中,T为槽填充中尾标签类别的数量;yt为指示变量(0或1),如果该类别和样本的类别相同就是1,否则是0;pt为对于观测样本属于类别t的预测概率。
本发明相较于现有技术,具有以下的有益效果:
本发明使用BERT作为三个任务的特征提取层,能够大幅提高句子特征提取信息量,并且通过联合三个任务训练,能够更好通过任务之间的作用提高准确率。本发明三个任务之间采用级联预测的方法,能够提高三个任务均预测正确的句准确率。本发明采用深度网络模型自动提取特征,具有较好的泛化性。
附图说明
图1是一种任务型对话系统的自然语言理解系统的流程图。
图2是基于BERT的多任务级联神经网络模型图。
具体实施方式
下面结合实施例及附图对本发明作进一步详细的描述,但本发明的实施方式不限于此。
实施例
如图1所示为一种任务型对话系统中的语义理解方法的流程图,包括步骤:
S1、收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;
在S1中,从对话平台的用户日志中,将用户对话日志按照句子划分,得到用户的对话数据,例如:“做可乐鸡翅需要哪些材料?”,对对话数据进行数据标注,具体有三个任务的标签:
第一类的标签是领域类别,领域类别包括有:公交,地图,火车,电话等。
第二类的标签是意图的类别,意图的类别有:查询,播放,打开等。
第三类的标签是槽值类别及其值,槽值的类别有:姓名,地点,时间,内容等。
例如,“做可乐鸡翅需要哪些材料?”的三类标签分别是:领域(美食),意图(查询),槽值(菜名:可乐鸡翅)。
S2、对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;
如图2所示,是本申请提出的基于BERT的多任务级联的神经网络图。在S2中,领域识别,意图分类,槽填充任务三个子任务共享BERT层。得到相同的句子表征。在输入BERT层前,对训练语句进行预处理。
例如,“做可乐鸡翅需要哪些材料?”按字划分,按照BERT预定义的数据格式得到字嵌入特征:“[CLS]做可乐鸡翅需要哪些材料?[SEP]”以及分句标签“11111111111111”。这里的[CLS]表示的是句子的开端。[SEP]是句子的分隔符。这里输入语句只有一个句子,所以分句标签只有一个类别。经过BERT层得到上下文信息的隐状态序列H=(h1,...,hT)。
第一个特殊字符[CLS]的隐藏层向量h1作为整个句子的特征向量输入到domain分类层的softmax分类器中,得到句子在领域类别上的概率分布。领域的概率分布的计算如下:
p(domain|s)=softmax(Wd·h1+bd)
其中,domain表示领域的标签类别,s表示输入的句子。Wd表示领域权重矩阵,bd表示领域偏移向量。取概率最大的类别作为该句子的领域标签。
将该领域标签经过domain嵌入层得到领域标签的嵌入表示。将该嵌入表示与第一个特殊字符[CLS]的隐藏层向量h1进行拼接,作为特征向量输入到intent分类层的softmax分类器中,得到句子在意图类别上的概率分布。
意图的概率分布的计算如下:
其中,intent表示意图的标签类别,Wi表示意图权重矩阵,bi表示意图偏移向量,e_d(domain)表示将domain变换为领域嵌入向量。取概率最大的类别作为该句子的意图标签。
将领域分类的结果作为意图分类的特征,这能够缓解系统生成领域正确但是意图错误的问题。将该意图标签经过intent嵌入层得到意图标签的嵌入表示。槽标签分类层包含两个分类器,分别是首标签的Softmax分类器,及尾标签的Softmax分类器。将语句的领域标签和意图标签分别转换为对应的领域标签向量和意图标签向量,然后将这两个标签向量拼接到每个字的表示中,经过槽标签分类层分别预测语句的首标签Hi和尾标签Ti。
首标签Hi的计算方式如下:
尾标签Ti的计算方式如下:
其中,Wh和Wt分别表示首标签和尾标签权重矩阵,bh和bt分别表示首标签和尾标签偏移向量,e_i(intent)表示将intent变换为意图嵌入向量。
S3、根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,模型根据损失函数值进行迭代,获得最终的多任务级联神经网络模型;
本发明使用三个子任务的加权交叉熵,损失函数是三个任务的损失函数加权之和:
Loss=2.5*LosSdomain+1.5*Lossintent+Losshead+Losstail
其中,Lossdomain代表领域分类任务的损失函数,Lossintent代表意图识别任务的损失函数,Losshead和Losstail分别代表槽填充任务的首标签和尾标签的损失函数。
使用句准确度指标判断模型表现:如果输入句子的领域,意图,槽值都识别正确,那么该句子识别正确,计算acc=(句子识别正确的数量)/句子总数,这个指标最好的时候即为表现最好。
通过迭代微调模型得到在测试集上表现最好的模型。
S4、将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。
在S4中,将待预测的对话数据进行预处理,例如:“做可乐鸡翅需要哪些材料?”。将预处理后的数据,输入到已经训练好的模型。通过领域识别模块可以得到领域类别上的概率分布,如[0.1,0.2,...,0.4]。0.4是概率最大的值,取最大概率所对应的领域类别:美食。将处理后的数据以及领域输入到意图分类模型中,得到意图类别上的概率分布,如[0.8,0.01,...,0.1]。0.8是概率最大的值,取最大概率所对应的意图类别:查询。将处理后的数据,领域以及意图分别输入到首标签分类模型中,得到所有字在首标签类别上的概率分布,如[[0.11,0.31,…,0.1],[0.11,0.11,…,0.1],…,[0.11,0.31,…,0.1]],每个字的首标签取最大概率所对应的首标签类别,得到[0 0 3 0 0 0 0 0 0 0 0 0 0]。同样地将处理后的数据,领域以及意图分别输入到尾标签分类模型中,得到所有字在尾标签类别上的概率分布,如[[0.11,0.11,…,0.1],[0.11,0.01,…,0.1],…,[0.11,0.81,…,0.1]],每个字的尾标签取最大概率所对应的首标签类别,得到[0 0 0 0 0 3 0 0 0 0 0 0 0]。根据首标签及尾标签的位置抽取出原句的第3个至第6个字,即“可乐鸡翅”。槽值类别选择“3”对应的标签:菜名。得到该句话的槽值:菜名(可乐鸡翅)。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受上述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。
Claims (10)
1.一种任务型对话系统中的语义理解方法,其特征在于,包括步骤:
收集与特定任务相关的对话数据,标注出每句对话数据的领域、意图以及槽值;
对收集的对话数据进行预处理,根据预处理后的数据对构建的多任务级联神经网络模型进行训练;
根据模型训练获得的领域、意图以及槽值,计算多任务级联神经网络模型的损失函数,模型根据损失函数值进行迭代,获得最终的多任务级联神经网络模型;
将待识别的对话数据进行预处理后输入到最终的模型中,识别对话数据中语句的领域、意图以及槽值。
2.根据权利要求1所述的方法,其特征在于,所述特定任务包括领域识别、意图分类以及预定义的槽值填充。
3.根据权利要求1所述的方法,其特征在于,根据对话数据的槽值标注该语句槽值的首标签和尾标签。
4.根据权利要求1所述的方法,其特征在于,所述构建的多任务级联神经网络模型结构包括BERT层、domain嵌入层、intent嵌入层、domain分类层、intent分类层以及槽标签分类层。
5.根据权利要求1所述的方法,其特征在于,对收集的对话数据进行预处理为:
对收集的对话数据按句子进行划分,每个句子按字进行划分得到字嵌入特征,并采用字符“[CLS]”作为每个句子的开端,采用字符“[SEP]”作为句子间的分隔符。
6.根据权利要求1所述的方法,其特征在于,根据预处理后的数据对构建的多任务级联神经网络模型进行训练的步骤中,包括:
将预处理后的字嵌入特征输入BERT层进行处理,获得相应的隐状态序列;
将隐状态序列中字符“[CLS]”对应的隐藏层向量输入domain分类层中,获取领域标签;
将领域标签输入domain嵌入层进行处理后获得领域标签的嵌入表示,将该嵌入表示与字符“[CLS]”对应的隐藏层向量进行拼接,输入到intent分类层中,获取意图标签;
将意图标签输入intent嵌入层进行处理后获得意图标签的嵌入表示,将领域标签的嵌入表示和意图标签的嵌入表示分别与隐状态序列中每个字的隐藏层向量进行拼接,输入到槽标签分类层中,获取槽值的首标签和尾标签。
7.根据权利要求6所述的方法,其特征在于,获得领域标签的方法为:
领域的概率分布的计算方法如下:
p(domain|s)=softmax(Wd·h1+bd)
其中,domain表示领域的标签类别,s表示输入的句子。Wa表示领域权重矩阵,bd表示领域偏移向量;取概率最大的类别作为该句子的领域标签。
10.根据权利要求1所述的方法,其特征在于,多任务级联神经网络损失函数计算方法为:
Loss=2.5*Lossdomain+1.5*Lossintent+Losshead+Losstail
其中,Lossdomain表示领域分类任务的损失函数,Lossintent表示意图识别任务的损失函数,Losshead和Losstail分别表示槽填充任务的首尾的损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911270705.4A CN111104498B (zh) | 2019-12-12 | 2019-12-12 | 一种任务型对话系统中的语义理解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911270705.4A CN111104498B (zh) | 2019-12-12 | 2019-12-12 | 一种任务型对话系统中的语义理解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111104498A true CN111104498A (zh) | 2020-05-05 |
CN111104498B CN111104498B (zh) | 2023-04-25 |
Family
ID=70423388
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911270705.4A Active CN111104498B (zh) | 2019-12-12 | 2019-12-12 | 一种任务型对话系统中的语义理解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111104498B (zh) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111599382A (zh) * | 2020-07-27 | 2020-08-28 | 深圳市声扬科技有限公司 | 语音分析方法、装置、计算机设备和存储介质 |
CN111738018A (zh) * | 2020-06-24 | 2020-10-02 | 深圳前海微众银行股份有限公司 | 一种意图理解方法、装置、设备及存储介质 |
CN111767384A (zh) * | 2020-07-08 | 2020-10-13 | 上海风秩科技有限公司 | 人机对话的处理方法、装置、设备及存储介质 |
CN112069300A (zh) * | 2020-09-04 | 2020-12-11 | 中国平安人寿保险股份有限公司 | 任务型对话的语义识别方法、装置、电子设备及存储介质 |
CN112270182A (zh) * | 2020-11-12 | 2021-01-26 | 佰聆数据股份有限公司 | 一种基于多轮对话问答式的分析思路衍生方法、系统及存储介质 |
CN112364662A (zh) * | 2020-11-13 | 2021-02-12 | 中国科学院软件研究所 | 一种基于神经网络的意图识别方法及电子装置 |
CN112489639A (zh) * | 2020-11-26 | 2021-03-12 | 北京百度网讯科技有限公司 | 音频信号处理方法及装置、系统、电子设备、可读介质 |
CN112597310A (zh) * | 2020-12-25 | 2021-04-02 | 深圳市声希科技有限公司 | 领域和意图分层联合分类方法、装置、设备及存储介质 |
CN112800190A (zh) * | 2020-11-11 | 2021-05-14 | 重庆邮电大学 | 基于Bert模型的意图识别与槽值填充联合预测方法 |
CN112925918A (zh) * | 2021-02-26 | 2021-06-08 | 华南理工大学 | 一种基于疾病领域知识图谱的问答匹配系统 |
CN113177415A (zh) * | 2021-04-30 | 2021-07-27 | 科大讯飞股份有限公司 | 语义理解方法、装置、电子设备和存储介质 |
CN113971399A (zh) * | 2020-07-23 | 2022-01-25 | 北京金山数字娱乐科技有限公司 | 识别模型的训练方法及装置、文本识别方法及装置 |
CN115292491A (zh) * | 2022-08-04 | 2022-11-04 | 四川大学 | 基于ctmsn-ehi的任务型多轮对话信息处理方法 |
CN117708286A (zh) * | 2023-12-07 | 2024-03-15 | 北京英视睿达科技股份有限公司 | 一种基于意图大模型的智能领域匹配方法及系统 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110516260A (zh) * | 2019-08-30 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 实体推荐方法、装置、存储介质及设备 |
CN110533324A (zh) * | 2019-08-29 | 2019-12-03 | 深圳市慧择时代科技有限公司 | 保险客服的自动分配的方法及装置 |
-
2019
- 2019-12-12 CN CN201911270705.4A patent/CN111104498B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110533324A (zh) * | 2019-08-29 | 2019-12-03 | 深圳市慧择时代科技有限公司 | 保险客服的自动分配的方法及装置 |
CN110516260A (zh) * | 2019-08-30 | 2019-11-29 | 腾讯科技(深圳)有限公司 | 实体推荐方法、装置、存储介质及设备 |
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111738018A (zh) * | 2020-06-24 | 2020-10-02 | 深圳前海微众银行股份有限公司 | 一种意图理解方法、装置、设备及存储介质 |
CN111767384A (zh) * | 2020-07-08 | 2020-10-13 | 上海风秩科技有限公司 | 人机对话的处理方法、装置、设备及存储介质 |
CN113971399A (zh) * | 2020-07-23 | 2022-01-25 | 北京金山数字娱乐科技有限公司 | 识别模型的训练方法及装置、文本识别方法及装置 |
CN111599382B (zh) * | 2020-07-27 | 2020-10-27 | 深圳市声扬科技有限公司 | 语音分析方法、装置、计算机设备和存储介质 |
CN111599382A (zh) * | 2020-07-27 | 2020-08-28 | 深圳市声扬科技有限公司 | 语音分析方法、装置、计算机设备和存储介质 |
CN112069300A (zh) * | 2020-09-04 | 2020-12-11 | 中国平安人寿保险股份有限公司 | 任务型对话的语义识别方法、装置、电子设备及存储介质 |
CN112069300B (zh) * | 2020-09-04 | 2024-07-30 | 中国平安人寿保险股份有限公司 | 任务型对话的语义识别方法、装置、电子设备及存储介质 |
CN112800190A (zh) * | 2020-11-11 | 2021-05-14 | 重庆邮电大学 | 基于Bert模型的意图识别与槽值填充联合预测方法 |
CN112800190B (zh) * | 2020-11-11 | 2022-06-10 | 重庆邮电大学 | 基于Bert模型的意图识别与槽值填充联合预测方法 |
CN112270182A (zh) * | 2020-11-12 | 2021-01-26 | 佰聆数据股份有限公司 | 一种基于多轮对话问答式的分析思路衍生方法、系统及存储介质 |
CN112364662A (zh) * | 2020-11-13 | 2021-02-12 | 中国科学院软件研究所 | 一种基于神经网络的意图识别方法及电子装置 |
CN112489639A (zh) * | 2020-11-26 | 2021-03-12 | 北京百度网讯科技有限公司 | 音频信号处理方法及装置、系统、电子设备、可读介质 |
CN112597310A (zh) * | 2020-12-25 | 2021-04-02 | 深圳市声希科技有限公司 | 领域和意图分层联合分类方法、装置、设备及存储介质 |
CN112597310B (zh) * | 2020-12-25 | 2024-07-19 | 深圳市声希科技有限公司 | 领域和意图分层联合分类方法、装置、设备及存储介质 |
CN112925918A (zh) * | 2021-02-26 | 2021-06-08 | 华南理工大学 | 一种基于疾病领域知识图谱的问答匹配系统 |
CN113177415A (zh) * | 2021-04-30 | 2021-07-27 | 科大讯飞股份有限公司 | 语义理解方法、装置、电子设备和存储介质 |
CN113177415B (zh) * | 2021-04-30 | 2024-06-07 | 科大讯飞股份有限公司 | 语义理解方法、装置、电子设备和存储介质 |
CN115292491A (zh) * | 2022-08-04 | 2022-11-04 | 四川大学 | 基于ctmsn-ehi的任务型多轮对话信息处理方法 |
CN117708286A (zh) * | 2023-12-07 | 2024-03-15 | 北京英视睿达科技股份有限公司 | 一种基于意图大模型的智能领域匹配方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111104498B (zh) | 2023-04-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111104498B (zh) | 一种任务型对话系统中的语义理解方法 | |
CN110119786B (zh) | 文本话题分类方法及装置 | |
CN107766371B (zh) | 一种文本信息分类方法及其装置 | |
CN110990543A (zh) | 智能对话的生成方法、装置、计算机设备及计算机存储介质 | |
CN110781663B (zh) | 文本分析模型的训练方法及装置、文本分析方法及装置 | |
CN110597961B (zh) | 一种文本类目标注方法、装置、电子设备及存储介质 | |
CN111883115A (zh) | 语音流程质检的方法及装置 | |
CN112699686B (zh) | 基于任务型对话系统的语义理解方法、装置、设备及介质 | |
CN111177351B (zh) | 基于规则的自然语言表达意图获取方法、装置和系统 | |
CN111339302A (zh) | 训练要素分类模型的方法和装置 | |
CN113051914A (zh) | 一种基于多特征动态画像的企业隐藏标签抽取方法及装置 | |
CN110046356B (zh) | 标签嵌入的微博文本情绪多标签分类方法 | |
CN113408287B (zh) | 实体识别方法、装置、电子设备及存储介质 | |
CN110210036A (zh) | 一种意图识别方法及装置 | |
CN111368066B (zh) | 获取对话摘要的方法、装置和计算机可读存储介质 | |
CN114139548A (zh) | 基于模板匹配结合小样本深度模型的口语语言理解方法 | |
CN105389303B (zh) | 一种异源语料自动融合方法 | |
CN117332789A (zh) | 一种面向对话场景的语义分析方法及系统 | |
CN115935998A (zh) | 多特征金融领域命名实体识别方法 | |
WO2022262080A1 (zh) | 一种对话关系处理方法、计算机及可读存储介质 | |
CN113515611B (zh) | 一种任务型多意图对话的意图识别方法和识别系统 | |
CN114003700A (zh) | 一种对话信息的处理方法、系统、电子设备及存储介质 | |
CN117828024A (zh) | 一种插件检索方法、装置、存储介质及设备 | |
CN116401373B (zh) | 一种试题知识点的标注方法、存储介质及设备 | |
CN112699684A (zh) | 命名实体识别方法和装置、计算机可读存储介质及处理器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |