CN110428814B - 一种语音识别的方法及装置 - Google Patents

一种语音识别的方法及装置 Download PDF

Info

Publication number
CN110428814B
CN110428814B CN201910675999.2A CN201910675999A CN110428814B CN 110428814 B CN110428814 B CN 110428814B CN 201910675999 A CN201910675999 A CN 201910675999A CN 110428814 B CN110428814 B CN 110428814B
Authority
CN
China
Prior art keywords
voice recognition
user
recognition model
user set
equal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910675999.2A
Other languages
English (en)
Other versions
CN110428814A (zh
Inventor
袁志伟
鞠向宇
赵晓朝
戴帅湘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hangzhou suddenly Cognitive Technology Co.,Ltd.
Original Assignee
Hangzhou Suddenly Cognitive Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Suddenly Cognitive Technology Co ltd filed Critical Hangzhou Suddenly Cognitive Technology Co ltd
Priority to CN201910675999.2A priority Critical patent/CN110428814B/zh
Publication of CN110428814A publication Critical patent/CN110428814A/zh
Application granted granted Critical
Publication of CN110428814B publication Critical patent/CN110428814B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Machine Translation (AREA)

Abstract

本发明公开了一种语音识别的方法及装置,所述方法包括:步骤101,获取多个用户的语音识别模型;步骤102,对所述多个用户的语音识别模型进行统计,确定相似度大于等于第一阈值的N个用户集合,N为大于等于的整数;步骤103,分别针对第i用户集合的语音识别模型进行语料训练,生成第i用户集合语音识别模型,1≤i≤N。通过本发明的方法,能够利用相似用户的共性,快速积累用户级语料,快速构建用户级语言模型,解决用户级语音识别支持度差的问题,避免因为用户语句过少导致的冷启动,提供了较好的用户级语音识别效果,提升了用户体验。

Description

一种语音识别的方法及装置
技术领域
本发明实施例涉及语音交互领域,特别涉及一种语音识别的方法和装置。
背景技术
近年来,随着语音识别技术的发展,语音识别技术进入了工业、家电、通信、汽车电子、医疗、家庭服务、消费电子产品等各个领域,越来越多的用户开始利用语音与智能设备进行交互。语音识别方法主要是匹配算法,在训练阶段,通过不断累计语料,并且将其作为模板存入模板库,从而构造语音识别模型,从而在识别阶段,将输入语音的特征矢量依次与模板库中的每个语料模板进行相似度比较,将相似度最高者作为识别结果输出。现有语音识别技术大部分只关注通用语音识别,少数部分在发展分领域的语音识别。然而目前的语音识别模型较少针对用户级别模型的训练,其优化模型的方式也不够灵活,对于用户级的语言习惯支持度很低,严重影响了用户体验。
如何快速积累用户级语料,快速构建用户级语言模型,解决用户级语音识别支持度差的问题,避免因为用户语句过少导致的冷启动,提供较好的用户级语音识别成为一个亟待解决的问题。
发明内容
针对现有技术中的问题,本发明提供一种语音识别的方法和装置。
本发明提供一种语音识别的方法,所述方法包括:
步骤101,获取多个用户的语音识别模型;
步骤102,对所述多个用户的语音识别模型进行统计,确定相似度大于等于第一阈值的N个用户集合,N为大于等于的整数;
步骤103,分别针对第i用户集合的语音识别模型进行语料训练,生成第i 用户集合语音识别模型,1≤i≤N。
本发明提供一种语音识别的装置,所述装置包括:
获取模块,用于获取多个用户的语音识别模型;
统计模块,用于对所述多个用户的语音识别模型进行统计,确定相似度大于等于第一阈值的N个用户集合,N为大于等于的整数;
生成模块,用于分别针对第i用户集合的语音识别模型进行语料训练,生成第i用户集合语音识别模型,1≤i≤N。
本发明提供一种语音识别的装置,其特征在于,所述装置包括处理器和存储器,所述存储器中存储有可在处理器上运行的计算机程序,所述计算机程序在被所述处理器执行时实现如上所述的方法。
本发明提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有可在处理器上运行的计算机程序、所述计算机程序在被执行时实现如上所述的方法。
通过本发明的方法,能够利用相似用户的共性,快速积累用户级语料,快速构建用户级语言模型,解决用户级语音识别支持度差的问题,避免因为用户语句过少导致的冷启动,提供了较好的用户级语音识别效果,提升了用户体验。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作一简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明一个实施例中的语音识别的方法。
图2是本发明一个实施例中的语音识别的装置。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合附图对本发明实施方式作进一步地详细描述。本发明的实施例以及实施例的具体特征是对本发明实施例技术方案的详细说明,而非对本发明说明书技术方案的限定,在不冲突的情况下,本发明的实施例以及实施例的技术特征可以相互结合。
本发明的语音识别的方法可以应用于任何装置或设备,如云端服务器、移动终端、智能家居设备等,可以用于任何需要进行语音识别的应用程序中,如支持语音输入的输入法、语音助手等。
以下对本发明的语音识别的方法进行说明,参见图1,所述方法包括如下步骤:
步骤101,获取多个用户的语音识别模型;
步骤102,对所述多个用户的语音识别模型进行统计,确定相似度大于等于第一阈值的N个用户集合,N为大于等于的整数;
步骤103,分别针对第i用户集合的语音识别模型进行语料训练,生成第i 用户集合语音识别模型,1≤i≤N。
优选地,步骤101中
所述语音识别模型包括领域级语音识别模型,和/或通用语音识别模型。
优选地,所述步骤102包括
步骤201,基于所述多个用户的语音识别模型,确定所述语音识别模型中语料的分词参考值;
步骤202,基于所述分词参考值对用户进行相关性分析,确定所述相似度大于等于第一阈值的第i用户集合。
优选地,所述步骤201具体包括
步骤211,基于所述多个用户的语音识别模型,获取用户语音识别模型语料中的分词词频,所述分词参考值为分词词频;
所述步骤202具体包括
步骤212,创建用户-分词-词频矩阵;
步骤213,使用协同过滤算法计算用户之间的相似度,确定所述相似度大于等于第一阈值的第i用户集合。
具体地,针对用户1,用户2,用户3……等,可以提取语料中的分词创建用户-分词矩阵。(下图仅为示意矩阵)
Figure BDA0002143298870000031
矩阵内参数为用户语音识别模型中分词的频次;
对该矩阵进行协同过滤,把每一个用户或者分词作为一个向量,计算其他所有用户或者分词与它的相似度,从而统计相似度大于等于第一阈值的多个集合。所述第一阈值可以根据实际情况或经验设定。
优选地,所述步骤201具体包括
步骤221,基于所述多个用户的语音识别模型,获取用户语音识别模型语料中的分词词频以及分词反馈信息,所述分词反馈信息包含肯定或否定信息;
所述步骤202具体包括
步骤222,通过分词和分词反馈信息,计算分词参考值;
步骤223,创建用户-分词-参考值矩阵;
步骤224,使用协同过滤算法计算用户之间的相似度,确定所述相似度大于等于第一阈值的第i用户集合。
具体地,引入用户语音识别模型中用户对识别的分词的反馈,对分词进行评分,例如语音识别模型在识别“xiangcai”时,提供语料中的分词“香菜”,用户给出2次否定反馈(如“错了”),对分词“湘菜”给出5次肯定反馈(如确认或默认识别结果),那么针对分词香菜,其词频为14次,针对湘菜,其词频为12次,我们可以利用词频+-反馈来确定分词参考值,用该分词参考值作为矩阵中对应元素的数值,例如对反馈信息进行加权处理,例如设置权重为w,针对湘菜,其分词参考值为(12+5w),针对香菜,其分词参考值为(14-2w)。
同样地,针对用户1,用户2,用户3……等,可以创建用户-分词矩阵。(下表仅为示意矩阵)
Figure BDA0002143298870000041
矩阵内参数为用户语音识别模型中分词的评分,即分词参考值;
同样地对该矩阵进行协同过滤,把每一个用户或者分词作为一个向量,计算其他所有用户或者分词与它的相似度,从而统计相似度高于第一阈值的多个集合。所述第一阈值可以根据实际情况或经验设定。
优选地,步骤103之后还包含
共享所述第i用户集合语音识别模型。
优选地,步骤103之后还包含
步骤104,接收第一用户语音输入,
步骤105,判断第一用户归属的用户集合,若归属于所述第i用户集合语音识别模型,执行步骤106,若不归属于所述第i用户集合语音识别模型,执行步骤107,
步骤106,调用所述第i用户集合语音识别模型执行语音识别;
步骤107,判断所述语音所属领域,调用所属领域的领域级语音识别模型执行语音识别,若无法判断语音所属领域,调用通用语音识别模型执行语音识别。
具体地,在步骤105之后,步骤107之前还包括,
步骤1070,确定所述第一用户在本地/云端是否具有与该第一用户对应的语音识别模型,若有,优先使用所述第一用户对应的语音识别模型;所述第一用户对应的语音识别模型可以是领域级的语音识别模型或者通用语音识别模型。
步骤1071,将该用户对应的语音识别模型加入所述第i用户集合语音识别模型进行统计,确定与该用户相似度较高的集合,将所述用户的语音识别模型加入所述与该用户相似度较高的集合进行再次训练,得到更新后的第i用户集合语音识别模型。
此外上述的语音识别模型的训练,可以针对通用的语音识别模型,也可以针对领域级的语音识别模型,当对应训练相同领域的语音识别模型时,可以建立领域级别的用户-分词矩阵,统计的分词向量中的分词为领域内分词。
通过本发明的方法,能够利用相似用户的共性,快速积累用户级语料,快速构建用户级语言模型,解决用户级语音识别支持度差的问题,避免因为用户语句过少导致的冷启动,提供了较好的用户级语音识别效果,提升了用户体验。
本发明还提供一种装置,参见图2,所述装置包括:
获取模块,用于获取多个用户的语音识别模型;
统计模块,用于对所述多个用户的语音识别模型进行统计,确定相似度大于等于第一阈值的N个用户集合,N为大于等于的整数;
生成模块,用于分别针对第i用户集合的语音识别模型进行语料训练,生成第i用户集合语音识别模型,1≤i≤N。
优选地,所述语音识别模型包括领域级语音识别模型,和/或通用语音识别模型。
优选地,所述统计模块包含计算模块,所述计算模块用于
基于所述多个用户的语音识别模型,确定所述语音识别模型中语料的分词参考值;
基于所述分词参考值对用户进行相关性分析,确定所述相似度大于等于第一阈值的第i用户集合。
优选地,所述计算模块具体用于
基于所述多个用户的语音识别模型,获取用户语音识别模型中语料的分词词频,所述分词参考值为分词词频;
创建用户-分词-词频矩阵;
使用协同过滤算法计算用户之间的相似度,确定所述相似度大于等于第一阈值的第i用户集合。
优选地,所述计算模块具体用于
基于所述多个用户的语音识别模型,获取用户语音识别模型中语料的分词词频以及分词反馈信息,所述分词反馈信息包含肯定或否定信息;
通过分词和分词反馈信息,计算分词参考值;
创建用户-分词-参考值矩阵;
使用协同过滤算法计算用户之间的相似度,确定所述相似度大于等于第一阈值的第i用户集合。
优选地,所述装置还包含
输入模块,用于接收第一用户语音输入;
判断模块,用于判断第一用户归属的用户集合,
控制模块,用于若归属于所述第i用户集合语音识别模型,调用所述第i用户集合语音识别模型执行语音识别;若不归属于所述第i用户集合语音识别模型,判断所述语音所属领域,调用所述领域的领域级语音识别模型执行语音识别,若无法判断语音所属领域,调用通用语音识别模型执行语音识别。
优选地,所述装置还包含
共享模块,用于共享所述第i用户集合语音识别模型。
优选地,所述控制模块还用于确定所述第一用户在本地/云端是否具有与该第一用户对应的语音识别模型,若有,优先使用所述第一用户对应的语音识别模型。
此外,可以将该用户对应的语音识别模型加入所述第i用户集合语音识别模型进行统计,确定与该用户相似度较高的集合,将所述用户的语音识别模型加入所述与该用户相似度较高的集合进行再次训练,得到更新后的第i用户集合语音识别模型。
本发明还提供一种装置,其特征在于,所述装置包括处理器和存储器,所述存储器中存储有可在处理器上运行的计算机程序,所述计算机程序在被所述处理器执行时实现如上所述的方法。
本发明提供一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有可在处理器上运行的计算机程序、所述计算机程序在被执行时实现如上所述的方法。
可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质可以包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、闪存、可擦式可编程只读存储器(EPROM)、光纤、便携式紧凑磁盘只读存储器 (CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码。
以上说明只是为了方便理解本发明而举出的例子,不用于限定本发明的范围。在具体实现时,本领域技术人员可以根据实际情况对装置的部件进行变更、增加、减少,在不影响方法所实现的功能的基础上可以根据实际情况对方法的步骤进行变更、增加、减少或改变顺序。
尽管已经示出和描述了本发明的实施例,本领域技术人员应当理解:在不脱离本发明的原理和宗旨的情况下可以对这些实施例进行多种变化、修改、替换和变型,本发明的范围由权利要求及其等同替换所限定,在未经创造性劳动所作的改进等,均应包含在本发明的保护范围之内。

Claims (14)

1.一种语音识别的方法,其特征在于,所述方法包括:
步骤102,对多个用户的语音识别模型进行统计,确定相似度大于等于第一阈值的N个用户集合,N为大于等于0的整数;所述语音识别模型包括领域级语音识别模型和/或通用语音识别模型;
步骤103,分别针对第i用户集合的语音识别模型进行语料训练,生成第i用户集合语音识别模型,
Figure 303326DEST_PATH_IMAGE002
步骤104,接收第一用户语音输入;
步骤105,判断第一用户归属的用户集合,若归属于所述第i用户集合语音识别模型,执行步骤106;
步骤106,调用所述第i用户集合语音识别模型执行语音识别。
2.根据权利要求1所述的方法,其特征在于,
步骤105还包含
若不归属于所述第i用户集合语音识别模型,执行步骤107,
步骤107,判断所述语音所属领域,调用所属领域的领域级语音识别模型执行语音识别,若无法判断语音所属领域,调用通用语音识别模型执行语音识别。
3.根据权利要求1所述的方法,其特征在于,步骤103之后还包含
共享所述第i用户集合语音识别模型。
4.根据权利要求1所述的方法,其特征在于,所述步骤102包括
步骤201,基于所述多个用户的语音识别模型,确定所述语音识别模型中语料的分词参考值;
步骤202,基于所述分词参考值对用户进行相关性分析,确定所述相似度大于等于第一阈值的第i用户集合。
5.根据权利要求4所述的方法,其特征在于,
所述步骤201具体包括
步骤211,基于所述多个用户的语音识别模型,获取用户语音识别模型语料中的分词词频,所述分词参考值为分词词频;
所述步骤202具体包括
步骤212,创建用户-分词-词频矩阵;
步骤213,使用协同过滤算法计算用户之间的相似度,确定所述相似度大于等于第一阈值的第i用户集合。
6.根据权利要求4所述的方法,其特征在于,
所述步骤201具体包括
步骤221,基于所述多个用户的语音识别模型,获取用户语音识别模型语料中的分词词频以及分词反馈信息,所述分词反馈信息包含肯定或否定信息;
所述步骤202具体包括
步骤222,通过分词和分词反馈信息,计算分词参考值;
步骤223,创建用户-分词-参考值矩阵;
步骤224,使用协同过滤算法计算用户之间的相似度,确定所述相似度大于等于第一阈值的第i用户集合。
7.一种语音识别的装置,其特征在于,所述装置包括:
统计模块,用于对多个用户的语音识别模型进行统计,确定相似度大于等于第一阈值的N个用户集合,N为大于等于0的整数;所述语音识别模型包括领域级语音识别模型和/或通用语音识别模型;
生成模块,用于分别针对第i用户集合的语音识别模型进行语料训练,生成第i用户集合语音识别模型,1≤i≤N;
输入模块,用于接收第一用户语音输入;
判断模块,用于判断第一用户归属的用户集合;
控制模块,用于若归属于所述第i用户集合语音识别模型,调用所述第i用户集合语音识别模型执行语音识别。
8.根据权利要求7所述的装置,其特征在于,所述控制模块还用于
若不归属于所述第i用户集合语音识别模型,判断所述语音所属领域,调用所属领域的领域级语音识别模型执行语音识别,若无法判断语音所属领域,调用通用语音识别模型执行语音识别。
9.根据权利要求7所述的装置,其特征在于,所述装置还包含
共享模块,用于共享所述第i用户集合语音识别模型。
10.根据权利要求7所述的装置,其特征在于,所述统计模块包含计算模块,所述计算模块用于
基于所述多个用户的语音识别模型,确定所述语音识别模型中语料的分词参考值;
基于所述分词参考值对用户进行相关性分析,确定所述相似度大于等于第一阈值的第i用户集合。
11.根据权利要求10所述的装置,其特征在于,所述计算模块具体用于
基于所述多个用户的语音识别模型,获取用户语音识别模型中语料的分词词频,所述分词参考值为分词词频;
创建用户-分词-词频矩阵;
使用协同过滤算法计算用户之间的相似度,确定所述相似度大于等于第一阈值的第i用户集合。
12.根据权利要求10所述的装置,其特征在于,所述计算模块具体用于
基于所述多个用户的语音识别模型,获取用户语音识别模型中语料的分词词频以及分词反馈信息,所述分词反馈信息包含肯定或否定信息;
通过分词和分词反馈信息,计算分词参考值;
创建用户-分词-参考值矩阵;
使用协同过滤算法计算用户之间的相似度,确定所述相似度大于等于第一阈值的第i用户集合。
13.一种语音识别的装置,其特征在于,所述装置包括处理器和存储器,所述存储器中存储有可在处理器上运行的计算机程序,所述计算机程序在被所述处理器执行时实现如权利要求1-6任一项所述的方法。
14.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有可在处理器上运行的计算机程序、所述计算机程序在被执行时实现如权利要求1-6任一项所述的方法。
CN201910675999.2A 2019-07-25 2019-07-25 一种语音识别的方法及装置 Active CN110428814B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910675999.2A CN110428814B (zh) 2019-07-25 2019-07-25 一种语音识别的方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910675999.2A CN110428814B (zh) 2019-07-25 2019-07-25 一种语音识别的方法及装置

Publications (2)

Publication Number Publication Date
CN110428814A CN110428814A (zh) 2019-11-08
CN110428814B true CN110428814B (zh) 2022-03-01

Family

ID=68412402

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910675999.2A Active CN110428814B (zh) 2019-07-25 2019-07-25 一种语音识别的方法及装置

Country Status (1)

Country Link
CN (1) CN110428814B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112216284B (zh) * 2020-10-09 2024-02-06 携程计算机技术(上海)有限公司 训练数据更新方法及系统、语音识别方法及系统、设备

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462608A (zh) * 2014-05-16 2017-02-22 微软技术许可有限责任公司 改进语言模型的知识源个性化
CN108257035A (zh) * 2017-12-30 2018-07-06 黄敬易 用户相似度计算方法、装置、服务器及可读存储介质
KR20190027287A (ko) * 2017-09-06 2019-03-14 김영선 손가락 동작과 입 모양에 의한 키보드와 마우스 기능 모사 방법
CN109710935A (zh) * 2018-12-26 2019-05-03 北京航空航天大学 一种基于文物知识图谱的博物馆导览与知识推荐方法
CN109754784A (zh) * 2017-11-02 2019-05-14 华为技术有限公司 训练滤波模型的方法和语音识别的方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106462608A (zh) * 2014-05-16 2017-02-22 微软技术许可有限责任公司 改进语言模型的知识源个性化
KR20190027287A (ko) * 2017-09-06 2019-03-14 김영선 손가락 동작과 입 모양에 의한 키보드와 마우스 기능 모사 방법
CN109754784A (zh) * 2017-11-02 2019-05-14 华为技术有限公司 训练滤波模型的方法和语音识别的方法
CN108257035A (zh) * 2017-12-30 2018-07-06 黄敬易 用户相似度计算方法、装置、服务器及可读存储介质
CN109710935A (zh) * 2018-12-26 2019-05-03 北京航空航天大学 一种基于文物知识图谱的博物馆导览与知识推荐方法

Also Published As

Publication number Publication date
CN110428814A (zh) 2019-11-08

Similar Documents

Publication Publication Date Title
US10332507B2 (en) Method and device for waking up via speech based on artificial intelligence
CN108694940B (zh) 一种语音识别方法、装置及电子设备
JP6601470B2 (ja) 自然言語の生成方法、自然言語の生成装置及び電子機器
CN109344240B (zh) 一种数据处理方法、服务器及电子设备
CN110619050B (zh) 意图识别方法及设备
US20220253710A1 (en) Human-Machine Multi-Turn Conversation Method and System for Human-Machine Interaction, and Intelligent Apparatus
JP2020004382A (ja) 音声対話方法及び装置
CN110019691A (zh) 会话消息处理方法和装置
US20230094730A1 (en) Model training method and method for human-machine interaction
CN111046674B (zh) 语义理解方法、装置、电子设备和存储介质
CN116150306A (zh) 问答机器人的训练方法、问答方法及装置
CN117312641A (zh) 智能获取信息的方法、装置、设备及存储介质
CN111460117A (zh) 对话机器人意图语料生成方法、装置、介质及电子设备
CN111444321B (zh) 问答方法、装置、电子设备和存储介质
CN111402864A (zh) 语音处理方法及电子设备
CN113220828B (zh) 意图识别模型处理方法、装置、计算机设备及存储介质
CN110428814B (zh) 一种语音识别的方法及装置
CN111508481B (zh) 语音唤醒模型的训练方法、装置、电子设备及存储介质
CN112818096A (zh) 对话生成方法及其装置
CN107222383B (zh) 一种对话管理方法和系统
CN114625889A (zh) 一种语义消歧方法、装置、电子设备及存储介质
CN111898377A (zh) 一种情感识别方法、装置、计算机设备及存储介质
CN111159339A (zh) 一种文本匹配处理方法和装置
CN110704623A (zh) 基于Rasa_Nlu框架提高实体识别率的方法、装置、系统和存储介质
CN111460106A (zh) 一种信息交互方法、装置及设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20220117

Address after: 310024 floor 5, zone 2, building 3, Hangzhou cloud computing Industrial Park, Zhuantang street, Xihu District, Hangzhou City, Zhejiang Province

Applicant after: Hangzhou suddenly Cognitive Technology Co.,Ltd.

Address before: Room 401, gate 2, block a, Zhongguancun 768 Creative Industry Park, 5 Xueyuan Road, Haidian District, Beijing 100083

Applicant before: BEIJING MORAN COGNITIVE TECHNOLOGY Co.,Ltd.

GR01 Patent grant
GR01 Patent grant