CN109256128A - 一种根据用户语料自动判定用户角色的方法及系统 - Google Patents
一种根据用户语料自动判定用户角色的方法及系统 Download PDFInfo
- Publication number
- CN109256128A CN109256128A CN201811378488.6A CN201811378488A CN109256128A CN 109256128 A CN109256128 A CN 109256128A CN 201811378488 A CN201811378488 A CN 201811378488A CN 109256128 A CN109256128 A CN 109256128A
- Authority
- CN
- China
- Prior art keywords
- user
- role
- speech
- module
- label
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 30
- 239000013598 vector Substances 0.000 claims abstract description 109
- 238000012549 training Methods 0.000 claims abstract description 72
- 238000004458 analytical method Methods 0.000 claims description 32
- 239000000284 extract Substances 0.000 claims description 31
- 238000000605 extraction Methods 0.000 claims description 24
- 230000008569 process Effects 0.000 description 6
- 238000013507 mapping Methods 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 230000003993 interaction Effects 0.000 description 3
- 238000012545 processing Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/04—Training, enrolment or model building
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/06—Decision making techniques; Pattern matching strategies
- G10L17/14—Use of phonemic categorisation or speech recognition prior to speaker recognition or verification
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/22—Interactive procedures; Man-machine interfaces
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/225—Feedback of the input speech
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/227—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of the speaker; Human-factor methodology
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Business, Economics & Management (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Game Theory and Decision Science (AREA)
- Computational Linguistics (AREA)
- Machine Translation (AREA)
Abstract
本发明提供了一种根据用户语料自动判定用户角色的方法及系统,其方法包括:获取语音样本及所述语音样本对应的角色类型;根据所述语音样本逐帧地提取语言特征;根据所述语言特征得到特征矢量排序;根据所述角色类型对所述特征矢量排序标记角色标签;根据所述特征矢量排序和所述角色标签生成训练模型;获取用户语音;将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。本发明通过分析语音样本建立训练模型,从而将用户语音和训练模型进行匹配进而自动判定用户角色。
Description
技术领域
本发明涉及语音识别技术领域,尤指一种根据用户语料自动判定用户角色的方法及系统。
背景技术
随着互联网的快速发展,人们的生活变得越来越智能化,因此人们也越来越习惯地使用智能终端完成各种需求。而且随着人工智能相关技术的日益成熟,各类终端的智能化程度也越来越高。其中,语音交互的方式作为智能终端中人机交互主流的交流应用之一,也是越来越受到用户的青睐。
但是,用户在通过智能终端学习的过程中,常规的语音产品针对用户的语言问法,要么只能对应给出特定角色的机器语音回复,要么只是单纯地调整机器语音回复的声音,例如导航软件用户可以选择系统自带的声音或者自己喜欢的明星的声音,在这种情况下声音改变实际上回复的内容完全没有变化。
用户长期面对同样角色的机器语音回复,缺乏趣味性,可能影响用户学习的积极性。因此,目前市场上急需一种根据用户语料自动判定用户角色的方法及系统。
发明内容
本发明的目的是提供一种根据用户语料自动判定用户角色的方法及系统,实现通过分析语音样本建立训练模型,从而将用户语音和训练模型进行匹配进而自动判定用户角色。
本发明提供的技术方案如下:
本发明提供一种根据用户语料自动判定用户角色的方法,包括:
获取语音样本及所述语音样本对应的角色类型;
根据所述语音样本逐帧地提取语言特征;
根据所述语言特征得到特征矢量排序;
根据所述角色类型对所述特征矢量排序标记角色标签;
根据所述特征矢量排序和所述角色标签生成训练模型;
获取用户语音;
将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
进一步优选地,所述的获取到用户语音之后,所述的将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签之前还包括:
解析所述用户语音得到用户语义;
根据所述用户语义生成对应的答复信息。
进一步优选地,所述的将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签具体包括:
提取所述用户语音中的用户语言特征;
根据所述用户语言特征得到用户特征矢量排序;
将所述用户特征矢量排序和所述训练模型进行匹配,得到用户特征矢量排序对应的所述用户角色标签。
进一步优选地,还包括:
将所有的角色类型相互之间进行配对得到对应的问答角色;
根据角色类型和对应的问答角色之间的对应关系、以及所述语言特征建立语音库。
进一步优选地,所述的将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签之后包括:
根据所述用户角色标签查找语音库中对应的问答角色;
根据所述问答角色对应的语言特征输出所述答复信息。
本发明还提供一种根据用户语料自动判定用户角色的系统,包括:
获取模块,获取语音样本及所述语音样本对应的角色类型;
提取模块,根据所述获取模块获取到的所述语音样本逐帧地提取语言特征;
分析模块,根据所述提取模块提取的所述语言特征分析得到特征矢量排序;
标记模块,根据所述获取模块获取的所述角色类型对所述分析模块得到的所述特征矢量排序标记角色标签;
训练模型生成模块,根据所述分析模块得到的所述特征矢量排序和所述标记模块标记的所述角色标签生成训练模型;
用户语音获取模块,获取用户语音;
匹配模块,将所述用户语音获取模块获取的所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
进一步优选地,还包括:
解析模块,解析所述用户语音获取模块获取的所述用户语音得到用户语义;
生成模块,根据所述解析模块解析得到的所述用户语义生成对应的答复信息。
进一步优选地,所述匹配模块具体包括:
提取单元,提取所述用户语音中的用户语言特征;
分析单元,根据所述提取单元提取的所述用户语言特征得到用户特征矢量排序;
匹配单元,将所述分析单元得到的所述用户特征矢量排序和所述训练模型进行匹配,得到用户特征矢量排序对应的所述用户角色标签。
进一步优选地,还包括:
配对模块,将所述获取模块获取到的所有的角色类型相互之间进行配对得到对应的问答角色;
语音库建立模块,根据所述配对模块得到的角色类型和对应的问答角色之间的对应关系、以及所述提取模块提取的所述语言特征建立语音库。
进一步优选地,还包括:
查找模块,根据所述匹配模块得到的所述用户角色标签查找所述语音库建立模块建立的语音库中对应的问答角色;
输出模块,根据所述查找模块得到的所述问答角色对应的语言特征输出所述生成模块生成的所述答复信息。
通过本发明提供的一种根据用户语料自动判定用户角色的方法及系统,能够带来以下至少一种有益效果:
1、本发明中,通过从语音样本中提取相应的角色类型的语言特征,从而生成训练模型,便于后续判定用户角色。
2、本发明中,通过分析获取到的用户语音,和得到的训练模型进行匹配,进而确定用户角色。
3、本发明中,针对用户角色,按照对应的问答角色的语言特征进行答复,具有趣味性。
附图说明
下面将以明确易懂的方式,结合附图说明优选实施方式,对一种根据用户语料自动判定用户角色的方法及系统的上述特性、技术特征、优点及其实现方式予以进一步说明。
图1是本发明一种根据用户语料自动判定用户角色的方法的第一个实施例的流程图;
图2、图3是本发明一种根据用户语料自动判定用户角色的方法的第二个实施例的流程图;
图4是本发明一种根据用户语料自动判定用户角色的方法的第三个实施例的流程图;
图5是本发明一种根据用户语料自动判定用户角色的系统的第四个实施例的结构示意图;
图6是本发明一种根据用户语料自动判定用户角色的系统的第五个实施例的结构示意图;
图7是本发明一种根据用户语料自动判定用户角色的系统的第六个实施例的结构示意图。
附图标号说明:
1000自动判定用户角色的系统
1100获取模块 1200提取模块
1250配对模块 1260语音库建立模块
1300分析模块 1400标记模块
1500训练模型生成模块 1600用户语音获取模块
1650解析模块 1660生成模块
1700匹配模块 1710提取单元 1720分析单元 1730匹配单元
1800查找模块 1900输出模块
具体实施方式
为了能够更加清楚地说明本发明实施例中或现有技术中的技术方案,下面将对照说明书附图说明本发明的具体实施方式。显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,并获得其他的实施方式。
为了使图面简洁,各图中只示意性地表示出了与本发明相关的部分,它们并不代表其作为产品的实际结构。另外,以使图面简洁便于理解,在有些图中具有相同结构或功能的部件,仅示意性地绘示了其中的一个,或仅标出了其中的一个。在本文中,“一个”不仅表示“仅此一个”,也可以表示“多于一个”的情形。
本发明的第一实施例,如图1所示,一种根据用户语料自动判定用户角色的方法,包括:
S100获取语音样本及所述语音样本对应的角色类型。
具体地,每个用户在实际生活中当处于不同的环境的时候,则自身处于不同的角色,例如,在和老师请教问题时是属于学生的角色,收集大量的语音样本。
其中,每个语音样本都具有特定的角色类型,并且具有与之相对的角色类型,例如某一个角色类型为学生请教问题式,则对应的角色类型为老师传授解答式。
获取每个语音样本对应的角色类型,其中同一个语音样本可能属于不同的角色类型,例如某一个语音样本为:“请问这是什么”,那么这个可能属于学生提问,也可能属于客户提问等。
S200根据所述语音样本逐帧地提取语言特征。
具体地,分析上述获取到的每一个语音样本,逐帧地进行提取语言特征,语言特征包括语音中的语气、语调以及用词等,每一个角色类型的语言特征不同。
由于分析语音样本中语言特征的过程除了判断语音中的语气、语调等之外,还需要对用词等进行分析,因此需要将获取到的语音样本转化为文本形式,然后对该文本进行相应的分析。
例如某一个角色类型为学生请教问题式,则对应的角色类型为老师传授解答式,其中角色类型为学生请教问题式与角色类型为老师传授解答式的语气、语调以及用词必然不同,学生请教问题式语气较为疑惑,用词中为什么、怎么等疑问词较多。
其中,为了保证提取的语言特征是对应的角色类型所具有的特定的特征,因此每个角色类型获取多条语音样本,综合分析统计属于同一角色类型的所有的语音样本,得到具有共性的语言特征。
分析计同一角色类型的所有的语音样本的语言特征,统计每一个语言特征出现的概率,将所有的语言特征按照概率大小进行排列,然后提取取其中一个或多个语言特征。
例如某一个角色类型为学生请教问题式,分析所有属于学生请教问题式的语音样本的语言特征,统计得出疑问词“为什么”和“怎么”出现的概率较大,因此提取语言特征疑问词“为什么”和“怎么”。
S300根据所述语言特征得到特征矢量排序。
具体地,根据上述提取的语言特征得到特征矢量排序,由于角色类型较多,可能存在不同的角色类型的语音样本出现交叉,导致不同的角色类型提取出的语言特征雷同或相似,因此通过对语言特征进行排序得到特征矢量排序进行区别。
S400根据所述角色类型对所述特征矢量排序标记角色标签。
具体地,在上述获取语音样本时同时获取了对应的角色类型,即便同一语音样本可能属于多个不同的角色类型,但是在提取语言特征时是对属于同一角色类型的语音样本进行分析,因此根据提取到的语言特征得到的特征矢量排序也有对应的角色类型,然后根据对应的角色类型对特征矢量排序标记角色标签。
例如某一个角色类型为学生请教问题式,分析所有属于学生请教问题式的语音样本的语言特征,统计得出疑问词“为什么”和“怎么”出现的概率较大,因此提取语言特征疑问词“为什么”和“怎么”。根据语言特征疑问词“为什么”和“怎么”进行排序得到特征矢量排序,然后对该特征矢量排序标记,标记为学生请教问题式。
S500根据所述特征矢量排序和所述角色标签生成训练模型。
具体地,根据得到的特征矢量排序和角色标签生成训练模型,在训练模型中建立特征矢量排序和角色标签之间一一对应的映射关系,便于后续匹配用户语音识别用户角色。
S600获取用户语音。
具体地,通过人机交互获取用户语音,由于后续分析用户语音的过程除了判断语音中的语气、语调等之外,还需要对用词等进行分析,因此需要将获取到的用户语音转化为文本形式,然后再对该文本进行相应的分析。
S700将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
具体地,将上述获取到的用户语音和生成的训练模型逐一地进行匹配,通过匹配结果确定用户语音对应的用户角色标签。如果匹配结果显示均不相符,则立即提示用户进行处理或者暂时将获取的用户语音存储起来,后续提醒用户处理。
用户首先人工判断用户语音对应的角色,然后在训练模型中查找是否有该角色的角色标签,如果有,则将用户语音加入语音样本重新提取语言特征,更新特征矢量排序以及训练模型。如果没有,则新建用户语音对应的角色类型,收集获取属于该角色类型的语音样本,提取语言特征,更新特征矢量排序以及训练模型。
本实施例中,通过从语音样本中提取相应的角色类型的语言特征,从而生成训练模型,然后通过分析获取到的用户语音,和得到的训练模型进行匹配,进而确定用户角色。
本发明的第二实施例,是上述第一实施例的优化实施例,如图2、图3所示,包括:
S100获取语音样本及所述语音样本对应的角色类型。
S200根据所述语音样本逐帧地提取语言特征。
S300根据所述语言特征得到特征矢量排序。
S400根据所述角色类型对所述特征矢量排序标记角色标签。
S500根据所述特征矢量排序和所述角色标签生成训练模型。
S600获取用户语音。
S650解析所述用户语音得到用户语义。
具体的,首先将上述获取到的用户语音转化为文本形式,然后对文本逐一地进行解析,得到用户语音对应的用户语义,从而识别出用户的实际意图或者需求。
S660根据所述用户语义生成对应的答复信息。
具体的,结合用户的实际意图或者需求,根据上述得到的用户语义生成对应的答复信息,例如某一个用户语音为:“请问第一道题怎么做”,识别出用户在提问,询问第一道题的解答办法,因此针对该用户语音生成第一道题的解答方法。
S700将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
所述的S700将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签具体包括:
S710提取所述用户语音中的用户语言特征。
具体的,分析上述获取到的用户语音,逐帧地进行提取用户语言特征,用户语言特征包括用户语音中的语气、语调以及用词等,其中,每一个角色类型的语言特征不同。直接通过用户语音获取其中的语气、语调等语音具有的特征,然后通过上述识别用户语义的过程中转化得到的文本来获取用词等文本具有的特征。
其中,由于用户语音转化的文本中用词等语言特征数量较多,因此可以结合获取的语气、语调等语言特征对用词等语言特征进行选取从而得到用户语言特征,例如当语气为疑惑时,选取的用词可以为疑问词“为什么”和“怎么”等。
S720根据所述用户语言特征得到用户特征矢量排序。
具体的,根据上述提取到的用户语言特征得到对应的用户特征矢量排序,当选取的用户语言特征较多时,可以分别选取不同数量和种类用户语言特征得到多个用户特征矢量排序。
S730将所述用户特征矢量排序和所述训练模型进行匹配,得到用户特征矢量排序对应的所述用户角色标签。
具体的,将用户特征矢量排序和训练模型进行匹配,得到用户特征矢量排序对应的用户角色标签。当上述一个用户语音得到多个用户特征矢量排序时,逐一地将所有的用户特征矢量排序和训练模型中的特征矢量排序进行匹配,从而确定用户角色标签。
当上述得到的多个用户特征矢量排序中只有一个用户特征矢量排序和训练模型中的特征矢量排序匹配相符,则该特征矢量排序对应的角色标签就是用户角色标签。
当上述得到的多个用户特征矢量排序中多个用户特征矢量排序和训练模型中的特征矢量排序匹配相符,则选择其中一个特征矢量排序对应的角色标签就是用户角色标签。
当上述得到的多个用户特征矢量排序中所有的用户特征矢量排序和训练模型中的特征矢量排序匹配均不相符时,则新建用户语音对应的角色类型,收集获取属于该角色类型的语音样本,提取语言特征,更新特征矢量排序以及训练模型。
本实施例中,在获取到用户语音之后,对用户语音进行语义解析得到用户语义,从而识别出用户的真实意图。并且通过对用户语音提取到的的语言特征进行分析得到用户特征矢量排序,从而判定用户角色标签。
本发明的第三实施例,是上述第一实施例和第二实施例的优化实施例,如图4所示,包括:
S100获取语音样本及所述语音样本对应的角色类型。
S200根据所述语音样本逐帧地提取语言特征。
S250将所有的角色类型相互之间进行配对得到对应的问答角色。
具体的,获取语音样本时同时获取了对应的角色类型,将所有的角色类型相互之间进行配对得到对应的问答角色,建立角色类型相互之间一一对应的关系。
例如,某一个角色类型为学生请教问题式,则对应的角色类型为老师传授解答式,或者,某一个角色类型为客户询问式,则对应的角色类型为客服解答式。
S260根据角色类型和对应的问答角色之间的对应关系、以及所述语言特征建立语音库。
具体的,根据上述建立的角色类型和对应的问答角色之间一一对应的关系、以及所述语言特征建立语音库,也就是说在语音库中建立角色类型和对应的问答角色之间一一映射的关系,并且将每个角色类型(包括问答角色)和该角色类型对应的语言特征进行关联。
S300根据所述语言特征得到特征矢量排序。
S400根据所述角色类型对所述特征矢量排序标记角色标签。
S500根据所述特征矢量排序和所述角色标签生成训练模型。
S600获取用户语音。
S700将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
S800根据所述用户角色标签查找语音库中对应的问答角色。
具体的,根据上述确定的用户角色标签,通过上述建立的语音库中角色类型和对应的问答角色之间一一映射的关系,得到该用户角色标签对应的问答角色。
例如,上述通过用户语音确定用户角色标签为学生请教问题式,通过语音库中角色类型和对应的问答角色之间一一映射的关系查找对应的角色类型为老师传授解答式,则用户语音的用户角色标签对应的角色类型为老师传授解答式。
S900根据所述问答角色对应的语言特征输出所述答复信息。
具体的,根据上述确定的问答角色,通过上述建立的语音库从而得到该问答角色的语言特征。将针对用户语音生成的对应的答复信息,结合语言特征输出答复信息。
本实施例中,针对用户语音的用户角色标签,按照该用户角色标签对应的问答角色的语言特征进行答复,一方面使用户感觉舒适,另一方面更加具有趣味性。
本发明的第四实施例,如图5所示,一种根据用户语料自动判定用户角色的系统1000,包括:
获取模块1100,获取语音样本及所述语音样本对应的角色类型。
具体地,具体地,每个用户在实际生活中当处于不同的环境的时候,则自身处于不同的角色,例如,在和老师请教问题时是属于学生的角色,获取模块 1100收集大量的语音样本。
其中,每个语音样本都具有特定的角色类型,并且具有与之相对的角色类型,例如某一个角色类型为学生请教问题式,则对应的角色类型为老师传授解答式。
获取模块1100获取每个语音样本对应的角色类型,其中同一个语音样本可能属于不同的角色类型,例如某一个语音样本为:“请问这是什么”,那么这个可能属于学生提问,也可能属于客户提问等。
提取模块1200,根据所述获取模块1100获取到的所述语音样本逐帧地提取语言特征。
具体地,分析上述获取到的每一个语音样本,提取模块1200逐帧地进行提取语言特征,语言特征包括语音中的语气、语调以及用词等,每一个角色类型的语言特征不同。
由于分析语音样本中语言特征的过程除了判断语音中的语气、语调等之外,还需要对用词等进行分析,因此需要将获取到的语音样本转化为文本形式,然后对该文本进行相应的分析。
例如某一个角色类型为学生请教问题式,则对应的角色类型为老师传授解答式,其中角色类型为学生请教问题式与角色类型为老师传授解答式的语气、语调以及用词必然不同,学生请教问题式语气较为疑惑,用词中为什么、怎么等疑问词较多。
其中,为了保证提取的语言特征是对应的角色类型所具有的特定的特征,因此每个角色类型获取多条语音样本,综合分析统计属于同一角色类型的所有的语音样本,得到具有共性的语言特征。
分析计同一角色类型的所有的语音样本的语言特征,统计每一个语言特征出现的概率,将所有的语言特征按照概率大小进行排列,然后提取取其中一个或多个语言特征。
例如某一个角色类型为学生请教问题式,分析所有属于学生请教问题式的语音样本的语言特征,统计得出疑问词“为什么”和“怎么”出现的概率较大,因此提取语言特征疑问词“为什么”和“怎么”。
分析模块1300,根据所述提取模块1200提取的所述语言特征分析得到特征矢量排序。
具体地,分析模块1300根据上述提取的语言特征得到特征矢量排序,由于角色类型较多,可能存在不同的角色类型的语音样本出现交叉,导致不同的角色类型提取出的语言特征雷同或相似,因此通过对语言特征进行排序得到特征矢量排序进行区别。
标记模块1400,根据所述获取模块1100获取的所述角色类型对所述分析模块1300得到的所述特征矢量排序标记角色标签。
具体地,在上述获取语音样本时同时获取了对应的角色类型,即便同一语音样本可能属于多个不同的角色类型,但是在提取语言特征时是对属于同一角色类型的语音样本进行分析,因此根据提取到的语言特征得到的特征矢量排序也有对应的角色类型,然后标记模块1400根据对应的角色类型对特征矢量排序标记角色标签。
例如某一个角色类型为学生请教问题式,分析所有属于学生请教问题式的语音样本的语言特征,统计得出疑问词“为什么”和“怎么”出现的概率较大,因此提取语言特征疑问词“为什么”和“怎么”。根据语言特征疑问词“为什么”和“怎么”进行排序得到特征矢量排序,然后对该特征矢量排序标记,标记为学生请教问题式。
训练模型生成模块1500,根据所述分析模块1300得到的所述特征矢量排序和所述标记模块1400标记的所述角色标签生成训练模型。
具体地,训练模型生成模块1500根据得到的特征矢量排序和角色标签生成训练模型,在训练模型中建立特征矢量排序和角色标签之间一一对应的映射关系,便于后续匹配用户语音识别用户角色。
用户语音获取模块1600,获取用户语音。
具体地,用户语音获取模块1600通过人机交互获取用户语音,由于后续分析用户语音的过程除了判断语音中的语气、语调等之外,还需要对用词等进行分析,因此需要将获取到的用户语音转化为文本形式,然后再对该文本进行相应的分析。
匹配模块1700,将所述用户语音获取模块1600获取的所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
具体地,匹配模块1700将上述获取到的用户语音和生成的训练模型逐一地进行匹配,通过匹配结果确定用户语音对应的用户角色标签。如果匹配结果显示均不相符,则立即提示用户进行处理或者暂时将获取的用户语音存储起来,后续提醒用户处理。
用户首先人工判断用户语音对应的角色,然后在训练模型中查找是否有该角色的角色标签,如果有,则将用户语音加入语音样本重新提取语言特征,更新特征矢量排序以及训练模型。如果没有,则新建用户语音对应的角色类型,收集获取属于该角色类型的语音样本,提取语言特征,更新特征矢量排序以及训练模型。
本实施例中,通过从语音样本中提取相应的角色类型的语言特征,从而生成训练模型,然后通过分析获取到的用户语音,和得到的训练模型进行匹配,进而确定用户角色。
本发明的第五实施例,是上述第四实施例的优化实施例,如图6所示,包括:
获取模块1100,获取语音样本及所述语音样本对应的角色类型。
提取模块1200,根据所述获取模块1100获取到的所述语音样本逐帧地提取语言特征。
分析模块1300,根据所述提取模块1200提取的所述语言特征分析得到特征矢量排序。
标记模块1400,根据所述获取模块1100获取的所述角色类型对所述分析模块1300得到的所述特征矢量排序标记角色标签。
训练模型生成模块1500,根据所述分析模块1300得到的所述特征矢量排序和所述标记模块1400标记的所述角色标签生成训练模型。
用户语音获取模块1600,获取用户语音。
解析模块1650,解析所述用户语音获取模块1600获取的所述用户语音得到用户语义。
具体地,解析模块1650首先将上述获取到的用户语音转化为文本形式,然后对文本逐一地进行解析,得到用户语音对应的用户语义,从而识别出用户的实际意图或者需求。
生成模块1660,根据所述解析模块1650解析得到的所述用户语义生成对应的答复信息。
具体地,结合用户的实际意图或者需求,生成模块1660根据上述得到的用户语义生成对应的答复信息,例如某一个用户语音为:“请问第一道题怎么做”,识别出用户在提问,询问第一道题的解答办法,因此针对该用户语音生成第一道题的解答方法。
匹配模块1700,将所述用户语音获取模块1600获取的所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
所述匹配模块1700具体包括:
提取单元1710,提取所述用户语音中的用户语言特征。
具体地,分析上述获取到的用户语音,提取单元1710逐帧地进行提取用户语言特征,用户语言特征包括用户语音中的语气、语调以及用词等,其中,每一个角色类型的语言特征不同。直接通过用户语音获取其中的语气、语调等语音具有的特征,然后通过上述识别用户语义的过程中转化得到的文本来获取用词等文本具有的特征。
其中,由于用户语音转化的文本中用词等语言特征数量较多,因此可以结合获取的语气、语调等语言特征对用词等语言特征进行选取从而得到用户语言特征,例如当语气为疑惑时,选取的用词可以为疑问词“为什么”和“怎么”等。
分析单元1720,根据所述提取单元1710提取的所述用户语言特征得到用户特征矢量排序。
具体地,分析单元1720根据上述提取到的用户语言特征得到对应的用户特征矢量排序,当选取的用户语言特征较多时,分析单元1720可以分别选取不同数量和种类用户语言特征得到多个用户特征矢量排序。
匹配单元1730,将所述分析单元1720得到的所述用户特征矢量排序和所述训练模型进行匹配,得到用户特征矢量排序对应的所述用户角色标签。
具体地,匹配单元1730将用户特征矢量排序和训练模型进行匹配,得到用户特征矢量排序对应的用户角色标签。当上述一个用户语音得到多个用户特征矢量排序时,匹配单元1730逐一地将所有的用户特征矢量排序和训练模型中的特征矢量排序进行匹配,从而确定用户角色标签。
当上述得到的多个用户特征矢量排序中只有一个用户特征矢量排序和训练模型中的特征矢量排序匹配相符,则该特征矢量排序对应的角色标签就是用户角色标签。
当上述得到的多个用户特征矢量排序中多个用户特征矢量排序和训练模型中的特征矢量排序匹配相符,则选择其中一个特征矢量排序对应的角色标签就是用户角色标签。
当上述得到的多个用户特征矢量排序中所有的用户特征矢量排序和训练模型中的特征矢量排序匹配均不相符时,则新建用户语音对应的角色类型,收集获取属于该角色类型的语音样本,提取语言特征,更新特征矢量排序以及训练模型。
本实施例中,在获取到用户语音之后,对用户语音进行语义解析得到用户语义,从而识别出用户的真实意图。并且通过对用户语音提取到的的语言特征进行分析得到用户特征矢量排序,从而判定用户角色标签。
本发明的第六实施例,是上述第四实施例和第五实施例的优化实施例,如图7所示,包括:
获取模块1100,获取语音样本及所述语音样本对应的角色类型。
提取模块1200,根据所述获取模块1100获取到的所述语音样本逐帧地提取语言特征。
配对模块1250,将所述获取模块1100获取到的所有的角色类型相互之间进行配对得到对应的问答角色。
具体地,获取语音样本时同时获取了对应的角色类型,将所有的角色类型相互之间进行配对得到对应的问答角色,建立角色类型相互之间一一对应的关系。
例如,某一个角色类型为学生请教问题式,则对应的角色类型为老师传授解答式,或者,某一个角色类型为客户询问式,则对应的角色类型为客服解答式。
语音库建立模块1260,根据所述配对模块1250得到的角色类型和对应的问答角色之间的对应关系、以及所述提取模块1200提取的所述语言特征建立语音库。
具体地,根据上述建立的角色类型和对应的问答角色之间一一对应的关系、以及所述语言特征建立语音库,也就是说在语音库中建立角色类型和对应的问答角色之间一一映射的关系,并且将每个角色类型(包括问答角色)和该角色类型对应的语言特征进行关联。
分析模块1300,根据所述提取模块1200提取的所述语言特征分析得到特征矢量排序。
标记模块1400,根据所述获取模块1100获取的所述角色类型对所述分析模块1300得到的所述特征矢量排序标记角色标签。
训练模型生成模块1500,根据所述分析模块1300得到的所述特征矢量排序和所述标记模块1400标记的所述角色标签生成训练模型。
用户语音获取模块1600,获取用户语音。
匹配模块1700,将所述用户语音获取模块1600获取的所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
查找模块1800,根据所述匹配模块1700得到的所述用户角色标签查找所述语音库建立模块1260建立的语音库中对应的问答角色。
具体地,根据上述确定的用户角色标签,通过上述建立的语音库中角色类型和对应的问答角色之间一一映射的关系,得到该用户角色标签对应的问答角色。
例如,上述通过用户语音确定用户角色标签为学生请教问题式,通过语音库中角色类型和对应的问答角色之间一一映射的关系查找对应的角色类型为老师传授解答式,则用户语音的用户角色标签对应的角色类型为老师传授解答式。
输出模块1900,根据所述查找模块1800得到的所述问答角色对应的语言特征输出所述生成模块1660生成的所述答复信息。
具体地,根据上述确定的问答角色,通过上述建立的语音库从而得到该问答角色的语言特征。将针对用户语音生成的对应的答复信息,结合语言特征输出答复信息。
本实施例中,针对用户语音的用户角色标签,按照该用户角色标签对应的问答角色的语言特征进行答复,一方面使用户感觉舒适,另一方面更加具有趣味性。
应当说明的是,上述实施例均可根据需要自由组合。以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。
Claims (10)
1.一种根据用户语料自动判定用户角色的方法,其特征在于,包括:
获取语音样本及所述语音样本对应的角色类型;
根据所述语音样本逐帧地提取语言特征;
根据所述语言特征得到特征矢量排序;
根据所述角色类型对所述特征矢量排序标记角色标签;
根据所述特征矢量排序和所述角色标签生成训练模型;
获取用户语音;
将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
2.根据权利要求1所述的根据用户语料自动判定用户角色的方法,其特征在于,所述的获取用户语音之后,所述的将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签之前包括:
解析所述用户语音得到用户语义;
根据所述用户语义生成对应的答复信息。
3.根据权利要求2所述的根据用户语料自动判定用户角色的方法,其特征在于,所述的将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签具体包括:
提取所述用户语音中的用户语言特征;
根据所述用户语言特征得到用户特征矢量排序;
将所述用户特征矢量排序和所述训练模型进行匹配,得到用户特征矢量排序对应的所述用户角色标签。
4.根据权利要求3所述的根据用户语料自动判定用户角色的方法,其特征在于,还包括:
将所有的角色类型相互之间进行配对得到对应的问答角色;
根据角色类型和对应的问答角色之间的对应关系、以及所述语言特征建立语音库。
5.根据权利要求4所述的根据用户语料自动判定用户角色的方法,其特征在于,所述的将所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签之后包括:
根据所述用户角色标签查找语音库中对应的问答角色;
根据所述问答角色对应的语言特征输出所述答复信息。
6.一种根据用户语料自动判定用户角色的系统,其特征在于,包括:
获取模块,获取语音样本及所述语音样本对应的角色类型;
提取模块,根据所述获取模块获取到的所述语音样本逐帧地提取语言特征;
分析模块,根据所述提取模块提取的所述语言特征分析得到特征矢量排序;
标记模块,根据所述获取模块获取的所述角色类型对所述分析模块得到的所述特征矢量排序标记角色标签;
训练模型生成模块,根据所述分析模块得到的所述特征矢量排序和所述标记模块标记的所述角色标签生成训练模型;
用户语音获取模块,获取用户语音;
匹配模块,将所述用户语音获取模块获取的所述用户语音和所述训练模型进行匹配,得到所述用户语音对应的用户角色标签。
7.根据权利要求6所述的根据用户语料自动判定用户角色的系统,其特征在于,还包括:
解析模块,解析所述用户语音获取模块获取的所述用户语音得到用户语义;
生成模块,根据所述解析模块解析得到的所述用户语义生成对应的答复信息。
8.根据权利要求7所述的根据用户语料自动判定用户角色的系统,其特征在于,所述匹配模块具体包括:
提取单元,提取所述用户语音中的用户语言特征;
分析单元,根据所述提取单元提取的所述用户语言特征得到用户特征矢量排序;
匹配单元,将所述分析单元得到的所述用户特征矢量排序和所述训练模型进行匹配,得到用户特征矢量排序对应的所述用户角色标签。
9.根据权利要求8所述的根据用户语料自动判定用户角色的系统,其特征在于,还包括:
配对模块,将所述获取模块获取到的所有的角色类型相互之间进行配对得到对应的问答角色;
语音库建立模块,根据所述配对模块得到的角色类型和对应的问答角色之间的对应关系、以及所述提取模块提取的所述语言特征建立语音库。
10.根据权利要求9所述的根据用户语料自动判定用户角色的系统,其特征在于,还包括:
查找模块,根据所述匹配模块得到的所述用户角色标签查找所述语音库建立模块建立的语音库中对应的问答角色;
输出模块,根据所述查找模块得到的所述问答角色对应的语言特征输出所述生成模块生成的所述答复信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811378488.6A CN109256128A (zh) | 2018-11-19 | 2018-11-19 | 一种根据用户语料自动判定用户角色的方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811378488.6A CN109256128A (zh) | 2018-11-19 | 2018-11-19 | 一种根据用户语料自动判定用户角色的方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109256128A true CN109256128A (zh) | 2019-01-22 |
Family
ID=65043760
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811378488.6A Pending CN109256128A (zh) | 2018-11-19 | 2018-11-19 | 一种根据用户语料自动判定用户角色的方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109256128A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399474A (zh) * | 2019-07-18 | 2019-11-01 | 腾讯科技(深圳)有限公司 | 一种智能对话方法、装置、设备及存储介质 |
CN111651497A (zh) * | 2020-04-30 | 2020-09-11 | 北京大米科技有限公司 | 用户标签挖掘方法、装置、存储介质及电子设备 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014169857A1 (zh) * | 2013-04-19 | 2014-10-23 | 富士通株式会社 | 数据处理装置、数据处理方法以及电子设备 |
CN104462066A (zh) * | 2014-12-24 | 2015-03-25 | 北京百度网讯科技有限公司 | 语义角色标注方法及装置 |
KR20160010810A (ko) * | 2014-07-18 | 2016-01-28 | (주)참빛솔루션 | 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템 |
CN106683661A (zh) * | 2015-11-05 | 2017-05-17 | 阿里巴巴集团控股有限公司 | 基于语音的角色分离方法及装置 |
CN107340991A (zh) * | 2017-07-18 | 2017-11-10 | 百度在线网络技术(北京)有限公司 | 语音角色的切换方法、装置、设备以及存储介质 |
CN107885723A (zh) * | 2017-11-03 | 2018-04-06 | 广州杰赛科技股份有限公司 | 对话角色区分方法和系统 |
CN107894831A (zh) * | 2017-10-17 | 2018-04-10 | 北京光年无限科技有限公司 | 一种用于智能机器人的交互输出方法以及系统 |
CN107993665A (zh) * | 2017-12-14 | 2018-05-04 | 科大讯飞股份有限公司 | 多人会话场景中发言人角色确定方法、智能会议方法及系统 |
-
2018
- 2018-11-19 CN CN201811378488.6A patent/CN109256128A/zh active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014169857A1 (zh) * | 2013-04-19 | 2014-10-23 | 富士通株式会社 | 数据处理装置、数据处理方法以及电子设备 |
KR20160010810A (ko) * | 2014-07-18 | 2016-01-28 | (주)참빛솔루션 | 실음성 표출 가능한 실사형 캐릭터 생성 방법 및 생성 시스템 |
CN104462066A (zh) * | 2014-12-24 | 2015-03-25 | 北京百度网讯科技有限公司 | 语义角色标注方法及装置 |
CN106683661A (zh) * | 2015-11-05 | 2017-05-17 | 阿里巴巴集团控股有限公司 | 基于语音的角色分离方法及装置 |
CN107340991A (zh) * | 2017-07-18 | 2017-11-10 | 百度在线网络技术(北京)有限公司 | 语音角色的切换方法、装置、设备以及存储介质 |
CN107894831A (zh) * | 2017-10-17 | 2018-04-10 | 北京光年无限科技有限公司 | 一种用于智能机器人的交互输出方法以及系统 |
CN107885723A (zh) * | 2017-11-03 | 2018-04-06 | 广州杰赛科技股份有限公司 | 对话角色区分方法和系统 |
CN107993665A (zh) * | 2017-12-14 | 2018-05-04 | 科大讯飞股份有限公司 | 多人会话场景中发言人角色确定方法、智能会议方法及系统 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399474A (zh) * | 2019-07-18 | 2019-11-01 | 腾讯科技(深圳)有限公司 | 一种智能对话方法、装置、设备及存储介质 |
CN110399474B (zh) * | 2019-07-18 | 2023-06-09 | 腾讯科技(深圳)有限公司 | 一种智能对话方法、装置、设备及存储介质 |
CN111651497A (zh) * | 2020-04-30 | 2020-09-11 | 北京大米科技有限公司 | 用户标签挖掘方法、装置、存储介质及电子设备 |
CN111651497B (zh) * | 2020-04-30 | 2023-11-14 | 北京大米科技有限公司 | 用户标签挖掘方法、装置、存储介质及电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109360550B (zh) | 语音交互系统的测试方法、装置、设备和存储介质 | |
CN107464568A (zh) | 基于三维卷积神经网络文本无关的说话人识别方法及系统 | |
CN104573028B (zh) | 实现智能问答的方法和系统 | |
CN107766371A (zh) | 一种文本信息分类方法及其装置 | |
CN108804521A (zh) | 一种基于知识图谱的问答方法及农业百科问答系统 | |
CN108446286A (zh) | 一种自然语言问句答案的生成方法、装置及服务器 | |
CN107704453A (zh) | 一种文字语义分析方法、文字语义分析终端及存储介质 | |
CN109918680A (zh) | 实体识别方法、装置及计算机设备 | |
CN111026842A (zh) | 自然语言处理方法、自然语言处理装置及智能问答系统 | |
CN109766355A (zh) | 一种支持自然语言的数据查询方法和系统 | |
CN108304372A (zh) | 实体提取方法和装置、计算机设备和存储介质 | |
CN106682090A (zh) | 主动交互实现装置、方法及智能语音交互设备 | |
CN109857846B (zh) | 用户问句与知识点的匹配方法和装置 | |
WO2020233386A1 (zh) | 基于aiml的智能问答方法、装置、计算机设备及存储介质 | |
CN115858758A (zh) | 一种多非结构化数据识别的智慧客服知识图谱系统 | |
CN111694940A (zh) | 一种用户报告的生成方法及终端设备 | |
CN110209828A (zh) | 案件查询方法及案件查询装置、计算机设备和存储介质 | |
CN107145573A (zh) | 人工智能客服机器人的问题解答方法及系统 | |
CN107301163A (zh) | 包含公式的文本语义解析方法及装置 | |
CN108304424A (zh) | 文本关键词提取方法及文本关键词提取装置 | |
CN110096572A (zh) | 一种样本生成方法、装置及计算机可读介质 | |
CN109815268A (zh) | 一种交易制裁名单匹配系统 | |
CN109256128A (zh) | 一种根据用户语料自动判定用户角色的方法及系统 | |
CN115878778A (zh) | 面向业务领域的自然语言理解方法 | |
CN106970907A (zh) | 一种语义识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190122 |
|
RJ01 | Rejection of invention patent application after publication |