CN102169642B - 具有智能纠错功能的交互式虚拟教师系统 - Google Patents

具有智能纠错功能的交互式虚拟教师系统 Download PDF

Info

Publication number
CN102169642B
CN102169642B CN 201110085339 CN201110085339A CN102169642B CN 102169642 B CN102169642 B CN 102169642B CN 201110085339 CN201110085339 CN 201110085339 CN 201110085339 A CN201110085339 A CN 201110085339A CN 102169642 B CN102169642 B CN 102169642B
Authority
CN
China
Prior art keywords
learner
pronunciation
mouth
virtual teacher
speaks
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 201110085339
Other languages
English (en)
Other versions
CN102169642A (zh
Inventor
李一波
任涛
王扬扬
刘洋
王志怡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang Aerospace University
Original Assignee
Shenyang Aerospace University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang Aerospace University filed Critical Shenyang Aerospace University
Priority to CN 201110085339 priority Critical patent/CN102169642B/zh
Publication of CN102169642A publication Critical patent/CN102169642A/zh
Application granted granted Critical
Publication of CN102169642B publication Critical patent/CN102169642B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Electrically Operated Instructional Devices (AREA)

Abstract

具有智能纠错功能的交互式虚拟教师系统是为解决目前人机对话教学只限于语音合成信息和口语评测,在学习和交流中无法满足智能纠错互动需求的技术问题而设计的。它包括音视频数据采集、信息识别、纠错评价及教学策略等模块。由视音频两路传感器,采集学习者面部图像和声音信号;再由信息识别模块辨识经融合后的学习者口型、发音和情感;纠错评价模块自动评断学习者发音口型,检测与标准发音口型数据库中的标准数据间的差异,自主选择恰当时机,指明发音不正确的原因和改正方法,提供正确的发音口型及动画示范;再由教学策略模块根据评断数据和情感状态制定出师生一对一互动的个性化教学实施方案。利用语音情感多源信息交融,与虚拟教师视频交互智能纠错、模拟,实现实时沟通,动画演示。提高了声音教学准确性。

Description

具有智能纠错功能的交互式虚拟教师系统
技术领域:
本发明涉及一种虚拟教师系统,尤其涉及一种具有智能纠错功能的交互式虚拟教师系统。适用于智能可视化互动人机对话学习平台。
背景技术:
语音纠错是语言学习和交流中的重要环节,也是人机对话教学需要解决的难点之一。理想状态下,虚拟教师应具有充分的智能性,不仅能自主发现错误,还要分析其错误的根源,知道如何纠正,何时纠正,纠正同时考虑学习者的情感因素,这样才能激发学习者的学习兴趣和学习信心,提高教学效率。而目前市场上存在的软件产品大多纠错时机固定,一旦发现学习者语音不达标,立刻纠正,不能根据学习者的情绪变化随时调整;并且纠错方式单一,只能针对某一确定官方标准语种,识别出学习者的语音,将其与标准语音做简单的对比分析,然后采用打分的形式对发音进行评判,根据分数的高低判断学习者的发音正误,如果系统认为发音有误,则提供正确的发音示范,供学生反复跟读练习,直至系统认为发音符合要求为止。这种纠错示范方式存在的一个明显弊端是,学习者必须具备良好的听音辨音能力,才能获得良好的纠错效果,而事实上,大多数学习者需要长期训练才能获得这种能力,这就与系统的纠错策略形成了一对矛盾体,学习者只能自己摸索发音差异,盲目的“模仿”学习,由于找不到发音差异和错误的真正根源,往往导致反复跟读都不正确发音,长此以往,打击学习者的自信心,造成了学习的厌烦和抵触情绪。为了弥补上述缺点,一些产品增加了声音波形对比图或者发音的视觉演示图,从视觉上提供个人语音与标准语音间的差异信息,虽然可以使学习者看到差异所在,但是并未用明确的文字信息告诉学习者如何改正。美国语言学家S.D.Krashen认为语言使用能力如口语,不是教出来的,而是随着时间的推移,接触大量的可理解语料之后自然获得的,并且同样也能获得必要的语法。据此,本发明设计的纠错评价模块着重分析学习者语音错误的产生原因,虚拟教师的主要任务是向学习者提供可理解的文字信息,辅以多视角发音口型图像同步示范,让学习者明确发音差距及如何纠正,养成主动纠错意识,有利于学习者养成良好的发音习惯,极大地提高语音纠错效率,快速提高学习者的语言交流使用能力。
此外现有产品的纠错功能都依赖于语音识别的准确率,即使语音识别技术再出色,也不可能包容所有的干扰情况和类型。一旦由于环境噪声的干扰或学习者明显地域特色的发音使得系统的语音识别出现误判,学习者的纠错学习也会随之出现偏差。Q.Summerfield等通过实验证明,在有噪背景下,与只提供声音信息相比,同时提供声音和同步的说话人脸视频图像,实验对象对语言的理解正确率提高31%。即使在声学环境良好的情况下,视觉信息的辅助也有利于语音的识别和学习。
基于图像处理的唇型识别技术通过说话人的口型变化识别出说话的内容,最早研究源于听障者的学习,其后唇读技术又用于情报获取等场合,1984年Petajan提出了首个计算机唇读系统,听觉视觉语音识别(AVSR)研究开始受到广泛关注,现有相关产品或专利使用范围有限,主要针对语音残障人群。而且该技术侧重于语音口型的识别和演示输出,没有充分挖掘声音图像中隐含的关联信息、分析探究会话中出现的错误根源及纠正方法,对说话人的情感识别关注也较少。
本发明在语音识别的基础上结合了基于图像处理的唇型识别技术,对采集的音视频信号分析处理,识别出学习者的语音口型和情感状态,不仅最大限度地提高语音识别的准确性、鲁棒性,而且根据学习者的情感和发音口型利用人工智能方法查找分析错误原因、解释错误、提供改正建议,自主调整纠错时机和纠错策略,增强了纠错的有效性,拓展了各种人群的语音培训和交互学习范畴。
发明内容:
本发明为了解决传统的人机对话教学通常只利用单纯的语音识别技术,识别率低、抗噪能力差,语言培训软件产品主要还是处于特定行业的中英文语音合成信息和口语评测状态,在智能纠错互动方面无法满足学习和交流需求的技术问题,提供了一种具有智能纠错功能的交互式虚拟教师系统,它包括音视频数据采集模块、信息识别模块、纠错评价模块、教学策略模块和数据库。所述音视频数据采集模块,通过视频音频两路传感器采集学习者面部图像和声音信号;再由信息识别模块,辨识经融合后的学习者口型、发音内容和情感;由纠错评价模块,从标准口型发音数据库中提取与之对应的标准口型和发音数据,自动评断学习者的发音和口型,并在互动交流中,自主选择恰当的时机反馈给学习者与标准发音口型间的差异信息、差异产生原因,指导学习者如何纠正;再由教学策略模块根据纠错评价模块对学习者的评断数据和情感状态,制定出师生一对一互动的个性化教学实施方案,形成具有智能纠错功能的可视化互动人机对话学习平台。
本发明的特点及有益效果:运用先进的语音识别技术和图像识别技术实现具有智能纠错功能的虚拟教师,形成智能可视化互动人机对话学习系统。该系统利用语音情感多源信息交融加上虚拟教师视频交互纠正英语发音。将语音识别和基于视觉的图像处理技术结合,提高了系统的识别率、鲁棒性;此外,系统加入了动画演示功能,实现交互模拟、实时沟通的学习模式,弥补了声音教学的枯燥性,提高了学习的趣味性和准确性。
该系统至少有三种语音输出格式由学习者设定,并且能直接导入学习者自定义语音。学习者可存储视频对话文件,音频对话文件和文本文件,以备查询。
学习者可以自定义输入性别、年龄、地域、英语掌握程度等信息,减少程序判断负担。
所述信息识别模块在识别过程中包括语音信息、口型信息和情感信息的相互融合,结合预先输入的学习者年龄、性别、民族和省份等信息学习的情绪,有效提高识别速率和准确率。
语音和情感特征的融合研究表明语音信号中的音质特征也包含情感信息,情感不同发音方式及声音韵律也不同,从而可以根据声学特征参数识别人类的三种以上的基本情感,如高兴,生气,惊奇等。根据语音与情感的对应关系,一是判断学习者当前的学习状态及时改变教学内容;二是模拟各种情景,提供表演式朗诵范例或进行角色扮演。
教学策略模块根据学习者成绩和学习者情绪自适应调整交互训练学习的难度,若学习者情绪不高,降低交互学习训练的难度;若学习者情绪积极,缓慢提高互学习训练的难度;若学习者情绪平稳,保持交互学习训练的难度;若学习者情绪积极,缓慢提高互学习训练的难度。同时在动画演示时加入情感激励信息,鼓励激发学习者的学习热情。
纠错评价模块实现了虚拟教师与学习者智能互动学习的过程:虚拟教师根据学习者的发音口型判断学习者的发音口型是否准确,结合专家知识库,对偏差纠正调理,以文字形式反馈给学习者发音不准确的原因和改正办法,并作标准的音像示范,学习者纠正发音的结果反馈回教师,教师再次进行识别判断,根据当前观测信号(即学习者发音口型)与标准信号(标准发音口型)之差递进反馈,在线自适应调整,用文字声音动画多种形式明确偏差的差异点、差异度及如何纠正,力求将学习者的偏差控制在理想的容许范围内,递进式智能纠正观测错误,形成完全自动闭环反馈模式的智能纠错,如此循环往复,直至教师认为学习者的发音口型已经标准,本次学习内容结束,可以进入下一阶段的学习。
判定学习者发音口型已经合格的标准是将当前观测信号与标准信号之差量化为百分制,各项分数达到95分以上为合格。包含的各项指标具体为:口型分、发音分、情绪分、综合分,其中发音分还可进一步细分为声学分数、韵律分数和感知分数三部分。各项分数可输出到显示屏,供学习者参考。同时虚拟教师将学习者的成绩存入学习者档案,作为今后教学策略调整的依据。
纠错评价模块中,虚拟教师着重解决学习者由于受生活地域影响,语言发音中特有的不标准的发音习惯,虚拟教师,根据学习者地域特点可以预判学习者可能出现的语音错误,据此选择相应的课程进行针对性指导。
学习者可以根据自己的需要选择虚拟教师作标准口型发音的三维多视角动画示范,包括舌、齿等口腔内的细节演示。融入图像特征,结合预先输入的性别年龄等信息,软件也可以自主选择设计一个与学习者容貌和声音特质相近的虚拟教师,同时可以实时将学习者的发音唇形叠加显示到正确唇形上,直观比较两者差异,还可观察虚拟教师与学习者的声音波形对比图,经过量化的口型发音的各项分数,配以教师指导意见和评语,形象直观的了解自己发音不正确的原因、错在哪里、如何纠正,纠正后的发音口型是否达到了教师的要求。所有的口型发声表情演示及相关文字说明动态同步。
融合区域发音特征。中国地域广阔,各区域发言和发音特征显著不同,适应各地发音习惯的语音和唇形语料极度缺乏,当前软件一般只能保证官方语言说得好的用户才可以在对话练习、发音纠错方面取得相对满意的成绩,因此本发明建立不同地域发音习惯的语音和唇形语料数据库,可以提高系统的适应性,对不同个体特征进行针对性的教学辅导。
附图说明
图1是本发明的整体结构示意图;
图2是本发明中信息识别模块的结构示意图;
图3是本发明的发音口型差异解释纠正流程图;
图4是本发明的智能纠错闭环反馈系统原理图;
图5是本发明的闭环反馈控制系统框图;
图6是本发明的RBF神经网络模型结构。
具体实施方式
参看图1,具有智能纠错功能的交互式虚拟教师系统,它包括音视频数据采集模块、信息识别模块、纠错评价模块、教学策略模块和数据库。通过所述音视频数据采集模块的视频音频两路传感器,采集学习者面部图像和声音信号;再由信息识别模块,辨识经融合后的学习者发音内容,如口型,面部和心理情感;由纠错评价模块,从标准口型发音数据库数据中提读取与之对应的标准口型和发音数据,自动评断学习者的发音内容、口型是否标准,根据偏差信息结合专家知识,确定偏差产生原因、所属类型、改正方法,进而以文字说明的形式反馈给学习者,帮助其改正偏差,递进式智能纠正学习者的音频和视频口型错误,同时虚拟教师辅以标准口型发声多视角动画演示、声音波形对比图、口型重合对比图等形式直观提示学习者如何正确发音,音像文字多种技术手段结合,错误根源分析、改正方法等的具体解释说明与分数、评语、动画演示动态同步,形成完全自动闭环反馈模式的智能纠错;再由教学策略模块根据纠错评价模块对学习者的评断数据,制定出师生一对一互动的个性化教学实施方案,让学习者反复练习,以提高个人的语言会话水平,同时虚拟教师可根据学习者情绪和学习成绩分析随时调整教学内容。
用于采集音频和视频信号的传感器没有特殊限定,可以是学习平台自带的,如智能手机本身带有的摄像头和录音器,也可以是自配的摄像头和麦克,只要其接口能与学习者使用的学习平台匹配即可。摄像头采集学习者的面部图像,学习者可预设参数,确定采集的图像分辨率,采集图像范围是整个面部还是只有唇部区域,系统默认采集区域为唇部区域;麦克采集学习者声音。然后由信息识别模块对采集到的声音和图像两路原始信息进行预处理、唇部区域检测、唇动跟踪和定位、特征提取、特征融合、训练进而识别出语音口型和情绪。
参看图2本发明中信息识别模块的结构示意图,做进一步描述。图中虚线部分表示该部分不是必需处理的。
对原始信息的预处理包括声音和图像两路信息数字化预处理。其中图像信息的预处理首先用图像增强算法去除噪声,然后根据采集模块的预先设定值确定采集的图像范围是整个人脸还是唇部区域,若采集的是整个人脸,则需要首先从人脸中确定出唇部区域,本发明采用基于人脸结构特征的方法,首先确定眼睛和鼻孔的位置,再根据眼睛鼻孔的位置信息确定嘴唇的大致范围,然后采用基于运动目标的检测方法准确跟踪定位发音时口型的运动变化过程。对声音信息的预处理首先采用视觉通道的唇动信息区分语音和非语音信号时段,再利用去噪滤波技术去除信道噪声和所有可能的背景加性噪声,获得尽可能纯净的学习者声音信号。
预处理后的图像和声音信号提取特征供系统训练识别,提取的特征信息包括初级特征:语音特征、唇型特征、面部特征(采集的图像范围是整个人脸时)和高级特征:情感特征;其中初级特征是从预处理后的音频视频传感器采集的语音图像信息中提取出来的,高级特征不能从传感器采集的信息中直接获得,而是各初级特征中的隐含信息,由基于专家知识的信息融合技术生成的。各初级特征中语音特征具体包括声学特征、韵律特征和感知特征三类特征,例如反应基本声音信息的LPCC(Linear Predictive Cepstral Coefficient,线性预测倒谱系数)特征参数、MFCC(Mel Frequency Cepstral Coefficient,梅尔频率倒谱系数)特征参数,与情感、唇动相关的一次共振峰和二次共振峰、能量、说话速率等特征参数;唇型特征包括与语音、情感相关的内外唇唇线轮廓特征、嘴唇变化速率、人脸侧面图像的嘴唇突出度动态变化特征、口腔内的舌头和牙齿位置变化特征等;面部特征包括眼睛、鼻子、口型的整体轮廓关系特征,面部特征不是必需提取的特征,但如果学习平台的传感器能保证采集图像分辨率的要求,则加入该特征可进一步提高虚拟教师识别学习者情感的识别准确率和识别速度。高级特征情感特征由学习者的声学特征、韵律特征和感知特征、唇线轮廓特征隐含的潜在信息和面部特征融合而成的。训练识别采用人工智能神经网络方法,首先建立训练集样本训练网络,建立朗读内容与语音、唇型、面部表情、心理情感间的对应关系,网络训练好后,即可用于识别任务,将使用者的所有特征作为多权值神经元网络的输入层,输出层为要识别的内容,使得虚拟教师可以实时准确地识别出学习者当前的发音内容、发音口型、情感状态,即完成语音口型情感三重识别。虚拟教师将识别出的学习者发音与之对应的口型变化和当前情绪作为一个整体记录,并输出到纠错评价模块,以便与标准发音和口型比较寻找差异、分析解释错误原因、错误所属类型、改正方法,同时参考学习者情绪,给出发音口型修正建议,评价分数和直观的多视角发音口型演示比对图。
参看图3本发明的发音口型差异解释纠正流程图,本发明的纠错重点是自主分析错误根源,提供改正意见,指导学习者有意识的修正不准确的发音口型。具体描述如下,首先把识别出的学习者的语音口型和标准的语音口型的所有特征参数放在一起分类比较,寻找它们之间的差异点并计算差异度,如果差异度超过了容忍的阈值范围,则认为学习者的语音口型错误或不标准,需要纠正;然后根据差异点利用专家知识对错误进行描述,最后解释错误,其中解释错误的关键是根据描述结果分析错误的根源,属于什么类型,回答为什么会犯这样的错误,如何改正。
参看图4本发明纠错评价模块中的智能纠错闭环反馈系统原理图,从数学模型的角度对发音口型差异解释纠正流程做进一步描述。图4中y(t)为当前观测信号,即识别出的学习者声音和口型;r(t)为标准信号,即数据库中给定的标准声音和口型;e(t)为观测信号与标准信号的差,即偏差信号。该系统的关键在于根据当前观测信号与标准信号之差,确定差异点和差异度,进而结合专家知识描述错误、解释错误,即将量化的差异数字信息转化为对应的可以理解的文字信息,把学习者错误产生原因、所属类型、改进方法递进反馈给学习者,指导其缩短与标准口型发音间的偏差、递进式智能改正学习者的声音和口型错误,达到完全自动闭环反馈模式的智能纠错。具体数学模型及智能控制纠错算法如下:
(1)e(t)=y(t)-r(t)                                   (1)
(2)E(s)=L[e(t)],L为拉普拉斯变换                    (2)
(3)Y(s)=G(s)E(s)                                    (3)
(4)y(t)=L-1[Y(s)],L-1为拉普拉斯变换                (4)
(5)返回(1)
e(t)可以归类为两组偏差信号:视频信号偏差包括唇,喉,舌,牙齿和气流特征参数的偏差、具体特征参数包括嘴唇的开合度、宽度,舌、齿与嘴唇的位置形状因子等静态特征和舌、唇收缩度等动态变化特征;音频偏差包括LPCC、MPCC的偏差等。对e(t)中的所有元素计算偏差容许度,其计算公式为偏差与标准信号比值的百分率,如果任一项的偏差容许度大于等于5%,则认为学习者的发音或口型不准确,需要纠正,智能纠错的根本在于对各个信号误差的纠正调理过程,公式表示为:
e · 1 ( t ) e · 2 ( t ) e · 3 ( t ) e · 4 ( t ) e · 5 ( t ) e · n ( t ) a 11 a 12 a 13 a 14 a 15 · · · a 1 n a 21 a 22 a 23 a 24 a 25 · · · a 2 n a 31 a 32 a 33 a 34 a 35 · · · a 3 n a 41 a 42 a 43 a 44 a 45 · · · a 4 n a 51 a 52 a 53 a 54 a 55 · · · a 5 n · · · · · · · · · · · · · · · · · · · · · a n 1 a n 2 a n 3 a n 4 a n 5 · · · a nn e 1 ( t ) e 2 ( t ) e 3 ( t ) e 4 ( t ) e 5 ( t ) e n ( t ) + b 11 b 12 b 21 b 22 b 31 b 32 b 41 b 42 b 51 b 52 · · · · · · b n 1 b n 2 u
其中 A = a 11 a 12 a 13 a 14 a 15 · · · a 1 n a 21 a 22 a 23 a 24 a 25 · · · a 2 n a 31 a 32 a 33 a 34 a 35 · · · a 3 n a 41 a 42 a 43 a 44 a 45 · · · a 4 n a 51 a 52 a 53 a 54 a 55 · · · a 5 n · · · · · · · · · · · · · · · · · · · · · a n 1 a n 2 a n 3 a n 4 a n 5 · · · a nn , B = b 11 b 12 b 21 b 22 b 31 b 32 b 41 b 42 b 51 b 52 · · · · · · b n 1 b n 2 - - - ( 5 )
为常系数矩阵,分别称为状态转移矩阵和控制矩阵,为了得到理想的容许偏差范围(本发明要求各项子偏差的容许度都<5%),参看图5本发明的闭环反馈控制系统框图,对误差进行状态反馈控制,公式(5)还可以表示为
Figure BDA0000053974740000104
引入状态反馈矩阵K,K是可以调节的至关重要的参数,本系统可以在线自适应调整该参数,使其适应学习者不同年龄,区域和性别等物理参数的差别。则系统的模型可以重新写为:
Figure BDA0000053974740000112
K中内容就是为了修正偏差需要改变的特征参数数值,利用专家知识建立RBF神经网络对反馈矩阵K分析,可得出学习者错误产生原因、所属类型、改进方法,最终将上述分析结果以文字形式反馈给学习者,指导学习者改正错误。参看图6本发明的RBF神经网络模型结构,具体描述如何由反馈矩阵K确定学习者错误产生原因、所属类型、改进方法。本发明的RBF神经网络选择高斯函数作为基函数,其表达式为:
g i ( X ) = exp ( - | | K - c i | | 2 σ i ) , i = 1,2 , Λ , M
式中K=[k1,Λ,kp]T,为神经网络的输入向量,是反馈矩阵K中所有元素按列向量形式的重新排列,||·||代表欧几里德范数,ci∈RM为隐含层神经元的中心,σi为隐含层神经元的宽度参数,M为神经元节点个数(本发明M=30)。RBF神经网络的输出表达式为
F m = w 0 + Σ i = 1 M w i g i ( X )
式中Fm为整个网络的输出量,ωi∈RM+1为网络的权向量。首先对专家知识编码定义错误规则,分别对网络的隐含层和输出层进行反复训练,将知识存储在网络中。模型训练好后,即可用该网络解释错误,网络的输出即为错误类型。再根据专家知识将识别出的错误类型与错误产生原因对应匹配,就可以确定反馈矩阵K中包含哪些需要纠正的特征参数,而K中非零元素的数值就是需要纠正的特征参数的度量大小。我们预先分别建立了一个唇型舌体模型和一个声音波形模型。唇型舌体模型反映不同音节发音对应的嘴唇的形状开合变化、舌位的高低前后、口腔下颌的张合等,控制该模型的参数即为反馈矩阵K中的视频信号分量;声音波形模型主要反映发音的重音音量大小,重音位置点在什么地方等,其控制参数为反馈矩阵K中的音频信号分量。由于已经由反馈矩阵K知道了需要改正的参数和改正度量值,就可以通过上述两个模型以文字形式精确反馈学习者发音不准确的问题到底出在哪里,是嘴唇、舌、齿的位置不正确,还是送气发音的时机不对等等,并且具体指出改正到什么程度合适,比如发音时是否漏牙齿及露出牙齿的个数;舌头是抵住牙齿还是伸出、伸出的比例是多少;唇舌保持位置的时间;送气的时间;重音位置点在什么地方,重音音量大小等。学习者照着文字提示和教师动画演示重新发音,观察改进效果。本发明从错误根源提出改正方法,不仅能提高正音的效率,还可以避免今后产生类似的错误。
本发明还可以自主决策纠错时机,在语言学习过程中,系统设定纠错时机阈值,在人机互动过程中不断分析统计学习者语音口型的错误类型和次数,一旦某类型的错误次数超过了阈值,虚拟教师立即中断会话,纠正学习者的错误,否则教师会在整个会话结束后统一指出并纠正错误,这样既避免了会话因为偶然的小错误频繁中断,也不会让学习者的重大或常见错误日积月累养成习惯,难以改正。类似的,系统也可以照此处理语法错误。
纠错评价模块中,虚拟教师的所有口型和声音演示都是动态同步的,其口型发声同步动态示范采用的技术为以要输出的标准语音做为驱动,将正确的语音特征参数映射到相应的嘴唇物理模型上,通过控制参数的变化,改变嘴唇的几何模型,驱动它的运动,最后经过渲染,实现语音、唇形同步动画。
学习纠错的结果存入数据库,便于虚拟教师调整教学策略和学生查询。虚拟教师根据学习者成绩和识别出的学习者情绪,及时调整教学内容。比如,在纠错过程中学习者情绪低落,虚拟教师可以查找前一阶段的语言学习记录,调出学习者已掌握的比较熟练的学习资料,通过前后阶段的水平对比,使学生了解自己语音水平的进步幅度,提高学习者的自信心和学习兴趣。
上述各功能的实现,特别是识别的准确性,纠错的针对性,都依赖于一个强大完备的数据库。本发明数据库具体包括:学习者资料库,虚拟教师库,课程资料库,表情数据库,标准语音唇形语料数据库,中国按不同地域划分的语音唇形语料数据库。各子库分别具体描述如下。
学习者资料库,记录和学习者相关的个人信息,可以据此对不同的学习者选择特定的虚拟教师进行针对性的“一对一”互动教学,其存储的信息包括:学习者的性别、年龄、民族、省份、单词掌握度,这些信息由学习者在学习前自己输入到系统中;学习者的认知风格、情感信息、口语发音特点、声线特点、口型大小、口语发音准确度、学习成绩记录、学习历史纪录,这类信息是学习者在学习过程中,虚拟教师从信息识别模块和纠错评价模块中获得的;所有信息分类存储在学习者的各资料库中,供信息识别模块、纠错评价模块和教学策略模块调动使用。
上述学习者资料库中存储的各信息的具体内容为:学习者的省份,指学习者长年生活的省份;单词掌握度,分为小学、初中、高中、大学四级、大学六级和专业八级,其级别可动态调整,虚拟教师根据词汇量的不同,选择的合适的发音和对话训练课程;情感信息,至少分为高兴、生气、悲伤、惊奇、正常五种,由信息识别模块提供,虚拟教师根据学习者的反映及时调整教学内容、教学表情、打分和评语;口音发音特点,根据我国地域及民族分布特点,分为东北、西北、华北、华东、华南、西南、中原七大类,结合学习者自己录入的民族和省份信息,由信息识别模块输出判定结果,该信息使教师根据中国按不同地域划分的语音唇形情感数据库预先判断学习者的发音习惯、发音特点、可能存在的发音问题,提高识别纠错的准确性和针对性;声线特点,分为高音、中音、低音三类,由信息识别模块提供;口语发音准确度,分为较差、一般、熟练、优秀四级,由纠错评价模块提供,并根据学习者的不断学习可动态调整级别;学习成绩记录,记录虚拟教师给学习者的英语发音的各项分数,包括口型分、发音分、情绪分、综合分,综合分的计算标准为:口型分×30%+发音分×60%+情绪分×10%,此外每次学习的综合分平均计算作为口语发音准确度的分级标准:综合分小于60分为“较差”,综合分在60分到80之间定为“一般”,综合分在80分到90之间为“熟练”,综合分大于90分为“优秀”;学习历史纪录,记录学习者学习过词句发音和会话段落、已经掌握正确发音的词句段、还未掌握正确发音的词句段,由纠错评价模块提供;虚拟教师综合上述各类信息进行教学内容的调整。
学习者资料库中将口语发音准确度和单词掌握度作为两个不同的信息分别记录,传统的学习系统只记录单词掌握度,但实际上,口语发音准确度和单词掌握度之间不存在必然的联系,学习者的词汇量大不代表他的发音一定准确,反之,词汇量小的人其发音也可能非常正确,因此本系统将口语发音准确度和单词掌握度综合考虑,对词汇量小但发音准的人,虚拟教师从课程资料库中选择生词较多的词句段,不仅教授新单词的发音还增加了词汇量,对词汇量大但发音不准的人,虚拟教师暂不考虑复杂的对话,而从最基础的字母单词正音教起,初步纠正错误的发音习惯和口型定式,再逐步深入到整句整段的学习;随着学习的推移,虚拟教师可以随时调整口语发音准确度或单词掌握度的等级,调整教学内容。
虚拟教师库,库中存储多位不同性别、年龄、容貌的虚拟教师,根据学习者资料信息,系统自动选择一位与学习者年龄、声线特质、口型大小相近的同民族同地域同性别的虚拟教师,提高口型发音纠错中声音波形对照图和口型纠错图的可比性,同时增加学习的亲切感。
课程资料库,按单词量的大小和口语发音的难易度,将课程内容分为音节、单词、简单语句对话、大段文本朗读四类发音学习内容。
表情数据库,至少存储不同性别不同容貌人的高兴、生气、悲伤、惊奇、正常五种表情,可用于信息识别模块的识别处理及虚拟教师与学习者互动的表情演示评价反馈。
标准语音唇形语料数据库,存放标准的语音与对应的多视觉唇型变化、包括舌齿等口腔内的动画,供虚拟教师口型发声示范和纠错使用。本发明中所有采集环境保持一致,视觉通道,在普通室内灯光照明下,实验者不带任何装饰,在黑色背景前,分0度,45度和90度角设置三个摄像机,采集头部图像,图像分辨率360×440像素,视频帧速率25帧/秒,存储格式BMP真彩文件;听觉通道,安静无噪声,朗读方式录音,存储格式分别为WAV文件,采样率22.05KHz,16bits量化。
中国按不同地域划分的语音唇形语料数据库,中国地域广阔,各区域语言发音特征显著不同,传统软件极度缺乏适应各地发音习惯的语音和唇形语料,一般只能保证普通话说得好的用户才可以在对话练习、发音纠错方面取得相对满意的成绩,本发明根据我国地域及民族分布特点,开发东北、西北、华北、华东、华南、西南、中原七个不同地域发音习惯的语音唇形语料数据子库,每个地域各10男10女分正常、高兴、生气三种情感状态分别录音采集图像,保证了系统识别的准确性和针对性,更适合中国学习者使用。

Claims (10)

1.具有智能纠错功能的交互式虚拟教师系统,它包括音视频数据采集模块、信息识别模块、纠错评价模块、教学策略模块和数据库,其特征在于:所述音视频数据采集模块,通过视频音频两路传感器采集学习者面部图像和声音信号;再由信息识别模块,辨识经融合后的学习者口型,发音内容和情绪;由纠错评价模块,从标准口型发音数据库中提读取与之对应的标准口型和发音数据,自动评断学习者的发音内容、发音口型,智能分析发音不准确的原因,并提供修正发音的方法,同时多视角动画示范正确的发音和口型;再由教学策略模块根据纠错评价模块对学习者的评断数据,制定出师生一对一互动的个性化教学实施方案,形成智能可视化互动人机对话学习系统。
2.根据权利要求1所述的具有智能纠错功能的交互式虚拟教师系统,其特征在于:所述视频音频两路传感器,通过预设参数,确定所采集的学习者面部图像分辨率和所要采集的面部区域。
3.根据权利要求1所述的具有智能纠错功能的交互式虚拟教师系统,其特征在于:所述纠错评价模块,通过建立闭环智能反馈控制系统,自动决定纠错方式和时机,提供修正口型和发声方法的指导意见,并通过文字解释和图像形象显示两者的差异性。
4.根据权利要求1所述的具有智能纠错功能的交互式虚拟教师系统,其特征在于:所述信息识别模块提供将语音、情感及口型相互融合的数据。
5.根据权利要求1所述的具有智能纠错功能的交互式虚拟教师系统,其特征在于:所述纠错评价模块,根据信息识别模块提供的学习者口型和发声的缺陷数据,将学习者多视角的面部图像叠加到对应视角的虚拟教师的面部图像上,通过输出设备形象观察差异点,辅助口型纠正。
6.根据权利要求1所述的具有智能纠错功能的交互式虚拟教师系统,其特征在于:所述教学策略模块,由虚拟教师根据评价参数和学习者口型和发声的缺陷数据和学习者情绪数据调整教学策略,制定个性化教学方案数据。
7.根据权利要求1所述的具有智能纠错功能的交互式虚拟教师系统,其特征在于:所述虚拟教师,根据性别,年龄,地域,面貌和发音声线特征而不同,供学习者根据自己喜好及自身特点自由选择。
8.根据权利要求7所述的具有智能纠错功能的交互式虚拟教师系统,其特征在于:所述虚拟教师所有的口型发声表情演示及相关文字说明动态同步。
9.根据权利要求1所述的具有智能纠错功能的交互式虚拟教师系统,其特征在于:所述信息识别模块的工作流程为对采集到的声音和图像两路原始信息进行预处理、唇部区域检测、唇动跟踪和定位、特征提取、特征融合、训练及语音唇型情绪识别。
10.根据权利要求1所述的具有智能纠错功能的交互式虚拟教师系统,其特征在于:所述虚拟教师,根据学习者地域特点可以预判学习者可能出现的语音错误,据此选择相应的课程进行针对性指导。
CN 201110085339 2011-04-06 2011-04-06 具有智能纠错功能的交互式虚拟教师系统 Expired - Fee Related CN102169642B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201110085339 CN102169642B (zh) 2011-04-06 2011-04-06 具有智能纠错功能的交互式虚拟教师系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201110085339 CN102169642B (zh) 2011-04-06 2011-04-06 具有智能纠错功能的交互式虚拟教师系统

Publications (2)

Publication Number Publication Date
CN102169642A CN102169642A (zh) 2011-08-31
CN102169642B true CN102169642B (zh) 2013-04-03

Family

ID=44490790

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201110085339 Expired - Fee Related CN102169642B (zh) 2011-04-06 2011-04-06 具有智能纠错功能的交互式虚拟教师系统

Country Status (1)

Country Link
CN (1) CN102169642B (zh)

Families Citing this family (86)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130059276A1 (en) * 2011-09-01 2013-03-07 Speechfx, Inc. Systems and methods for language learning
CN102663928A (zh) * 2012-03-07 2012-09-12 天津大学 一种聋人学习说话的电子教学方法
CN103366618B (zh) * 2013-07-18 2015-04-01 梁亚楠 基于人工智能与虚拟现实用于汉语学习培训的场景设备
CN103745423B (zh) * 2013-12-27 2016-08-24 浙江大学 一种口型示教系统与示教方法
CN104064064A (zh) * 2014-06-14 2014-09-24 合肥迅大信息技术有限公司 基于多模态人机交互技术的教学辅助系统
CN104537925B (zh) * 2014-12-01 2017-01-25 杨颖� 语障儿童语言训练辅助系统及方法
CN104537901A (zh) * 2014-12-02 2015-04-22 渤海大学 基于音视频的英语口语学习机
CN104505089B (zh) * 2014-12-17 2018-05-18 福建网龙计算机网络信息技术有限公司 口语纠错方法及设备
CN104484656A (zh) * 2014-12-26 2015-04-01 安徽寰智信息科技股份有限公司 基于深度学习的唇语识别唇形模型库构建方法
CN104537358A (zh) * 2014-12-26 2015-04-22 安徽寰智信息科技股份有限公司 基于深度学习的唇语识别唇形训练数据库的生成方法
CN105808197B (zh) * 2014-12-30 2019-07-26 联想(北京)有限公司 一种信息处理方法和电子设备
CN104616229A (zh) * 2015-02-13 2015-05-13 福州中科迅格信息科技有限公司 用于教育培训的课程匹配系统
CN105205756A (zh) * 2015-09-15 2015-12-30 广东小天才科技有限公司 一种行为监控的方法和系统
CN105575197A (zh) * 2015-12-18 2016-05-11 江苏易乐网络科技有限公司 一种具有防沉迷功能的在线学习系统
CN105609098A (zh) * 2015-12-18 2016-05-25 江苏易乐网络科技有限公司 一种基于互联网的在线学习系统
CN105575384A (zh) * 2016-01-13 2016-05-11 广东小天才科技有限公司 一种根据用户水平自动调整播放资源的方法、装置及设备
CN105632251B (zh) * 2016-01-20 2018-04-20 华中师范大学 具有语音功能的3d虚拟教师系统及其方法
KR101892622B1 (ko) * 2016-02-24 2018-10-04 주식회사 네비웍스 실감교육미디어 제공 장치 및 실감교육미디어 제공 방법
CN105761559A (zh) * 2016-04-29 2016-07-13 东北电力大学 一种基于先入为主的反向共鸣的外语学习方法
CN106210844A (zh) * 2016-08-11 2016-12-07 张婧 英文学习中的视频同步方法及系统
CN106205239A (zh) * 2016-09-18 2016-12-07 三峡大学 一种基于3d立体成像的电子词典系统
CN107870896B (zh) * 2016-09-23 2021-06-25 深圳市云网万店电子商务有限公司 一种对话分析方法及装置
CN107066778A (zh) * 2016-10-03 2017-08-18 朴植 用于老年保健陪伴的Nounou智能监护系统
CN106571075A (zh) * 2016-10-18 2017-04-19 广东工业大学 一种多模态语言康复和学习系统
CN107967659A (zh) * 2016-10-19 2018-04-27 南京萌宝睿贝教育科技有限公司 一种幼儿情绪智力培养系统及培养方法
CN106448288A (zh) * 2016-11-01 2017-02-22 安阳师范学院 一种交互式英语学习系统及方法
CN108074203A (zh) * 2016-11-10 2018-05-25 中国移动通信集团公司 一种教学调整方法和装置
CN106409030A (zh) * 2016-12-08 2017-02-15 河南牧业经济学院 一种个性化外语口语学习系统
CN106649704B (zh) * 2016-12-20 2020-04-07 竹间智能科技(上海)有限公司 一种智能对话控制方法和系统
CN107203953B (zh) * 2017-07-14 2021-05-28 深圳极速汉语网络教育有限公司 一种基于互联网、表情识别和语音识别的教学系统及其实现方法
CN108806367A (zh) * 2017-07-21 2018-11-13 河海大学 一种英语口语语音纠正系统
CN107895582A (zh) * 2017-10-16 2018-04-10 中国电子科技集团公司第二十八研究所 面向多源信息领域的说话人自适应语音情感识别方法
CN107832976B (zh) * 2017-12-01 2021-12-28 合肥亚慕信息科技有限公司 一种基于感知分析的课堂教学质量分析系统
CN108109443A (zh) * 2017-12-05 2018-06-01 郑州大学西亚斯国际学院 一种纠正英语口语发音的系统
CN108010540A (zh) * 2017-12-14 2018-05-08 上海惠诚科教器械股份有限公司 一种语音交互情绪调节系统
CN108038461B (zh) * 2017-12-22 2020-05-08 河南工学院 交互式外语口型和舌型同时矫正的系统和方法
CN108537702A (zh) * 2018-04-09 2018-09-14 深圳市鹰硕技术有限公司 外语教学评价信息生成方法以及装置
CN108922563B (zh) * 2018-06-17 2019-09-24 海南大学 基于偏差器官形态行为可视化的口语学习矫正方法
EP3811354A4 (en) * 2018-06-23 2021-08-11 Square Panda Inc. SYSTEM AND METHOD OF SIGN MANIPULATION
EP3588470A1 (en) * 2018-06-26 2020-01-01 Siemens Aktiengesellschaft Method and system for sharing automatically procedural knowledge
TWI683290B (zh) * 2018-06-28 2020-01-21 吳雲中 口語教學輔助方法及裝置
CN108831212B (zh) * 2018-06-28 2020-10-23 深圳语易教育科技有限公司 一种口语教学辅助装置及方法
CN108898115B (zh) * 2018-07-03 2021-06-04 北京大米科技有限公司 数据处理方法、存储介质和电子设备
CN110767228B (zh) * 2018-07-25 2022-06-03 杭州海康威视数字技术股份有限公司 一种声音获取方法、装置、设备及系统
CN110852922A (zh) * 2018-08-21 2020-02-28 艾尔科技股份有限公司 动态剧情导向的语言数位教学的方法及系统
CN109087651B (zh) * 2018-09-05 2021-01-19 广州势必可赢网络科技有限公司 一种基于视频与语谱图的声纹鉴定方法、系统及设备
CN109151642B (zh) * 2018-09-05 2019-12-24 北京今链科技有限公司 一种智能耳机、智能耳机处理方法、电子设备及存储介质
CN109344229A (zh) * 2018-09-18 2019-02-15 深圳壹账通智能科技有限公司 对话分析评价的方法、装置、计算机设备和存储介质
CN109671316B (zh) * 2018-09-18 2022-05-06 张滕滕 一种语言学习系统
CN109326160A (zh) * 2018-11-07 2019-02-12 吕梁学院 一种英语口语发音校对系统
CN109410657A (zh) * 2018-12-29 2019-03-01 潍坊科技学院 一种用于汉语言教学的手持式普通话训练器
CN111444255B (zh) * 2018-12-29 2023-09-22 杭州海康存储科技有限公司 一种数据模型的训练方法及装置
CN111435546A (zh) * 2019-01-15 2020-07-21 北京字节跳动网络技术有限公司 模型动作方法、装置、带屏音箱、电子设备及存储介质
CN109841122A (zh) * 2019-03-19 2019-06-04 深圳市播闪科技有限公司 一种智能机器人教学系统及学生学习方法
CN110085101B (zh) * 2019-03-27 2021-04-23 沈阳工业大学 面向失聪儿童的双语发音进阶训练器及其训练方法
CN110085229A (zh) * 2019-04-29 2019-08-02 珠海景秀光电科技有限公司 智能虚拟外教信息交互方法及装置
CN112017495A (zh) * 2019-05-28 2020-12-01 广东小天才科技有限公司 一种基于学习终端的信息交互方法和系统
CN110377280A (zh) * 2019-07-29 2019-10-25 郑州幻视科技有限公司 一种用于编程教学的可视化系统
TWI727395B (zh) * 2019-08-15 2021-05-11 亞東技術學院 語言發音學習系統及方法
CN110797049B (zh) * 2019-10-17 2022-06-07 科大讯飞股份有限公司 一种语音评测方法及相关装置
CN110796913A (zh) * 2019-11-04 2020-02-14 华中科技大学同济医学院附属协和医院 一种基于肺功能检查的动作示范平台及方法
CN110930798A (zh) * 2019-11-25 2020-03-27 南京智能仿真技术研究院有限公司 一种多型号战车驾驶训练用模拟器
CN110910691B (zh) * 2019-11-28 2021-09-24 深圳市木愚科技有限公司 一种个性化课程生成方法及系统
CN110910687A (zh) * 2019-12-04 2020-03-24 深圳追一科技有限公司 基于语音信息的教学方法、装置、电子设备及存储介质
CN113051985A (zh) * 2019-12-26 2021-06-29 深圳云天励飞技术有限公司 信息提示方法、装置、电子设备及存储介质
CN111583959A (zh) * 2020-03-23 2020-08-25 何宏成 一种声乐学习电子辅助发音系统
CN111464547B (zh) * 2020-04-03 2022-06-17 黄淮学院 一种基于虚拟现实情境交互学习的统计学教学管理系统及方法
CN111460227A (zh) * 2020-04-13 2020-07-28 赵琰 含肢体动作的视频的制作方法、视频产品及使用方法
CN111582680B (zh) * 2020-04-24 2023-04-25 佛山科学技术学院 基于vr游戏的用户情感可视化评测方法及存储介质
CN111639224A (zh) * 2020-05-28 2020-09-08 广东小天才科技有限公司 一种口语练习内容的获取方法及电子设备
CN111833859B (zh) * 2020-07-22 2024-02-13 科大讯飞股份有限公司 发音检错方法、装置、电子设备及存储介质
TWI768412B (zh) * 2020-07-24 2022-06-21 國立臺灣科技大學 發音教學方法
CN112150740B (zh) * 2020-09-10 2022-02-22 福建创识科技股份有限公司 无感安全支付系统和方法
CN112199002B (zh) * 2020-09-30 2021-09-28 完美鲲鹏(北京)动漫科技有限公司 基于虚拟角色的交互方法及装置、存储介质、计算机设备
CN113222790A (zh) * 2021-04-26 2021-08-06 深圳市方直科技股份有限公司 基于人工智能的在线课程生成系统及设备
CN113298684B (zh) * 2021-06-18 2023-09-29 北京联袂义齿技术有限公司 一种牙体形态教学系统
CN113593374A (zh) * 2021-07-06 2021-11-02 浙江大学 一种口肌训练结合的多模态言语康复训练系统
CN113782055A (zh) * 2021-07-15 2021-12-10 北京墨闻教育科技有限公司 基于学生特性的语音评定方法及系统
CN114758647A (zh) * 2021-07-20 2022-07-15 无锡柠檬科技服务有限公司 基于深度学习的语言训练方法及系统
CN113658462A (zh) * 2021-08-17 2021-11-16 上海策鸿信息科技有限公司 一种创新创业教学与实训系统及方法
CN113781273A (zh) * 2021-08-19 2021-12-10 北京艺旗网络科技有限公司 一种在线教学交互方法
CN113658460B (zh) * 2021-08-26 2022-04-12 黑龙江工业学院 一种基于5g技术的英语教学平台
CN114466178A (zh) * 2021-09-09 2022-05-10 马上消费金融股份有限公司 语音与图像同步性的衡量方法及装置
CN114783049B (zh) * 2022-03-21 2023-06-23 广东工业大学 一种基于深度神经网络视觉识别的口语学习方法及系统
CN115952288B (zh) * 2023-01-07 2023-11-03 华中师范大学 一种基于语义理解的教师情感关怀特征检测方法及系统
CN117635383A (zh) * 2023-11-30 2024-03-01 新励成教育科技股份有限公司 一种虚拟导师与多人协作口才培训系统、方法及设备

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101197084A (zh) * 2007-11-06 2008-06-11 安徽科大讯飞信息科技股份有限公司 自动化英语口语评测学习系统
CN101201980A (zh) * 2007-12-19 2008-06-18 北京交通大学 一种基于语音情感识别的远程汉语教学系统
CN101930735A (zh) * 2009-06-23 2010-12-29 富士通株式会社 语音情感识别设备和进行语音情感识别的方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2745094A1 (en) * 2008-12-04 2010-07-01 Total Immersion Software, Inc. Systems and methods for dynamically injecting expression information into an animated facial mesh

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101197084A (zh) * 2007-11-06 2008-06-11 安徽科大讯飞信息科技股份有限公司 自动化英语口语评测学习系统
CN101201980A (zh) * 2007-12-19 2008-06-18 北京交通大学 一种基于语音情感识别的远程汉语教学系统
CN101930735A (zh) * 2009-06-23 2010-12-29 富士通株式会社 语音情感识别设备和进行语音情感识别的方法

Also Published As

Publication number Publication date
CN102169642A (zh) 2011-08-31

Similar Documents

Publication Publication Date Title
CN102169642B (zh) 具有智能纠错功能的交互式虚拟教师系统
Engwall Analysis of and feedback on phonetic features in pronunciation training with a virtual teacher
Yap Speech production under cognitive load: Effects and classification
CN112908355B (zh) 一种师范生教学技能量化评价系统及其方法
KR20150076128A (ko) 3차원 멀티미디어 활용 발음 학습 지원 시스템 및 그 시스템의 발음 학습 지원 방법
Dong Application of artificial intelligence software based on semantic web technology in english learning and teaching
WO2006034569A1 (en) A speech training system and method for comparing utterances to baseline speech
Rasilo et al. An online model for vowel imitation learning
Rasilo et al. Feedback and imitation by a caregiver guides a virtual infant to learn native phonemes and the skill of speech inversion
Engwall et al. Design strategies for a virtual language tutor
Duan et al. Effective articulatory modeling for pronunciation error detection of L2 learner without non-native training data
Granström Towards a virtual language tutor
WO1999013446A1 (en) Interactive system for teaching speech pronunciation and reading
EP4033487A1 (en) Method and system for measuring the cognitive load of a user
Rojczyk et al. Selected aspects in the acquisition of English phonology by Polish learners-segments and prosody
Yi Lexical tone gestures
CN109509486B (zh) 一种体现情感细节信息的情感语料库构建方法
Zhao et al. Pronunciation of rehabilitation methods based on 3d-talking head
Yu A Model for Evaluating the Quality of English Reading and Pronunciation Based on Computer Speech Recognition
Bothe et al. The development of a computer animation program for the teaching of lipreading
Hartis Computer-Based Audio-Visual Feedback Using Interactive Visual Displays for Speech Training
Li General Design of Automatic Correction System for English Pronunciation Errors Based on DTW Algorithm
Kim et al. Estimation of the movement trajectories of non-crucial articulators based on the detection of crucial moments and physiological constraints.
Zhao et al. Recognising continuous emotions in dialogues based on DISfluencies and non-verbal vocalisation features for a safer network environment
Granström Speech technology for language training and e-inclusion.

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Owner name: SHENYANG AEROSPACE UNIVERSITY

Free format text: FORMER OWNER: LI YIBO

Effective date: 20120202

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20120202

Address after: 110136 Shenbei New Area, Shenyang Province, moral, South Street, No. 37, No.

Applicant after: Shenyang Aerospace University

Address before: 110136 Shenbei New Area, Shenyang Province, moral, South Street, No. 37, No.

Applicant before: Li Yibo

C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20130403

Termination date: 20140406