CN111639227B - 一种虚拟角色的口语控制方法、电子设备及存储介质 - Google Patents

一种虚拟角色的口语控制方法、电子设备及存储介质 Download PDF

Info

Publication number
CN111639227B
CN111639227B CN202010455974.4A CN202010455974A CN111639227B CN 111639227 B CN111639227 B CN 111639227B CN 202010455974 A CN202010455974 A CN 202010455974A CN 111639227 B CN111639227 B CN 111639227B
Authority
CN
China
Prior art keywords
foreign language
personality
sentence
pronunciation
language
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010455974.4A
Other languages
English (en)
Other versions
CN111639227A (zh
Inventor
周林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangdong Genius Technology Co Ltd
Original Assignee
Guangdong Genius Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangdong Genius Technology Co Ltd filed Critical Guangdong Genius Technology Co Ltd
Priority to CN202010455974.4A priority Critical patent/CN111639227B/zh
Publication of CN111639227A publication Critical patent/CN111639227A/zh
Application granted granted Critical
Publication of CN111639227B publication Critical patent/CN111639227B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/2053D [Three Dimensional] animation driven by audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/10Speech classification or search using distance or distortion measures between unknown speech and reference templates
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/24Speech recognition using non-acoustical features
    • G10L15/25Speech recognition using non-acoustical features using position of the lips, movement of the lips or face analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Electrically Operated Instructional Devices (AREA)

Abstract

一种虚拟角色的口语控制方法、电子设备及存储介质,该方法包括:确定教材中的虚拟角色被指定的性格特征;从根据16PF人格因素搭建的各个人格模板库中确定出目标人格模板库;任意两个人格模板库对应的人格特征不同;每一人格模板库中建立与该人格模板库对应的人格特征相匹配的语言风格素材、话术模板及性格特征;被指定的性格特征与目标人格模板库中建立的性格特征相匹配;确定出目标人格模板库中建立的语言风格素材和话术模板;控制虚拟角色按照目标人格模板库中建立的语言风格素材,以口语形式输出目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练。提升与虚拟角色进行口语对练时的趣味性,有利于提升孩子进行口语对练的积极性。

Description

一种虚拟角色的口语控制方法、电子设备及存储介质
技术领域
本申请涉及计算机技术领域,具体涉及一种虚拟角色的口语控制方法、电子设备及存储介质。
背景技术
目前,市面上的一些英语教材中设置有用于与学生进行口语对练的虚拟角色,这些虚拟角色与学生进行口语对练时的语言风格通常都是固定不变的,这不利于提升与虚拟角色进行口语对练时的趣味性,从而不利于提升学生进行口语对练的积极性。
发明内容
本申请实施例公开一种虚拟角色的口语控制方法、电子设备及存储介质,能够提升与虚拟角色进行口语对练时的趣味性,从而有利于提升学生进行口语对练的积极性。
本申请实施例第一方面公开一种虚拟角色的口语控制方法,所述方法包括:
确定教材中的虚拟角色被指定的性格特征;
根据所述被指定的性格特征,从根据16PF人格因素搭建的各个人格模板库中确定出目标人格模板库;其中,每一人格模板库对应的一种人格特征,并且任意两个人格模板库对应的人格特征不同;每一人格模板库中建立与该人格模板库对应的人格特征相匹配的语言风格素材、话术模板以及性格特征;所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相匹配;
确定出所述目标人格模板库中建立的语言风格素材和话术模板;
控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练。
结合本申请实施例第一方面,在一些可选实施例中,所述目标人格模板库中建立的话术模板包含的句子内容为外语句子,所述控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练之后,所述方法还包括:
拾取学生针对所述外语句子进行口语对练发出的用户外语应答句子;
校验所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度是否超过第一指定阈值;
若未超过所述第一指定阈值,输出所述标准外语应答句子。
结合本申请实施例第一方面,在一些可选实施例中,所述输出所述标准外语应答句子之后,所述方法还包括:
拾取学生对所述标准外语应答句子的句子发音;
校验所述学生对所述标准外语应答句子的句子发音与所述标准外语应答句子的标准句子发音之间的发音匹配度是否超过第二指定阈值;
若未超过所述第二指定阈值,识别出所述标准外语应答句子包含的各个外语单词;
在屏幕展示出由所述各个外语单词的音阶按所述各个外语单词的发音顺序依次拼接成的音阶梯图;
在所述音阶梯图中加载显示所述各个外语单词;其中,任一外语单词在靠近所述音阶梯图中的所述外语单词的音阶显示。
结合本申请实施例第一方面,在一些可选实施例中,在所述音阶梯图中加载显示所述各个外语单词之后,所述方法还包括:
从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
在所述各个外语单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型。
结合本申请实施例第一方面,在一些可选实施例中,所述在所述用户的嘴部位置加载显示所述目标单词的标准发音口型之后,所述方法还包括:
拾取学生对所述目标单词的单词发音;
将所述学生对所述目标单词的单词发音与所述目标单词的标准单词发音进行比较,获得学生对所述目标单词的发音测评结果;
在获得所述学生对所述各个外语单词的发音测评结果之后,根据所述学生对每一个所述外语单词的发音测评结果,统计所述各个外语单词中的发音准确的单词的总数量;
对比所述总数量是否超过第三指定阈值,若超过,判断所述外语句子是否关联有待解锁对象,若关联有待解锁对象,解锁所述待解锁对象。
结合本申请实施例第一方面,在一些可选实施例中,在判断出所述外语句子关联有待解锁对象之后,所述方法还包括:
检测所述待解锁对象是否被配置有解锁允许参数;其中,所述解锁允许参数至少包括所述虚拟角色的三维模型的允许解锁位置和允许解锁姿态;
若被配置有所述解锁允许参数,以增强现实的方式在所述虚拟角色的显示位置加载显示所述虚拟角色的三维模型;
检测针对显示的所述虚拟角色的三维模型做出的隔空位姿调整手势;
控制显示的所述虚拟角色的三维模型的当前位姿调整到所述隔空位姿调整手势对应的目标位姿;所述目标位姿包含的所述虚拟角色的三维模型的目标位置和目标姿态;
校验所述虚拟角色的三维模型的目标位置与所述允许解锁位置是否匹配,以及校验所述虚拟角色的三维模型的目标姿态与所述允许解锁姿态是否匹配;
若校验所述虚拟角色的三维模型的目标位置与所述允许解锁位置匹配,并且所述虚拟角色的三维模型的目标姿态与所述允许解锁姿态匹配,执行所述的解锁所述待解锁对象的步骤。
本申请实施例第二方面公开一种电子设备,包括:
第一确定单元,用于确定教材中的虚拟角色被指定的性格特征;
第二确定单元,用于根据所述被指定的性格特征,从根据16PF人格因素搭建的各个人格模板库中确定出目标人格模板库;其中,每一人格模板库对应的一种人格特征,并且任意两个人格模板库对应的人格特征不同;每一人格模板库中建立与该人格模板库对应的人格特征相匹配的语言风格素材、话术模板以及性格特征;所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相匹配;以及,确定出所述目标人格模板库中建立的语言风格素材和话术模板;
控制单元,用于控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练。
结合本申请实施例第二方面,在一些可选实施例中,所述目标人格模板库中建立的话术模板包含的句子内容为外语句子,所述电子设备还包括:
拾取单元,用于在所述控制单元控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练之后,拾取学生针对所述外语句子进行口语对练发出的用户外语应答句子;
校验单元,用于校验所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度是否超过第一指定阈值;
输出单元,用于在所述校验单元校验出所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度超过第一指定阈值时,输出所述标准外语应答句子。
结合本申请实施例第二方面,在一些可选实施例中,所述拾取单元,还用于在所述输出单元输出所述标准外语应答句子之后,拾取学生对所述标准外语应答句子的句子发音;
所述校验单元,还用于校验所述学生对所述标准外语应答句子的句子发音与所述标准外语应答句子的标准句子发音之间的发音匹配度是否超过第二指定阈值;
所述电子设备还包括:
识别单元,用于在所述校验单元校验出未超过所述第二指定阈值时,识别出所述标准外语应答句子包含的各个外语单词;
展示单元,用于在屏幕展示出由所述各个外语单词的音阶按所述各个外语单词的发音顺序依次拼接成的音阶梯图;
第一加载单元,用于在所述音阶梯图中加载显示所述各个外语单词;其中,任一外语单词在靠近所述音阶梯图中的所述外语单词的音阶显示。
结合本申请实施例第二方面,在一些可选实施例中,所述电子设备还包括:
追踪单元,用于在所述第一加载单元在所述音阶梯图中加载显示所述各个外语单词之后,从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
第二加载单元,还用于在所述各个外语单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型。
结合本申请实施例第二方面,在一些可选实施例中,所述电子设备还包括:
所述拾取单元,还用于在所述第二加载单元在所述用户的嘴部位置加载显示所述目标单词的标准发音口型之后,拾取学生对所述目标单词的单词发音;
测评单元,用于将所述学生对所述目标单词的单词发音与所述目标单词的标准单词发音进行比较,获得学生对所述目标单词的发音测评结果;
统计单元,用于在获得所述学生对所述各个外语单词的发音测评结果之后,根据所述学生对每一个所述外语单词的发音测评结果,统计所述各个外语单词中的发音准确的单词的总数量;
对比单元,用于对比所述总数量是否超过第三指定阈值;
判断单元,用于在所述对比单元对比出所述总数量超过第三指定阈值时判断所述外语句子是否关联有待解锁对象;
解锁单元,用于在所述判断单元判断出所述外语句子关联有待解锁对象时,解锁所述待解锁对象。
结合本申请实施例第二方面,在一些可选实施例中,所述电子设备还包括:
检测单元,用于在所述判断单元判断出所述外语句子关联有待解锁对象之后,检测所述待解锁对象是否被配置有解锁允许参数;其中,所述解锁允许参数至少包括所述虚拟角色的三维模型的允许解锁位置和允许解锁姿态;
所述第二加载单元,还用于在所述检测单元检测出所述待解锁对象被配置有所述解锁允许参数时,以增强现实的方式在所述虚拟角色的显示位置加载显示所述虚拟角色的三维模型;
所述检测单元,还用于检测针对显示的所述虚拟角色的三维模型做出的隔空位姿调整手势;
所述控制单元,还用于控制显示的所述虚拟角色的三维模型的当前位姿调整到所述隔空位姿调整手势对应的目标位姿;所述目标位姿包含的所述虚拟角色的三维模型的目标位置和目标姿态;
所述校验单元,还用于校验所述虚拟角色的三维模型的目标位置与所述允许解锁位置是否匹配,以及校验所述虚拟角色的三维模型的目标姿态与所述允许解锁姿态是否匹配;若校验所述虚拟角色的三维模型的目标位置与所述允许解锁位置匹配,并且所述虚拟角色的三维模型的目标姿态与所述允许解锁姿态匹配,触发所述解锁单元执行所述的在所述判断单元判断出所述外语句子关联有待解锁对象时,解锁所述待解锁对象的操作。
本申请实施例第三方面公开一种电子设备,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行本申请实施例第一方面或第一方面任一可选实施例描述的所述口语控制方法的全部或部分步骤。
本申请实施例第五方面一种计算机可读存储介质,所述计算机可读存储介质上存储有计算机指令,所述计算机指令运行时使计算机执行本申请实施例第一方面或第一方面任一可选实施例描述的所述口语控制方法的全部或部分步骤。
与现有技术相比,本申请实施例具有以下有益效果:
本申请实施例中,电子设备可以让学生与被指定性格特征(如被学生指定性格特征)的虚拟角色进行口语对练,使得学生在于虚拟角色进行口语对练过程中可以感受到被指定性格的虚拟角色的语音风格,从而可以提升与虚拟角色进行口语对练时的趣味性,从而有利于提升学生进行口语对练的积极性。
附图说明
为了更清楚地说明本申请实施例中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例公开的虚拟角色的口语控制方法的第一实施例的流程示意图;
图2是本申请实施例公开的虚拟角色的口语控制方法的第二实施例的流程示意图;
图3是本申请实施例公开的虚拟角色的口语控制方法的第三实施例的流程示意图;
图4是本申请实施例公开的屏幕的界面示意图;
图5是本申请实施例公开的虚拟角色的口语控制方法的第四实施例的流程示意图;
图6是本申请实施例公开的电子设备的第一实施例的结构示意图;
图7是本申请实施例公开的电子设备的第二实施例的结构示意图;
图8是本申请实施例公开的电子设备的第三实施例的结构示意图;
图9是本申请实施例公开的电子设备的第四实施例的结构示意图;
图10是本申请实施例公开的电子设备的第五实施例的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
需要说明的是,本申请实施例的术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
本申请实施例公开一种虚拟角色的口语控制方法、电子设备及存储介质,能够提升与虚拟角色进行口语对练时的趣味性,从而有利于提升学生进行口语对练的积极性。以下进行结合附图进行详细描述。
请参阅图1,图1是本申请实施例公开的虚拟角色的口语控制方法的第一实施例的流程示意图。其中,图1所描述的虚拟角色的口语控制方法适用于教育类设备(如家教设备、课堂电子设备)、电脑(如学生平板、个人PC)、移动手机、智能居家设备(如智能电视、智能音箱、智能机器人)等各类电子设备,本申请实施例不作限定。在图1所描述的虚拟角色的口语控制方法中,以电子设备作为执行主体对该虚拟角色的口语控制方法进行描述。如图1所示,该虚拟角色的口语控制方法可以包括以下步骤:
101、电子设备确定教材中的虚拟角色被指定的性格特征。
本申请实施例中,学生可以为教材(如电子教材)中的虚拟角色(如虚拟人物)指定性格特征,或者学生的监管者(如教师或家长)可以现场或远程的为学生指定教材(如电子教材)中的虚拟角色(如虚拟人物)的性格特征,从而使得电子设备可以确定教材中的虚拟角色被指定的性格特征。
示例性的,虚拟角色被指定的性格特征可以是16种的卡特尔16PF人格因素中的任意一种卡特尔16PF人格因素所反映的人格特征包含的性格特征(心理学上往往把性格作为人格的核心部分)。例如,虚拟角色被指定的性格特征可以是16种的卡特尔16PF人格因素中的卡特尔16PF人格因素“乐群性(A)”所反映的人格特征包含的性格特征;其中,卡特尔16PF人格因素“乐群性(A)”所反映的人格特征包含的性格特征可以为:外向、热情、乐群。
102、电子设备根据所述被指定的性格特征,从根据16PF人格因素搭建的各个人格模板库中确定出目标人格模板库;其中,每一人格模板库对应的一种人格特征,并且任意两个人格模板库对应的人格特征不同;每一人格模板库中建立与该人格模板库对应的人格特征相匹配的语言风格素材、话术模板以及性格特征;所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相匹配。
在心理学上,16种的卡特尔16PF人格因素分别为:乐群性(A)、聪慧性(B)、稳定性(C)、恃强性(E)、兴奋性(F)、有恒性(G)、敢为性(H)、敏感性(I)、怀疑性(L)、幻想性(M)、世故性(N)、忧虑性(O)、实验性(Q1)、独立性(Q2)、自律性(Q3)以及紧张性(Q4)。相应地,电子设备可以分别根据上述每一种16PF人格因素,搭建与该种16PF人格因素所反映的人格特征相对应的人格模版库;其中,与该种16PF人格因素所反映的人格特征相对应的人格模版库中建立有与该种16PF人格因素所反映的人格特征相匹配的语言风格素材、话术模板以及性格特征。例如,与16PF人格因素“乐群性(A)”所反映的人格特征相对应的人格模版库中建立有与16PF人格因素“乐群性(A)”所反映的人格特征相匹配的语言风格素材、话术模板以及性格特征;又例如,与16PF人格因素“稳定性(C)”所反映的人格特征相对应的人格模版库中建立有与16PF人格因素“稳定性(C)”所反映的人格特征相匹配的语言风格素材、话术模板以及性格特征。其中,语言风格素材用于描述语言风格,话术模板可以包含若干句子内容,例如若干外语句子(如英语句子)。
本申请实施例中,所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相匹配可以理解为:所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相同或者相似。
103、电子设备确定出所述目标人格模板库中建立的语言风格素材和话术模板。
104、电子设备控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练。
在图1所描述虚拟角色的口语控制方法中,电子设备可以让学生与被指定性格特征(如被学生指定性格特征)的虚拟角色进行口语对练,使得学生在于虚拟角色进行口语对练过程中可以感受到被指定性格的虚拟角色的语音风格,从而可以提升与虚拟角色进行口语对练时的趣味性,从而有利于提升学生进行口语对练的积极性。
请参阅图2,图2是本申请实施例公开的虚拟角色的口语控制方法的第二实施例的流程示意图。在图2所描述的虚拟角色的口语控制方法中,以电子设备作为执行主体对该虚拟角色的口语控制方法进行描述。如图2所示,该虚拟角色的口语控制方法可以包括以下步骤:
201、电子设备确定教材中的虚拟角色被指定的性格特征。
202、电子设备根据所述被指定的性格特征,从根据16PF人格因素搭建的各个人格模板库中确定出目标人格模板库;其中,每一人格模板库对应的一种人格特征,并且任意两个人格模板库对应的人格特征不同;每一人格模板库中建立与该人格模板库对应的人格特征相匹配的语言风格素材、话术模板以及性格特征;所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相匹配。
203、电子设备确定出所述目标人格模板库中建立的语言风格素材和话术模板。
204、电子设备控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的外语句子供学生进行口语对练。
205、电子设备拾取学生针对所述外语句子进行口语对练发出的用户外语应答句子。
206、电子设备校验所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度是否超过第一指定阈值;若未超过所述第一指定阈值,执行步骤207~步骤209;若超过所述第一指定阈值,结束本流程。
在一些实施例中,电子设备校验出所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度超过第一指定阈值时,电子设备可以进一步校验所述用户外语应答句子的句子发音与所述标准外语应答句子的标准句子发音之间的发音匹配度是否超过第二指定阈值;若未超过所述第二指定阈值,执行步骤207~步骤209;若超过所述第二指定阈值,结束本流程。
207、电子设备输出所述标准外语应答句子。
示例性的,电子设备可以通过屏幕输出所述标准外语应答句子。
208、电子设备拾取学生对所述标准外语应答句子的句子发音。
209、电子设备校验所述学生对所述标准外语应答句子的句子发音与所述标准外语应答句子的标准句子发音之间的发音匹配度是否超过第二指定阈值;若未超过所述第二指定阈值,执行步骤210;若超过所述第二指定阈值,结束本流程。
210、电子设备识别出所述标准外语应答句子包含的各个外语单词。
211、电子设备在屏幕展示出由所述各个外语单词的音阶按所述各个外语单词的发音顺序依次拼接成的音阶梯图。
212、电子设备在所述音阶梯图中加载显示所述各个外语单词;其中,任一外语单词在靠近所述音阶梯图中的所述外语单词的音阶显示。
在图2所描述虚拟角色的口语控制方法中,电子设备可以让学生与被指定性格特征(如被学生指定性格特征)的虚拟角色进行口语对练,使得学生在于虚拟角色进行口语对练过程中可以感受到被指定性格的虚拟角色的语音风格,从而可以提升与虚拟角色进行口语对练时的趣味性,从而有利于提升学生进行口语对练的积极性。
此外,实施图2所描述的虚拟角色的口语控制方法,在学生与虚拟角色进行口语对练的过程中,可以让学生更好的关注那些发音不准的外语句子中的每个单词发音时的音阶,从而可以在提升与虚拟角色进行口语对练时的趣味性和有利于提升学生进行口语对练的积极性的同时,有效地引导学生对那些发音不准的外语句子的准确、有情感的发音,提升学生的口语水平。
请参阅图3,图3是本申请实施例公开的虚拟角色的口语控制方法的第三实施例的流程示意图。在图3所描述的虚拟角色的口语控制方法中,以电子设备作为执行主体对该虚拟角色的口语控制方法进行描述。如图3所示,该虚拟角色的口语控制方法可以包括以下步骤:
301、电子设备确定教材中的虚拟角色被指定的性格特征。
302、电子设备根据所述被指定的性格特征,从根据16PF人格因素搭建的各个人格模板库中确定出目标人格模板库;其中,每一人格模板库对应的一种人格特征,并且任意两个人格模板库对应的人格特征不同;每一人格模板库中建立与该人格模板库对应的人格特征相匹配的语言风格素材、话术模板以及性格特征;所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相匹配。
303、电子设备确定出所述目标人格模板库中建立的语言风格素材和话术模板。
304、电子设备控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的外语句子供学生进行口语对练。
305、电子设备拾取学生针对所述外语句子进行口语对练发出的用户外语应答句子。
306、电子设备校验所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度是否超过第一指定阈值;若未超过所述第一指定阈值,执行步骤307~步骤309。
在一些实施例中,电子设备校验出所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度超过第一指定阈值时,电子设备可以校验所述用户外语应答句子的句子发音与所述标准外语应答句子的标准句子发音之间的发音匹配度是否超过第二指定阈值;若未超过所述第二指定阈值,执行步骤307~步骤309;若超过所述第二指定阈值,执行步骤320。
307、电子设备输出所述标准外语应答句子。
示例性的,假设所述外语句子为“Can you see the eye of the tiger?”,而所述外语句子“Can you see the eye of the tiger?”关联的标准外语应答句子可以为“I cansee the tiger's eyes.”。当电子设备校验出所述用户外语应答句子与所述外语句子“Canyou see the eye of the tiger?”关联的标准外语应答句子“I can see the tiger'seyes.”的之间的内容匹配度未超过第一指定阈值时,电子设备可以输出所述标准外语应答句子“I can see the tiger's eyes.”
308、电子设备拾取学生对所述标准外语应答句子的句子发音。
309、电子设备校验所述学生对所述标准外语应答句子的句子发音与所述标准外语应答句子的标准句子发音之间的发音匹配度是否超过第二指定阈值;若未超过所述第二指定阈值,执行步骤310~步骤318;若超过所述第二指定阈值,执行步骤320。
310、电子设备识别出所述标准外语应答句子包含的各个外语单词。
311、电子设备在屏幕展示出由所述各个外语单词的音阶按所述各个外语单词的发音顺序依次拼接成的音阶梯图。
312、电子设备在所述音阶梯图中加载显示所述各个外语单词;其中,任一外语单词在靠近所述音阶梯图中的所述外语单词的音阶显示。
以图4所示的屏幕的界面示意图为例,电子设备可以在屏幕展示出由上述“I”、“can”、“see”、“the”、“tiger's”以及“eyes”各个外语单词的音阶按上述各个外语单词的发音顺序依次拼接成的音阶梯图,并且电子设备在该音阶梯图中加载显示上述各个外语单词;其中,外语单词“I”在靠近音阶梯图中的外语单词“I”的音阶显示,外语单词“can”在靠近音阶梯图中的外语单词“can”的音阶显示,外语单词“see”在靠近音阶梯图中的外语单词“see”的音阶显示,外语单词“the”在靠近音阶梯图中的外语单词“the”的音阶显示,外语单词“tiger's”在靠近音阶梯图中的外语单词“tiger's”的音阶显示,外语单词“eyes”在靠近音阶梯图中的外语单词“eyes”的音阶显示。
313、电子设备从屏幕展示出的用户的实时画像中追踪用户的嘴部位置。
其中,电子设备可以通过摄像设备(如摄像头)拍摄用户的实时画像,并将拍摄到的用户的实时画像输出至屏幕进行展示,在此基础上,电子设备可以通过面部识别与动作捕捉技术定位到用户的实时画像中的嘴部位置,并实时追踪用户的嘴部位置。
314、电子设备在所述各个外语单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型。
示例性的,电子设备可以在上述“I”、“can”、“see”、“the”、“tiger's”以及“eyes”各个外语单词中的某一目标单词“tiger's”被提示需要发音时,以增强现实的方式在该用户的嘴部位置加载显示目标单词“tiger's”的标准发音口型。
可以理解的是,以增强现实的方式在该用户的嘴部位置加载显示目标单词的标准发音口型可以为:以增强现实的方式在该用户的嘴部位置加载显示目标单词的标准发音口型的变化过程(属于一种动画过程)。
此外,实施上述步骤310~步骤314,在学生与虚拟角色进行口语对练的过程中,可以让学生更好的关注那些发音不准的外语句子中的每个单词发音时的音阶和标准发音口型,从而可以有效地引导学生对那些发音不准的外语单词的准确发音,从而有利于实现对外语句子的准确、有感情的发音,提升口语水平。
315、电子设备拾取学生对所述目标单词的单词发音。
316、电子设备将所述学生对所述目标单词的单词发音与所述目标单词的标准单词发音进行比较,获得学生对所述目标单词的发音测评结果。
在一些实施方式中,电子设备执行步骤316之后,还可以执行以下步骤:
控制该音阶梯图中的该目标单词的音阶以及该目标单词分别显示出与该用户对该目标单词的发音测评结果相对应的颜色。
示例性的,若该用户对目标单词的发音测评结果为准确,那么电子设备可以控制音阶梯图中的目标单词的音阶以及目标单词分别显示出与该发音测评结果(即准确)相对应的黑色;反之,若该用户对目标单词的发音测评结果为不准确,那么电子设备可以控制音阶梯图中的目标单词的音阶以及目标单词分别显示出与该发音测评结果(即不准确)相对应的灰色;例如,若该用户对目标单词“tiger's”的发音测评结果为不准确,那么电子设备可以控制音阶梯图中的目标单词“tiger's”的音阶以及目标单词“tiger's”分别显示出与该发音测评结果(即不准确)相对应的灰色。可以提升发音测评过程中的人机互动性,从而可以更好的引导学生对外语单词进行发音测评,有利于提升学生对外语单词发音的准确性。
317、电子设备在获得所述学生对所述各个外语单词的发音测评结果之后,根据所述学生对每一个所述外语单词的发音测评结果,统计所述各个外语单词中的发音准确的单词的总数量。
318、电子设备对比所述总数量是否超过第三指定阈值,若超过,执行步骤319;若未超过,结束本流程。
319、电子设备判断所述外语句子是否关联有待解锁对象,若关联有待解锁对象,执行步骤320;若未关联有待解锁对象,结束本流程。
320、电子设备解锁所述待解锁对象。
示例性的,待解锁对象可以是该目标人格模板库中建立的话术模板中的待解锁的外语句子;或者,待解锁对象也可以是其它的待解锁页面、待解锁APP、待解锁智能门锁等,本申请实施例不作限定。
其中,实施步骤317~步骤320,可以在更好的引导学生对外语单词进行发音测评,有利于提升学生对外语单词发音的准确性的同时,提升解锁所述外语句子关联的待解锁对象时的安全性。
请参阅图5,图5是本申请实施例公开的虚拟角色的口语控制方法的第四实施例的流程示意图。在图5所描述的虚拟角色的口语控制方法中,以电子设备作为执行主体对该虚拟角色的口语控制方法进行描述。如图5所示,该虚拟角色的口语控制方法可以包括以下步骤:
其中,步骤501~步骤517与前面步骤301~步骤317相同,本申请实施例此处不作赘述。
518、电子设备对比所述总数量是否超过第三指定阈值,若超过,执行步骤519;若未超过,结束本流程。
519、电子设备判断所述外语句子是否关联有待解锁对象,若关联有待解锁对象,执行步骤520;若未关联有待解锁对象,结束本流程。
520、电子设备检测所述待解锁对象是否被配置有解锁允许参数;其中,所述解锁允许参数至少包括所述虚拟角色的三维模型的允许解锁位置和允许解锁姿态;若被配置有所述解锁允许参数,执行步骤521~步骤524;若未被配置有所述解锁允许参数,结束本流程。
521、电子设备以增强现实的方式在所述虚拟角色的显示位置加载显示所述虚拟角色的三维模型。
522、电子设备检测针对显示的所述虚拟角色的三维模型做出的隔空位姿调整手势。
示例性的,电子设备可以通过摄像设备(如摄像头)检测针对显示的所述虚拟角色的三维模型做出的隔空位姿调整手势。
523、电子设备控制显示的所述虚拟角色的三维模型的当前位姿调整到所述隔空位姿调整手势对应的目标位姿;所述目标位姿包含的所述虚拟角色的三维模型的目标位置和目标姿态。
示例性的,当前位姿可以包括当前位置和当前姿态。可以理解的是,姿态是一个专业术语,对于飞行器(一种物品)而言,姿态是指它的横滚角及俯仰角;对于舰艇(另一种物品)而言,姿态一般是指它的横摇角、纵摇角。
其中,实施步骤522~步骤523,所述虚拟角色的三维模型可以被调整到不同的隔空位姿调整手势对应的不同的目标位姿,从而可以使学生从多个不同角度去认知虚拟角色的结构,从而可以提升认知虚拟角色的结构的过程中的人机互动性,有利于提升学生认知、了解虚拟角色的结构的积极性。
524、电子设备校验所述虚拟角色的三维模型的目标位置与所述允许解锁位置是否匹配,以及校验所述虚拟角色的三维模型的目标姿态与所述允许解锁姿态是否匹配;若校验所述虚拟角色的三维模型的目标位置与所述允许解锁位置匹配,并且所述虚拟角色的三维模型的目标姿态与所述允许解锁姿态匹配,执行步骤525;若校验所述虚拟角色的三维模型的目标位置与所述允许解锁位置不匹配,和/或,所述虚拟角色的三维模型的目标姿态与所述允许解锁姿态匹配,结束本流程。
其中,所述虚拟角色的三维模型的目标位置与该允许解锁位置匹配可以是:所述虚拟角色的三维模型的目标位置与该允许解锁位置相同。
其中,所述虚拟角色的三维模型的目标姿态与该允许解锁姿态匹配可以是:所述虚拟角色的三维模型的目标姿态与该允许解锁姿态相同。
525、电子设备解锁所述待解锁对象。
其中,实施步骤520~步骤525,可以在更好的引导学生对外语单词进行发音测评,有利于提升学生对外语单词发音的准确性的同时,更好地提升解锁所述外语句子关联的待解锁对象时的安全性。
请参阅图6,图6是本申请实施例公开的电子设备的第一实施例的结构示意图。如图6所示,该电子设备可以包括:
第一确定单元601,用于确定教材中的虚拟角色被指定的性格特征;
第二确定单元602,用于根据所述被指定的性格特征,从根据16PF人格因素搭建的各个人格模板库中确定出目标人格模板库;其中,每一人格模板库对应的一种人格特征,并且任意两个人格模板库对应的人格特征不同;每一人格模板库中建立与该人格模板库对应的人格特征相匹配的语言风格素材、话术模板以及性格特征;所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相匹配;以及,确定出所述目标人格模板库中建立的语言风格素材和话术模板;
控制单元603,用于控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练。
在图6所描述的电子设备中,可以让学生与被指定性格特征(如被学生指定性格特征)的虚拟角色进行口语对练,使得学生在于虚拟角色进行口语对练过程中可以感受到被指定性格的虚拟角色的语音风格,从而可以提升与虚拟角色进行口语对练时的趣味性,从而有利于提升学生进行口语对练的积极性。
请一并参阅图7,图7是本申请实施例公开的电子设备的第二实施例的结构示意图。其中,图7所示的电子设备是由图6所示的电子设备优化得到的。在图7所示的电子设备中,所述目标人格模板库中建立的话术模板包含的句子内容为外语句子,图7所示的电子设备还包括:
拾取单元604,用于在所述控制单元603控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练之后,拾取学生针对所述外语句子进行口语对练发出的用户外语应答句子;
校验单元605,用于校验所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度是否超过第一指定阈值;
输出单元606,用于在所述校验单元605校验出所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度超过第一指定阈值时,输出所述标准外语应答句子。
在一些实施方式中,所述拾取单元604还用于在所述输出单元606输出所述标准外语应答句子之后,拾取学生对所述标准外语应答句子的句子发音;
所述校验单元605,还用于校验所述学生对所述标准外语应答句子的句子发音与所述标准外语应答句子的标准句子发音之间的发音匹配度是否超过第二指定阈值;
相应地,图7所示的电子设备还包括:
识别单元607,用于在所述校验单元605校验出未超过所述第二指定阈值时,识别出所述标准外语应答句子包含的各个外语单词;
展示单元608,用于在屏幕展示出由所述各个外语单词的音阶按所述各个外语单词的发音顺序依次拼接成的音阶梯图;
第一加载单元609,用于在所述音阶梯图中加载显示所述各个外语单词;其中,任一外语单词在靠近所述音阶梯图中的所述外语单词的音阶显示。
其中,实施图7所描述的电子设备,在学生与虚拟角色进行口语对练的过程中,可以让学生更好的关注那些发音不准的外语句子中的每个单词发音时的音阶,从而可以有效地引导学生对那些发音不准的外语句子的准确、有情感的发音,提升口语水平。
请一并参阅图8,图8是本申请实施例公开的电子设备的第三实施例的结构示意图。其中,图8所示的电子设备是由图7所示的电子设备优化得到的。在图8所示的电子设备中,还包括:
追踪单元610,用于在所述第一加载单元609在所述音阶梯图中加载显示所述各个外语单词之后,从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
第二加载单元611,还用于在所述各个外语单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型。
可选的,在图8所示的电子设备中:
所述拾取单元604,还用于在所述第二加载单元611在所述用户的嘴部位置加载显示所述目标单词的标准发音口型之后,拾取学生对所述目标单词的单词发音;
相应地,图8所示的电子设备还包括:
测评单元612,用于将所述学生对所述目标单词的单词发音与所述目标单词的标准单词发音进行比较,获得学生对所述目标单词的发音测评结果;
统计单元613,用于在获得所述学生对所述各个外语单词的发音测评结果之后,根据所述学生对每一个所述外语单词的发音测评结果,统计所述各个外语单词中的发音准确的单词的总数量;
对比单元614,用于对比所述总数量是否超过第三指定阈值;
判断单元615,用于在所述对比单元614对比出所述总数量超过第三指定阈值时,判断所述外语句子是否关联有待解锁对象;
解锁单元616,用于在所述判断单元615判断出所述外语句子关联有待解锁对象时,解锁所述待解锁对象。
其中,实施图8所描述的电子设备,在学生与虚拟角色进行口语对练的过程中,可以让学生更好的关注那些发音不准的外语句子中的每个单词发音时的音阶和标准发音口型,从而可以有效地引导学生对那些发音不准的外语句子的准确、有情感的发音,提升口语水平。
请一并参阅图9,图9是本申请实施例公开的电子设备的第四实施例的结构示意图。其中,图9所示的电子设备是由图8所示的电子设备优化得到的。在图9所示的电子设备中,还包括:
检测单元617,用于在所述判断单元615判断出所述外语句子关联有待解锁对象之后,检测所述待解锁对象是否被配置有解锁允许参数;其中,所述解锁允许参数至少包括所述虚拟角色的三维模型的允许解锁位置和允许解锁姿态;
所述第二加载单元611,还用于在所述检测单元617检测出所述待解锁对象被配置有所述解锁允许参数时,以增强现实的方式在所述虚拟角色的显示位置加载显示所述虚拟角色的三维模型;
所述检测单元617,还用于检测针对显示的所述虚拟角色的三维模型做出的隔空位姿调整手势;
所述控制单元603,还用于控制显示的所述虚拟角色的三维模型的当前位姿调整到所述隔空位姿调整手势对应的目标位姿;所述目标位姿包含的所述虚拟角色的三维模型的目标位置和目标姿态;
所述校验单元605,还用于校验所述虚拟角色的三维模型的目标位置与所述允许解锁位置是否匹配,以及校验所述虚拟角色的三维模型的目标姿态与所述允许解锁姿态是否匹配;若校验所述虚拟角色的三维模型的目标位置与所述允许解锁位置匹配,并且所述虚拟角色的三维模型的目标姿态与所述允许解锁姿态匹配,触发所述解锁单元616执行所述的在所述判断单元判断出所述外语句子关联有待解锁对象时,解锁所述待解锁对象的操作。
其中,实施图9所示的电子设备,可以在更好的引导学生对外语单词进行发音测评,有利于提升学生对外语单词发音的准确性的同时,更好地提升解锁所述外语句子关联的待解锁对象时的安全性。
请参阅图10,图10是本申请实施例公开的电子设备的第五实施例的结构示意图。如图10所示,该电子设备可以包括上:
存储有可执行程序代码的存储器1001
与存储器耦合的处理器1002;
其中,处理器1002调用存储器1001中存储的可执行程序代码,执行上述口语控制方法的全部或部分步骤。
需要说明的是,本申请实施例中,图10所示的电子设备还可以包括扬声器模组、屏幕、光投射模组、电池模组、无线通信模组(如移动通信模块、WIFI模块、蓝牙模块等)、传感器模组(如接近传感器等)、输入模组(如麦克风、按键)以及用户接口模组(如充电接口、对外供电接口、卡槽、有线耳机接口等)等未显示的部件。
本发明实施例公开一种计算机可读存储介质,其上存储有计算机指令,该计算机指令运行时使计算机执行上述虚拟角色的口语控制方法的全部或部分步骤。
本领域普通技术人员可以理解上述实施例的各种方法中的全部或部分步骤是可以通过程序来指令相关的硬件来完成,该程序可以存储于一计算机可读存储介质中,存储介质包括只读存储器(Read-Only Memory,ROM)、随机存储器(Random Access Memory,RAM)、可编程只读存储器(Programmable Read-only Memory,PROM)、可擦除可编程只读存储器(Erasable Programmable Read Only Memory,EPROM)、一次可编程只读存储器(One-time Programmable Read-Only Memory,OTPROM)、电子抹除式可复写只读存储器(Electrically-Erasable Programmable Read-Only Memory,EEPROM)、只读光盘(CompactDisc Read-Only Memory,CD-ROM)或其他光盘存储器、磁盘存储器、磁带存储器、或者能够用于携带或存储数据的计算机可读的任何其他介质。
以上对本发明实施例公开的上述虚拟角色的口语控制方法及电子设备,存储介质进行了详细介绍,本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本发明的限制。

Claims (8)

1.一种虚拟角色的口语控制方法,其特征在于,所述方法包括:
确定教材中的虚拟角色被指定的性格特征;
根据所述被指定的性格特征,从根据16PF人格因素搭建的各个人格模板库中确定出目标人格模板库;其中,每一人格模板库对应的一种人格特征,并且任意两个人格模板库对应的人格特征不同;每一人格模板库中建立与该人格模板库对应的人格特征相匹配的用于描述语言风格的语言风格素材、话术模板以及性格特征;所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相匹配;
确定出所述目标人格模板库中建立的语言风格素材和话术模板;
控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练;
所述目标人格模板库中建立的话术模板包含的句子内容为外语句子,所述控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练之后,所述方法还包括:
拾取学生针对所述外语句子进行口语对练发出的用户外语应答句子;
校验所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度是否超过第一指定阈值;
若未超过所述第一指定阈值,输出所述标准外语应答句子;
所述输出所述标准外语应答句子之后,所述方法还包括:
拾取学生对所述标准外语应答句子的句子发音;
校验所述学生对所述标准外语应答句子的句子发音与所述标准外语应答句子的标准句子发音之间的发音匹配度是否超过第二指定阈值;
若未超过所述第二指定阈值,识别出所述标准外语应答句子包含的各个外语单词;
在屏幕展示出由所述各个外语单词的音阶按所述各个外语单词的发音顺序依次拼接成的音阶梯图;
在所述音阶梯图中加载显示所述各个外语单词;其中,任一外语单词在靠近所述音阶梯图中的所述外语单词的音阶显示。
2.根据权利要求1所述的口语控制方法,其特征在于,在所述音阶梯图中加载显示所述各个外语单词之后,所述方法还包括:
从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
在所述各个外语单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型。
3.根据权利要求2所述的口语控制方法,其特征在于,所述在所述用户的嘴部位置加载显示所述目标单词的标准发音口型之后,所述方法还包括:
拾取学生对所述目标单词的单词发音;
将所述学生对所述目标单词的单词发音与所述目标单词的标准单词发音进行比较,获得学生对所述目标单词的发音测评结果;
在获得所述学生对所述各个外语单词的发音测评结果之后,根据所述学生对每一个所述外语单词的发音测评结果,统计所述各个外语单词中的发音准确的单词的总数量;
对比所述总数量是否超过第三指定阈值,若超过,判断所述外语句子是否关联有待解锁对象,若关联有待解锁对象,解锁所述待解锁对象。
4.一种电子设备,其特征在于,所述电子设备包括:
第一确定单元,用于确定教材中的虚拟角色被指定的性格特征;
第二确定单元,用于根据所述被指定的性格特征,从根据16PF人格因素搭建的各个人格模板库中确定出目标人格模板库;其中,每一人格模板库对应的一种人格特征,并且任意两个人格模板库对应的人格特征不同;每一人格模板库中建立与该人格模板库对应的人格特征相匹配的用于描述语言风格的语言风格素材、话术模板以及性格特征;所述虚拟角色被指定的性格特征与所述目标人格模板库中建立的性格特征相匹配;以及,确定出所述目标人格模板库中建立的语言风格素材和话术模板;
控制单元,用于控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练;
所述目标人格模板库中建立的话术模板包含的句子内容为外语句子,所述电子设备还包括:
拾取单元,用于在所述控制单元控制所述虚拟角色按照所述目标人格模板库中建立的语言风格素材,以口语形式输出所述目标人格模板库中建立的话术模板包含的句子内容供学生进行口语对练之后,拾取学生针对所述外语句子进行口语对练发出的用户外语应答句子;
校验单元,用于校验所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度是否超过第一指定阈值;
输出单元,用于在所述校验单元校验出所述用户外语应答句子与所述外语句子关联的标准外语应答句子的之间的内容匹配度超过第一指定阈值时,输出所述标准外语应答句子;
所述拾取单元,还用于在所述输出单元输出所述标准外语应答句子之后,拾取学生对所述标准外语应答句子的句子发音;
所述校验单元,还用于校验所述学生对所述标准外语应答句子的句子发音与所述标准外语应答句子的标准句子发音之间的发音匹配度是否超过第二指定阈值;
所述电子设备还包括:
识别单元,用于在所述校验单元校验出未超过所述第二指定阈值时,识别出所述标准外语应答句子包含的各个外语单词;
展示单元,用于在屏幕展示出由所述各个外语单词的音阶按所述各个外语单词的发音顺序依次拼接成的音阶梯图;
第一加载单元,用于在所述音阶梯图中加载显示所述各个外语单词;其中,任一外语单词在靠近所述音阶梯图中的所述外语单词的音阶显示。
5.根据权利要求4所述的电子设备,其特征在于,还包括:
追踪单元,用于在所述第一加载单元在所述音阶梯图中加载显示所述各个外语单词之后,从屏幕展示出的用户的实时画像中追踪用户的嘴部位置;
第二加载单元,还用于在所述各个外语单词中的某一目标单词被提示需要发音时,以增强现实的方式在用户的嘴部位置加载显示目标单词的标准发音口型。
6.根据权利要求5所述的电子设备,其特征在于:
所述拾取单元,还用于在所述第二加载单元在所述用户的嘴部位置加载显示所述目标单词的标准发音口型之后,拾取学生对所述目标单词的单词发音;
测评单元,用于将所述学生对所述目标单词的单词发音与所述目标单词的标准单词发音进行比较,获得学生对所述目标单词的发音测评结果;
统计单元,用于在获得所述学生对所述各个外语单词的发音测评结果之后,根据所述学生对每一个所述外语单词的发音测评结果,统计所述各个外语单词中的发音准确的单词的总数量;
对比单元,用于对比所述总数量是否超过第三指定阈值;
判断单元,用于在所述对比单元对比出所述总数量超过第三指定阈值时判断所述外语句子是否关联有待解锁对象;
解锁单元,用于在所述判断单元判断出所述外语句子关联有待解锁对象时,解锁所述待解锁对象。
7.一种电子设备,其特征在于,包括:
存储有可执行程序代码的存储器;
与所述存储器耦合的处理器;
所述处理器调用所述存储器中存储的所述可执行程序代码,执行权利要求1~3任一项所述口语控制方法的全部或部分步骤。
8.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有计算机指令,所述计算机指令运行时使计算机执行权利要求1~3任一项所述口语控制方法的全部或部分步骤。
CN202010455974.4A 2020-05-26 2020-05-26 一种虚拟角色的口语控制方法、电子设备及存储介质 Active CN111639227B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010455974.4A CN111639227B (zh) 2020-05-26 2020-05-26 一种虚拟角色的口语控制方法、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010455974.4A CN111639227B (zh) 2020-05-26 2020-05-26 一种虚拟角色的口语控制方法、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN111639227A CN111639227A (zh) 2020-09-08
CN111639227B true CN111639227B (zh) 2023-09-22

Family

ID=72331513

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010455974.4A Active CN111639227B (zh) 2020-05-26 2020-05-26 一种虚拟角色的口语控制方法、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN111639227B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024039267A1 (ru) * 2022-08-18 2024-02-22 Александр Георгиевич БОРКОВСКИЙ Обучение пользователя тонам китайских иероглифов

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272154A (ja) * 1998-03-18 1999-10-08 Nobuyoshi Nakamura 会話教材用記録媒体
CN107168990A (zh) * 2017-03-28 2017-09-15 厦门快商通科技股份有限公司 基于用户性格的智能客服系统及对话方法
CN107340991A (zh) * 2017-07-18 2017-11-10 百度在线网络技术(北京)有限公司 语音角色的切换方法、装置、设备以及存储介质
CN107480122A (zh) * 2017-06-26 2017-12-15 迈吉客科技(北京)有限公司 一种人工智能交互方法及人工智能交互装置
KR101822026B1 (ko) * 2016-08-31 2018-01-26 주식회사 뮤엠교육 아바타 기반의 언어 학습시스템
CN109844741A (zh) * 2017-06-29 2019-06-04 微软技术许可有限责任公司 在自动聊天中生成响应
CN110265021A (zh) * 2019-07-22 2019-09-20 深圳前海微众银行股份有限公司 个性化语音交互方法、机器人终端、装置及可读存储介质

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6144938A (en) * 1998-05-01 2000-11-07 Sun Microsystems, Inc. Voice user interface with personality
US20020029203A1 (en) * 2000-09-01 2002-03-07 Pelland David M. Electronic personal assistant with personality adaptation

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11272154A (ja) * 1998-03-18 1999-10-08 Nobuyoshi Nakamura 会話教材用記録媒体
KR101822026B1 (ko) * 2016-08-31 2018-01-26 주식회사 뮤엠교육 아바타 기반의 언어 학습시스템
CN107168990A (zh) * 2017-03-28 2017-09-15 厦门快商通科技股份有限公司 基于用户性格的智能客服系统及对话方法
CN107480122A (zh) * 2017-06-26 2017-12-15 迈吉客科技(北京)有限公司 一种人工智能交互方法及人工智能交互装置
WO2019001127A1 (zh) * 2017-06-26 2019-01-03 迈吉客科技(北京)有限公司 基于虚拟人物的人工智能交互方法及人工智能交互装置
CN109844741A (zh) * 2017-06-29 2019-06-04 微软技术许可有限责任公司 在自动聊天中生成响应
CN107340991A (zh) * 2017-07-18 2017-11-10 百度在线网络技术(北京)有限公司 语音角色的切换方法、装置、设备以及存储介质
CN110265021A (zh) * 2019-07-22 2019-09-20 深圳前海微众银行股份有限公司 个性化语音交互方法、机器人终端、装置及可读存储介质

Also Published As

Publication number Publication date
CN111639227A (zh) 2020-09-08

Similar Documents

Publication Publication Date Title
KR20200111853A (ko) 전자 장치 및 전자 장치의 음성 인식 제어 방법
CN107102723B (zh) 用于基于手势的移动交互的方法、装置、设备和非暂时性计算机可读介质
CN111341326B (zh) 语音处理方法及相关产品
US8346552B2 (en) Storage medium storing pronunciation evaluating program, pronunciation evaluating apparatus and pronunciation evaluating method
US9129602B1 (en) Mimicking user speech patterns
CN108537702A (zh) 外语教学评价信息生成方法以及装置
CN109634552A (zh) 一种应用于听写的报读控制方法及终端设备
Oliveira et al. Automatic sign language translation to improve communication
KR20190105403A (ko) 전자 장치, 전자 장치와 결합 가능한 외부 디바이스 및 이의 디스플레이 방법
CN112562723B (zh) 发音准确度确定方法、装置、存储介质和电子设备
CN113327620A (zh) 声纹识别的方法和装置
CN111639227B (zh) 一种虚拟角色的口语控制方法、电子设备及存储介质
CN115131867A (zh) 基于学生学习效率检测方法、系统、设备及介质
CN111046852A (zh) 个人学习路径生成方法、设备及可读存储介质
KR20180012192A (ko) 유아동용 학습 장치 및 그 동작 방법
CN110580897B (zh) 音频校验方法、装置、存储介质及电子设备
CN112669422A (zh) 仿真3d数字人生成方法、装置、电子设备及存储介质
KR20220036778A (ko) 무음 발화 인식 방법 및 장치
CN111639567B (zh) 一种三维模型的互动显示方法、电子设备及存储介质
US20240028128A1 (en) Gesture Simulated Interactive Environment
CN113409770A (zh) 发音特征处理方法、装置、服务器及介质
CN112540668A (zh) 一种基于AI及IoT的智能教学辅助方法及系统
CN111638781B (zh) 基于ar的发音引导方法、装置、电子设备及存储介质
CN111563514B (zh) 一种三维字符的显示方法及装置、电子设备、存储介质
CN109102810B (zh) 声纹识别方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant