CN111091810A - 基于语音信息的vr游戏人物表情控制方法及存储介质 - Google Patents

基于语音信息的vr游戏人物表情控制方法及存储介质 Download PDF

Info

Publication number
CN111091810A
CN111091810A CN201911316446.4A CN201911316446A CN111091810A CN 111091810 A CN111091810 A CN 111091810A CN 201911316446 A CN201911316446 A CN 201911316446A CN 111091810 A CN111091810 A CN 111091810A
Authority
CN
China
Prior art keywords
user
voice
reading
score
game character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201911316446.4A
Other languages
English (en)
Inventor
曹明亮
谢天华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Foshan University
Original Assignee
Foshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Foshan University filed Critical Foshan University
Priority to CN201911316446.4A priority Critical patent/CN111091810A/zh
Publication of CN111091810A publication Critical patent/CN111091810A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/02Feature extraction for speech recognition; Selection of recognition unit
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/40Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment
    • A63F13/42Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle
    • A63F13/424Processing input control signals of video game devices, e.g. signals generated by the player or derived from the environment by mapping the input signals into game commands, e.g. mapping the displacement of a stylus on a touch screen to the steering angle of a virtual vehicle involving acoustic input signals, e.g. by using the results of pitch or rhythm extraction or voice recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/18Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/78Detection of presence or absence of voice signals
    • G10L25/87Detection of discrete points within a voice signal
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/93Discriminating between voiced and unvoiced parts of speech signals

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Child & Adolescent Psychology (AREA)
  • General Health & Medical Sciences (AREA)
  • Hospice & Palliative Care (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

本发明涉及基于语音信息的VR游戏人物表情控制方法,包括:步骤101、获取用户的测试请求信息,在取得用户的测试请求信息后,显示词条库列表供用户挑选其中的一条词条信息并提示用户进行朗读;步骤102、获取用户的朗读时长T、用户朗读的音量B,并对用户朗读的词条进行语音识别;步骤103、根据语音识别的结果结合朗读时长评判规则以及朗读音量评判规则得出用户的情感意向;步骤104、根据得出的情感意向结果控制VR游戏人物做出相应的表情。本发明能够通过用户的朗读来对用户朗读的词条进行识别,并根据识别的结果以及用户朗读的音量以及语速预测用户的情感意向,并根据预测的结果对VR游戏人物的表情进行控制,计算相对简单且具有一定的趣味性。

Description

基于语音信息的VR游戏人物表情控制方法及存储介质
技术领域
本发明涉及VR领域,尤其涉及基于语音信息的VR游戏人物表情控制方法及存储介质。
背景技术
在VR游戏中,虚拟环境提供了一种很好的沉浸式情感诱发材料,在现有的情感诱发系统中,主要的诱发材料有情感图片、语音、视频及音乐。在情感评估领域,情感诱发的方式为被动式诱发,即通过观看情感诱发材料来诱发对应的情感。
当今市场在对VR游戏人物的控制时,虽然也存在通过预测用户的自身情感来对游戏人物的表情进行同步控制,但是这种计算往往十分复杂,需要通过对用户的多个生理信息进行整合计算,计算量十分大,当今市场需要一种较为简单的通过预测用户的自身情感对VR游戏人物进行控制的方法。
发明内容
本发明的目的是解决现有技术的不足,提供基于语音信息的VR游戏人物表情控制方法及存储介质,能够通过用户的朗读来对用户朗读的词条进行识别,并根据识别的结果以及用户朗读的音量以及语速对用户的情感意向进行预测,并根据预测的结果对VR游戏人物的表情进行控制,计算相对简单且具有一定的趣味性。
为了实现上述目的,本发明采用以下的技术方案:
提出一种基于生理信息的情感评估系统,包括以下:
步骤101、获取用户的测试请求信息,在取得用户的测试请求信息后,显示词条库列表供用户挑选其中的一条词条信息并提示用户进行朗读;
步骤102、获取用户的朗读时长T、用户朗读的音量B,并对用户朗读的词条进行语音识别;
步骤103、根据语音识别的结果结合朗读时长评判规则以及朗读音量评判规则得出用户的情感意向;
步骤104、根据得出的情感意向结果控制VR游戏人物做出相应的表情。
进一步,上述步骤102中的对用户朗读的词条进行语音识别的操作具体包括以下:
步骤201、对用户朗读的语音信息进行预处理操作得到第一语音信息;
步骤202、对所述第一语音信息进行特征提取后进行语音识别。
进一步,上述步骤201中的对用户朗读的词条进行预处理操作具体包括以下:
步骤301、对用户的语音信息进行预加重处理得到中间语音信息,所述预加重具体为如下关系式,
Bn=An-a*An-1,
其中Bn代表中间语音信息,An代表用户的语音信息,a为常数,a的取值范围为[0.90,1.00];
步骤302、对中间语音信息进行加窗处理得到第一语音信息,所述加窗具体为如下关系式,
Cn=Bn*W(n),
其中Cn代表第一语音信号,W(n)为窗函数,W(n)具体为
Figure BDA0002325954730000021
步骤303、通过短时能量的形式对第一语音信息进行端点检测区分清音段与浊音段。
进一步,上述步骤202中的对第一语音信息进行特征提取的具体方式包括以下:
步骤401、将第一语音信息经过傅立叶变换得到每个语音帧的时域信号c(n);
步骤402、将时域信号c(n)进行末位补0的形式形成程度为N的序列,通过离散傅立叶变换得到该序列的线性频谱X(k),具体转换形式为:
Figure BDA0002325954730000022
步骤403、将线性频谱X(k)通过MEL频率滤波器组得到MEL频谱,对MEL频谱通过对数能量的处理得到对数频谱Q(m),
其中MEL频率滤波器组包括不少于2个带通滤波器,每个带通滤波器的传递函数为:
Figure BDA0002325954730000023
其中0≤m≤M,M为滤波器的个数,而
Figure BDA0002325954730000024
当中的fh以及fl分别表示滤波器的频率的最高应用以及最低应用的情况,Fs为采样频率,N为进行离散傅立叶变换的窗函数的窗宽,而
Figure BDA0002325954730000025
x表示自变量;
相应的,
Figure BDA0002325954730000026
步骤404、将对数频谱Q(m)经过离散余弦变换得到MFCC系数d(n)为:
Figure BDA0002325954730000031
进一步,上述步骤103中的情感意向的得出具体包括以下:
步骤501、根据语音识别的结果结合语句预置分数得到第一分数;
步骤502、根据用户的朗读时长T,划分时长得分段,判断用户的朗读时长T落在对应得分段的区间得到第二分数;
步骤503、根据用户的朗读音量B,划分音量得分段,判断用户的朗读音量落在对应得分段的区间得到第三分数;
步骤504、计算第一分数、第二分数以及第三分数的总和,划分总和得分段,每一个得分段对应一种情感状态,判断用户的得分总和所属的得分段得到用户的情感状态。
进一步,上述步骤501中的语句预置分数通过以下方法得到:
在收录相关语句时,根据语句的语意评估得到语句的预置分数,并与所述语句共同形成数据库表格,当语音识别得到语句时,通过查表的方式得到该语句的预置分数。
还提出了一种计算机可读存储的介质,所述计算机可读存储的介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述方法的步骤。
本发明的有益效果为:
本发明能够以用户读词条的趣味游戏方式来获取用户的情感状态,通过对用户所读词条进行语音识别,结合用户的语速以及音量来对用户的情感状态进行判断。
附图说明
图1所示为本发明基于语音信息的VR游戏人物表情控制方法流程图。
具体实施方式
以下将结合实施例和附图对本发明的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本发明的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。附图中各处使用的相同的附图标记指示相同或相似的部分。
参照图1,包括以下:
步骤101、获取用户的测试请求信息,在取得用户的测试请求信息后,显示词条库列表供用户挑选其中的一条词条信息并提示用户进行朗读;
步骤102、获取用户的朗读时长T、用户朗读的音量B,并对用户朗读的词条进行语音识别;
步骤103、根据语音识别的结果结合朗读时长评判规则以及朗读音量评判规则得出用户的情感意向;
步骤104、根据得出的情感意向结果控制VR游戏人物做出相应的表情。
作为本发明的优选实施方式,上述步骤102中的对用户朗读的词条进行语音识别的操作具体包括以下:
步骤201、对用户朗读的语音信息进行预处理操作得到第一语音信息;
步骤202、对所述第一语音信息进行特征提取后进行语音识别。
作为本发明的优选实施方式,上述步骤201中的对用户朗读的词条进行预处理操作具体包括以下:
步骤301、对用户的语音信息进行预加重处理得到中间语音信息,所述预加重具体为如下关系式,
Bn=An-a*An-1,
其中Bn代表中间语音信息,An代表用户的语音信息,a为常数,a的取值范围为[0.90,1.00];
步骤302、对中间语音信息进行加窗处理得到第一语音信息,所述加窗具体为如下关系式,
Cn=Bn*W(n),
其中Cn代表第一语音信号,W(n)为窗函数,W(n)具体为
Figure BDA0002325954730000041
步骤303、通过短时能量的形式对第一语音信息进行端点检测区分清音段与浊音段。
作为本发明的优选实施方式,上述步骤202中的对第一语音信息进行特征提取的具体方式包括以下:
步骤401、将第一语音信息经过傅立叶变换得到每个语音帧的时域信号c(n);
步骤402、将时域信号c(n)进行末位补0的形式形成程度为N的序列,通过离散傅立叶变换得到该序列的线性频谱X(k),具体转换形式为:
Figure BDA0002325954730000042
步骤403、将线性频谱X(k)通过MEL频率滤波器组得到MEL频谱,对MEL频谱通过对数能量的处理得到对数频谱Q(m),
其中MEL频率滤波器组包括不少于2个带通滤波器,每个带通滤波器的传递函数为:
Figure BDA0002325954730000051
其中0≤m≤M,M为滤波器的个数,而
Figure BDA0002325954730000052
当中的fh以及fl分别表示滤波器的频率的最高应用以及最低应用的情况,Fs为采样频率,N为进行离散傅立叶变换的窗函数的窗宽,而
Figure BDA0002325954730000053
x表示自变量;
相应的,
Figure BDA0002325954730000054
步骤404、将对数频谱Q(m)经过离散余弦变换得到MFCC系数d(n)为:
Figure BDA0002325954730000055
作为本发明的优选实施方式,上述步骤103中的情感意向的得出具体包括以下:
步骤501、根据语音识别的结果结合语句预置分数得到第一分数;
步骤502、根据用户的朗读时长T,划分时长得分段,判断用户的朗读时长T落在对应得分段的区间得到第二分数;
步骤503、根据用户的朗读音量B,划分音量得分段,判断用户的朗读音量落在对应得分段的区间得到第三分数;
步骤504、计算第一分数、第二分数以及第三分数的总和,划分总和得分段,每一个得分段对应一种情感状态,判断用户的得分总和所属的得分段得到用户的情感意向。
具体的,在实施时,收录的语句均为10字语句,并且根据收录语句的心情愉悦程度划分为5个等级分别为1-5分,而用户的朗读时长T由5-10秒均等的划分为5个等级,分别为5-1分,超过10秒的记为10秒,低于5秒的记为5秒,朗读音量B由40-80分贝均等的划分为5个等级,分别1-5分,低于40分贝的记为40分贝,高于80分贝的记为80分贝,而最终得分的区间则为3-15分,其中3-6分对应沮丧表情,6-9分对应自然表情,9-12分对应开心表情,12-15分对应激动表情。
作为本发明的优选实施方式,上述步骤501中的语句预置分数通过以下方法得到:
在收录相关语句时,根据语句的语意评估得到语句的预置分数,并与所述语句共同形成数据库表格,当语音识别得到语句时,通过查表的方式得到该语句的预置分数。
还提出了一种计算机可读存储的介质,所述计算机可读存储的介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述方法的步骤。
所述作为分离部件说明的模块可以是或者也可以不是物理上分开的,作为模块显示的部件可以是或者也可以不是物理模块,即可以位于一个地方,或者也可以分布到多个网络模块上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例中的方案的目的。
另外,在本发明各个实施例中的各功能模块可以集成在一个处理模块中,也可以是各个模块单独物理存在,也可以两个或两个以上模块集成在一个模块中。上述集成的模块既可以采用硬件的形式实现,也可以采用软件功能模块的形式实现。
所述集成的模块如果以软件功能模块的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储的介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,RandomAccess Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括是电载波信号和电信信号。
尽管本发明的描述已经相当详尽且特别对几个所述实施例进行了描述,但其并非旨在局限于任何这些细节或实施例或任何特殊实施例,而是应当将其视作是通过参考所附权利要求考虑到现有技术为这些权利要求提供广义的可能性解释,从而有效地涵盖本发明的预定范围。此外,上文以发明人可预见的实施例对本发明进行描述,其目的是为了提供有用的描述,而那些目前尚未预见的对本发明的非实质性改动仍可代表本发明的等效改动。
以上所述,只是本发明的较佳实施例而已,本发明并不局限于上述实施方式,只要其以相同的手段达到本发明的技术效果,都应属于本发明的保护范围。在本发明的保护范围内其技术方案和/或实施方式可以有各种不同的修改和变化。

Claims (7)

1.基于语音信息的VR游戏人物表情控制方法,其特征在于,包括以下:
步骤101、获取用户的测试请求信息,在取得用户的测试请求信息后,显示词条库列表供用户挑选其中的一条词条信息并提示用户进行朗读;
步骤102、获取用户的朗读时长T、用户朗读的音量B,并对用户朗读的词条进行语音识别;
步骤103、根据语音识别的结果结合朗读时长评判规则以及朗读音量评判规则得出用户的情感意向;
步骤104、根据得出的情感意向结果控制VR游戏人物做出相应的表情。
2.根据权利要求1所述的基于语音信息的VR游戏人物表情控制方法,其特征在于,上述步骤102中的对用户朗读的词条进行语音识别的操作具体包括以下:
步骤201、对用户朗读的语音信息进行预处理操作得到第一语音信息;
步骤202、对所述第一语音信息进行特征提取后进行语音识别。
3.根据权利要求2所述的基于语音信息的VR游戏人物表情控制方法,其特征在于,上述步骤201中的对用户朗读的词条进行预处理操作具体包括以下:
步骤301、对用户的语音信息进行预加重处理得到中间语音信息,所述预加重具体为如下关系式,
Bn=An-a*An-1,
其中Bn代表中间语音信息,An代表用户的语音信息,a为常数,a的取值范围为[0.90,1.00];
步骤302、对中间语音信息进行加窗处理得到第一语音信息,所述加窗具体为如下关系式,
Cn=Bn*W(n),
其中Cn代表第一语音信号,W(n)为窗函数,W(n)具体为
Figure FDA0002325954720000011
步骤303、通过短时能量的形式对第一语音信息进行端点检测区分清音段与浊音段。
4.根据权利要求3所述的基于语音信息的VR游戏人物表情控制方法,其特征在于,上述步骤202中的对第一语音信息进行特征提取的具体方式包括以下:
步骤401、将第一语音信息经过傅立叶变换得到每个语音帧的时域信号c(n);
步骤402、将时域信号c(n)进行末位补0的形式形成程度为N的序列,通过离散傅立叶变换得到该序列的线性频谱X(k),具体转换形式为:
Figure FDA0002325954720000021
步骤403、将线性频谱X(k)通过MEL频率滤波器组得到MEL频谱,对MEL频谱通过对数能量的处理得到对数频谱Q(m),
其中MEL频率滤波器组包括不少于2个带通滤波器,每个带通滤波器的传递函数为:
Figure FDA0002325954720000022
其中0≤m≤M,M为滤波器的个数,而
Figure FDA0002325954720000023
当中的fh以及fl分别表示滤波器的频率的最高应用以及最低应用的情况,Fs为采样频率,N为进行离散傅立叶变换的窗函数的窗宽,而
Figure FDA0002325954720000024
x表示自变量;
相应的,
Figure FDA0002325954720000025
步骤404、将对数频谱Q(m)经过离散余弦变换得到MFCC系数d(n)为:
Figure FDA0002325954720000026
5.根据权利要求1所述的基于语音信息的VR游戏人物表情控制方法,其特征在于,上述步骤103中的情感意向的得出具体包括以下:
步骤501、根据语音识别的结果结合语句预置分数得到第一分数;
步骤502、根据用户的朗读时长T,划分时长得分段,判断用户的朗读时长T落在对应得分段的区间得到第二分数;
步骤503、根据用户的朗读音量B,划分音量得分段,判断用户的朗读音量落在对应得分段的区间得到第三分数;
步骤504、计算第一分数、第二分数以及第三分数的总和,划分总和得分段,每一个得分段对应一种情感状态,判断用户的得分总和所属的得分段得到用户的情感意向。
6.根据权利要求5所述的基于语音信息的VR游戏人物表情控制方法,其特征在于,上述步骤501中的语句预置分数通过以下方法得到:
在收录相关语句时,根据语句的语意评估得到语句的预置分数,并与所述语句共同形成数据库表格,当语音识别得到语句时,通过查表的方式得到该语句的预置分数。
7.一种计算机可读存储的介质,所述计算机可读存储的介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1-6中任一项所述方法的步骤。
CN201911316446.4A 2019-12-19 2019-12-19 基于语音信息的vr游戏人物表情控制方法及存储介质 Pending CN111091810A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911316446.4A CN111091810A (zh) 2019-12-19 2019-12-19 基于语音信息的vr游戏人物表情控制方法及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911316446.4A CN111091810A (zh) 2019-12-19 2019-12-19 基于语音信息的vr游戏人物表情控制方法及存储介质

Publications (1)

Publication Number Publication Date
CN111091810A true CN111091810A (zh) 2020-05-01

Family

ID=70396006

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911316446.4A Pending CN111091810A (zh) 2019-12-19 2019-12-19 基于语音信息的vr游戏人物表情控制方法及存储介质

Country Status (1)

Country Link
CN (1) CN111091810A (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112807687A (zh) * 2021-02-08 2021-05-18 网易(杭州)网络有限公司 禁言处理方法、装置、非易失性存储介质及电子装置
TWI790705B (zh) * 2021-08-06 2023-01-21 宏正自動科技股份有限公司 語速調整方法及其系統

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007098560A1 (en) * 2006-03-03 2007-09-07 The University Of Southern Queensland An emotion recognition system and method
CN104102627A (zh) * 2014-07-11 2014-10-15 合肥工业大学 一种多模态的非接触情感分析记录系统
CN106710590A (zh) * 2017-02-24 2017-05-24 广州幻境科技有限公司 基于虚拟现实环境的具有情感功能的语音交互系统及方法
CN107392783A (zh) * 2017-07-05 2017-11-24 龚少卓 基于虚拟现实的社交方法及装置
CN107464566A (zh) * 2017-09-21 2017-12-12 百度在线网络技术(北京)有限公司 语音识别方法和装置
WO2018006365A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 基于人工智能的虚拟游戏操作平台和方法
CN108305642A (zh) * 2017-06-30 2018-07-20 腾讯科技(深圳)有限公司 情感信息的确定方法和装置
CN108305643A (zh) * 2017-06-30 2018-07-20 腾讯科技(深圳)有限公司 情感信息的确定方法和装置
CN108304072A (zh) * 2018-02-09 2018-07-20 北京北行科技有限公司 一种vr虚拟世界角色表情植入装置以及植入方法
CN108615524A (zh) * 2018-05-14 2018-10-02 平安科技(深圳)有限公司 一种语音合成方法、系统及终端设备
CN109445573A (zh) * 2018-09-14 2019-03-08 重庆爱奇艺智能科技有限公司 一种用于虚拟化身形象互动的方法与装置
CN109902287A (zh) * 2019-01-10 2019-06-18 上海言通网络科技有限公司 电话机器人语义理解方法及其系统
CN110070879A (zh) * 2019-05-13 2019-07-30 吴小军 一种基于变声技术制作智能表情及声感游戏的方法
CN110347822A (zh) * 2019-06-03 2019-10-18 佛山科学技术学院 一种评论文本的情感倾向分析方法及装置

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007098560A1 (en) * 2006-03-03 2007-09-07 The University Of Southern Queensland An emotion recognition system and method
CN104102627A (zh) * 2014-07-11 2014-10-15 合肥工业大学 一种多模态的非接触情感分析记录系统
WO2018006365A1 (zh) * 2016-07-07 2018-01-11 深圳狗尾草智能科技有限公司 基于人工智能的虚拟游戏操作平台和方法
CN106710590A (zh) * 2017-02-24 2017-05-24 广州幻境科技有限公司 基于虚拟现实环境的具有情感功能的语音交互系统及方法
CN108305642A (zh) * 2017-06-30 2018-07-20 腾讯科技(深圳)有限公司 情感信息的确定方法和装置
CN108305643A (zh) * 2017-06-30 2018-07-20 腾讯科技(深圳)有限公司 情感信息的确定方法和装置
CN107392783A (zh) * 2017-07-05 2017-11-24 龚少卓 基于虚拟现实的社交方法及装置
CN107464566A (zh) * 2017-09-21 2017-12-12 百度在线网络技术(北京)有限公司 语音识别方法和装置
CN108304072A (zh) * 2018-02-09 2018-07-20 北京北行科技有限公司 一种vr虚拟世界角色表情植入装置以及植入方法
CN108615524A (zh) * 2018-05-14 2018-10-02 平安科技(深圳)有限公司 一种语音合成方法、系统及终端设备
CN109445573A (zh) * 2018-09-14 2019-03-08 重庆爱奇艺智能科技有限公司 一种用于虚拟化身形象互动的方法与装置
CN109902287A (zh) * 2019-01-10 2019-06-18 上海言通网络科技有限公司 电话机器人语义理解方法及其系统
CN110070879A (zh) * 2019-05-13 2019-07-30 吴小军 一种基于变声技术制作智能表情及声感游戏的方法
CN110347822A (zh) * 2019-06-03 2019-10-18 佛山科学技术学院 一种评论文本的情感倾向分析方法及装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
俞一彪: "《基于互信息理论的说话人识别研究》", 31 December 2004, 上海大学出版社 *
王炳锡 等: "《实用语音识别基础》", 31 January 2005, 国防工业出版社 *
蒋刚 等: "《工业机器人》", 31 January 2011, 西南交通大学出版社 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112807687A (zh) * 2021-02-08 2021-05-18 网易(杭州)网络有限公司 禁言处理方法、装置、非易失性存储介质及电子装置
CN112807687B (zh) * 2021-02-08 2024-02-23 网易(杭州)网络有限公司 禁言处理方法、装置、非易失性存储介质及电子装置
TWI790705B (zh) * 2021-08-06 2023-01-21 宏正自動科技股份有限公司 語速調整方法及其系統

Similar Documents

Publication Publication Date Title
CN105938716B (zh) 一种基于多精度拟合的样本复制语音自动检测方法
Vestman et al. Voice mimicry attacks assisted by automatic speaker verification
Hu et al. Separation of singing voice using nonnegative matrix partial co-factorization for singer identification
US6990446B1 (en) Method and apparatus using spectral addition for speaker recognition
Jiao et al. Convex weighting criteria for speaking rate estimation
Besbes et al. Multi-class SVM for stressed speech recognition
CN111091810A (zh) 基于语音信息的vr游戏人物表情控制方法及存储介质
Kelly et al. Evaluation of VOCALISE under conditions reflecting those of a real forensic voice comparison case (forensic_eval_01)
Pao et al. Combining acoustic features for improved emotion recognition in mandarin speech
Seppänen et al. Prosody-based classification of emotions in spoken finnish.
Dall et al. Analysis of speaker clustering strategies for HMM-based speech synthesis
CN105283916B (zh) 电子水印嵌入装置、电子水印嵌入方法及计算机可读记录介质
Chadha et al. Optimal feature extraction and selection techniques for speech processing: A review
CN113782032A (zh) 一种声纹识别方法及相关装置
CN114125506B (zh) 语音审核方法及装置
CN105895079A (zh) 语音数据的处理方法和装置
Khanna et al. Application of vector quantization in emotion recognition from human speech
Safavi et al. Comparison of speaker verification performance for adult and child speech
JP6314884B2 (ja) 音読評価装置、音読評価方法、及びプログラム
US6823305B2 (en) Apparatus and method for speaker normalization based on biometrics
US10706867B1 (en) Global frequency-warping transformation estimation for voice timbre approximation
Sarria-Paja et al. Strategies to enhance whispered speech speaker verification: A comparative analysis
CN111477248B (zh) 一种音频噪声检测方法及装置
Benatan et al. Cross-covariance-based features for speech classification in film audio
US7454337B1 (en) Method of modeling single data class from multi-class data

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination