CN109885713A - 基于语音情绪识别的表情图像推荐方法以及装置 - Google Patents
基于语音情绪识别的表情图像推荐方法以及装置 Download PDFInfo
- Publication number
- CN109885713A CN109885713A CN201910005338.9A CN201910005338A CN109885713A CN 109885713 A CN109885713 A CN 109885713A CN 201910005338 A CN201910005338 A CN 201910005338A CN 109885713 A CN109885713 A CN 109885713A
- Authority
- CN
- China
- Prior art keywords
- facial expression
- mood
- voice messaging
- expression image
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
本发明是关于一种基于语音情绪识别的表情图像推荐方法、装置、电子设备以及存储介质。所述方法包括:获取即时通信软件的当前交互窗口中的最新若干条语音信息,并提取所述语音信息的音频特征向量;将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,其中所述多个情绪特征模型分别对应多个情绪分类之一;将匹配结果为相匹配的所述情绪特征模型所对应的情绪分类,作为所述语音信息的情绪分类;基于所述语音信息的情绪分类确定一个或多个目标表情图像,并将所述目标表情图像推荐给当前用户。本发明提高了选择表情图像的效率。
Description
技术领域
本发明涉及语音识别技术领域,具体而言,涉及一种基于语音情绪识别的表情图像推荐方法、装置、电子设备以及计算机可读存储介质。
背景技术
目前各种社交软件逐步普及,且移动设备的使用率更高,因为其功能多、使用方便、费率低、个性化等特点,通过社交软件聊天沟通甚至已经逐步取代了部分电话、短信的沟通方式。其中在社交软件聊天时,聊天表情的使用是不可或缺的一部分功能,聊天表情是社交软件个性化沟通的一种体现方式,设计、制作聊天表情也已经成为一种职业和商业。
为了推广聊天表情及增加沟通的乐趣,有些社交软件在聊天时,通过针对用户输入的聊天内容进行触发表情,当用户输入的文字内容能够与系统库中表情进行匹配时,便在聊天界面进行提示,然后用户可以选择表情进行发送。但目前有使用这种推荐方式的社交系统比较少,且是采取精确匹配的方式,有一个字匹配不到表情就不会提示。
在相关技术中,围绕表情图像推荐这个主题的方案都是对用户输入的文本内容进行分析,并根据分析结果进行表情推荐。但一方面,由于文字本身承载感情的能力有限,而且多数用户的并不具备非常专业的文字表达能力,因此输入的文本内容经常难以承载其当时的情感信息;这样,基于文本内容分析而向用户推荐的表情经常与用户想要表达的感谢不符;另一方面,在用户刚开始一个新的聊天时,由于上下文信息较少,这样则很难准确的基于文本内容进行表情推荐。
因此,需要提供一种更加有效的表情图像推荐方法,以至少能够解决上述一个或多个技术问题。
需要说明的是,在上述背景技术部分公开的信息仅用于加强对本发明的背景的理解,因此可以包括不构成对本领域普通技术人员已知的现有技术的信息。
发明内容
本发明的目的在于提供一种基于语音情绪识别的表情图像推荐方法、装置、电子设备以及计算机可读存储介质,进而至少在一定程度上克服由于相关技术的限制和缺陷而导致的一个或者多个问题。
根据本发明的一个方面,提供一种基于语音情绪识别的表情图像推荐方法,包括:
获取即时通信软件的当前交互窗口中的最新若干条语音信息,并提取所述语音信息的音频特征向量;
将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,其中所述多个情绪特征模型分别对应多个情绪分类之一;
将匹配结果为相匹配的所述情绪特征模型所对应的情绪分类,作为所述语音信息的情绪分类;
基于所述语音信息的情绪分类确定一个或多个目标表情图像,并将所述目标表情图像推荐给当前用户。
在本发明的一种示例性实施例中,所述音频特征向量包括:能量特征向量、发音帧数特征向量、基音频率特征向量、共振峰特征向量、谐波噪声比特征向量以及梅尔倒谱系数特征向量中的一种或多种。
在本发明的一种示例性实施例中,所述方法还包括:
获取多条被预先标记好情绪分类标签的语音信息作为样本语音信息;
基于所述样本语音信息对初始情绪特征模型进行训练,得到所述情绪特征模型。
在本发明的一种示例性实施例中,基于所述样本语音信息对初始情绪特征模型进行训练包括:
根据情绪分类标签,对各所述样本语音信息进行聚类处理,得到预设情绪分类的聚类结果;以及
根据所述聚类结果以及所述初始情绪特征模型,将每个聚类中的所述的样本语音信息的特征向量训练为一个所述情绪特征模型。
在本发明的一种示例性实施例中,将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,包括:
分别计算所述语音信息的音频特征向量与所述各所述情绪特征模型之间的似然概率;
如果一所述情绪特征模型对应的似然概率最大且大于预设阈值,则认为该所述情绪特征模型与所述语音信息相匹配。
在本发明的一种示例性实施例中,所述基于所述语音信息的情绪分类确定一个或多个目标表情图像,包括:
预先对与所述当前用户关联的所有表情图像进行分析,以为各所述表情图像标记情绪分类标签;
如果一个或多个表情图像的情绪分类标签与所述语音信息的情绪分类相匹配,则将所述一个或多个表情图像均确认为目标表情图像。
在本发明的一种示例性实施例中,将所述目标表情图像推荐给当前用户,包括:
根据预设规则,从所述目标表情图像中选取一个或多个表情图像作为优先推荐表情图像;
直接向当前用户呈现所述优先推荐表情图像,以供所述当前用户选择;
在接收到控件展开操作时,向当前用户呈现所述优先推荐表情图像之外的目标表情,以供所述当前用户选择。
根据本发明的一个方面,提供一种基于语音情绪识别的表情推荐装置,所述装置包括:
特征向量提取模块,用于获取即时通信软件的当前交互窗口中的最新若干条语音信息,并提取所述语音信息的音频特征向量;
特征模型匹配模块,用于将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,其中所述多个情绪特征模型分别对应多个情绪分类之一;
情绪分类确定模块,用于将匹配结果为相匹配的所述情绪特征模型所对应的情绪分类,作为所述语音信息的情绪分类;
目标表情推荐模块,用于基于所述语音信息的情绪分类确定一个或多个目标表情图像,并将所述目标表情图像推荐给当前用户。
在本发明的一个方面,提供一种电子设备,包括:
处理器;以及
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现根据上述任意一项所述的方法。
在本发明的一个方面,提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现根据上述任意一项所述的方法。
本发明的示例性实施例中的基于语音情绪识别的表情图像推荐方法,首先提取用户最近的语音信息的音频特征向量,并基于音频特征向量确定语音信息的情绪分类,其次基于语音信息的情绪分类确定一个或多个目标表情图像,并将目标表情图像推荐给当前用户。一方面,解决了解决了相关技术中从庞大的系统表情库找到与目前情绪较为匹配的表情工作量较大且需要耗费较长时间的问题。另一方面,当前用户可以直接从推荐的表情图像中选取喜欢的表情图像,不需要在表情库中浏览大量的表情图像来进行选择,减少了选择表情图像花费的时间,提高了选择表情图像的效率。再一方面,相比于基于文本分析的情绪识别而言,基于语音信息的音频特征向量识别的情绪更加准确,因此推荐表情图像的准确性也可以相应的得到提高。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本发明。
附图说明
通过参照附图来详细描述其示例实施例,本发明的上述和其它特征及优点将变得更加明显。
图1示出了根据本发明一示例性实施例的基于语音情绪识别的表情图像推荐方法的流程图;
图2A以及图2B示出了根据本发明一示例性实施例的表情图像推荐方法的应用场景示意图;
图3示出了根据本发明一示例性实施例的基于语音情绪识别的表情推荐装置的示意框图;
图4示意性示出了根据本发明一示例性实施例的电子设备的框图;以及
图5示意性示出了根据本发明一示例性实施例的计算机可读存储介质的示意图。
具体实施方式
现在将参考附图更全面地描述示例实施例。然而,示例实施例能够以多种形式实施,且不应被理解为限于在此阐述的实施例;相反,提供这些实施例使得本发明将全面和完整,并将示例实施例的构思全面地传达给本领域的技术人员。在图中相同的附图标记表示相同或类似的部分,因而将省略对它们的重复描述。
此外,所描述的特征、结构或特性可以以任何合适的方式结合在一个或更多实施例中。在下面的描述中,提供许多具体细节从而给出对本发明的实施例的充分理解。然而,本领域技术人员将意识到,可以实践本发明的技术方案而没有所述特定细节中的一个或更多,或者可以采用其它的方法、组元、材料、装置、步骤等。在其它情况下,不详细示出或描述公知结构、方法、装置、实现、材料或者操作以避免模糊本发明的各方面。
附图中所示的方框图仅仅是功能实体,不一定必须与物理上独立的实体相对应。即,可以采用软件形式来实现这些功能实体,或在一个或多个软件硬化的模块中实现这些功能实体或功能实体的一部分,或在不同网络和/或处理器装置和/或微控制器装置中实现这些功能实体。
在本示例实施例中,首先提供了一种基于语音情绪识别的表情图像推荐方法,可以应用于计算机或者移动终端等电子设备;参考图1中所示,该基于语音情绪识别的表情图像推荐方法可以包括以下步骤:
步骤S110、获取即时通信软件的当前交互窗口中的最新若干条语音信息,并提取所述语音信息的音频特征向量;
步骤S120、将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,其中所述多个情绪特征模型分别对应多个情绪分类之一;
步骤S130、将匹配结果为相匹配的所述情绪特征模型所对应的情绪分类,作为所述语音信息的情绪分类;
步骤S140、基于所述语音信息的情绪分类确定一个或多个目标表情图像,并将所述目标表情图像推荐给当前用户。
根据本示例实施例中的基于语音情绪识别的表情图像推荐方法,一方面,解决了解决了相关技术中从庞大的系统表情库找到与目前情绪较为匹配的表情工作量较大且需要耗费较长时间的问题。另一方面,当前用户可以直接从推荐的表情图像中选取喜欢的表情图像,不需要在表情库中浏览大量的表情图像来进行选择,减少了选择表情图像花费的时间,提高了选择表情图像的效率。再一方面,相比于基于文本分析的情绪识别而言,基于语音信息的音频特征向量识别的情绪更加准确,因此推荐表情图像的准确性也可以相应的得到提高。
下面,将对本示例实施例中的基于语音情绪识别的表情图像推荐方法进行进一步的说明。
在步骤S110中,获取即时通信软件的当前交互窗口中的最新若干条语音信息,并提取所述语音信息的音频特征向量。
本示例实施方式中,所述即时通信软件可以包括如Twitter、Facebook、微信、QQ等知名即时通信软件,所述交互窗口即当前聊天窗口。本示例实施方式中,所述若干指代一个或多个;即可以获取用户在当前交互窗口中,发出的最后一条语音信息或者最后多条语音信息。在本发明的其他示例性实施例中,也可以通过获取最近一个观察周期内,用户在当前交互窗口中发出的语音信息;例如,在最近1分钟内发出的所有语音信息等。
本示例实施方式中,音频特征向量可以包括至少一个音频特征,音频特征向量的每个分量对应一个音频特征的一种计算表征方式。通常而言,包括了不同情绪的语音信息必然有着不同的音频特征,因此可以利用不同情绪与不同音频特征之间的对应关系来识别语音信息蕴含的情绪。
具体而言,本示例实施方式中所述音频特征向量可包括以下几种音频特征中的一种或多种:能量特征、发音帧数特征、基音频率特征、共振峰特征、谐波噪声比特征以及梅尔倒谱系数特征。这些音频特征可通过以下计算表征方式中的一种或多种来表征:比例值、均值、最大值、中值以及标准差。此外,具体提取哪些音频特征向量可根据实际场景的需求而定,本示例实施方式中对所提取音频特征向量所对应音频特征的种类、数量以及向量方向均不做限定。
在步骤S120中,将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,其中所述多个情绪特征模型分别对应多个情绪分类之一。本示例实施方式中,所述情绪特征模型与情绪分类之间存在对应关系,每个情绪特征模型可对应一个情绪分类。本示例实施方式中,可以通过步骤S121以及步骤S122得到所述多个情绪特征模型。举例而言:
在步骤S121中,获取多条被预先标记好情绪分类标签的语音信息作为样本语音信息。
本示例实施方式中,可以预先获取大量的语音信息,再通过人工标注等方式对每段语音信息进行标记,例如,标记各语音信息的情绪分类属于开心分类、愤怒分类、惊讶分类、厌恶分类、恐惧分类、欢呼分类、悲伤分类、尴尬分类、感动分类等;这些情绪分类的种类和数量可根据实际的应用场景需求而调整,本发明对情绪分类的种类和数量同样不做严格限定。这样,则可以获取大量的样本语音信息。但本领域技术人员容易理解的是,也可以通过其他方式获取样本语音信息;例如,通过一定的规则自动生成各中情绪分类的语音信息作为样本语音信息等,本示例性实施例中对此不做特殊限定。
在本发明的其他示例性实施例中,也可以预先获取大量的语音信息,并获取语音信息的上述音频特征向量,再基于这些语音信息的对应音频特征向量,通过有监督的方式进行聚类处理,从而得到多个聚类结果。在得到多个聚类结果后,可以通过人工标注等方式对每个聚类结果的语音信息进行标记,得到样本语音信息;这同样属于本发明的保护范围。
在步骤S122中,基于所述样本语音信息对初始情绪特征模型进行训练,得到所述情绪特征模型。
本示例实施方式中,可以首先根据情绪分类标签,对各所述样本语音信息进行聚类处理,得到预设情绪分类的聚类结果。当然,如果样本语音信息本身就是通过聚类处理得到的,则可以省略该步骤。本示例实施方式中,根据需求可以选择不同的聚类方法并训练对应的聚类参数;举例而言,所述聚类方式可以为K-Means聚类方法、均值漂移聚类方法、基于密度的聚类方法或者图团体检测聚类方法等,且本示例性实施例中并不以此为限。
接着,可以根据所述聚类结果以及所述初始情绪特征模型,将每个聚类中的所述的样本语音信息的特征向量训练为一个所述情绪特征模型。以初始情绪特征模型为混合高斯模型(GMM)为例,可以首先根据聚类结果计算出混合高斯模型的参数的初始值。然后再采用最大期望(E-M)算法训练出各类情绪分类对应的混合高斯模型。应当理解,虽然在上面的描述中阐述了情绪特征模型可为混合高斯模型,但该情绪特征模型也可以通过其他形式实现,例如支持向量机(SVM)模型、K最近邻分类算法(KNN)模型、隐马尔科夫模型(HMM)以及深度神经网络(DNN)模型等,本示例性实施例中对此不做特殊限定。
在步骤S130中,将匹配结果为相匹配的所述情绪特征模型所对应的情绪分类,作为所述语音信息的情绪分类。
仍以上述混合高斯模型为例,在得到混合高斯模型形式的情绪特征模型之后,可以将语音信息的音频特征向量分别代入情绪特征模型,计算得到所述语音信息的音频特征向量与所述各所述情绪特征模型之间的似然概率。接着,对计算得到的各似然概率按照大小顺序进行排队,得到数值最大的似然概率;如果数值最大的似然概率大于预设阈值,则可以认为数值最大的似然概率对应的情绪特征模型与所述语音信息相匹配。相反,如果数值最大的似然概率小于预设阈值,则可以认为无法分析出与所述语音信息的相匹配的情绪特征模型。所述预设阈值可以根据具体需求而设定,本示例性实施例中对此不做特殊限定。此外,在本发明的其他示例性实施例中,也可以根据其他方式计算与所述语音信息的音频特征向量相互匹配的情绪特征模型,这同样属于本发明的保护范围。
在计算与所述语音信息的音频特征向量相互匹配的情绪特征模型之后,则可以以匹配的情绪特征模型所对应的情绪分类作为所述语音信息的情绪分类。例如,所述情绪分类可以包括开心分类、愤怒分类、惊讶分类、厌恶分类、恐惧分类、欢呼分类、悲伤分类、尴尬分类、感动分类等。
在步骤S140中,基于所述语音信息的情绪分类确定一个或多个目标表情图像,并将所述目标表情图像推荐给当前用户。
本示例实施方式中,与当前用户关联的表情图像可以包括用户使用的即时通信应用程序自带的表情图像,也可以包括用户从服务器下载的表情图像。在获取与当前用户关联的表情图像之后,可以预先对与所述当前用户关联的所有表情图像进行分析,以为各所述表情图像标记情绪分类标签。例如,存储的情绪分类标签与表情图像之间的对应关系如下述表1所示:
表1
情绪分类标签 | 表情图像编号 |
开心 | ID1、ID5、ID9、ID703 |
愤怒 | ID3、ID10、ID90 |
惊讶 | ID6、ID20、ID300 |
… | … |
这样,如果一个或多个表情图像的情绪分类标签与所述语音信息的情绪分类相匹配,则将所述一个或多个表情图像均确认为目标表情图像。例如,如果所述语音信息的情绪分类为“惊讶”,则可以将图像编号为ID6、ID20、ID300的表情图像作为目标表情图像。
进一步的,由于目标表情图像的数量可能不止一个,为了合理的向用户推荐目标表情图像,本示例实施方式中可以首先根据预设规则,从所述目标表情图像中选取一个或多个表情图像作为优先推荐表情图像。举例而言,本示例实施方式中可以从目标图像中筛选出当前用户使用频率最高的一个或多个表情图像作为优先推荐表情图像。又举例而言,也可以是从目标图像中筛选出推出时间最短的一个或多个表情图像作为优先推荐表情图像。再举例而言,还可以是从目标图像中筛选出用户最近使用过的一个或多个表情图像作为优先推荐表情图像等等。
参考图2A所示,对于筛选出的优先推荐表情图像,可以直接向当前用户呈现,以供所述当前用户选择。例如,筛选出的优先推荐表情图像为表情图像201和表情图像202,则可以将表情图像201和表情图像202呈现在即时通信软件的当前交互窗口的输入栏的上方,以供所述当前用户选择等等。参考图2B所示,在接收到对于控件200的展开操作时,则可以向当前用户呈现所述优先推荐表情图像之外的目标表情203~目标表情222,以供所述当前用户选择。这样,则可以进一步方便用户的操作。当然,在本发明的其他示例性实施例中,也可以通过其他方式将目标表情推荐给用户,本示例性实施例中对此不做特殊限定。
需要说明的是,尽管在附图中以特定顺序描述了本发明中方法的各个步骤,但是,这并非要求或者暗示必须按照该特定顺序来执行这些步骤,或是必须执行全部所示的步骤才能实现期望的结果。附加的或备选的,可以省略某些步骤,将多个步骤合并为一个步骤执行,以及/或者将一个步骤分解为多个步骤执行等。
此外,在本示例实施例中,还提供了一种基于语音情绪识别的表情推荐装置。参照图3所示,该基于语音情绪识别的表情推荐装置300可以包括:特征向量提取模块310、特征模型匹配模块320、情绪分类确定模块330以及目标表情推荐模块340。其中:
特征向量提取模块310可以用于获取即时通信软件的当前交互窗口中的最新若干条语音信息,并提取所述语音信息的音频特征向量;
特征模型匹配模块320可以用于将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,其中所述多个情绪特征模型分别对应多个情绪分类之一;
情绪分类确定模块330可以用于将匹配结果为相匹配的所述情绪特征模型所对应的情绪分类,作为所述语音信息的情绪分类;
目标表情推荐模块340可以用于基于所述语音信息的情绪分类确定一个或多个目标表情图像,并将所述目标表情图像推荐给当前用户。
上述中各基于语音情绪识别的表情推荐装置模块的具体细节已经在对应的音频段落识别方法中进行了详细的描述,因此此处不再赘述。
应当注意,尽管在上文详细描述中提及了基于语音情绪识别的表情推荐装置400的若干模块或者单元,但是这种划分并非强制性的。实际上,根据本发明的实施方式,上文描述的两个或更多模块或者单元的特征和功能可以在一个模块或者单元中具体化。反之,上文描述的一个模块或者单元的特征和功能可以进一步划分为由多个模块或者单元来具体化。
此外,在本发明的示例性实施例中,还提供了一种能够实现上述方法的电子设备。
所属技术领域的技术人员能够理解,本发明的各个方面可以实现为系统、方法或程序产品。因此,本发明的各个方面可以具体实现为以下形式,即:完全的硬件实施例、完全的软件实施例(包括固件、微代码等),或硬件和软件方面结合的实施例,这里可以统称为“电路”、“模块”或“系统”。
下面参照图4来描述根据本发明的这种实施例的电子设备400。图4显示的电子设备400仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图4所示,电子设备400以通用计算设备的形式表现。电子设备400的组件可以包括但不限于:上述至少一个处理单元410、上述至少一个存储单元420、连接不同系统组件(包括存储单元420和处理单元410)的总线430、显示单元440。
其中,所述存储单元存储有程序代码,所述程序代码可以被所述处理单元410执行,使得所述处理单元410执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的步骤。例如,所述处理单元410可以执行如图1中所示的步骤S110至步骤S140。
存储单元420可以包括易失性存储单元形式的可读介质,例如随机存取存储单元(RAM)4201和/或高速缓存存储单元4202,还可以进一步包括只读存储单元(ROM)4203。
存储单元420还可以包括具有一组(至少一个)程序模块4205的程序/实用工具4204,这样的程序模块4204包括但不限于:操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。
总线430可以为表示几类总线结构中的一种或多种,包括存储单元总线或者存储单元控制器、外围总线、图形加速端口、处理单元或者使用多种总线结构中的任意总线结构的局域总线。
电子设备400也可以与一个或多个外部设备470(例如键盘、指向设备、蓝牙设备等)通信,还可与一个或者多个使得用户能与该电子设备400交互的设备通信,和/或与使得该电子设备400能与一个或多个其它计算设备进行通信的任何设备(例如路由器、调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口450进行。并且,电子设备400还可以通过网络适配器460与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器460通过总线430与电子设备400的其它模块通信。应当明白,尽管图中未示出,可以结合电子设备400使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
通过以上的实施例的描述,本领域的技术人员易于理解,这里描述的示例实施例可以通过软件实现,也可以通过软件结合必要的硬件的方式来实现。因此,根据本发明实施例的技术方案可以以软件产品的形式体现出来,该软件产品可以存储在一个非易失性存储介质(可以是CD-ROM,U盘,移动硬盘等)中或网络上,包括若干指令以使得一台计算设备(可以是个人计算机、服务器、终端装置、或者网络设备等)执行根据本发明实施例的方法。
在本发明的示例性实施例中,还提供了一种计算机可读存储介质,其上存储有能够实现本说明书上述方法的程序产品。在一些可能的实施例中,本发明的各个方面还可以实现为一种程序产品的形式,其包括程序代码,当所述程序产品在终端设备上运行时,所述程序代码用于使所述终端设备执行本说明书上述“示例性方法”部分中描述的根据本发明各种示例性实施例的步骤。
参考图5所示,描述了根据本发明的实施例的用于实现上述方法的程序产品500,其可以采用便携式紧凑盘只读存储器(CD-ROM)并包括程序代码,并可以在终端设备,例如个人电脑上运行。然而,本发明的程序产品不限于此,在本文件中,可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
所述程序产品可以采用一个或多个可读介质的任意组合。可读介质可以是可读信号介质或者可读存储介质。可读存储介质例如可以为但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了可读程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。可读信号介质还可以是可读存储介质以外的任何可读介质,该可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于无线、有线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言的任意组合来编写用于执行本发明操作的程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、C++等,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算设备上执行、部分地在用户设备上执行、作为一个独立的软件包执行、部分在用户计算设备上部分在远程计算设备上执行、或者完全在远程计算设备或服务器上执行。在涉及远程计算设备的情形中,远程计算设备可以通过任意种类的网络,包括局域网(LAN)或广域网(WAN),连接到用户计算设备,或者,可以连接到外部计算设备(例如利用因特网服务提供商来通过因特网连接)。
此外,上述附图仅是根据本发明示例性实施例的方法所包括的处理的示意性说明,而不是限制目的。易于理解,上述附图所示的处理并不表明或限制这些处理的时间顺序。另外,也易于理解,这些处理可以是例如在多个模块中同步或异步执行的。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本发明的其他实施例。本申请旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本发明的真正范围和精神由权利要求指出。
应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本发明的范围仅由所附的权利要求来限。
Claims (10)
1.一种基于语音情绪识别的表情图像推荐方法,其特征在于,包括:
获取即时通信软件的当前交互窗口中的最新若干条语音信息,并提取所述语音信息的音频特征向量;
将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,其中所述多个情绪特征模型分别对应多个情绪分类之一;
将匹配结果为相匹配的所述情绪特征模型所对应的情绪分类,作为所述语音信息的情绪分类;
基于所述语音信息的情绪分类确定一个或多个目标表情图像,并将所述目标表情图像推荐给当前用户。
2.根据权利要求1所述的表情图像推荐方法,其特征在于,所述音频特征向量包括:能量特征向量、发音帧数特征向量、基音频率特征向量、共振峰特征向量、谐波噪声比特征向量以及梅尔倒谱系数特征向量中的一种或多种。
3.根据权利要求1所述的表情图像推荐方法,其特征在于,所述方法还包括:
获取多条被预先标记好情绪分类标签的语音信息作为样本语音信息;
基于所述样本语音信息对初始情绪特征模型进行训练,得到所述情绪特征模型。
4.根据权利要求3所述的表情图像推荐方法,其特征在于,基于所述样本语音信息对初始情绪特征模型进行训练包括:
根据情绪分类标签,对各所述样本语音信息进行聚类处理,得到预设情绪分类的聚类结果;以及
根据所述聚类结果以及所述初始情绪特征模型,将每个聚类中的所述的样本语音信息的特征向量训练为一个所述情绪特征模型。
5.根据权利要求1所述的表情图像推荐方法,其特征在于,将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,包括:
分别计算所述语音信息的音频特征向量与所述各所述情绪特征模型之间的似然概率;
如果一所述情绪特征模型对应的似然概率最大且大于预设阈值,则认为该所述情绪特征模型与所述语音信息相匹配。
6.根据权利要求1所述的基于语音情绪识别的表情图像推荐方法,其特征在于,所述基于所述语音信息的情绪分类确定一个或多个目标表情图像,包括:
预先对与所述当前用户关联的所有表情图像进行分析,以为各所述表情图像标记情绪分类标签;
如果一个或多个表情图像的情绪分类标签与所述语音信息的情绪分类相匹配,则将所述一个或多个表情图像均确认为目标表情图像。
7.根据权利要求1所述的基于语音情绪识别的表情图像推荐方法,其特征在于,将所述目标表情图像推荐给当前用户,包括:
根据预设规则,从所述目标表情图像中选取一个或多个表情图像作为优先推荐表情图像;
直接向当前用户呈现所述优先推荐表情图像,以供所述当前用户选择;
在接收到控件展开操作时,向当前用户呈现所述优先推荐表情图像之外的目标表情,以供所述当前用户选择。
8.一种基于语音情绪识别的表情推荐装置,其特征在于,所述装置包括:
特征向量提取模块,用于获取即时通信软件的当前交互窗口中的最新若干条语音信息,并提取所述语音信息的音频特征向量;
特征模型匹配模块,用于将所述语音信息的音频特征向量与多个情绪特征模型进行匹配,其中所述多个情绪特征模型分别对应多个情绪分类之一;
情绪分类确定模块,用于将匹配结果为相匹配的所述情绪特征模型所对应的情绪分类,作为所述语音信息的情绪分类;
目标表情推荐模块,用于基于所述语音信息的情绪分类确定一个或多个目标表情图像,并将所述目标表情图像推荐给当前用户。
9.一种电子设备,其特征在于,包括:
处理器;以及
存储器,所述存储器上存储有计算机可读指令,所述计算机可读指令被所述处理器执行时实现根据权利要求1至7中任一项所述的方法。
10.一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现根据权利要求1至7中任一项所述方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910005338.9A CN109885713A (zh) | 2019-01-03 | 2019-01-03 | 基于语音情绪识别的表情图像推荐方法以及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910005338.9A CN109885713A (zh) | 2019-01-03 | 2019-01-03 | 基于语音情绪识别的表情图像推荐方法以及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN109885713A true CN109885713A (zh) | 2019-06-14 |
Family
ID=66925600
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910005338.9A Withdrawn CN109885713A (zh) | 2019-01-03 | 2019-01-03 | 基于语音情绪识别的表情图像推荐方法以及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109885713A (zh) |
Cited By (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110334658A (zh) * | 2019-07-08 | 2019-10-15 | 腾讯科技(深圳)有限公司 | 信息推荐方法、装置、设备和存储介质 |
CN110379430A (zh) * | 2019-07-26 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 基于语音的动画显示方法、装置、计算机设备及存储介质 |
CN110442346A (zh) * | 2019-07-08 | 2019-11-12 | 中国科学院计算技术研究所 | 用于编译器代码检测的规则扩充方法 |
CN110830368A (zh) * | 2019-11-22 | 2020-02-21 | 维沃移动通信有限公司 | 即时通讯消息发送方法及电子设备 |
CN110943908A (zh) * | 2019-11-05 | 2020-03-31 | 上海盛付通电子支付服务有限公司 | 语音消息发送方法、电子设备及介质 |
CN111128190A (zh) * | 2019-12-31 | 2020-05-08 | 恒信东方文化股份有限公司 | 一种表情匹配的方法及系统 |
CN111354053A (zh) * | 2020-02-27 | 2020-06-30 | 北京华峰创业科技有限公司 | 生成卡通形象图标的方法、装置以及存储介质 |
CN111429946A (zh) * | 2020-03-03 | 2020-07-17 | 深圳壹账通智能科技有限公司 | 语音情绪识别方法、装置、介质及电子设备 |
CN111597378A (zh) * | 2020-04-20 | 2020-08-28 | 深圳市优必选科技股份有限公司 | 音乐播放方法、装置及机器人 |
CN112532507A (zh) * | 2019-09-17 | 2021-03-19 | 上海掌门科技有限公司 | 用于呈现表情图像、用于发送表情图像的方法和设备 |
CN112559897A (zh) * | 2021-02-23 | 2021-03-26 | 浙江口碑网络技术有限公司 | 匹配关系的识别方法、装置及设备 |
CN112650399A (zh) * | 2020-12-22 | 2021-04-13 | 科大讯飞股份有限公司 | 表情推荐方法及装置 |
CN112702260A (zh) * | 2020-12-23 | 2021-04-23 | 维沃移动通信(杭州)有限公司 | 图像发送方法、装置和电子设备 |
WO2021098607A1 (zh) * | 2019-11-22 | 2021-05-27 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种伴奏分类方法和装置 |
CN112906399A (zh) * | 2021-02-20 | 2021-06-04 | 北京百度网讯科技有限公司 | 确定情绪状态的方法、装置、设备和存储介质 |
CN112910761A (zh) * | 2021-01-29 | 2021-06-04 | 北京百度网讯科技有限公司 | 即时通讯方法、装置、设备、存储介质以及程序产品 |
CN113094578A (zh) * | 2021-03-16 | 2021-07-09 | 平安普惠企业管理有限公司 | 基于深度学习的内容推荐方法、装置、设备及存储介质 |
CN114115533A (zh) * | 2021-11-11 | 2022-03-01 | 北京萌特博智能机器人科技有限公司 | 智能交互方法和装置 |
CN114699777A (zh) * | 2022-04-13 | 2022-07-05 | 南京晓庄学院 | 一种玩具舞蹈机器人的控制方法和系统 |
CN114745349A (zh) * | 2021-01-08 | 2022-07-12 | 上海博泰悦臻网络技术服务有限公司 | 一种点评方法、电子设备及计算机可读存储介质 |
-
2019
- 2019-01-03 CN CN201910005338.9A patent/CN109885713A/zh not_active Withdrawn
Cited By (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110442346A (zh) * | 2019-07-08 | 2019-11-12 | 中国科学院计算技术研究所 | 用于编译器代码检测的规则扩充方法 |
CN110334658B (zh) * | 2019-07-08 | 2023-08-25 | 腾讯科技(深圳)有限公司 | 信息推荐方法、装置、设备和存储介质 |
CN110334658A (zh) * | 2019-07-08 | 2019-10-15 | 腾讯科技(深圳)有限公司 | 信息推荐方法、装置、设备和存储介质 |
CN110379430A (zh) * | 2019-07-26 | 2019-10-25 | 腾讯科技(深圳)有限公司 | 基于语音的动画显示方法、装置、计算机设备及存储介质 |
CN110379430B (zh) * | 2019-07-26 | 2023-09-22 | 腾讯科技(深圳)有限公司 | 基于语音的动画显示方法、装置、计算机设备及存储介质 |
CN112532507A (zh) * | 2019-09-17 | 2021-03-19 | 上海掌门科技有限公司 | 用于呈现表情图像、用于发送表情图像的方法和设备 |
CN110943908A (zh) * | 2019-11-05 | 2020-03-31 | 上海盛付通电子支付服务有限公司 | 语音消息发送方法、电子设备及介质 |
CN110830368A (zh) * | 2019-11-22 | 2020-02-21 | 维沃移动通信有限公司 | 即时通讯消息发送方法及电子设备 |
WO2021098607A1 (zh) * | 2019-11-22 | 2021-05-27 | 腾讯音乐娱乐科技(深圳)有限公司 | 一种伴奏分类方法和装置 |
CN111128190A (zh) * | 2019-12-31 | 2020-05-08 | 恒信东方文化股份有限公司 | 一种表情匹配的方法及系统 |
CN111354053A (zh) * | 2020-02-27 | 2020-06-30 | 北京华峰创业科技有限公司 | 生成卡通形象图标的方法、装置以及存储介质 |
CN111429946A (zh) * | 2020-03-03 | 2020-07-17 | 深圳壹账通智能科技有限公司 | 语音情绪识别方法、装置、介质及电子设备 |
CN111597378A (zh) * | 2020-04-20 | 2020-08-28 | 深圳市优必选科技股份有限公司 | 音乐播放方法、装置及机器人 |
CN112650399B (zh) * | 2020-12-22 | 2023-12-01 | 科大讯飞股份有限公司 | 表情推荐方法及装置 |
CN112650399A (zh) * | 2020-12-22 | 2021-04-13 | 科大讯飞股份有限公司 | 表情推荐方法及装置 |
CN112702260A (zh) * | 2020-12-23 | 2021-04-23 | 维沃移动通信(杭州)有限公司 | 图像发送方法、装置和电子设备 |
CN112702260B (zh) * | 2020-12-23 | 2022-08-05 | 维沃移动通信(杭州)有限公司 | 图像发送方法、装置和电子设备 |
CN114745349A (zh) * | 2021-01-08 | 2022-07-12 | 上海博泰悦臻网络技术服务有限公司 | 一种点评方法、电子设备及计算机可读存储介质 |
CN114745349B (zh) * | 2021-01-08 | 2023-12-26 | 上海博泰悦臻网络技术服务有限公司 | 一种点评方法、电子设备及计算机可读存储介质 |
CN112910761A (zh) * | 2021-01-29 | 2021-06-04 | 北京百度网讯科技有限公司 | 即时通讯方法、装置、设备、存储介质以及程序产品 |
CN112906399A (zh) * | 2021-02-20 | 2021-06-04 | 北京百度网讯科技有限公司 | 确定情绪状态的方法、装置、设备和存储介质 |
CN112906399B (zh) * | 2021-02-20 | 2023-11-10 | 北京百度网讯科技有限公司 | 确定情绪状态的方法、装置、设备和存储介质 |
CN112559897A (zh) * | 2021-02-23 | 2021-03-26 | 浙江口碑网络技术有限公司 | 匹配关系的识别方法、装置及设备 |
CN113094578A (zh) * | 2021-03-16 | 2021-07-09 | 平安普惠企业管理有限公司 | 基于深度学习的内容推荐方法、装置、设备及存储介质 |
CN113094578B (zh) * | 2021-03-16 | 2023-03-31 | 平安普惠企业管理有限公司 | 基于深度学习的内容推荐方法、装置、设备及存储介质 |
CN114115533A (zh) * | 2021-11-11 | 2022-03-01 | 北京萌特博智能机器人科技有限公司 | 智能交互方法和装置 |
CN114699777A (zh) * | 2022-04-13 | 2022-07-05 | 南京晓庄学院 | 一种玩具舞蹈机器人的控制方法和系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109885713A (zh) | 基于语音情绪识别的表情图像推荐方法以及装置 | |
US11302337B2 (en) | Voiceprint recognition method and apparatus | |
CN111279413B (zh) | 联合音频视频面部动画系统 | |
US10878807B2 (en) | System and method for implementing a vocal user interface by combining a speech to text system and a speech to intent system | |
CN109003624B (zh) | 情绪识别方法、装置、计算机设备及存储介质 | |
US20200074993A1 (en) | Electronic device, method for determining utterance intention of user thereof, and non-transitory computer-readable recording medium | |
EP3824462B1 (en) | Electronic apparatus for processing user utterance and controlling method thereof | |
US11562744B1 (en) | Stylizing text-to-speech (TTS) voice response for assistant systems | |
US20200135213A1 (en) | Electronic device and control method thereof | |
US11106870B2 (en) | Intelligent text enhancement in a computing environment | |
CN111081280B (zh) | 与文本无关的语音情感识别方法及装置、用于识别情感的算法模型的生成方法 | |
US11568853B2 (en) | Voice recognition method using artificial intelligence and apparatus thereof | |
CN107112005A (zh) | 深度神经支持向量机 | |
US20220148576A1 (en) | Electronic device and control method | |
CN109145213A (zh) | 基于历史信息的查询推荐方法及装置 | |
CN111656438A (zh) | 电子装置及其控制方法 | |
US11500660B2 (en) | Self-learning artificial intelligence voice response based on user behavior during interaction | |
CN114830139A (zh) | 使用模型提供的候选动作训练模型 | |
CN110147936A (zh) | 基于情绪识别的服务评价方法、装置、存储介质 | |
CN111950295A (zh) | 一种训练自然语言处理模型的方法和系统 | |
US11404050B2 (en) | Electronic apparatus and method for controlling thereof | |
KR20210043894A (ko) | 전자 장치 및 이의 문장 제공 방법 | |
CN107894882A (zh) | 一种移动终端的语音输入方法 | |
CN110069991A (zh) | 反馈信息确定方法、装置、电子设备及存储介质 | |
US20190163436A1 (en) | Electronic device and method for controlling the same |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20190614 |