CN107623830B - 一种视频通话方法及电子设备 - Google Patents

一种视频通话方法及电子设备 Download PDF

Info

Publication number
CN107623830B
CN107623830B CN201610559604.9A CN201610559604A CN107623830B CN 107623830 B CN107623830 B CN 107623830B CN 201610559604 A CN201610559604 A CN 201610559604A CN 107623830 B CN107623830 B CN 107623830B
Authority
CN
China
Prior art keywords
expression
voice messaging
image
mouth
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201610559604.9A
Other languages
English (en)
Other versions
CN107623830A (zh
Inventor
武俊敏
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiao Feng
Original Assignee
Zhang Ying Information Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhang Ying Information Technology (shanghai) Co Ltd filed Critical Zhang Ying Information Technology (shanghai) Co Ltd
Priority to CN201610559604.9A priority Critical patent/CN107623830B/zh
Publication of CN107623830A publication Critical patent/CN107623830A/zh
Application granted granted Critical
Publication of CN107623830B publication Critical patent/CN107623830B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明实施例提供了一种视频通话方法及电子设备。该方法包括:建立视频通话;获取图像;获取用户输入的语音信息;根据所述语音信息和图像,生成表情帧;以及向视频通话方发送所述语音信息和表情帧。相比于纯粹的视频通话,本发明实施例节省了网络带宽,并且更具有趣味性和视觉效果,从而提高用户体验。

Description

一种视频通话方法及电子设备
技术领域
本发明涉及通信领域,具体涉及一种视频通话方法及电子设备。
背景技术
随着互联网的发展,人们越来越多地使用视频来进行通信。但是,目前的视频通信比较耗费网络带宽,并且比较单调,缺少趣味性。
发明内容
本发明实施例提供了一种视频通话方法及电子设备,以便减少网络带宽消耗,增加趣味性,并且提高用户体验。
根据本发明的第一方面,提供了一种视频通话方法,该方法包括:
建立视频通话;
获取图像;
获取用户输入的语音信息;
根据所述语音信息和图像,生成表情帧;以及
向视频通话方发送所述语音信息和表情帧。
结合本发明的第一方面,在第一种可能的实现方式中,所述获取图像包括:
获取预设图像或者用户输入的图像。
结合本发明的第一方面,在第二种可能的实现方式中,所述语音信息的长度为预设帧率的倒数。
结合本发明的第一方面,在第三种可能的实现方式中,所述根据语音信息和图像,生成表情帧包括:
获取所述语音信息的特征;
根据所述语音信息的特征选取对应的嘴部表情;以及
根据所述语音信息对应的嘴部表情和所述图像生成所述表情帧。
结合本发明的第一方面的第三种可能的实现方式,在第四种可能的实现方式中,所述根据所述语音信息的特征选取对应的嘴部表情包括:
根据所述语音信息的特征与预设的模型,在预设的表情库中选择与所述特征对应的嘴部表情。
结合本发明的第一方面的第三种可能的实现方式,在第五种可能的实现方式中,所述根据所述语音信息的特征选取对应的嘴部表情包括:
根据所述语音信息的特征,预设的模型以及该语音信息的上一语音信息对应的嘴部表情,在预设的表情库中选择与所述特征对应的嘴部表情。
结合本发明的第一方面的第三种可能的实现方式,在第六种可能的实现方式中,所述根据所述语音信息对应的嘴部表情和所述图像生成对应的表情帧包括:
将所述语音信息对应的嘴部表情和所述图像组合,生成对应的表情帧。
根据本发明的第二方面,提供了一种电子设备,所述设备包括:
视频通话建立模块,用于建立视频通话;
图像获取模块,用于获取图像;
语音获取模块,用于获取用户输入的语音信息;
表情帧生成模块,用于根据所述语音信息和所述图像,生成表情帧;以及
发送模块,用于向视频通话方发送所述语音信息和表情帧。
结合本发明的第二方面,在第一种可能的实现方式中,所述图像获取模块具体用于:
获取预设图像或者用户输入的图像。
结合本发明的第二方面,在第二种可能的实现方式中,所述语音信息的长度为预设帧率的倒数。
结合本发明的第二方面,在第三种可能的实现方式中,所述表情帧生成模块包括:
特征获取子模块,用于获取所述语音信息的特征;
嘴部表情选择子模块,用于根据所述语音信息的特征选取对应的嘴部表情;
表情帧生成子模块,用于根据所述语音信息对应的嘴部表情和所述图像生成所述表情帧。
结合本发明的第二方面的第三种可能的实现方式,在第四种可能的实现方式中,所述嘴部表情选择子模块具体用于:
根据所述语音信息的特征与预设的模型,在预设的表情库中选择与所述特征对应的嘴部表情。
结合本发明的第二方面的第三种可能的实现方式,在第五种可能的实现方式中,所述嘴部表情选择子模块具体用于:
根据所述语音信息的特征,预设的模型以及该语音信息的上一语音信息对应的嘴部表情,在预设的表情库中选择与所述特征对应的嘴部表情。
结合本发明的第二方面的第三种可能的实现方式,在第六种可能的实现方式中,所述表情帧生成子模块具体用于:
将所述语音信息对应的嘴部表情和所述图像组合,生成对应的表情帧。
根据本发明的第三方面,提供了一种电子设备,该电子设备包括:
存储器、音频获取模块、网络接口模块以及与存储器、音频获取模块、网络接口模块连接的处理器,其中,存储器用于存储一组程序代码,处理器调用存储器所存储的程序代码用于执行以下操作:
建立视频通话;
获取图像;
获取用户输入的语音信息;
根据所述语音信息和图像,生成表情帧;以及
向视频通话方发送所述语音信息和表情帧。
结合本发明的第三方面,在第一种可能的实现方式中,处理器调用存储器所存储的程序代码用于执行以下操作:
获取预设图像或者用户输入的图像。
结合本发明的第三方面,在第二种可能的实现方式中,所述语音信息的长度为预设帧率的倒数。
结合本发明的第三方面,在第三种可能的实现方式中,处理器调用存储器所存储的程序代码用于执行以下操作:
获取所述语音信息的特征;
根据所述语音信息的特征选取对应的嘴部表情;以及
根据所述语音信息对应的嘴部表情和所述图像生成所述表情帧。
结合本发明的第三方面的第三种可能的实现方式,在第四种可能的实现方式中,处理器调用存储器所存储的程序代码用于执行以下操作:
根据所述语音信息的特征与预设的模型,在预设的表情库中选择与所述特征对应的嘴部表情。
结合本发明的第三方面的第三种可能的实现方式,在第五种可能的实现方式中,处理器调用存储器所存储的程序代码用于执行以下操作:
根据所述语音信息的特征,预设的模型以及该语音信息的上一语音信息对应的嘴部表情,在预设的表情库中选择与所述特征对应的嘴部表情。
结合本发明的第三方面的第三种可能的实现方式,在第六种可能的实现方式中,处理器调用存储器所存储的程序代码用于执行以下操作:
将所述语音信息对应的嘴部表情和所述图像组合,生成所述表情帧。
本发明实施例提供了一种视频通话方法及电子设备。通过在视频通话过程中根据用户输入的语音信息,对图像进行动画化,以生成表情帧,并向视频通话方发送语音信息和表情帧,可以使得视频通话方能够观看表情帧并听到语音信息。相比于纯粹的视频通话,这种方式节省了网络带宽,并且更具有趣味性和视觉效果,从而提高用户体验。另外根据语音对图像进行动画化生成表情帧的方法能够实时的通过语音来生成对应的表情帧,无需获取面部信息,具有效率高、速度快、限制少、资源消耗少的优点。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示出了根据本发明实施例的一种视频通话方法的流程图;
图2示出了根据本发明实施例的根据所述语音信息和图像生成表情帧步骤的流程图;
图3示出了根据本发明实施例的一种电子设备的框图;
图4示出了根据本发明实施例的一种电子设备的框图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种视频通话方法及电子设备。通过在视频通话过程中根据用户输入的语音信息,对图像进行动画化,以生成表情帧,并向视频通话方发送语音信息和表情帧,可以使得视频通话方能够观看表情帧并听到语音信息。相比于纯粹的视频通话,这种方式节省了网络带宽,并且更具有趣味性和视觉效果,从而提高用户体验。另外根据语音对图像进行动画化生成表情帧的方法能够实时的通过语音来生成对应的表情帧,无需获取面部信息,具有效率高、速度快、限制少、资源消耗少的优点。
图1示出了根据本发明实施例的一种视频通话方法的流程图。该方法可在终端中执行。终端可包括但不限于,移动电话、膝上型或笔记本计算机、台式计算机、个人数字助理(PDA)、游戏控制终端。如图1所示,该方法可包括以下步骤:
步骤101:建立视频通话。
视频通话可涉及两方或多方。可通过常规视频通话建立方法建立视频通话,例如SIP信令,本发明实施例对视频通话建立方式不加以限定。本发明实施例默认视频通话接收方接受视频通话建立请求。
步骤102:获取图像。
在一个实施例中,获取图像包括获取预设图像。在一个例子中,预设图像是默认的图像,每次均默认获取该图像进行操作。在另一个例子中,预设图像是用户上次输入的图像,这样每次用户输入新的图像则更新预设图像。
在另一个实施例中,获取图像包括获取用户输入的图像。在一个例子中,用户输入的图像是用户从本地图像库中选择的图像,使得用户可以选择任意的本地图像来生成表情帧。在另一个例子中,用户输入的图像是用户通过摄像头获取的照片,使得用户可以选择即时拍摄的照片来生成表情帧。这里的照片可以是自拍照片,也可以是非自拍照片。在还一个例子中,用户输入的图像是用户从显示的一组预设图像中选择的图像。
步骤103:获取用户输入的语音信息。
具体的,通过终端包括或耦合的音频获取模块(例如麦克风)获取用户即时输入的语音信息。可包括通过麦克风实时获取音频信息,从该音频信息中分离出语音信息。通常来说,人的语音的频率范围在300Hz至4000Hz之间,因此可以通过对音频信息进行滤波,分离出频率范围在300Hz至4000Hz之间的信息作为人的语音信息。可选的,还可以进一步通过声音的强度来分离语音信息,因为人的语音一般在40dB至60dB之间,因此可以根据声音的dB来对音频信息进行过滤,分离出强度在在40dB至60dB之间的音频信息。可选的,还可以对分离出的语音信息进行降噪等处理,得到更加精确的语音信息。
具体的,所述语音信息的长度为预设帧率的倒数。示例性的,当预设帧率为30帧/秒时,每个语音片段的长度为1/30秒;当预设帧率为60帧/秒时,每个语音片段的长度为1/60秒。本发明实施例对具体的预设帧率和语音信息的长度不加以限定。
步骤104:根据所述语音信息和图像,生成表情帧。
具体的,步骤104可包括以下步骤:
获取所述语音信息的特征;
根据所述语音信息的特征选取对应的嘴部表情;以及
根据所述语音信息对应的嘴部表情和所述图像生成所述表情帧。
在下文中将参照图2详细描述上述步骤。
步骤105:向视频通话方发送所述语音信息和表情帧。
视频通话方可以是一个或多个。例如,可以向一个或多个社交应用用户关联的一个或多个终端发送所述语音信息和表情帧。再如,可以向一个或多个社交应用群组关联的多个终端发送所述语音信息和表情帧。发送可包括经过服务器中转的方式或者不经过服务器中转的方式。
在一个实施例中,该方法还包括显示表情帧的步骤,使得用户可以直观地感受视频通话中自己的表情帧。
本发明实施例提供了一种视频通话方法及电子设备。通过在视频通话过程中根据用户输入的语音信息,对图像进行动画化,以生成表情帧,并向视频通话方发送语音信息和表情帧,可以使得视频通话方能够观看表情帧并听到语音信息。相比于纯粹的视频通话,这种方式节省了网络带宽,并且更具有趣味性和视觉效果,从而提高用户体验。
图2示出了根据本发明实施例的根据所述语音信息和图像生成表情帧步骤的流程图。如图2中所示,该步骤包括以下步骤:
步骤201:获取所述语音信息的特征。
示例性的,该特征可以是MFCC(Mel Frequency Cepstral Coefficents,梅尔频率倒谱系数)特征。本发明实施例对具体的特征不加以限定。
步骤202:根据所述语音信息的特征选取对应的嘴部表情。
在一个实施例中,该过程可以包括:
根据所述特征与预设模型,在预设的表情库中选择与所述特征对应的嘴部表情。
预设模型可以是通过有监督学习训练得到的。训练可采用以下方案中的任一个方案进行:
方案1:
a、收集训练数据。
收集大量的包含语音和嘴部的形状对应关系的数据,例如电影、电视片段。
b、对收集到的数据进行预处理。
将收集到的数据中带有人脸嘴部的视频帧挑选出来。
将这些视频帧中嘴部的形状和对应的语音信息的MFCC特征提取出来。
c、根据这些嘴部的形状和对应的MFCC特征对随机森林(Random Forest)进行训练,得到训练后的随机森林作为预设模型。
在根据所述特征选取对应的嘴部表情的过程中,将所述特征输入该训练后的随机森林,随机森林将判断该特征对应的嘴部的形状,并从预设的表情库中选取该嘴部的形状对应的嘴部表情作为所述特征对应的嘴部表情。
方案2:
a、收集训练数据。
收集大量的包含语音和嘴部开闭状态对应关系的数据,例如电影、电视片段。
b、对收集到的数据进行预处理。
将收集到的数据中带有人脸嘴部的视频帧挑选出来。
将这些视频帧中嘴部的开闭状态和对应的语音信息的MFCC特征提取出来。
c、根据这些嘴部的开闭状态和对应的MFCC特征对SVM(Support Vector Machine,支持向量机)进行训练,得到训练后的SVM作为预设模型。
在根据所述特征选取对应的嘴部表情的过程中,将所述特征输入该训练后的SVM,SVM将判断该特征对应的嘴部状态是开还是闭,如果对应的状态是开,则从预设的表情库中选取嘴部状态为开的表情作为所述特征对应的嘴部表情,如果对应的状态是闭,则从预设的表情库中选取嘴部状态为闭的表情作为所述特征对应的嘴部表情。
方案3:
a、收集训练数据。
收集大量的包含语音和嘴部的形状对应关系的数据,例如电影、电视片段。
b、对收集到的数据进行预处理。
将收集到的数据中带有人脸嘴部的视频帧挑选出来。
将这些视频帧中嘴部的形状对应的人脸的特征点和该嘴部的形状对应的语音信息的MFCC特征提取出来。
c、根据这些人脸的特征点和对应的MFCC特征对GMM(Gaussian Mixture Model)模型进行训练,得到训练后的GMM模型作为预设模型。
在根据所述特征选取对应的嘴部表情的过程中,将所述特征输入该训练后的GMM模型,GMM模型将判断该特征对应的人脸的特征点,并从预设的表情库中选取该人脸的特征点对应的嘴部表情作为所述特征对应的嘴部表情。
方案4:
a、收集训练数据。
收集大量的包含语音和嘴部的形状对应关系的数据,例如电影、电视片段。
b、对收集到的数据进行预处理。
将收集到的数据中带有人脸嘴部的视频帧挑选出来。
将这些视频帧中嘴部的形状对应的人脸的特征点和该嘴部的形状对应的语音信息的MFCC特征提取出来。
c、根据这些人脸的特征点和对应的MFCC特征对3层神经网络(Neural Networks)进行训练,得到训练后的3层神经网络作为预设模型。
在根据所述特征选取对应的嘴部表情的过程中,将所述特征输入该训练后的3层神经网络,3层神经网络将判断该特征对应的人脸的特征点,并从预设的表情库中选取该人脸的特征点对应的嘴部表情作为所述特征对应的嘴部表情。
在另一个实施例中,该过程可以包括:
根据所述语音信息的特征,预设的模型以及该语音信息的上一语音信息对应的嘴部表情,在预设的表情库中选择与所述特征对应的嘴部表情。
在该实施例中,预设模型的训练方式可以参照上面SVM所述,在此不再赘述。
在根据所述特征选取对应的嘴部表情的过程中,将所述特征输入该训练后的SVM,SVM将判断该特征对应的嘴部状态是开的概率,记为p,则该嘴部状态是闭的概率为1-p。
如果p超过预设的阈值,则判定对应的嘴部状态是开,否则判定对应的嘴部状态是闭。该阈值的初始值为0.5,并根据当所述特征对应的语音片段的上一语音片段对应的表情的嘴部状态来对该阈值进行动态的调整。
示例性的,当所述特征对应的语音片段的上一语音片段对应的表情的嘴部状态是开时,将该阈值调整为0.3,即所述特征对应的p大于0.3即判定其对应的嘴部状态是开。
如果SVM判定该特征对应的状态是开,则从预设的表情库中选取嘴部状态为开的表情作为所述特征对应的表情,如果SVM判定该特征对应的状态是闭,则从预设的表情库中选取嘴部状态为闭的表情作为所述特征对应的表情。
步骤204:根据所述语音信息对应的嘴部表情和所述图像生成对应的表情帧。
具体的,该过程可以为:
识别所述图像中的人脸嘴部区域。
示例性的,可以根据主动外观模型(Active Appearance Model)、主动形状模型(Active Shape Model)或者其他方式,从所述图像中获取人脸嘴部区域的特征点。
根据所述嘴部表情,驱动所述图像中的人脸嘴部区域。
示例性的,计算所述嘴部表情中嘴部特征点与所述图像中的人脸嘴部区域中对应的特征点的位置偏差,根据所述偏差,生成所述图像中的人脸嘴部区域中每个特征点的移动参数,并根据所述移动参数驱动所述图像中的人脸嘴部区域。
根据所述图像以及驱动后的所述图像中的人脸嘴部区域生成对应的表情帧。
示例性的,以所述驱动后的所述图像中的人脸嘴部区域替换驱动前的所述图像中的人脸嘴部区域,并生成新的图像,根据所述新的图像生成对应的表情帧。
上述识别图像中的人脸嘴部区域的过程中,如果未检测到人脸,则以默认的人脸嘴部区域作为生成表情帧的基础。
根据所述嘴部表情,驱动所述默认的人脸嘴部区域。
示例性的,计算所述嘴部表情中嘴部特征点与所述默认的人脸嘴部区域中对应的特征点的位置偏差,根据所述偏差,生成所述默认的人脸嘴部区域中每个特征点的移动参数,并根据所述移动参数驱动所述默认的人脸嘴部区域。
根据所述默认的人脸嘴部区域以及驱动后的所述默认的人脸嘴部区域生成对应的表情帧。
示例性的,以所述驱动后的所述默认的人脸嘴部区域替换驱动前的所述默认的人脸嘴部区域,并生成新的图像,根据所述新的图像生成对应的表情帧。
本发明实施例能够实时的通过语音来生成对应的表情帧,无需获取面部信息,具有效率高、速度快、限制少、资源消耗少的优点。通过SVM能够快速的对嘴部的开闭状态进行判断,从而有效地提高识别的速度。通过随机森林能够快速的识别出嘴部的形状,从而有效地提高识别的速度。通过SVM能够快速的识别出嘴部的形状,从而有效地提高识别的速度,进一步地根据上一帧的嘴部状态对当前帧的嘴部状态进行判断,有效地提高了识别的准确率。通过GMM模型能够快速的识别出嘴部的形状,从而有效地提高识别的速度。通过神经网络能够快速的识别出嘴部的形状,从而有效地提高识别的速度。
图3示出了根据本发明实施例的一种电子设备的框图。如图3所示,该电子设备包括:视频通话建立模块301,用于建立视频通话;图像获取模块302,用于获取图像;语音获取模块303,用于获取用户输入的语音信息;表情帧生成模块304,用于根据所述语音信息和图像,生成表情帧;以及发送模块305,用于向其他电子设备发送所述语音信息和表情帧。
具体的,所述图像获取模块302用于获取预设图像或者用户输入的图像。
具体的,所述语音信息的长度为预设帧率的倒数。
具体的,所述表情帧生成模块304包括:
特征获取子模块3041,用于获取所述语音信息的特征;
嘴部表情选择子模块3042,用于根据所述语音信息的特征选取对应的嘴部表情;
表情帧生成子模块3043,用于根据所述语音信息对应的嘴部表情和所述图像生成表情帧。
可选的,所述嘴部表情选择子模块3043用于根据所述语音信息的特征与预设的模型,在预设的表情库中选择与所述特征对应的嘴部表情。
可选的,所述嘴部表情选择子模块3043用于根据所述语音信息的特征,预设的模型以及该语音信息的上一语音信息对应的嘴部表情,在预设的表情库中选择与所述特征对应的嘴部表情。
具体的,所述表情帧生成子模块3043用于将所述语音信息对应的嘴部表情和所述图像组合,生成表情帧。
可选的,该电子设备还包括表情帧显示模块,用于显示表情帧,从而使得用户可以直观地感受视频通话过程中自己的表情帧。
本发明实施例提供了一种电子设备。通过在视频通话过程中根据用户输入的语音信息,对图像进行动画化,以生成表情帧,并向视频通话方发送语音信息和表情帧,可以使得视频通话方能够观看表情帧并听到语音信息。相比于纯粹的视频通话,这种方式节省了网络带宽,并且更具有趣味性和视觉效果,从而提高用户体验。
图4示出了根据本发明实施例的一种电子设备。如图4所示,该电子设备包括存储器401、音频获取模块402、网络接口模块403以及与存储器401、音频获取模块402、网络接口模块403连接的处理器404,其中,存储器401用于存储一组程序代码,处理器404调用存储器401所存储的程序代码用于执行以下操作:
建立视频通话;
获取图像;
获取用户输入的语音信息;
根据所述语音信息和图像,生成表情帧;以及
向视频通话方发送所述语音信息和表情帧。
具体的,处理器404调用存储器401所存储的程序代码用于执行以下操作:
获取预设图像或者用户输入的图像。
具体的,所述语音信息的长度为预设帧率的倒数。
具体的,处理器404调用存储器401所存储的程序代码用于执行以下操作:
获取所述语音信息的特征;
根据所述语音信息的特征选取对应的嘴部表情;以及
根据所述语音信息对应的嘴部表情和所述图像生成所述表情帧。
可选的,处理器404调用存储器401所存储的程序代码用于执行以下操作:
根据所述语音信息的特征与预设的模型,在预设的表情库中选择与所述特征对应的嘴部表情。
可选的,处理器404调用存储器401所存储的程序代码用于执行以下操作:
根据所述语音信息的特征,预设的模型以及该语音信息的上一语音信息对应的嘴部表情,在预设的表情库中选择与所述特征对应的嘴部表情。
具体的,处理器404调用存储器401所存储的程序代码用于执行以下操作:
将所述语音信息对应的嘴部表情和所述图像组合,生成所述表情帧。
本发明实施例提供了一种电子设备。通过在视频通话过程中根据用户输入的语音信息,对图像进行动画化,以生成表情帧,并向视频通话方发送语音信息和表情帧,可以使得视频通话方能够观看表情帧并听到语音信息。相比于纯粹的视频通话,这种方式节省了网络带宽,并且更具有趣味性和视觉效果,从而提高用户体验。
上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的电子设备在执行视频通话方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将设备的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的电子设备与视频通话方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (8)

1.一种视频通话方法,其特征在于,所述方法包括:
建立视频通话;
获取图像;
获取用户输入的语音信息;
根据所述语音信息和图像,生成表情帧;以及
向视频通话方发送所述语音信息和表情帧;
其中,所述根据语音信息和图像,生成表情帧包括:获取所述语音信息的特征;根据所述语音信息的特征选取对应的嘴部表情;以及,根据所述语音信息对应的嘴部表情和所述图像生成所述表情帧。
2.根据权利要求1所述的方法,其特征在于,所述获取图像包括:
获取预设图像或者用户输入的图像。
3.根据权利要求1所述的方法,其特征在于,所述语音信息的长度为预设帧率的倒数。
4.根据权利要求1所述的方法,其特征在于,所述根据所述语音信息的特征选取对应的嘴部表情包括:
根据所述语音信息的特征与预设的模型,在预设的表情库中选择与所述特征对应的嘴部表情。
5.一种电子设备,其特征在于,所述设备包括:
视频通话建立模块,用于建立视频通话;
图像获取模块,用于获取图像;
语音获取模块,用于获取用户输入的语音信息;
表情帧生成模块,用于根据所述语音信息和所述图像,生成表情帧;以及
发送模块,用于向视频通话方发送所述语音信息和表情帧;其中,
所述表情帧生成模块包括:特征获取子模块,用于获取所述语音信息的特征;嘴部表情选择子模块,用于根据所述语音信息的特征选取对应的嘴部表情;表情帧生成子模块,用于根据所述语音信息对应的嘴部表情和所述图像生成所述表情帧。
6.根据权利要求5所述的电子设备,其特征在于,所述图像获取模块具体用于:
获取预设图像或者用户输入的图像。
7.根据权利要求5所述的电子设备,其特征在于,所述语音信息的长度为预设帧率的倒数。
8.根据权利要求5所述的电子设备,其特征在于,所述嘴部表情选择子模块具体用于:
根据所述语音信息的特征与预设的模型,在预设的表情库中选择与所述特征对应的嘴部表情。
CN201610559604.9A 2016-07-15 2016-07-15 一种视频通话方法及电子设备 Active CN107623830B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610559604.9A CN107623830B (zh) 2016-07-15 2016-07-15 一种视频通话方法及电子设备

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610559604.9A CN107623830B (zh) 2016-07-15 2016-07-15 一种视频通话方法及电子设备

Publications (2)

Publication Number Publication Date
CN107623830A CN107623830A (zh) 2018-01-23
CN107623830B true CN107623830B (zh) 2019-03-15

Family

ID=61086860

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610559604.9A Active CN107623830B (zh) 2016-07-15 2016-07-15 一种视频通话方法及电子设备

Country Status (1)

Country Link
CN (1) CN107623830B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109831636B (zh) * 2019-01-28 2021-03-16 努比亚技术有限公司 互动视频控制方法、终端及计算机可读存储介质
CN110062116A (zh) * 2019-04-29 2019-07-26 上海掌门科技有限公司 用于处理信息的方法和设备
CN112188304B (zh) * 2020-09-28 2022-11-15 广州酷狗计算机科技有限公司 视频生成方法、装置、终端及存储介质
CN112911192A (zh) * 2021-01-28 2021-06-04 维沃移动通信有限公司 视频处理方法、装置和电子设备
CN113132797A (zh) * 2021-04-22 2021-07-16 北京房江湖科技有限公司 视频生成方法和装置、计算机可读存储介质、电子设备

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103823561A (zh) * 2014-02-27 2014-05-28 广州华多网络科技有限公司 表情输入方法和装置
CN104252226A (zh) * 2013-06-28 2014-12-31 联想(北京)有限公司 一种信息处理的方法及电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101749100B1 (ko) * 2010-12-23 2017-07-03 한국전자통신연구원 디바이스 제어를 위한 제스처/음향 융합 인식 시스템 및 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104252226A (zh) * 2013-06-28 2014-12-31 联想(北京)有限公司 一种信息处理的方法及电子设备
CN103823561A (zh) * 2014-02-27 2014-05-28 广州华多网络科技有限公司 表情输入方法和装置

Also Published As

Publication number Publication date
CN107623830A (zh) 2018-01-23

Similar Documents

Publication Publication Date Title
CN107623830B (zh) 一种视频通话方法及电子设备
US11341775B2 (en) Identifying and addressing offensive actions in visual communication sessions
CN106063255B (zh) 显示视频会议期间的演讲者的方法和系统
CN110446000B (zh) 一种生成对话人物形象的方法和装置
CN111405234A (zh) 一种云端和边缘计算融合的视频会议信息系统和方法
CN107623622A (zh) 一种发送语音动画的方法及电子设备
CN103391347B (zh) 一种自动录音的方法及装置
CN106817349B (zh) 一种在通信过程中使通信界面产生动画效果的方法及装置
US10586131B2 (en) Multimedia conferencing system for determining participant engagement
KR20050102079A (ko) 이동영상통신을 위한 아바타 데이터베이스
CN108986026A (zh) 一种图片拼接方法、终端及计算机可读存储介质
CN110536095A (zh) 通话方法、装置、终端及存储介质
CN110931028B (zh) 一种语音处理方法、装置和电子设备
CN105991854A (zh) 一种智能终端上VoIP电话会议可视化的系统及方法
CN112669846A (zh) 交互系统、方法、装置、电子设备及存储介质
CN108600680A (zh) 视频处理方法、终端及计算机可读存储介质
CN112911192A (zh) 视频处理方法、装置和电子设备
CN108920047A (zh) 一种应用程序的控制方法、终端和计算机可读存储介质
WO2022041201A1 (zh) 基于虚拟智能角色的交互方法、客户端及系统
CN112669416B (zh) 客服服务系统、方法、装置、电子设备及存储介质
CN116137673A (zh) 数字人表情驱动方法及其装置、设备、介质
CN103489210A (zh) 一种虚拟人物主动联系系统及其方法
CN110415258A (zh) 图像处理方法及装置、电子设备和存储介质
CN114025235A (zh) 视频生成方法、装置、电子设备及存储介质
CN109782851A (zh) 工作模式调节方法、可穿戴设备及计算机可读存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP02 Change in the address of a patent holder

Address after: 200063, Shanghai, Putuo District, home on the first floor of the cross road, No. 28

Patentee after: Palmwin Information Technology (Shanghai) Co.,Ltd.

Address before: 200063, Shanghai, Putuo District, 515 home road, room 28

Patentee before: Palmwin Information Technology (Shanghai) Co.,Ltd.

CP02 Change in the address of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20200715

Address after: 603a, block a, Xinghe world, No.1 Yabao Road, Longgang District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen Weiwu Technology Co.,Ltd.

Address before: 200063, Shanghai, Putuo District, home on the first floor of the cross road, No. 28

Patentee before: Palmwin Information Technology (Shanghai) Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210205

Address after: 518051 2503, building 15, Longhai homeland, 5246 Yihai Avenue, baonanshan District, Shenzhen City, Guangdong Province

Patentee after: Xiao Feng

Address before: 603a, block a, Xinghe world, No.1, Yabao Road, Longgang District, Shenzhen, Guangdong 518035

Patentee before: Shenzhen Weiwu Technology Co.,Ltd.

TR01 Transfer of patent right