CN105578110B - 一种视频通话方法 - Google Patents

一种视频通话方法 Download PDF

Info

Publication number
CN105578110B
CN105578110B CN201510801152.6A CN201510801152A CN105578110B CN 105578110 B CN105578110 B CN 105578110B CN 201510801152 A CN201510801152 A CN 201510801152A CN 105578110 B CN105578110 B CN 105578110B
Authority
CN
China
Prior art keywords
video frame
identifier
call device
avatar
virtual image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510801152.6A
Other languages
English (en)
Other versions
CN105578110A (zh
Inventor
张怀畅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xiao Feng
Original Assignee
Zhang Ying Information Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhang Ying Information Technology (shanghai) Co Ltd filed Critical Zhang Ying Information Technology (shanghai) Co Ltd
Priority to CN201510801152.6A priority Critical patent/CN105578110B/zh
Publication of CN105578110A publication Critical patent/CN105578110A/zh
Application granted granted Critical
Publication of CN105578110B publication Critical patent/CN105578110B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

本发明公开了一种视频通话方法、装置和系统,属于视频领域,该方法包括:第一视频通话装置获取虚拟形象的标识符和当前视频帧并根据虚拟形象的标识符获取对应的虚拟形象;第一视频通话装置根据虚拟形象对当前视频帧进行裁剪,得到裁剪后的当前视频帧并与虚拟形象发送至第二视频通话装置;第二视频通话装置根据接收的虚拟形象的标识符,获取对应的虚拟形象;第二视频通话装置将虚拟形象与裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧并显示;通过显示裁剪后的当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,降低了视频通话占用的带宽,满足了即时视频交互过程中用户的个性化需求,提高了即时视频参与双方的交互体验。

Description

一种视频通话方法
技术领域
本发明涉及视频领域,特别涉及一种视频通话方法、装置和系统。
背景技术
由于视频通话的实时性以及较高的交互体验,使得越来越多的用户选择即时视频来实现自身的交互需求。
但是现有的即时视频交互技术中,视频双方的视频画面往往是通过矩形窗口,将视频双方的画面在任意一方的视频通话装置上进行显示的,该显示方式满足不了即时视频过程中用户的多样化需求,且该显示方式由于形式单一,使得在即时视频过程中,无法满足用户通过增加即时视频显示方式来提高用户体验的需求,从而,在使用现有的即时视频交互技术实现即时视频时的用户体验较差,尤其是交互过程中的交互体验较差。除此之外,现有的即时视频交互技术是基于全屏显示,使得在即时视频过程中,需要传输视频双方摄像头所采集的全部数据或对该全部数据进行编码生成的编码数据,从而使得在网络环境较差或者视频通话用户的视频通话装置运行不流畅时,会出现视频通话画面模糊、丢帧甚至直接断掉视频通话的情况,无法保证即时视频的流畅性,导致用户体验较差,尤其是交互过程中的交互体验较差。
发明内容
为了满足用户在即时视频交互过程中的个性化需求,提高用户在即时视频交互过程中的交互体验,尤其是网络环境较差或者视频通话装置运行不流畅的场景下的交互体验,本发明实施例提供了一种视频通话方法、装置和系统。所述技术方案如下:
第一方面,提供了一种视频通话方法,所述方法包括:
第一视频通话装置获取虚拟形象的标识符;
所述第一视频通话装置根据所述虚拟形象的标识符获取对应的虚拟形象;
所述第一视频通话装置获取当前视频帧;
所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪,得到裁剪后的当前视频帧;
所述第一视频通话装置向第二视频通话装置发送所述裁剪后的当前视频帧和所述虚拟形象的标识符;
所述第二视频通话装置根据接收的虚拟形象的标识符,获取对应的虚拟形象;
所述第二视频通话装置将所述虚拟形象与所述裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧;以及
所述第二视频通话装置显示所述匹配后的当前视频帧。
结合第一方面,在第一种可能的实现方式中,所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪,得到裁剪后的当前视频帧包括:
所述第一视频通话装置识别所述当前视频帧中人脸部分,并从所述当前视频帧中裁剪出所述人脸部分,得到裁剪后的当前视频帧;或者
所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪和/ 或缩小,得到裁剪后的当前视频帧。
结合第一方面的第一种可能的实现方式,在第二种可能的实现方式中,所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小包括:
所述第一视频通话装置根据所述虚拟形象在屏幕中的位置对所述当前视频帧进行裁剪和/或缩小。
结合第一方面,在第三种可能的实现方式中,所述第二视频通话装置将所述虚拟形象与所述裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧包括:
所述第二视频通话装置将所述裁剪后的当前视频帧嵌入所述虚拟形象的预设位置,得到匹配后的当前视频帧。
结合第一方面,在第四种可能的实现方式中,
所述第一视频通话装置获取所述虚拟形象的标识符包括:所述第一视频通话装置根据用户指示或者默认配置获取所述虚拟形象的标识符。
结合第一方面,在第五种可能的实现方式中,所述方法还包括:
所述第一视频通装置获取虚拟形象的动作和/或表情的标识符;
所述第一视频通话装置向所述第二视频通话装置发送所述虚拟形象的动作和/或表情的标识符;
所述第二视频通话装置接收所述虚拟形象的动作和/或表情的标识符;
所述第二视频通话装置根据接收的所述虚拟形象的动作和/或表情的标识符,获取对应的虚拟形象的动作和/或表情;以及
所述第二视频通话装置显示所述虚拟形象的动作和/或表情。
结合第一方面的第五种可能的实现方式,在第六种可能的实现方式中,所述第一视频通话装置获取所述虚拟形象的动作和/或表情的标识符包括:
所述第一视频通话装置根据用户指示或者预设事件获取所述虚拟形象的动作和/或表情的标识符。
第二方面,提供了一种视频通话装置,所述视频通话装置包括:
虚拟形象标识符获取模块,用于获取虚拟形象的标识符;
第一虚拟形象获取模块,用于根据所述虚拟形象的标识符获取对应的虚拟形象;
视频帧获取模块,用于获取当前视频帧;
裁剪模块,用于根据所述虚拟形象对所述当前视频帧进行裁剪,得到裁剪后的当前视频帧;
发送模块,用于向其他视频通话装置发送所述裁剪后的当前视频帧和所述虚拟形象的标识符;
接收模块,用于接收来自其他视频通话装置的裁剪后的当前视频帧和所述虚拟形象的标识符;
第二虚拟形象获取模块,用于根据接收的虚拟形象的标识符,获取对应的虚拟形象;
匹配模块,用于将所述接收的裁剪后的当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧;以及
显示模块,用于显示所述匹配后的当前视频帧。
结合第二方面,在第一种可能的实现方式中,所述裁剪模块具体用于:
识别所述当前视频帧中人脸部分,并从所述当前视频帧中裁剪出所述人脸部分,得到裁剪后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
结合第二方面的第一种可能的实现方式,在第二种可能的实现方式中,所述裁剪模块具体用于:
根据所述虚拟形象在屏幕中的位置对所述当前视频帧进行裁剪和/或缩小。
结合第二方面,在第三种可能的实现方式中,所述匹配模块具体用于:
将所述裁剪后的当前视频帧嵌入所述虚拟形象的预设位置,得到匹配后的当前视频帧。
结合第二方面,在第四种可能的实现方式中,所述虚拟形象标识符获取模块具体用于:
根据用户指示或者默认配置获取所述虚拟形象的标识符。
结合第二方面,在第五种可能的实现方式中,
所述装置还包括动作表情标识符获取模块,用于获取虚拟形象的动作和/或表情的标识符;
发送模块还用于向其他视频通话装置发送所述虚拟形象的动作和/或表情的标识符;
接收模块还用于接收来自其他视频通话装置的虚拟形象的动作和/或表情的标识符;
所述装置还包括动作表情获取模块,用于根据接收的虚拟形象的动作和/或表情的标识符,获取对应的虚拟形象的动作和/或表情;以及
所述显示模块还用于显示所述虚拟形象的动作和/或表情。
结合第二方面的第五种可能的实现方式,在第六种可能的实现方式中,所述动作表情标识符获取模块具体用于:
根据用户指示或者预设事件获取虚拟形象的动作和/或表情的标识符。
第三方面,提供了一种视频通话装置,所述视频通话装置包括存储器、触摸显示屏、摄像头、发送/接收模块以及与所述存储器、所述触摸显示屏、所述摄像头、所述发送/接收模块连接的处理器,其中,所述存储器用于存储一组程序代码,所述处理器调用所述存储器所存储的程序代码用于执行以下操作:
获取虚拟形象的标识符;
根据所述虚拟形象的标识符获取对应的虚拟形象;
通过所述摄像头获取当前视频帧;
根据所述虚拟形象对所述当前视频帧进行裁剪,得到裁剪后的当前视频帧;
通过所述发送/接收模块向视频通话的对方发送所述虚拟形象的标识符和所述裁剪后的当前视频帧;
通过所述发送/接收模块接收来自视频通话对方的所述虚拟形象的标识符和所述裁剪后的当前视频帧;
根据接收的所述虚拟形象的标识符,获取对应的虚拟形象;
将所述裁剪后的当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧;以及
通过所述触摸显示屏显示所述匹配后的当前视频帧。
结合第三方面,在第一种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码用于执行以下操作:
识别所述当前视频帧中人脸部分,并从所述当前视频帧中裁剪出所述人脸部分,得到裁剪后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
结合第三方面的第一种可能的实现方式,在第二种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码用于执行以下操作:
根据所述虚拟形象在屏幕中的位置对所述当前视频帧进行裁剪和/或缩小。
结合第三方面,在第三种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码用于执行以下操作:
将所述裁剪后的当前视频帧嵌入所述虚拟形象的预设位置,得到匹配后的当前视频帧。
结合第三方面,在第四种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码用于执行以下操作:
根据用户指示或者默认配置获取所述虚拟形象的标识符。
结合第三方面,在第五种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码用于执行以下操作:
获取虚拟形象的动作和/或表情的标识符;
通过所述发送/接收模块向视频通话对方发送所述虚拟形象的动作和/或表情的标识符;
通过所述发送/接收模块接收来自视频通话对方的虚拟形象的动作和/或表情的标识符;
根据接收的虚拟形象的动作和/或表情的标识符,获取对应的虚拟形象的动作和/或表情;以及
通过所述触摸显示屏显示所述虚拟形象的动作和/或表情。
结合第三方面的第五种可能的实现方式,在第六种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码用于执行以下操作:
根据用户指示或者预设事件,获取虚拟形象的动作和/或表情的标识符。
第四方面,提供了一种视频通话系统,所述系统包括第一视频通话装置和第二视频通话装置,其中,
所述第一视频通话装置包括:
虚拟形象标识符获取模块,用于获取虚拟形象的标识符;
第一虚拟形象获取模块,用于根据所述虚拟形象的标识符获取对应的虚拟形象;
视频帧获取模块,用于获取当前视频帧;
裁剪模块,用于根据所述虚拟形象对所述当前视频帧进行裁剪,得到裁剪后的当前视频帧;
发送模块,用于向第二视频通话装置发送所述裁剪后的当前视频帧和所述虚拟形象的标识符;
所述第二视频通话装置包括:
接收模块,用于接收所述裁剪后的当前视频帧和所述虚拟形象的标识符;
第二虚拟形象获取模块,用于根据所述虚拟形象的标识符,获取对应的虚拟形象;
匹配模块,用于将所述裁剪后的当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧;以及
显示模块,用于显示所述匹配后的当前视频帧。
结合第四方面,在第一种可能的实现方式中,所述裁剪模块具体用于:
所述第一视频通话装置识别所述当前视频帧中人脸部分,并从所述当前视频帧中裁剪出所述人脸部分,得到裁剪后的当前视频帧;或者
所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪和/ 或缩小,得到裁剪后的当前视频帧。
结合第四方面的第一种可能的实现方式,在第二种可能的实现方式中,所述裁剪模块具体用于:
所述第一视频通话装置根据所述虚拟形象在屏幕中的位置对所述当前视频帧进行裁剪和/或缩小。
结合第四方面,在第三种可能的实现方式中,所述匹配模块具体用于:
所述第二视频通话装置将所述裁剪后的当前视频帧嵌入所述虚拟形象的预设位置,得到匹配后的当前视频帧。
结合第四方面,在第四种可能的实现方式中,所述虚拟形象标识符获取模块具体用于:
所述第一视频通话装置根据用户指示或者默认配置获取所述虚拟形象的标识符。
结合第四方面,在第五种可能的实现方式中,
所述第一视频通话装置还包括动作表情标识符获取模块,用于获取虚拟形象的动作和/或表情的标识符;
所述发送模块还用于向所述第二视频通话装置发送所述虚拟形象的动作和 /或表情的标识符;
所述接收模块还用于接收来自所述第一视频通话装置的虚拟形象的动作和 /或表情的标识符;
第二视频通话装置还包括动作表情获取模块,用于根据接收的虚拟形象的动作和/或表情的标识符,获取对应的虚拟形象的动作和/或表情;以及
所述显示模块还用于显示所述虚拟形象的动作和/或表情。
结合第四方面的第五种可能的实现方式,在第六种可能的实现方式中,所述动作表情标识符获取模块具体用于:
所述第一视频通话装置根据用户指示或者预设事件获取虚拟形象的动作和 /或表情的标识符。
本发明实施例提供了一种视频通话方法、装置和系统,该方法包括:第一视频通话装置获取虚拟形象的标识符;所述第一视频通话装置根据所述虚拟形象的标识符获取对应的虚拟形象;所述第一视频通话装置获取当前视频帧;所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪,得到裁剪后的当前视频帧;所述第一视频通话装置向第二视频通话装置发送所述裁剪后的当前视频帧和所述虚拟形象的标识符;所述第二视频通话装置根据接收的虚拟形象的标识符,获取对应的虚拟形象;所述第二视频通话装置将所述虚拟形象与所述裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧;以及所述第二视频通话装置显示所述匹配后的当前视频帧。通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。另外,由于匹配后的视频帧为全部视频帧的某一部分,从而在即时视频发送过程中,通过发送裁剪后的视频帧,相比于发送全部视频帧,减少了视频发送时所占的带宽,以使用户可以在网络条件较差的情况下发起本发明实施例所述的视频通话方法,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种视频通话方法流程图;
图2是本发明实施例提供的一种视频通话方法流程图;
图3是本发明实施例提供的一种视频通话方法流程图;
图4是本发明实施例提供的一种界面示意图;
图5是本发明实施例提供的一种界面示意图;
图6是本发明实施例提供的一种界面示意图;
图7是本发明实施例提供的一种界面示意图;
图8是本发明实施例提供的一种界面示意图;
图9是本发明实施例提供的一种界面示意图;
图10是本发明实施例提供的一种视频通话方法流程图;
图11是本发明实施例提供的一种界面示意图;
图12是本发明实施例提供的一种界面示意图;
图13是本发明实施例提供的一种界面示意图;
图14是本发明实施例提供的一种界面示意图;
图15是本发明实施例提供的一种界面示意图;
图16是本发明实施例提供的一种界面示意图;
图17是本发明实施例提供的一种视频通话方法流程图;
图18是本发明实施例提供的一种视频通话方法流程图;
图19是本发明实施例提供的一种视频通话装置结构示意图;
图20是本发明实施例提供的一种视频通话装置结构示意图;
图21是本发明实施例提供的一种视频通话系统示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种视频通话方法,该方法用于即时视频交互场景下的视频通话,其中,即时视频交互可以是交互双方通过运行电子装置上的应用程序实现的,该电子装置可以是智能手机、平板电脑和可穿戴装置中的任意一个,本发明实施例对具体的电子装置不加以限定;另外,在即时视频交互过程中,包括即时视频在内的数据发送可以是通过点对点的方式实现的,也可以是通过服务器中转的方式实现的,本发明实施例对具体的数据发送方式不加以限定。另外,本发明实施例所述的匹配后的当前视频帧为裁剪后的当前视频帧和虚拟形象的组合。
实施例一为本发明实施例提供的一种视频通话方法,参照图1所示,该方法包括:
101、第一视频通话装置获取虚拟形象的标识符。
具体的,第一视频通话装置获取虚拟形象的标识符包括第一视频通话装置根据用户指示或者默认配置获取虚拟形象的标识符。
102、第一视频通话装置根据虚拟形象的标识符获取对应的虚拟形象。
具体的,第一视频通话装置根据虚拟形象的标识符,查找本地存储的虚拟形象中与该标识符对应的虚拟形象;
若本地未存有与该标识符对应的虚拟形象,则从服务器中下载与该标识符对应的虚拟形象。
103、第一视频通话装置获取当前视频帧。
值得注意的是,步骤101至步骤103可以是按照所述顺序执行的,也可以是先执行步骤103,再执行步骤101和102,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
104、第一视频通话装置根据虚拟形象对当前视频帧进行裁剪,得到裁剪后的当前视频帧。
具体的,可以通过以下任意一种方式实现根据虚拟形象对当前视频帧的裁剪:
第一视频通话装置识别当前视频帧中人脸部分,并从当前视频帧中裁剪出人脸部分,得到裁剪后的当前视频帧;或者
第一视频通话装置根据虚拟形象对当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小可以为:
第一视频通话装置根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和 /或缩小。
105、第一视频通话装置向第二视频通话装置发送裁剪后的当前视频帧和虚拟形象的标识符。
需要说明的是,虚拟形象的标识符和裁剪后的当前视频帧可以是同时发送至第二视频通话装置的,也可以是分别发送至第二视频通话装置的,其中,若虚拟形象的标识符和裁剪后的当前视频帧是分别发送至第二视频通话装置的,本发明实施例对具体的发送顺序不加以限定。
106、第二视频通话装置根据接收的虚拟形象的标识符,获取对应的虚拟形象。
具体的,第二视频通话装置根据接收的虚拟形象的标识符,查找本地存储的虚拟形象中与该标识符对应的虚拟形象;
若本地未存有与该标识符对应的虚拟形象,则从服务器中下载与该标识符对应的虚拟形象。
107、第二视频通话装置将虚拟形象与裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧。
具体的,第二视频通话装置将裁剪后的当前视频帧嵌入虚拟形象的预设位置,得到匹配后的当前视频帧。
108、第二视频通话装置显示所述匹配后的当前视频帧。
本发明实施例提供了一种视频通话方法,通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。通过发送裁剪后的当前视频帧,相比于发送全部视频帧,减少了视频发送时所占的带宽,以使用户可以在网络条件较差的情况下发起本发明实施例所述的视频通话方法,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。
实施例二为本发明实施例提供的一种视频通话方法,参照图2所示,该方法包括:
201、第一视频通话装置获取虚拟形象的动作和/或表情的标识符。
具体的,所述第一视频通话装置获取虚拟形象的动作和/或表情的标识符包括第一视频通话装置根据用户指示或者预设事件获取虚拟形象的动作和/或表情的标识符。
202、第一视频通话装置根据虚拟形象的动作和/或表情的标识符获取对应的虚拟形象的动作和/或表情。
具体的,第一视频通话装置根据虚拟形象的动作和/或表情的标识符,查找本地存储的虚拟形象的动作和/或表情中与该标识符对应的虚拟形象的动作和/ 或表情;
若本地未存有与该标识符对应的虚拟形象的动作和/或表情,则从服务器中下载与该标识符对应的虚拟形象的动作和/或表情。
203、第一视频通话装置获取当前视频帧。
值得注意的是,步骤201至步骤203可以是按照所述顺序执行的,也可以是先执行步骤203,再执行步骤201和202,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
204、第一视频通话装置根据虚拟形象的动作和/或表情对当前视频帧进行裁剪,得到裁剪后的当前视频帧。
具体的,可以通过以下任意一种方式实现根据虚拟形象的动作和/或表情对当前视频帧的裁剪:
第一视频通话装置识别当前视频帧中人脸部分,并从当前视频帧中裁剪出人脸部分,得到裁剪后的当前视频帧;或者
第一视频通话装置根据虚拟形象的动作和/或表情对当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
第一视频通话装置根据所述虚拟形象的动作和/或表情对所述当前视频帧进行裁剪和/或缩小可以为:
第一视频通话装置根据虚拟形象的动作和/或表情在屏幕中的位置对当前视频帧进行裁剪和/或缩小。
205、第一视频通话装置向第二视频通话装置发送裁剪后的当前视频帧和虚拟形象的动作和/或表情的标识符。
需要说明的是,虚拟形象的动作和/或表情的标识符和裁剪后的当前视频帧可以是同时发送至第二视频通话装置的,也可以是分别发送至第二视频通话装置的,其中,若虚拟形象的动作和/或表情的标识符和裁剪后的当前视频帧是分别发送至第二视频通话装置的,本发明实施例对具体的发送顺序不加以限定。
206、第二视频通话装置根据接收的虚拟形象的动作和/或表情的标识符,获取对应的虚拟形象的动作和/或表情。
具体的,第二视频通话装置根据接收的虚拟形象的动作和/或表情的标识符,查找本地存储的虚拟形象的动作和/或表情中与该标识符对应的虚拟形象的动作和/或表情;
若本地未存有与该标识符对应的虚拟形象的动作和/或表情,则从服务器中下载与该标识符对应的虚拟形象的动作和/或表情。
207、第二视频通话装置将虚拟形象的动作和/或表情与裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧。
具体的,第二视频通话装置将裁剪后的当前视频帧嵌入虚拟形象的动作和/ 或表情的预设位置,得到匹配后的当前视频帧。
208、第二视频通话装置显示匹配后的当前视频帧。
本发明实施例提供了一种视频通话方法,通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象的动作和/或表情进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。通过发送裁剪后的当前视频帧,相比于发送全部视频帧,减少了视频发送时所占的带宽,以使用户可以在网络条件较差的情况下发起本发明实施例所述的视频通话方法,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。通过获取虚拟形象的动作和/或表情的标识符,相比于获取虚拟形象的标识符,进一步增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,从而提高了用户在即时视频交互过程中的交互体验。
实施例三为本发明实施例提供的一种视频通话方法,参照图3所示,该方法包括:
301、第一视频通话装置获取虚拟形象的标识符。
具体的,第一视频通话装置获取虚拟形象的标识符包括第一视频通话装置根据用户指示或者默认配置,获取虚拟形象的标识符。
其中,该用户指示可以是用户在界面上触发的手势,该手势包括点击屏幕和/或手指在屏幕上进行滑动。
若该手势是点击屏幕,则根据用户指示,获取虚拟形象的标识符的过程可以为:
获取用户在虚拟形象选择界面上进行点击时的点击位置参数;
获取该点击位置参数对应的虚拟形象的标识符。
示例性的,假设该虚拟形象选择界面参照图4中的a所示,则用户在该界面上进行点击时的点击位置对应的虚拟形象可以参照图4中的b所示。
可选的,若当前虚拟形象选择界面中不包括用户所需的虚拟形象,则用户可以触发用于更换当前虚拟形象选择界面的手势;更换当前虚拟形象选择界面的过程可以是通过上、下、左、右翻页的方式实现的,也可以是通过滚动的方式实现的,其中,在通过滚动的方式实现该更换当前虚拟形象选择界面的过程中:示例性的,假设该虚拟形象选择界面参照图4中的a所示,则用户通过在屏幕中的任意区域触发更换当前虚拟形象选择界面的手势,通过上、下、左、右翻页的方式实现更换当前虚拟形象选择界面的过程可以分别参照图5中的a、 b所示。用户通过在屏幕中的预设区域触发更换当前虚拟形象选择界面的手势,通过上、下、左、右翻页的方式实现更换当前虚拟形象选择界面的过程可以分别参照图6中的a、b、c和d所示。通过滚动方式实现该更换当前虚拟形象选择界面,且通过鱼眼效应的方式显示该当前虚拟形象选择界面中所包括的虚拟形象可以分别参照图7中的a和b所示。可选的,为了进一步提高用户体验,可以通过鱼眼效应的方式显示该当前虚拟形象选择界面中所包括的虚拟形象,在实际应用中,该鱼眼效应的中心点可以与用户的手指在界面中触发手势时的位置对应,本发明实施例对实现该鱼眼效应的方式不加以限定。
若该手势是手指在屏幕上进行滑动,则根据用户指示,获取虚拟形象的标识符的过程可以为:
获取用户在虚拟形象选择界面上进行滑动时的滑动轨迹参数;该轨迹参数可以为该轨迹的位移;
获取该滑动轨迹参数对应的虚拟形象的标识符。
示例性的,假设该虚拟形象选择界面参照图4中的a所示,则用户在该界面上进行手指在屏幕上进行滑动时不同的滑动轨迹参数(以第一轨迹参数和第二轨迹参数为例)对应的虚拟形象可以参照图8中的a和b所示。
该用户指示还可以是用户输入的语音信息和/或文字信息,该语音信息/或文字信息至少包括用于描述该虚拟形象的信息,该获取虚拟形象的标识符的过程可以为:
识别用户输入的语音信息和/或文字信息中所包括的用于描述该虚拟形象的信息;
获取与该用于描述该虚拟形象的信息对应的虚拟形象的标识符。
根据默认配置,获取虚拟形象的标识符的过程可以为:
获取系统默认配置的虚拟形象的标识符,其中,该用户可以通过重新设置默认配置信息的方式,实现系统默认配置的虚拟形象的更换,本发明实施例对具体的重新设置默认配置信息方式不加以限定。
通过获取虚拟形象的标识符,使得在即时视频交互过程中,可以通过该标识符对应的虚拟形象与当前视频帧进行匹配,生成匹配后的当前视频帧,在显示视频过程中,显示该匹配后的当前视频帧,从而相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求。另外,通过用户指示,获取该虚拟形象的标识符,增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,从而提高了用户在即时视频交互过程中的交互体验。
302、第一视频通话装置根据虚拟形象的标识符获取对应的虚拟形象。
虚拟形象的标识符可以是文字标识符、数字标识符和手势标识符等。标识符的类型在此不做具体限定。其中,文字标识符例如:标识符为文字“火箭人”,则对应为火箭人的虚拟形象;标识符为文字“小狗”,则对应为小狗的虚拟形象。其中,数字标识符例如:标识符为数字“1”,则对应为太空人的虚拟形象;标识符为数字“2”,则对应为小狗的虚拟形象。其中,手势标识符为手势“直线”,则对应为小狗的虚拟形象;手势标识符为手势“曲线”,则对应为太空人的虚拟形象。
具体的,第一视频通话装置根据虚拟形象的标识符,查找本地存储的虚拟形象中与该标识符对应的虚拟形象;
若本地未存有与该标识符对应的虚拟形象,则从服务器中下载与该标识符对应的虚拟形象。
303、第一视频通话装置获取当前视频帧。
具体的,该第一通话装置可以通过系统预设的视频帧获取指令,获取通过摄像头输入的当前视频帧,本发明实施例对具体的获取指令与获取方式不加以限定。
值得注意的是,步骤301至步骤303可以是按照所述顺序执行的,也可以是先执行步骤303,再执行步骤301和302,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
304、第一视频通话装置根据虚拟形象对当前视频帧进行裁剪,得到裁剪后的当前视频帧。
具体的,可以通过以下任意一种方式实现根据虚拟形象对当前视频帧的裁剪:
第一视频通话装置识别当前视频帧中人脸部分,并从当前视频帧中裁剪出人脸部分,得到裁剪后的当前视频帧;或者
第一视频通话装置根据虚拟形象对当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小可以为:
第一视频通话装置根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和 /或缩小。
305、第一视频通话装置向第二视频通话装置发送裁剪后的当前视频帧和虚拟形象的标识符。
具体的,虚拟形象的标识符和裁剪后的当前视频帧可以是同时发送至第二视频通话装置的,也可以是分别发送至第二视频通话装置的,其中,若虚拟形象的标识符和裁剪后的当前视频帧是分别发送至第二视频通话装置的,本发明实施例对具体的发送顺序不加以限定。
306、第二视频通话装置根据接收的虚拟形象的标识符,获取对应的虚拟形象。
具体的,第二视频通话装置根据接收的虚拟形象的标识符,查找本地存储的虚拟形象中与该标识符对应的虚拟形象;
若本地未存有与该标识符对应的虚拟形象,则从服务器中下载与该标识符对应的虚拟形象。
307、第二视频通话装置将虚拟形象与裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧。
具体的,第二视频通话装置将裁剪后的当前视频帧嵌入虚拟形象的动作和/ 或表情的预设位置,得到匹配后的当前视频帧。
308、第二视频通话装置显示匹配后的当前视频帧。
具体的,第二视频通话装置通过预设的显示指令,在触摸显示屏上显示该匹配后的当前视频帧。
可选的,该第二通话装置还可以通过预设的显示指令,将该匹配后的当前视频帧投影至投影屏幕上或者其他显示屏上。
示例性的,为了进一步说明本发明实施例所达到的有益效果,假设在即时视频交互过程中常规的视频通话界面如图9中的a所示,假设虚拟形象如图8 中的a所示,则在执行本发明实施例后,即时视频交互过程中的视频通话界面可以参照图9中的b所示。
本发明实施例提供了一种视频通话方法,通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。另外,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。另外,通过用户指示,获取该虚拟形象的标识符,增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,从而提高了用户在即时视频交互过程中的交互体验。
实施例四为本发明实施例提供的一种视频通话方法,参照图10所示,该方法包括:
1001、第一视频通话装置获取虚拟形象的动作和/或表情的标识符。
具体的,第一视频通话装置获取虚拟形象的动作和/或表情的标识符包括第一视频通话装置根据用户指示或者预设事件,获取虚拟形象的动作和/或表情的标识符。
其中,该用户指示可以是用户在界面上触发的手势,该手势包括点击屏幕和/或手指在屏幕上进行滑动。
若该手势是点击屏幕,则根据用户指示,获取虚拟形象的动作和/或表情的标识符的过程可以为:
获取用户在虚拟形象选择界面上进行点击时的点击位置参数;
获取该点击位置参数对应的虚拟形象的动作和/或表情的标识符。
示例性的,假设视频通话界面参照图9中的b所示,则虚拟形象的动作和/ 或表情选择界面可以参照图11中的a所示,该界面中,可以通过文字信息指示虚拟形象的动作和/或表情,还可通过图表信息指示虚拟形象的动作和/或表情,本发明实施例以通过文字信息指示虚拟形象的动作和/或表情为例进行说明,用户在该界面上进行点击时的点击位置对应的虚拟形象的动作和/或表情的标识符可以参照图11中的b所示。
可选的,若当前虚拟形象选择界面中不包括用户所需的虚拟形象的动作和/ 或表情,则用户可以触发用于更换当前虚拟形象的动作和/或表情选择界面的手势;更换当前虚拟形象的动作和/或表情选择界面的过程可以是通过上、下、左、右翻页的方式实现的,也可以是通过滚动的方式实现的,其中,在通过滚动的方式实现该更换虚拟形象的动作和/或表情选择界面的过程中:示例性的,假设该当前虚拟形象的动作和/或表情选择界面参照图11中的a所示,则用户通过在屏幕中的任意区域触发更换当前虚拟形象的动作和/或表情选择界面的手势,通过上、下、左、右翻页的方式实现更换当前虚拟形象选择界面的过程可以分别参照图12中的a、b、c和d所示;用户通过在屏幕中的预设区域触发更换当前虚拟形象的动作和/或表情选择界面的手势,通过上、下、左、右翻页的方式实现更换当前虚拟形象的动作和/或表情选择界面的过程可以分别参照图13中的a、b、c和d所示。
除此之外,该手势还可以是与虚拟形象的默认动作/默认表情对应的,该默认动作可以是虚拟形象向某一方向倾斜,该默认表情可以是虚拟形象微笑等,在实际应用中,该默认动作为与该虚拟形象对应的标志性动作,该标志性动作可以为该虚拟形象所特有的,以使用户通过该默认动作,便可将该虚拟形象与其他虚拟形象区分开来。
若该手势是手指在屏幕上进行滑动,则根据用户指示,获取虚拟形象的动作和/或表情的标识符的过程可以为:
获取用户在虚拟形象选择界面上进行滑动时的滑动轨迹;
获取该滑动轨迹参数对应的虚拟形象的动作和/或表情的标识符。
示例性的,参照图14中的a所示,该滑动轨迹可以是用于指示虚拟形象的动作为上下跳跃的滑动轨迹,该滑动轨迹对应的标识符为上下跳跃;参照图14 中的b所示,该滑动轨迹还可以是用于指示虚拟形象的动作为摇头的滑动轨迹,该滑动轨迹对应的标识符为摇头。
除了指示虚拟形象的动作之外,该滑动轨迹还可以指示虚拟形象的表情,示例性的,参照图15中的a所示,该滑动轨迹可以是用于指示虚拟形象的表情为微笑的滑动轨迹,该滑动轨迹对应的标识符为微笑;参照图15中的b所示,该滑动轨迹还可以是用于指示虚拟形象的表情为不高兴的滑动轨迹,该滑动轨迹对应的标识符为不高兴。
该用户指示还可以是用户输入的语音/文字信息,该语音/文字信息至少包括用于描述该虚拟形象的信息。
示例性的,若用户输入至少包括“摇头”的语音/文字信息,则该语音/文字信息对应的标识符为摇头;若用户输入至少包括“上下跳跃”的语音/文字信息,则该语音/文字信息对应的标识符为上下跳跃;若用户输入至少包括“微笑”的语音/文字信息,则该语音/文字信息对应的标识符为微笑;若用户输入至少包括“不高兴”的语音/文字信息,则该语音/文字信息对应的标识符为不高兴。
根据预设事件,获取虚拟形象的动作和/或表情的标识符的过程中,该预设事件可以包括用户关闭摄像头,用户上下摇动手机以及用户左右摇动手机,网络参数满足预设条件等,其中,该网络参数可以为描述当前网络状态的网络参数,该网络参数可以当前网络的丢包率、RTT(Round-Trip Time,往返时延) 以及抖动(jitter)中的至少一个。
其中,用户关闭摄像头对应的虚拟形象的动作为虚拟形象显示默认表情,例如带上面罩或显示微笑等,用户上下摇动手机对应的虚拟形象的动作为虚拟形象上下跳跃,用户左右摇动手机对应的虚拟形象的动作为虚拟形象左右摇晃。所述预设事件仅仅是示例性的,本发明实施例对具体的预设事件不加以限定。
通过在获取虚拟形象的标识符之外,还获取虚拟形象的表情或/动作的标识符,使得在即时视频交互过程中,除了通过该标识符对应的虚拟形象与当前视频帧进行匹配,生成匹配后的当前视频帧,在显示视频过程中,显示该匹配后的当前视频帧之外,还可以显示该虚拟形象的表情或/动作,从而相比于传统的即时视频显示方法,不仅增加了即时视频的显示方式,还提高了即时视频的显示效果,满足了即时视频交互过程中用户的个性化需求。另外,通过用户指示,获取虚拟形象的表情或/动作的标识符,相比于获取虚拟形象的标识符,进一步增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,从而提高了用户在即时视频交互过程中的交互体验。另外,通过预设事件,获取虚拟形象的表情或/动作的标识符,增加了用户触发该虚拟形象的表情或/动作的方式,进一步增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,从而提高了用户在即时视频交互过程中的交互体验。另外,在部分场景下,如用户因为不方便或者当前网络状态不好等原因关闭摄像头等场景下,仍可以通过虚拟形象的表情或/动作实现即时视频双方的互动,进一步增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,从而提高了用户在即时视频交互过程中的交互体验。
1002、第一视频通话装置根据虚拟形象的动作和/或表情的标识符获取对应的虚拟形象的动作和/表情。
虚拟形象的动作和/或表情的标识符可以是文字标识符、数字标识符和手势标识符等。标识符的类型在此不做具体限定。
具体的,第一视频通话装置根据虚拟形象的动作和/或表情的标识符,查找本地存储的虚拟形象的动作和/或表情中与该标识符对应的虚拟形象的动作和/ 或表情。
若本地未存有与该标识符对应的虚拟形象的动作和/或表情,则从服务器中下载与该标识符对应的虚拟形象的动作和/或表情。
1003、第一视频通话装置获取当前视频帧。
具体的,该步骤与步骤303相同,此处不再加以赘述。
值得注意的是,步骤1001与步骤1003可以是按照所述顺序执行的,也可以是先执行步骤1003,再执行步骤1001和1002,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
另外,在实际应用中,由于在显示虚拟形象的表情/动作的场景下,例如关
闭摄像头或者由于网络原因导致视频无法显示的场景,可以不显示裁剪后的当前视频帧,对应的,步骤1003为可选步骤,在执行完步骤1001之后,可以直接执行步骤1002和步骤1004,无需执行步骤1003。
1004、第一视频通话装置根据虚拟形象的动作和/或表情对当前视频帧进行裁剪,得到裁剪后的当前视频帧。
具体的,可以通过以下任意一种方式实现根据虚拟形象的动作和/或表情对当前视频帧的裁剪:
第一视频通话装置识别当前视频帧中人脸部分,并从当前视频帧中裁剪出人脸部分,得到裁剪后的当前视频帧;或者
第一视频通话装置根据虚拟形象对当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
第一视频通话装置根据所述虚拟形象的动作和/或表情对当前视频帧进行裁剪和/或缩小可以为:
第一视频通话装置根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和 /或缩小。
1005、第一视频通话装置向第二视频通话装置发送虚拟形象的动作和/或表情的标识符。
具体的,若根据用户指示或预设事件获取的是虚拟形象的动作,则向第二视频通话装置发送虚拟形象的动作的标识符;若根据用户指示或预设事件获取的是虚拟形象的表情,则向第二视频通话装置发送虚拟形象的表情的标识符;若根据用户指示或预设事件获取的是虚拟形象的动作和表情,则向第二视频通话装置发送虚拟形象的动作和表情的标识符,在该过程中,虚拟形象的动作的标识符与虚拟形象的表情的标识符可以是分别发送至第二视频通话装置的,也可以是同时发送至第二视频通话装置的。
1006、第一视频通话装置向第二视频通话装置发送裁剪后的当前视频帧。
具体的,该步骤与步骤305的第一视频通话装置将当前视频帧发送至第二通话装置的过程相同,此处不再加以赘述。
值得注意的是,步骤1005至步骤1006可以是按照所述顺序执行的,也可以是先执行步骤1006,再执行步骤1005,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
另外,在实际应用中,由于在显示虚拟形象的表情/动作的场景下,可以不显示裁剪后的当前视频帧,即不执行步骤1003,所以对应的,步骤1006为可选步骤,在执行完步骤1002之后,可以直接执行步骤1005和步骤1007,无需执行步骤1006。
1007、第二视频通话装置根据接收的虚拟形象的动作和/或表情的标识符,获取对应的虚拟形象的动作和/或表情。
具体的,该过程可以为:
第二视频通话装置接收虚拟形象的动作和/或表情的标识符;
第二视频通话装置根据接收的虚拟形象的动作和/或表情的标识符,查找本地存储的动作和/或表情数据中与该标识符对应的动作和/或表情数据;
若本地未存有与该标识符对应的动作和/或表情数据,则从服务器中下载与该标识符对应的动作和/或表情数据。
1008、第二视频通话装置将虚拟形象的动作和/或表情与裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧。
具体的,第二视频通话装置将裁剪后的当前视频帧嵌入虚拟形象的动作和/ 或表情的预设位置,得到匹配后的当前视频帧。
需要说明的是,在部分场景下,若第二视频通话装置未接收到第一视频通话装置发送的当前视频帧,则无需进行匹配,直接以获取到的虚拟形象的动作和/或表情为匹配后的当前视频帧,本发明实施例对具体匹配或无需匹配的场景不加以限定。
1009、第二视频通话装置显示匹配后的当前视频帧。
具体的,第二视频通话装置显示匹配后的当前视频帧,第二视频通话装置可以通过预设的显示指令实现该显示匹配后的当前视频帧的过程。
需要说明的是,若步骤1008中直接以获取到的虚拟形象的动作和/或表情为匹配后的当前视频帧,则所述第二视频通话装置显示匹配后的当前视频帧为:仅显示虚拟形象的动作和/或表情。
在现有技术中,由于在用户关闭摄像头或者由于网络原因导致视频关闭的场景下,会导致双方无法实现交互,本发明实施例所提供的方法,通过第一视频通话装置向第二视频通话装置发送虚拟形象的动作和/或表情的标识符,以使第二视频通话装置显示直接以获取到的虚拟形象的动作和/或表情为匹配后的当前视频帧,可以实现在用户关闭摄像头或者由于网络原因导致视频关闭的场景下,视频交互的双方可以通过该虚拟形象的动作和/或表情实现即时交互,不仅进一步增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,还进一步提高了用户在即时视频交互过程中的交互体验。
示例性的,为了进一步说明本发明实施例所达到的有益效果,假设在即时视频交互过程中常规的视频通话界面如图9中的a所示,假设虚拟形象的动作为上下跳跃,则在执行本发明实施例后,即时视频交互过程中的视频通话界面可以参照图16中的a所示,假设虚拟形象的表情为微笑,则在执行本发明实施例后,即时视频交互过程中的界面可以参照图16中的b所示,在实际应用中,若显示虚拟形象的表情,则可以不显示裁剪后的当前视频帧,参照图16中的c 所示。
本发明实施例提供了一种视频通话方法,通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象的动作和/或表情进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。另外,通过获取虚拟形象的表情或/动作的标识符,使得在即时视频交互过程中,可以通过虚拟形象的动作和/ 或表情与当前视频帧进行匹配,生成匹配后的当前视频帧,在显示视频过程中还可以显示该虚拟形象的表情或/动作,从而相比于传统的即时视频显示方法,不仅增加了即时视频的显示方式,还提高了即时视频的显示效果,满足了即时视频交互过程中用户的个性化需求。另外,通过用户指示,获取虚拟形象的表情或/动作的标识符,相比于获取虚拟形象的标识符,进一步增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,从而提高了用户在即时视频交互过程中的交互体验。另外,通过预设事件,获取虚拟形象的表情或/动作的标识符,增加了用户触发该虚拟形象的表情或/动作的方式,进一步增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,从而提高了用户在即时视频交互过程中的交互体验。另外,在部分场景下,如用户因为不方便或者当前网络状态不好等原因关闭摄像头等场景下,仍可以通过虚拟形象的表情或/动作实现即时视频双方的互动,进一步增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,从而提高了用户在即时视频交互过程中的交互体验。另外,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。另外,在现有技术中,由于在用户关闭摄像头或者由于网络原因导致视频关闭的场景下,会导致双方无法实现交互,本发明实施例所提供的方法,通过第一视频通话装置向第二视频通话装置发送虚拟形象的动作和/或表情的标识符,以使第二视频通话装置显示直接以获取到的虚拟形象的动作和/或表情为匹配后的当前视频帧,可以实现在用户关闭摄像头或者由于网络原因导致视频关闭的场景下,视频交互的双方可以通过该虚拟形象的动作和/或表情实现即时交互,不仅进一步增加了即时视频的趣味性以及即时视频过程中参与双方的互动性,还进一步提高了用户在即时视频交互过程中的交互体验。
实施例五为本发明实施例提供的一种视频通话方法,在本发明实施例中,匹配后的当前视频帧是根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配得到的,参照图17所示,该方法包括:
1701、第一视频通话装置获取虚拟形象的标识符。
具体的,该步骤与步骤301相同,此处不再加以赘述。
1702、第一视频通话装置根据虚拟形象的标识符获取对应的虚拟形象。
具体的,该步骤与步骤302相同,此处不再加以赘述。
1703、第一视频通话装置获取当前视频帧。
具体的,该步骤与步骤303相同,此处不再加以赘述。
值得注意的是,步骤1701与步骤1703可以是按照所述顺序执行的,也可以是先执行步骤1703,再执行步骤1701和步骤1702,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
1704、第一视频通话装置根据虚拟形象对当前视频帧进行裁剪,得到裁剪后的当前视频帧。
具体的,根据虚拟形象对当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
根据虚拟形象对当前视频帧进行裁剪和/或缩小的过程可以为:
根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小;
其中,根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪可以为:
根据虚拟形象的位置,将当前视频帧划分为包括虚拟形象的区域和不包括虚拟形象的区域,该包括虚拟形象的区域即为裁剪结果;
其中,所述两个区域的尺寸可以是预先设置的,也可以是根据虚拟形象的尺寸进行动态调整的,本发明实施例对具体的尺寸不加以限定。
除了根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪之外,还可以通过以下方式实现根据虚拟形象对当前视频帧进行裁剪的过程:
根据预设的划分规则,将当前视频帧划分为至少一个视频子帧;
从至少一个视频子帧中获取裁剪结果。
在实际应用中,该预设的划分规则可以为按照九宫格的方式对当前视频帧进行划分,该九宫格中心部分即为裁剪结果。
通过根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小,将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧,使得裁剪后的当前视频帧中用户的视频画面部分与虚拟形象部分的结合更加自然,提高了裁剪后的当前视频帧的显示效果,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。
1705、第一视频通话装置向第二视频通话装置发送裁剪后的当前视频帧和虚拟形象的标识符。
具体的,该步骤与步骤305相同,此处不再加以赘述。
1706、第二视频通话装置根据接收的虚拟形象的标识符,获取对应的虚拟形象。
具体的,该步骤与步骤306相同,此处不再加以赘述。
1707、第二视频通话装置将虚拟形象与裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧。
具体的,第二视频通话装置将裁剪后的当前视频帧嵌入虚拟形象的预设位置,得到匹配后的当前视频帧。
将裁剪后的当前视频帧嵌入虚拟形象的预设位置可通过以下方式实现:
获取虚拟形象的预设位置在界面中的位置信息,该位置信息可以包括预设位置的中心点所在的坐标参数;
将该位置信息设置为裁剪后的当前视频帧的位置信息;
根据位置信息将裁剪后的当前视频帧移动到虚拟形象的预设位置。其中,预设位置可以为虚拟形象的头部区域。
可选的,通过获取用户的指示,将裁剪后的当前视频帧移动到虚拟形象的预设位置上。
将裁剪后的当前视频帧移动到虚拟形象的预设位置后显示方式为:
将裁剪后的当前视频帧覆盖预设位置;或者,
虚拟形象的预设位置透明化,将裁剪后的当前视频帧置于预设位置的下方。
1708、第二视频通话装置显示匹配后的当前视频帧。
具体的,该步骤与步骤308相同,此处不再加以赘述。
需要说明的是,本发明实施例是以第一视频通话装置向第二视频通话装置发送虚拟形象的标识符和裁剪后的当前视频帧为例进行说明的,若第一视频通话装置向第二视频通话装置发送虚拟形象的动作和/或表情的标识符,则本发明实施例的方法仍适用于第一视频通话装置向第二视频通话装置发送虚拟形象的动作和/或表情的标识符的场景。
本发明实施例提供了一种视频通话方法,通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。另外,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。另外,通过根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小,将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧的视频画面部分与预设形象部分的结合更加自然,提高了匹配后的当前视频帧的显示效果,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。
实施例六为本发明实施例提供的一种视频通话方法,在本发明实施例中,匹配后的当前视频帧是识别并获取当前视频帧中的人脸部分,并从当前视频帧中裁剪出人脸部分,并将裁剪后的人脸部分与虚拟形象进行匹配得到的,参照图18所示,该方法包括:
1801、第一视频通话装置获取虚拟形象的标识符。
具体的,该步骤与步骤301相同,此处不再加以赘述。
1802、第一视频通话装置根据虚拟形象的标识符获取对应的虚拟形象。
具体的,该步骤与步骤302相同,此处不再加以赘述。
1803、第一视频通话装置获取当前视频帧。
具体的,该步骤与步骤303相同,此处不再加以赘述。
值得注意的是,步骤1801与步骤1803可以是按照所述顺序执行的,也可以是先执行步骤1803,再执行步骤1801,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
1804、第一视频通话装置根据虚拟形象对所述当前视频帧进行裁剪,得到裁剪后的当前视频帧。
具体的,第一视频通话装置识别当前视频帧中人脸部分,并从当前视频帧中裁剪出人脸部分,得到裁剪后的当前视频帧。
识别并获取当前视频帧中的人脸部分的过程可以为:
识别当前视频帧中的人脸,该识别过程可以是通过对当前视频帧进行显著性检测和/或根据描述该人脸的特征点实现的,本发明实施例对具体的检测过程不加以限定;
获取当前视频帧中至少包括人脸的人脸部分,该人脸部分的尺寸可以是根据当前视频帧中的人脸进行动态调整的。
由于在即时视频交互过程中,用户对人脸部分的关注度高于视频中的其他部分,所以通过识别并获取当前视频帧中的人脸部分,并从当前视频帧中裁剪出人脸部分,得到裁剪后的当前视频帧,使得裁剪后的当前视频帧中用户的人脸部分与虚拟形象部分的结合更加自然,不仅提高了匹配后的当前视频帧的显示效果,更满足了即时视频过程中用户对人脸部分的关注度高的要求,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。
1805、第一视频通话装置向第二视频通话装置发送裁剪后的当前视频帧和虚拟形象的标识符。
具体的,该步骤与步骤305相同,此处不再加以赘述。
1806、第二视频通话装置根据接收的虚拟形象的标识符,获取对应的虚拟形象。
具体的,该步骤与步骤306相同,此处不再加以赘述。
1807、第二视频通话装置将虚拟形象与裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧。
具体的,该步骤与步骤1707相同,此处不再加以赘述。
1808、第二视频通话装置显示匹配后的当前视频帧。
具体的,该步骤与步骤308相同,此处不再加以赘述。
本发明实施例提供了一种视频通话方法,通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。另外,由于在即时视频交互过程中,用户对人脸部分的关注度高于视频中的其他部分,所以通过识别并获取当前视频帧中的人脸部分,并将裁剪后的人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧中的人脸部分与虚拟形象部分的结合更加自然,不仅提高了匹配后的当前视频帧的显示效果,更满足了即时视频过程中用户对人脸部分的关注度高的要求,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。另外,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。
实施例七为本发明实施例提供的一种视频通话装置,参照图19所示,该装置包括:
虚拟形象标识符获取模块1901,用于获取虚拟形象的标识符;
第一虚拟形象获取模块1902,用于根据虚拟形象的标识符获取对应的虚拟形象;
视频帧获取模块1903,用于获取当前视频帧;
裁剪模块1904,用于根据虚拟形象对当前视频帧进行裁剪,得到裁剪后的当前视频帧;
发送模块1905,用于向其他视频通话装置发送裁剪后的当前视频帧和虚拟形象的标识符;
接收模块1906,用于接收来自其他视频通话装置的裁剪后的当前视频帧和虚拟形象的标识符;
第二虚拟形象获取模块1907,用于根据接收的虚拟形象的标识符,获取对应的虚拟形象;
匹配模块1908,用于将接收的裁剪后的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧;
显示模块1909,用于显示匹配后的当前视频帧。
可选的,裁剪模块1904具体用于:
识别当前视频帧中人脸部分,并从当前视频帧中裁剪出人脸部分,得到裁剪后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
可选的,裁剪模块1904具体用于:
根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小。
可选的,匹配模块1908具体用于:
将裁剪后的当前视频帧嵌入虚拟形象的预设位置,得到匹配后的当前视频帧。
可选的,虚拟形象标识符获取模块1901用于:
根据用户指示或者默认配置获取虚拟形象的标识符。
可选的,该装置还包括动作表情标识符获取模块1910,用于获取虚拟形象的动作和/或表情的标识符;
可选的,发送模块1905还用于向其他视频通话装置发送虚拟形象的动作和 /或表情的标识符;
可选的,接收模块1906还用于接收来自其他视频通话装置的虚拟形象的动作和/或表情的标识符;
可选的,该装置还包括动作表情获取模块1911,用于根据接收的虚拟形象的动作和/或表情的标识符,获取对应的虚拟形象的动作和/或表情;以及
可选的,显示模块1909还用于显示虚拟形象的动作和/或表情。
可选的,动作表情标识符获取模块1910还用于:
根据用户指示或者预设事件获取虚拟形象的动作和/或表情的标识符。
值得注意的是,在即时视频交互过程中,视频发送方和视频接收方是相对的,即在同一时刻内,该视频通话装置既可以是视频发送方,也可以是视频接收方,若该装置为视频发送方,则该电子装置主要通过虚拟形象标识符获取模块1901、第一虚拟形象获取模块1902、视频帧获取模块1903、裁剪模块1904 以及发送模块1905实现本发明所述的视频通话的方法;若该装置为视频接收方,则该电子装置主要通过接收模块1906、第二虚拟形象获取模块1907、匹配模块 908和显示模块1909实现本发明所述的视频通话的方法。
本发明实施例提供了一种视频通话装置,该视频通话装置通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。另外,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。
实施例八为本发明实施例提供的一种视频通话装置,参照图20所示,视频通话装置包括存储器2001、触摸显示屏2002、摄像头2003、发送/接收模块2004 以及与存储器2001、触摸显示屏2002、摄像头2003、发送/接收模块2004连接的处理器2005,其中,存储器2001用于存储一组程序代码,处理器2005调用存储器2001所存储的程序代码用于执行以下操作:
获取虚拟形象的标识符;
根据虚拟形象的标识符获取对应的虚拟形象;
通过摄像头2003获取当前视频帧;
根据虚拟形象对当前视频帧进行裁剪,得到裁剪后的当前视频帧;
通过发送/接收模块2004向视频通话对方发送虚拟形象的标识符和裁剪后的当前视频帧;
通过发送/接收模块2004接收来自视频通话对方的虚拟形象的标识符和裁剪后的当前视频帧;
根据接收的虚拟形象的标识符,获取对应的虚拟形象;
将裁剪后的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧;以及
通过触摸显示屏2002显示匹配后的当前视频帧。
可选的,处理器2005调用存储器2001所存储的程序代码用于执行以下操作:
识别当前视频帧中人脸部分,并从当前视频帧中裁剪出人脸部分,得到裁剪后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
可选的,处理器2005调用存储器2001所存储的程序代码用于执行以下操作:
根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小。
可选的,处理器2005调用存储器2001所存储的程序代码用于执行以下操作:
将裁剪后的当前视频帧嵌入虚拟形象的预设位置,得到匹配后的当前视频帧。
可选的,处理器2005调用存储器2001所存储的程序代码用于执行以下操作:
根据用户指示或者默认配置获取虚拟形象的标识符。
可选的,处理器2005调用存储器2001所存储的程序代码用于执行以下操作:
获取虚拟形象的动作和/或表情的标识符;
通过发送/接收模块2004向视频通话对方发送虚拟形象的动作和/或表情的标识符;
通过发送/接收模块2004接收来自视频通话对方的虚拟形象的动作和/或表情的标识符;
根据接收的虚拟形象的动作和/或表情的标识符,获取对应的虚拟形象的动作和/或表情;以及
通过触摸显示屏2002显示虚拟形象的动作和/或表情。
可选的,处理器2005调用存储器2001所存储的程序代码用于执行以下操作:
根据用户指示或者预设事件,获取虚拟形象的动作和/或表情的标识符。
值得注意的是,在即时视频交互过程中,视频发送方和视频接收方是相对的,即在同一时刻内,该视频通话装置既可以是视频发送方,也可以是视频接收方,若该装置为视频发送方,则该电子装置的处理器2005调用存储器2001 所存储的程序代码主要用于执行以下操作:获取虚拟形象的标识符;根据虚拟形象的标识符获取对应的虚拟形象;通过摄像头2003获取当前视频帧;根据虚拟形象对当前视频帧进行裁剪,得到裁剪后的当前视频帧;通过发送/接收模块 2004向视频通话的对方发送虚拟形象的标识符和裁剪后的当前视频帧;若该装置为视频接收方,则该电子装置的处理器2005调用存储器2001所存储的程序代码主要用于执行以下操作:通过发送/接收模块2004接收来自视频通话对方的虚拟形象的标识符和裁剪后的当前视频帧;根据接收的虚拟形象的标识符,获取对应的虚拟形象;将裁剪后的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧;以及通过触摸显示屏2002显示所述匹配后的当前视频帧。
本发明实施例提供了一种视频通话装置,该装置通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。另外,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。
实施例九为本发明实施例提供的一种视频通话系统,参照图21所示,该系统包括第一视频通话装置211和第二视频通话装置212,其中,
第一视频通话装置211包括:
虚拟形象标识符获取模块2111,用于获取虚拟形象的标识符;
第一虚拟形象获取模块2112,用于根据虚拟形象的标识符获取对应的虚拟形象;
视频帧获取模块2113,用于获取当前视频帧;
裁剪模块2114,用于根据虚拟形象对当前视频帧进行裁剪,得到裁剪后的当前视频帧;
发送模块2115,用于向第二视频通话装置212发送裁剪后的当前视频帧和虚拟形象的标识符;
第二视频通话装置212包括:
接收模块2121,用于接收裁剪后的当前视频帧和虚拟形象的标识符;
第二虚拟形象获取模块2122,用于根据虚拟形象的标识符,获取对应的虚拟形象;
匹配模块2123,用于将裁剪后的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧;以及
显示模块2124,用于显示匹配后的当前视频帧。
可选的,裁剪模块2114具体用于:
第一视频通话装置211识别当前视频帧中人脸部分,并从当前视频帧中裁剪出人脸部分,得到裁剪后的当前视频帧;或者
第一视频通话装置211根据虚拟形象对当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
可选的,裁剪模块2114具体用于:
第一视频通话装置211根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小。
可选的,匹配模块2123具体用于:
第二视频通话装置212将裁剪后的当前视频帧嵌入虚拟形象的预设位置,得到匹配后的当前视频帧。
可选的,虚拟形象标识符获取模块2111具体用于:
第一视频通话装置211根据用户指示或者默认配置获取虚拟形象的标识符。
可选的,该系统的第一视频通话装置211还包括动作表情标识符获取模块 2116,用于获取虚拟形象的动作和/或表情的标识符;
可选的,发送模块2115还用于向第二视频通话装置212发送虚拟形象的动作和/或表情的标识符;
可选的,接收模块2121还用于接收来自第一视频通话装置211的虚拟形象的动作和/或表情的标识符;
可选的,第二视频通话装置212还包括动作表情获取模块2125,用于根据接收的虚拟形象的动作和/或表情的标识符,获取对应的虚拟形象的动作和/或表情;以及
可选的,显示模块2124还用于显示虚拟形象的动作和/或表情。
可选的,动作表情标识符获取模块2125具体用于:
第一视频通话装置211根据用户指示或者预设事件获取虚拟形象的动作和/ 或表情的标识符。
本发明实施例提供了一种视频通话系统,该系统通过在即时视频交互过程中,显示裁剪后的当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与双方在交互过程中的互动性,提高了交互体验。另外,由于匹配后的视频帧为全部视频帧的某一部分,从而在即时视频发送过程中,通过发送匹配后的当前视频帧,相比于发送全部视频帧,减少了视频发送时所占的带宽,以使用户可以在网络条件较差的情况下发起本发明实施例所述的视频通话方法,实现即时视频交互,相比于传统技术所提供的方法在网络条件较差的情况下出现卡顿或者断开连接的情况,该方法不仅实现了在上述情况下的正常交互,更进一步提高了即时视频交互的流畅性。所述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
值得注意的是,本发明实施例所述的界面仅仅是示例性的,是为了进一步说明本发明实施例所述的方法,本发明实施例对具体的界面不加以限定,除此之外,本发明实施例所述的“第一”和“第二”仅仅是为了区分二者的不同,此处并非特指。
需要说明的是:所述实施例提供的视频通话装置在执行视频通话方法时,仅以所述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将所述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,所述实施例提供的视频通话装置、方法和系统实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现所述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,所述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (6)

1.一种视频通话方法,其特征在于,所述方法包括:
第一视频通话装置获取虚拟形象的标识符;
所述第一视频通话装置根据所述虚拟形象的标识符获取对应的虚拟形象;
所述第一视频通话装置获取当前视频帧;
所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪,得到裁剪后的当前视频帧;
所述第一视频通话装置向第二视频通话装置发送所述裁剪后的当前视频帧和所述虚拟形象的标识符;
所述第二视频通话装置根据接收的虚拟形象的标识符,获取对应的虚拟形象;
所述第二视频通话装置将所述虚拟形象与所述裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧;以及
所述第二视频通话装置显示所述匹配后的当前视频帧;
并还包括:
当所述第一视频通话装置未获取当前视频帧时,
所述第一视频通话装置获取虚拟形象的默认表情的标识符;
所述第一视频通话装置向第二视频通话装置发送所述虚拟形象的默认表情的标识符;
所述第二视频通话装置接收所述虚拟形象的默认表情的标识符;
所述第二视频通话装置根据接收的虚拟形象的默认表情的标识符,获取对应的虚拟形象的默认表情;以及
所述第二视频通话装置显示所述虚拟形象的默认表情。
2.根据权利要求1所述的方法,其特征在于,所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪,得到裁剪后的当前视频帧包括:
所述第一视频通话装置识别所述当前视频帧中人脸部分,并从所述当前视频帧中裁剪出所述人脸部分,得到裁剪后的当前视频帧;或者
所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,得到裁剪后的当前视频帧。
3.根据权利要求2所述的方法,其特征在于,所述第一视频通话装置根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小包括:
所述第一视频通话装置根据所述虚拟形象在屏幕中的位置对所述当前视频帧进行裁剪和/或缩小。
4.根据权利要求1所述的方法,其特征在于,所述第二视频通话装置将所述虚拟形象与所述裁剪后的当前视频帧进行匹配,得到匹配后的当前视频帧包括:
所述第二视频通话装置将所述裁剪后的当前视频帧嵌入所述虚拟形象的预设位置,得到匹配后的当前视频帧。
5.根据权利要求1所述的方法,其特征在于,所述第一视频通话装置获取虚拟形象的标识符包括:
所述第一视频通话装置根据用户指示或者默认配置获取所述虚拟形象的标识符。
6.根据权利要求1所述的方法,其特征在于,所述第一视频通话装置获取虚拟形象的默认表情的标识符包括:
第一视频通话装置根据用户指示或者预设事件获取虚拟形象的默认表情的标识符。
CN201510801152.6A 2015-11-19 2015-11-19 一种视频通话方法 Active CN105578110B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510801152.6A CN105578110B (zh) 2015-11-19 2015-11-19 一种视频通话方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510801152.6A CN105578110B (zh) 2015-11-19 2015-11-19 一种视频通话方法

Publications (2)

Publication Number Publication Date
CN105578110A CN105578110A (zh) 2016-05-11
CN105578110B true CN105578110B (zh) 2019-03-19

Family

ID=55887713

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510801152.6A Active CN105578110B (zh) 2015-11-19 2015-11-19 一种视频通话方法

Country Status (1)

Country Link
CN (1) CN105578110B (zh)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106791572B (zh) * 2017-01-17 2018-09-04 维沃移动通信有限公司 一种视频通话方法、装置及系统
CN109104586B (zh) * 2018-10-08 2021-05-07 北京小鱼在家科技有限公司 特效添加方法、装置、视频通话设备以及存储介质
CN110177240B (zh) * 2019-03-27 2021-06-01 广东小天才科技有限公司 一种可穿戴设备的视频通话方法及可穿戴设备
CN110717974B (zh) * 2019-09-27 2023-06-09 腾讯数码(天津)有限公司 展示状态信息的控制方法、装置、电子设备和存储介质
CN110769186A (zh) * 2019-10-28 2020-02-07 维沃移动通信有限公司 一种视频通话方法、第一电子设备及第二电子设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101287093A (zh) * 2008-05-30 2008-10-15 北京中星微电子有限公司 在视频通信中添加特效的方法及视频客户端
CN102447722A (zh) * 2010-10-13 2012-05-09 张明 一种视频聊天快速虚拟视频内容制作服务系统
CN102447873A (zh) * 2010-10-13 2012-05-09 张明 哈哈视频网络视频聊天娱乐辅助系统
CN102455898A (zh) * 2010-10-29 2012-05-16 张明 视频聊天卡通表情辅助娱乐系统
CN103220490A (zh) * 2013-03-15 2013-07-24 广东欧珀移动通信有限公司 一种在视频通信中实现特效的方法及视频用户端
CN103297742A (zh) * 2012-02-27 2013-09-11 联想(北京)有限公司 数据处理方法、微处理器、通信终端及服务器
CN104618797A (zh) * 2015-02-06 2015-05-13 腾讯科技(北京)有限公司 信息处理方法、装置及客户端
CN104780338A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备
CN104780339A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140223474A1 (en) * 2011-12-30 2014-08-07 Tao Wang Interactive media systems

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101287093A (zh) * 2008-05-30 2008-10-15 北京中星微电子有限公司 在视频通信中添加特效的方法及视频客户端
CN102447722A (zh) * 2010-10-13 2012-05-09 张明 一种视频聊天快速虚拟视频内容制作服务系统
CN102447873A (zh) * 2010-10-13 2012-05-09 张明 哈哈视频网络视频聊天娱乐辅助系统
CN102455898A (zh) * 2010-10-29 2012-05-16 张明 视频聊天卡通表情辅助娱乐系统
CN103297742A (zh) * 2012-02-27 2013-09-11 联想(北京)有限公司 数据处理方法、微处理器、通信终端及服务器
CN103220490A (zh) * 2013-03-15 2013-07-24 广东欧珀移动通信有限公司 一种在视频通信中实现特效的方法及视频用户端
CN104618797A (zh) * 2015-02-06 2015-05-13 腾讯科技(北京)有限公司 信息处理方法、装置及客户端
CN104780338A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备
CN104780339A (zh) * 2015-04-16 2015-07-15 美国掌赢信息科技有限公司 一种即时视频中的表情特效动画加载方法和电子设备

Also Published As

Publication number Publication date
CN105578110A (zh) 2016-05-11

Similar Documents

Publication Publication Date Title
CN105611215A (zh) 一种视频通话方法及装置
CN105578110B (zh) 一种视频通话方法
CN111937375B (zh) 利用补充内容修改视频流以用于视频会议
US9615058B2 (en) Apparatus and method for sharing content items among a plurality of mobile devices
US20210250313A1 (en) Modifying images with supplemental content for messaging
CN105554430B (zh) 一种视频通话方法、系统及装置
US9210372B2 (en) Communication method and device for video simulation image
CN111078168B (zh) 一种信息处理方法、第一电子设备和存储介质
CN105516638B (zh) 一种视频通话方法、装置和系统
CN107924587A (zh) 在混合现实会话内将用户引导至对象
WO2017031385A1 (en) Asynchronous 3d annotation of a video sequence
CN105204846A (zh) 多人视频中视频画面的显示方法、装置及终端设备
KR20170007419A (ko) 비디오 회의를 제시하기 위한 방법, 디바이스 및 시스템
CN104777991A (zh) 一种基于手机的远程互动投影系统
CN105657323A (zh) 一种视频通话方法、装置和系统
WO2023143299A1 (zh) 消息展示方法、装置、设备及存储介质
CN105407313A (zh) 一种视频通话方法、设备和系统
US20240297953A1 (en) Systems and methods for enabling user-controlled extended reality
US12010157B2 (en) Systems and methods for enabling user-controlled extended reality
CN112533052A (zh) 一种视频分享方法、装置、电子设备及存储介质
US20220172440A1 (en) Extended field of view generation for split-rendering for virtual reality streaming
CN107925657A (zh) 经由用户设备的异步会话
KR102058190B1 (ko) 캐릭터 서비스 시스템에서의 캐릭터 서비스를 제공하기 위한 장치
CN107612881B (zh) 在传输文件时传输画面的方法、装置、终端及存储介质
CN114915852B (zh) 视频通话交互方法、装置、计算机设备和存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200721

Address after: 603a, block a, Xinghe world, No.1 Yabao Road, Longgang District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen Weiwu Technology Co., Ltd

Address before: 200063, Shanghai, Putuo District, home on the first floor of the cross road, No. 28

Patentee before: Palmwin Information Technology (Shanghai) Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210204

Address after: 518051 2503, building 15, Longhai homeland, 5246 Yihai Avenue, baonanshan District, Shenzhen City, Guangdong Province

Patentee after: Xiao Feng

Address before: 603a, block a, Xinghe world, No.1, Yabao Road, Longgang District, Shenzhen, Guangdong 518035

Patentee before: Shenzhen Weiwu Technology Co., Ltd