CN105744206A - 一种视频通信的方法、装置和系统 - Google Patents

一种视频通信的方法、装置和系统 Download PDF

Info

Publication number
CN105744206A
CN105744206A CN201610074815.3A CN201610074815A CN105744206A CN 105744206 A CN105744206 A CN 105744206A CN 201610074815 A CN201610074815 A CN 201610074815A CN 105744206 A CN105744206 A CN 105744206A
Authority
CN
China
Prior art keywords
dynamic effect
terminal
video communication
recipient
sender
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610074815.3A
Other languages
English (en)
Inventor
李志刚
傅雪
平淑文
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Xiaomi Mobile Software Co Ltd
Original Assignee
Beijing Xiaomi Mobile Software Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Xiaomi Mobile Software Co Ltd filed Critical Beijing Xiaomi Mobile Software Co Ltd
Priority to CN201610074815.3A priority Critical patent/CN105744206A/zh
Publication of CN105744206A publication Critical patent/CN105744206A/zh
Pending legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/44Arrangements for executing specific programs
    • G06F9/451Execution arrangements for user interfaces

Abstract

本公开是关于一种视频通信的方法、装置和系统,属于计算机技术领域。所述方法包括:在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果;向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识;显示所述目标动态效果包括的发送方动态效果。采用本公开,可以提高视频通信的灵活性。

Description

一种视频通信的方法、装置和系统
技术领域
本公开是关于计算机技术领域,尤其是关于一种视频通信的方法、装置和系统。
背景技术
随着移动终端技术的发展,移动终端的应用越来越广泛,功能也越来越强大。人们通过移动终端进行无线通信的方式也越来越多样,人们除了可以通过移动终端进行语音通信以外,还可以通过移动终端进行视频通信。
当用户希望与对方进行视频通信时,该用户可以点击视频通信对应的选项,向对方发起视频通信,对方确认后,用户的移动终端可以通过摄像部件,获取用户的视频数据(如图像数据和语音数据等),并将获取到的视频数据发送给对应的移动终端,以使对方可以在移动终端上看到用户的视频,同理,用户也可以在移动终端上看到对方的视频,从而实现视频通信。
在实现本公开的过程中,发明人发现至少存在以下问题:
在进行视频通信的过程中,用户只能看到对方的视频,视频功能比较单一,从而导致视频通信的灵活性较低。
发明内容
为了克服相关技术中存在的问题,本公开提供了一种视频通信的方法、装置和系统。所述技术方案如下:
根据本公开实施例的第一方面,提供一种视频通信的方法,所述方法包括:
在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果;
向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识;
显示所述目标动态效果包括的发送方动态效果。
可选的,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
可选的,所述在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,包括:
在第一终端与第二终端进行视频通信的过程中,基于第一视频通信图像,检测所述第一终端的用户的动作信息或表情信息;
根据预先存储的动作信息或表情信息与动态效果的对应关系,确定检测到的动作信息或表情信息对应的目标动态效果。
这样,用户可以通过一些表情和动作,使第一终端向第二终端发送动态效果,从而可以提高视频通信的灵活性。
可选的,所述在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,包括:
在第一终端与第二终端进行视频通信的过程中,确定在提供的各动态效果中选取的目标动态效果。
这样,用户可以在提供的多个动态效果中,选取想要使用的动态效果,可以提高视频通信的灵活性。
可选的,所述在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,包括:
在第一终端与第二终端进行视频通信的过程中,获取用户输入的语音信息;
识别所述语音信息对应的文本信息;
根据预先存储的关键词与动态效果的对应关系,确定所述文本信息中包含的第一关键词对应的目标动态效果。
这样,用户可以通过说一些指定的词语,使第一终端向第二终端发送动态效果,从而可以提高视频通信的灵活性。
可选的,所述显示所述目标动态效果,包括:
全屏显示所述目标动态效果包括的发送方动态效果。
可选的,所述显示所述目标动态效果包括的发送方动态效果,包括:
在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
可选的,所述在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
这样,可以将不同的动态效果显示在不同的区域内,从而可以提高视频通信的趣味性。
可选的,所述方法还包括:
在第二视频通信图像中,显示所述目标动态效果包括的接收方动态效果。
这样,可以同时显示发送方动态效果和接收方动态效果,从而可以提高视频通信的灵活性。
可选的,所述在第二视频通信图像中,显示所述目标动态效果包括的接收方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
这样,可以将不同的动态效果显示在不同的区域内,从而可以提高视频通信的趣味性。
根据本公开实施例的第二方面,提供一种视频通信的方法,所述方法包括:
在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,所述动态效果通知携带有目标动态效果的标识;
显示所述目标动态效果的标识对应的接收方动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果。
可选的,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
可选的,所述显示所述目标动态效果的标识对应的接收方动态效果,包括:
全屏显示所述目标动态效果的标识对应的接收方动态效果。
可选的,所述显示所述目标动态效果的标识对应的接收方动态效果,包括:
在第二视频通信图像中,显示所述目标动态效果的标识对应的接收方动态效果。
可选的,所述在第二视频通信图像中,显示所述目标动态效果的标识对应的接收方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
可选的,所述方法还包括:
在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
可选的,所述在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
根据本公开实施例的第三方面,提供一种第一终端,所述第一终端包括:
确定模块,用于在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果;
发送模块,用于向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识;
第一显示模块,用于显示所述目标动态效果包括的发送方动态效果。
可选的,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
可选的,所述确定模块,包括:
检测子模块,用于在第一终端与第二终端进行视频通信的过程中,基于第一视频通信图像,检测所述第一终端的用户的动作信息或表情信息;
第一确定子模块,用于根据预先存储的动作信息或表情信息与动态效果的对应关系,确定检测到的动作信息或表情信息对应的目标动态效果。
可选的,所述确定模块,用于:
在第一终端与第二终端进行视频通信的过程中,确定在提供的各动态效果中选取的目标动态效果。
可选的,所述确定模块,包括:
获取子模块,用于在第一终端与第二终端进行视频通信的过程中,获取用户输入的语音信息;
识别子模块,用于识别所述语音信息对应的文本信息;
第二确定子模块,用于根据预先存储的关键词与动态效果的对应关系,确定所述文本信息中包含的第一关键词对应的目标动态效果。
可选的,所述第一显示模块,用于:
全屏显示所述目标动态效果包括的发送方动态效果。
可选的,所述第一显示模块,用于:
在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
可选的,所述第一显示模块,包括:
第三确定子模块,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第一显示子模块,用于在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
可选的,所述第一终端还包括:
第二显示模块,用于在第二视频通信图像中,显示所述目标动态效果包括的接收方动态效果。
可选的,所述第二显示模块,包括:
第四确定子模块,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第二显示子模块,用于在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
根据本公开实施例的第四方面,提供一种第二终端,所述第二终端包括:
接收模块,用于在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,所述动态效果通知携带有目标动态效果的标识;
第一显示模块,用于显示所述目标动态效果的标识对应的接收方动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果。
可选的,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
可选的,所述第一显示模块,用于:
全屏显示所述目标动态效果的标识对应的接收方动态效果。
可选的,所述第一显示模块,用于:
在第二视频通信图像中,显示所述目标动态效果的标识对应的接收方动态效果。
可选的,所述第一显示模块,包括:
第一确定子模块,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第一显示子模块,用于在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
可选的,所述第二终端还包括:
第二显示模块,用于在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
可选的,所述第二显示模块,包括:
第二确定子模块,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第二显示子模块,用于在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
根据本公开实施例的第五方面,提供一种第一终端,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果;
向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识;
显示所述目标动态效果包括的发送方动态效果。
根据本公开实施例的第六方面,提供一种第二终端,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,所述动态效果通知携带有目标动态效果的标识;
显示所述目标动态效果的标识对应的接收方动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果。
根据本公开实施例的第七方面,提供一种视频通信的系统,所述系统包括第一终端和第二终端,其中:
所述第一终端,用于在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果,向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识,显示所述目标动态效果包括的发送方动态效果;
所述第二终端,用于在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,显示所述目标动态效果的标识对应的接收方动态效果。
本公开的实施例提供的技术方案可以包括以下有益效果:
本公开实施例中,在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,目标动态效果包括发送方动态效果和接收方动态效果,向第二终端发送动态效果通知,动态效果通知携带有第一终端的终端标识、第二终端的终端标识和目标动态效果的标识,显示目标动态效果包括的发送方动态效果,这样,用户可以在进行视频通信的过程中,向对方发送动态效果,从而可以提高视频通信的灵活性。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。在附图中:
图1是根据一示例性实施例示出的一种视频通信的方法的流程图;
图2是根据一示例性实施例示出的界面显示示意图;
图3是根据一示例性实施例示出的界面显示示意图;
图4是根据一示例性实施例示出的一种第一终端的结构示意图;
图5是根据一示例性实施例示出的一种第一终端的结构示意图;
图6是根据一示例性实施例示出的一种第一终端的结构示意图;
图7是根据一示例性实施例示出的一种第一终端的结构示意图;
图8是根据一示例性实施例示出的一种第一终端的结构示意图;
图9是根据一示例性实施例示出的一种第一终端的结构示意图;
图10是根据一示例性实施例示出的一种第二终端的结构示意图;
图11是根据一示例性实施例示出的一种第二终端的结构示意图;
图12是根据一示例性实施例示出的一种第二终端的结构示意图;
图13是根据一示例性实施例示出的一种第二终端的结构示意图;
图14是根据一示例性实施例示出的一种第一终端的结构示意图;
图15是根据一示例性实施例示出的一种第二终端的结构示意图。
通过上述附图,已示出本公开明确的实施例,后文中将有更详细的描述。这些附图和文字描述并不是为了通过任何方式限制本公开构思的范围,而是通过参考特定实施例为本领域技术人员说明本公开的概念。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开一示例性实施例提供了一种视频通信的方法,该方法可以用于终端中,其中,终端可以是手机或平板电脑等移动终端。该终端可以包括通信部件,用于与其他终端建立视频通信连接;该终端可以包括摄像部件,用于获取用户的视频信息,该视频信息可以包括用户的图像信息和用户的语音信息;该终端可以包括处理器,用于确定待使用的目标动态效果;该终端可以包括收发器,用于向第二终端发送动态效果通知;该终端可以包括显示部件,用于显示目标动态效果包括的发送方动态效果;该终端可以包括存储器,用于存储多个动态效果,以及上述处理过程中产生的数据。另外,终端还可以包括蓝牙以及电源等部件。本实施例中,进行视频通信的两个终端可以分别称为第一终端和第二终端,在进行视频通信的过程中,任一终端都可以向对方发送动态效果,本实施例以第一终端向第二终端发送动态效果为例进行说明,第二终端向第一终端发送动态效果的情况与之类似,不再赘述。
如图1所示,该方法的处理流程可以包括如下的步骤:
在步骤101中,在第一终端与第二终端进行视频通信的过程中,第一终端确定待使用的目标动态效果。
在实施中,用户可以在终端(可称为第一终端)安装具有视频通信功能的应用程序,当用户想要进行视频通信时,用户可以在第一终端开启该应用程序,然后可以在该应用程序的好友列表中,选择想要进行视频通信的好友账户,点击视频通信功能对应的选项。第一终端则可以向该应用程序的服务器发送第一视频通信请求,该第一视频通信请求中可以携带有第一终端的终端标识,以及用户选择的好友账户的账户标识。服务器接收到该视频通信请求后,可以向登录该好友账户的终端(可称为第二终端)发送第二视频通信请求,第二终端上也可以安装有上述应用程序。第二终端接收到第二视频通信请求后,可以显示视频通信提示消息,第二终端的用户选择接受视频通信对应的选项后,第一终端则可以和第二终端建立视频通信连接,从而实现视频通信。
上述应用程序中可以预先存储多种动态效果,其中,任意一种动态效果可以包括发送方动态效果和接收方动态效果,发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。在第一终端与第二终端进行视频通信的过程中,用户可以通过第一终端向对方发送动态效果,以提高视频通信的趣味性。第一终端确定待使用的目标动态效果的方式可以是多种多样的,本实施例提供了几种可行的方式。
方式一、在第一终端与第二终端进行视频通信的过程中,基于第一视频通信图像,检测第一终端的用户的动作信息或表情信息;根据预先存储的动作信息或表情信息与动态效果的对应关系,确定检测到的动作信息或表情信息对应的目标动态效果。
其中,第一视频通信图像可以是第一终端在与第二终端进行视频通信的过程中拍摄到的图像。
在实施中,第一终端中可以预先存储用于进行图像检测的代码,在第一终端与第二终端进行视频通信的过程中,第一终端可以对用户的视频通信图像进行图像检测,具体的检测算法可以采用现有技术中的图像检测算法。
第一终端中可以预先存储的动作信息集合和表情信息集合,例如,动作信息集合中可以包括投掷动作信息、拥抱动作信息和飞吻动作信息等,表情信息集合中可以预先存储微笑表情信息、发怒表情信息和哭泣表情信息等。第一终端可以实时检测第一终端的用户的动作信息或表情信息,并且可以判断预先存储的动作信息集合和表情信息集合中,是否包含检测到的动作信息或表情信息,如果包含,则可以根据预先存储的动作信息或表情信息与动态效果的对应关系,确定检测到的动作信息或表情信息对应的目标动态效果。
例如,第一终端的用户做出了投掷动作,则第一终端可以检测到投掷动作信息,并且可以确定投掷动作信息对应的目标动态效果,该目标动态效果包括的发送方动态效果可以是一个炸弹由近处飞向远处的动态效果(即炸弹被扔出去的动态效果),接收方动态效果可以是炸弹从远处飞来的动态效果;或者,第一终端的用户做出了飞吻动作,则第一终端可以检测到飞吻动作信息,并且可以确定飞吻动作信息对应的目标动态效果,该目标动态效果包括的发送方动态效果可以是向对方飞吻的动态效果,接收方动态效果可以是一个嘴唇的图像从远处飞来的动态效果。
方式二、在第一终端与第二终端进行视频通信的过程中,确定在提供的各动态效果中选取的目标动态效果。
在实施中,在第一终端与第二终端进行视频通信的过程中,第一终端可以显示使用动态效果对应的选项。用户可以点击该选项,第一终端则可以显示动态列表,该动态效果列表中可以显示上述应用程序提供的各动态效果,用户在该动态效果列表中点击希望使用的目标动态效果,终端则可以接收到对应目标动态效果的选取指令,从而确定用户选取的目标动态效果。
方式三、在第一终端与第二终端进行视频通信的过程中,获取用户输入的语音信息;识别语音信息对应的文本信息;根据预先存储的关键词与动态效果的对应关系,确定文本信息中包含的第一关键词对应的目标动态效果。
在实施中,第一终端中可以预先存储用于进行语音识别的代码,在第一终端与第二终端进行视频通信的过程中,第一终端可以获取用户输入的语音信息,并可以识别语音信息对应的文本信息,该语音识别算法可以采用现有技术中的语音识别算法。第一终端可以实时识别用户输入的语音信息对应的文本信息,然后可以对该文本信息进行分词等处理,确定识别出的文本信息所包含的词语。第一终端可以预先存储上述应用程序提供的各动态效果,以及每个动态效果对应的关键词集合。例如,用炸弹砸对方的动态效果对应的关键词集合可以包括打你、打人、扔炸弹等。
第一终端可以确定文本信息中是否包含预先存储的各关键词集合中的任一关键词,如果包含,则第一终端可以根据预先存储的关键词与动态效果的对应关系,确定文本信息中包含的关键词(即第一关键词)对应的目标动态效果。例如,用户输入的语音信息为“我要打人了”,则第一终端可以识别到文本信息为“我要打人了”,并且可以确定该文本信息包含第一关键词“打人”,然后可以确定“打人”对应的目标动态效果,该目标动态效果包括的发送方动态效果可以是一个炸弹由近处飞向远处的动态效果(即炸弹被扔出去的动态效果),接收方动态效果可以是炸弹从远处飞来的动态效果;或者,用户输入的语音信息为“亲,么么哒”,则第一终端可以识别到文本信息为“亲,么么哒”,并且可以确定该文本信息包含第一关键词“么么哒”,然后可以确定“么么哒”对应的目标动态效果,该目标动态效果包括的发送方动态效果可以是向对方飞吻的动态效果,接收方动态效果可以是一个嘴唇的图像从远处飞来的动态效果。
在步骤102中,第一终端向第二终端发送动态效果通知。
在实施中,第一终端确定待使用的目标动态效果后,可以向第二终端发送动态效果通知,该动态效果通知可以携带有第一终端的终端标识、第二终端的终端标识和目标动态效果的标识。
在步骤103中,第一终端显示目标动态效果包括的发送方动态效果。
在实施中,第一终端确定待使用的目标动态效果后,可以获取目标动态效果包括的发送方动态效果,然后可以显示目标动态效果包括的发送方动态效果。
可选的,可以全屏显示动态效果,相应的,步骤103的处理过程可以如下:全屏显示目标动态效果包括的发送方动态效果。
在实施中,在进行视频通信的过程中,第一终端可以显示第一视频通信图像和第二视频通信图像,第二视频通信图像可以是第二终端在与第一终端进行视频通信的过程中拍摄到的图像。其中,第二视频通信图像的显示窗口可以是大窗口,如全屏显示,第一视频通信图像的显示窗口可以是小窗口,如屏幕右下角的小窗口。第一终端可以在整个屏幕显示区域中,显示目标动态效果包括的发送方动态效果。例如,可以在整个屏幕显示区域中,显示炸弹由近处飞向远处的动态效果(即炸弹被扔出去的动态效果),如图2所示。
可选的,可以在第一视频通信图像中,显示动态效果,相应的,步骤103的处理过程可以如下:在第一视频通信图像中,显示目标动态效果包括的发送方动态效果。
在实施中,第一终端可以确定用户的视频通信图像对应的范围(如屏幕中的小窗口),然后可以在该视频通信图像对应的范围内,显示目标动态效果包括的发送方动态效果。
可选的,可以将不同的动态效果显示在不同的位置处,相应的,步骤103的处理过程可以如下:根据预先存储的动态效果与人体部位的对应关系,确定目标动态效果对应的目标人体部位;在第一视频通信图像中,将目标人体部位的显示区域作为目标动态效果包括的发送方动态效果的显示区域,显示发送方动态效果。
在实施中,第一终端中可以预先存储用于进行人脸识别的代码,第一终端可以对获取到的视频通信图像进行人脸识别处理,识别检测到的视频通信图像中包含的人体部位,并确定识别出的人体部位所处的位置,例如,可以确定视频通信图像中眼睛所处的位置、嘴部所处的位置、头顶所处的位置等。具体的人脸识别算法可以采用现有技术中的人脸识别算法。
第一终端确定待使用的目标动态效果后,可以根据预先存储的动态效果与人体部位的对应关系,确定目标动态效果对应的目标人体部位,进而基于上述人脸识别处理,确定目标人体部位的位置,然后可以将目标人体部位的显示区域作为目标动态效果包括的发送方动态效果的显示区域,显示发送方动态效果。例如,发送方动态效果可以是向对方飞吻的动态效果,则可以在第一视频通信图像中,在嘴部所处的位置显示向对方飞吻的动态效果。另外,如果第一终端在第一视频通信图像中,未检测到目标人体部位,则可以在预设位置处显示目标动态效果包括的发送方动态效果,预设位置可以是第一视频通信图像的中间位置。
可选的,第一终端也可以显示接收方动态效果,相应的处理过程可以如下:在第二视频通信图像中,显示目标动态效果包括的接收方动态效果。
其中,第二视频通信图像可以是第二终端在与第一终端进行视频通信的过程中拍摄到的图像。
在实施中,第一终端可以确定第二视频通信图像,然后可以在第二视频通信图像中,显示目标动态效果包括的接收方动态效果,如图3所示,这样,第一终端可以在第一视频通信图像和第二视频通信中,分别显示目标动态效果,从而可以提高视频通信的趣味性。
可选的,在第二视频通信图像中,可以将不同的动态效果显示在不同的位置处,相应的处理过程可以如下:根据预先存储的动态效果与人体部位的对应关系,确定目标动态效果对应的目标人体部位;在第二视频通信图像中,将目标人体部位的显示区域作为目标动态效果包括的接收方动态效果的显示区域,显示接收方动态效果。
在实施中,第一终端确定待使用的目标动态效果后,可以根据预先存储的动态效果与人体部位的对应关系,确定目标动态效果对应的目标人体部位,进而基于上述人脸识别处理,确定目标人体部位的位置,然后可以在第二视频通信图像中,将目标人体部位的显示区域作为目标动态效果包括的接收方动态效果的显示区域,显示接收方动态效果。例如,接收方动态效果可以是一个嘴唇的图像从远处飞来的动态效果,则可以在第二视频通信图像中,在嘴部所处的位置显示嘴唇从远处飞来的动态效果。另外,如果第一终端在第二视频通信图像中,未检测到目标人体部位,则可以在预设位置处显示目标动态效果包括的接收方动态效果,预设位置可以是第二视频通信图像的中间位置。
在步骤104中,在第二终端与第一终端进行视频通信的过程中,第二终端接收第一终端发送的动态效果通知。
在实施中,第一终端确定待使用的目标动态效果后,可以向第二终端发送动态效果通知,该动态效果通知可以携带有第一终端的终端标识、第二终端的终端标识和目标动态效果的标识。第二终端可以接收该动态效果通知,然后可以对该动态效果通知进行解析,获取其中的第一终端的终端标识、第二终端的终端标识和目标动态效果的标识,以便进行后续处理。
在步骤105中,第二终端显示目标动态效果的标识对应的接收方动态效果。
在实施中,第二终端获取目标动态效果的标识后,可以进一步获取目标动态效果的标识对应的接收方动态效果,然后可以显示目标动态效果的标识对应的接收方动态效果。
可选的,可以全屏显示动态效果,相应的,步骤105的处理过程可以如下:全屏显示目标动态效果的标识对应的接收方动态效果。
在实施中,在进行视频通信的过程中,第二终端可以显示第一视频通信图像和第二视频通信图像。其中,第一视频通信图像的显示窗口可以是大窗口,如全屏显示,第二视频通信图像的显示窗口可以是小窗口,如屏幕右下角的小窗口。第二终端可以在整个屏幕显示区域中,显示目标动态效果包括的接收方动态效果。例如,可以在整个屏幕显示区域中,显示炸弹从远处飞来的动态效果,如图2所示。另外,该接收方动态效果包含的目标物体的初始显示位置,可以是在第一视频通信图像中,然后以逐渐变大的方式显示在整个屏幕中,例如,可以显示一个炸弹从第一视频通信图像中飞来,最后在全屏中显示炸弹的图像。
可选的,可以在第二视频通信图像中,显示动态效果,相应的,步骤105的处理过程可以如下:在第二视频通信图像中,显示目标动态效果的标识对应的接收方动态效果。
在实施中,第二终端可以确定用户的视频通信图像的显示范围(如屏幕中的小窗口),然后可以在该视频通信图像的显示范围内,显示目标动态效果包括的接收方动态效果。
可选的,可以将不同的动态效果显示在不同的位置处,相应的,步骤103的处理过程可以如下:根据预先存储的动态效果与人体部位的对应关系,确定目标动态效果对应的目标人体部位;在第二视频通信图像中,将目标人体部位的显示区域作为目标动态效果包括的接收方动态效果的显示区域,显示接收方动态效果。
在实施中,第二终端中可以预先存储用于进行人脸识别的代码,第二终端可以对获取到的视频通信图像进行人脸识别处理,识别检测到的视频通信图像中所包含的各人体部位,并确定各人体部位所处的位置,例如,可以确定视频通信图像中眼睛所处的位置、嘴部所处的位置、头顶所处的位置等。具体的人脸识别算法可以采用现有技术中的任意人脸识别算法。
第二终端获取目标动态效果的标识后,可以根据预先存储的动态效果与人体部位的对应关系,确定目标动态效果对应的目标人体部位,进而基于上述人脸识别处理,确定目标人体部位的位置,然后可以将目标人体部位的显示区域作为目标动态效果包括的接收方动态效果的显示区域,显示接收方动态效果。例如,接收方动态效果是炸弹从远处飞来的动态效果,则可以在第二视频通信图像中,在鼻子所处的位置显示炸弹从远处飞来的动态效果,或者,接收方动态效果是一个嘴唇的图像从远处飞来的动态效果,则可以在第二视频通信图像中,在嘴部所处的位置显示向对方飞吻的动态效果。另外,如果第二终端在第二视频通信图像中,未检测到目标人体部位,则可以在预设位置处显示目标动态效果包括的接收方动态效果,预设位置可以是第二视频通信图像的中间位置。
可选的,第二终端也可以显示发送方动态效果,相应的处理过程可以如下:在第一视频通信图像中,显示目标动态效果包括的接收方动态效果。
在实施中,第二终端可以确定第一视频通信图像,然后可以在第一视频通信图像中,显示目标动态效果包括的发送方动态效果,如图3所示,这样,第二终端可以在第一视频通信图像和第二视频通信中,分别显示目标动态效果,从而可以提高视频通信的趣味性。
可选的,在第一视频通信图像中,可以将不同的动态效果显示在不同的位置处,相应的处理过程可以如下:根据预先存储的动态效果与人体部位的对应关系,确定目标动态效果对应的目标人体部位;在第一视频通信图像中,将目标人体部位的显示区域作为目标动态效果包括的发送方动态效果的显示区域,显示发送方动态效果。
在实施中,第二终端确定待使用的目标动态效果后,可以根据预先存储的动态效果与人体部位的对应关系,确定目标动态效果对应的目标人体部位,进而基于上述人脸识别处理,确定目标人体部位的位置,然后可以将目标人体部位的显示区域作为目标动态效果包括的发送方动态效果的显示区域,显示发送方动态效果。例如,发送方动态效果可以是向对方飞吻的动态效果,则可以在第一视频通信图像中,在嘴部所处的位置显示向对方飞吻的动态效果。另外,如果第二终端在第一视频通信图像中,未检测到目标人体部位,则可以在预设位置处显示目标动态效果包括的发送方动态效果,预设位置可以是第一视频通信图像的中间位置。
需要说明的是,上述步骤103和步骤104~105的处理可以不分先后。
本公开实施例中,在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,目标动态效果包括发送方动态效果和接收方动态效果,向第二终端发送动态效果通知,动态效果通知携带有第一终端的终端标识、第二终端的终端标识和目标动态效果的标识,显示目标动态效果包括的发送方动态效果,这样,用户可以在进行视频通信的过程中,向对方发送动态效果,从而可以提高视频通信的灵活性。
本公开一示例性实施例提供了一种第一终端,如图4所示,所述第一终端包括:确定模块410,、发送模块420和第一显示模块430。
确定模块410,用于在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果;
发送模块420,用于向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识;
第一显示模块430,用于显示所述目标动态效果包括的发送方动态效果。
可选的,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
可选的,如图5所示,所述确定模块410,包括:
检测子模块411,用于在第一终端与第二终端进行视频通信的过程中,基于第一视频通信图像,检测所述第一终端的用户的动作信息或表情信息;
第一确定子模块412,用于根据预先存储的动作信息或表情信息与动态效果的对应关系,确定检测到的动作信息或表情信息对应的目标动态效果。
可选的,所述确定模块410,用于:
在第一终端与第二终端进行视频通信的过程中,确定在提供的各动态效果中选取的目标动态效果。
可选的,如图6所示,所述确定模块410,包括:
获取子模块413,用于在第一终端与第二终端进行视频通信的过程中,获取用户输入的语音信息;
识别子模块414,用于识别所述语音信息对应的文本信息;
第二确定子模块415,用于根据预先存储的关键词与动态效果的对应关系,确定所述文本信息中包含的第一关键词对应的目标动态效果。
可选的,所述第一显示模块430,用于:
全屏显示所述目标动态效果包括的发送方动态效果。
可选的,所述第一显示模块430,用于:
在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
可选的,如图7所示,所述第一显示模块430,包括:
第三确定子模块431,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第一显示子模块432,用于在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
可选的,如图8所示,所述第一终端还包括:
第二显示模块440,用于在第二视频通信图像中,显示所述目标动态效果包括的接收方动态效果。
可选的,如图9所示,所述第二显示模块440,包括:
第四确定子模块441,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第二显示子模块442,用于在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
本公开实施例中,在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,目标动态效果包括发送方动态效果和接收方动态效果,向第二终端发送动态效果通知,动态效果通知携带有第一终端的终端标识、第二终端的终端标识和目标动态效果的标识,显示目标动态效果包括的发送方动态效果,这样,用户可以在进行视频通信的过程中,向对方发送动态效果,从而可以提高视频通信的灵活性。
本公开一示例性实施例提供了一种第二终端,如图10所示,所述第二终端包括:接收模块1010和第一显示模块1020。
接收模块1010,用于在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,所述动态效果通知携带有目标动态效果的标识;
第一显示模块1020,用于显示所述目标动态效果的标识对应的接收方动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果。
可选的,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
可选的,所述第一显示模块1020,用于:
全屏显示所述目标动态效果的标识对应的接收方动态效果。
可选的,所述第一显示模块1020,用于:
在第二视频通信图像中,显示所述目标动态效果的标识对应的接收方动态效果。
可选的,如图11所示,所述第一显示模块1020,包括:
第一确定子模块1021,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第一显示子模块1022,用于在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
可选的,如图12所示,所述第二终端还包括:
第二显示模块1030,用于在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
可选的,如图13所示,所述第二显示模块1030,包括:
第二确定子模块1031,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第二显示子模块1032,用于在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
本公开实施例中,在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,目标动态效果包括发送方动态效果和接收方动态效果,向第二终端发送动态效果通知,动态效果通知携带有第一终端的终端标识、第二终端的终端标识和目标动态效果的标识,显示目标动态效果包括的发送方动态效果,这样,用户可以在进行视频通信的过程中,向对方发送动态效果,从而可以提高视频通信的灵活性。
本公开一示例性实施例提供了一种视频通信的系统,所述系统包括第一终端和第二终端,其中:
所述第一终端,用于在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果,向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识,显示所述目标动态效果包括的发送方动态效果;
所述第二终端,用于在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,显示所述目标动态效果的标识对应的接收方动态效果。
本公开实施例中,在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,目标动态效果包括发送方动态效果和接收方动态效果,向第二终端发送动态效果通知,动态效果通知携带有第一终端的终端标识、第二终端的终端标识和目标动态效果的标识,显示目标动态效果包括的发送方动态效果,这样,用户可以在进行视频通信的过程中,向对方发送动态效果,从而可以提高视频通信的灵活性。
本公开实施例还示出的一种第一终端的结构示意图,该第一终端可以是手机或平板电脑等移动第一终端。
参照图14,第一终端800可以包括以下一个或多个组件:处理组件802,存储器804,电源组件806,多媒体组件808,音频组件810,输入/输出(I/O)的接口812,传感器组件814,以及通信组件816。
处理组件802通常控制第一终端800的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件802可以包括一个或多个处理器820来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件802可以包括一个或多个模块,便于处理组件802和其他组件之间的交互。例如,处理部件802可以包括多媒体模块,以方便多媒体组件808和处理组件802之间的交互。
存储器804被配置为存储各种类型的数据以支持在第一终端800的操作。这些数据的示例包括用于在第一终端800上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器804可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件806为第一终端800的各种组件提供电力。电力组件806可以包括电源管理系统,一个或多个电源,及其他与为音频输出设备800生成、管理和分配电力相关联的组件。
多媒体组件808包括在所述第一终端800和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件808包括一个前置摄像头和/或后置摄像头。当第一终端800处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件810被配置为输出和/或输入音频信号。例如,音频组件810包括一个麦克风(MIC),当音频输出设备800处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器804或经由通信组件816发送。
I/O接口812为处理组件802和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件814包括一个或多个传感器,用于为第一终端800提供各个方面的状态评估。例如,传感器组件814可以检测到第一终端800的打开/关闭状态,组件的相对定位,例如所述组件为第一终端800的显示器和小键盘,传感器组件814还可以检测第一终端800或第一终端800一个组件的位置改变,用户与第一终端800接触的存在或不存在,第一终端800方位或加速/减速和第一终端800的温度变化。传感器组件814可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件814还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件814还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件816被配置为便于第一终端800和其他设备之间有线或无线方式的通信。第一终端800可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件816经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件816还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,第一终端800可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器804,上述指令可由第一终端800的处理器820执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由第一终端的处理器执行时,使得第一终端能够执行上述方法,该方法包括:
在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果;
向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识;
显示所述目标动态效果包括的发送方动态效果。
可选的,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
可选的,所述在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,包括:
在第一终端与第二终端进行视频通信的过程中,基于第一视频通信图像,检测所述第一终端的用户的动作信息或表情信息;
根据预先存储的动作信息或表情信息与动态效果的对应关系,确定检测到的动作信息或表情信息对应的目标动态效果。
可选的,所述在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,包括:
在第一终端与第二终端进行视频通信的过程中,确定在提供的各动态效果中选取的目标动态效果。
可选的,所述在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,包括:
在第一终端与第二终端进行视频通信的过程中,获取用户输入的语音信息;
识别所述语音信息对应的文本信息;
根据预先存储的关键词与动态效果的对应关系,确定所述文本信息中包含的第一关键词对应的目标动态效果。
可选的,所述显示所述目标动态效果,包括:
全屏显示所述目标动态效果包括的发送方动态效果。
可选的,所述显示所述目标动态效果包括的发送方动态效果,包括:
在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
可选的,所述在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
可选的,所述方法还包括:
在第二视频通信图像中,显示所述目标动态效果包括的接收方动态效果。
可选的,所述在第二视频通信图像中,显示所述目标动态效果包括的接收方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
本公开实施例中,在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,目标动态效果包括发送方动态效果和接收方动态效果,向第二终端发送动态效果通知,动态效果通知携带有第一终端的终端标识、第二终端的终端标识和目标动态效果的标识,显示目标动态效果包括的发送方动态效果,这样,用户可以在进行视频通信的过程中,向对方发送动态效果,从而可以提高视频通信的灵活性。
本公开实施例还示出的一种第二终端的结构示意图。该第二终端可以是手机等。
参照图15,第二终端900可以包括以下一个或多个组件:处理组件902,存储器904,电源组件906,多媒体组件908,音频组件910,输入/输出(I/O)的接口912,传感器组件914,以及通信组件916。
处理组件902通常控制第二终端900的整体操作,诸如与显示,电话呼叫,数据通信,相机操作和记录操作相关联的操作。处理元件902可以包括一个或多个处理器920来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件902可以包括一个或多个模块,便于处理组件902和其他组件之间的交互。例如,处理部件902可以包括多媒体模块,以方便多媒体组件908和处理组件902之间的交互。
存储器904被配置为存储各种类型的数据以支持在第二终端900的操作。这些数据的示例包括用于在第二终端900上操作的任何应用程序或方法的指令,联系人数据,电话簿数据,消息,图片,视频等。存储器904可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM),电可擦除可编程只读存储器(EEPROM),可擦除可编程只读存储器(EPROM),可编程只读存储器(PROM),只读存储器(ROM),磁存储器,快闪存储器,磁盘或光盘。
电力组件906为第二终端900的各种组件提供电力。电力组件906可以包括电源管理系统,一个或多个电源,及其他与为音频输出设备900生成、管理和分配电力相关联的组件。
多媒体组件908包括在所述第二终端900和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件908包括一个前置摄像头和/或后置摄像头。当第二终端900处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件910被配置为输出和/或输入音频信号。例如,音频组件910包括一个麦克风(MIC),当音频输出设备900处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器904或经由通信组件916发送。
I/O接口912为处理组件902和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件914包括一个或多个传感器,用于为第二终端900提供各个方面的状态评估。例如,传感器组件914可以检测到第二终端900的打开/关闭状态,组件的相对定位,例如所述组件为第二终端900的显示器和小键盘,传感器组件914还可以检测第二终端900或第二终端900一个组件的位置改变,用户与第二终端900接触的存在或不存在,第二终端900方位或加速/减速和第二终端900的温度变化。传感器组件914可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件914还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件914还可以包括加速度传感器,陀螺仪传感器,磁传感器,压力传感器或温度传感器。
通信组件916被配置为便于第二终端900和其他设备之间有线或无线方式的通信。第二终端900可以接入基于通信标准的无线网络,如WiFi,2G或3G,或它们的组合。在一个示例性实施例中,通信部件916经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信部件916还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,第二终端900可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器904,上述指令可由第二终端900的处理器920执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
一种非临时性计算机可读存储介质,当所述存储介质中的指令由第二终端的处理器执行时,使得第二终端能够执行上述方法,该方法包括:
在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,所述动态效果通知携带有目标动态效果的标识;
显示所述目标动态效果的标识对应的接收方动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果。
可选的,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
可选的,所述显示所述目标动态效果的标识对应的接收方动态效果,包括:
全屏显示所述目标动态效果的标识对应的接收方动态效果。
可选的,所述显示所述目标动态效果的标识对应的接收方动态效果,包括:
在第二视频通信图像中,显示所述目标动态效果的标识对应的接收方动态效果。
可选的,所述在第二视频通信图像中,显示所述目标动态效果的标识对应的接收方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
可选的,所述方法还包括:
在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
可选的,所述在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
本公开实施例中,在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,目标动态效果包括发送方动态效果和接收方动态效果,向第二终端发送动态效果通知,动态效果通知携带有第一终端的终端标识、第二终端的终端标识和目标动态效果的标识,显示目标动态效果包括的发送方动态效果,这样,用户可以在进行视频通信的过程中,向对方发送动态效果,从而可以提高视频通信的灵活性。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。

Claims (37)

1.一种视频通信的方法,其特征在于,所述方法包括:
在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果;
向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识;
显示所述目标动态效果包括的发送方动态效果。
2.根据权利要求1所述的方法,其特征在于,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
3.根据权利要求1所述的方法,其特征在于,所述在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,包括:
在第一终端与第二终端进行视频通信的过程中,基于第一视频通信图像,检测所述第一终端的用户的动作信息或表情信息;
根据预先存储的动作信息或表情信息与动态效果的对应关系,确定检测到的动作信息或表情信息对应的目标动态效果。
4.根据权利要求1所述的方法,其特征在于,所述在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,包括:
在第一终端与第二终端进行视频通信的过程中,确定在提供的各动态效果中选取的目标动态效果。
5.根据权利要求1所述的方法,其特征在于,所述在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,包括:
在第一终端与第二终端进行视频通信的过程中,获取用户输入的语音信息;
识别所述语音信息对应的文本信息;
根据预先存储的关键词与动态效果的对应关系,确定所述文本信息中包含的第一关键词对应的目标动态效果。
6.根据权利要求1所述的方法,其特征在于,所述显示所述目标动态效果,包括:
全屏显示所述目标动态效果包括的发送方动态效果。
7.根据权利要求1所述的方法,其特征在于,所述显示所述目标动态效果包括的发送方动态效果,包括:
在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
8.根据权利要求7所述的方法,其特征在于,所述在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
9.根据权利要求7所述的方法,其特征在于,所述方法还包括:
在第二视频通信图像中,显示所述目标动态效果包括的接收方动态效果。
10.根据权利要求9所述的方法,其特征在于,所述在第二视频通信图像中,显示所述目标动态效果包括的接收方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
11.一种视频通信的方法,其特征在于,所述方法包括:
在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,所述动态效果通知携带有目标动态效果的标识;
显示所述目标动态效果的标识对应的接收方动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果。
12.根据权利要求11所述的方法,其特征在于,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
13.根据权利要求11所述的方法,其特征在于,所述显示所述目标动态效果的标识对应的接收方动态效果,包括:
全屏显示所述目标动态效果的标识对应的接收方动态效果。
14.根据权利要求11所述的方法,其特征在于,所述显示所述目标动态效果的标识对应的接收方动态效果,包括:
在第二视频通信图像中,显示所述目标动态效果的标识对应的接收方动态效果。
15.根据权利要求14所述的方法,其特征在于,所述在第二视频通信图像中,显示所述目标动态效果的标识对应的接收方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
16.根据权利要求14所述的方法,其特征在于,所述方法还包括:
在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
17.根据权利要求16所述的方法,其特征在于,所述在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果,包括:
根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
18.一种第一终端,其特征在于,所述第一终端包括:
确定模块,用于在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果;
发送模块,用于向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识;
第一显示模块,用于显示所述目标动态效果包括的发送方动态效果。
19.根据权利要求18所述的第一终端,其特征在于,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
20.根据权利要求18所述的第一终端,其特征在于,所述确定模块,包括:
检测子模块,用于在第一终端与第二终端进行视频通信的过程中,基于第一视频通信图像,检测所述第一终端的用户的动作信息或表情信息;
第一确定子模块,用于根据预先存储的动作信息或表情信息与动态效果的对应关系,确定检测到的动作信息或表情信息对应的目标动态效果。
21.根据权利要求18所述的第一终端,其特征在于,所述确定模块,用于:
在第一终端与第二终端进行视频通信的过程中,确定在提供的各动态效果中选取的目标动态效果。
22.根据权利要求18所述的第一终端,其特征在于,所述确定模块,包括:
获取子模块,用于在第一终端与第二终端进行视频通信的过程中,获取用户输入的语音信息;
识别子模块,用于识别所述语音信息对应的文本信息;
第二确定子模块,用于根据预先存储的关键词与动态效果的对应关系,确定所述文本信息中包含的第一关键词对应的目标动态效果。
23.根据权利要求18所述的第一终端,其特征在于,所述第一显示模块,用于:
全屏显示所述目标动态效果包括的发送方动态效果。
24.根据权利要求18所述的第一终端,其特征在于,所述第一显示模块,用于:
在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
25.根据权利要求24所述的第一终端,其特征在于,所述第一显示模块,包括:
第三确定子模块,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第一显示子模块,用于在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
26.根据权利要求24所述的第一终端,其特征在于,所述第一终端还包括:
第二显示模块,用于在第二视频通信图像中,显示所述目标动态效果包括的接收方动态效果。
27.根据权利要求26所述的第一终端,其特征在于,所述第二显示模块,包括:
第四确定子模块,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第二显示子模块,用于在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
28.一种第二终端,其特征在于,所述第二终端包括:
接收模块,用于在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,所述动态效果通知携带有目标动态效果的标识;
第一显示模块,用于显示所述目标动态效果的标识对应的接收方动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果。
29.根据权利要求28所述的第二终端,其特征在于,所述发送方动态效果和接收方动态效果是相互对应且不相同的显示效果。
30.根据权利要求28所述的第二终端,其特征在于,所述第一显示模块,用于:
全屏显示所述目标动态效果的标识对应的接收方动态效果。
31.根据权利要求28所述的第二终端,其特征在于,所述第一显示模块,用于:
在第二视频通信图像中,显示所述目标动态效果的标识对应的接收方动态效果。
32.根据权利要求31所述的第二终端,其特征在于,所述第一显示模块,包括:
第一确定子模块,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第一显示子模块,用于在第二视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的接收方动态效果的显示区域,显示所述接收方动态效果。
33.根据权利要求31所述的第二终端,其特征在于,所述第二终端还包括:
第二显示模块,用于在第一视频通信图像中,显示所述目标动态效果包括的发送方动态效果。
34.根据权利要求33所述的第二终端,其特征在于,所述第二显示模块,包括:
第二确定子模块,用于根据预先存储的动态效果与人体部位的对应关系,确定所述目标动态效果对应的目标人体部位;
第二显示子模块,用于在第一视频通信图像中,将所述目标人体部位的显示区域作为所述目标动态效果包括的发送方动态效果的显示区域,显示所述发送方动态效果。
35.一种第一终端,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
在第一终端与第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果;
向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识;
显示所述目标动态效果包括的发送方动态效果。
36.一种第二终端,其特征在于,包括:
处理器;
用于存储处理器可执行指令的存储器;
其中,所述处理器被配置为:
在第二终端与第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,所述动态效果通知携带有目标动态效果的标识;
显示所述目标动态效果的标识对应的接收方动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果。
37.一种视频通信的系统,其特征在于,所述系统包括第一终端和第二终端,其中:
所述第一终端,用于在所述第一终端与所述第二终端进行视频通信的过程中,确定待使用的目标动态效果,其中,所述目标动态效果包括发送方动态效果和接收方动态效果,向所述第二终端发送动态效果通知,所述动态效果通知携带有所述目标动态效果的标识,显示所述目标动态效果包括的发送方动态效果;
所述第二终端,用于在所述第二终端与所述第一终端进行视频通信的过程中,接收所述第一终端发送的动态效果通知,显示所述目标动态效果的标识对应的接收方动态效果。
CN201610074815.3A 2016-02-02 2016-02-02 一种视频通信的方法、装置和系统 Pending CN105744206A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610074815.3A CN105744206A (zh) 2016-02-02 2016-02-02 一种视频通信的方法、装置和系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610074815.3A CN105744206A (zh) 2016-02-02 2016-02-02 一种视频通信的方法、装置和系统

Publications (1)

Publication Number Publication Date
CN105744206A true CN105744206A (zh) 2016-07-06

Family

ID=56244873

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610074815.3A Pending CN105744206A (zh) 2016-02-02 2016-02-02 一种视频通信的方法、装置和系统

Country Status (1)

Country Link
CN (1) CN105744206A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106506326A (zh) * 2016-09-30 2017-03-15 北京数字家圆科技有限公司 一种视频通话方法、终端及系统
CN108366221A (zh) * 2018-05-16 2018-08-03 维沃移动通信有限公司 一种视频通话方法和终端
CN112887631A (zh) * 2019-11-29 2021-06-01 北京字节跳动网络技术有限公司 在视频中显示对象的方法、装置、电子设备及计算机可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101287093A (zh) * 2008-05-30 2008-10-15 北京中星微电子有限公司 在视频通信中添加特效的方法及视频客户端
US20100079576A1 (en) * 2005-06-02 2010-04-01 Lau Chan Yuen Display system and method
CN103297742A (zh) * 2012-02-27 2013-09-11 联想(北京)有限公司 数据处理方法、微处理器、通信终端及服务器
CN103947190A (zh) * 2011-12-01 2014-07-23 坦戈迈公司 视频通讯
CN104753766A (zh) * 2015-03-02 2015-07-01 小米科技有限责任公司 表情发送方法及装置
CN105099860A (zh) * 2014-05-19 2015-11-25 腾讯科技(深圳)有限公司 即时通讯中进行实时互动的方法、系统及客户端

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100079576A1 (en) * 2005-06-02 2010-04-01 Lau Chan Yuen Display system and method
CN101287093A (zh) * 2008-05-30 2008-10-15 北京中星微电子有限公司 在视频通信中添加特效的方法及视频客户端
CN103947190A (zh) * 2011-12-01 2014-07-23 坦戈迈公司 视频通讯
CN103297742A (zh) * 2012-02-27 2013-09-11 联想(北京)有限公司 数据处理方法、微处理器、通信终端及服务器
CN105099860A (zh) * 2014-05-19 2015-11-25 腾讯科技(深圳)有限公司 即时通讯中进行实时互动的方法、系统及客户端
CN104753766A (zh) * 2015-03-02 2015-07-01 小米科技有限责任公司 表情发送方法及装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106506326A (zh) * 2016-09-30 2017-03-15 北京数字家圆科技有限公司 一种视频通话方法、终端及系统
CN108366221A (zh) * 2018-05-16 2018-08-03 维沃移动通信有限公司 一种视频通话方法和终端
CN112887631A (zh) * 2019-11-29 2021-06-01 北京字节跳动网络技术有限公司 在视频中显示对象的方法、装置、电子设备及计算机可读存储介质
CN112887631B (zh) * 2019-11-29 2022-08-12 北京字节跳动网络技术有限公司 在视频中显示对象的方法、装置、电子设备及计算机可读存储介质

Similar Documents

Publication Publication Date Title
CN105162693B (zh) 消息显示方法及装置
CN104159218B (zh) 网络连接建立方法和装置
US10425403B2 (en) Method and device for accessing smart camera
CN106209800B (zh) 设备权限共享方法和装置
EP3179397A1 (en) Methods and devices for managing automatic parallel login and logout in several applications
CN105578113A (zh) 一种视频通信的方法、装置和系统
CN106231378A (zh) 直播间的显示方法、装置及系统
CN106331761A (zh) 直播列表显示方法及装置
CN105722064A (zh) 获取终端信息的方法及装置
CN105468767A (zh) 名片信息获取方法及装置
CN104717554A (zh) 智能电视的控制方法及装置、电子设备
CN105515831A (zh) 网络状态信息展示方法及装置
CN106254192A (zh) 提示方法、提示装置及提示系统
CN104767857A (zh) 基于云名片的电话呼叫方法及装置
CN109039877A (zh) 一种显示未读消息数量的方法、装置、电子设备及存储介质
CN106231432A (zh) 分享视频的方法及装置
CN105281993A (zh) 播放多媒体文件的方法及装置
CN105677023A (zh) 信息呈现方法及装置
CN106792041A (zh) 内容分享方法及装置
CN105657325A (zh) 一种视频通信的方法、装置和系统
CN105808647A (zh) 消息编辑的处理方法和装置
CN105491518A (zh) 基于可穿戴设备的社交提醒方法和装置
US10263925B2 (en) Method, device and medium for sending message
CN105549572A (zh) 智能家居设备的控制方法、装置及设备
CN106331328B (zh) 信息提示的方法及装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20160706

RJ01 Rejection of invention patent application after publication