CN105554430A - 一种视频通话方法、系统及装置 - Google Patents

一种视频通话方法、系统及装置 Download PDF

Info

Publication number
CN105554430A
CN105554430A CN201510971421.3A CN201510971421A CN105554430A CN 105554430 A CN105554430 A CN 105554430A CN 201510971421 A CN201510971421 A CN 201510971421A CN 105554430 A CN105554430 A CN 105554430A
Authority
CN
China
Prior art keywords
virtual image
video frame
user
current video
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201510971421.3A
Other languages
English (en)
Other versions
CN105554430B (zh
Inventor
张怀畅
Original Assignee
Zhang Ying Information Technology (shanghai) Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhang Ying Information Technology (shanghai) Co Ltd filed Critical Zhang Ying Information Technology (shanghai) Co Ltd
Priority to CN201510971421.3A priority Critical patent/CN105554430B/zh
Publication of CN105554430A publication Critical patent/CN105554430A/zh
Application granted granted Critical
Publication of CN105554430B publication Critical patent/CN105554430B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明公开了一种视频通话方法、系统及装置,属于视频领域。所述方法包括:第一视频通话装置获取用户输入的虚拟形象;第一视频通话装置获取当前视频帧;第一视频通话装置向第二视频通话装置发送虚拟形象和当前视频帧;第二视频通话装置将接收的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧;第二视频通话装置显示匹配后的当前视频帧。不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。

Description

一种视频通话方法、系统及装置
技术领域
本发明涉及视频领域,特别涉及一种视频通话方法、系统及装置。
背景技术
由于视频通话的实时性以及较高的交互体验,使得越来越多的用户选择即时视频来实现自身的交互需求。
但是现有的即时视频交互技术中,视频双方的视频画面往往是通过矩形窗口,将视频双方的画面在任意一方的视频通话装置上进行显示的,该显示方式满足不了即时视频过程中用户的多样化需求,且该显示方式由于形式单一,使得在即时视频过程中,无法满足用户通过增加即时视频显示方式来提高用户体验的需求,从而,在使用现有的即时视频交互技术实现即时视频时,用户的用户体验较差,尤其是交互过程中的交互体验较差。
发明内容
为了增加即时视频的显示方式,满足即时视频交互过程中用户的个性化需求,同时,增加即时视频参与者在交互过程中的互动性,提高交互体验,本发明实施例提供了一种视频通话方法、系统及装置。所述技术方案如下:
第一方面,提供了一种视频通话方法,所述方法包括:
第一视频通话装置获取用户输入的虚拟形象;
所述第一视频通话装置获取当前视频帧;
所述第一视频通话装置向第二视频通话装置发送所述虚拟形象和所述当前视频帧;
所述第二视频通话装置将接收的所述当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧;以及
所述第二视频通话装置显示所述匹配后的当前视频帧。
结合第一方面,在第一种可能的实现方式中,所述获取用户输入的虚拟形象包括:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
结合第一方面,在第二种可能的实现方式中,所述获取用户输入的虚拟形象包括:
识别用户输入的图片中所包含的虚拟形象。
结合第一方面至第一方面的第二种任意一种可能的实现方式,在第三种可能的实现方式中,所述将接收的所述当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧包括:
识别并获取所述当前视频帧中的人脸部分,并将所述人脸部分与所述虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,并将所述裁剪和/或缩小的结果与所述虚拟形象进行匹配,得到匹配后的当前视频帧。
结合第一方面,在第四种可能的实现方式中,所述方法还包括:
第一视频通话装置获取用户输入的虚拟形象的动作和/或表情;
所述第一视频通话装置向第二视频通话装置发送所述虚拟形象的动作和/或表情;
所述第二视频通话装置显示接收的虚拟形象的动作和/或表情。
结合第一方面的第四种可能的实现方式,在第五种可能的实现方式中,所述第一视频通话装置获取用户输入的虚拟形象的动作和/或表情之前,所述方法还包括:
获取用户输入的第二手势,所述第二手势用于描述所述虚拟形象的动作和/或表情;
设置与所述虚拟形象的动作和/或表情对应的第三手势和/或事件。
结合第一方面的第五种可能的实现方式,在第六种可能的实现方式中,所述获取用户输入的虚拟形象的动作和/或表情包括:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
第二方面,提供了一种视频通话方法,所述方法包括:
所述第一视频通话装置获取用户输入的虚拟形象;
所述第一视频通话装置获取当前视频帧;
所述第一视频通话装置将所述虚拟形象与所述当前视频帧进行匹配,得到匹配后的当前视频帧;
所述第一视频通话装置向所述第二视频通话装置发送所述匹配后的当前视频帧;
所述第二视频通话装置显示接收到的匹配后的当前视频帧。
结合第二方面,在第一种可能的实现方式中,所述获取用户输入的虚拟形象包括:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
结合第二方面,在第二种可能的实现方式中,所述获取用户输入的虚拟形象包括:
识别用户输入的图片中所包含的虚拟形象。
结合第二方面至第二方面的第二种任意一种可能的实现方式,在第三种可能的实现方式中,所述将所述虚拟形象与所述当前视频帧进行匹配,得到匹配后的当前视频帧包括:
识别并获取所述当前视频帧中的人脸部分,并将所述人脸部分与所述虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,并将所述裁剪和/或缩小的结果与所述虚拟形象进行匹配,得到匹配后的当前视频帧。
结合第二方面,在第四种可能的实现方式中,所述方法还包括:
第一视频通话装置获取用户输入的虚拟形象的动作和/或表情;
所述第一视频通话装置向第二视频通话装置发送所述虚拟形象的动作和/或表情;
所述第二视频通话装置显示接收的虚拟形象的动作和/或表情。
结合第二方面的第四种可能的实现方式,在第五种可能的实现方式中,所述第一视频通话装置获取用户输入的虚拟形象的动作和/或表情之前,所述方法还包括:
获取用户输入的第二手势,所述第二手势用于描述所述虚拟形象的动作和/或表情;
设置与所述虚拟形象的动作和/或表情对应的第三手势和/或事件。
结合第二方面的第五种可能的实现方式,在第六种可能的实现方式,所述获取用户输入的虚拟形象的动作和/或表情包括:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
第三方面,提供了一种视频通话装置,所述装置包括:
虚拟形象获取模块,用于获取用户输入的虚拟形象;
当前视频帧获取模块,用于获取当前视频帧;以及
发送模块,用于向其他视频通话装置发送所述虚拟形象和所述当前视频帧。
结合第三方面,在第一种可能的实现方式中,所述装置还包括:
接收模块,用于接收来自所述其他视频通话装置的虚拟形象和当前视频帧;
匹配模块,用于将接收的所述当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧;以及
显示模块,用于显示所述匹配后的当前视频帧。
结合第三方面,在第二种可能的实现方式中,所述虚拟形象获取模块具体用于:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
结合第三方面,在第三种可能的实现方式中,所述虚拟形象获取模块具体用于:
识别用户输入的图片中所包含的虚拟形象。
结合第三方面至第三方面的第三种任意一种可能的实现方式,在第四种可能的实现方式中,所述匹配模块用于:
识别并获取所述当前视频帧中的人脸部分,并将所述人脸部分与所述虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,并将所述裁剪和/或缩小的结果与所述虚拟形象进行匹配,得到匹配后的当前视频帧。
结合第三方面,在第五种可能的实现方式中,
所述装置还包括虚拟形象的动作/表情获取模块,用于获取用户输入的虚拟形象的动作和/或表情;
所述发送模块还用于向所述其他视频通话装置发送所述虚拟形象的动作和/或表情;
所述接收模块还用于接收来自所述其他视频通话装置的虚拟形象的动作和/或表情;以及
所述显示模块还用于显示接收的虚拟形象的动作和/或表情。
结合第三方面的第五种可能的实现方式,在第六种可能的实现方式中,所述装置还包括:
手势获取模块,用于获取用户输入的第二手势,所述第二手势用于描述所述虚拟形象的动作和/或表情;以及
设置模块,用于设置与所述虚拟形象的动作和/或表情对应的第三手势和/或事件。
结合第三方面的第六种可能的实现方式,在第七种可能的实现方式中,所述虚拟形象的动作/表情获取模块具体用于:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
第四方面,提供了一种视频通话装置,所述装置包括:
虚拟形象获取模块,用于获取用户输入的虚拟形象;
当前视频帧获取模块,用于获取当前视频帧;
匹配模块,用于将所述虚拟形象与所述当前视频帧进行匹配,得到匹配后的当前视频帧;
发送模块,用于向其他视频通话装置发送所述匹配后的当前视频帧;
结合第四方面,在第一种可能的实现方式中,所述装置还包括:
接收模块,用于接收来自所述其他视频通话装置的匹配后的当前视频帧;以及
显示模块,用于显示接收到的匹配后的当前视频帧。
结合第四方面,在第二种可能的实现方式中,所述虚拟形象获取模块具体用于:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
结合第四方面,在第三种可能的实现方式中,所述虚拟形象获取模块具体用于:
识别用户输入的图片中所包含的虚拟形象。
结合第四方面至第四方面的第三种可能的实现方式,在第四种可能的实现方式中,所述匹配模块具体用于:
识别并获取所述当前视频帧中的人脸部分,并将所述人脸部分与所述虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,并将所述裁剪和/或缩小的结果与所述虚拟形象进行匹配,得到匹配后的当前视频帧。
结合第四方面,在第五种可能的实现方式中,
所述装置还包括虚拟形象的动作/表情获取模块,用于获取用户输入的虚拟形象的动作和/或表情;
所述发送模块还用于向所述其他视频通话装置发送所述虚拟形象的动作和/或表情;
所述接收模块还用于接收来自所述其他视频通话装置的虚拟形象的动作和/或表情;以及
所述显示模块还用于显示接收的虚拟形象的动作和/或表情。
结合第四方面的第五种可能的实现方式,在第六种可能的实现方式中,所述装置还包括:
手势获取模块,用于获取用户输入的第二手势,所述第二手势用于描述所述虚拟形象的动作和/或表情;以及
设置模块,用于设置与所述虚拟形象的动作和/或表情对应的第三手势和/或事件。
结合第四方面的第六种可能的实现方式,在第七种可能的实现方式中,所述虚拟形象的动作/表情获取模块具体用于:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
第五方面,提供了一种视频通话装置,所述装置包括触摸显示屏、发送接收/模块、摄像头、存储器以及与所述触摸显示屏、所述发送接收/模块、所述摄像头、所述存储器连接的处理器,其中,所述存储器用于存储一组程序代码,所述处理器调用所述存储器所存储的程序代码用于执行以下操作:
获取用户输入的虚拟形象;
获取当前视频帧;
控制所述发送接收/模块向其他视频通话装置发送所述虚拟形象和所述当前视频帧;
将接收的所述当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧;以及
控制所述触摸显示屏显示所述匹配后的当前视频帧。
结合第五方面,在第一种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体用于执行以下操作:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
结合第五方面,在第二种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体用于执行以下操作:
识别用户输入的图片中所包含的虚拟形象。
结合第五方面至第五方面的第二种任意一种可能的实现方式,在第三种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体用于执行以下操作:
识别并获取所述当前视频帧中的人脸部分,并将所述人脸部分与所述虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,并将所述裁剪和/或缩小的结果与所述虚拟形象进行匹配,得到匹配后的当前视频帧。
结合第五方面,在第四种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体还用于执行以下操作:
获取用户输入的虚拟形象的动作和/或表情;
控制所述发送接收/模块向其他视频通话装置发送所述虚拟形象的动作和/或表情;
控制所述发送接收/模块接收来自其他视频通话装置的虚拟形象的动作和/或表情;
控制所述触摸显示屏显示接收的虚拟形象的动作和/或表情。
结合第五方面的第四种可能的实现方式,在第五种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体还用于执行以下操作:
获取用户输入的第二手势,所述第二手势用于描述所述虚拟形象的动作和/或表情;
设置与所述虚拟形象的动作和/或表情对应的第三手势和/或事件。
结合第五方面的第五种可能的实现方式,在第六种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体还用于执行以下操作:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
第六方面,提供了一种视频通话装置,所述装置包括触摸显示屏、发送接收/模块、摄像头、存储器以及与所述触摸显示屏、所述发送接收/模块、所述摄像头、所述存储器连接的处理器,其中,所述存储器用于存储一组程序代码,所述处理器调用所述存储器所存储的程序代码用于执行以下操作:
获取用户输入的虚拟形象;
获取当前视频帧;
将所述虚拟形象与所述当前视频帧进行匹配,得到匹配后的当前视频帧;
控制所述发送接收/模块向所述其他视频通话装置发送所述匹配后的当前视频帧。
结合第六方面,在第一种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体用于执行以下操作:
控制所述发送接收/模块接收来自其他视频通话装置的匹配后的当前视频帧;
控制所述触摸显示屏显示接收到的匹配后的当前视频帧。
结合第六方面,在第一种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体用于执行以下操作:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
结合第六方面,在第二种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体用于执行以下操作:
识别用户输入的图片中所包含的虚拟形象。
结合第六方面至第六方面的第二种任意一种可能的实现方式,在第三种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体用于执行以下操作:
识别并获取所述当前视频帧中的人脸部分,并将所述人脸部分与所述虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,并将所述裁剪和/或缩小的结果与所述虚拟形象进行匹配,得到匹配后的当前视频帧。
结合第六方面,在第四种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码还用于执行以下操作:
获取用户输入的虚拟形象的动作和/或表情;
控制所述发送接收/模块向其他视频通话装置发送所述虚拟形象的动作和/或表情;
控制所述触摸显示屏显示接收的虚拟形象的动作和/或表情。
结合第六方面的第四种可能的实现方式,在第五种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码还用于执行以下操作:
获取用户输入的第二手势,所述第二手势用于描述所述虚拟形象的动作和/或表情;
设置与所述虚拟形象的动作和/或表情对应的第三手势和/或事件。
结合第六方面的第五种可能的实现方式,在第七种可能的实现方式中,所述处理器调用所述存储器所存储的程序代码具体用于执行以下操作:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
第七方面,提供了一种视频通话系统,所述系统包括:
第一视频通话装置和第二视频通话装置,其中,
所述第一视频通话装置包括:
虚拟形象获取模块,用于获取用户输入的虚拟形象;
视频帧获取模块,用于获取当前视频帧;
发送模块,用于向第二视频通话装置发送所述虚拟形象和所述当前视频帧;
所述第二视频通话装置包括:
接收模块,用于接收所述虚拟形象和所述当前视频帧;
匹配模块,用于将接收的所述当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧;以及
显示模块,用于显示所述匹配后的当前视频帧。
结合第七方面,在第一种可能的实现方式中,所述虚拟形象获取模块具体用于:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
结合第七方面,在第二种可能的实现方式中,所述虚拟形象获取模块具体用于:
识别用户输入的图片中所包含的虚拟形象。
结合第七方面至第二方面的第二种任意一种可能的实现方式,在第三种可能的实现方式中,所述匹配模块具体用于:
识别并获取所述当前视频帧中的人脸部分,并将所述人脸部分与所述虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,并将所述裁剪和/或缩小的结果与所述虚拟形象进行匹配,得到匹配后的当前视频帧。
结合第七方面,在第四种可能的实现方式中,
所述第一视频通话装置还包括虚拟形象的动作/表情获取模块,用于获取用户输入的虚拟形象的动作和/或表情;
所述发送模块还用于向第二视频通话装置发送所述虚拟形象的动作和/或表情;
所述接收模块还用于接收所述虚拟形象的动作和/或表情;以及
所述显示模块还用于显示接收的虚拟形象的动作和/或表情。
结合第七方面的第四种可能的实现方式,在第五种可能的实现方式中,所述第一视频通话装置还包括:
手势获取模块,用于获取用户输入的第二手势,所述第二手势用于描述所述虚拟形象的动作和/或表情;以及
设置模块,用于设置与所述虚拟形象的动作和/或表情对应的第三手势和/或事件。
结合第七方面的第五种可能的实现方式,在第六种可能的实现方式中,所述虚拟形象的动作/表情获取模块具体用于:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
第八方面,提供了一种视频通话系统,所述系统包括:
第一视频通话装置和第二视频通话装置;其中,
所述第一视频通话装置包括:
虚拟形象获取模块,用于获取用户输入的虚拟形象;
视频帧获取模块,用于获取当前视频帧;
匹配模块,用于将所述虚拟形象与所述当前视频帧进行匹配,得到匹配后的当前视频帧;
发送模块,用于向所述第二视频通话装置发送所述匹配后的当前视频帧;
所述第二视频通话装置包括:
接收模块,用于接收所述匹配后的当前视频帧;以及
显示模块,用于显示接收到的匹配后的当前视频帧。
结合第八方面,在第一种可能的实现方式中,所述虚拟形象获取模块具体用于:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
结合第八方面,在第二种可能的实现方式中,所述虚拟形象获取模块具体用于:
识别用户输入的图片中所包含的虚拟形象。
结合第八方面至第八方面的第二种任意一种可能的实现方式,在第三种可能的实现方式中,所述匹配模块具体用于:
识别并获取所述当前视频帧中的人脸部分,并将所述人脸部分与所述虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据所述虚拟形象对所述当前视频帧进行裁剪和/或缩小,并将所述裁剪和/或缩小的结果与所述虚拟形象进行匹配,得到匹配后的当前视频帧。
结合第八方面,在第四种可能的实现方式中,
所述第一视频通话装置还包括虚拟形象的动作/表情获取模块,用于获取用户输入的虚拟形象的动作和/或表情;
所述发送模块还用于向第二视频通话装置发送所述虚拟形象的动作和/或表情;
所述接收模块还用于接收所述虚拟形象的动作和/或表情;以及
所述显示模块还用于显示接收的虚拟形象的动作和/或表情。
结合第八方面的第四种可能的实现方式,在第五种可能的实现方式中,所述第一视频通话装置还包括:
手势获取模块,用于获取用户输入的第二手势,所述第二手势用于描述所述虚拟形象的动作和/或表情;以及
设置模块,用于设置与所述虚拟形象的动作和/或表情对应的第三手势和/或事件。
结合第八方面的第五种可能的实现方式,在第六种可能的实现方式中,所述虚拟形象的动作/表情获取模块具体用于:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
本发明实施例提供了一种视频通话方法、系统及装置,包括:第一视频通话装置获取用户输入的虚拟形象;第一视频通话装置获取当前视频帧;第一视频通话装置向第二视频通话装置发送虚拟形象和当前视频帧;第二视频通话装置将接收的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧;第二视频通话装置显示匹配后的当前视频帧。不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本发明实施例提供的一种视频通话方法流程图;
图2是本发明实施例提供的一种视频通话方法流程图;
图3是本发明实施例提供的一种视频通话方法流程图;
图4是本发明实施例提供的一种界面示意图;
图5是本发明实施例提供的一种界面示意图;
图6是本发明实施例提供的一种视频通话方法流程图;
图7是本发明实施例提供的一种界面示意图;
图8是本发明实施例提供的一种界面示意图;
图9是本发明实施例提供的一种界面示意图;
图10是本发明实施例提供的一种界面示意图;
图11是本发明实施例提供的一种视频通话方法流程图;
图12是本发明实施例提供的一种界面示意图;
图13是本发明实施例提供的一种界面示意图;
图14是本发明实施例提供的一种视频通话装置结构示意图;
图15是本发明实施例提供的一种视频通话装置结构示意图;
图16是本发明实施例提供的一种视频通话装置结构示意图;
图17是本发明实施例提供的一种视频通话装置结构示意图;
图18是本发明实施例提供的一种视频通话系统示意图;
图19是本发明实施例提供的一种视频通话系统示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明实施例提供了一种视频通话方法,该方法用于即时视频交互场景下的视频通话,其中,即时视频交互可以是会话的参与方通过运行电子设备上的应用程序实现的,该电子设备可以是智能手机、平板电脑和可穿戴设备中的任意一个,本发明实施例对具体的电子设备不加以限定;另外,在即时视频交互过程中,包括即时视频在内的数据传输可以是通过点对点的方式实现的,也可以是通过服务器中转的方式实现的,本发明实施例对具体的数据传输方式不加以限定。
实施例一为本发明实施例提供的一种视频通话方法,参照图1所示,该方法包括:
101、第一视频通话装置获取用户输入的虚拟形象。
具体的,获取用户输入的第一手势,第一手势的轨迹用于描述虚拟形象;或者
识别用户输入的图片中所包含的虚拟形象。
102、第一视频通话装置获取当前视频帧。
值得注意的是,步骤101和步骤102可以是按照所述顺序执行的,也可以先执行步骤102,再执行步骤101,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
103、第一视频通话装置向第二视频通话装置发送虚拟形象和当前视频帧。
104、第二视频通话装置将接收的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧。
具体的,识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧。
105、第二视频通话装置显示匹配后的当前视频帧。
可选的,所述方法还包括:
第一视频通话装置获取用户输入的虚拟形象的动作和/或表情;
第一视频通话装置向第二视频通话装置发送虚拟形象的动作和/或表情;
第二视频通话装置显示接收的虚拟形象的动作和/或表情。
可选的,所述第一视频通话装置获取用户输入的虚拟形象的动作和/或表情的步骤之前,所述方法还包括:
获取用户输入的第二手势,第二手势用于描述虚拟形象的动作和/或表情;
设置与虚拟形象的动作和/或表情对应的第三手势和/或事件。
可选的,所述获取用户输入的虚拟形象的动作和/或表情的步骤包括:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
本发明实施例提供了一种视频通话方法,不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例二为本发明实施例提供的一种视频通话方法,参照图2所示,该方法包括:
201、第一视频通话装置获取用户输入的虚拟形象。
具体的,获取用户输入的第一手势,第一手势的轨迹用于描述虚拟形象;或者
识别用户输入的图片中所包含的虚拟形象。
202、第一视频通话装置获取当前视频帧。
值得注意的是,步骤201和步骤202可以是按照所述顺序执行的,也可以先执行步骤202,再执行步骤201,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
203、第一视频通话装置将虚拟形象与当前视频帧进行匹配,得到匹配后的当前视频帧。
具体的,识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧。
204、第一视频通话装置向第二视频通话装置发送匹配后的当前视频帧。
205、第二视频通话装置显示接收到的匹配后的当前视频帧。
可选的,所述方法还包括:
第一视频通话装置获取用户输入的虚拟形象的动作和/或表情;
第一视频通话装置向第二视频通话装置发送虚拟形象的动作和/或表情;
第二视频通话装置显示接收的虚拟形象的动作和/或表情。
可选的,所述第一视频通话装置获取用户输入的虚拟形象的动作和/或表情的步骤之前,所述方法还包括:
获取用户输入的第二手势,第二手势用于描述虚拟形象的动作和/或表情;
设置与虚拟形象的动作和/或表情对应的第三手势和/或事件。
可选的,所述获取用户输入的虚拟形象的动作和/或表情的步骤包括:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
本发明实施例提供了一种视频通话方法,不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例三为本发明实施例提供的一种视频通话方法,在本发明实施例中,第一视频通话装置通过获取用户输入的用于描述虚拟形象的第一手势来获取用户输入的虚拟形象,且对当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧的操作是在第一视频通话装置上完成的,参照图3所示,该方法包括:
301、第一视频通话装置获取用户输入的虚拟形象。
具体的,获取用户输入的第一手势,第一手势的轨迹用于描述虚拟形象。
第一手势为用户在视频通话界面或预设区域内输入的手势轨迹,该手势轨迹用于描述虚拟形象,该虚拟形象为用户通过手势轨迹输入的形象,该虚拟形象包括视频窗口部分以及其他部分,所述视频窗口部分与其他部分是用户自定义的。
获取用户输入的第一手势的过程可以具体为:
获取用户在视频通话界面或预设区域内输入的第一手势,该第一手势为手势轨迹;
向用户显示该第一手势;
在用户确认后,获取用户输入的用于指示视频窗口部分与其他部分的指示信息。
示例性的,假设视屏通话界面参照图4中的a所示,用户输入的第一手势轨迹参照图4中的b所示,向用户显示该第一手势可以参照图4中的c所示,用户所指示的视频窗口部分可以参照图4中的d所示,其中,除视频窗口部分之外其余全部为其他部分。
通过获取用户通过第一手势输入的虚拟形象,使得在即时视频通话过程中,支持用户通过手势输入的自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。另外,用户通过手势输入的自定义的虚拟形象实现视频通话,进一步满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
302、第一视频通话装置获取当前视频帧。
值得注意的是,步骤301和步骤302可以是按照所述顺序执行的,也可以先执行步骤302,再执行步骤301,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
303、第一视频通话装置向第二视频通话装置发送虚拟形象和当前视频帧。
值得注意的是,在步骤303中,虚拟形象的标识符和当前视频帧可以是分别发送的,也可以是同时发送的,本发明实施例不加以限定。
304、第二视频通话装置将接收的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧。
具体的,识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧,该过程具体为:
识别当前视频帧中的人脸,该识别过程可以是通过对当前视频帧进行显著性检测和/或根据描述该人脸的特征点实现的,本发明实施例对具体的检测过程不加以限定;
获取当前视频帧中至少包括人脸的人脸部分,该人脸部分的尺寸可以是根据当前视频帧中的人脸进行动态调整的。
由于在即时视频交互过程中,用户对人脸部分的关注度高于视频中的其他部分,所以通过识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧中用户的人脸部分与预设形象部分的结合更加自然,不仅提高了匹配后的当前视频帧的显示效果,更满足了即时视频过程中用户对人脸部分的关注度高的要求,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。
除了识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧,还可以根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧,该过程可以为:
根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小;
其中,根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪可以为:
根据虚拟形象的位置,将当前视频帧划分为包括虚拟形象的区域和不包括虚拟形象的区域,该包括虚拟形象的区域即为裁剪结果;
其中,所述两个区域的尺寸可以是预先设置的,也可以是根据虚拟形象的尺寸进行动态调整的,本发明实施例对具体的尺寸不加以限定。
除了根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪之外,还可以通过以下方式实现根据虚拟形象对当前视频帧进行裁剪的过程:
根据预设的划分规则,将当前视频帧划分为至少一个视频子帧;
从至少一个视频子帧中获取裁剪结果。
在实际应用中,该预设的划分规则可以为按照九宫格的方式对当前视频帧进行划分,该九宫格中心部分即为裁剪结果。
通过根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小,将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧中用户的视频画面部分与预设形象部分的结合更加自然,提高了匹配后的当前视频帧的显示效果,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。
305、第二视频通话装置显示匹配后的当前视频帧。
为了进一步说明本发明实施例所述的方法所达到的有益效果,假设现有技术提供的视频通话界面参照图5中的a所示,用户所输入的手势轨迹参照图4中的b所示,用户所指示的视频窗口部分与其他部分可以参照图4中的d所示,在执行本发明实施例所述的方法后,视频通话界面可以参照图5中的b所示,其中,上述界面中显示的第一视频通话装置用户的当前视频帧与虚拟形象匹配后的界面,第二视频通话装置用户的虚拟形象与第一视频通话装置用户的虚拟形象可能相同,也可能不同。
需要说明的是,本发明实施例所述的方法应用于当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧的操作是在第一视频通话装置上完成的场景,该方法同样适用于当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧的操作是在第二视频通话装置上完成的场景。
本发明实施例提供了一种视频通话方法,不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。另外,由于在即时视频交互过程中,用户对人脸部分的关注度高于视频中的其他部分,所以通过识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧中用户的人脸部分与预设形象部分的结合更加自然,不仅提高了匹配后的当前视频帧的显示效果,更满足了即时视频过程中用户对人脸部分的关注度高的要求,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。另外,通过根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小,将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧中用户的视频画面部分与预设形象部分的结合更加自然,提高了匹配后的当前视频帧的显示效果,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。另外,通过获取用户通过第一手势输入的虚拟形象,使得在即时视频通话过程中,支持用户通过手势输入的自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。另外,用户通过手势输入的自定义的虚拟形象实现视频通话,进一步满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例四为本发明实施例提供的一种视频通话方法,在本发明实施例中,第一视频通话装置通过识别用户输入的图片中所包含的虚拟形象来获取用户输入的虚拟形象,且对当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧的操作是在第一视频通话装置上完成的,参照图6所示,该方法包括:
601、第一视频通话装置获取用户输入的虚拟形象。
具体的,识别用户输入的图片中所包含的虚拟形象。
识别用户输入的图片中所包含的虚拟形象的过程可以为:
通过识别器识别用户输入的图片中所包含的至少一个虚拟形象;
向用户显示该至少一个虚拟形象;
获取用户从该至少一个虚拟形象中所选择的虚拟形象;
所述识别器可以是预先通过多个训练样本进行训练生成的,本发明实施例对具体的训练方式不加以限定,另外,上述识别用户输入的图片中所包含的虚拟形象的方式仅仅是示例性的,除了上述方式之外,还可以通过其他方式实现该过程,本发明实施例对具体的方式不加以限定。
用户输入的图片可以是从本地相册以及网络服务器中获取的图片,还可以是当前视频帧画面,本发明实施例对用户输入的具体图片不加以限定。
示例性的,假设用户输入的图片是从本地相册中获取的,该图片参照图7中的a所示,则通过识别器识别用户输入的图片中所包含的至少一个虚拟形象后,向用户显示该至少一个虚拟形象可以参照图7中的b所示;假设用户输入的图片是从网络服务器中获取的,该图片参照图8中的a所示,则通过识别器识别用户输入的图片中所包含的至少一个虚拟形象后,向用户显示该至少一个虚拟形象可以参照图8中的b所示;假设用户输入的图片是当前视频帧画面,该图片参照图9中的a所示,其中,在图9中的a中,用户视频的场景中有一图片,该图片包括虚拟形象,通过识别器识别用户输入的图片中所包含的至少一个虚拟形象后,向用户显示该至少一个虚拟形象可以参照图9中的b所示。
需要说明的是,在获取用户从该至少一个虚拟形象中所选择的虚拟形象之后,还需要用户指示视频窗口部分与其他部分,该过程与实施例三所述的过程相同,此处不再加以赘述。
通过识别用户输入的图片中所包含的虚拟形象,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。另外,用户通过输入的图片来输入虚拟形象实现视频通话,进一步满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
602、第一视频通话装置获取当前视频帧。
值得注意的是,步骤601和步骤602可以是按照所述顺序执行的,也可以先执行步骤602,再执行步骤601,还可以是同时执行的,本发明实施例对具体的执行顺序不加以限定。
603、第一视频通话装置向第二视频通话装置发送虚拟形象和当前视频帧。
值得注意的是,在步骤603中,虚拟形象和当前视频帧可以是分别发送的,也可以是同时发送的,本发明实施例不加以限定。
604、第二视频通话装置将接收的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧。
具体的,识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧;
由于在即时视频交互过程中,用户对人脸部分的关注度高于视频中的其他部分,所以通过识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧中用户的人脸部分与预设形象部分的结合更加自然,不仅提高了匹配后的当前视频帧的显示效果,更满足了即时视频过程中用户对人脸部分的关注度高的要求,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧。
通过根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小,将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧中用户的视频画面部分与预设形象部分的结合更加自然,提高了匹配后的当前视频帧的显示效果,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。
605、第二视频通话装置显示匹配后的当前视频帧。
为了进一步说明本发明实施例所述提供的方法所达到的有益效果,假设常规的视频通话界面参照图10中的a所示,用户输入的图片中所包含的虚拟形象参照图7中的b所示,则在执行本发明实施例所述的方法后,视频通话界面可以参照图10中的b所示;用户输入的图片中所包含的虚拟形象参照图8中的b所示,则在执行本发明实施例所述的方法后,视频通话界面可以参照图10中的c所示;用户输入的图片中所包含的虚拟形象参照图9中的b所示,则在执行本发明实施例所述的方法后,视频通话界面可以参照图10中的d所示,其中,上述界面中显示的第一视频通话装置用户的当前视频帧与虚拟形象匹配后的界面,第二视频通话装置用户的虚拟形象与第一视频通话装置用户的虚拟形象可能相同,也可能不同。
需要说明的是,本发明实施例所述的方法应用于当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧的操作是在第一视频通话装置上完成的场景,该方法同样适用于当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧的操作是在第二视频通话装置上完成的场景。
本发明实施例提供了一种视频通话方法,不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。另外,由于在即时视频交互过程中,用户对人脸部分的关注度高于视频中的其他部分,所以通过识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧中用户的人脸部分与预设形象部分的结合更加自然,不仅提高了匹配后的当前视频帧的显示效果,更满足了即时视频过程中用户对人脸部分的关注度高的要求,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。另外,通过根据虚拟形象在屏幕中的位置对当前视频帧进行裁剪和/或缩小,将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧,使得匹配后的当前视频帧中用户的视频画面部分与预设形象部分的结合更加自然,提高了匹配后的当前视频帧的显示效果,从而增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,提高了用户在即时视频交互过程中的交互体验。另外,通过识别用户输入的图片中所包含的虚拟形象,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。另外,用户通过输入的图片来输入虚拟形象实现视频通话,进一步满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例五为本发明实施例提供的一种视频通话方法,在本发明实施例中,第一视频通话装置获取用户输入的虚拟形象的动作和/或表情,以使第二视频通话装置显示接收的虚拟形象的动作和/或表情,参照图11所示,该方法包括:
1101、获取用户输入的第二手势,第二手势用于描述虚拟形象的动作和/或表情。
具体的,第二手势为用户在视频通话界面或预设区域内输入的手势轨迹,该手势轨迹用于描述虚拟形象的动作和/或表情,该虚拟形象为用户通过手势轨迹输入的虚拟形象的动作和/或表情。
获取用户输入的第二手势的过程可以具体为:
获取用户在视频通话界面、预设区域以及虚拟形象所在的区域内的任意一个输入的第二手势,该第二手势为手势轨迹;
向用户显示该第二手势;
在用户确认后,向用户显示该第二手势所描述的虚拟形象的动作和/或表情;
在用户确认后,存储该第二手势所描述的虚拟形象的动作和/或表情。
示例性的,假设用户输入的第二手势参照图12中的a所示,该第二手势对应的虚拟形象的动作和/或表情为虚拟形象左右摇晃,参照图12中的b所示。
1102、设置与虚拟形象的动作和/或表情对应的第三手势和/或事件。
具体的,获取用户在视频通话界面和/或预设区域中输入的第三手势和/或事件;
向用户显示该第三手势或描述该事件的描述信息;
在用户确认后,存储该第三手势和/或事件。
值得注意的是,步骤1101至步骤1102所述的过程是可选过程,在每次执行步骤1103之前,都不必执行步骤1101至步骤1102所述的过程,即在步骤1103以及后续流程中可以使用预先设置好的与虚拟形象的动作和/或表情对应的第三手势和/或事件。
1103、第一视频通话装置获取用户输入的虚拟形象的动作和/或表情。
具体的,根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情,该过程可以为:
获取用户输入的第三手势与预先存储的第三手势之间的相似度;
若相似度满足预设条件,则获取预先存储的与该第三手势对应的虚拟形象的动作和/或表情;或者
检测用户是否输入事件;
若是,则获取预先存储的与该事件对应的虚拟形象的动作和/或表情。
1104、第一视频通话装置向第二视频通话装置发送虚拟形象的动作和/或表情。
具体的,可以通过第二视频通话装置的网络地址,向第二视频通话装置发送虚拟形象的动作和/或表情,本发明实施例对具体的发送方式不加以限定。
1105、第二视频通话装置显示接收的虚拟形象的动作和/或表情。
具体的,可以根据显示指令,显示接收的虚拟形象的动作和/或表情
为了进一步说明本发明实施例所述的方法所达到的有益效果,假设用户输入的虚拟形象的动作和/或表情参照图12中的b所示,在执行本发明实施例所述的方法后,视频通话界面可以参照图13所示。
需要说明的是,本发明实施例所述的方法应用于当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧的操作是在第一视频通话装置上完成的场景,该方法同样适用于当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧的操作是在第二视频通话装置上完成的场景。
本发明实施例提供了一种视频通话方法,不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。另外,在用户关闭摄像头、网络环境较差以及用户不方便视频等无法进行即时视频交互的场景下,可以通过显示虚拟形象的动作和/或表情,继续实现交互,从而进一步增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例九为本发明实施例提供的一种视频通话装置14,参照图14所示,该装置包括:
虚拟形象获取模块1401,用于获取用户输入的虚拟形象;
当前视频帧获取模块1402,用于获取当前视频帧;以及
发送模块1403,用于向其他视频通话装置发送虚拟形象和当前视频帧。
可选的,装置还包括:
接收模块1404,用于接收来自其他视频通话装置的虚拟形象和当前视频帧;
匹配模块1405,用于将接收的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧;以及
显示模块1406,用于显示匹配后的当前视频帧。
可选的,虚拟形象获取模块1401具体用于:
获取用户输入的第一手势,第一手势的轨迹用于描述虚拟形象。
可选的,虚拟形象获取模块1401具体用于:
识别用户输入的图片中所包含的虚拟形象。
可选的,匹配模块1405用于:
识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧。
可选的,
装置还包括虚拟形象的动作/表情获取模块1407,用于获取用户输入的虚拟形象的动作和/或表情;
发送模块1403还用于向其他视频通话装置发送虚拟形象的动作和/或表情;
接收模块1404还用于接收来自其他视频通话装置的虚拟形象的动作和/或表情;以及
显示模块1406还用于显示接收的虚拟形象的动作和/或表情。
可选的,装置还包括:
手势获取模块1408,用于获取用户输入的第二手势,第二手势用于描述虚拟形象的动作和/或表情;以及
设置模块1409,用于设置与虚拟形象的动作和/或表情对应的第三手势和/或事件。
可选的,虚拟形象的动作/表情获取模块1407具体用于:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
本发明实施例提供了一种视频通话装置,该装置不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例十为本发明实施例提供的一种视频通话装置,参照图15所示,该装置包括触摸显示屏1501、发送接收/模块1502、摄像头1503、存储器1504以及与触摸显示屏1501、发送接收/模块1502、摄像头1503、存储器1504连接的处理器1505,其中,存储器1504用于存储一组程序代码,处理器1505调用存储器1504所存储的程序代码用于执行以下操作:
获取用户输入的虚拟形象;
获取当前视频帧;
控制发送接收/模块1502向其他视频通话装置发送虚拟形象和当前视频帧。
可选的,处理器1505调用存储器1504所存储的程序代码用于执行以下操作:
控制发送接收/模块1502接收来自其他视频通话装置的虚拟形象和当前视频帧;
将接收的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧;以及
控制触摸显示屏1501显示匹配后的当前视频帧。
可选的,处理器1505调用存储器1504所存储的程序代码具体用于执行以下操作:
获取用户输入的第一手势,第一手势的轨迹用于描述虚拟形象。
可选的,处理器1505调用存储器1504所存储的程序代码具体用于执行以下操作:
识别用户输入的图片中所包含的虚拟形象。
可选的,处理器1505调用存储器1504所存储的程序代码具体用于执行以下操作:
识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧。
可选的,处理器1505调用存储器1504所存储的程序代码还用于执行以下操作:
获取用户输入的虚拟形象的动作和/或表情;
控制发送接收/模块1502向其他视频通话装置发送虚拟形象的动作和/或表情;
控制发送接收/模块1502接收来自其他视频通话装置的虚拟形象的动作和/或表情;
控制触摸显示屏1501显示接收的虚拟形象的动作和/或表情。
可选的,处理器1505调用存储器1504所存储的程序代码还用于执行以下操作:
获取用户输入的第二手势,第二手势用于描述虚拟形象的动作和/或表情;
设置与虚拟形象的动作和/或表情对应的第三手势和/或事件。
可选的,处理器1505调用存储器1504所存储的程序代码还用于执行以下操作:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
本发明实施例提供了一种视频通话装置,该装置不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例十一为本发明实施例提供的一种视频通话装置,参照图16所示,该装置包括:
虚拟形象获取模块1601,用于获取用户输入的虚拟形象;
当前视频帧获取模块1602,用于获取当前视频帧;
匹配模块1603,用于将虚拟形象与当前视频帧进行匹配,得到匹配后的当前视频帧;
发送模块1604,用于向其他视频通话装置发送匹配后的当前视频帧;
可选的,装置还包括:
接收模块1605,用于接收来自其他视频通话装置的匹配后的当前视频帧;以及
显示模块1606,用于显示接收到的匹配后的当前视频帧。
可选的,虚拟形象获取模块1601具体用于:
获取用户输入的第一手势,第一手势的轨迹用于描述虚拟形象。
可选的,虚拟形象获取模块1601具体用于:
识别用户输入的图片中所包含的虚拟形象。
可选的,匹配模块1603具体用于:
识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧。
可选的,
装置还包括虚拟形象的动作/表情获取模块1607,用于获取用户输入的虚拟形象的动作和/或表情;
发送模块1604还用于向其他视频通话装置发送虚拟形象的动作和/或表情;
接收模块1605还用于接收来自其他视频通话装置的虚拟形象的动作和/或表情;以及
显示模块1606还用于显示接收的虚拟形象的动作和/或表情。
可选的,装置还包括:
手势获取模块1608,用于获取用户输入的第二手势,第二手势用于描述虚拟形象的动作和/或表情;以及
设置模块1609,用于设置与虚拟形象的动作和/或表情对应的第三手势和/或事件。
可选的,虚拟形象的动作/表情获取模块1607具体用于:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
本发明实施例提供了一种视频通话装置,该装置不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例十二为本发明实施例提供的一种视频通话装置,参照图17所示,该装置包括触摸显示屏1701、发送接收/模块1702、摄像头1703、存储器1704以及与触摸显示屏1701、发送接收/模块1702、摄像头1703、存储器1704连接的处理器1705,其中,存储器1704用于存储一组程序代码,处理器1705调用存储器1704所存储的程序代码用于执行以下操作:
获取用户输入的虚拟形象;
获取当前视频帧;
将虚拟形象与当前视频帧进行匹配,得到匹配后的当前视频帧;
控制发送接收/模块1702向其他视频通话装置发送匹配后的当前视频帧。
可选的,处理器1705调用存储器1704所存储的程序代码用于执行以下操作:
控制发送接收/模块1702接收来自其他视频通话装置的匹配后的当前视频帧;
控制触摸显示屏1701显示接收到的匹配后的当前视频帧。
可选的,处理器1705调用存储器1704所存储的程序代码具体用于执行以下操作:
获取用户输入的第一手势,第一手势的轨迹用于描述虚拟形象。
可选的,处理器1705调用存储器1704所存储的程序代码具体用于执行以下操作:
识别用户输入的图片中所包含的虚拟形象。
可选的,处理器1705调用存储器1704所存储的程序代码具体用于执行以下操作:
识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧。
可选的,处理器1705调用存储器1704所存储的程序代码还用于执行以下操作:
获取用户输入的虚拟形象的动作和/或表情;
控制发送接收/模块1702向其他视频通话装置发送虚拟形象的动作和/或表情;
控制发送接收/模块1702接收来自其他视频通话装置的虚拟形象的动作和/或表情;
控制触摸显示屏1701显示接收的虚拟形象的动作和/或表情。
可选的,处理器1705调用存储器1704所存储的程序代码还用于执行以下操作:
获取用户输入的第二手势,第二手势用于描述虚拟形象的动作和/或表情;
设置与虚拟形象的动作和/或表情对应的第三手势和/或事件。
可选的,处理器1705调用存储器1704所存储的程序代码还用于执行以下操作:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
本发明实施例提供了一种视频通话装置,该装置不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例十三为本发明实施例提供的一种视频通话系统,参照图18所示,该系统包括:
第一视频通话装置181和第二视频通话装置182,其中,
第一视频通话装置181包括:
虚拟形象获取模块1811,用于获取用户输入的虚拟形象;
视频帧获取模块1812,用于获取当前视频帧;
发送模块1813,用于向第二视频通话装置发送虚拟形象和当前视频帧;
第二视频通话装置182包括:
接收模块1821,用于接收虚拟形象和当前视频帧;
匹配模块1822,用于将接收的当前视频帧和虚拟形象进行匹配,得到匹配后的当前视频帧;以及
显示模块1823,用于显示匹配后的当前视频帧。
可选的,虚拟形象获取模块1811具体用于:
获取用户输入的第一手势,第一手势的轨迹用于描述虚拟形象。
可选的,虚拟形象获取模块1811具体用于:
识别用户输入的图片中所包含的虚拟形象。
可选的,匹配模块1822具体用于:
识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧。
可选的,
第一视频通话装置181还包括虚拟形象的动作/表情获取模块1814,用于获取用户输入的虚拟形象的动作和/或表情;
发送模块1813还用于向第二视频通话装置发送虚拟形象的动作和/或表情;
接收模块1821还用于接收虚拟形象的动作和/或表情;以及
显示模块1823还用于显示接收的虚拟形象的动作和/或表情。
可选的,第一视频通话装置181还包括:
手势获取模块1815,用于获取用户输入的第二手势,第二手势用于描述虚拟形象的动作和/或表情;以及
设置模块1816,用于设置与虚拟形象的动作和/或表情对应的第三手势和/或事件。
可选的,虚拟形象的动作/表情获取模块1814具体用于:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
本发明实施例提供了一种视频通话系统,该系统不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
实施例十四为本发明实施例提供的一种视频通话系统,参照图19所示,该系统包括:
第一视频通话装置191和第二视频通话装置192;其中,
第一视频通话装置191包括:
虚拟形象获取模块1911,用于获取用户输入的虚拟形象;
视频帧获取模块1912,用于获取当前视频帧;
匹配模块1913,用于将虚拟形象与当前视频帧进行匹配,得到匹配后的当前视频帧;
发送模块1914,用于向第二视频通话装置发送匹配后的当前视频帧;
第二视频通话装置192包括:
接收模块1921,用于接收匹配后的当前视频帧;以及
显示模块1922,用于显示接收到的匹配后的当前视频帧。
可选的,虚拟形象获取模块1911具体用于:
获取用户输入的第一手势,第一手势的轨迹用于描述虚拟形象。
可选的,虚拟形象获取模块1911具体用于:
识别用户输入的图片中所包含的虚拟形象。
可选的,匹配模块1913具体用于:
识别并获取当前视频帧中的人脸部分,并将人脸部分与虚拟形象进行匹配,得到匹配后的当前视频帧;或者
根据虚拟形象对当前视频帧进行裁剪和/或缩小,并将裁剪和/或缩小的结果与虚拟形象进行匹配,得到匹配后的当前视频帧。
可选的,
第一视频通话装置191还包括虚拟形象的动作/表情获取模块1915,用于获取用户输入的虚拟形象的动作和/或表情;
发送模块1914还用于向第二视频通话装置发送虚拟形象的动作和/或表情;
接收模块1921还用于接收虚拟形象的动作和/或表情;以及
显示模块1922还用于显示接收的虚拟形象的动作和/或表情。
可选的,第一视频通话装置191还包括:
手势获取模块1916,用于获取用户输入的第二手势,第二手势用于描述虚拟形象的动作和/或表情;以及
设置模块1917,用于设置与虚拟形象的动作和/或表情对应的第三手势和/或事件。
可选的,虚拟形象的动作/表情获取模块1915具体用于:
根据用户输入的第三手势和/或事件,获取对应的虚拟形象的动作和/或表情。
本发明实施例提供了一种视频通话系统,该系统不仅通过在即时视频交互过程中,显示当前视频帧和虚拟形象进行匹配所得到的匹配后的当前视频帧,相比于传统的即时视频显示方法,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,还通过获取用户输入的虚拟形象,支持用户通过自定义的虚拟形象实现视频通话,增加了即时视频的显示方式,满足了即时视频交互过程中用户的个性化需求,同时,增加了即时视频参与者在交互过程中的互动性,提高了交互体验。
上述所有可选技术方案,可以采用任意结合形成本发明的可选实施例,在此不再一一赘述。
需要说明的是:上述实施例提供的视频通话装置和系统在执行视频通话方法时,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。另外,上述实施例提供的视频通话方法、装置以及系统实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
以上所述仅为本发明的较佳实施例,并不用以限制本发明,凡在本发明的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种视频通话方法,其特征在于,所述方法包括:
第一视频通话装置获取用户输入的虚拟形象;
所述第一视频通话装置获取当前视频帧;
所述第一视频通话装置向第二视频通话装置发送所述虚拟形象和所述当前视频帧;
所述第二视频通话装置将接收的所述当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧;以及
所述第二视频通话装置显示所述匹配后的当前视频帧。
2.根据权利要求1所述的方法,其特征在于,所述获取用户输入的虚拟形象包括:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
3.根据权利要求1所述的方法,其特征在于,所述获取用户输入的虚拟形象包括:
识别用户输入的图片中所包含的虚拟形象。
4.一种视频通话方法,其特征在于,所述方法包括:
所述第一视频通话装置获取用户输入的虚拟形象;
所述第一视频通话装置获取当前视频帧;
所述第一视频通话装置将所述虚拟形象与所述当前视频帧进行匹配,得到匹配后的当前视频帧;
所述第一视频通话装置向所述第二视频通话装置发送所述匹配后的当前视频帧;
所述第二视频通话装置显示接收到的匹配后的当前视频帧。
5.根据权利要求4所述的方法,其特征在于,所述获取用户输入的虚拟形象包括:
获取用户输入的第一手势,所述第一手势的轨迹用于描述所述虚拟形象。
6.根据权利要求4所述的方法,其特征在于,所述获取用户输入的虚拟形象包括:
识别用户输入的图片中所包含的虚拟形象。
7.一种视频通话装置,其特征在于,所述装置包括:
虚拟形象获取模块,用于获取用户输入的虚拟形象;
当前视频帧获取模块,用于获取当前视频帧;以及
发送模块,用于向其他视频通话装置发送所述虚拟形象和所述当前视频帧。
8.根据权利要求7所述的装置,其特征在于,所述装置还包括:
接收模块,用于接收来自所述其他视频通话装置的虚拟形象和当前视频帧;
匹配模块,用于将接收的所述当前视频帧和所述虚拟形象进行匹配,得到匹配后的当前视频帧;以及
显示模块,用于显示所述匹配后的当前视频帧。
9.一种视频通话装置,其特征在于,所述装置包括:
虚拟形象获取模块,用于获取用户输入的虚拟形象;
当前视频帧获取模块,用于获取当前视频帧;
匹配模块,用于将所述虚拟形象与所述当前视频帧进行匹配,得到匹配后的当前视频帧;
发送模块,用于向其他视频通话装置发送所述匹配后的当前视频帧。
10.一种视频通话系统,其特征在于,所述系统包括:
第一视频通话装置和第二视频通话装置;其中,
所述第一视频通话装置包括:
虚拟形象获取模块,用于获取用户输入的虚拟形象;
视频帧获取模块,用于获取当前视频帧;
匹配模块,用于将所述虚拟形象与所述当前视频帧进行匹配,得到匹配后的当前视频帧;
发送模块,用于向所述第二视频通话装置发送所述匹配后的当前视频帧;
所述第二视频通话装置包括:
接收模块,用于接收所述匹配后的当前视频帧;以及
显示模块,用于显示接收到的匹配后的当前视频帧。
CN201510971421.3A 2015-12-22 2015-12-22 一种视频通话方法、系统及装置 Active CN105554430B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510971421.3A CN105554430B (zh) 2015-12-22 2015-12-22 一种视频通话方法、系统及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510971421.3A CN105554430B (zh) 2015-12-22 2015-12-22 一种视频通话方法、系统及装置

Publications (2)

Publication Number Publication Date
CN105554430A true CN105554430A (zh) 2016-05-04
CN105554430B CN105554430B (zh) 2019-07-05

Family

ID=55833345

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510971421.3A Active CN105554430B (zh) 2015-12-22 2015-12-22 一种视频通话方法、系统及装置

Country Status (1)

Country Link
CN (1) CN105554430B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107145238A (zh) * 2017-05-24 2017-09-08 维沃移动通信有限公司 一种信息发送方法及电子设备
CN107295412A (zh) * 2017-06-14 2017-10-24 深圳天珑无线科技有限公司 数据处理方法、装置及系统
CN107705278A (zh) * 2017-09-11 2018-02-16 广东欧珀移动通信有限公司 动态效果的添加方法和终端设备
WO2018107918A1 (zh) * 2016-12-15 2018-06-21 腾讯科技(深圳)有限公司 一种虚拟形象之间互动的方法、终端及系统
CN108271057A (zh) * 2018-02-02 2018-07-10 优酷网络技术(北京)有限公司 视频互动方法、用户客户端、服务器及可读存储介质
CN108683872A (zh) * 2018-08-30 2018-10-19 Oppo广东移动通信有限公司 视频通话方法、装置、存储介质及移动终端
CN110769323A (zh) * 2018-07-27 2020-02-07 Tcl集团股份有限公司 一种视频通信方法、系统、装置和终端设备
CN114367115A (zh) * 2022-01-14 2022-04-19 北京优艾互动科技有限公司 一种玩偶交互方法和装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101287093A (zh) * 2008-05-30 2008-10-15 北京中星微电子有限公司 在视频通信中添加特效的方法及视频客户端
CN103220490A (zh) * 2013-03-15 2013-07-24 广东欧珀移动通信有限公司 一种在视频通信中实现特效的方法及视频用户端
US9100647B1 (en) * 2007-01-05 2015-08-04 Marvell International Ltd. Film grain generator

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9100647B1 (en) * 2007-01-05 2015-08-04 Marvell International Ltd. Film grain generator
CN101287093A (zh) * 2008-05-30 2008-10-15 北京中星微电子有限公司 在视频通信中添加特效的方法及视频客户端
CN103220490A (zh) * 2013-03-15 2013-07-24 广东欧珀移动通信有限公司 一种在视频通信中实现特效的方法及视频用户端

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108234276B (zh) * 2016-12-15 2020-01-14 腾讯科技(深圳)有限公司 一种虚拟形象之间互动的方法、终端及系统
WO2018107918A1 (zh) * 2016-12-15 2018-06-21 腾讯科技(深圳)有限公司 一种虚拟形象之间互动的方法、终端及系统
CN108234276A (zh) * 2016-12-15 2018-06-29 腾讯科技(深圳)有限公司 一种虚拟形象之间互动的方法、终端及系统
CN107145238A (zh) * 2017-05-24 2017-09-08 维沃移动通信有限公司 一种信息发送方法及电子设备
CN107295412A (zh) * 2017-06-14 2017-10-24 深圳天珑无线科技有限公司 数据处理方法、装置及系统
CN107295412B (zh) * 2017-06-14 2021-02-19 深圳天珑无线科技有限公司 数据处理方法、装置及系统
CN107705278A (zh) * 2017-09-11 2018-02-16 广东欧珀移动通信有限公司 动态效果的添加方法和终端设备
CN108271057A (zh) * 2018-02-02 2018-07-10 优酷网络技术(北京)有限公司 视频互动方法、用户客户端、服务器及可读存储介质
CN110769323A (zh) * 2018-07-27 2020-02-07 Tcl集团股份有限公司 一种视频通信方法、系统、装置和终端设备
CN110769323B (zh) * 2018-07-27 2021-06-18 Tcl科技集团股份有限公司 一种视频通信方法、系统、装置和终端设备
CN108683872B (zh) * 2018-08-30 2019-10-15 Oppo广东移动通信有限公司 视频通话方法、装置、存储介质及移动终端
CN108683872A (zh) * 2018-08-30 2018-10-19 Oppo广东移动通信有限公司 视频通话方法、装置、存储介质及移动终端
CN114367115A (zh) * 2022-01-14 2022-04-19 北京优艾互动科技有限公司 一种玩偶交互方法和装置

Also Published As

Publication number Publication date
CN105554430B (zh) 2019-07-05

Similar Documents

Publication Publication Date Title
CN105554430A (zh) 一种视频通话方法、系统及装置
US9497416B2 (en) Virtual circular conferencing experience using unified communication technology
CN105554429A (zh) 一种视频通话显示方法及视频通话设备
EP2685715B1 (en) Method and device for managing video resources in video conference
CN109618177A (zh) 视频处理方法、装置、电子设备及计算机可读存储介质
EP2770668B1 (en) Apparatus and Method for Controlling a Messenger Service in a Terminal
CN105611215A (zh) 一种视频通话方法及装置
CN110070496B (zh) 图像特效的生成方法、装置和硬件装置
CN104780338A (zh) 一种即时视频中的表情特效动画加载方法和电子设备
US8925019B2 (en) Synchronous display streaming system and synchronous displaying method
CN107040808B (zh) 用于视频播放中弹幕图片的处理方法和装置
CN111654746A (zh) 视频的插帧方法、装置、电子设备和存储介质
CN107623833B (zh) 视频会议的控制方法、装置及系统
CN105407313A (zh) 一种视频通话方法、设备和系统
CN105516638A (zh) 一种视频通话方法、装置和系统
CN109121000A (zh) 一种视频处理方法及客户端
CN105578110A (zh) 一种视频通话方法、装置和系统
CN105657323A (zh) 一种视频通话方法、装置和系统
CN205281405U (zh) 一种基于增强现实的图像识别系统
CN105163196A (zh) 一种即时视频的编码方法和电子设备
CN105163197A (zh) 一种即时视频的编码方法和电子设备
CN103294193A (zh) 多终端互动的方法、装置和系统
CN103279268B (zh) 一种基于受控终端列表的互动方法及装置
CN114125485B (zh) 图像处理方法、装置、设备及介质
CN105487769A (zh) 一种媒体文件展示方法、装置及电子设备

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20200716

Address after: 603a, block a, Xinghe world, No.1 Yabao Road, Longgang District, Shenzhen City, Guangdong Province

Patentee after: Shenzhen Weiwu Technology Co., Ltd

Address before: 200063, Shanghai, Putuo District, home on the first floor of the cross road, No. 28

Patentee before: Palmwin Information Technology (Shanghai) Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210128

Address after: 518051 2503, building 15, Longhai homeland, 5246 Yihai Avenue, baonanshan District, Shenzhen City, Guangdong Province

Patentee after: Xiao Feng

Address before: 603a, block a, Xinghe world, No.1, Yabao Road, Longgang District, Shenzhen, Guangdong 518035

Patentee before: Shenzhen Weiwu Technology Co., Ltd