WO2022089273A1 - 视频通话的互动方法和装置 - Google Patents

视频通话的互动方法和装置 Download PDF

Info

Publication number
WO2022089273A1
WO2022089273A1 PCT/CN2021/124942 CN2021124942W WO2022089273A1 WO 2022089273 A1 WO2022089273 A1 WO 2022089273A1 CN 2021124942 W CN2021124942 W CN 2021124942W WO 2022089273 A1 WO2022089273 A1 WO 2022089273A1
Authority
WO
WIPO (PCT)
Prior art keywords
input
video call
user
display
preset
Prior art date
Application number
PCT/CN2021/124942
Other languages
English (en)
French (fr)
Inventor
胡双双
Original Assignee
维沃移动通信有限公司
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 维沃移动通信有限公司 filed Critical 维沃移动通信有限公司
Priority to EP21885001.4A priority Critical patent/EP4220369A4/en
Priority to KR1020237008016A priority patent/KR20230047172A/ko
Publication of WO2022089273A1 publication Critical patent/WO2022089273A1/zh
Priority to US18/138,076 priority patent/US20230259260A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04886Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/142Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/141Systems for two-way working between two video terminals, e.g. videophone
    • H04N7/147Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/14Systems for two-way working
    • H04N7/15Conference systems

Abstract

一种视频通话的互动方法和装置,属于通信技术领域。该视频通话的互动方法包括:在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入(S101);响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象(S102),其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。

Description

视频通话的互动方法和装置
相关申请的交叉引用
本申请主张在2020年10月27日在中国提交的中国专利申请号202011167360.2的优先权,其全部内容通过引用包含于此。
技术领域
本申请属于通信技术领域,具体涉及一种视频通话的互动方法和装置。
背景技术
随着移动互联网的蓬勃发展和电子设备的不断普及,用户对于移动互联网有了更多的需求。如今,视频通话作为电子设备的一项实用性功能得到了越来越多人的青睐,通过电子设备进行视频通话的用户也越来越多。
相关技术中,当用户双方通过电子设备进行视频通话时,用户可以从屏幕中观看到对方的真实画面,从而实现相互看着对方进行交流的通话体验。然而,由于视频通话是隔着网络和屏幕的,因此相关技术中缺乏一些趣味性高的互动功能,互动方式比较单一,无法为用户的视频通话过程提供多样化的互动体验。
发明内容
本申请实施例的目的是提供一种视频通话的互动方法和装置,能够解决相关技术中视频通话过程中的互动方式比较单一的问题。
第一方面,本申请实施例提供了一种视频通话的互动方法,应用于至少具有一个显示屏的电子设备,该方法包括:
在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入;
响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第 一对象,其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。
第二方面,本申请实施例提供了一种视频通话的互动装置,应用于至少具有一个显示屏的电子设备,该装置包括:
接收模块,用于在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入;
显示模块,用于响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序或指令,程序或指令被处理器执行时实现如第一方面的视频通话的互动方法的步骤。
第四方面,本申请实施例提供了一种可读存储介质,该可读存储介质上存储程序或指令,程序或指令被处理器执行时实现如第一方面的视频通话的互动方法的步骤。
第五方面,本申请实施例提供了一种芯片,该芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现如第一方面的视频通话的互动方法。
在本申请实施例中,在第一用户与第二用户进行视频通话的过程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入时,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。
附图说明
图1是本申请提供的视频通话的互动方法的实施例的流程示意图;
图2是本申请实施例提供的视频通话的互动界面的示意图之一;
图3是本申请实施例提供的视频通话的互动界面的示意图之二;
图4是本申请实施例提供的视频通话的互动界面的示意图之三;
图5是本申请实施例提供的视频通话的互动界面的示意图之四;
图6是本申请实施例提供的视频通话的互动界面的示意图之五;
图7是本申请提供的视频通话的互动方法的另一实施例的流程示意图;
图8是本申请实施例提供的视频通话的互动界面的示意图之六;
图9是本申请实施例提供的视频通话的互动界面的示意图之七;
图10是本申请提供的视频通话的互动方法的再一实施例的流程示意图;
图11是本申请实施例提供的视频通话的互动界面的示意图之八;
图12是本申请实施例提供的视频通话的互动界面的示意图之九;
图13是本申请实施例提供的电子设备的结构示意图;
图14是本申请实施例提供的视频通话的互动界面的示意图之十;
图15是本申请实施例提供的视频通话的互动装置的结构示意图;
图16是本申请实施例提供的电子设备的示例的硬件结构示意图;
图17是本申请实施例提供的电子设备的另一示例的硬件结构示意图。
具体实施方式
下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本发明,而不是限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是 多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
如背景技术,相关技术中,当用户双方通过电子设备进行视频通话时,用户可以从屏幕中观看到对方的真实画面,从而实现相互看着对方进行交流的通话体验。
然而,由于视频通话是隔着网络和屏幕的,因此相关技术中缺乏一些趣味性高的互动功能,互动方式比较单一,无法为用户的视频通话过程提供多样化的互动体验。
针对相关技术中出现的问题,本申请实施例提供了一种视频通话的互动方法,在第一用户与第二用户进行视频通话的过程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入时,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验,解决了相关技术中视频通话过程中的互动方式比较单一的问题。
下面结合附图,以视频通话的互动方法的执行主体为至少具有一个显示屏的电子设备为例,通过具体的实施例对本申请实施例提供的视频通话的互动方法进行详细地说明。需要说明的是,上述执行主体并不构成对本申请的限定。
需要说明的是,本申请实施例中的电子设备可以包括下述中的至少一种:手机、平板电脑、智能穿戴设备等具有接收信息以及显示信息功能的设备。
图1是本申请提供的视频通话的互动方法的实施例的流程示意图。如图1所示,该视频通话的互动方法可以包括S101和S102。
S101,在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入。
在第二用户通过电子设备与第一用户进行视频通话的过程中,视频通话界面可显示有第一用户对应的第一对象和第二用户对应的第二对象。
在一个示例中,第一用户为用户A,第二用户为用户B。图2是本申请提供的视频通话的互动界面的示例的示意图,如图2所示,在用户A、B的视频通话界面,显示有对象a、b。其中,对象a为用户A对应的第一对象,对象b为用户B对应的第二对象。
电子设备接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入,其中,第一输入可以包括对第一对象的目标部位的触摸输入。
在这里,目标部位可以为第二用户从第一对象的多个身体部位中选取的某个身体部位,例如,第一对象的脸部、肩部、手部等。触摸输入可以为第二用户对目标部位的点击输入、双击输入、拖拽输入、滑动输入等,以及两个或多个输入之间的组合。
示例性地,如图3所示,第一用户对应的第一对象为对象a,第一输入可以为第二用户对对象a的脸部位置N1(即目标部位)的拖拽输入。
在一个实施例中,在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入,可以包括:在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的目标部位的触摸输入。
在一个实施例中,在上述至少具有一个显示屏的电子设备为智能穿戴设备的情况下,第二用户对应的第二对象可以为第二用户的全景人像。
S102,响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象。
在第一输入为对第一对象的目标部位的触摸输入的情况下,第一输入对应的第一预设显示方式可以包括:对应触摸输入的目标部位产生形变。
在一个实施例中,响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以包括:在视频通话界面显示目标部位产生形变的第一对象。
示例性地,第一用户对应的第一对象为对象a,电子设备接收到第二用户对对象a的脸部位置N1的拖拽输入,对象a的脸部即为目标部位。响应于该拖拽输入,对象a的脸部则可产生相应的形变。
如此,电子设备通过接收用户对视频通话对象的目标部位的触摸输入,响应于该触摸输入,可以在视频通话界面显示目标部位产生形变的视频通话对象,实现与视频通话对象的趣味性互动,丰富了视频通话过程中的互动方式。
在一个实施例中,第一输入还可以包括第二用户对第一对象的拖拽输入、点击输入、双击输入、滑动输入、旋转输入等,以及两个或多个输入之间的组合,并可以根据具体需求设置不同的第一输入对应的显示方式。
例如,第一输入为第二用户旋转第一对象,则如图2所示,该第一输入对应的第一预设显示方式为第一对象旋转。
又例如,第一输入为第二用户双击第一对象,则该第一输入对应的第一预设显示方式可以包括:显示跳动的第一对象。
再例如,第一输入为第二用户双指长按第一对象,并且双指同时向相反方向进行移动,则该第一输入对应的第一预设显示方式可以包括:第一对象被放大或缩小。
需要说明的是,为了使第一用户可以同步观看到视频通话界面的互动效果,加强视频通话双方的交流,在按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象的同时,第一用户对应的电子设备的视频通话界面也可以按照第一预设显示方式显示第一对象,以实现视频通话双方同步观看互动效果的视频通话体验。
本申请实施例提供的视频通话的互动方法,在第一用户与第二用户进行视频通话的过程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。下面结合具体的实施例,详细介绍上述S101和S102。
在一个实施例中,为了能够保证视频通话过程中互动行为的安全性,S102响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以具 体包括:确定第一输入的行为特征;在第一输入的行为特征与预设行为特征一致的情况下,按照与第一输入对应的第一预设显示方式在视频通话界面显示第一对象。
预设行为特征可以为安全行为对应的行为特征。当电子设备接收到第一输入时,可以对当前视频通话界面对应的图像进行保存,通过对该图像进行检测、识别,来确定第一输入对应的行为特征,并将第一输入对应的行为特征与预设行为特征进行匹配。当第一输入对应的行为特征与预设行为特征一致时,确定第一输入为安全性行为,此时,按照与第一输入对应的第一预设显示方式显示第一对象。
在一个实施例中,安全行为可以包括对非隐私部位的触摸输入,例如,对手部、头部、肩部、胳膊等的触摸输入。
示例性地,第一输入为第二用户对第一对象肩部的触摸输入,电子设备接收到该第一输入,确定该第一输入的行为特征为“触摸肩部”,与安全行为对应的行为特征一致,因此在视频通话界面显示肩部被拍打的第一对象。
在另一个实施例中,在第一输入的行为特征与预设行为特征不一致的情况下,该方法还可以包括:显示提示信息,该提示信息用于提示第二用户停止不安全行为。
示例性地,第一输入为第二用户对第一对象胸部的触摸输入,电子设备接收到该第一输入,确定该第一输入的行为特征为“触摸胸部”,属于猥亵行为,与安全行为对应的行为特征不一致,因此可在视频通话界面显示“请停止不安全行为!”的提示信息,用于警告第二用户。
如此,通过对第一输入的行为特征进行确定,并仅在视频通话界面显示与预设行为特征一致的行为特征对应的安全性行为,有效过滤掉与预设行为特征不一致的行为特征对应的行为,例如猥亵行为等。这样,能够保证视频通话过程中的互动行为的安全性,从而提升视频通话的安全性。
在一个实施例中,视频通话界面可以显示有互动控件,第一输入可以包括对互动控件的点击输入。
在这里,互动控件可以为用于实现与第一对象的互动的控件,例如,表情控件、动作控件等。互动控件对应第一预设显示方式。
在上述实施例中,在第一输入为对互动控件的点击输入的情况下,第一预设显示方式可以包括预设互动动画,S102响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以包括:响应于第一输入,在视频通话界面显示与第一对象的预设互动动画。
预设互动动画可以是对第一对象执行互动动作的动画,例如,与第一对象牵手的动画、弹第一对象脑瓜崩的动画、拍拍第一对象肩部的动画、揉揉第一对象脸部的动画等。
在一个示例中,第一用户对应对象a,如图4所示,视频通话界面显示有“拍拍肩”的互动控件,电子设备接收到第二用户对互动控件的点击输入,响应于该点击输入,视频通话界面显示小手拍拍对象a的肩部的动画。
如此,用户通过点击互动控件的操作,就可以实现与视频通话对象的互动,在简化了用户的操作难度的同时,实现了视频通话双方的亲密交流,进一步丰富了视频通话过程中的互动方式。
在一个实施例中,为了提升用户在视频通话过程中的互动体验,第一输入还可以包括将第一对象移动至视频通话界面的目标区域的第二输入。
在上述实施例中,S101在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入,可以包括:在第一用户与第二用户进行视频通话的情况下,接收第二用户将视频通话界面中第一对象移动至视频通话界面的目标区域的第二输入;S102响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以包括:在视频通话界面的目标区域显示第一对象。
目标区域可以为第二用户在视频通话界面中选取的任意区域。第二输入可以为第二用户将第一对象移动至目标区域的拖动输入。
在一个示例中,如图5所示,目标区域为区域1,第一对象为对象a,电子设备接收到第二用户将对象a移动至区域1的拖动输入,响应于该拖动输入,在区域1显示对象a。
在一个实施例中,在目标区域包括第二用户对应的第二对象的情况下,在目标区域显示第一对象,可以包括:在目标区域显示第一对象和第二对象。
在一个示例中,如图6所示,目标区域为区域2,第一对象为对象a,第二对象为对象b,区域2显示有对象b。电子设备接收到第二用户将对象a移动至区域2的拖动输入,响 应于该拖动输入,在区域2显示对象a、对象b。
如此,用户可以对视频通话界面中的视频通话对象进行移动操作,将视频通话对象移动至视频通话界面的任意区域,同时还可以将视频通话对象移动至自身所在的区域,拉近视频通话双方彼此之间的距离,为用户带来全新的视频通话体验。
在本申请的一些实施例中,为了避免用户误触视频播放界面引发的一些误操作,视频通话界面可以显示有第一控件或预设区域。
图7是本申请提供的视频通话的互动方法的另一实施例的流程示意图,该视频通话的互动方法的执行主体可以为至少具有一个显示屏的电子设备。如图7所示,本申请实施例提供的视频通话的互动方法可以包括S701-S704。
S701,接收对第一控件或预设区域的第三输入。
其中,预设区域可以根据具体需求进行设定,其可以为视频通话界面的任意区域。第一控件与预设区域可以用于开启视频通话界面的“移动模式”,在该“移动模式”下,第二用户可以对第一对象进行移动。
第三输入可以为第二用户对第一控件或预设区域的点击输入、滑动输入、双击输入等。
例如,如图8所示,第一对象为对象a,第一控件为“开始移动吧!”控件,预设区域为区域3,第三输入为第二用户对区域3的滑动输入。电子设备接收到该滑动输入,开启视频通话界面的“移动模式”,在该“移动模式”下,第二用户可自由移动对象a。
S702,响应于第三输入,显示第二控件。
第二控件可以为用于实现移动第一对象的工具,例如,如图9所示的“拖动工具”。
S703,接收第二用户通过第二控件拖动第一对象至视频通话界面的目标区域的第四输入。
目标区域可以为第二用户在视频通话界面选取的任意区域。第四输入可以为第二用户对第二控件的拖动输入、滑动输入、拖拽输入等。
在一个示例中,第二用户可以移动第二控件至第一对象的任意身体部位,然后通过拖动第二控件来拖动第一对象至目标区域。
例如,如图9所示,第一对象为对象a,第二控件为“拖动工具”,目标区域为区域4。第二用户将“拖动工具”移动至对象a的头部位置,然后通过对“拖动工具”的拖动输入, 将对象a拖动至区域4。
S704,响应于第四输入,在目标区域显示第一对象。
如图9所示,响应于第二用户通过“拖动工具”拖动对象a至区域4的拖动输入,在区域4显示对象a。
如此,电子设备只有接收到用户对第一控件或预设区域的输入,才能够对视频通话对象进行移动,避免用户误触视频播放界面引发的一些误操作,例如,避免用户不小心将第一对象移动至视频播放界面的边角区域,进一步提升用户的使用体验。
在本申请的一些实施例中,用户不仅可以改变视频通话界面中视频通话对象的显示方式,还可以改变用户自身对应的对象的显示方式,本申请实施例提供的视频通话的互动方法还可以包括:接收第二用户对视频通话界面中第二用户对应的第二对象的第七输入;响应于第七输入,按照与第七输入对应的第二预设显示方式在视频通话界面中显示第二对象。
电子设备接收第二用户对视频通话界面中第二用户对应的第二对象的第七输入,第七输入可以为第二用户对第二对象的拖拽输入、点击输入、双击输入、滑动输入等,以及两个或多个输入之间的组合。
在一个示例中,可以根据具体需求设置不同的第七输入对应的显示方式。
例如,第七输入为第二用户双击第二对象,则该第七输入对应的第二预设显示方式可以包括:显示跳动的第二对象。
又例如,第七输入为第二用户双指长按第二对象,并且双指同时向相反方向进行移动,则该第七输入对应的第二预设显示方式可以包括:第二对象被放大或缩小。
需要说明的是,为了使第一用户可以同步观看到视频通话界面的互动效果,加强视频通话双方的交流,在按照与七输入对应的第二预设显示方式在视频通话界面中显示第二对象的同时,第一用户对应的电子设备的视频通话界面也可以按照第二预设显示方式显示第二对象,以实现视频通话双方同步观看互动效果的视频通话体验。
如此,用户不仅可以改变视频通话界面中视频通话对象的显示方式,还可以改变用户自身对应的对象的显示方式,从而进一步丰富视频通话过程中的互动功能,为用户提供全面的视频通话互动体验。
在本申请的一些实施例中,为了提升用户的体验度,用户可以对视频通话背景进行自由更换,视频通话界面可以显示有第三控件和第二用户对应的第二对象。
图10是本申请提供的视频通话的互动方法的再一实施例的流程示意图,该视频通话的互动方法的执行主体可以为至少具有一个显示屏的电子设备。如图10所示,本申请实施例提供的视频通话的互动方法可以包括S1001-S1004。
S1001,接收第二用户对第三控件的第五输入。
第三控件可以为用于实现更换视频通话背景的工具,第五输入可以为第二用户对第三控件的点击输入、双击输入、滑动输入等。
例如,如图11所示,第三控件为“背景更换”控件,第五输入为第二用户对“背景更换”控件的双击输入。
S1002,响应于第五输入,显示多个场景信息。
其中,场景信息包括第一用户的当前视频通话背景、第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项。预设虚拟场景信息可以根据具体需求进行设定。
在一个实施例中,电子设备可以通过摄像头的景深效果和360全景成像,直接获取第二用户的当前视频通话背景,该当前视频通话背景可以逼真地展现第二用户所在的现实环境。同时,电子设备可以直接获取视频通话界面中显示的第一用户的当前视频通话背景。
在一个实施例中,预设虚拟场景信息可以包括游戏场景信息、风景场景信息等,也可以包括电子设备本地存储的图像信息,例如,相册中的图片信息。
S1003,接收第二用户从多个场景信息中选取目标场景信息的第六输入。
第六输入可以为第二用户从界面显示的多个场景信息中对目标场景信息的点击输入、双击输入、滑动输入等。
例如,如图11所示,响应于第二用户对“背景更换”控件的双击输入,视频通话界面显示场景1-场景4,第六输入为第二用户对场景2的点击输入。
S1004,响应于第六输入,在目标场景信息对应的场景中显示第二对象。
如图11所示,第二对象为对象b,响应于第二用户对场景2的点击输入,电子设备更换对象b的视频通话背景为场景2,并在场景2中显示对象b。
如此,当电子设备接收到用户从多个场景信息中选择目标场景信息的输入后,响应于 该输入,可以将用户的视频通话背景更换为目标场景信息,从而为用户提供视频通话过程中自主更换视频通话背景的功能,有效提升用户的体验度。
在一个实施例中,为了能够实现视频通话双方出现在同一场景的互动效果,在目标场景信息对应的场景中显示第二对象,可以包括:在目标场景信息对应的场景中显示第一对象和第二对象。
在一个示例中,如图12所示,第一对象为对象a,第二对象为对象b,视频播放界面显示有对象a的当前通话背景“对方通话场景”、对象b的当前通话背景“当前通话场景”、“公园场景”、“超级玛丽场景”。电子设备接收到第二用户对“公园场景”的点击输入,更换对象a和对象b的视频通话背景为“公园场景”,并在“公园场景”中同时显示对象a、b。
如此,用户可以选择目标场景信息对应的场景作为视频通话双方的公有场景,视频通话双方可同时出现在该公有场景中,从而模拟一种视频通话双方面对面交流的视频通话体验,通过这种创新性的互动方式,可以加深视频通话双方的亲密度。
在一个实施例中,为了进一步提升互动方式的趣味性,该方法还可以包括:在目标场景信息为游戏场景信息的情况下,控制第一对象与第二对象执行预设游戏动作。
在一个示例中,在目标场景信息为游戏场景信息的情况下,视频通话界面可以开启游戏模式,在该游戏模式下,视频通话界面可以显示游戏控件,第一用户与第二用户可以通过操作游戏控件,控制第一对象与第二对象执行预设游戏动作,并在视频通话界面显示相应的游戏效果。例如,第二用户通过操作游戏控件,使第二对象发射暗器击中第一对象,则第一对象可做出倒地动作,被击中位置会出现伤痕效果。
在上述实施例中,电子设备可以对游戏模式下的第一对象与第二对象的互动过程进行视频同步录制,并生成短视频进行保存或分享。
如此,当电子设备接收到用户选取游戏场景信息的输入,可以响应于该输入,开启视频通话界面的游戏模式,在该游戏模式下,能够控制第一对象与第二对象执行预设游戏动作,将视频通话与游戏进行有效结合,通过这种趣味性的互动方式为用户提供一种全新的视频通话体验。
需要说明的是,本申请实施例中的电子设备可以为单屏幕、双屏幕、多屏幕、折叠屏幕、伸缩屏幕等,在此不做限定。
在本申请的一些实施例中,在电子设备包括第一显示屏和第二显示屏的情况下,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以包括:按照第一预设显示方式在第一显示屏上显示第一对象。
在一个示例中,如图13所示,电子设备包括第一显示屏1301和第二显示屏1302。如图14所示,1301上显示有第一对象,即对象a,1302上显示有第二用户对应的第二对象,即对象b。当电子设备接收到第二用户对对象a的脸部位置N1的拖拽输入。响应于该拖拽输入,可在1301上显示脸部产生相应形变的对象a。
如此,在电子设备包括不止一个屏幕的情况下,视频通话双方可分别显示在两个屏幕上,用户可在显示有视频通话对象的屏幕上,实施一些触屏操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。
需要说明的是,本申请实施例提供的视频通话的互动方法,执行主体可以为至少具有一个显示屏的电子设备,还可以是视频通话的互动装置或该视频通话的互动装置中的用于执行视频通话的互动方法的模块。
本申请实施例中以视频通话的互动装置执行视频通话的互动方法为例,说明本申请实施例提供的视频通话的互动装置。
图15为本申请提供的视频通话的互动装置的结构示意图,该视频通话的互动装置可以应用于至少具有一个显示屏的电子设备。
如图15所示,本申请提供的视频通话的互动装置1500可以包括:接收模块1501和显示模块1502。
其中,接收模块1501,用于在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入;显示模块1502,用于响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。
本申请实施例提供的视频通话的互动装置,在第一用户与第二用户进行视频通话的过 程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。
在一些实施例中,该装置还包括:确定模块1503,用于确定第一输入的行为特征;显示模块1502具体用于,在第一输入的行为特征与预设行为特征一致的情况下,按照与第一输入对应的第一预设显示方式在视频通话界面显示第一对象。
如此,通过对第一输入的行为特征进行确定,并仅在视频通话界面显示与预设行为特征一致的行为特征对应的安全性行为,有效过滤掉与预设行为特征不一致的行为特征对应的行为,例如猥亵行为等。这样,能够保证视频通话过程中的互动行为的安全性,从而提升视频通话的安全性。
在一些实施例中,第一输入还包括将第一对象移动至视频通话界面的目标区域的第二输入,显示模块1502,还用于在目标区域显示第一对象。
在一些实施例中,在目标区域包括第二用户对应的第二对象的情况下,显示模块1502具体用于,在目标区域显示第一对象和第二对象。
如此,用户可以对视频通话界面中的视频通话对象进行移动操作,将视频通话对象移动至视频通话界面的任意区域,同时还可以将视频通话对象移动至自身所在的区域,拉近视频通话双方彼此之间的距离,为用户带来全新的视频通话体验。
在一些实施例中,视频通话界面显示有第一控件或预设区域,接收模块1501,还用于接收对第一控件或预设区域的第三输入;显示模块1502,还用于响应于第三输入,显示第二控件;接收模块1501,还用于接收第二用户通过第二控件拖动第一对象至视频通话界面的目标区域的第四输入;显示模块1502,还用于响应于第四输入,在目标区域显示第一对象。
如此,电子设备只有接收到用户对第一控件或预设区域的输入,才能够对视频通话对 象进行移动,避免用户误触视频播放界面引发的一些误操作,例如,避免用户不小心将第一对象移动至视频播放界面的边角区域,进一步提升用户的使用体验。
在一些实施例中,视频通话界面显示有第三控件和第二用户对应的第二对象,接收模块1501,还用于接收第二用户对第三控件的第五输入;显示模块1502,还用于响应于第五输入,显示多个场景信息;接收模块1501,还用于接收第二用户从多个场景信息中选取目标场景信息的第六输入;显示模块1502,还用于响应于第六输入,在目标场景信息对应的场景中显示第二对象。
如此,当电子设备接收到用户从多个场景信息中选择目标场景信息的输入后,响应于该输入,可以将用户的视频通话背景更换为目标场景信息,从而为用户提供视频通话过程中自主更换视频通话背景的功能,有效提升用户的体验度。
在一些实施例中,场景信息包括第一用户的当前视频通话背景、第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项,显示模块1502具体用于,在目标场景信息对应的场景中显示第一对象和第二对象。
如此,用户可以选择目标场景信息对应的场景作为视频通话双方的公有场景,视频通话双方可同时出现在该公有场景中,从而模拟一种视频通话双方面对面交流的视频通话体验,通过这种创新性的互动方式,可以加深视频通话双方的亲密度。
本申请实施例中的视频通话的互动装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的视频通话的互动装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为iOS操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的视频通话的互动装置能够实现图1、图7、图10的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,图16是本申请实施例提供的电子设备的示例的硬件结构示意图,如图16所示,电子设备1600包括处理器1601,存储器1602,存储在存储器1602上并可在处理器1601上运行的程序或指令,该程序或指令被处理器1601执行时实现上述视频通话的互动方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要注意的是,本申请实施例中的电子设备包括上述的移动电子设备和非移动电子设备。
可选地,图17为本申请实施例提供的电子设备的另一示例的硬件结构示意图。
如图17所示,该电子设备1700包括但不限于:射频单元1701、网络模块1702、音频输出单元1703、输入单元1704、传感器1705、显示单元1706、用户输入单元1707、接口单元1708、存储器1709、以及处理器1710等部件。
本领域技术人员可以理解,电子设备1700还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1710逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图17中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,用户输入单元1707,用于在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入;显示单元1706,用于响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。
在本申请实施例中,在第一用户与第二用户进行视频通话的过程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话 过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。
可选地,处理器1710,用于确定第一输入的行为特征;显示单元1706具体用于,在第一输入的行为特征与预设行为特征一致的情况下,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象。
如此,通过对第一输入的行为特征进行确定,并仅在视频通话界面显示与预设行为特征一致的行为特征对应的安全性行为,有效过滤掉与预设行为特征不一致的行为特征对应的行为,例如猥亵行为等。这样,能够保证视频通话过程中的互动行为的安全性,从而提升视频通话的安全性。
可选地,第一输入还包括将第一对象移动至视频通话界面的目标区域的第二输入,显示单元1706,还用于在目标区域显示第一对象。
可选地,在目标区域包括第二用户对应的第二对象的情况下,显示单元1706具体用于,在目标区域显示第一对象和第二对象。
如此,用户可以对视频通话界面中的视频通话对象进行移动操作,将视频通话对象移动至视频通话界面的任意区域,同时还可以将视频通话对象移动至自身所在的区域,拉近视频通话双方彼此之间的距离,为用户带来全新的视频通话体验。
可选地,视频通话界面显示有第一控件或预设区域,用户输入单元1707,还用于接收对第一控件或预设区域的第三输入;显示单元1706,还用于响应于第三输入,显示第二控件;用户输入单元1707,还用于接收第二用户通过第二控件拖动第一对象至视频通话界面的目标区域的第四输入;显示单元1706,还用于响应于第四输入,在目标区域显示第一对象。
如此,电子设备只有接收到用户对第一控件或预设区域的输入,才能够对视频通话对象进行移动,避免用户误触视频播放界面引发的一些误操作,例如,避免用户不小心将第一对象移动至视频播放界面的边角区域,进一步提升用户的使用体验。
可选地,视频通话界面显示有第三控件和第二用户对应的第二对象,用户输入单元1707,还用于接收第二用户对第三控件的第五输入;显示单元1706,还用于响应于第五输 入,显示多个场景信息;用户输入单元1707,还用于接收第二用户从多个场景信息中选取目标场景信息的第六输入;显示单元1706,还用于响应于第六输入,在目标场景信息对应的场景中显示第二对象。
如此,当电子设备接收到用户从多个场景信息中选择目标场景信息的输入后,响应于该输入,可以将用户的视频通话背景更换为目标场景信息,从而为用户提供视频通话过程中自主更换视频通话背景的功能,有效提升用户的体验度。
可选地,场景信息包括第一用户的当前视频通话背景、第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项;显示单元1706具体用于,在目标场景信息对应的场景中显示第一对象和第二对象。
如此,用户可以选择目标场景信息对应的场景作为视频通话双方的公有场景,视频通话双方可同时出现在该公有场景中,从而模拟一种视频通话双方面对面交流的视频通话体验,通过这种创新性的互动方式,可以加深视频通话双方的亲密度。
本申请实施例还提供一种可读存储介质,可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述视频通话的互动方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,处理器为上述实施例中的电子设备中的处理器。可读存储介质,包括计算机可读存储介质,计算机可读存储介质的示例包括非暂态计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现上述视频通话的互动方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固 有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
上面参考根据本申请的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本申请的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。

Claims (19)

  1. 一种视频通话的互动方法,应用于至少具有一个显示屏的电子设备,该方法包括:
    在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中所述第一用户对应的第一对象的第一输入;
    响应于所述第一输入,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面中显示所述第一对象,其中,所述第一输入包括对所述第一对象的目标部位的触摸输入,所述第一预设显示方式包括对应所述触摸输入的所述目标部位产生形变。
  2. 根据权利要求1所述的方法,其中,所述响应于所述第一输入,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面中显示所述第一对象,包括:
    确定所述第一输入的行为特征;
    在所述第一输入的行为特征与预设行为特征一致的情况下,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面显示所述第一对象。
  3. 根据权利要求1所述的方法,其中,所述第一输入还包括将所述第一对象移动至所述视频通话界面的目标区域的第二输入,所述按照所述第一预设显示方式在所述视频通话界面中显示所述第一对象,包括:
    在所述目标区域显示所述第一对象。
  4. 根据权利要求3所述的方法,其中,在所述目标区域包括所述第二用户对应的第二对象的情况下,所述在所述目标区域显示所述第一对象,包括:
    在所述目标区域显示所述第一对象和所述第二对象。
  5. 根据权利要求1所述的方法,其中,所述视频通话界面显示有第一控件或预设区域,所述方法还包括:
    接收对所述第一控件或预设区域的第三输入;
    响应于所述第三输入,显示第二控件;
    接收所述第二用户通过所述第二控件拖动所述第一对象至所述视频通话界面的目标区域的第四输入;
    响应于所述第四输入,在所述目标区域显示所述第一对象。
  6. 根据权利要求1所述的方法,其中,所述视频通话界面显示有第三控件和所述第二 用户对应的第二对象,所述方法还包括:
    接收所述第二用户对所述第三控件的第五输入;
    响应于所述第五输入,显示多个场景信息;
    接收所述第二用户从所述多个场景信息中选取目标场景信息的第六输入;
    响应于所述第六输入,在所述目标场景信息对应的场景中显示所述第二对象。
  7. 根据权利要求6所述的方法,其中,所述场景信息包括所述第一用户的当前视频通话背景、所述第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项;所述在所述目标场景信息对应的场景中显示所述第二对象,包括:
    在所述目标场景信息对应的场景中显示所述第一对象和所述第二对象。
  8. 一种视频通话的互动装置,应用于至少具有一个显示屏的电子设备,所述装置包括:
    接收模块,用于在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中所述第一用户对应的第一对象的第一输入;
    显示模块,用于响应于所述第一输入,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面中显示所述第一对象,其中,所述第一输入包括对所述第一对象的目标部位的触摸输入,所述第一预设显示方式包括对应所述触摸输入的所述目标部位产生形变。
  9. 根据权利要求8所述的装置,还包括:
    确定模块,用于确定所述第一输入的行为特征;
    所述显示模块具体用于在所述第一输入的行为特征与预设行为特征一致的情况下,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面显示所述第一对象。
  10. 根据权利要求8所述的装置,其中,所述第一输入还包括将所述第一对象移动至所述视频通话界面的目标区域的第二输入;
    所述显示模块还用于在所述目标区域显示所述第一对象。
  11. 根据权利要求10所述的装置,其中,在所述目标区域包括所述第二用户对应的第二对象的情况下;
    所述显示模块具体用于在所述目标区域显示所述第一对象和所述第二对象。
  12. 根据权利要求8所述的装置,其中,所述视频通话界面显示有第一控件或预设区域;
    所述接收模块还用于接收对所述第一控件或预设区域的第三输入;
    所述显示模块还用于响应于所述第三输入,显示第二控件;
    所述接收模块还用于接收所述第二用户通过所述第二控件拖动所述第一对象至所述视频通话界面的目标区域的第四输入;
    所述显示模块还用于响应于所述第四输入,在所述目标区域显示所述第一对象。
  13. 根据权利要求8所述的装置,其中,所述视频通话界面显示有第三控件和所述第二用户对应的第二对象;
    所述接收模块还用于接收所述第二用户对所述第三控件的第五输入;
    所述显示模块还用于响应于所述第五输入,显示多个场景信息;
    所述接收模块还用于接收所述第二用户从所述多个场景信息中选取目标场景信息的第六输入;
    所述显示模块还用于响应于所述第六输入,在所述目标场景信息对应的场景中显示所述第二对象。
  14. 根据权利要求13所述的装置,其中,所述场景信息包括所述第一用户的当前视频通话背景、所述第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项;
    所述显示模块具体用于在所述目标场景信息对应的场景中显示所述第一对象和所述第二对象。
  15. 一种电子设备,包括处理器、存储器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1-7任一项所述的视频通话的互动方法的步骤。
  16. 一种电子设备,被配置用于执行如权利要求1-7任一项所述的视频通话的互动方法的步骤。
  17. 一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1-7任一项所述的视频通话的互动方法的步骤。
  18. 一种计算机程序产品,所述程序产品被存储在非易失的存储介质中,所述程序产品被至少一个处理器执行以实现如权利要求1-7任一项所述的视频通话的互动方法的步骤。
  19. 一种芯片,所述芯片包括处理器和通信接口,所述通信接口和所述处理器耦合, 所述处理器用于运行程序或指令,实现如权利要求1-7任一项所述的视频通话的互动方法的步骤。
PCT/CN2021/124942 2020-10-27 2021-10-20 视频通话的互动方法和装置 WO2022089273A1 (zh)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP21885001.4A EP4220369A4 (en) 2020-10-27 2021-10-20 INTERACTION METHOD AND APPARATUS FOR VIDEO CALL
KR1020237008016A KR20230047172A (ko) 2020-10-27 2021-10-20 영상 통화의 인터렉션 방법과 장치
US18/138,076 US20230259260A1 (en) 2020-10-27 2023-04-22 Interaction method and apparatus for video call

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011167360.2 2020-10-27
CN202011167360.2A CN112363658B (zh) 2020-10-27 2020-10-27 视频通话的互动方法和装置

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US18/138,076 Continuation US20230259260A1 (en) 2020-10-27 2023-04-22 Interaction method and apparatus for video call

Publications (1)

Publication Number Publication Date
WO2022089273A1 true WO2022089273A1 (zh) 2022-05-05

Family

ID=74510961

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/CN2021/124942 WO2022089273A1 (zh) 2020-10-27 2021-10-20 视频通话的互动方法和装置

Country Status (5)

Country Link
US (1) US20230259260A1 (zh)
EP (1) EP4220369A4 (zh)
KR (1) KR20230047172A (zh)
CN (1) CN112363658B (zh)
WO (1) WO2022089273A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112363658B (zh) * 2020-10-27 2022-08-12 维沃移动通信有限公司 视频通话的互动方法和装置
CN113286082B (zh) * 2021-05-19 2023-06-30 Oppo广东移动通信有限公司 目标对象跟踪方法、装置、电子设备及存储介质
CN115396390A (zh) * 2021-05-25 2022-11-25 Oppo广东移动通信有限公司 基于视频聊天的互动方法、系统、装置及电子设备

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103211A (ko) * 2008-03-27 2009-10-01 주식회사 케이티테크 영상 통화 중 터치 피드백 제공 기능을 구비한 이동 단말기및 영상 통화 중 터치 피드백 제공 방법
CN106067960A (zh) * 2016-06-20 2016-11-02 努比亚技术有限公司 一种处理视频数据的移动终端和方法
CN107197194A (zh) * 2017-06-27 2017-09-22 维沃移动通信有限公司 一种视频通话方法及移动终端
CN108259810A (zh) * 2018-03-29 2018-07-06 上海掌门科技有限公司 一种视频通话的方法、设备和计算机存储介质
CN109862434A (zh) * 2019-02-27 2019-06-07 上海游卉网络科技有限公司 一种美妆通话系统及其方法
CN111010526A (zh) * 2019-11-11 2020-04-14 珠海格力电器股份有限公司 一种视频通讯中的互动方法及装置
CN112363658A (zh) * 2020-10-27 2021-02-12 维沃移动通信有限公司 视频通话的互动方法和装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9245177B2 (en) * 2010-06-02 2016-01-26 Microsoft Technology Licensing, Llc Limiting avatar gesture display
WO2012007034A1 (en) * 2010-07-13 2012-01-19 Nokia Corporation Sending and receiving information
US8730294B2 (en) * 2010-10-05 2014-05-20 At&T Intellectual Property I, Lp Internet protocol television audio and video calling
US8767034B2 (en) * 2011-12-01 2014-07-01 Tangome, Inc. Augmenting a video conference
KR101978219B1 (ko) * 2013-03-15 2019-05-14 엘지전자 주식회사 이동 단말기 및 이의 제어 방법
CN105554429A (zh) * 2015-11-19 2016-05-04 掌赢信息科技(上海)有限公司 一种视频通话显示方法及视频通话设备
CN105872438A (zh) * 2015-12-15 2016-08-17 乐视致新电子科技(天津)有限公司 一种视频通话方法、装置及终端
CN107071330A (zh) * 2017-02-28 2017-08-18 维沃移动通信有限公司 一种视频通话互动的方法及移动终端
CN107529096A (zh) * 2017-09-11 2017-12-29 广东欧珀移动通信有限公司 图像处理方法及装置
US10375313B1 (en) * 2018-05-07 2019-08-06 Apple Inc. Creative camera
CN109873971A (zh) * 2019-02-27 2019-06-11 上海游卉网络科技有限公司 一种美妆通话系统及其方法
US20200359893A1 (en) * 2019-05-15 2020-11-19 Rollins Enterprises, Llc. Virtual consultation methods

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20090103211A (ko) * 2008-03-27 2009-10-01 주식회사 케이티테크 영상 통화 중 터치 피드백 제공 기능을 구비한 이동 단말기및 영상 통화 중 터치 피드백 제공 방법
CN106067960A (zh) * 2016-06-20 2016-11-02 努比亚技术有限公司 一种处理视频数据的移动终端和方法
CN107197194A (zh) * 2017-06-27 2017-09-22 维沃移动通信有限公司 一种视频通话方法及移动终端
CN108259810A (zh) * 2018-03-29 2018-07-06 上海掌门科技有限公司 一种视频通话的方法、设备和计算机存储介质
CN109862434A (zh) * 2019-02-27 2019-06-07 上海游卉网络科技有限公司 一种美妆通话系统及其方法
CN111010526A (zh) * 2019-11-11 2020-04-14 珠海格力电器股份有限公司 一种视频通讯中的互动方法及装置
CN112363658A (zh) * 2020-10-27 2021-02-12 维沃移动通信有限公司 视频通话的互动方法和装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP4220369A4 *

Also Published As

Publication number Publication date
EP4220369A4 (en) 2024-03-20
CN112363658B (zh) 2022-08-12
US20230259260A1 (en) 2023-08-17
EP4220369A1 (en) 2023-08-02
CN112363658A (zh) 2021-02-12
KR20230047172A (ko) 2023-04-06

Similar Documents

Publication Publication Date Title
WO2022089273A1 (zh) 视频通话的互动方法和装置
WO2022063022A1 (zh) 视频预览方法、装置及电子设备
WO2017054465A1 (zh) 一种信息处理方法、终端及计算机存储介质
WO2018126957A1 (zh) 显示虚拟现实画面的方法和虚拟现实设备
WO2022012657A1 (zh) 图像编辑方法、装置和电子设备
WO2016106997A1 (zh) 屏幕截图方法及装置、移动终端
WO2017032078A1 (zh) 一种界面控制方法及移动终端
WO2023061280A1 (zh) 应用程序显示方法、装置及电子设备
WO2023050722A1 (zh) 信息显示方法及电子设备
WO2022135409A1 (zh) 显示处理方法、显示处理装置和可穿戴设备
WO2022199454A1 (zh) 显示方法和电子设备
WO2023284632A1 (zh) 图像展示方法、装置及电子设备
WO2022135290A1 (zh) 截屏方法、装置及电子设备
WO2023030114A1 (zh) 界面显示方法和装置
WO2018000606A1 (zh) 一种虚拟现实交互界面的切换方法和电子设备
CN112148167A (zh) 控件设置方法、装置和电子设备
WO2022156703A1 (zh) 一种图像显示方法、装置及电子设备
WO2022156602A1 (zh) 显示方法、显示装置和电子设备
WO2022068721A1 (zh) 截屏方法、装置及电子设备
WO2022111458A1 (zh) 图像拍摄方法和装置、电子设备及存储介质
JP2024513742A (ja) アプリケーションにおける注目イベントの表示方法及び電子機器
WO2019105062A1 (zh) 一种内容显示方法、装置和终端设备
WO2024037438A1 (zh) 分屏控制方法、装置、电子设备和可读存储介质
US11935172B2 (en) Method, system, and non-transitory computer readable record medium for expressing emotion in conversation message using gesture
US10102395B2 (en) System and method for creating and transitioning to multiple facets of a social media object in a social network

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21885001

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 20237008016

Country of ref document: KR

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 2021885001

Country of ref document: EP

Effective date: 20230425

NENP Non-entry into the national phase

Ref country code: DE