CN112363658A - 视频通话的互动方法和装置 - Google Patents
视频通话的互动方法和装置 Download PDFInfo
- Publication number
- CN112363658A CN112363658A CN202011167360.2A CN202011167360A CN112363658A CN 112363658 A CN112363658 A CN 112363658A CN 202011167360 A CN202011167360 A CN 202011167360A CN 112363658 A CN112363658 A CN 112363658A
- Authority
- CN
- China
- Prior art keywords
- input
- video call
- user
- display
- preset
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04883—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04842—Selection of displayed objects or displayed text elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/0482—Interaction with lists of selectable items, e.g. menus
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04845—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/0486—Drag-and-drop
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
- G06F3/04886—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures by partitioning the display area of the touch-screen or the surface of the digitising tablet into independently controllable areas, e.g. virtual keyboards or menus
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/142—Constructional details of the terminal equipment, e.g. arrangements of the camera and the display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/141—Systems for two-way working between two video terminals, e.g. videophone
- H04N7/147—Communication arrangements, e.g. identifying the communication as a video-communication, intermediate storage of the signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/14—Systems for two-way working
- H04N7/15—Conference systems
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请公开了一种视频通话的互动方法和装置,属于通信技术领域。该视频通话的互动方法包括:在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入;响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。根据本申请实施例,能够解决视频通话过程中的互动方式比较单一的问题。
Description
技术领域
本申请属于通信技术领域,具体涉及一种视频通话的互动方法和装置。
背景技术
随着移动互联网的蓬勃发展和电子设备的不断普及,用户对于移动互联网有了更多的需求。如今,视频通话作为电子设备的一项实用性功能得到了越来越多人的青睐,通过电子设备进行视频通话的用户也越来越多。
相关技术中,当用户双方通过电子设备进行视频通话时,用户可以从屏幕中观看到对方的真实画面,从而实现相互看着对方进行交流的通话体验。然而,由于视频通话是隔着网络和屏幕的,因此相关技术中缺乏一些趣味性高的互动功能,互动方式比较单一,无法为用户的视频通话过程提供多样化的互动体验。
发明内容
本申请实施例的目的是提供一种视频通话的互动方法和装置,能够解决相关技术中视频通话过程中的互动方式比较单一的问题。
为了解决上述技术问题,本申请是这样实现的:
第一方面,本申请实施例提供了一种视频通话的互动方法,应用于至少具有一个显示屏的电子设备,该方法包括:
在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入;
响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。
第二方面,本申请实施例提供了一种视频通话的互动装置,应用于至少具有一个显示屏的电子设备,该装置包括:
接收模块,用于在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入;
显示模块,用于响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。
第三方面,本申请实施例提供了一种电子设备,该电子设备包括处理器、存储器及存储在存储器上并可在处理器上运行的程序或指令,程序或指令被处理器执行时实现如第一方面的视频通话的互动方法的步骤。
第四方面,本申请实施例提供了一种可读存储介质,该可读存储介质上存储程序或指令,程序或指令被处理器执行时实现如第一方面的视频通话的互动方法的步骤。
第五方面,本申请实施例提供了一种芯片,该芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现如第一方面的视频通话的互动方法。
在本申请实施例中,在第一用户与第二用户进行视频通话的过程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。
附图说明
图1是本申请实施例提供的一种视频通话的互动方法的流程示意图;
图2是本申请实施例提供的视频通话的互动界面的示意图之一;
图3是本申请实施例提供的视频通话的互动界面的示意图之二;
图4是本申请实施例提供的视频通话的互动界面的示意图之三;
图5是本申请实施例提供的视频通话的互动界面的示意图之四;
图6是本申请实施例提供的视频通话的互动界面的示意图之五;
图7是本申请实施例提供的另一种视频通话的互动方法的流程示意图;
图8是本申请实施例提供的视频通话的互动界面的示意图之六;
图9是本申请实施例提供的视频通话的互动界面的示意图之七;
图10是本申请实施例提供的再一种视频通话的互动方法的流程示意图;
图11是本申请实施例提供的视频通话的互动界面的示意图之八;
图12是本申请实施例提供的视频通话的互动界面的示意图之九;
图13是本申请实施例提供的一种电子设备的结构示意图;
图14是本申请实施例提供的视频通话的互动界面的示意图之十;
图15是本申请实施例提供的一种视频通话的互动装置的结构示意图;
图16是本申请实施例提供的一种电子设备的硬件结构示意图;
图17是实现本申请实施例的另一种电子设备的硬件结构示意图。
具体实施方式
下面将详细描述本发明的各个方面的特征和示例性实施例,为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及具体实施例,对本发明进行进一步详细描述。应理解,此处所描述的具体实施例仅意在解释本发明,而不是限定本发明。对于本领域技术人员来说,本发明可以在不需要这些具体细节中的一些细节的情况下实施。下面对实施例的描述仅仅是为了通过示出本发明的示例来提供对本发明更好的理解。
本申请的说明书和权利要求书中的术语“第一”、“第二”等是用于区别类似的对象,而不用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施,且“第一”、“第二”等所区分的对象通常为一类,并不限定对象的个数,例如第一对象可以是一个,也可以是多个。此外,说明书以及权利要求中“和/或”表示所连接对象的至少其中之一,字符“/”,一般表示前后关联对象是一种“或”的关系。
如背景技术,相关技术中,当用户双方通过电子设备进行视频通话时,用户可以从屏幕中观看到对方的真实画面,从而实现相互看着对方进行交流的通话体验。
然而,由于视频通话是隔着网络和屏幕的,因此相关技术中缺乏一些趣味性高的互动功能,互动方式比较单一,无法为用户的视频通话过程提供多样化的互动体验。
针对相关技术中出现的问题,本申请实施例提供了一种视频通话的互动方法,在第一用户与第二用户进行视频通话的过程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验,解决了相关技术中视频通话过程中的互动方式比较单一的问题。
下面结合附图,以视频通话的互动方法的执行主体为至少具有一个显示屏的电子设备为例,通过具体的实施例对本申请实施例提供的视频通话的互动方法进行详细地说明。需要说明的是,上述执行主体并不构成对本申请的限定。
需要说明的是,本申请实施例中的电子设备可以包括下述中的至少一种:手机、平板电脑、智能穿戴设备等具有接收信息以及显示信息功能的设备。
图1是本申请实施例提供的一种视频通话的互动方法的流程示意图。如图1所示,该视频通话的互动方法可以包括S101和S102。
S101,在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入。
在第二用户通过电子设备与第一用户进行视频通话的过程中,视频通话界面可显示有第一用户对应的第一对象和第二用户对应的第二对象。
在一个示例中,第一用户为用户A,第二用户为用户B。如图2所示,在用户A、B的视频通话界面,显示有对象a、b。其中,对象a为用户A对应的第一对象,对象b为用户B对应的第二对象。
电子设备接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入,其中,第一输入可以包括对第一对象的目标部位的触摸输入。
在这里,目标部位可以为第二用户从第一对象的多个身体部位中选取的某个身体部位,例如,第一对象的脸部、肩部、手部等。触摸输入可以为第二用户对目标部位的点击输入、双击输入、拖拽输入、滑动输入等,以及两个或多个输入之间的组合。
示例性地,如图3所示,第一用户对应的第一对象为对象a,第一输入为第二用户对对象a的脸部位置N1(即目标部位)的拖拽输入。
在一个实施例中,在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入,可以包括:在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的目标部位的触摸输入。
在一个实施例中,在上述至少具有一个显示屏的电子设备为智能穿戴设备的情况下,第二用户对应的第二对象可以为第二用户的全景人像。
S102,响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象。
在第一输入为对第一对象的目标部位的触摸输入的情况下,第一输入对应的第一预设显示方式可以包括:对应触摸输入的目标部位产生形变。
在一个实施例中,响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以包括:在视频通话界面显示目标部位产生形变的第一对象。
示例性地,第一用户对应的第一对象为对象a,电子设备接收到第二用户对对象a的脸部位置N1的拖拽输入,对象a的脸部即为目标部位。响应于该拖拽输入,对象a的脸部则可产生相应的形变。
如此,电子设备通过接收用户对视频通话对象的目标部位的触摸输入,响应于该触摸输入,可以在视频通话界面显示目标部位产生形变的视频通话对象,实现与视频通话对象的趣味性互动,丰富了视频通话过程中的互动方式。
在一个实施例中,第一输入还可以包括第二用户对第一对象的拖拽输入、点击输入、双击输入、滑动输入、旋转输入等,以及两个或多个输入之间的组合,并可以根据具体需求设置不同的第一输入对应的显示方式。
例如,第一输入为第二用户旋转第一对象,则如图2所示,该第一输入对应的第一预设显示方式为第一对象旋转。
又例如,第一输入为第二用户双击第一对象,则该第一输入对应的第一预设显示方式可以包括:第一对象进行跳动。
再例如,第一输入为第二用户双指长按第一对象,并且双指同时向相反方向进行移动,则该第一输入对应的第一预设显示方式可以包括:第一对象被放大或缩小。
需要说明的是,为了使第一用户可以同步观看到视频通话界面的互动效果,加强视频通话双方的交流,在按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象的同时,第一用户对应的电子设备的视频通话界面也可以按照第一预设显示方式显示第一对象,以实现视频通话双方同步观看互动效果的视频通话体验。
本申请实施例提供的视频通话的互动方法,在第一用户与第二用户进行视频通话的过程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。
下面结合具体的实施例,详细介绍上述S101和S102。
在一个实施例中,为了能够保证视频通话过程中互动行为的安全性,S102响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以具体包括:首先,确定第一输入的行为特征;然后,在第一输入的行为特征与预设行为特征一致的情况下,按照与第一输入对应的第一预设显示方式在视频通话界面显示第一对象。
预设行为特征为安全行为对应的行为特征。当电子设备接收到第一输入时,可以对当前视频通话界面对应的图像进行保存,通过对该图像进行检测、识别,来确定第一输入对应的行为特征,并将第一输入对应的行为特征与预设行为特征进行匹配。当第一输入对应的行为特征与预设行为特征一致时,确定第一输入为安全性行为,此时,按照与第一输入对应的第一预设显示方式显示第一对象。
在一个实施例中,安全行为可以包括对非隐私部位的触摸输入,例如,对手部、头部、肩部、胳膊等的触摸输入。
示例性地,第一输入为第二用户对第一对象肩部的触摸输入,电子设备接收到该第一输入,确定该第一输入的行为特征为“触摸肩部”,与安全行为对应的行为特征一致,因此在视频通话界面显示肩部被拍打的第一对象。
在另一个实施例中,在第一输入的行为特征与预设行为特征不一致的情况下,该方法还可以包括:显示提示信息,该提示信息用于提示第二用户停止不安全行为。
示例性地,第一输入为第二用户对第一对象胸部的触摸输入,电子设备接收到该第一输入,确定该第一输入的行为特征为“触摸胸部”,属于猥亵行为,与安全行为对应的行为特征不一致,因此可在视频通话界面显示“请停止不安全行为!”的提示信息,用于警告第二用户。
如此,通过对第一输入的行为特征进行确定,并仅在视频通话界面显示与预设行为特征一致的行为特征对应的安全性行为,有效过滤掉与预设行为特征不一致的行为特征对应的行为,例如猥亵行为等。这样,能够保证视频通话过程中的互动行为的安全性,从而提升视频通话的安全性。
在一个实施例中,视频通话界面可以显示有互动控件,第一输入可以包括对互动控件的点击输入。
在这里,互动控件可以为用于实现与第一对象的互动的控件,例如,表情控件、动作控件等。互动控件对应第一预设显示方式。
在上述实施例中,在第一输入为对互动控件的点击输入的情况下,第一预设显示方式可以包括预设互动动画,S102响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以包括:响应于第一输入,在视频通话界面显示与第一对象的预设互动动画。
预设互动动画可以是对第一对象执行互动动作的动画,例如,与第一对象牵手的动画、弹第一对象脑瓜崩的动画、拍拍第一对象肩部的动画、揉揉第一对象脸部的动画等。
在一个示例中,第一用户对应对象a,如图4所示,视频通话界面显示有“拍拍肩”的互动控件,电子设备接收到第二用户对互动控件的点击输入,响应于该点击输入,视频通话界面显示小手拍拍对象a的肩部的动画。
如此,用户通过点击互动控件的操作,就可以实现与视频通话对象的互动,在简化了用户的操作难度的同时,实现了视频通话双方的亲密交流,进一步丰富了视频通话过程中的互动方式。
在一个实施例中,为了提升用户在视频通话过程中的互动体验,第一输入还可以包括将第一对象移动至视频通话界面的目标区域的第二输入。
在上述实施例中,S101在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入,可以包括:在第一用户与第二用户进行视频通话的情况下,接收第二用户将视频通话界面中第一对象移动至视频通话界面的目标区域的第二输入;S102响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以包括:在视频通话界面的目标区域显示第一对象。
目标区域可以为第二用户在视频通话界面中选取的任意区域。第二输入可以为第二用户将第一对象移动至目标区域的拖动输入。
在一个示例中,如图5所示,目标区域为区域1,第一对象为对象a,电子设备接收到第二用户将对象a移动至区域1的拖动输入,响应于该拖动输入,在区域1显示对象a。
在一个实施例中,在目标区域包括第二用户对应的第二对象的情况下,在目标区域显示第一对象,可以包括:在目标区域显示第一对象和第二对象。
在一个示例中,如图6所示,目标区域为区域2,第一对象为对象a,第二对象为对象b,区域2显示有对象b。电子设备接收到第二用户将对象a移动至区域2的拖动输入,响应于该拖动输入,在区域2显示对象a、对象b。
如此,用户可以对视频通话界面中的视频通话对象进行移动操作,将视频通话对象移动至视频通话界面的任意区域,同时还可以将视频通话对象移动至自身所在的区域,拉近视频通话双方彼此之间的距离,为用户带来全新的视频通话体验。
在本申请的一些实施例中,为了避免用户误触视频播放界面引发的一些误操作,视频通话界面可以显示有第一控件或预设区域。
图7是本申请实施例提供的另一种视频通话的互动方法的流程示意图,该视频通话的互动方法的执行主体可以为至少具有一个显示屏的电子设备。如图7所示,本申请实施例提供的视频通话的互动方法可以包括S701-S704。
S701,接收对第一控件或预设区域的第三输入。
其中,预设区域可以根据具体需求进行设定,其可以为视频通话界面的任意区域。第一控件与预设区域可以用于开启视频通话界面的“移动模式”,在该模式下,第二用户可以对第一对象进行移动。
第三输入可以为第二用户对第一控件或预设区域的点击输入、滑动输入、双击输入等。
例如,如图8所示,第一对象为对象a,第一控件为“开始移动吧!”控件,预设区域为区域3,第三输入为第二用户对区域3的滑动输入。电子设备接收到该滑动输入,开启视频通话界面的“移动模式”,在该“移动模式”下,第二用户可自由移动对象a。
S702,响应于第三输入,显示第二控件。
第二控件可以为用于实现移动第一对象的工具,例如,如图8所示的“拖动工具”。
S703,接收第二用户通过第二控件拖动第一对象至视频通话界面的目标区域的第四输入。
目标区域可以为第二用户在视频通话界面选取的任意区域。第四输入可以为第二用户对第二控件的拖动输入、滑动输入、拖拽输入等。
在一个示例中,第二用户可以移动第二控件至第一对象的任意身体部位,然后通过拖动第二控件来拖动第一对象至目标区域。
例如,如图9所示,第一对象为对象a,第二控件为“拖动工具”,目标区域为区域4。第二用户将“拖动工具”移动至对象a的头部位置,然后通过对“拖动工具”的拖动输入,将对象a拖动至区域4。
S704,响应于第四输入,在目标区域显示第一对象。
如图9所示,响应于第二用户通过“拖动工具”拖动对象a至区域4的拖动输入,在区域4显示对象a。
如此,电子设备只有接收到用户对第一控件或预设区域的输入,才能够对视频通话对象进行移动,避免用户误触视频播放界面引发的一些误操作,例如,避免用户不小心将第一对象移动至视频播放界面的边角区域,进一步提升用户的使用体验。
在本申请的一些实施例中,用户不仅可以改变视频通话界面中视频通话对象的显示方式,还可以改变用户对应的对象的显示方式,本申请实施例提供的视频通话的互动方法还可以包括:首先,接收第二用户对视频通话界面中第二用户对应的第二对象的第七输入;然后,响应于第七输入,按照与第七输入对应的第二预设显示方式在视频通话界面中显示第二对象。
电子设备接收第二用户对视频通话界面中第二用户对应的第二对象的第七输入,第七输入可以为第二用户对第二对象的拖拽输入、点击输入、双击输入、滑动输入等,以及两个或多个输入之间的组合。
在一个示例中,可以根据具体需求设置不同的第七输入对应的显示方式。
例如,第七输入为第二用户双击第二对象,则该第七输入对应的第二预设显示方式可以包括:第二对象进行跳动。
又例如,第七输入为第二用户双指长按第二对象,并且双指同时向相反方向进行移动,则该第七输入对应的第二预设显示方式可以包括:第二对象被放大或缩小。
需要说明的是,为了使第一用户可以同步观看到视频通话界面的互动效果,加强视频通话双方的交流,在按照与七输入对应的第二预设显示方式在视频通话界面中显示第二对象的同时,第一用户对应的电子设备的视频通话界面也可以按照第二预设显示方式显示第二对象,以实现视频通话双方同步观看互动效果的视频通话体验。
如此,用户不仅可以改变视频通话界面中视频通话对象的显示方式,还可以改变用户自身对应的对象的显示方式,从而进一步丰富视频通话过程中的互动功能,为用户提供全面的视频通话互动体验。
在本申请的一些实施例中,为了提升用户的体验度,用户可以对视频通话背景进行自由更换,视频通话界面可以显示有第三控件和第二用户对应的第二对象。
图10是本申请实施例提供的再一种视频通话的互动方法的流程示意图,该视频通话的互动方法的执行主体可以为至少具有一个显示屏的电子设备。如图10所示,本申请实施例提供的视频通话的互动方法可以包括S1001-S1004。
S1001,接收第二用户对第三控件的第五输入。
第三控件可以为用于实现更换视频通话背景的工具,第五输入可以为第二用户对第三控件的点击输入、双击输入、滑动输入等。
例如,如图11所示,第三控件为“背景更换”控件,第五输入为第二用户对“背景更换”控件的双击输入。
S1002,响应于第五输入,显示多个场景信息。
其中,场景信息包括第一用户的当前视频通话背景、第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项。预设虚拟场景信息可以根据具体需求进行设定。
在一个实施例中,电子设备可以通过摄像头的景深效果和360全景成像,直接获取第二用户的当前视频通话背景,该当前视频通话背景可以逼真地展现第二用户所在的现实环境。同时,电子设备可以直接获取视频通话界面中显示的第一用户的当前视频通话背景。
在一个实施例中,预设虚拟场景信息可以包括游戏场景信息、风景场景信息等,也可以包括电子设备本地存储的图像信息,例如,相册中的图片信息。
S1003,接收第二用户从多个场景信息中选取目标场景信息的第六输入。
第六输入可以为第二用户从界面显示的多个场景信息中对目标场景信息的点击输入、双击输入、滑动输入等。
例如,如图11所示,响应于第二用户对“背景更换”控件的双击输入,视频通话界面显示场景1-场景4,第六输入为第二用户对场景2的点击输入。
S1004,响应于第六输入,在目标场景信息对应的场景中显示第二对象。
如图11所示,第二对象为对象b,响应于第二用户对场景2的点击输入,电子设备更换对象b的视频通话背景为场景2,并在场景2中显示对象b。
如此,当电子设备接收到用户从多个场景信息中选择目标场景信息的输入后,响应于该输入,可以将用户的视频通话背景更换为目标场景信息,从而为用户提供视频通话过程中自主更换视频通话背景的功能,有效提升用户的体验度。
在一个实施例中,为了能够实现视频通话双方出现在同一场景的互动效果,在目标场景信息对应的场景中显示第二对象,可以包括:在目标场景信息对应的场景中显示第一对象和第二对象。
在一个示例中,如图12所示,第一对象为对象a,第二对象为对象b,视频播放界面显示有对象a的当前通话背景“对方通话场景”、对象b的当前通话背景“当前通话场景”、“公园场景”、“超级玛丽场景”。电子设备接收到第二用户对“公园场景”的点击输入,更换对象a和对象b的视频通话背景为“公园场景”,并在“公园场景”中同时显示对象a、b。
如此,用户可以选择目标场景信息对应的场景作为视频通话双方的公有场景,视频通话双方可同时出现在该公有场景中,从而模拟一种视频通话双方面对面交流的视频通话体验,通过这种创新性的互动方式,可以加深视频通话双方的亲密度。
在一个实施例中,为了进一步提升互动方式的趣味性,该方法还可以包括:在目标场景信息为游戏场景信息的情况下,控制第一对象与第二对象执行预设游戏动作。
在一个示例中,在目标场景信息为游戏场景信息的情况下,视频通话界面可以开启游戏模式,在该游戏模式下,视频通话界面可以显示游戏控件,第一用户与第二用户可以通过操作游戏控件,控制第一对象与第二对象执行预设游戏动作,并在视频通话界面显示相应的游戏效果。例如,第二用户通过操作游戏控件,使第二对象发射暗器击中第一对象,则第一对象可做出倒地动作,被击中位置会出现伤痕效果。
在上述实施例中,电子设备可以对游戏模式下的第一对象与第二对象的互动过程进行视频同步录制,并生成短视频进行保存或分享。
如此,当电子设备接收到用户选取游戏场景信息的输入,可以响应于该输入,开启视频通话界面的游戏模式,在该游戏模式下,能够控制第一对象与第二对象执行预设游戏动作,将视频通话与游戏进行有效结合,通过这种趣味性的互动方式为用户提供一种全新的视频通话体验。
需要说明的是,本申请实施例中的电子设备可以为单屏幕、双屏幕、多屏幕、折叠屏幕、伸缩屏幕等,在此不做限定。
在本申请的一些实施例中,在电子设备包括第一显示屏和第二显示屏的情况下,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,可以包括:按照第一预设显示方式在第一显示屏上显示第一对象。
在一个示例中,如图13所示,电子设备包括第一显示屏1301和第二显示屏1302。如图14所示,1301上显示有第一对象,即对象a,1302上显示有第二用户对应的第二对象,即对象b。当电子设备接收到第二用户对对象a的脸部位置N1的拖拽输入。响应于该拖拽输入,可在1301上显示脸部产生相应形变的对象a。
如此,在电子设备包括不止一个屏幕的情况下,视频通话双方可分别显示在两个屏幕上,用户可在显示有视频通话对象的屏幕上,实施一些触屏操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。
需要说明的是,本申请实施例提供的视频通话的互动方法,执行主体可以为至少具有一个显示屏的电子设备,还可以是视频通话的互动装置或该视频通话的互动装置中的用于执行视频通话的互动方法的模块。
本申请实施例中以视频通话的互动装置执行视频通话的互动方法为例,说明本申请实施例提供的视频通话的互动装置。
图15为本申请提供的一种视频通话的互动装置的结构示意图,该视频通话的互动装置可以应用于至少具有一个显示屏的电子设备。
如图15所示,本申请提供的视频通话的互动装置1500可以包括:接收模块1501和显示模块1502。
其中,接收模块1501,用于在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入;显示模块1502,用于响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。
本申请实施例提供的视频通话的互动装置,在第一用户与第二用户进行视频通话的过程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。
在一些实施例中,该装置还包括:确定模块1503,用于确定第一输入的行为特征;显示模块1502具体用于,在第一输入的行为特征与预设行为特征一致的情况下,按照与第一输入对应的第一预设显示方式在视频通话界面显示第一对象。
如此,通过对第一输入的行为特征进行确定,并仅在视频通话界面显示与预设行为特征一致的行为特征对应的安全性行为,有效过滤掉与预设行为特征不一致的行为特征对应的行为,例如猥亵行为等。这样,能够保证视频通话过程中的互动行为的安全性,从而提升视频通话的安全性。
在一些实施例中,第一输入还包括将第一对象移动至视频通话界面的目标区域的第二输入,显示模块1502,还用于在目标区域显示第一对象。
在一些实施例中,在目标区域包括第二用户对应的第二对象的情况下,显示模块1502具体用于,在目标区域显示第一对象和第二对象。
如此,用户可以对视频通话界面中的视频通话对象进行移动操作,将视频通话对象移动至视频通话界面的任意区域,同时还可以将视频通话对象移动至自身所在的区域,拉近视频通话双方彼此之间的距离,为用户带来全新的视频通话体验。
在一些实施例中,视频通话界面显示有第一控件或预设区域,接收模块1501,还用于接收对第一控件或预设区域的第三输入;显示模块1502,还用于响应于第三输入,显示第二控件;接收模块1501,还用于接收第二用户通过第二控件拖动第一对象至视频通话界面的目标区域的第四输入;显示模块1502,还用于响应于第四输入,在目标区域显示第一对象。
如此,电子设备只有接收到用户对第一控件或预设区域的输入,才能够对视频通话对象进行移动,避免用户误触视频播放界面引发的一些误操作,例如,避免用户不小心将第一对象移动至视频播放界面的边角区域,进一步提升用户的使用体验。
在一些实施例中,视频通话界面显示有第三控件和第二用户对应的第二对象,接收模块1501,还用于接收第二用户对第三控件的第五输入;显示模块1502,还用于响应于第五输入,显示多个场景信息;接收模块1501,还用于接收第二用户从多个场景信息中选取目标场景信息的第六输入;显示模块1502,还用于响应于第六输入,在目标场景信息对应的场景中显示第二对象。
如此,当电子设备接收到用户从多个场景信息中选择目标场景信息的输入后,响应于该输入,可以将用户的视频通话背景更换为目标场景信息,从而为用户提供视频通话过程中自主更换视频通话背景的功能,有效提升用户的体验度。
在一些实施例中,场景信息包括第一用户的当前视频通话背景、第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项,显示模块1502具体用于,在目标场景信息对应的场景中显示第一对象和第二对象。
如此,用户可以选择目标场景信息对应的场景作为视频通话双方的公有场景,视频通话双方可同时出现在该公有场景中,从而模拟一种视频通话双方面对面交流的视频通话体验,通过这种创新性的互动方式,可以加深视频通话双方的亲密度。
本申请实施例中的视频通话的互动装置可以是装置,也可以是终端中的部件、集成电路、或芯片。该装置可以是移动电子设备,也可以为非移动电子设备。示例性的,移动电子设备可以为手机、平板电脑、笔记本电脑、掌上电脑、车载电子设备、可穿戴设备、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本或者个人数字助理(personal digital assistant,PDA)等,非移动电子设备可以为服务器、网络附属存储器(Network Attached Storage,NAS)、个人计算机(personal computer,PC)、电视机(television,TV)、柜员机或者自助机等,本申请实施例不作具体限定。
本申请实施例中的视频通话的互动装置可以为具有操作系统的装置。该操作系统可以为安卓(Android)操作系统,可以为iOS操作系统,还可以为其他可能的操作系统,本申请实施例不作具体限定。
本申请实施例提供的视频通话的互动装置能够实现图1、图7、图10的方法实施例实现的各个过程,为避免重复,这里不再赘述。
可选地,如图16所示,本申请实施例还提供一种电子设备1600,包括处理器1601,存储器1602,存储在存储器1602上并可在处理器1601上运行的程序或指令,该程序或指令被处理器1601执行时实现上述视频通话的互动方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
需要注意的是,本申请实施例中的电子设备包括上述的移动电子设备和非移动电子设备。
图17为实现本申请实施例的另一种电子设备的硬件结构示意图。
该电子设备1700包括但不限于:射频单元1701、网络模块1702、音频输出单元1703、输入单元1704、传感器1705、显示单元1706、用户输入单元1707、接口单元1708、存储器1709、以及处理器1710等部件。
本领域技术人员可以理解,电子设备1700还可以包括给各个部件供电的电源(比如电池),电源可以通过电源管理系统与处理器1710逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。图17中示出的电子设备结构并不构成对电子设备的限定,电子设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置,在此不再赘述。
其中,用户输入单元1707,用于在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中第一用户对应的第一对象的第一输入;显示单元1706,用于响应于第一输入,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象,其中,第一输入包括对第一对象的目标部位的触摸输入,第一预设显示方式包括对应触摸输入的目标部位产生形变。
在本申请实施例中,在第一用户与第二用户进行视频通话的过程中,第二用户可以对视频通话界面显示的第一用户对应的第一对象进行第一输入。当电子设备接收到该第一输入,响应于该第一输入,可以按照该第一输入对应的第一预设显示方式显示第一对象。例如,用户可以对视频通话界面显示的视频通话对象的目标部位进行触摸操作,响应于该触摸操作,界面显示的该视频通话对象的目标部位可产生相应形变。如此,可以在视频通话过程中为用户提供多样化的互动方式,用户可以通过一些实施于视频通话界面的操作,改变视频通话对象在视频通话界面的显示方式,实现趣味性的互动效果,有效改善用户的视频通话体验。
可选地,处理器1710,用于确定第一输入的行为特征;显示单元1706具体用于,在第一输入的行为特征与预设行为特征一致的情况下,按照与第一输入对应的第一预设显示方式在视频通话界面中显示第一对象。
如此,通过对第一输入的行为特征进行确定,并仅在视频通话界面显示与预设行为特征一致的行为特征对应的安全性行为,有效过滤掉与预设行为特征不一致的行为特征对应的行为,例如猥亵行为等。这样,能够保证视频通话过程中的互动行为的安全性,从而提升视频通话的安全性。
可选地,第一输入还包括将第一对象移动至视频通话界面的目标区域的第二输入,显示单元1706,还用于在目标区域显示第一对象。
可选地,在目标区域包括第二用户对应的第二对象的情况下,显示单元1706具体用于,在目标区域显示第一对象和第二对象。
如此,用户可以对视频通话界面中的视频通话对象进行移动操作,将视频通话对象移动至视频通话界面的任意区域,同时还可以将视频通话对象移动至自身所在的区域,拉近视频通话双方彼此之间的距离,为用户带来全新的视频通话体验。
可选地,视频通话界面显示有第一控件或预设区域,用户输入单元1707,还用于接收对第一控件或预设区域的第三输入;显示单元1706,还用于响应于第三输入,显示第二控件;用户输入单元1707,还用于接收第二用户通过第二控件拖动第一对象至视频通话界面的目标区域的第四输入;显示单元1706,还用于响应于第四输入,在目标区域显示第一对象。
如此,电子设备只有接收到用户对第一控件或预设区域的输入,才能够对视频通话对象进行移动,避免用户误触视频播放界面引发的一些误操作,例如,避免用户不小心将第一对象移动至视频播放界面的边角区域,进一步提升用户的使用体验。
可选地,视频通话界面显示有第三控件和第二用户对应的第二对象,用户输入单元1707,还用于接收第二用户对第三控件的第五输入;显示单元1706,还用于响应于第五输入,显示多个场景信息;用户输入单元1707,还用于接收第二用户从多个场景信息中选取目标场景信息的第六输入;显示单元1706,还用于响应于第六输入,在目标场景信息对应的场景中显示第二对象。
如此,当电子设备接收到用户从多个场景信息中选择目标场景信息的输入后,响应于该输入,可以将用户的视频通话背景更换为目标场景信息,从而为用户提供视频通话过程中自主更换视频通话背景的功能,有效提升用户的体验度。
可选地,场景信息包括第一用户的当前视频通话背景、第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项;显示单元1706具体用于,在目标场景信息对应的场景中显示第一对象和第二对象。
如此,用户可以选择目标场景信息对应的场景作为视频通话双方的公有场景,视频通话双方可同时出现在该公有场景中,从而模拟一种视频通话双方面对面交流的视频通话体验,通过这种创新性的互动方式,可以加深视频通话双方的亲密度。
本申请实施例还提供一种可读存储介质,可读存储介质上存储有程序或指令,该程序或指令被处理器执行时实现上述视频通话的互动方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
其中,处理器为上述实施例中的电子设备中的处理器。可读存储介质,包括计算机可读存储介质,如计算机只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、磁碟或者光盘等。
本申请实施例另提供了一种芯片,芯片包括处理器和通信接口,通信接口和处理器耦合,处理器用于运行程序或指令,实现上述视频通话的互动方法实施例的各个过程,且能达到相同的技术效果,为避免重复,这里不再赘述。
应理解,本申请实施例提到的芯片还可以称为系统级芯片、系统芯片、芯片系统或片上系统芯片等。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。此外,需要指出的是,本申请实施方式中的方法和装置的范围不限按示出或讨论的顺序来执行功能,还可包括根据所涉及的功能按基本同时的方式或按相反的顺序来执行功能,例如,可以按不同于所描述的次序来执行所描述的方法,并且还可以添加、省去、或组合各种步骤。另外,参照某些示例所描述的特征可在其他示例中被组合。
上面参考根据本申请的实施例的方法、装置(系统)和计算机程序产品的流程图和/或框图描述了本申请的各方面。应当理解,流程图和/或框图中的每个方框以及流程图和/或框图中各方框的组合可以由计算机程序指令实现。这些计算机程序指令可被提供给通用计算机、专用计算机、或其它可编程数据处理装置的处理器,以产生一种机器,使得经由计算机或其它可编程数据处理装置的处理器执行的这些指令使能对流程图和/或框图的一个或多个方框中指定的功能/动作的实现。这种处理器可以是但不限于是通用处理器、专用处理器、特殊应用处理器或者现场可编程逻辑电路。还可理解,框图和/或流程图中的每个方框以及框图和/或流程图中的方框的组合,也可以由执行指定的功能或动作的专用硬件来实现,或可由专用硬件和计算机指令的组合来实现。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本申请各个实施例所述的方法。
上面结合附图对本申请的实施例进行了描述,但是本申请并不局限于上述的具体实施方式,上述的具体实施方式仅仅是示意性的,而不是限制性的,本领域的普通技术人员在本申请的启示下,在不脱离本申请宗旨和权利要求所保护的范围情况下,还可做出很多形式,均属于本申请的保护之内。
Claims (14)
1.一种视频通话的互动方法,其特征在于,应用于至少具有一个显示屏的电子设备,包括:
在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中所述第一用户对应的第一对象的第一输入;
响应于所述第一输入,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面中显示所述第一对象,其中,所述第一输入包括对所述第一对象的目标部位的触摸输入,所述第一预设显示方式包括对应所述触摸输入的所述目标部位产生形变。
2.根据权利要求1所述的方法,其特征在于,所述响应于所述第一输入,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面中显示所述第一对象,包括:
确定所述第一输入的行为特征;
在所述第一输入的行为特征与预设行为特征一致的情况下,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面显示所述第一对象。
3.根据权利要求1所述的方法,其特征在于,所述第一输入还包括将所述第一对象移动至所述视频通话界面的目标区域的第二输入,所述按照所述第一预设显示方式在所述视频通话界面中显示所述第一对象,包括:
在所述目标区域显示所述第一对象。
4.根据权利要求3所述的方法,其特征在于,在所述目标区域包括所述第二用户对应的第二对象的情况下,所述在所述目标区域显示所述第一对象,包括:
在所述目标区域显示所述第一对象和所述第二对象。
5.根据权利要求1所述的方法,其特征在于,所述视频通话界面显示有第一控件或预设区域,所述方法还包括:
接收对所述第一控件或预设区域的第三输入;
响应于所述第三输入,显示第二控件;
接收所述第二用户通过所述第二控件拖动所述第一对象至所述视频通话界面的目标区域的第四输入;
响应于所述第四输入,在所述目标区域显示所述第一对象。
6.根据权利要求1所述的方法,其特征在于,所述视频通话界面显示有第三控件和所述第二用户对应的第二对象,所述方法还包括:
接收所述第二用户对所述第三控件的第五输入;
响应于所述第五输入,显示多个场景信息;
接收所述第二用户从所述多个场景信息中选取目标场景信息的第六输入;
响应于所述第六输入,在所述目标场景信息对应的场景中显示所述第二对象。
7.根据权利要求6所述的方法,其特征在于,所述场景信息包括所述第一用户的当前视频通话背景、所述第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项;所述在所述目标场景信息对应的场景中显示所述第二对象,包括:
在所述目标场景信息对应的场景中显示所述第一对象和所述第二对象。
8.一种视频通话的互动装置,其特征在于,应用于至少具有一个显示屏的电子设备,包括:
接收模块,用于在第一用户与第二用户进行视频通话的情况下,接收第二用户对视频通话界面中所述第一用户对应的第一对象的第一输入;
显示模块,用于响应于所述第一输入,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面中显示所述第一对象,其中,所述第一输入包括对所述第一对象的目标部位的触摸输入,所述第一预设显示方式包括对应所述触摸输入的所述目标部位产生形变。
9.根据权利要求8所述的装置,其特征在于,所述装置还包括:
确定模块,用于确定所述第一输入的行为特征;
所述显示模块,具体用于在所述第一输入的行为特征与预设行为特征一致的情况下,按照与所述第一输入对应的第一预设显示方式在所述视频通话界面显示所述第一对象。
10.根据权利要求8所述的装置,其特征在于,所述第一输入还包括将所述第一对象移动至所述视频通话界面的目标区域的第二输入;
所述显示模块,还用于在所述目标区域显示所述第一对象。
11.根据权利要求10所述的装置,其特征在于,在所述目标区域包括所述第二用户对应的第二对象的情况下;
所述显示模块,具体用于在所述目标区域显示所述第一对象和所述第二对象。
12.根据权利要求8所述的装置,其特征在于,所述视频通话界面显示有第一控件或预设区域;
所述接收模块,还用于接收对所述第一控件或预设区域的第三输入;
所述显示模块,还用于响应于所述第三输入,显示第二控件;
所述接收模块,还用于接收所述第二用户通过所述第二控件拖动所述第一对象至所述视频通话界面的目标区域的第四输入;
所述显示模块,还用于响应于所述第四输入,在所述目标区域显示所述第一对象。
13.根据权利要求8所述的装置,其特征在于,所述视频通话界面显示有第三控件和所述第二用户对应的第二对象;
所述接收模块,还用于接收所述第二用户对所述第三控件的第五输入;
所述显示模块,还用于响应于所述第五输入,显示多个场景信息;
所述接收模块,还用于接收所述第二用户从所述多个场景信息中选取目标场景信息的第六输入;
所述显示模块,还用于响应于所述第六输入,在所述目标场景信息对应的场景中显示所述第二对象。
14.根据权利要求13所述的装置,其特征在于,所述场景信息包括所述第一用户的当前视频通话背景、所述第二用户的当前视频通话背景、预设虚拟场景信息中的至少一项;
所述显示模块,具体用于在所述目标场景信息对应的场景中显示所述第一对象和所述第二对象。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011167360.2A CN112363658B (zh) | 2020-10-27 | 2020-10-27 | 视频通话的互动方法和装置 |
KR1020237008016A KR20230047172A (ko) | 2020-10-27 | 2021-10-20 | 영상 통화의 인터렉션 방법과 장치 |
PCT/CN2021/124942 WO2022089273A1 (zh) | 2020-10-27 | 2021-10-20 | 视频通话的互动方法和装置 |
EP21885001.4A EP4220369A4 (en) | 2020-10-27 | 2021-10-20 | INTERACTION METHOD AND APPARATUS FOR VIDEO CALL |
US18/138,076 US20230259260A1 (en) | 2020-10-27 | 2023-04-22 | Interaction method and apparatus for video call |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011167360.2A CN112363658B (zh) | 2020-10-27 | 2020-10-27 | 视频通话的互动方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112363658A true CN112363658A (zh) | 2021-02-12 |
CN112363658B CN112363658B (zh) | 2022-08-12 |
Family
ID=74510961
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011167360.2A Active CN112363658B (zh) | 2020-10-27 | 2020-10-27 | 视频通话的互动方法和装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20230259260A1 (zh) |
EP (1) | EP4220369A4 (zh) |
KR (1) | KR20230047172A (zh) |
CN (1) | CN112363658B (zh) |
WO (1) | WO2022089273A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113286082A (zh) * | 2021-05-19 | 2021-08-20 | Oppo广东移动通信有限公司 | 目标对象跟踪方法、装置、电子设备及存储介质 |
WO2022089273A1 (zh) * | 2020-10-27 | 2022-05-05 | 维沃移动通信有限公司 | 视频通话的互动方法和装置 |
CN115396390A (zh) * | 2021-05-25 | 2022-11-25 | Oppo广东移动通信有限公司 | 基于视频聊天的互动方法、系统、装置及电子设备 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120081501A1 (en) * | 2010-10-05 | 2012-04-05 | At&T Intellectual Property I, L.P. | Internet protocol television audio and video calling |
CN105554429A (zh) * | 2015-11-19 | 2016-05-04 | 掌赢信息科技(上海)有限公司 | 一种视频通话显示方法及视频通话设备 |
CN105872438A (zh) * | 2015-12-15 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 一种视频通话方法、装置及终端 |
CN107071330A (zh) * | 2017-02-28 | 2017-08-18 | 维沃移动通信有限公司 | 一种视频通话互动的方法及移动终端 |
CN107529096A (zh) * | 2017-09-11 | 2017-12-29 | 广东欧珀移动通信有限公司 | 图像处理方法及装置 |
CN109873971A (zh) * | 2019-02-27 | 2019-06-11 | 上海游卉网络科技有限公司 | 一种美妆通话系统及其方法 |
CN111010526A (zh) * | 2019-11-11 | 2020-04-14 | 珠海格力电器股份有限公司 | 一种视频通讯中的互动方法及装置 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101449751B1 (ko) * | 2008-03-27 | 2014-10-13 | 주식회사 케이티 | 영상 통화 중 터치 피드백 제공 기능을 구비한 이동 단말기및 영상 통화 중 터치 피드백 제공 방법 |
US9245177B2 (en) * | 2010-06-02 | 2016-01-26 | Microsoft Technology Licensing, Llc | Limiting avatar gesture display |
WO2012007034A1 (en) * | 2010-07-13 | 2012-01-19 | Nokia Corporation | Sending and receiving information |
US8767034B2 (en) * | 2011-12-01 | 2014-07-01 | Tangome, Inc. | Augmenting a video conference |
WO2013152453A1 (en) * | 2012-04-09 | 2013-10-17 | Intel Corporation | Communication using interactive avatars |
KR101978219B1 (ko) * | 2013-03-15 | 2019-05-14 | 엘지전자 주식회사 | 이동 단말기 및 이의 제어 방법 |
CN106067960A (zh) * | 2016-06-20 | 2016-11-02 | 努比亚技术有限公司 | 一种处理视频数据的移动终端和方法 |
CN107197194A (zh) * | 2017-06-27 | 2017-09-22 | 维沃移动通信有限公司 | 一种视频通话方法及移动终端 |
CN108259810A (zh) * | 2018-03-29 | 2018-07-06 | 上海掌门科技有限公司 | 一种视频通话的方法、设备和计算机存储介质 |
US10375313B1 (en) * | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
CN109862434A (zh) * | 2019-02-27 | 2019-06-07 | 上海游卉网络科技有限公司 | 一种美妆通话系统及其方法 |
US20200359893A1 (en) * | 2019-05-15 | 2020-11-19 | Rollins Enterprises, Llc. | Virtual consultation methods |
CN112363658B (zh) * | 2020-10-27 | 2022-08-12 | 维沃移动通信有限公司 | 视频通话的互动方法和装置 |
-
2020
- 2020-10-27 CN CN202011167360.2A patent/CN112363658B/zh active Active
-
2021
- 2021-10-20 KR KR1020237008016A patent/KR20230047172A/ko active Search and Examination
- 2021-10-20 WO PCT/CN2021/124942 patent/WO2022089273A1/zh unknown
- 2021-10-20 EP EP21885001.4A patent/EP4220369A4/en active Pending
-
2023
- 2023-04-22 US US18/138,076 patent/US20230259260A1/en active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120081501A1 (en) * | 2010-10-05 | 2012-04-05 | At&T Intellectual Property I, L.P. | Internet protocol television audio and video calling |
CN105554429A (zh) * | 2015-11-19 | 2016-05-04 | 掌赢信息科技(上海)有限公司 | 一种视频通话显示方法及视频通话设备 |
CN105872438A (zh) * | 2015-12-15 | 2016-08-17 | 乐视致新电子科技(天津)有限公司 | 一种视频通话方法、装置及终端 |
CN107071330A (zh) * | 2017-02-28 | 2017-08-18 | 维沃移动通信有限公司 | 一种视频通话互动的方法及移动终端 |
CN107529096A (zh) * | 2017-09-11 | 2017-12-29 | 广东欧珀移动通信有限公司 | 图像处理方法及装置 |
CN109873971A (zh) * | 2019-02-27 | 2019-06-11 | 上海游卉网络科技有限公司 | 一种美妆通话系统及其方法 |
CN111010526A (zh) * | 2019-11-11 | 2020-04-14 | 珠海格力电器股份有限公司 | 一种视频通讯中的互动方法及装置 |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022089273A1 (zh) * | 2020-10-27 | 2022-05-05 | 维沃移动通信有限公司 | 视频通话的互动方法和装置 |
CN113286082A (zh) * | 2021-05-19 | 2021-08-20 | Oppo广东移动通信有限公司 | 目标对象跟踪方法、装置、电子设备及存储介质 |
CN115396390A (zh) * | 2021-05-25 | 2022-11-25 | Oppo广东移动通信有限公司 | 基于视频聊天的互动方法、系统、装置及电子设备 |
CN115396390B (zh) * | 2021-05-25 | 2024-06-18 | Oppo广东移动通信有限公司 | 基于视频聊天的互动方法、系统、装置及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
KR20230047172A (ko) | 2023-04-06 |
EP4220369A1 (en) | 2023-08-02 |
CN112363658B (zh) | 2022-08-12 |
EP4220369A4 (en) | 2024-03-20 |
WO2022089273A1 (zh) | 2022-05-05 |
US20230259260A1 (en) | 2023-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112363658B (zh) | 视频通话的互动方法和装置 | |
CN105955607B (zh) | 内容分享方法和装置 | |
CN112135181B (zh) | 视频预览方法、装置及电子设备 | |
WO2020248711A1 (zh) | 一种显示设备及内容推荐方法 | |
CN109260713B (zh) | 虚拟对象远程协助操作方法及装置、存储介质、电子设备 | |
CN112099707A (zh) | 显示方法、装置和电子设备 | |
CN112788178B (zh) | 消息的展示方法和装置 | |
US20210042980A1 (en) | Method and electronic device for displaying animation | |
CN113065021B (zh) | 视频预览方法、装置、电子设备、存储介质和程序产品 | |
CN110457963A (zh) | 显示控制方法、装置、移动终端及计算机可读存储介质 | |
CN113873151A (zh) | 录像方法、装置及电子设备 | |
CN111467791A (zh) | 目标对象的控制方法及装置、系统 | |
CN112911147A (zh) | 显示控制方法、显示控制装置及电子设备 | |
CN112911052A (zh) | 信息分享方法和装置 | |
CN106911839A (zh) | 电子设备及其控制方法 | |
CN112783388B (zh) | 显示方法、显示装置和电子设备 | |
CN112954209B (zh) | 拍照方法、装置、电子设备及介质 | |
JP2023544544A (ja) | スクリーンキャプチャ方法、装置及び電子機器 | |
WO2023072060A1 (zh) | 壁纸交互方法、装置及电子设备 | |
WO2022267433A1 (zh) | 视频资源处理方法及装置 | |
WO2020248682A1 (zh) | 一种显示设备及虚拟场景生成方法 | |
CN118092740A (zh) | 一种批量账号操作方法、装置、电子设备及存储介质 | |
JP7289208B2 (ja) | プログラム、情報処理装置、および方法 | |
CN113805758A (zh) | 应用图标的操作方法及装置 | |
CN117812352A (zh) | 对象交互方法、装置、电子设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |