CN111263210A - 一种视频交互方法和相关装置 - Google Patents
一种视频交互方法和相关装置 Download PDFInfo
- Publication number
- CN111263210A CN111263210A CN202010207129.5A CN202010207129A CN111263210A CN 111263210 A CN111263210 A CN 111263210A CN 202010207129 A CN202010207129 A CN 202010207129A CN 111263210 A CN111263210 A CN 111263210A
- Authority
- CN
- China
- Prior art keywords
- area
- touch
- user
- determining
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4318—Generation of visual interfaces for content selection or interaction; Content or additional data rendering by altering the content in the rendering process, e.g. blanking, blurring or masking an image region
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0484—Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
- G06F3/04847—Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0487—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
- G06F3/0488—Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44222—Analytics of user selections, e.g. selection of programs or purchase activity
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/47205—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for manipulating displayed content, e.g. interacting with MPEG-4 objects, editing locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/472—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
- H04N21/4728—End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Databases & Information Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Social Psychology (AREA)
- Computer Networks & Wireless Communication (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
本申请实施例公开了一种视频交互方法,所述方法包括:确定针对遮蔽区域的触控操作,所述遮蔽区域处于视频内容的展示区域中;根据所述触控操作在所述遮蔽区域生成的触控位置信息,确定对应所述遮蔽区域的影响参数,所述影响参数用于体现所述触控操作对所述遮蔽区域造成的影响程度;若所述影响参数达到目标条件,展示所述遮蔽区域所遮蔽的视频内容。基于该视频交互方法,可以在用户浏览网络视频时,遮蔽部分或全部视频内容,然后当用户为了去除遮蔽内容进行一定的触控操作时,再根据该触控操作,向用户展示遮蔽住的视频内容,从而使用户拥有探索未知区域的交互体验,同时能够避免用户接收过多自己不感兴趣的信息,提高了用户的观看体验。
Description
技术领域
本申请涉及视频处理领域,特别是涉及一种视频交互方法和相关装置。
背景技术
用户可以通过各类终端方便的观看网络视频内容,例如各类直播、在线视频等。
用户在观看视频内容的过程中,主要就是通过主页浏览、点击感兴趣的进行观看,基本没有任何可与视频内容交互的方式,导致观看过程行为单一,缺乏用户交互体验。
发明内容
为了解决上述技术问题,本申请提供了一种视频交互方法,基于该视频交互方法,可以在用户浏览网络视频时,遮蔽部分或全部视频内容,然后当用户为了去除遮蔽内容进行一定的触控操作时,再根据该触控操作,向用户展示遮蔽住的视频内容,从而使用户拥有探索未知区域的交互体验,丰富了交互方式,同时能够避免用户接收过多自己不感兴趣的信息,提高了用户的观看体验。
本申请实施例公开了如下技术方案:
第一方面,本申请实施例公开了一种视频交互方法,所述方法包括:
确定针对遮蔽区域的触控操作,所述遮蔽区域处于视频内容的展示区域中;
根据所述触控操作在所述遮蔽区域生成的触控位置信息,确定对应所述遮蔽区域的影响参数,所述影响参数用于体现所述触控操作对所述遮蔽区域造成的影响程度;
若所述影响参数达到目标条件,展示所述遮蔽区域所遮蔽的视频内容。
第二方面,本申请实施例公开了一种视频交互装置,所述装置包括第一确定单元、第二确定单元和第一展示单元:
所述第一确定单元,用于确定针对遮蔽区域的触控操作,所述遮蔽区域处于视频内容的展示区域中;
所述第二确定单元,用于根据所述触控操作在所述遮蔽区域生成的触控位置信息,确定对应所述遮蔽区域的影响参数,所述影响参数用于体现所述触控操作对所述遮蔽区域造成的影响程度;
所述第一展示单元,用于若所述影响参数达到目标条件,展示所述遮蔽区域所遮蔽的视频内容。
第三方面,本申请实施例公开了一种用于视频交互的设备,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行第一方面中任意一项所述的视频交互方法。
第四方面,本申请实施例公开了一种计算机可读存储介质,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行第一方面中任意一项所述的视频交互方法。
由上述技术方案可以看出,预先在视频内容的展示区域中设置遮蔽区域,使用户在观看该视频时无法看到或只能看到部分视频内容。当用户对该视频产生兴趣时,可以对遮蔽区域作出触控操作,处理设备能够根据该触控操作在遮蔽区域生成的触控位置信息,确定出对应该遮蔽区域的影响参数,当该影响参数达到目标条件,则向该用户展示遮蔽区域所遮蔽的视频内容,从而在能够避免用户接受大量自己不感兴趣的信息,提高了用户观看视频的体验;同时,用户通过对遮蔽区域的触控操作使得遮蔽区域恢复显示,相对于是一种由未知到已知的过程,给与了用户在视频内容层面上的探索体验,丰富了用户针对该视频内容的互动方式;此外,通过本申请技术方案,还能够使视频平台能够根据用户做出的触碰操作收集用户感兴趣的视频信息类型,可以确定出用户的更深层次的喜好。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本申请实施例提供的一种实际应用场景中视频交互方法的示意图;
图2为本申请实施例提供的一种视频交互方法的流程框图;
图3a为本申请实施例提供的一种视频交互方法的示意图;
图3b为本申请实施例提供的一种视频交互方法的示意图;
图3c为本申请实施例提供的一种视频交互方法的示意图;
图4为本申请实施例提供的一种实际应用场景中视频交互方法的示意图;
图5为本申请实施例提供的一种实际应用场景中视频交互方法的示意图;
图6为本申请实施例提供的一种视频交互装置的结构框图;
图7为本申请实施例提供的一种用于视频交互的设备的结构图;
图8为本申请实施例提供的一种服务器的结构图。
具体实施方式
下面结合附图,对本申请的实施例进行描述。
随着网络技术的发展,越来越多的人喜欢观看网络视频,例如在各种直播平台上观看网络直播、观看各种影视剧集等。在相关网络视频技术中,用户仅仅能够对视频进行播放、暂停等基础操作,针对网络视频的交互操作较为单一;同时,用户在浏览视频时,即使用户不喜欢该视频,也会接收大量的影像信息,降低了用户的观看体验。
为了解决上述技术问题,本申请提供了一种视频交互方法,基于该视频交互方法,可以在用户浏览网络视频时,遮蔽部分或全部视频内容,然后当用户为了去除遮蔽内容进行一定的触控操作时,再根据该触控操作,向用户展示遮蔽住的视频内容,从而使用户拥有探索未知区域的交互体验,丰富了交互方式,同时能够避免用户接收过多自己不感兴趣的信息,提高了用户的观看体验。
可以理解的是,该方法可以应用于处理设备上,该处理设备为能够进行交互信息处理的处理设备,例如可以为具有交互信息处理功能的终端设备或服务器。该方法可以通过终端设备或服务器独立执行,也可以应用于终端设备和服务器通信的网络场景,通过终端设备和服务器配合执行。其中,终端设备可以为计算机、个人数字助理(PersonalDigital Assistant,简称PDA)、平板电脑等设备。服务器可以理解为是应用服务器,也可以为Web服务器,在实际部署时,该服务器可以为独立服务器,也可以为集群服务器。同时,在硬件环境上,本技术已经实现的环境有:ARM架构处理器、X86架构处理器;在软件环境上,本技术已经实现的环境有:Android平台、Windows xp及以上操作系统或Linux操作系统。
为了便于理解本申请的技术方案,下面将结合实际应用场景,对本申请实施例提供的视频交互方法进行介绍。
参见图1,图1为本申请实施例提供的一种视频交互方法的实际应用场景示意图。在该应用场景中,处理设备为终端设备101。在用户观看视频时,为了丰富用户对于视频的交互方式,终端设备101可以在视频内容的展示区域中添加一个遮蔽区域,该展示区域用于向用户展示视频内容,该遮蔽区域为展示区域中的一部分,用户无法看到或只能模糊的看到遮蔽区域所覆盖的视频内容。当用户对该视频内容产生兴趣时,可以通过对遮蔽区域进行触控操作,来实现去除遮蔽区域的目的。例如,在本实际应用场景中,用户所观看的视频内容中的人物头部被遮蔽掉了,身体部分仍然能够展示,用户在观看部分视频内容时,如果根据人物声音、服装等信息对该人物产生兴趣时,可能会想要对人物进行深层次的了解。此时,用户可能想要查看该人物的头部信息,可以通过对头部附近遮蔽区域进行触控操作来去除遮蔽区域。
在本实际应用场景中,如图1所示,用户针对遮蔽区域所作出的触控操作为用手指在遮蔽区域上向左滑动。终端设备101能够确定出用户针对遮蔽区域的触控操作,为了确定用户作出的触控操作能否去除遮蔽区域,终端设备101可以为遮蔽区域设置一个目标条件,当用户通过触控操作达到该目标条件时,为用户去除该遮蔽区域的遮蔽效果。
基于此,终端设备101需要判断用户是否能够通过触控操作达到目标条件。首先,终端设备101可以获取该触控操作在遮蔽区域生成的触控位置信息,该触控位置信息用于从具体信息的层面上展现该触控操作,从而使终端设备能够精确的确定出该触控操作所带来的影响。在本实际应用场景中,由于触控操作为手指向左滑动,因此生成的触控位置信息可以为手指的运动轨迹、用于滑动的手指个数等。
终端设备101可以根据该触控位置信息,确定对应遮蔽区域的影响参数,其中,该影响参数用于体现触控操作对遮蔽区域造成的影响程度。在本实际应用场景中,终端设备101可以根据用户滑动的手指轨迹、手指个数等信息,确定出用户手指所滑动的面积作为影响参数。可以理解的是,用户手指滑动过的面积越大,说明用户对于该遮蔽部分的内容的兴趣度就越高,越希望看到被遮蔽的视频内容。此时,终端设备101可以通过判断用户手指滑动做造成的影响参数是否达到目标条件,来确定用户作出的触控操作是否能够去除遮蔽区域的遮蔽效果。
在本实际应用场景中,由于用户所造成的影响参数为手指划过的面积,因此该目标条件可以为一个预设的面积数值。当用户滑动的面积达到该面积数值时,终端设备101可以判定用户对该视频内容产生了足够的兴趣度,此时可以去除掉遮蔽区域的遮蔽效果,向用户展示遮蔽区域所遮蔽的视频内容。由图可知,用户在通过滑动的触控操作去除遮蔽区域后,可以看到视频内容中的整个人物,从而能够对该视频内容进行更深层次的了解。
由此可见,当用户遇到自己感兴趣的视频内容时,可以通过对该视频内容的遮蔽区域进行触控操作,来达到去除遮蔽效果的目的。终端设备101能够根据该触控操作确定出用户造成的影响参数,该影响参数在体现出触控操作对遮蔽区域影响程度之外,实际上还体现出了用户对于该视频内容的兴趣程度。终端设备101可以在影响参数达到目标条件时向用户展示被遮蔽的视频内容,从而使用户可以通过自己做出的触控操作,来观看到自己感兴趣的视频内容,丰富了用户对视频的交互方式;同时,用户在进行触控操作前,实际上并不能清楚的看到遮蔽区域的视频内容,该视频内容对该用户来说是一个未知的信息,因此用户去除遮蔽区域是一个从未知到已知的过程,给与了用户一个探索位置的体验感,提高了用户的观看感受;此外,用户还可以对自己不感兴趣的视频在不观看遮蔽区域的情况下不对其作出触控操作而直接跳过,从而避免了用户接收过多自己不喜欢的视频信息。
接下来,将结合附图,对本申请实施例提供的一种视频交互方法进行介绍。
参见图2,图2展示了一种视频交互方法的流程框图,该方法包括:
S201:确定针对遮蔽区域的触控操作。
如今,网络视频分布在人们日常生活的方方面面,例如通过网络观看直播视频、游戏视频或影视剧等。但是用户在观看网络视频时,多数情况下只是通过点击对视频做出播放、暂停等操作,最多也只能通过滑动来切换不同的视频,对于用户来说与视频之间的交互方式过于单一,容易感觉枯燥和乏味。
为了丰富用户与网络视频之间的交互方式,提高用户的观看体验,处理设备可以在网络视频的展示区域中设置遮蔽区域,其中,展示区域用于向用户展示视频内容,遮蔽区域用于使用户无法看清部分或全部视频内容。例如,处理设备可以将一个不透明的图层,如一层填充有不透明颜色的确定大小的画布(Canvas),添加在部分展示区域上方,该图层所占据的展示区域即为遮蔽区域。如图1中所示,展示区域中的人物头部部分被遮蔽住了,用户仅能够听到该人物的声音、看到该人物的身体部分。
用户在观看该网络视频时,只能够看到未被遮蔽的展示区域,当遮蔽区域与展示区域大小相同时,用户完全无法看到展示区域的视频内容,获取不到与遮蔽区域的视频内容相关的信息。可以理解的是,当用户接收未被遮蔽的信息时,可能会基于这些不完整的信息,对视频内容产生兴趣,从而想要进行更深层次的了解。例如,当用户在看到人物的身体部分或听到人物的声音时,可能会对包含该人物的视频内容产生兴趣,从而想要进一步了解该人物的长相。此时,用户可以通过对遮蔽区域进行触控操作,来去除对视频内容的遮蔽效果。
在用户做出触控操作后,处理设备能够确定针对遮蔽区域的触控操作,并根据该触控操作进行后续步骤,来判断用户是否能够去除遮蔽效果。
S202:根据触控操作在遮蔽区域生成的触控位置信息,确定对应遮蔽区域的影响参数。
在确定触控操作后,为了判断该触控操作是否能够去除遮蔽效果,处理设备可以预先设定一个目标条件,然后判断用户通过该触控操作对遮蔽区域的影响是否达到了目标条件。由于该触控操作是用户针对屏蔽区域所作出的,而屏蔽区域中的视频内容对于该用户来说是未知的,因此通过用户对遮蔽区域所做出的触控操作,能够反映出用户对于该未知视频内容的兴趣程度。当用户通过做出的触控操作达到目标条件时,说明该用户已经对未知的视频内容产生了足够的兴趣,此时处理设备可以为用户去除遮蔽效果。
可以理解的是,由于该判断过程是由处理设备来完成的,因此,需要先通过某种处理设备能够理解的形式来体现出用户做出的触控操作对遮蔽区域的影响。在本申请实施例中,处理设备可以用参数的形式来体现触控操作对遮蔽区域的影响。处理设备可以根据该触控操作在遮蔽区域生成的触控位置信息,确定对应遮蔽区域的影响参数。其中,该触控位置信息用于从信息层面上表现该触控操作,从而使处理设备能够理解用户是如何进行的触控操作;该影响参数用于体现触控操作对遮蔽区域的影响程度,该影响程度一定程度上可以体现出用户对于遮蔽区域的视频内容的兴趣程度。
例如,当用户做出的触控操作为手指摩擦遮蔽区域时,触控位置信息可以为用户手指摩擦的运动轨迹、用于摩擦的手指数量、单个手指与遮蔽区域的接触面积等,通过该触控位置信息,处理设备所确定出的影响参数可以为用户摩擦的区域面积。当摩擦区域的面积越大,说明用户越渴望看到被遮蔽的视频内容。
S203:若影响参数达到目标条件,展示遮蔽区域所遮蔽的视频内容。
在根据触控操作确定出影响参数后,处理设备已经获取了能够体现出用户兴趣程度的参数信息。为了使用户产生足够兴趣时,能够看到被遮蔽的视频内容,处理设备可以将该影响参数与预先设置的目标条件进行判断,当影响参数达到目标条件时,说明用户已经对未知的视频内容产生了足够的观看兴趣。此时,为了满足用户的观看需求,处理设备可以向用户展示遮蔽区域所遮蔽的视频内容。此时,遮蔽区域的视频内容对于用户来说,就完成了从未知到已知的转变。
例如,当影响参数为上述用户摩擦的区域面积时,目标条件可以为一个特定的区域面积值。当用户通过摩擦产生的摩擦区域达到该区域面积值时,处理设备可以向用户展示遮蔽区域所遮蔽的视频内容。
由上述技术方案可以看出,预先在视频内容的展示区域中设置遮蔽区域,使用户在观看该视频时无法看到或只能看到部分视频内容。当用户对该视频产生兴趣时,可以对遮蔽区域作出触控操作,处理设备能够根据该触控操作在遮蔽区域生成的触控位置信息,确定出对应该遮蔽区域的影响参数,当该影响参数达到目标条件,则向该用户展示遮蔽区域所遮蔽的视频内容,从而在能够避免用户接受大量自己不感兴趣的信息,提高了用户观看视频的体验;同时,用户通过对遮蔽区域的触控操作使得遮蔽区域恢复显示,相对于是一种由未知到已知的过程,给与了用户在视频内容层面上的探索体验,丰富了用户针对该视频内容的互动方式;此外,通过本申请技术方案,还能够使视频平台能够根据用户做出的触碰操作收集用户感兴趣的视频信息类型,可以确定出用户的更深层次的喜好。
可以理解的是,根据处理设备所设置的目标条件的不同,用户可以通过多种触控操作来获取遮蔽区域的视频内容。在一种可能的实现方式中,用户可以通过用在遮蔽区域中通过某些动作,例如用手指摩擦、手指点击等,生成触控区域的方式来进行触控操作,其中,触控区域是指用户所作出的触控操作在遮蔽区域中产生影响的区域,例如手指在遮蔽区域中与屏幕产生摩擦的区域或点击的区域等。
可以理解的是,由于该触控操作是在用户对屏蔽区域所屏蔽的视频内容产生兴趣的情况下做出的,因此当用户所生成的触控区域越大,说明用户对于被遮蔽内容的观看兴趣度越高。基于此,在这种触控操作方式下,处理设备预先设置的目标条件可以为用户在遮蔽区域中生成的触控区域的面积在整个遮蔽区域中的占比达到一定数值。当占比达到该目标条件时,说明用户已经对于遮蔽的视频内容产生了足够的观看兴趣,此时可以将遮蔽区域的视频内容向用户进行展示。
处理设备在获取触控操作的触控位置信息后,可以根据该触控位置信息,确定在遮蔽区域中对应的触控区域。可以理解的是,当用户生成触控区域的触控操作不同时,所获取的触控位置信息也可能有所不同。例如,在一种可能的实现方式中,当用户是通过触碰对应触控区域的设备屏幕的方式来生成触控区域时,处理设备为了确定出该触控区域的面积,可以确定出触控操作对应的单点触控面积,该单点触控面积是指用户用于触碰设备屏幕的部位所具有的单位面积。例如,当用户是通过手指来触碰设备屏幕时,该单点触控面积可以为用户单个手指的手指触控面积。
可以理解的是,处理设备可以通过多种方式来获取该用户的手指触控面积。例如,为了更加贴合用户的实际情况,使确定出的触控区域更加精确,处理设备可以通过其他方式存储的用户信息中,提取出对应该用户的手指触控面积。当处理设备未存储该用户的手指触控面积时,还可以根据其他用户信息来确定。在一种可能的实现方式中,处理设备可以获取多个用户的身高、体重等信息作为训练输入,用户的手指触控面积作为训练输出来进行模型训练,从而训练得到用户的其他个人信息与手指触控面积之间的对应关系。在需要获取用户的手指触控面积时,处理设备可以先获取该用户的其他个人信息,然后将该信息输入模型中,确定出该用户近似的手指触控面积。
此外,当处理设备未存储该用户的手指触控面积,也没有用于确定手指触控面积的模型时,处理设备还可以设置一个通用的手指触控面积,该手指触控面积可以较为贴合大多数人的实际情况。为了能够使该手指触控面积更加贴合用户的实际情况,处理设备还可以通过多种互动方式来进一步获取用户的相关信息,例如通过问卷调查的形式来获取用户手指大小等信息,通过各种小游戏来获取用户的手指触控面积等。处理设备可以根据这些信息,对预设的通用手指触控面积进行调节,从而更贴合与用户的实际情况。
在确定出单点触控面积后,为了确定出触控区域,处理设备还需要根据触控位置信息,获取触控位置信息所标识的触控轨迹。其中,触控轨迹是指用户在触碰设备屏幕时,触碰部位的运动轨迹。例如,当用户是通过手指来触碰设备屏幕时,处理设备可以根据触控操作,确定出用户手指触点在遮蔽区域中的运动轨迹。可以理解的是,为了方便进行触控面积的确定,该手指触点可以选择用户手指接触区域的中心点,从而更方便将手指触控面积与触点轨迹相结合。
在确定出单点触控面积和触控位置信息所标识的触控轨迹后,处理设备可以将二者相结合,在触控轨迹的基础上添加单点触控面积,从而确定出在遮蔽区域中对应的触控区域。如图3a所示,图3a展示了一种触控区域的确定方式,处理设备可以将单点触控面积大小的图形沿触控轨迹进行运动,在该运动过程中所经过的区域即为触控区域。
可以理解的是,用户在进行触控操作时,为了能够尽快去除遮蔽区域,看到被遮蔽的视频内容,可能同时用多个触点来触碰设备屏幕。例如,用户在通过手指滑动屏幕来擦除遮蔽区域时,为了能够较快的进行擦除,可能同时采用多跟手指来进行滑动。此时,为了能够贴合用户的需求,提高用户的交互体验,在一种可能的实现方式中,处理设备可以根据触控位置信息,确定触控点数量,并根据触控点数量、单点触控面积和触控位置信息所标识的触控轨迹,确定在遮蔽区域中对应的触控区域。例如,当用户触控点数量为两个时,可以在根据单点触控面积和触控轨迹确定出一个区域数值后,将该区域数值变为两倍,作为触控区域,从而能够使该触控区域在遮蔽区域中的占比更快的达到目标条件,进而使处理设备能够更快的向用户展示遮蔽区域的视频内容,满足用户实际需求。
可以理解的是,触控位置信息所标识的触控轨迹之间可能具有重叠的部分,例如同一触控轨迹可能具有弯折的交点、多条触控轨迹有部分轨迹相重叠等。由于实际上在用户通过触控操作生成的触控区域中,只显示最终生成的结果,所计算的触控区域的面积也为用户针对遮蔽区域所最终产生的面积,因此在计算触控区域的面积时,可以将重叠的轨迹部分去除,防止重复计算触控区域的面积。为了更加精确地确定出用户实际的触控区域,在一种可能的实现方式中,处理设备可以确定触控位置信息所标识的触控轨迹中是否具有重叠部分,当具有重叠部分时,对该触控轨迹进行去重处理,然后根据单点触控面积和去重后的触控轨迹,确定在遮蔽区域中对应的触控区域。
此外,为了提高用户的交互体验,在用户通过触控操作生成触控区域的过程中,处理设备可以向用户展示触控区域的视频内容,从而使用户能够一边进行触控操作,一边观看到自己所触控过的触控区域的视频内容,增加了触控过程中的层次感和新奇感。例如,在图3b所示的示意图中,用户在通过手指滑动产生触控区域时,处理设备可以在滑动过的触控区域中展示该区域对应的视频内容,从而使用户能够一边滑动,一边观看,增加了交互过程的趣味性。在图3b中,该视频内容为某一娱乐主播的直播视频,用户在滑动过程中,能够在触控区域内看到部分主播的人物形象,同时在达到一定条件时,看到完整的主播人物。
同时,当用户在触控操作的过程中,通过触控区域的视频内容可能会发现这个视频并不是自己想要观看的视频,此时可以直接停止操作并观看下一个视频,而不需要达到目标条件才能观看视频内容,一定程度上节省了用户的操作时间,提高了用户的操作效率。
可以理解的是,为了丰富用户的交互方式,使用户能够更加自由的进行触控操作,处理设备可以为用户提供多种触控操作的方式。例如,在针对同一遮蔽区域,通过触控操作生成触控区域时,用户可以通过点击、滑动等多种操作方式来进行。在一种可能的实现方式中,触控位置信息所标识的触控轨迹可以为至少一个单击触控位置、至少一条连续轨迹中的任意一种或多种的组合。其中,单机触控位置是用户通过点击的操作方式产生的,连续轨迹是用户通过滑动的方式产生的。处理设备通过识别多种触控轨迹,能够确定出用户通过多种触控操作生成的触控区域,从而为用户提供了更加丰富的交互方式,提高了用户的交互体验。
除了上述触控操作之外,为了提高用户在与网络视频进行交互时的趣味性,处理设备还可以在网络视频中的遮蔽区域设置各种特定操作,例如双击遮蔽区域或在遮蔽区域中的特定位置引导用户进行触控等,使用户可以通过多种多样的触控方式来去除遮蔽效果。在一种可能的实现方式中,为了能够响应用户做出的各种触控方式的触控操作,处理设备可以根据触控操作的触控位置信息,确定在遮蔽区域中对应的触控方式,并根据该触控方式来确定对应该遮蔽区域的影响参数。
例如,当处理设备提供的触控方式中包括双击遮蔽区域以及在遮蔽区域中的特定位置进行滑动来去除遮蔽效果这两种时,触控位置信息中可能包括用户的单击触控位置以及单击次数。由于只存在单机单击信息,不存在滑动信息,因此处理设备通过该触控位置信息,可以判断该用户在遮蔽区域中对应的触控方式为点击的方式,从而将单机次数作为影响参数。当单机次数达到两次时,处理设备判定该影响参数满足了目标条件,即满足了双击的条件,从而向用户展示遮蔽区域的视频内容。
接下来,将结合一种实际应用场景,对本申请实施例提供的一种视频交互方法进行介绍。在本实际应用场景中,视频内容为直播平台的直播内容,处理设备可以直播平台的视频预览区域中,通过展示区域,对视频内容进行展示。其中,该处理设备可以为承载有直播平台或直播软件的终端设备,例如手机、平台电脑等。
如图4所示,图4为本申请实施例提供的一种实际应用场景中视频交互方法的示意图,该方法包括:
S401:进入视频预览区域。
用户进入该直播平台的视频预览区域时,能够看到部分视频内容被遮蔽的直播视频。可以理解的是,在不同类型的主播所直播的直播内容中,用户可能会感兴趣的视频内容部分在视频展示区域中所处的位置也可能不同。例如,当主播类型为游戏主播时,所直播的视频内容可以为某一把游戏对局。用户在观看直播时,可能会对该主播在该游戏对局中所购买的装备感兴趣;当主播为娱乐主播时,所直播的视频内容可以为唱歌、舞蹈等才艺,此时用户可能对该主播的相貌感兴趣。
S402:摩擦感兴趣的遮蔽区域。
S403:获取用户手指的运动信息。
在用户对感兴趣的遮蔽区域进行摩擦时,终端设备可以获取用户手指的运动信息作为触控位置信息,该手指运动信息包括手指触控点的数量和各个触控点的运动轨迹。
S404:判断触控点是否小于2个。
终端设备首先可以对触控点数量进行判断。
S405:获取用户的手指运动轨迹。
由于用户通常情况下使用1-2根手指进行摩擦,因此在触控点数量不大于2时,终端设备可以直接将该触控点的运动轨迹确定为该用户手指的运动轨迹用于确定摩擦区域。
S406:取视频正向最下方两个触碰点作为用于计算的触碰点。
当触控点数量大于2时,此时可能存在部分触控点属于误触。可以理解的是,在大多数用户的摩擦习惯中,通常采用食指和中指进行滑动,因此为了更精确地确定出用户的摩擦区域,终端设别可以取视频正向最下方两个触碰点作为计算的触碰点,该触碰点通常为食指和中指的触碰点。
在确定出触碰点后,终端设备可以将该触碰点的运动轨迹作为用户的手指运动轨迹。
S407:获取用户手指的单点触控面积。
此外,终端设备还需要获取用户手指的单点触碰面积。
S408:判断是否存储该用户对应的单点触控面积。
首先,终端设备可以查找是否存储有该用户对应的单点触碰面积。若有,转至S409;若无,转至S410.
S409:确定用户手指的单点触控面积。
若有,则直接将存储的单点触碰面积确定为该用户的单点触碰面积进行后续步骤。
S410:若存在用户的个人信息,根据用户个人信息确定出手指单点触控面积;若不存在,采用通用的默认单点触控面积。
当没有存储该用户对应的单点触控面积时,终端设备可以先判断是否有该用户的个人信息,例如用户的身高、体重等。若存在该用户的个人信息,则根据该信息确定出一个大致的单点触碰面积;若不存在,则采用通用的默认单点触碰面积进行后续步骤。
S411:判断运动轨迹是否存在重复区域。
在确定出用户手指的单点触碰面积之后,终端设备对上面获取的触碰点的运动轨迹进行处理,判断其是否存在重复区域,若存在,则转至S412;若不存在,转至S413。
S412:去重。
若存在,进行去重处理,将去重后的运动轨迹作为手指运动轨迹。
S413:确定用户的手指运动轨迹。
若不存在,则直接确定为用户的手指运动轨迹。
S414:判断摩擦面积是否达到20%。
至此,终端设备已经获取了触碰点数量、单点触碰面积和手指运动轨迹,即可确定出用户手指的摩擦面积。终端设备通过确定该摩擦面积在整个遮蔽区域中的占比,来判断其占比是否达到了20%。若达到,转至S415;若未达到,转至S416。
S415:展示遮蔽区域的直播视频内容。
当占比达到20%时,终端设备去除遮蔽效果,向用户展示遮蔽区域的直播视频内容,如装备展示区域、主播形象等。
S416:持续记录统计摩擦区域并向用户展示摩擦轨迹。
若未到达,则持续记录、统计摩擦区域,并可以向用户展示摩擦轨迹,以提示提示用户哪些区域没有摩擦,哪些区域已经摩擦过了。
为了丰富视频交互的趣味性,处理设备可以根据直播内容对应的主播类型来确定直播内容对应的遮蔽区域。当主播类型为游戏主播时,遮蔽区域可以处于直播内容的装备展示区域;当主播类型为娱乐主播时,遮蔽区域可以处于直播内容的主播展示区域。如图3b和图3c所示,在图3b中,主播类型为娱乐主播,该遮蔽区域位于直播内容的主播展示区域。用户在摩擦屏幕的过程中,可以通过摩擦生成的触控区域看到主播展示的形象,同时在达到一定的条件时,向用户展示完整的主播形象;在图3c中,主播类型为游戏主播,该遮蔽区域位于直播内容的装备展示区域,用户可以通过摩擦生成的触控区域看到部分主播装备,同时在达到一定的条件时,向用户展示完整的装备区域。
如图5所示,图5为一种实际应用场景中视频交互方法的示意图,该方法包括:
S501:进入视频预览区域。
S502:判断是否为娱乐主播。
在本实际应用场景中,主播类型分为游戏主播和娱乐主播两种类型。终端设备可以先判断当前展示直播视频的主播是否为娱乐主播。当判断该主播为娱乐主播时,可以进行S503。
S503:遮蔽整个展示区域。
终端设备可以将整个直播视频的展示区域都作为遮蔽区域进行遮蔽,从而使用用户无法看到该娱乐主播的主播形象,仅能听到该娱乐主播的声音。
S504:用户在直播视频区域进行摩擦。
当用户通过该主播的声音对主播产生兴趣时,可以对整个直播视频区域进行摩擦。
S505:判断摩擦区域是否达到20%。
S506:展示主播形象。
当终端设备判断摩擦区域达到遮蔽区域的20%时,解除遮蔽效果,向用户展示主播形象。
S507:遮蔽装备展示区域。
当判断该主播不是娱乐主播时,终端设备可以确定该主播为游戏主播。此时,终端设备可以将直播视频中的装备展示区域作为遮蔽区域进行遮蔽,从而使用户只能看到该主播的游戏操作,但是无法看到该主播购买的游戏装备。
S508:用户在装备展示区域进行摩擦。
当用户看到主播的游戏操作非常厉害时,可能会想要了解该主播的游戏装备构成,从而学习该主播的游戏技术,此时用户可以在装备展示区域上进行摩擦。
S509:判断摩擦区域是否达到20%。
S510:展示装备信息。
当终端设备判断摩擦区域达到遮蔽区域的20%时,向用户展示装备区域。
基于上述实施例提供的视频交互方法,本申请实施例还提供一种视频交互装置600,参见图6,该装置包括第一确定单元601、第二确定单元602和第一展示单元603:
第一确定单元601,用于确定针对遮蔽区域的触控操作,遮蔽区域处于视频内容的展示区域中;
第二确定单元602,用于根据触控操作在遮蔽区域生成的触控位置信息,确定对应遮蔽区域的影响参数,影响参数用于体现触控操作对遮蔽区域造成的影响程度;
第一展示单元603,用于若影响参数达到目标条件,展示遮蔽区域所遮蔽的视频内容。
在一种可能的实现方式中,第二确定单元602具体用于:
根据触控操作的触控位置信息,确定在遮蔽区域中对应的触控区域;
根据触控区域在遮蔽区域中的占比,确定对应遮蔽区域的影响参数。
在一种可能的实现方式中,装置600还包括第二展示单元604:
第二展示单元604,用于展示触控区域中的视频内容。
在一种可能的实现方式中,第二确定单元602具体用于:
确定触控操作对应的单点触控面积;
根据单点触控面积和触控位置信息所标识的触控轨迹,确定在遮蔽区域中对应的触控区域。
在一种可能的实现方式中,装置600还包括第三确定单元605:
第三确定单元605,用于根据触控位置信息确定触控点数量;
第二确定单元602具体用于:
根据触控点数量、单点触控面积和触控位置信息所标识的触控轨迹,确定在遮蔽区域中对应的触控区域。
在一种可能的实现方式中,第二确定单元602具体用于:
确定触控位置信息所标识的触控轨迹中是否具有重叠部分;
若是,对触控轨迹进行去重处理;
根据单点触控面积和去重后的触控轨迹,确定在遮蔽区域中对应的触控区域。
在一种可能的实现方式中,触控轨迹包括以下任意一种或多种的组合:
至少一个单击触控位置;
至少一条连续轨迹。
在一种可能的实现方式中,第二确定单元602具体用于,包括:
根据触控操作的触控位置信息,确定在遮蔽区域中对应的触控方式;
根据触控方式确定对应遮蔽区域的影响参数。
在一种可能的实现方式中,视频内容为直播平台的直播内容,装置600还包括第三展示单元606:
第三展示单元606,用于在直播平台的视频预览区域中,通过展示区域对视频内容进行展示。
在一种可能的实现方式中,直播内容对应的遮蔽区域是根据直播内容对应的主播类型确定的;若主播类型为游戏主播,遮蔽区域处于直播内容的装备展示区域,若主播类型为娱乐主播,遮蔽区域处于直播内容的主播展示区域。
本申请实施例还提供了一种用于视频交互的设备,下面结合附图对该设备进行介绍。请参见图7所示,本申请实施例提供了一种设备700,该设备700还可以是终端设备,该终端设备可以为包括手机、平板电脑、个人数字助理(Personal Digital Assistant,简称PDA)、销售终端(Point of Sales,简称POS)、车载电脑等任意智能终端,以终端设备为手机为例:
图7示出的是与本申请实施例提供的终端设备相关的手机的部分结构的框图。参考图7,手机包括:射频(Radio Frequency,简称RF)电路710、存储器720、输入单元730、显示单元740、传感器750、音频电路760、无线保真(wireless fidelity,简称WiFi)模块770、处理器780、以及电源790等部件。本领域技术人员可以理解,图7中示出的手机结构并不构成对手机的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
下面结合图7对手机的各个构成部件进行具体的介绍:
RF电路710可用于收发信息或通话过程中,信号的接收和发送,特别地,将基站的下行信息接收后,给处理器780处理;另外,将设计上行的数据发送给基站。通常,RF电路710包括但不限于天线、至少一个放大器、收发信机、耦合器、低噪声放大器(Low NoiseAmplifier,简称LNA)、双工器等。此外,RF电路710还可以通过无线通信与网络和其他设备通信。上述无线通信可以使用任一通信标准或协议,包括但不限于全球移动通讯系统(Global System of Mobile communication,简称GSM)、通用分组无线服务(GeneralPacket Radio Service,简称GPRS)、码分多址(Code Division Multiple Access,简称CDMA)、宽带码分多址(Wideband Code Division Multiple Access,简称WCDMA)、长期演进(Long Term Evolution,简称LTE)、电子邮件、短消息服务(Short Messaging Service,简称SMS)等。
存储器720可用于存储软件程序以及模块,处理器780通过运行存储在存储器720的软件程序以及模块,从而执行手机的各种功能应用以及数据处理。存储器720可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储7根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器720可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
输入单元730可用于接收输入的数字或字符信息,以及产生与手机的用户设置以及功能控制有关的键信号输入。具体地,输入单元730可包括触控面板731以及其他输入设备732。触控面板731,也称为触摸屏,可收集用户在其上或附近的触摸操作(比如用户使用手指、触笔等任何适合的物体或附件在触控面板731上或在触控面板731附近的操作),并根据预先设定的程式驱动相应的连接装置。可选的,触控面板731可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸方位,并检测触摸操作带来的信号,将信号传送给触摸控制器;触摸控制器从触摸检测装置上接收触摸信息,并将它转换成触点坐标,再送给处理器780,并能接收处理器1480发来的命令并加以执行。此外,可以采用电阻式、电容式、红外线以及表面声波等多种类型实现触控面板731。除了触控面板731,输入单元730还可以包括其他输入设备732。具体地,其他输入设备732可以包括但不限于物理键盘、功能键(比如音量控制按键、开关按键等)、轨迹球、鼠标、操作杆等中的一种或多种。
显示单元740可用于显示由用户输入的信息或提供给用户的信息以及手机的各种菜单。显示单元740可包括显示面板741,可选的,可以采用液晶显示器(Liquid CrystalDisplay,简称LCD)、有机发光二极管(Organic Light-Emitting Diode,简称OLED)等形式来配置显示面板741。进一步的,触控面板731可覆盖显示面板741,当触控面板731检测到在其上或附近的触摸操作后,传送给处理器780以确定触摸事件的类型,随后处理器780根据触摸事件的类型在显示面板741上提供相应的视觉输出。虽然在图7中,触控面板731与显示面板741是作为两个独立的部件来实现手机的输入和输入功能,但是在某些实施例中,可以将触控面板731与显示面板741集成而实现手机的输入和输出功能。
手机还可包括至少一种传感器750,比如光传感器、运动传感器以及其他传感器。具体地,光传感器可包括环境光传感器及接近传感器,其中,环境光传感器可根据环境光线的明暗来调节显示面板741的亮度,接近传感器可在手机移动到耳边时,关闭显示面板741和/或背光。作为运动传感器的一种,加速计传感器可检测各个方向上(一般为三轴)加速度的大小,静止时可检测出重力的大小及方向,可用于识别手机姿态的应用(比如横竖屏切换、相关游戏、磁力计姿态校准)、振动识别相关功能(比如计步器、敲击)等;至于手机还可配置的陀螺仪、气压计、湿度计、温度计、红外线传感器等其他传感器,在此不再赘述。
音频电路760、扬声器761,传声器762可提供用户与手机之间的音频接口。音频电路760可将接收到的音频数据转换后的电信号,传输到扬声器761,由扬声器761转换为声音信号输出;另一方面,传声器762将收集的声音信号转换为电信号,由音频电路760接收后转换为音频数据,再将音频数据输出处理器780处理后,经RF电路710以发送给比如另一手机,或者将音频数据输出至存储器720以便进一步处理。
WiFi属于短距离无线传输技术,手机通过WiFi模块770可以帮助用户收发电子邮件、浏览网页和访问流式媒体等,它为用户提供了无线的宽带互联网访问。虽然图7示出了WiFi模块770,但是可以理解的是,其并不属于手机的必须构成,完全可以根据需要在不改变发明的本质的范围内而省略。
处理器780是手机的控制中心,利用各种接口和线路连接整个手机的各个部分,通过运行或执行存储在存储器720内的软件程序和/或模块,以及调用存储在存储器720内的数据,执行手机的各种功能和处理数据,从而对手机进行整体监控。可选的,处理器780可包括一个或多个处理单元;优选的,处理器780可集成应用处理器和调制解调处理器,其中,应用处理器主要处理操作系统、用户界面和应用程序等,调制解调处理器主要处理无线通信。可以理解的是,上述调制解调处理器也可以不集成到处理器780中。
手机还包括给各个部件供电的电源790(比如电池),优选的,电源可以通过电源管理系统与处理器780逻辑相连,从而通过电源管理系统实现管理充电、放电、以及功耗管理等功能。
尽管未示出,手机还可以包括摄像头、蓝牙模块等,在此不再赘述。
在本实施例中,该终端设备所包括的处理器780还具有以下功能:
确定针对遮蔽区域的触控操作,所述遮蔽区域处于视频内容的展示区域中;
根据所述触控操作在所述遮蔽区域生成的触控位置信息,确定对应所述遮蔽区域的影响参数,所述影响参数用于体现所述触控操作对所述遮蔽区域造成的影响程度;
若所述影响参数达到目标条件,展示所述遮蔽区域所遮蔽的视频内容。
本申请实施例还提供一种服务器,请参见图8所示,图8为本申请实施例提供的服务器800的结构图,服务器800可因配置或性能不同而产生比较大的差异,可以包括一个或一个以上中央处理器(Central Processing Units,简称CPU)822(例如,一个或一个以上处理器)和存储器832,一个或一个以上存储应用程序842或数据844的存储介质830(例如一个或一个以上海量存储设备)。其中,存储器832和存储介质830可以是短暂存储或持久存储。存储在存储介质830的程序可以包括一个或一个以上模块(图示没标出),每个模块可以包括对服务器中的一系列指令操作。更进一步地,中央处理器822可以设置为与存储介质830通信,在服务器800上执行存储介质830中的一系列指令操作。
服务器800还可以包括一个或一个以上电源826,一个或一个以上有线或无线网络接口850,一个或一个以上输入输出接口858,和/或,一个或一个以上操作系统841,例如Windows ServerTM,Mac OS XTM,UnixTM,LinuxTM,FreeBSDTM等等。
上述实施例中由服务器所执行的步骤可以基于图8所示的服务器结构。
本申请实施例还提供一种计算机可读存储介质,用于存储计算机程序,该计算机程序用于执行前述各个实施例所述的视频交互方法中的任意一种实施方式。
本领域普通技术人员可以理解:实现上述方法实施例的全部或部分步骤可以通过程序指令相关的硬件来完成,前述程序可以存储于一计算机可读取存储介质中,该程序在执行时,执行包括上述方法实施例的步骤;而前述的存储介质可以是下述介质中的至少一种:只读存储器(英文:read-only memory,缩写:ROM)、RAM、磁碟或者光盘等各种可以存储程序代码的介质。
需要说明的是,本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于设备及系统实施例而言,由于其基本相似于方法实施例,所以描述得比较简单,相关之处参见方法实施例的部分说明即可。以上所描述的设备及系统实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。本领域普通技术人员在不付出创造性劳动的情况下,即可以理解并实施。
以上所述,仅为本申请的一种具体实施方式,但本申请的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本申请揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应该以权利要求的保护范围为准。
Claims (15)
1.一种视频交互方法,其特征在于,所述方法包括:
确定针对遮蔽区域的触控操作,所述遮蔽区域处于视频内容的展示区域中;
根据所述触控操作在所述遮蔽区域生成的触控位置信息,确定对应所述遮蔽区域的影响参数,所述影响参数用于体现所述触控操作对所述遮蔽区域造成的影响程度;
若所述影响参数达到目标条件,展示所述遮蔽区域所遮蔽的视频内容。
2.根据权利要求1所述的方法,其特征在于,所述根据所述触控操作在所述遮蔽区域生成的触控位置信息,确定对应所述遮蔽区域的影响参数,包括:
根据所述触控操作的触控位置信息,确定在所述遮蔽区域中对应的触控区域;
根据所述触控区域在所述遮蔽区域中的占比,确定对应所述遮蔽区域的影响参数。
3.根据权利要求2所述的方法,其特征在于,在所述展示所述遮蔽区域所遮蔽的视频内容之前,所述方法还包括:
展示所述触控区域中的视频内容。
4.根据权利要求2所述的方法,其特征在于,所述根据所述触控操作的触控位置信息,确定在所述遮蔽区域中对应的触控区域,包括:
确定所述触控操作对应的单点触控面积;
根据所述单点触控面积和所述触控位置信息所标识的触控轨迹,确定在所述遮蔽区域中对应的触控区域。
5.根据权利要求4所述的方法,其特征在于,所述方法还包括:
根据所述触控位置信息确定触控点数量;
所述根据所述单点触控面积和所述触控位置信息所标识的触控轨迹,确定在所述遮蔽区域中对应的触控区域,包括:
根据所述触控点数量、所述单点触控面积和所述触控位置信息所标识的触控轨迹,确定在所述遮蔽区域中对应的触控区域。
6.根据权利要求4所述的方法,其特征在于,所述根据所述单点触控面积和所述触控位置信息所标识的触控轨迹,确定在所述遮蔽区域中对应的触控区域,包括:
确定所述触控位置信息所标识的触控轨迹中是否具有重叠部分;
若是,对所述触控轨迹进行去重处理;
根据所述单点触控面积和去重后的所述触控轨迹,确定在所述遮蔽区域中对应的触控区域。
7.根据权利要求4所述的方法,其特征在于,所述触控轨迹包括以下任意一种或多种的组合:
至少一个单击触控位置;
至少一条连续轨迹。
8.根据权利要求1所述的方法,其特征在于,所述根据所述触控操作在所述遮蔽区域生成的触控位置信息,确定对应所述遮蔽区域的影响参数,包括:
根据所述触控操作的触控位置信息,确定在所述遮蔽区域中对应的触控方式;
根据所述触控方式确定对应所述遮蔽区域的影响参数。
9.根据权利要求1-7任意一项所述的方法,其特征在于,所述视频内容为直播平台的直播内容,在所述确定针对遮蔽区域的触控操作之前,所述方法还包括:
在所述直播平台的视频预览区域中,通过所述展示区域对所述视频内容进行展示。
10.根据权利要求9所述的方法,其特征在于,所述直播内容对应的遮蔽区域是根据所述直播内容对应的主播类型确定的;若所述主播类型为游戏主播,所述遮蔽区域处于所述直播内容的装备展示区域,若所述主播类型为娱乐主播,所述遮蔽区域处于所述直播内容的主播展示区域。
11.一种视频交互装置,其特征在于,所述装置包括第一确定单元、第二确定单元和第一展示单元:
所述第一确定单元,用于确定针对遮蔽区域的触控操作,所述遮蔽区域处于视频内容的展示区域中;
所述第二确定单元,用于根据所述触控操作在所述遮蔽区域生成的触控位置信息,确定对应所述遮蔽区域的影响参数,所述影响参数用于体现所述触控操作对所述遮蔽区域造成的影响程度;
所述第一展示单元,用于若所述影响参数达到目标条件,展示所述遮蔽区域所遮蔽的视频内容。
12.根据权利要求11所述的装置,其特征在于,所述第二确定单元具体用于:
根据所述触控操作的触控位置信息,确定在所述遮蔽区域中对应的触控区域;
根据所述触控区域在所述遮蔽区域中的占比,确定对应所述遮蔽区域的影响参数。
13.根据权利要求12所述的装置,其特征在于,所述装置还包括第二展示单元:
所述第二展示单元,用于展示所述触控区域中的视频内容。
14.一种用于视频交互的设备,其特征在于,所述设备包括处理器以及存储器:
所述存储器用于存储程序代码,并将所述程序代码传输给所述处理器;
所述处理器用于根据所述程序代码中的指令执行权利要求1-10中任意一项所述的视频交互方法。
15.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质用于存储计算机程序,所述计算机程序用于执行权利要求1-10中任意一项所述的视频交互方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010207129.5A CN111263210B (zh) | 2020-03-23 | 2020-03-23 | 一种视频交互方法和相关装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010207129.5A CN111263210B (zh) | 2020-03-23 | 2020-03-23 | 一种视频交互方法和相关装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111263210A true CN111263210A (zh) | 2020-06-09 |
CN111263210B CN111263210B (zh) | 2021-07-16 |
Family
ID=70951542
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010207129.5A Active CN111263210B (zh) | 2020-03-23 | 2020-03-23 | 一种视频交互方法和相关装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111263210B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111679782A (zh) * | 2020-06-10 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 一种涂擦方法和相关装置 |
CN111757184A (zh) * | 2020-06-30 | 2020-10-09 | 北京达佳互联信息技术有限公司 | 视频互动方法、装置、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070124752A1 (en) * | 2005-11-28 | 2007-05-31 | Tetsuya Sakai | Video viewing support system and method |
CN104079863A (zh) * | 2014-06-27 | 2014-10-01 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN107544730A (zh) * | 2017-08-25 | 2018-01-05 | 广州视源电子科技股份有限公司 | 图片显示方法、装置及可读存储介质 |
CN108616761A (zh) * | 2018-05-23 | 2018-10-02 | 广州华多网络科技有限公司 | 多人视频交互方法、装置、系统、存储介质和计算机设备 |
CN110162728A (zh) * | 2019-04-03 | 2019-08-23 | 阿里巴巴集团控股有限公司 | 确定电子刮刮卡刮开区域占比的方法、装置及电子设备 |
-
2020
- 2020-03-23 CN CN202010207129.5A patent/CN111263210B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070124752A1 (en) * | 2005-11-28 | 2007-05-31 | Tetsuya Sakai | Video viewing support system and method |
CN104079863A (zh) * | 2014-06-27 | 2014-10-01 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
CN107544730A (zh) * | 2017-08-25 | 2018-01-05 | 广州视源电子科技股份有限公司 | 图片显示方法、装置及可读存储介质 |
CN108616761A (zh) * | 2018-05-23 | 2018-10-02 | 广州华多网络科技有限公司 | 多人视频交互方法、装置、系统、存储介质和计算机设备 |
CN110162728A (zh) * | 2019-04-03 | 2019-08-23 | 阿里巴巴集团控股有限公司 | 确定电子刮刮卡刮开区域占比的方法、装置及电子设备 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111679782A (zh) * | 2020-06-10 | 2020-09-18 | 腾讯科技(深圳)有限公司 | 一种涂擦方法和相关装置 |
CN111679782B (zh) * | 2020-06-10 | 2021-08-31 | 腾讯科技(深圳)有限公司 | 一种涂擦方法和相关装置 |
CN111757184A (zh) * | 2020-06-30 | 2020-10-09 | 北京达佳互联信息技术有限公司 | 视频互动方法、装置、电子设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN111263210B (zh) | 2021-07-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10659844B2 (en) | Interaction method and system based on recommended content | |
CN106101736B (zh) | 一种虚拟礼物的展示方法和系统 | |
CN111294638B (zh) | 一种实现视频互动的方法、装置、终端和存储介质 | |
CN108055552B (zh) | 直播间弹幕展示方法、装置及相应的终端 | |
CN108022279B (zh) | 视频特效添加方法、装置及智能移动终端 | |
CN109905754B (zh) | 虚拟礼物收取方法、装置及存储设备 | |
CN110221734B (zh) | 信息显示方法、图形用户接口及终端 | |
CN107551555B (zh) | 游戏画面显示方法及装置、存储介质、终端 | |
CN106803993B (zh) | 一种实现视频分支选择播放的方法及装置 | |
CN105554550B (zh) | 视频播放方法及装置 | |
CN106303733B (zh) | 播放直播特效信息的方法和装置 | |
US10750223B2 (en) | System, method, and device for displaying content item | |
CN105828145B (zh) | 互动方法及装置 | |
CN107948740A (zh) | 视频播放控制方法、装置及终端 | |
CN110248251B (zh) | 一种多媒体播放方法及终端设备 | |
CN106231433B (zh) | 一种播放网络视频的方法、装置和系统 | |
US20160066119A1 (en) | Sound effect processing method and device thereof | |
CN108616771B (zh) | 视频播放方法及移动终端 | |
CN111686447B (zh) | 一种虚拟场景中数据处理的方法以及相关装置 | |
CN111263210B (zh) | 一种视频交互方法和相关装置 | |
CN105979312A (zh) | 一种信息分享方法及装置 | |
CN108958629B (zh) | 分屏退出方法、装置、存储介质和电子设备 | |
CN110930487A (zh) | 一种动画实现方法及装置 | |
CN109766505B (zh) | 一种信息资源推送方法、系统、装置、设备及存储介质 | |
CN108038185A (zh) | 视频动态编辑方法、装置及智能移动终端 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
REG | Reference to a national code |
Ref country code: HK Ref legal event code: DE Ref document number: 40023641 Country of ref document: HK |
|
GR01 | Patent grant | ||
GR01 | Patent grant |