CN112905074A - 交互界面展示方法、交互界面生成方法、装置及电子设备 - Google Patents
交互界面展示方法、交互界面生成方法、装置及电子设备 Download PDFInfo
- Publication number
- CN112905074A CN112905074A CN202110200474.0A CN202110200474A CN112905074A CN 112905074 A CN112905074 A CN 112905074A CN 202110200474 A CN202110200474 A CN 202110200474A CN 112905074 A CN112905074 A CN 112905074A
- Authority
- CN
- China
- Prior art keywords
- interactive interface
- image
- interface
- interactive
- target object
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000002452 interceptive effect Effects 0.000 title claims abstract description 358
- 238000000034 method Methods 0.000 title claims abstract description 78
- 230000000694 effects Effects 0.000 claims abstract description 165
- 239000000463 material Substances 0.000 claims abstract description 73
- 238000012545 processing Methods 0.000 claims description 32
- 238000007499 fusion processing Methods 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 230000003993 interaction Effects 0.000 description 35
- 238000004891 communication Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 230000009471 action Effects 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 6
- 230000001960 triggered effect Effects 0.000 description 6
- 230000008859 change Effects 0.000 description 5
- 238000012790 confirmation Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 235000019687 Lamb Nutrition 0.000 description 4
- 241000422846 Sequoiadendron giganteum Species 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000014759 maintenance of location Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 241000168096 Glareolidae Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 241000209140 Triticum Species 0.000 description 1
- 235000021307 Triticum Nutrition 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000903 blocking effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/048—Interaction techniques based on graphical user interfaces [GUI]
- G06F3/0481—Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
- G06F3/04812—Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/41—Structure of client; Structure of client peripherals
- H04N21/414—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
- H04N21/41407—Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/451—Execution arrangements for user interfaces
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4394—Processing of audio elementary streams involving operations for analysing the audio stream, e.g. detecting features or characteristics in audio streams
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/44008—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/442—Monitoring of processes or resources, e.g. detecting the failure of a recording device, monitoring the downstream bandwidth, the number of times a movie has been viewed, the storage space available from the internal hard disk
- H04N21/44213—Monitoring of end-user related data
- H04N21/44218—Detecting physical presence or behaviour of the user, e.g. using sensors to detect if the user is leaving the room or changes his face expression during a TV program
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4781—Games
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4784—Supplemental services, e.g. displaying phone caller identification, shopping application receiving rewards
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/803—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of input or preprocessed data
Abstract
本公开关于一种交互界面展示方法、交互界面生成方法、装置、电子设备、存储介质及程序产品,通过获取直播界面中目标对象的图像;并将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面,且所述图像的全部或者部分在所述交互界面中被遮挡;从而在所述直播界面中展示交互界面。本公开增加了直播间的互动方式,提升了互动效果和互动趣味性,从而提升用户的互动体验。
Description
技术领域
本公开涉及互联网技术领域,尤其涉及一种交互界面展示方法、交互界面生成方法、装置、电子设备、存储介质及程序产品。
背景技术
在直播领域,主播可通过直播应用进行视频直播,为观众放送精彩的节目,观众也可以通过直播应用观看直播。互动直播是视频直播的增强应用,是在视频直播过程中增加互动功能。
相关技术中,互动直播中的互动功能包括在视频直播中增加语音、视频的互动。但是,相关技术中的互动方式较为单一。
发明内容
本公开提供一种交互界面展示方法、交互界面生成方法、装置、电子设备、存储介质及程序产品,以至少解决相关技术中互动方式较为单一的问题。本公开的技术方案如下:
根据本公开实施例的第一方面,提供一种交互界面展示方法,包括:
获取直播界面中目标对象的图像;
将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像的全部或者部分在所述交互界面中被遮挡;
在所述直播界面中展示交互界面。
在其中一个实施例中,所述方法还包括:
根据接收到的交互界面的交互指令,展示对应的动画效果,所述动画效果包括:展示被遮挡的所述图像。
在其中一个实施例中,所述根据接收到的所述交互界面的交互指令,展示对应的动画效果,包括:
采集所述目标对象发出的语音信号,确定所述语音信号对应的第一指令内容;
获取与所述第一指令内容对应的场景音效;
播放所述场景音效。
在其中一个实施例中,所述根据接收到的所述交互界面的交互指令,展示对应的动画效果,包括:
采集客户端的姿态信息,确定所述姿态信息对应的第二指令内容;
展示与所述第二指令内容对应的动画效果。
在其中一个实施例中,所述交互界面的数量为多个;所述方法还包括:
若根据所述交互指令确定所述目标对象在所述直播界面中的触碰位置与所述图像在所述动画效果中的展示区域相匹配,则从交互界面集合中选取新的交互界面进行展示,所述交互界面集合包括所述图像与多个所述动效素材生成的多个交互界面。
在其中一个实施例中,所述方法还包括:
若确定相匹配,则确定所述目标对象在所述交互界面中找到所述图像;
相应地调整所述图像的被找到次数;
获取展示所述交互界面的时长;
若所述时长达到时间上限阈值,展示第一提示消息;所述第一提示消息包括所述图像的被找到次数。
在其中一个实施例中,所述方法还包括:
展示给目标对象账户发放奖励资源的第二提示信息;所述奖励资源根据所述图像的被找到次数确定。
在其中一个实施例中,所述方法还包括:若到达寻找所述图像的截止时间,展示直播间中各目标对象的排行榜;所述排行榜基于各所述目标对象的图像的最终被找到次数进行排序处理得到。
在其中一个实施例中,所述方法还包括:
根据各所述目标对象的图像的最终被找到次数,将最终被找到次数满足预设条件的目标对象确定为互动对象;
建立所述互动对象的账户与主播账户之间的通信连接。
在其中一个实施例中,在所述直播界面中展示交互界面之前,所述方法还包括:
在所述直播界面中展示所述交互界面的展示控件;
所述在所述直播界面中展示交互界面,包括:
通过所述展示控件响应于所述交互界面的展示指令,在所述直播界面中展示所述交互界面。
在其中一个实施例中,采用下述中的任意一种方式确定所述动效素材:
获取多帧视图像所生成的动效素材,所述多帧视频图像为在所述直播场景下获取的多帧图像或者所述目标对象的视频数据;
从动效素材库中获取的动效素材,所述动效素材库为存储于客户端或服务器上的动效素材集合。
在其中一个实施例中,采用下述中的任意一种方式确定所述图像:
响应于拍摄指令,获取对所述目标对象或者所述目标对象的目标部位进行拍摄得到的图像;
从图库中获取所述目标对象的图像,所述图库为存储于客户端或服务器上的图像集合;
获取的所述目标对象的头像数据。
在其中一个实施例中,所述交互指令包括下述中的任意一种方式:
触摸所述交互界面产生的交互指令;
通过识别的所述目标对象的姿态确定的交互指令;
通过采集的客户端姿态信息确定的交互指令;
通过采集的语音信号确定的交互指令。
根据本公开实施例的第二方面,提供一种交互界面生成方法,包括:
获取直播界面中目标对象的图像;
将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像在所述交互界面中的全部或者部分被遮挡;
返回所述交互界面至客户端,所述交互界面用于指示所述客户端在所述直播界面展示所述交互界面。
根据本公开实施例的第三方面,提供一种交互界面展示装置,包括:
图像获取模块,被配置为执行获取直播界面中目标对象的图像;
融合处理模块,被配置为执行将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像的全部或者部分在所述交互界面中被遮挡;
第一界面展示模块,被配置为执行在所述直播界面中展示交互界面。
在其中一个实施例中,所述装置还包括:
动画效果展示模块,被配置为执行根据接收到的所述交互界面的交互指令,展示对应的动画效果,所述动画效果包括展示被遮挡的所述图像。
在其中一个实施例中,所述动画效果展示模块,还被配置为执行采集所述目标对象发出的语音信号,确定所述语音信号对应的第一指令内容;获取与所述第一指令内容对应的场景音效;播放所述场景音效。
在其中一个实施例中,所述动画效果展示模块,还被配置为执行采集客户端的姿态信息,确定所述姿态信息对应的第二指令内容;展示与所述第二指令内容对应的动画效果。
在其中一个实施例中,所述交互界面的数量为多个;所述装置还包括:
第二界面展示模块,被配置为执行若根据所述交互指令确定所述目标对象在所述直播界面中的触碰位置与所述图像在所述动画效果中的展示区域相匹配,则从交互界面集合中选取新的交互界面进行展示,所述交互界面集合包括所述图像与多个所述动效素材生成的多个交互界面。
在其中一个实施例中,所述装置还包括:
确定模块,被配置为执行若确定相匹配,则确定所述目标对象在所述交互界面中找到所述图像;
次数调整模块,被配置为执行相应地调整所述图像的被找到次数;
时长获取模块,被配置为执行获取展示所述交互界面的时长;
第一消息展示模块,被配置为执行若所述时长达到时间上限阈值,展示第一提示消息;所述第一提示消息包括所述图像的被找到次数。
在其中一个实施例中,所述装置还包括:
第二消息展示模块,被配置为执行展示给目标对象账户发放奖励资源的第二提示信息;所述奖励资源根据所述图像的被找到次数确定。
在其中一个实施例中,所述装置还包括:
排行榜展示模块,被配置为执行若到达寻找所述图像的截止时间,展示直播间中各目标对象的排行榜;所述排行榜基于各所述目标对象的图像的最终被找到次数进行排序处理得到。
在其中一个实施例中,所述装置还包括:
互动对象确定模块,被配置为执行根据各所述目标对象的图像的最终被找到次数,将最终被找到次数满足预设条件的目标对象确定为互动对象;
通信连接模块,被配置为执行建立所述互动对象的账户与主播账户之间的通信连接。
在其中一个实施例中,所述装置还包括:
展示控件展示模块,被配置为执行在所述直播界面中展示所述交互界面的展示控件;
所述第一界面展示模块,还被配置为执行通过所述展示控件响应于所述交互界面的展示指令,在所述直播界面中展示所述交互界面。
在其中一个实施例中,采用下述中的任意一种方式确定所述动效素材:
获取多帧视图像所生成的动效素材,所述多帧视频图像为在所述直播场景下获取的多帧图像或者所述目标对象的视频数据;
从动效素材库中获取的动效素材,所述动效素材库为存储于客户端或服务器上的动效素材集合。
在其中一个实施例中,所述图像采用下述中的任意一种方式进行确定:
响应于拍摄指令,获取对所述目标对象或者所述目标对象的目标部位进行拍摄得到的图像;
从图库中获取所述目标对象的图像,所述图库为存储于客户端或服务器上的图像集合;
获取的所述目标对象的头像数据。
在其中一个实施例中,所述交互指令包括下述中的任意一种方式:
触摸所述交互界面产生的交互指令;
通过识别的所述目标对象的姿态确定的交互指令;
通过采集的客户端姿态信息确定的交互指令;
通过采集的语音信号确定的交互指令。
根据本公开实施例的第四方面,提供一种交互界面生成装置,包括:
图像获取模块,被配置为执行获取直播界面中目标对象的图像;
动效处理模块,被配置为执行将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像在所述交互界面中的全部或者部分被遮挡;
界面返回模块,被配置为执行返回所述交互界面至客户端,所述交互界面用于指示所述客户端在所述直播界面展示所述交互界面。
根据本公开实施例的第五方面,提供一种电子设备,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现第一方面的任一项实施例中所述的方法。
根据本公开实施例的第六方面,提供一种服务器,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现第二方面的任一项实施例中所述的方法。
根据本公开实施例的第七方面,一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如第一方面的任一项实施例中所述的方法。
根据本公开实施例的第八方面,一种存储介质,当所述存储介质中的指令由服务器的处理器执行时,使得服务器能够执行如第二方面的任一项实施例中所述的方法。
根据本公开实施例的第九方面,提供一种计算机程序产品,所述程序产品包括计算机程序,所述计算机程序存储在可读存储介质中,设备的至少一个处理器从所述可读存储介质读取并执行所述计算机程序,使得设备执行第一方面或者第二方面的任一项实施例中所述的方法。
本公开的实施例提供的技术方案至少带来以下有益效果:
通过获取直播界面中目标对象的图像;并将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面,且所述图像的全部或者部分在所述交互界面中被遮挡;从而在所述直播界面中展示交互界面。本公开增加了直播间的互动方式,提升了互动效果和互动趣味性,从而提升用户的互动体验。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理,并不构成对本公开的不当限定。
图1是根据一示例性实施例示出的一种交互界面展示方法的应用环境图。
图2a至图2b是根据一示例性实施例示出的一种交互界面展示方法的流程图。
图3是根据一示例性实施例示出的步骤220b的流程图。
图4是根据一示例性实施例示出的一种交互界面展示方法的流程图。
图5a至图5c是根据一示例性实施例示出的交互界面的示意图。
图6是根据一示例性实施例示出的一种交互界面展示方法的流程图。
图7是根据一示例性实施例示出的一种交互界面生成方法的流程图。
图8是根据一示例性实施例示出的一种交互界面展示方法的时序图。
图9是根据一示例性实施例示出的一种交互界面展示装置的框图。
图10是根据一示例性实施例示出的一种交互界面生成装置的框图。
图11是根据一示例性实施例示出的一种电子设备的内部结构图。
图12是根据一示例性实施例示出的一种服务器的内部结构图。
具体实施方式
为了使本领域普通人员更好地理解本公开的技术方案,下面将结合附图,对本公开实施例中的技术方案进行清楚、完整地描述。
需要说明的是,本公开的说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本公开的实施例能够以除了在这里图示或描述的那些以外的顺序实施。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开所提供的交互界面展示方法,可以应用于如图1所示的应用环境中。其中,客户端110通过网络与服务器120进行交互。客户端110上安装有直播应用或者具有直播功能的应用。客户端110包括用于人机交互的屏幕,用于显示直播界面、直播界面中的特效图像或者动画效果等。服务端120具有动效图库,动效图库中包括至少一个动效素材,服务端120获取直播界面中目标对象的图像,可以从动效图库中随机获取至少一个动效素材,将图像与动效素材进行融合处理,得到用于与目标对象互动的交互界面,并返回至客户端110,图像的全部或者部分在交互界面中被遮挡,且交互界面可以包括若干帧图像。客户端110接收到至少一个交互界面。客户端110通过人机交互的屏幕在直播界面中展示接收到的交互界面,响应于交互界面的交互指令,在直播界面中展示对应的动画效果,动画效果包括展示被遮挡的目标对象的图像。若根据交互指令确定目标对象在直播界面中的触碰位置与图像在动画效果中的展示区域相匹配,则从交互界面集合中选取新的交互界面进行展示,交互界面集合包括图像与多个动效素材生成的多个交互界面。其中,客户端110可以但不限于是各种个人计算机、笔记本电脑、智能手机、平板电脑和便携式可穿戴设备,服务器120可以用独立的服务器或者是多个服务器组成的服务器集群来实现。
图2a是根据一示例性实施例示出的一种交互界面展示方法的流程图。如图2a所示,该交互界面展示方法用于客户端110中,包括以下步骤。
在步骤S210a中,获取直播界面中目标对象的图像。
其中,目标对象可以是直播应用的用户,比如直播间观看对象或者直播间主播。目标对象的图像可以是直播界面中目标对象的头像数据,也可以是直播界面中所显示的目标对象的图像。具体地,可以在直播场景中,响应于拍摄指令,对目标对象或者目标对象的目标部位进行拍摄而得到目标对象的图像。也可以从存储于客户端或服务器上的图像集合中获取目标对象的图像。还可以从获取目标对象的头像数据作为目标对象的图像。
在步骤S220a中,将图像与动效素材进行融合处理,得到用于与目标对象互动的交互界面。
在步骤S230a中,在直播界面中展示交互界面。
其中,动效素材是用于对图像进行图像处理(比如动效处理)得到交互界面的模板。交互界面可以包括若干帧连续的图片,交互界面可以是视频文件,比如短视频,也可以是逐帧动画文件,还可以具有动态图片,比如GIF(Graphics Interchange Format,图像互换格式)图。可以获取多帧视图像所生成动效素材,多帧视频图像为在直播场景下获取的多帧图像或者目标对象的视频数据。从动效素材库中获取动效素材,动效素材库为存储于客户端或服务器上的动效素材集合。交互界面用于与目标对象进行互动。图像的全部或者部分在交互界面中被遮挡。
具体地,获取动效素材,可以利用该动效素材对目标对象的图像进行动效处理,生成交互界面,也可以将目标对象的图像嵌入动效素材中,生成交互界面。还可以利用目标对象的图像替换动效素材中的指定区域,将两者融合生成交互界面。客户端得到与目标对象互动的交互界面后,在直播界面中展示该交互界面。
比如动效素材可以包括若干帧图片,图片的内容包括在草原上奔跑的小羊羔和能够遮挡小羊羔的大树,可以利用目标对象的图像替换图片中的小羊羔的头部区域。客户端在直播界面中展示交互界面,交互界面的内容可以包括:大树遮挡目标对象的图像的全部或者部分,随着小羊羔在草原奔跑,目标对象的图像的全部或者部分可以暴露出来。
上述交互界面展示方法中,通过获取直播界面中目标对象的图像;并将图像与动效素材进行融合处理,得到用于与目标对象互动的交互界面,且图像的全部或者部分在交互界面中被遮挡;从而在直播界面中展示交互界面。本实施例增加了直播间的互动方式,提升了互动效果和互动趣味性,从而提升用户的互动体验。
图2b是根据一示例性实施例示出的一种交互界面展示方法的流程图。如图2b所示,该交互界面展示方法用于客户端110中,包括以下步骤。
在步骤S210b中,展示交互界面。
其中,交互界面是利用动效素材对目标对象的图像进行动效处理而生成的,比如将目标对象的图像嵌入动效素材中。交互界面呈现在客户端的某种应用界面中,比如直播应用的界面中。用户可以直接与交互界面进行互动,且交互界面中的动效可以为用户提供了良好的动态沉浸式体验。利用交互界面中的界面元素为用户展现界面动画,展示对应的动画效果。
具体地,一方面,客户端本地具有动效图库,客户端获取目标对象的图像,从动效图库中获取动效素材,利用该动效素材对目标对象的图像进行动效处理,生成交互界面,客户端展示生成的交互界面。另一方面,服务器具有动效图库,服务器获取标对象的图像,从动效图库中获取动效素材,利用该动效素材对目标对象的图像进行动效处理,生成交互界面,并返回至客户端,客户端接收到该交互界面,并展示该交互界面。示例性,打开客户端上安装的直播应用或者具有直播功能的应用,客户端展示交互界面,该交互界面是利用动效素材对目标对象的图像进行动效处理而生成的。
在步骤S220b中,根据接收到的交互界面的交互指令,展示对应的动画效果,动画效果包括展示被遮挡的图像。
其中,交互指令是用户通过其客户端与交互界面进行互动时所触发的指令。动画效果可以是客户端屏幕上展示交互界面中的图像变化,通过动画效果展示一些主题场景,比如利用动态烟花状态表达春节、圣诞节、元旦等节日的欢乐热闹场景,比如利用闪电、风吹草原、风吹树叶、草原上动物奔跑、潺潺流水等动画效果表达自然场景,比如打开/关闭窗帘、扫地、打开锅盖等动画效果表达生活场景,同样的,也可以通过扬声器播放场景音效中的音频内容,比如阴风阵阵的风声、雷声、雨声、哗哗流水声、哒哒马蹄声等。
具体地,目标对象通过交互界面与客户端进行互动,发出交互指令,客户端响应于该交互指令,交互界面中的图像发生变化,并呈现出对应的动画效果。比如交互界面中的界面元素的位置发生变化或者界面元素的状态发生变化,交互界面的窗帘被风吹起,交互界面中纸团被扫入簸箕。进一步地,由于将目标对象的图像嵌入动效素材得到交互界面,且目标对象的图像被遮挡,那么,在展示动画效果的过程中,界面元素的位置或者状态发生变化,动画效果中包括展示被遮挡的图像。可以理解的是,展示被遮挡的图像包括展示被遮挡的图像的部分或者全部,比如只是展现被遮挡的图像的一角,随着目标对象与交互界面的互动,被遮挡的图像完全露出,动画效果包括展示目标对象的图像的全部。
在步骤S230b中,若根据交互指令确定目标对象在直播界面中的触碰位置与图像在动画效果中的展示区域相匹配,则从交互界面集合中选取新的交互界面进行展示。
其中,交互界面集合包括图像与多个动效素材生成的多个交互界面。具体地,目标对象与交互界面互动的过程中,触发交互指令,目标对象对图像进行比如控制图像的运动轨迹、发现图像等操作,因此,根据该交互指令可以确定目标对象在直播界面中的触碰位置,判断触碰位置与图像在动画效果中的展示区域是否匹配,若触碰位置与图像在动画效果中的展示区域相匹配,客户端从交互界面集合中选取新的交互界面,并展示新的交互界面。
上述交互界面展示方法中,通过展示利用动效素材对目标对象的图像进行动效处理而生成的交互界面;根据接收到的交互界面的交互指令,展示对应的动画效果,动画效果包括展示被遮挡的图像;若根据交互指令确定目标对象对图像的位置确认信息与图像在动画效果中的展示区域相匹配,展示新的交互界面。本实施例实现对直播间互动方式的多样化,提升互动效果和互动趣味性,从而提升用户的互动体验。
在一示例性实施例中,采用下述中的任意一种方式确定目标对象的图像:响应于拍摄指令,获取对目标对象或者目标对象的目标部位进行拍摄得到的图像;或者,从图库中获取目标对象的图像,图库为存储于客户端或服务器上的图像集合;或者,获取的目标对象的头像数据。
具体地,拍摄可以为拍照或摄像。拍摄指令可以是目标对象对客户端下发的进行拍摄的指令,目标对象可以以语音、抖动、单击或双击等形式触发拍摄指令。响应于拍摄指令,客户端按照拍摄指令开始运行拍摄进程,对目标对象或者目标对象的目标部位进行拍摄,得到目标对象或者目标部位的图像。目标部位可以是手、脸部、眼睛等部位。
客户端设有图库,客户端图库中存储有若干目标对象的图片或者视频文件,可以通过从客户端图库中选择图片以获取目标对象的图像,也可以通过从视频文件捕获一张图片作为目标对象的图像。
服务器设有图库,服务器图库中存储有若干目标对象的图片或者视频文件,可以通过从服务器图库中选择图片以获取图像数据,也可以通过从视频文件捕获一张图片作为目标对象的图像。
目标对象具有对应的头像数据,可以直接获取目标对象的头像数据,将目标对象的头像数据作为图像。
本实施例中,通过多种方式获取目标对象的图像,提升特效图像的多样性,从而提升直播互动的趣味性。
在一示例性实施例中,如图3所示,在步骤S220b中,根据接收到的交互界面的交互指令,展示对应的动画效果,具体可以通过以下步骤实现:
在步骤S310中,采集目标对象发出的语音信号,确定语音信号对应的第一指令内容。
在步骤S320中,获取与第一指令内容对应的场景音效,播放场景音效。
具体地,客户端具有麦克风,通过客户端的麦克风采集目标对象发出的语音信号,对采集的语音信号进行语音识别,确定语音信号对应的第一指令内容。可以根据第一指令内容可以操控交互界面中的界面元素发生变化,展示对应的动画效果。还可以根据第一指令内容获取对应的场景音效,通过客户端的扬声器播放该场景音效,逼真地呈现互动场景,提升互动趣味性,更好地吸引用户。示例性的,动效素材可以是骏马在草原奔跑的素材图像,将目标对象的图像嵌入该素材图像中,比如识别马的头部在素材图像中位置,将目标对象的图像放置在该位置形成人像马身的图像,或者将目标对象的图像与素材对象融合,形成目标对象骑马的图像。该素材图像中还包括一颗大树,具有人像马身的图像或者目标对象骑马的图像被该大树遮挡。交互界面中展示具有一颗大树的草原图像,目标对象对着客户端麦克风发出“吁”或者“驾”或者“斡”等语音信号,交互界面中的界面元素或者图像发生变化,逐渐露出马身以及目标对象的图像,同时可以释放出马撕叫或者马儿达达的奔跑的场景生效。
本实施例中,通过播放与第一指令内容对应的场景音效,进一步提升与用户互动场景的逼真性,改善用户体验,提升用户的留存率。
在一示例性实施例中,在步骤S220中,根据接收到的交互界面的交互指令,展示对应的动画效果,具体可以通过以下步骤实现:采集客户端的姿态信息,确定姿态信息对应的第二指令内容;展示与第二指令内容对应的动画效果。
具体地,客户端具有陀螺仪,通过客户端的陀螺仪采集客户端的姿态的信息,对采集的姿态信息进行分析,通过对比目标对象操作前后的姿态信息确定目标对象的操作,确定姿态信息对应的第二指令内容,可以根据第二指令内容可以操控交互界面中的界面元素发生变化,展示对应的动画效果。本实施例中,逼真地呈现互动场景,提升互动趣味性,更好地吸引用户。
在一示例性实施例中,如图4所示,该方法还包括以下步骤:
在步骤S410中,若确定相匹配,则确定目标对象在交互界面中找到图像。
在步骤S420中,相应地调整图像的被找到次数。
在步骤S430中,获取展示交互界面的时长。
在步骤S440中,若时长达到时间上限阈值,展示第一提示消息;第一提示消息包括图像的被找到次数。
其中,时间上限阈值是对目标对象与交互界面互动的最长时间。具体地,由于将目标对象的图像镶嵌在动效素材中,生成对应的交互界面,目标对象可以在交互界面中找到自己的图像。目标对象对交互界面发出交互指令,交互界面中的图像或者界面元素发生变化,展示对应的动画效果,动画效果包括展示被遮挡的图像,此时,目标对象发现了该图像,需要对该图像进行操作,则判断目标对象对图像的位置确认信息与图像在动画效果中的展示区域是否匹配,若目标对象对图像的位置确认信息与图像在动画效果中的展示区域相匹配,表明目标对象在交互界面中成找到了自己的图像,并相应地调整图像的被找到次数。另外,客户端可以设有进度条控件,显示目标与交互界面的互动进度,该进度条控件可以用于反映图像被找打的次数。客户端展示交互界面的时长,即目标对象与交互界面的互动时长。若互动时长达到时间上限阈值,客户端展示第一提示消息,第一提示消息包括图像的被找到次数。可以理解的是,在客户端展示交互界面过程中,目标对象也可以与交互界面没有互动,则达到时间上限阈值时目标对象没有找到图像,即图像被找到的次数为零。
本实施例中,通过调整图像的被找到次数,获取展示交互界面的时长,若时长达到时间上限阈值,展示第一提示消息,提升用户在互动活动中的参与感,改善用户的互动体验。
在一示例性实施例中,交互指令可以包括:触摸交互界面产生的交互指令、通过识别的目标对象的姿态确定的交互指令、通过采集的客户端姿态信息确定的交互指令以及通过采集的语音信号确定的交互指令。
具体地,目标对象可以通过触摸交互界面触发与交互界面的交互指令,比如单击、双击、滑动、手指张开合拢等操作。可以通过客户端的图像采集设备采集目标对象的姿态,识别目标对象的姿态,从而确定目标对象触发的交互指令。目标对象可以抖动、晃动客户端,采集客户端姿态信息,从而确定目标对象触发的交互指令。还可以通过客户端的麦克风采集语音信号,对语音信号进行识别,从而确定目标对象触发的交互指令。
本实施例中,通过触摸交互界面、采集语音信号、采集客户端姿态信息等方式触发交互指令,增加与用户的互动方式,能够吸引用户,提升用户留存率。
示例性,如图5a所示,首先,如图5a所示,客户端展示交互界面,交互界面是将目标对象的头像嵌入在动效素材中而生成的,将目标对象的头像嵌入窗帘动效素材中生成的效果为头像隐藏在窗帘后面;接着,如图5b所示,根据接收到的交互界面的第一交互指令,展示对应的动画效果,并在动画效果中露出被遮挡的头像,比如,目标对象晃动客户端或者对着客户端麦克风吹气,窗帘具有晃动的动画效果,藏在窗帘后面的头像露出来,表明目标对象在交互界面中动效内发现了自己图像;最后,如图5c所示,需要目标对象自己头像进行一些操作,比如单击或者双击等操作与客户端交互,则客户端接收交互界面的第二交互指令,若根据第二交互指令确定目标对象对自己头像的位置确认信息与自己头像在动画效果中的展示区域相匹配,表明目标对象在交互界面中找到了头像,客户端展示新的交互界面。在展示新的交互界面的同时,也可以在直播界面中展示“找到了,真棒”等赞美语句,提升用户体验。
在一示例性实施例中,该方法还包括以下步骤:展示给目标对象账户发放奖励资源的第二提示信息。
其中,奖励资源根据图像的被找到次数确定。具体地,若时长达到时间上限阈值,客户端获取图像的被找到次数,并发送至服务器,服务器根据图像的被找到次数确定对应的奖励资源,向目标对象账户转移该奖励资源。服务器向客户端发送给目标对象账户发放奖励资源的第二提示信息,客户端接收到该第二提示信息并展示。比如,不同次数对应不同等级的奖励资源,互动结束后根据图像的找到次数所达到的等级发放奖励资源并给予提示,奖励资源可以是游乐场门票或者线下节日主题活动的邀请卡等。
本实施例中,通过给目标对象账户发放奖励资源,吸引用户参与到互动活动中,提升用户留存率,并向用户展示第二提示信息以明确告知奖励资源的信息。
在一示例性实施例中,该方法还包括:若到达寻找图像的截止时间,展示直播间中各目标对象的排行榜;排行榜基于各目标对象的图像的最终被找到次数进行排序处理得到。
其中,截止时间是指允许参与寻找目标对象的图像的最大时长。截止时间可以是主播在创建直播间时手动配置的,也可以是预先配置的默认阈值。各目标对象可以是参与到直播间寻找图像互动活动的观众。具体地,若到达寻找图像的截止时间,根据各目标对象的图像的最终被找到次数,对各目标对象的图像或者各目标对象的账户标识进行排序处理,生成个目标对象的排行榜,并直播页面中展示各目标对象的排行榜。
本实施例中,基于各目标对象的图像的最终被找到次数进行排序处理得到直播间排行榜,丰富了主播与目标对象的互动方式,有助于增加直播间的观众数量,提高直播间观众的停留时长。
在一示例性实施例中,该方法还包括:根据各目标对象的图像的最终被找到次数,将最终被找到次数满足预设条件的目标对象确定为互动对象;建立互动对象的账户与主播账户之间的通信连接。
其中,预设条件是对与主播账户建立通信连接的互动对象所需要满足的条件。具体地,根据各目标对象的图像的最终被找到次数,将最终被找到次数满足预设条件的目标对象确定为互动对象;建立互动对象的账户与主播账户之间的通信连接。比如预设条件可以设置为直播间排行榜的榜首与主播建立通信连接,比如可以和主播连麦,也可以是与主播进行游戏对抗,或者排行榜前三与主播建立通信连接,可以按照列表顺序,主播从高到低依次与各互动对象进行连麦。
本实施例中,根据各目标对象的图像的最终被找到次数确定为与主播互动的互动对象,不仅可以提升观众用户的参与感,而且可以提升直播间活动的趣味性。
在一示例性实施例中,在直播界面中展示交互界面之前,该方法还包括:在直播界面中展示交互界面的展示控件。在直播界面中展示交互界面,包括:通过展示控件响应于交互界面的展示指令,在直播界面中展示交互界面。
具体地,客户端展示直播界面,直播界面中具有交互界面的展示控件,目标对象可以触摸该展示控件而触发交互界面的展示指令。由于客户端已经得到用于与目标对象互动的交互界面,则响应于交互界面的展示指令,在直播界面中展示交互界面。
本实施例中,通过设置交互界面的展示控件,明确告知用户参与直播互动活动的途径,有利于用户积极参与到直播互动活动中,提升用户留存率。
图6是根据一示例性实施例示出的一种交互界面展示方法的流程图,如图6所示,该交互界面展示方法用于客户端110中,包括以下步骤。
在步骤S602中,响应于拍摄指令,获取对目标对象或者目标对象的目标部位进行拍摄得到的图像。
在步骤S604中,展示交互界面。
其中,交互界面是利用动效素材对目标对象的图像进行动效处理而生成的。
在步骤S606中,根据接收到的交互界面的交互指令,展示对应的动画效果。
其中,动画效果包括展示被遮挡的图像。具体地,可以采集目标对象发出的语音信号,确定语音信号对应的第一指令内容;获取与第一指令内容对应的场景音效,播放场景音效。还可以采集客户端的姿态信息,确定姿态信息对应的指令内容;展示与指令内容对应的动画效果。
在步骤S608中,若根据交互指令确定目标对象在直播界面中的触碰位置与图像在动画效果中的展示区域相匹配,展示新的交互界面。
具体地,从交互界面集合中选取新的交互界面进行展示,交互界面集合包括图像与多个动效素材生成的多个交互界面
在步骤S610中,若确定相匹配,则确定目标对象在交互界面中找到图像。
在步骤S612中,相应地调整图像的被找到次数。
在步骤S614中,获取展示交互界面的时长。
在步骤S616中,若时长达到时间上限阈值,展示第一提示消息;第一提示消息包括图像的被找到次数。
在步骤S618中,展示给目标对象账户发放奖励资源的第二提示信息;奖励资源根据图像的被找到次数确定。
图7是根据一示例性实施例示出的一种交互界面生成的流程图,如7所示,交互界面生成方法用于服务器120中,包括以下步骤:
在步骤S710中,获取目标对象的图像。
在步骤S720中,根据动效素材对图像进行动效处理,得到包括图像的交互界面。
在步骤S730中,返回交互界面至客户端,交互界面用于指示客户端根据接收到的交互界面的交互指令,展示对应的动画效果,动画效果包括展示被遮挡的图像;若根据交互指令确定目标对象对图像的位置确认信息与图像在动画效果中的展示区域相匹配,展示新的交互界面。
在一示例性实施例中,该交互界面生成方法还包括:向目标对象账户发放奖励资源;奖励资源根据图像的被找到次数确定,被找到次数为目标对象在交互界面中找到图像的次数;在确定相匹配时,确定目标对象找到图像。
关于上述实施例中的交互界面生成方法,其中各个步骤执行操作的具体方式已经在有关交互界面展示方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图8是根据一示例性实施例示出的一种交互界面展示方法的时序图,如图8所示,消息展示方法用于客户端110和服务器120中,包括以下步骤:
在步骤S802中,获取目标对象的图像。
在步骤S804中,根据多个动效素材对图像进行动效处理,得到多个包括图像的交互界面。
在步骤S806中,返回多个交互界面至客户端。
在步骤S808中,接收多个交互界面。
在步骤S810中,展示任一个交互界面。
在步骤S812中,改变客户端的姿态。
在步骤S814中,采集客户端的姿态信息,确定姿态信息对应的第二指令内容。
在步骤S816中,展示与第二指令内容对应的动画效果。
其中,动画效果包括展示被遮挡的图像。
在步骤S818中,目标对象发出的语音信号
在步骤S820中,采集目标对象发出的语音信号,确定语音信号对应的第一指令内容。
在步骤S822中,获取与第一指令内容对应的场景音效,播放场景音效。
在步骤S824中,对图像进行操作。
在步骤S826中,确定目标对象在交互界面中找到图像。
在步骤S828中,相应地调整图像的被找到次数。
在步骤S830中,获取展示交互界面的时长。
在步骤S832中,若时长达到时间上限阈值,展示第一提示消息;第一提示消息包括图像的被找到次数。
在步骤S834中,发送图像的被找到次数至服务器。
在步骤S836中,根据图像的被找到次数确定奖励资源。
在步骤S838中,向目标对象账户发放奖励资源。
在步骤S840中,展示给目标对象账户发放奖励资源的第二提示信息。
应该理解的是,虽然上述流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,上述流程图中的至少一部分步骤可以包括多个步骤或者多个阶段,这些步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤中的步骤或者阶段的至少一部分轮流或者交替地执行。
图9是根据一示例性实施例示出的一种交互界面展示装置框图。参照图9,该装置包括图像获取模块910,融合处理模块920和第一界面展示模块930。
图像获取模块910,被配置为执行获取直播界面中目标对象的图像;
融合处理模块920,被配置为执行将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像的全部或者部分在所述交互界面中被遮挡;
第一界面展示模块930,被配置为执行在所述直播界面中展示交互界面。
在一示例性实施例中,所述装置还包括:
动画效果展示模块,被配置为执行根据接收到的所述交互界面的交互指令,展示对应的动画效果,所述动画效果包括展示被遮挡的所述图像。
在一示例性实施例中,所述动画效果展示模块,还被配置为执行采集所述目标对象发出的语音信号,确定所述语音信号对应的第一指令内容;获取与所述第一指令内容对应的场景音效;播放所述场景音效。
在一示例性实施例中,所述动画效果展示模块,还被配置为执行采集客户端的姿态信息,确定所述姿态信息对应的第二指令内容;展示与所述第二指令内容对应的动画效果。
在一示例性实施例中,所述交互界面的数量为多个;所述装置还包括:
第二界面展示模块,被配置为执行若根据所述交互指令确定所述目标对象在所述直播界面中的触碰位置与所述图像在所述动画效果中的展示区域相匹配,则从交互界面集合中选取新的交互界面进行展示,所述交互界面集合包括所述图像与多个所述动效素材生成的多个交互界面。
在一示例性实施例中,所述装置还包括:
确定模块,被配置为执行若确定相匹配,则确定所述目标对象在所述交互界面中找到所述图像;
次数调整模块,被配置为执行相应地调整所述图像的被找到次数;
时长获取模块,被配置为执行获取展示所述交互界面的时长;
第一消息展示模块,被配置为执行若所述时长达到时间上限阈值,展示第一提示消息;所述第一提示消息包括所述图像的被找到次数。
在一示例性实施例中,所述装置还包括:
第二消息展示模块,被配置为执行展示给目标对象账户发放奖励资源的第二提示信息;所述奖励资源根据所述图像的被找到次数确定。
在一示例性实施例中,所述装置还包括:
排行榜展示模块,被配置为执行若到达寻找所述图像的截止时间,展示直播间中各目标对象的排行榜;所述排行榜基于各所述目标对象的图像的最终被找到次数进行排序处理得到。
在一示例性实施例中,所述装置还包括:
互动对象确定模块,被配置为执行根据各所述目标对象的图像的最终被找到次数,将最终被找到次数满足预设条件的目标对象确定为互动对象;
通信连接模块,被配置为执行建立所述互动对象的账户与主播账户之间的通信连接。
在一示例性实施例中,所述装置还包括:
展示控件展示模块,被配置为执行在所述直播界面中展示所述交互界面的展示控件;
所述第一界面展示模块,还被配置为执行通过所述展示控件响应于所述交互界面的展示指令,在所述直播界面中展示所述交互界面。
在一示例性实施例中,采用下述中的任意一种方式确定所述动效素材:
获取多帧视图像所生成的动效素材,所述多帧视频图像为在所述直播场景下获取的多帧图像或者所述目标对象的视频数据;或者从动效素材库中获取的动效素材,所述动效素材库为存储于客户端或服务器上的动效素材集合。
在一示例性实施例中,所述图像采用下述中的任意一种方式进行确定:响应于拍摄指令,获取对所述目标对象或者所述目标对象的目标部位进行拍摄得到的图像;或者,从图库中获取所述目标对象的图像,所述图库为存储于客户端或服务器上的图像集合;或者,获取的所述目标对象的头像数据。
在一示例性实施例中,所述交互指令包括下述中的任意一种方式:触摸所述交互界面产生的交互指令;或者,通过识别的所述目标对象的姿态确定的交互指令;或者,通过采集的客户端姿态信息确定的交互指令;或者,通过采集的语音信号确定的交互指令。
图10是根据一示例性实施例示出的一种交互界面生成装置框图。参照图10,该装置包括图像获取模块1010,动效处理模块1020和界面返回模块1030。
图像获取模块1010,被配置为执行获取目标对象的图像;
动效处理模块1020,被配置为执行将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像在所述交互界面中的全部或者部分被遮挡;
界面返回模块1030,被配置为执行返回所述交互界面至客户端,所述交互界面用于指示所述客户端在所述直播界面展示所述交互界面。
关于上述实施例中的装置,其中各个模块执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
图11是根据一示例性实施例示出的一种用于交互界面展示的设备1100的框图。例如,设备1100可以是移动电话、计算机、数字广播终端、消息收发设备、游戏控制台、平板设备、医疗设备、健身设备、个人数字助理等。
参照图11,设备1100可以包括以下一个或多个组件:处理组件1102、存储器1104、电力组件1106、多媒体组件1108、音频组件1110、输入/输出(I/O)的接口1112、传感器组件1114以及通信组件1116。
处理组件1102通常控制设备1100的整体操作,诸如与显示、电话呼叫、数据通信、相机操作和记录操作相关联的操作。处理组件1102可以包括一个或多个处理器1120来执行指令,以完成上述的方法的全部或部分步骤。此外,处理组件1102可以包括一个或多个模块,便于处理组件1102和其他组件之间的交互。例如,处理组件1102可以包括多媒体模块,以方便多媒体组件1108和处理组件1102之间的交互。
存储器1104被配置为存储各种类型的数据以支持在设备1100的操作。这些数据的示例包括用于在设备1100上操作的任何应用程序或方法的指令、联系人数据、电话簿数据、消息、图片、视频等。存储器1104可以由任何类型的易失性或非易失性存储设备或者它们的组合实现,如静态随机存取存储器(SRAM)、电可擦除可编程只读存储器(EEPROM)、可擦除可编程只读存储器(EPROM)、可编程只读存储器(PROM)、只读存储器(ROM)、磁存储器、快闪存储器、磁盘或光盘。
电源组件1106为设备1100的各种组件提供电力。电源组件1106可以包括电源管理系统,一个或多个电源,及其他与为设备1100生成、管理和分配电力相关联的组件。
多媒体组件1108包括在所述设备1100和用户之间的提供一个输出接口的屏幕。在一些实施例中,屏幕可以包括液晶显示器(LCD)和触摸面板(TP)。如果屏幕包括触摸面板,屏幕可以被实现为触摸屏,以接收来自用户的输入信号。触摸面板包括一个或多个触摸传感器以感测触摸、滑动和触摸面板上的手势。所述触摸传感器可以不仅感测触摸或滑动动作的边界,而且还检测与所述触摸或滑动操作相关的持续时间和压力。在一些实施例中,多媒体组件1108包括一个前置摄像头和/或后置摄像头。当设备1100处于操作模式,如拍摄模式或视频模式时,前置摄像头和/或后置摄像头可以接收外部的多媒体数据。每个前置摄像头和后置摄像头可以是一个固定的光学透镜系统或具有焦距和光学变焦能力。
音频组件1110被配置为输出和/或输入音频信号。例如,音频组件1110包括一个麦克风(MIC),当设备1100处于操作模式,如呼叫模式、记录模式和语音识别模式时,麦克风被配置为接收外部音频信号。所接收的音频信号可以被进一步存储在存储器1104或经由通信组件1116发送。在一些实施例中,音频组件1110还包括一个扬声器,用于输出音频信号。
I/O接口1112为处理组件1102和外围接口模块之间提供接口,上述外围接口模块可以是键盘,点击轮,按钮等。这些按钮可包括但不限于:主页按钮、音量按钮、启动按钮和锁定按钮。
传感器组件1114包括一个或多个传感器,用于为设备1100提供各个方面的状态评估。例如,传感器组件1114可以检测到设备1100的打开/关闭状态,组件的相对定位,例如所述组件为设备1100的显示器和小键盘,传感器组件1114还可以检测设备1100或设备1100一个组件的位置改变,用户与设备1100接触的存在或不存在,设备1100方位或加速/减速和设备1100的温度变化。传感器组件1114可以包括接近传感器,被配置用来在没有任何的物理接触时检测附近物体的存在。传感器组件1114还可以包括光传感器,如CMOS或CCD图像传感器,用于在成像应用中使用。在一些实施例中,该传感器组件1114还可以包括加速度传感器、陀螺仪传感器、磁传感器、压力传感器或温度传感器。
通信组件1116被配置为便于设备1100和其他设备之间有线或无线方式的通信。设备1100可以接入基于通信标准的无线网络,如WiFi,运营商网络(如2G、3G、4G或5G),或它们的组合。在一个示例性实施例中,通信组件1116经由广播信道接收来自外部广播管理系统的广播信号或广播相关信息。在一个示例性实施例中,所述通信组件1116还包括近场通信(NFC)模块,以促进短程通信。例如,在NFC模块可基于射频识别(RFID)技术,红外数据协会(IrDA)技术,超宽带(UWB)技术,蓝牙(BT)技术和其他技术来实现。
在示例性实施例中,设备1100可以被一个或多个应用专用集成电路(ASIC)、数字信号处理器(DSP)、数字信号处理设备(DSPD)、可编程逻辑器件(PLD)、现场可编程门阵列(FPGA)、控制器、微控制器、微处理器或其他电子元件实现,用于执行上述交互界面展示方法。
在示例性实施例中,还提供了一种包括指令的非临时性计算机可读存储介质,例如包括指令的存储器1104,上述指令可由设备1100的处理器1120执行以完成上述方法。例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述的交互界面展示方法。
图12是根据一示例性实施例示出的一种用于交互界面生成的设备1200的框图。例如,设备1200可以为一服务器。参照图12,设备1200包括处理组件1220,其进一步包括一个或多个处理器,以及由存储器1222所代表的存储器资源,用于存储可由处理组件1220的执行的指令,例如应用程序。存储器1222中存储的应用程序可以包括一个或一个以上的每一个对应于一组指令的模块。此外,处理组件1220被配置为执行指令,以执行上述交互界面生成方法。
设备1200还可以包括一个电源组件1224被配置为执行设备1200的电源管理,一个有线或无线网络接口1226被配置为将设备1200连接到网络,和一个输入输出(I/O)接口1228。设备1200可以操作基于存储在存储器1222的操作系统,例如Windows Server,Mac OSX,Unix,Linux,FreeBSD或类似。
在示例性实施例中,还提供了一种包括指令的存储介质,例如包括指令的存储器1222,上述指令可由设备1200的处理器执行以完成上述交互界面生成方法。存储介质可以是非临时性计算机可读存储介质,例如,所述非临时性计算机可读存储介质可以是ROM、随机存取存储器(RAM)、CD-ROM、磁带、软盘和光数据存储设备等。
在示例性实施例中,还提供了一种计算机程序产品,包括计算机程序,所述计算机程序被处理器执行时实现上述的交互界面生成方法。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。
应当理解的是,本公开并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。本公开的范围仅由所附的权利要求来限制。
Claims (10)
1.一种交互界面展示方法,其特征在于,包括:
获取直播界面中目标对象的图像;
将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像的全部或者部分在所述交互界面中被遮挡;
在所述直播界面中展示交互界面。
2.根据权利要求1所述的交互界面展示方法,其特征在于,所述方法还包括:
根据接收到的交互界面的交互指令,展示对应的动画效果,所述动画效果包括:展示被遮挡的所述图像。
3.根据权利要求2所述的交互界面展示方法,其特征在于,所述根据接收到的所述交互界面的交互指令,展示对应的动画效果,包括:
采集所述目标对象发出的语音信号,确定所述语音信号对应的第一指令内容;
获取与所述第一指令内容对应的场景音效;
播放所述场景音效。
4.根据权利要求2所述的交互界面展示方法,其特征在于,所述根据接收到的所述交互界面的交互指令,展示对应的动画效果,包括:
采集客户端的姿态信息,确定所述姿态信息对应的第二指令内容;
展示与所述第二指令内容对应的动画效果。
5.一种交互界面生成方法,其特征在于,包括:
获取直播界面中目标对象的图像;
将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像在所述交互界面中的全部或者部分被遮挡;
返回所述交互界面至客户端,所述交互界面用于指示所述客户端在所述直播界面展示所述交互界面。
6.一种交互界面展示装置,其特征在于,包括:
图像获取模块,被配置为执行获取直播界面中目标对象的图像;
融合处理模块,被配置为执行将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像的全部或者部分在所述交互界面中被遮挡;
第一界面展示模块,被配置为执行在所述直播界面中展示交互界面。
7.一种交互界面生成装置,其特征在于,包括:
图像获取模块,被配置为执行获取直播界面中目标对象的图像;
动效处理模块,被配置为执行将所述图像与动效素材进行融合处理,得到用于与所述目标对象互动的交互界面;所述图像在所述交互界面中的全部或者部分被遮挡;
界面返回模块,被配置为执行返回所述交互界面至客户端,所述交互界面用于指示所述客户端在所述直播界面展示所述交互界面。
8.一种电子设备,其特征在于,包括:
处理器;
用于存储所述处理器可执行指令的存储器;
其中,所述处理器被配置为执行所述指令,以实现如权利要求1至4中任一项所述的交互界面展示方法或者如权利要求5所述的交互界面生成方法。
9.一种存储介质,当所述存储介质中的指令由电子设备的处理器执行时,使得电子设备能够执行如权利要求1至4中任一项所述的交互界面展示方法或者如权利要求5所述的交互界面生成方法。
10.一种计算机程序产品,包括计算机程序,其特征在于,所述计算机程序被处理器执行时实现如权利要求1至4中任一项所述的交互界面展示方法或者如权利要求5所述的交互界面生成方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110200474.0A CN112905074B (zh) | 2021-02-23 | 2021-02-23 | 交互界面展示方法、交互界面生成方法、装置及电子设备 |
US17/565,268 US20220272406A1 (en) | 2021-02-23 | 2021-12-29 | Method for displaying interactive interface, method for generating interactive interface, and electronic device thereof |
EP22156194.7A EP4047938A1 (en) | 2021-02-23 | 2022-02-10 | Method for displaying interactive interface and apparatus thereof, method for generating interactive interface |
MX2022002295A MX2022002295A (es) | 2021-02-23 | 2022-02-23 | Metodo para mostrar interfaz interactiva, metodo para generar interfaz interactiva y dispositivo electronico de los mismos. |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110200474.0A CN112905074B (zh) | 2021-02-23 | 2021-02-23 | 交互界面展示方法、交互界面生成方法、装置及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112905074A true CN112905074A (zh) | 2021-06-04 |
CN112905074B CN112905074B (zh) | 2022-11-22 |
Family
ID=76124407
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110200474.0A Active CN112905074B (zh) | 2021-02-23 | 2021-02-23 | 交互界面展示方法、交互界面生成方法、装置及电子设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20220272406A1 (zh) |
EP (1) | EP4047938A1 (zh) |
CN (1) | CN112905074B (zh) |
MX (1) | MX2022002295A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113419800A (zh) * | 2021-06-11 | 2021-09-21 | 北京字跳网络技术有限公司 | 交互方法、装置、介质和电子设备 |
CN114090167A (zh) * | 2021-11-30 | 2022-02-25 | 东风汽车有限公司东风日产乘用车公司 | 节日彩蛋展示方法、装置、设备及存储介质 |
CN115022653A (zh) * | 2022-04-27 | 2022-09-06 | 北京达佳互联信息技术有限公司 | 信息展示方法、装置、电子设备及存储介质 |
CN115167729A (zh) * | 2022-05-17 | 2022-10-11 | 阿里巴巴(中国)有限公司 | 界面展示方法、装置及电子设备 |
CN116051868A (zh) * | 2023-03-31 | 2023-05-02 | 山东大学 | 一种面向windows系统的界面元素识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108683954A (zh) * | 2018-05-30 | 2018-10-19 | 广州华多网络科技有限公司 | 弹窗动画生成方法和装置、弹窗动画、网络直播服务器 |
CN111526412A (zh) * | 2020-04-30 | 2020-08-11 | 广州华多网络科技有限公司 | 全景直播方法、装置、设备及存储介质 |
CN111885411A (zh) * | 2020-08-03 | 2020-11-03 | 网易(杭州)网络有限公司 | 网络直播中的显示控制方法、装置、电子设备及存储介质 |
CN111935498A (zh) * | 2020-10-16 | 2020-11-13 | 北京达佳互联信息技术有限公司 | 直播互动方法、装置及电子设备 |
CN112135161A (zh) * | 2020-09-25 | 2020-12-25 | 广州华多网络科技有限公司 | 虚拟礼物的动效展示方法及装置、存储介质及电子设备 |
WO2021004221A1 (zh) * | 2019-07-09 | 2021-01-14 | 北京字节跳动网络技术有限公司 | 特效的展示处理方法、装置及电子设备 |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012021902A2 (en) * | 2010-08-13 | 2012-02-16 | Net Power And Light Inc. | Methods and systems for interaction through gestures |
US10321092B2 (en) * | 2016-12-28 | 2019-06-11 | Facebook, Inc. | Context-based media effect application |
US10085064B2 (en) * | 2016-12-28 | 2018-09-25 | Facebook, Inc. | Aggregation of media effects |
US10460499B2 (en) * | 2017-09-27 | 2019-10-29 | Whatsapp Inc. | Animating digital graphics overlaid on visual media items based on dynamic attributes |
US10712811B2 (en) * | 2017-12-12 | 2020-07-14 | Facebook, Inc. | Providing a digital model of a corresponding product in a camera feed |
US20190207993A1 (en) * | 2017-12-29 | 2019-07-04 | Facebook, Inc. | Systems and methods for broadcasting live content |
US10924796B2 (en) * | 2018-04-10 | 2021-02-16 | Logitech Europe S.A. | System and methods for interactive filters in live streaming media |
US10375313B1 (en) * | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
CN109348239B (zh) * | 2018-10-18 | 2020-05-19 | 北京达佳互联信息技术有限公司 | 直播片段处理方法、装置、电子设备及存储介质 |
CN110769302B (zh) * | 2019-10-28 | 2022-03-22 | 广州方硅信息技术有限公司 | 直播互动方法、装置、系统、终端设备、存储介质 |
CN111246236B (zh) * | 2020-01-22 | 2021-08-13 | 北京达佳互联信息技术有限公司 | 互动数据播放方法、装置、终端、服务器及存储介质 |
CN112073742B (zh) * | 2020-09-01 | 2021-06-18 | 腾讯科技(深圳)有限公司 | 基于直播间的互动方法、装置、存储介质及计算机设备 |
CN112367553B (zh) * | 2020-11-10 | 2022-07-01 | 北京达佳互联信息技术有限公司 | 消息交互方法、装置、电子设备及存储介质 |
-
2021
- 2021-02-23 CN CN202110200474.0A patent/CN112905074B/zh active Active
- 2021-12-29 US US17/565,268 patent/US20220272406A1/en active Pending
-
2022
- 2022-02-10 EP EP22156194.7A patent/EP4047938A1/en not_active Withdrawn
- 2022-02-23 MX MX2022002295A patent/MX2022002295A/es unknown
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108683954A (zh) * | 2018-05-30 | 2018-10-19 | 广州华多网络科技有限公司 | 弹窗动画生成方法和装置、弹窗动画、网络直播服务器 |
WO2021004221A1 (zh) * | 2019-07-09 | 2021-01-14 | 北京字节跳动网络技术有限公司 | 特效的展示处理方法、装置及电子设备 |
CN111526412A (zh) * | 2020-04-30 | 2020-08-11 | 广州华多网络科技有限公司 | 全景直播方法、装置、设备及存储介质 |
CN111885411A (zh) * | 2020-08-03 | 2020-11-03 | 网易(杭州)网络有限公司 | 网络直播中的显示控制方法、装置、电子设备及存储介质 |
CN112135161A (zh) * | 2020-09-25 | 2020-12-25 | 广州华多网络科技有限公司 | 虚拟礼物的动效展示方法及装置、存储介质及电子设备 |
CN111935498A (zh) * | 2020-10-16 | 2020-11-13 | 北京达佳互联信息技术有限公司 | 直播互动方法、装置及电子设备 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113419800A (zh) * | 2021-06-11 | 2021-09-21 | 北京字跳网络技术有限公司 | 交互方法、装置、介质和电子设备 |
CN113419800B (zh) * | 2021-06-11 | 2023-03-24 | 北京字跳网络技术有限公司 | 交互方法、装置、介质和电子设备 |
CN114090167A (zh) * | 2021-11-30 | 2022-02-25 | 东风汽车有限公司东风日产乘用车公司 | 节日彩蛋展示方法、装置、设备及存储介质 |
CN114090167B (zh) * | 2021-11-30 | 2024-02-27 | 东风汽车有限公司东风日产乘用车公司 | 节日彩蛋展示方法、装置、设备及存储介质 |
CN115022653A (zh) * | 2022-04-27 | 2022-09-06 | 北京达佳互联信息技术有限公司 | 信息展示方法、装置、电子设备及存储介质 |
CN115167729A (zh) * | 2022-05-17 | 2022-10-11 | 阿里巴巴(中国)有限公司 | 界面展示方法、装置及电子设备 |
CN116051868A (zh) * | 2023-03-31 | 2023-05-02 | 山东大学 | 一种面向windows系统的界面元素识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112905074B (zh) | 2022-11-22 |
MX2022002295A (es) | 2022-08-24 |
EP4047938A1 (en) | 2022-08-24 |
US20220272406A1 (en) | 2022-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112905074B (zh) | 交互界面展示方法、交互界面生成方法、装置及电子设备 | |
US11503377B2 (en) | Method and electronic device for processing data | |
CN106791893B (zh) | 视频直播方法及装置 | |
CN112153400B (zh) | 直播互动方法、装置、电子设备及存储介质 | |
CN112261481B (zh) | 互动视频的创建方法、装置、设备及可读存储介质 | |
CN110691279A (zh) | 一种虚拟直播的方法、装置、电子设备及存储介质 | |
CN110533585B (zh) | 一种图像换脸的方法、装置、系统、设备和存储介质 | |
CN113507621A (zh) | 直播方法、装置、系统、计算机设备以及存储介质 | |
WO2022198934A1 (zh) | 卡点视频的生成方法及装置 | |
CN114025189B (zh) | 虚拟对象生成方法、装置、设备及存储介质 | |
CN113395566B (zh) | 视频播放方法、装置、电子设备及计算机可读存储介质 | |
CN106604147A (zh) | 一种视频处理方法及装置 | |
CN112788354A (zh) | 直播互动方法、装置、电子设备、存储介质及程序产品 | |
CN113518264A (zh) | 互动方法、装置、终端及存储介质 | |
CN114390193A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN113613028A (zh) | 直播数据处理方法、装置、终端、服务器及存储介质 | |
CN113490010A (zh) | 基于直播视频的互动方法、装置、设备及存储介质 | |
CN112312190A (zh) | 视频画面的展示方法、装置、电子设备和存储介质 | |
CN114302160A (zh) | 信息显示方法、装置、计算机设备及介质 | |
CN110572686B (zh) | 交互方法、直播系统、电子设备及存储装置 | |
CN108986803B (zh) | 场景控制方法及装置、电子设备、可读存储介质 | |
CN111382355A (zh) | 基于地理对象的直播管理方法、装置、设备及存储介质 | |
CN113852839B (zh) | 虚拟资源分配方法、装置及电子设备 | |
CN113989424A (zh) | 三维虚拟形象的生成方法、装置及电子设备 | |
CN113194329A (zh) | 直播互动方法、装置、终端及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |