CN110740338B - 一种弹幕处理的方法及装置、电子设备、存储介质 - Google Patents

一种弹幕处理的方法及装置、电子设备、存储介质 Download PDF

Info

Publication number
CN110740338B
CN110740338B CN201911040458.9A CN201911040458A CN110740338B CN 110740338 B CN110740338 B CN 110740338B CN 201911040458 A CN201911040458 A CN 201911040458A CN 110740338 B CN110740338 B CN 110740338B
Authority
CN
China
Prior art keywords
bullet screen
information
position data
data
screen information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201911040458.9A
Other languages
English (en)
Other versions
CN110740338A (zh
Inventor
庄宇轩
孙静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Netease Hangzhou Network Co Ltd
Original Assignee
Netease Hangzhou Network Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Netease Hangzhou Network Co Ltd filed Critical Netease Hangzhou Network Co Ltd
Priority to CN201911040458.9A priority Critical patent/CN110740338B/zh
Publication of CN110740338A publication Critical patent/CN110740338A/zh
Application granted granted Critical
Publication of CN110740338B publication Critical patent/CN110740338B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/21Server components or server architectures
    • H04N21/218Source of audio or video content, e.g. local disk arrays
    • H04N21/2187Live feed
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/435Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/485End-user interface for client configuration
    • H04N21/4858End-user interface for client configuration for modifying screen layout parameters, e.g. fonts, size of the windows
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/488Data services, e.g. news ticker
    • H04N21/4884Data services, e.g. news ticker for displaying subtitles

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Information Transfer Between Computers (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本申请实施例提供了一种弹幕处理的方法,所述方法包括:当接收到客户端发送的弹幕获取请求时,确定所述弹幕获取请求对应的弹幕信息,并将所述弹幕信息发送至所述客户端;在所述弹幕信息的展示过程中,生成所述弹幕信息对应的目标弹幕位置数据,并将所述目标弹幕位置数据发送至所述客户端,以在所述客户端中将所述弹幕信息调整至所述目标弹幕位置数据对应的位置,实现了对弹幕信息的优化处理,能够动态调整弹幕的显示位置,避免弹移动轨迹过于单一,丰富了弹幕的展示方式。

Description

一种弹幕处理的方法及装置、电子设备、存储介质
技术领域
本申请涉及互联网技术领域,特别是涉及一种弹幕处理的方法及装置、电子设备、存储介质。
背景技术
随着终端设备的普及,在终端设备中观看视频直播逐渐成为一种主流的娱乐方式,为了丰富直播内容,视频直播软件增加了发送弹幕的功能。弹幕是可以直接在播放界面上显示的内容,通过弹幕,用户可以在直播间中表达个人观点和感想,弹幕已成为用户与用户、用户与主播之间进行互动的重要载体,通过高质量的弹幕可以提高用户之间的粘性。
在现有技术中,弹幕类型可以包括纯文字弹幕、纯文字彩色弹幕以及礼品弹幕,在发送弹幕后,弹幕可以按照预设轨迹在直播间中进行展示,如从右向左移动,在播放界面中横向展示。然而,这种弹幕呈现方式较为单一,弹幕进入客户端屏幕后,只能按照既定的弹幕效果进行显示,例如按照规定轨迹在播放界面上移动。
发明内容
鉴于上述问题,提出了以便提供克服上述问题或者至少部分地解决上述问题的一种弹幕处理的方法及装置、电子设备、存储介质,包括:
一种弹幕处理的方法,应用于服务端,所述方法包括:
当接收到客户端发送的弹幕获取请求时,确定所述弹幕获取请求对应的弹幕信息,并将所述弹幕信息发送至所述客户端;
在所述弹幕信息的展示过程中,生成所述弹幕信息对应的目标弹幕位置数据,并将所述目标弹幕位置数据发送至所述客户端,以在所述客户端中将所述弹幕信息调整至所述目标弹幕位置数据对应的位置。
可选地,所述方法还包括:
获取所述客户端中实时展示的视频帧数据;
当检测到所述视频帧数据中包括目标图像特征时,确定所述目标图像特征对应的特征位置数据;
确定所述弹幕信息对应的实时弹幕位置数据;
若所述实时弹幕位置数据与所述特征位置数据相匹配,则生成所述目标图像特征对应的弹幕特效数据,并发送至所述客户端,以在所述客户端中采用所述弹幕特效数据对所述弹幕信息进行特效处理。
可选地,所述方法还包括:
在对所述弹幕信息进行特效处理后,控制所述客户端取消对所述弹幕信息的显示。
可选地,所述生成所述弹幕信息对应的目标弹幕位置数据,包括:
接收所述客户端发送的重力传感数据;
根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离;
采用所述偏移方向和所述偏移距离,生成所述弹幕信息对应的目标弹幕位置数据。
可选地,所述根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离,包括:
确定所述重力传感数据中的三轴数据;
对所述三轴数据进行矢量运算,获得重力方向和重力数值;
采用所述重力方向,确定所述弹幕信息对应的偏移方向;
采用所述重力数值,确定所述弹幕信息对应的偏移距离。
可选地,所述采用所述偏移方向和所述偏移距离,生成所述弹幕信息对应的目标弹幕位置数据,包括:
获取所述弹幕信息对应的实时弹幕位置数据;
采用所述偏移方向和所述偏移距离,对所述实时弹幕位置数据进行偏移处理,得到所述弹幕信息对应的目标弹幕位置数据。
可选地,所述确定所述弹幕获取请求对应的弹幕信息,包括:
确定所述弹幕获取请求对应的弹幕筛选数据;
采用所述弹幕筛选数据,对多个候选弹幕信息进行筛选,得到所述弹幕获取请求对应的弹幕信息。
可选地,所述弹幕特效数据包括指示所述弹幕信息以预设方式显示的特效数据。
一种弹幕处理的方法,应用于客户端,所述方法包括:
生成弹幕获取请求,并将所述弹幕获取请求发送至服务端;
接收所述服务端发送的与所述弹幕获取请求对应的弹幕信息,并展示所述弹幕信息;
在所述弹幕信息的展示过程中,接收所述服务端发送的与所述弹幕信息对应的目标弹幕位置数据;
将所述弹幕信息调整至所述目标弹幕位置数据对应的位置。
可选地,所述方法还包括:
接收所述服务端发送的弹幕特效数据;其中,所述弹幕特效数据为所述服务端获取所述客户端中实时展示的视频帧数据,并检测到所述视频帧数据中包括目标图像特征,确定所述目标图像特征对应的特征位置数据和所述弹幕信息对应的实时弹幕位置数据后,在所述实时弹幕位置数据与所述特征位置数据相匹配时,生成的与所述目标图像特征对应的特效数据;
采用所述弹幕特效数据对所述弹幕信息进行特效处理。
可选地,所述方法还包括:
在对所述弹幕信息进行特效处理后,取消对所述弹幕信息的显示。
可选地,在所述接收所述服务端发送的与所述弹幕信息对应的目标弹幕位置数据的步骤前,所述方法还包括:
生成重力传感数据,并发送至所述服务端;其中,所述重力传感数据为所述服务端根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离,并采用所述偏移方向信息和所述偏移距离后,生成的与所述弹幕信息对应的目标弹幕位置数据。
可选地,所述弹幕特效数据包括指示所述弹幕信息以预设方式显示的特效数据。
一种弹幕处理的装置,应用于服务端,所述装置包括:
弹幕信息发送模块,用于当接收到客户端发送的弹幕获取请求时,确定所述弹幕获取请求对应的弹幕信息,并将所述弹幕信息发送至所述客户端;
弹幕位置数据发送模块,用于在所述弹幕信息的展示过程中,生成所述弹幕信息对应的目标弹幕位置数据,并将所述目标弹幕位置数据发送至所述客户端,以在所述客户端中将所述弹幕信息调整至所述目标弹幕位置数据对应的位置。
一种弹幕处理的装置,应用于客户端,所述装置包括:
弹幕获取请求生成模块,用于生成弹幕获取请求,并将所述弹幕获取请求发送至服务端;
弹幕信息接收模块,用于接收所述服务端发送的与所述弹幕获取请求对应的弹幕信息,并展示所述弹幕信息;
弹幕位置数据接收模块,用于在所述弹幕信息的展示过程中,接收所述服务端发送的与所述弹幕信息对应的目标弹幕位置数据;
弹幕位置调整模块,用于将所述弹幕信息调整至所述目标弹幕位置数据对应的位置。
一种电子设备,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如上弹幕处理的方法的步骤。
一种计算机可读存储介质,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如上弹幕处理的方法的步骤。
本申请实施例具有以下优点:
在本申请实施例中,通过在接收到客户端发送的弹幕获取请求时,确定弹幕获取请求对应的弹幕信息,将弹幕信息发送至客户端,并在弹幕信息的展示过程中,生成与弹幕信息对应的目标弹幕位置数据,将目标弹幕位置数据发送至客户端,以在客户端中将弹幕信息调整至目标弹幕位置数据对应的位置,实现了对弹幕信息的优化处理,能够动态调整弹幕的显示位置,避免弹移动轨迹过于单一,丰富了弹幕的展示方式。
附图说明
为了更清楚地说明本申请的技术方案,下面将对本申请的描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1是本申请一实施例提供的一种弹幕处理的方法的步骤流程图;
图2是本申请一实施例提供的另一种弹幕处理的方法的步骤流程图;
图3是本申请一实施例提供的另一种弹幕处理的方法的步骤流程图;
图4是本申请一实施例提供的一种弹幕处理的装置的结构示意图;
图5是本申请一实施例提供的另一种弹幕处理的装置的结构示意图。
具体实施方式
为使本申请的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本申请作进一步详细的说明。显然,所描述的实施例是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
参照图1,示出了本申请一实施例提供的一种弹幕处理的方法的步骤流程图,可以应用于服务端,具体可以包括如下步骤:
步骤101,当接收到客户端发送的弹幕获取请求时,确定所述弹幕获取请求对应的弹幕信息,并将所述弹幕信息发送至所述客户端;
作为一示例,弹幕信息可以包括纯色文本信息、彩色文本信息以及礼物信息。
当用户启动客户端并进入视频直播间,观看直播视频时,客户端可以自动生成弹幕获取请求并发送至服务端,以获取在当前视频画面的弹幕信息,在接收到弹幕获取请求后,服务端可以获取该弹幕获取请求所确定的弹幕信息,并将弹幕信息发送至客户端。
在一示例中,在发送弹幕信息后,服务端还可以将预置的初始位置数据发送至客户端,也可以在客户端预置一初始位置数据,在接收弹幕信息后,客户端可以确定初始位置数据,以确定弹幕信息进入视频播放界面的初始位置;或者,服务端也可以采用本申请步骤102中的方式确定初始位置数据。
当然,本申请并不仅仅应用于视频直播情景,还可以应用在播放录播视频的情景中。
在本申请一实施例中,确定所述弹幕获取请求对应的弹幕信息的步骤可以包括如下子步骤:
子步骤11,确定所述弹幕获取请求对应的弹幕筛选数据;
作为一示例,弹幕筛选数据可以是设置弹幕筛选方式的数据,例如,可以包括设置过滤重复弹幕,以过滤包含相同内容的弹幕,或者设置过滤包含预设信息的弹幕,以过滤包含粗俗语言、无意义评论的弹幕。
当服务端接收到弹幕获取请求后,可以采用弹幕获取请求,确定弹幕筛选数据。具体的,可以由用户在客户端设置弹幕筛选数据,或者,也可以在安装客户端时,即生成预设的弹幕筛选数据。
子步骤12,采用所述弹幕筛选数据,对多个候选弹幕信息进行筛选,得到所述弹幕获取请求对应的弹幕信息,并将所述弹幕信息发送至所述客户端;
在确定弹幕筛选数据后,服务端可以获取多个候选弹幕信息,并采用弹幕筛选数据对候选弹幕进行筛选,确定弹幕信息,并将该信息发送至客户端。
在实际应用中,客户端在生成弹幕获取请求时,可以确定当前视频的播放进度,生成针对当前视频画面的视频时序信息,并将视频时序信息与弹幕获取请求一起发送至服务端,以查找在播放当前视频画面时所显示的弹幕。
具体的,由于在视频播放的同时,弹幕信息可以同时在视频上方移动,针对每一帧视频画面,可以为该帧视频画面上的弹幕信息生成弹幕时序信息,并将弹幕时序信息与弹幕信息的对应关系存储在服务端中,该弹幕时序信息与该帧视频画面的视频时序信息相同。
在接收到视频时序信息与弹幕获取请求后,服务端可以采用视频时序信息,查找与视频时序信息相匹配的弹幕时序信息,例如,可以计算弹幕时序信息与视频时序信息的差值,当差值在预设范围时,可以确定弹幕时序信息为匹配,并将与该弹幕时序信息对应的弹幕信息确定为候选弹幕信息。
进一步地,服务端可以采用弹幕筛选数据对候选弹幕信息进行筛选,得到弹幕信息,并将弹幕信息发送至客户端。通过对候选弹幕信息的筛选,可以避免将过多的弹幕信息显示在视频播放界面,同时,可以减轻服务端的数据处理压力。
步骤102,在所述弹幕信息的展示过程中,生成所述弹幕信息对应的目标弹幕位置数据,并将所述目标弹幕位置数据发送至所述客户端,以在所述客户端中将所述弹幕信息调整至所述目标弹幕位置数据对应的位置。
作为一示例,目标弹幕位置数据可以是弹幕在播放界面中的坐标。
在显示弹幕信息的过程中,服务端可以针对弹幕信息生成目标弹幕位置数据,并将该数据发送至客户端,客户端在接收到目标弹幕位置数据后,可以采用目标弹幕位置数据,在视频播放界面中将弹幕信息的位置调整至目标弹幕位置数据所确定的坐标,实现弹幕信息在视频播放界面中的动态调整。
在本申请一实施例中,所述生成所述弹幕信息对应的目标弹幕位置数据的步骤可以包括如下子步骤:
子步骤21,接收所述客户端发送的重力传感数据;
作为一示例,在装载客户端的终端上可以设置有重力传感器。
在具体实现中,观众用户观看的视频可以是由主播用户上传的直播视频。在视频直播时,主播用户可以点击相关按键开启互动玩法,例如可以点击“开启重力互动玩法”按键,响应于用户操作,主播用户的客户端可以向服务端发送重力弹幕互动请求,在接收到该请求后,服务端可向观众用户的客户端发送玩法开启信息。
在接收到玩法开启信息后,观众用户可以点击相关按键,例如“参与”按键,响应于该用户操作,客户端可以向服务端发送玩法参与指示至服务端,并在客户端的显示界面中,展示倒计时引导,提示观众用户重力互动玩法即将开始;进一步地,在弹幕信息的展示过程中,客户端可以通过重力传感器实时采集重力传感数据,并发送至服务端,以使服务端可以接收到重力传感数据。
子步骤22,根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离;
在实际应用中,通过重力传感器可以测量由于重力引起的加速度,进而可以得到终端相对于水平面的倾斜角度,和终端的移动方式,用户通过操纵终端的倾斜角度或运动方式,可以生成不同的重力传感数据。
基于此,在接收重力传感数据后,服务端可以对重力传感数据进行处理,并采用处理后的重力传感数据确定弹幕信息的偏移方向和偏移距离。
在本申请一实施例中,子步骤22可以包括如下子步骤:
子步骤221,确定所述重力传感数据中的三轴数据;
作为一示例,三轴数据可以包括重力传感数据中的x轴加速度、y轴加速度和z轴加速度。
在接收到重力传感数据后,服务端从重力传感数据中获取三轴数据,以确定重力在x轴、y轴和z轴的加速度大小。
子步骤222,对所述三轴数据进行矢量运算,获得重力方向和重力数值;
在获取三轴数据后,服务端可以在三维空间坐标中确定三轴数据所确定的坐标点,并连接原点和三轴数据所确定的坐标点,获取以从原点指向该坐标点的矢量,在获取矢量后,可以对其进行矢量运算,获得在三维空间中的重力方向和重力数值。
例如,当x轴加速度等于1、y轴加速度等于1以及z轴加速度等于1时,可以由三轴数据确定一坐标点A(1,1,1),并连接原点O(0,0,0)和坐标点A(1,1,1),获得从原点指向点A的矢量OA(1,1,1),在进行矢量运算时,可以得到矢量OA与x轴和z轴所形成的平面夹角为35.27°,并将该夹角确定为重力方向,同时,可以得到矢量OA的长度为
Figure BDA0002252684560000081
则可以确定重力数值为
Figure BDA0002252684560000082
在实际应用中,在进行矢量运算前,还可以判断三轴数据中的x轴加速度和y轴加速度是否皆等于零,若x轴加速度和y轴加速度都等于零,可以确定终端当前处于水平状态,例如终端被正面朝上、水平放置于桌面,则可以不对三轴数据进行矢量运算,若x轴加速度和y轴加速度并非都等于零,则可以终端当前未被水平放置,服务端可以对三轴数据进行矢量运算。
子步骤223,采用所述重力方向,确定所述弹幕信息对应的偏移方向;
由于重力方向是在三维空间中的矢量,而弹幕信息可以是在二维空间(视频播放界面)进行展示,在确定重力方向后,服务端可以获取重力方向在三维空间内的正投影,即重力方向在x轴和z轴所形成的平面上的投影,并确定该投影与x轴或z轴之间的夹角,该夹角可以是弹幕信息的偏移方向。
例如,通过三轴数据确定坐标点A(1,1,1),并获得矢量OA(1,1,1),矢量OA(1,1,1)在x轴和z轴所形成的平面上的投影,与x轴成45°夹角,与z轴成45°夹角,则弹幕信息的偏移方向可以是与水平方向和垂直方向的夹角为45°。
子步骤224,采用所述重力数值,确定所述弹幕信息对应的偏移距离。
在实际应用中,不同型号的终端,屏幕尺寸不同,针对相同的重力数值,弹幕信息在视频播放界面的偏移距离不同。基于此,可以在服务端预先设置一列表,保存终端型号与偏移单位的对应关系,该偏移单位可以表征在每一重力数值下,弹幕信息所要移动的距离。
当安装客户端时,客户端可以获取终端识别码,例如国际移动设备识别码(International Mobile Equipment Identity,IMEI),通过终端识别码可以确定终端的型号,客户端在播放视频时,可以生成包含终端识别码的弹幕获取请求并发送至服务端。
在获取重力数值后,服务端可以从弹幕获取请求中确定终端识别码,确定终端型号,并在预先保存的列表中查询与该终端型号对应的偏移单位,并采用重力数值和偏移单位,计算弹幕信息的偏移距离,例如,可以通过重力数值乘以偏移单位得到偏移距离。
除此以外,还可以在服务端中记录礼物赠送数量与偏移单位数值调减的对应关系,当礼物赠送数量达到预设数值时,可以减小偏移单位的数值,以减缓弹幕信息的偏移速度。当用户点击相关按键以赠送礼物时,客户端可以向服务端发送礼物赠送指示,在接收到该指示后,服务端可以在列表中进行查找,确定偏移单位数值调减的条件数值,并利用调减后的偏移单位计算偏移距离,通过该方法,可以将弹幕信息的偏移距离与视频播放过程中的付费行为结合,达到促进付费转化的目的,提高了用户体验。
子步骤23,采用所述偏移方向和所述偏移距离,生成所述弹幕信息对应的目标弹幕位置数据;
作为一示例,目标弹幕位置数据可以是视频播放界面上的坐标。
在确定偏移方向和偏移距离后,服务端可以采用偏移方向和偏移距离,生成弹幕信息的目标弹幕位置数据。
在本申请一实施例中,子步骤23可以包括如下子步骤:
子步骤231,获取所述弹幕信息对应的实时弹幕位置数据;
作为一示例,实时弹幕位置数据可以是弹幕信息在当前视频播放界面上的坐标。
在进行调整前,服务端可以获取弹幕信息的实时弹幕位置数据。具体的,服务端在对候选弹幕信息进行筛选、获取弹幕信息后,可以记录弹幕信息的弹幕位置数据,在获取偏移方向和偏移距离后,可以将已记录的弹幕位置数据确定为实时弹幕位置数据。
子步骤232,采用所述偏移方向和所述偏移距离,对所述实时弹幕位置数据进行偏移处理,得到所述弹幕信息对应的目标弹幕位置数据;
在确定实时弹幕位置数据后,服务端可以对实时弹幕位置数据进行偏移处理,具体的,可以获取实时弹幕位置数据所确定的坐标点,并以该坐标点为中心,沿偏移方向移动,移动的距离为偏移距离所确定的大小,得到偏移后的坐标点,该坐标点可以为弹幕信息的目标弹幕位置数据。
例如,弹幕信息的实时弹幕位置数据为点B(2,1),偏移方向为与水平方向成45°夹角,偏移距离为
Figure BDA0002252684560000101
则可以点B为中心,沿45°的方向移动
Figure BDA0002252684560000102
的距离,得到目标弹幕位置数据(3,2)。
在本申请实施例中,通过在接收到客户端发送的弹幕获取请求时,确定弹幕获取请求对应的弹幕信息,将弹幕信息发送至客户端,并在弹幕信息的展示过程中,生成与弹幕信息对应的目标弹幕位置数据,将目标弹幕位置数据发送至客户端,以在客户端中将弹幕信息调整至目标弹幕位置数据对应的位置,实现了对弹幕信息的优化处理,能够动态调整弹幕的显示位置,避免弹移动轨迹过于单一,丰富了弹幕的展示方式。
参照图2,示出了本申请一实施例提供的另一种弹幕处理的方法的步骤流程图,可以应用于服务端,具体可以包括如下步骤:
步骤201,当接收到客户端发送的弹幕获取请求时,确定所述弹幕获取请求对应的弹幕信息,并将所述弹幕信息发送至所述客户端;
步骤202,在所述弹幕信息的展示过程中,生成所述弹幕信息对应的目标弹幕位置数据,并将所述目标弹幕位置数据发送至所述客户端,以在所述客户端中将所述弹幕信息调整至所述目标弹幕位置数据对应的位置;
步骤203,获取所述客户端中实时展示的视频帧数据;
作为一示例,视频帧数据可以是视频中的单幅影像画面,通过多幅影像画面连续切换可以形成视频。
在展示弹幕信息时,服务端可以确定客户端当前播放的视频,并获取该视频在客户端中实时展示的视频帧数据。
在实际应用中,视频可以是直播视频,也可以是录播视频,当观看的视频为直播视频时,观众用户(即观看直播视频的用户)的客户端可以通过服务器接收主播用户(即主持视频直播的用户)发送的直播视频,在直播过程中,主播用户可以点击相关按键,如点击“开启图像互动玩法”,也可以通过语音输入“开启图像互动玩法”,以开始进行弹幕互动,响应于主播用户操作,主播用户的客户端可以向服务端发送图像弹幕互动请求,在接收到该请求后,服务端可以发送视频帧数据获取请求至观众用户的客户端,获取观众用户的客户端当前展示的视频帧数据。
步骤204,当检测到所述视频帧数据中包括目标图像特征时,确定所述目标图像特征对应的特征位置数据;
作为一示例,目标图像特征可以是主播用户的身体部位的图像;特征位置数据可以是组成目标图像特征的像素点的坐标,或者,也可以是目标图像特征的中心点坐标。
在获取视频帧数据后,服务端可以通过图像识别算法对其进行识别,检测图像中是否包含目标图像特征,若是,可以进一步获取该目标图像特征的特征位置数据;若否则可以对下一帧图像继续进行识别。
例如,当主播用户在书桌前进行直播时,服务端可以对视频帧数据进行识别,当检测到视频帧数据中包含头部、四肢和身体躯干的目标图像特征时,服务端可以确定头部、四肢和身体躯干在图像中特征位置数据。
或者,在检测到视频帧数据中包含头部图像数据时,可以进一步对头部图像数据进行识别,以获取眼、耳、口、鼻的目标图像特征,并确定眼、耳、口、鼻图像的特征位置数据。
步骤205,确定所述弹幕信息对应的实时弹幕位置数据;
作为一示例,实时弹幕位置数据可以是弹幕信息当前在视频播放界面中的坐标。
在获取特征位置数据后,服务端可以获取多个弹幕信息的弹幕时序数据和弹幕位置数据,弹幕时序数据可以是弹幕显示在视频帧图像时,该视频帧图像的时间,例如,一弹幕信息在视频播放至3分22秒时显示,则弹幕信息的弹幕时序数据为3分22。
在确定弹幕时序数据和弹幕位置数据后,服务端可以计算弹幕时序数据与视频帧画面的视频时序数据的差值,并获取差值在预设范围内的弹幕时序数据所对应的弹幕,确定该弹幕信息的弹幕位置数据为实时弹幕位置数据。
步骤206,若所述实时弹幕位置数据与所述特征位置数据相匹配,则生成所述目标图像特征对应的弹幕特效数据,并发送至所述客户端,以在所述客户端中采用所述弹幕特效数据对所述弹幕信息进行特效处理;
作为一示例,弹幕特效数据可以是指示弹幕信息以预设方式显示的特效数据。
在获取实时弹幕位置数据和特征位置数据后,服务端可以判断实时弹幕位置数据与特征位置数据是否匹配,例如判断实时弹幕位置数据所确定的坐标是否落入以特征位置数据为圆心、预设距离为半径的圆形范围内。
当确定两者匹配的时候,服务端可以生成弹幕特效数据,例如指示客户端以预设的气泡图案显示弹幕信息的特效数据,并将该弹幕特效数据发送至客户端。在接收到弹幕特效数据,客户端可以才用该弹幕特效数据对弹幕信息进行特效处理。
或者,弹幕特效数据还可以包括当有预设数量的弹幕信息与特征位置数据相匹配时,以“Combo”标识显示弹幕信息。
步骤207,在对所述弹幕信息进行特效处理后,控制所述客户端取消对所述弹幕信息的显示。
在对弹幕信息进行特效处理后,服务端还可以发送指令至客户端,以在客户端取消对弹幕信息的显示,营造弹幕消失的效果。
为了使本领域技术人员能够更好地理解上述步骤,以下通过一个例子对本申请实施例加以示例性说明,但应当理解的是,本申请实施例并不限于此。
在主播用户进行吃饭直播的过程中,观众用户可以通过客户端接收主播用户摄像头采集的视频画面,并发送弹幕和其他用户进行互动。
在弹幕信息的展示过程中,主播用户可以点击“开启图像互动玩法”的按键,主播用户的客户端响应于用户操作,向服务端发送弹幕互动请求。在接收到该弹幕互动请求后,服务端可以确定与该弹幕互动请求对应的互动效果,并获取客户端当前播放的视频帧数据,其中,互动效果可以为:当弹幕信息的实时位置数据与主播用户嘴部的特征位置数据匹配时,以预设的气泡图案显示弹幕信息、最终取消对弹幕信息的显示。
在接收到视频帧数据,并确定视频帧数据中包括主播用户的嘴部图像特征时,服务端可以确定组成嘴部图像特征时的多个像素点的坐标(即特征位置数据),并确定在该视频帧数据,弹幕信息的实时弹幕位置数据是否与该嘴部坐标相匹配,当匹配时,服务端可以生成弹幕特效数据并发送至客户端,以在客户端通过预设气泡图案的方式显示弹幕信息,并在特效处理后,控制客户端取消对弹幕信息的显示,则观众用户可以在视频播放界面中看到,当弹幕触碰到主播嘴部时,从文字弹幕化作气泡图案,并最终消失。
在本申请实施例中,通过当接收到客户端发送的弹幕获取请求时,确定弹幕获取请求对应的弹幕信息,并将弹幕信息发送至客户端,在弹幕信息的展示过程中,生成弹幕信息对应的目标弹幕位置数据,并将目标弹幕位置数据发送至客户端,以在客户端中将弹幕信息调整至目标弹幕位置数据对应的位置,此后,还可以获取客户端中实时展示的视频帧数据,当检测到视频帧数据中包括目标图像特征时,确定目标图像特征对应的特征位置数据,并确定弹幕信息对应的实时弹幕位置数据;若实时弹幕位置数据与特征位置数据相匹配,则生成目标图像特征对应的弹幕特效数据,并发送至客户端,以在客户端中采用弹幕特效数据对弹幕信息进行特效处理,在对弹幕信息进行特效处理后,控制客户端取消对弹幕信息的显示,实现了结合实时的弹幕位置和直播图像生成弹幕特效,丰富了弹幕的显示方式,提高了观众与主播的互动性。
参照图3,示出了本申请一实施例提供的另一种弹幕处理的方法的步骤流程图,可以应用于客户端,具体可以包括如下步骤:
步骤301,生成弹幕获取请求,并将所述弹幕获取请求发送至服务端;
步骤302,接收所述服务端发送的与所述弹幕获取请求对应的弹幕信息,并展示所述弹幕信息;
步骤303,在所述弹幕信息的展示过程中,接收所述服务端发送的与所述弹幕信息对应的目标弹幕位置数据;
步骤304,将所述弹幕信息调整至所述目标弹幕位置数据对应的位置。
在本申请一实施例中,所述方法还可以包括:
接收所述服务端发送的弹幕特效数据;其中,所述弹幕特效数据为所述服务端获取所述客户端中实时展示的视频帧数据,并检测到所述视频帧数据中包括目标图像特征,确定所述目标图像特征对应的特征位置数据和所述弹幕信息对应的实时弹幕位置数据后,在所述实时弹幕位置数据与所述特征位置数据相匹配时,生成的与所述目标图像特征对应的特效数据;
采用所述弹幕特效数据对所述弹幕信息进行特效处理。
在本申请一实施例中,所述方法还可以包括:
在对所述弹幕信息进行特效处理后,取消对所述弹幕信息的显示。
在本申请一实施例中,在步骤302前,所述方法还可以包括:
生成重力传感数据,并发送至所述服务端;其中,所述重力传感数据为所述服务端根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离,并采用所述偏移方向信息和所述偏移距离后,生成所述弹幕信息对应的目标弹幕位置数据。
在本申请另一实施例中,所述弹幕特效数据包括指示所述弹幕信息以预设方式显示的特效数据,所述预设方式包括以预设气泡图案的方式。
在本申请实施例中,通过生成弹幕获取请求,并将弹幕获取请求发送至服务端,接收服务端发送的与弹幕获取请求对应的弹幕信息,并展示弹幕信息,在弹幕信息的展示过程中,接收服务端发送的与弹幕信息对应的目标弹幕位置数据,并将弹幕信息调整至目标弹幕位置数据对应的位置,实现了弹幕位置的动态调整,避免弹幕在进入视频播放界面后,显示方式过于单一,丰富了弹幕的显示方式。
需要说明的是,对于方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请实施例并不受所描述的动作顺序的限制,因为依据本申请实施例,某些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作并不一定是本申请实施例所必须的。
参照图4,示出了本申请一实施例提供的一种弹幕处理的装置的结构示意图,可以应用于服务端,具体可以包括如下模块:
弹幕信息发送模块401,用于当接收到客户端发送的弹幕获取请求时,确定所述弹幕获取请求对应的弹幕信息,并将所述弹幕信息发送至所述客户端;
弹幕位置数据发送模块402,用于在所述弹幕信息的展示过程中,生成所述弹幕信息对应的目标弹幕位置数据,并将所述目标弹幕位置数据发送至所述客户端,以在所述客户端中将所述弹幕信息调整至所述目标弹幕位置数据对应的位置。
在本申请一实施例中,所述装置还可以包括:
视频获取模块,用于获取所述客户端中实时展示的视频帧数据;
特征位置数据确定模块,用于当检测到所述视频帧数据中包括目标图像特征时,确定所述目标图像特征对应的特征位置数据;
第一实时弹幕位置数据确定模块,用于确定所述弹幕信息对应的实时弹幕位置数据;
弹幕特效数据生成模块,用于若所述实时弹幕位置数据与所述特征位置数据相匹配,则生成所述目标图像特征对应的弹幕特效数据,并发送至所述客户端,以在所述客户端中采用所述弹幕特效数据对所述弹幕信息进行特效处理。
在本申请一实施例中,所述装置还可以包括:
在对所述弹幕信息进行特效处理后,控制所述客户端取消对所述弹幕信息的显示。
在本申请一实施例中,弹幕位置数据发送模块402包括:
重力传感数据接收子模块,用于接收所述客户端发送的重力传感数据;
偏移子模块,用于根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离;
目标弹幕位置数据生成子模块,用于采用所述偏移方向和所述偏移距离,生成所述弹幕信息对应的目标弹幕位置数据。
在本申请一实施例中,所述偏移子模块包括:
三轴数据确定单元,用于确定所述重力传感数据中的三轴数据;
矢量运算单元,用于对所述三轴数据进行矢量运算,获得重力方向和重力数值;
偏移方向确定单元,用于采用所述重力方向,确定所述弹幕信息对应的偏移方向;
偏移距离确定单元,用于采用所述重力数值,确定所述弹幕信息对应的偏移距离。
在本申请一实施例中,所述目标弹幕位置数据生成子模块包括:
第二实时弹幕位置数据确定单元,用于获取所述弹幕信息对应的实时弹幕位置数据;
偏移处理单元,用于采用所述偏移方向和所述偏移距离,对所述实时弹幕位置数据进行偏移处理,得到所述弹幕信息对应的目标弹幕位置数据。
在本申请一实施例中,所述弹幕信息发送模块401包括:
弹幕筛选数据确定子模块,用于确定所述弹幕获取请求对应的弹幕筛选数据;
筛选子模块,用于采用所述弹幕筛选数据,对多个候选弹幕信息进行筛选,得到所述弹幕获取请求对应的弹幕信息。
在本申请另一实施例中,所述弹幕特效数据包括指示所述弹幕信息以预设方式显示的特效数据。
在本申请实施例中,通过在接收到客户端发送的弹幕获取请求时,确定弹幕获取请求对应的弹幕信息,将弹幕信息发送至客户端,并在弹幕信息的展示过程中,生成与弹幕信息对应的目标弹幕位置数据,将目标弹幕位置数据发送至客户端,以在客户端中将弹幕信息调整至目标弹幕位置数据对应的位置,实现了弹幕位置的动态调整,避免弹幕在进入视频播放界面后,显示方式过于单一,丰富了弹幕的显示方式。
参照图5,示出了本申请一实施例提供的另一种弹幕处理的装置的结构示意图,可以应用于客户端,具体可以包括如下模块:
弹幕获取请求生成模块501,用于生成弹幕获取请求,并将所述弹幕获取请求发送至服务端;
弹幕信息接收模块502,用于接收所述服务端发送的与所述弹幕获取请求对应的弹幕信息,并展示所述弹幕信息;
弹幕位置数据接收模块503,用于在所述弹幕信息的展示过程中,接收所述服务端发送的与所述弹幕信息对应的目标弹幕位置数据;
弹幕位置调整模块504,用于将所述弹幕信息调整至所述目标弹幕位置数据对应的位置。
在本申请一实施例中,所述装置还包括:
弹幕特效数据接收模块,用于接收所述服务端发送的弹幕特效数据;其中,所述弹幕特效数据为所述服务端获取所述客户端中实时展示的视频帧数据,并检测到所述视频帧数据中包括目标图像特征,确定所述目标图像特征对应的特征位置数据和所述弹幕信息对应的实时弹幕位置数据后,在所述实时弹幕位置数据与所述特征位置数据相匹配时,生成的与所述目标图像特征对应的特效数据;
特效处理模块,用于采用所述弹幕特效数据对所述弹幕信息进行特效处理。
在本申请另一实施例中,所述装置还包括:
取消显示模块,用于在对所述弹幕信息进行特效处理后,取消对所述弹幕信息的显示。
在本申请另一实施例中,其特征在于,所述装置还包括:
重力传感数据发送模块,用于生成重力传感数据,并发送至所述服务端;其中,所述重力传感数据为所述服务端根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离,并采用所述偏移方向信息和所述偏移距离后,生成的与所述弹幕信息对应的目标弹幕位置数据。
在本申请另一实施例中,所述弹幕特效数据包括指示所述弹幕信息以预设方式显示的特效数据。
在本申请实施例中,通过生成弹幕获取请求,并将弹幕获取请求发送至服务端,接收服务端发送的与弹幕获取请求对应的弹幕信息,并展示弹幕信息,在弹幕信息的展示过程中,接收服务端发送的与弹幕信息对应的目标弹幕位置数据,并将弹幕信息调整至目标弹幕位置数据对应的位置,实现了弹幕位置的动态调整,避免弹幕在进入视频播放界面后,显示方式过于单一,丰富了弹幕的显示方式。
对于装置实施例而言,由于其与方法实施例基本相似,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
本申请一实施例还提供了一种电子设备,可以包括处理器、存储器及存储在存储器上并能够在处理器上运行的计算机程序,计算机程序被处理器执行时实现如上弹幕处理的方法的步骤。
本申请一实施例还提供了一种计算机可读存储介质,计算机可读存储介质上存储计算机程序,计算机程序被处理器执行时实现如上弹幕处理的方法的步骤。
本说明书中的各个实施例均采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似的部分互相参见即可。
本领域内的技术人员应明白,本申请实施例可提供为方法、装置、或计算机程序产品。因此,本申请实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本申请实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请实施例是参照根据本申请实施例的方法、终端设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理终端设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理终端设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理终端设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理终端设备上,使得在计算机或其他可编程终端设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程终端设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本申请实施例的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例做出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本申请实施例范围的所有变更和修改。
最后,还需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者终端设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者终端设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者终端设备中还存在另外的相同要素。
以上对所提供的一种弹幕处理的方法及装置、电子设备、存储介质,进行了详细介绍,本文中应用了具体个例对本申请的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本申请的方法及其核心思想;同时,对于本领域的一般技术人员,依据本申请的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本申请的限制。

Claims (13)

1.一种弹幕处理的方法,其特征在于,应用于视频直播场景的服务端,所述方法包括:
当接收到观众用户客户端发送的弹幕获取请求时,确定所述弹幕获取请求对应的弹幕信息,并将所述弹幕信息发送至所述观众用户客户端;
在所述弹幕信息的展示过程中,生成所述弹幕信息对应的目标弹幕位置数据,并将所述目标弹幕位置数据发送至所述观众用户客户端,以在所述观众用户客户端中将所述弹幕信息调整至所述目标弹幕位置数据对应的位置;
其中,所述生成所述弹幕信息对应的目标弹幕位置数据,包括:
响应于主播用户客户端的重力弹幕互动请求,向观众用户客户端发送互动开启信息;
响应于所述观众用户客户端对所述互动开启信息的确定操作,接收所述观众用户客户端发送的重力传感数据;
根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离;
采用所述偏移方向和所述偏移距离,生成所述弹幕信息对应的目标弹幕位置数据;
其中,所述方法还包括:
响应于所述主播用户客户端的图像弹幕互动请求,获取所述观众用户客户端中实时展示的视频帧数据;所述视频帧数据为所述主播用户客户端上传的直播视频;
当检测到所述视频帧数据中包括目标图像特征时,确定所述目标图像特征对应的特征位置数据;
确定所述弹幕信息对应的实时弹幕位置数据;
若所述实时弹幕位置数据与所述特征位置数据相匹配,则生成所述目标图像特征对应的弹幕特效数据,并发送至所述观众用户客户端,以在所述观众用户客户端中采用所述弹幕特效数据对所述弹幕信息进行特效处理。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
在对所述弹幕信息进行特效处理后,控制所述客户端取消对所述弹幕信息的显示。
3.根据权利要求1所述的方法,其特征在于,所述根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离,包括:
确定所述重力传感数据中的三轴数据;
对所述三轴数据进行矢量运算,获得重力方向和重力数值;
采用所述重力方向,确定所述弹幕信息对应的偏移方向;
采用所述重力数值,确定所述弹幕信息对应的偏移距离。
4.根据权利要求1所述的方法,其特征在于,所述采用所述偏移方向和所述偏移距离,生成所述弹幕信息对应的目标弹幕位置数据,包括:
获取所述弹幕信息对应的实时弹幕位置数据;
采用所述偏移方向和所述偏移距离,对所述实时弹幕位置数据进行偏移处理,得到所述弹幕信息对应的目标弹幕位置数据。
5.根据权利要求1或2所述的方法,其特征在于,所述确定所述弹幕获取请求对应的弹幕信息,包括:
确定所述弹幕获取请求对应的弹幕筛选数据;
采用所述弹幕筛选数据,对多个候选弹幕信息进行筛选,得到所述弹幕获取请求对应的弹幕信息。
6.根据权利要求1或2所述的方法,其特征在于,所述弹幕特效数据包括指示所述弹幕信息以预设方式显示的特效数据。
7.一种弹幕处理的方法,其特征在于,应用于视频直播场景的观众用户客户端,所述方法包括:
生成弹幕获取请求,并将所述弹幕获取请求发送至服务端;
接收所述服务端发送的与所述弹幕获取请求对应的弹幕信息,并展示所述弹幕信息;
在所述弹幕信息的展示过程中,接收所述服务端发送的与所述弹幕信息对应的目标弹幕位置数据;
将所述弹幕信息调整至所述目标弹幕位置数据对应的位置;
其中,在所述接收所述服务端发送的与所述弹幕信息对应的目标弹幕位置数据的步骤前,所述方法还包括:
生成重力传感数据,并发送至所述服务端;其中,所述服务端用于响应于主播用户客户端的重力弹幕互动请求,向观众用户客户端发送互动开启信息;响应于所述观众用户客户端对所述互动开启信息的确定操作,接收所述观众用户客户端发送的重力传感数据,并根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离,并采用所述偏移方向信息和所述偏移距离后,生成的与所述弹幕信息对应的目标弹幕位置数据;
其中,所述方法还包括:
接收所述服务端发送的弹幕特效数据;其中,所述弹幕特效数据为所述服务端响应于所述主播用户客户端的图像弹幕互动请求,获取所述观众用户客户端中实时展示的视频帧数据,并检测到所述视频帧数据中包括目标图像特征,确定所述目标图像特征对应的特征位置数据和所述弹幕信息对应的实时弹幕位置数据后,在所述实时弹幕位置数据与所述特征位置数据相匹配时,生成的与所述目标图像特征对应的特效数据,采用所述弹幕特效数据对所述弹幕信息进行特效处理,所述视频帧数据为所述主播用户客户端上传的直播视频。
8.根据权利要求7所述的方法,其特征在于,所述方法还包括:
在对所述弹幕信息进行特效处理后,取消对所述弹幕信息的显示。
9.根据权利要求7或8所述的方法,其特征在于,所述弹幕特效数据包括指示所述弹幕信息以预设方式显示的特效数据。
10.一种弹幕处理的装置,其特征在于,应用于视频直播场景的服务端,所述装置包括:
弹幕信息发送模块,用于当接收到观众用户客户端发送的弹幕获取请求时,确定所述弹幕获取请求对应的弹幕信息,并将所述弹幕信息发送至所述观众用户客户端;
弹幕位置数据发送模块,用于在所述弹幕信息的展示过程中,生成所述弹幕信息对应的目标弹幕位置数据,并将所述目标弹幕位置数据发送至所述观众用户客户端,以在所述观众用户客户端中将所述弹幕信息调整至所述目标弹幕位置数据对应的位置;
其中,所述弹幕位置数据发送模块包括:
重力传感数据接收子模块,用于响应于主播用户客户端的重力弹幕互动请求,向观众用户客户端发送互动开启信息,响应于所述观众用户客户端对所述互动开启信息的确定操作,接收所述观众用户客户端发送的重力传感数据;
偏移子模块,用于根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离;
目标弹幕位置数据生成子模块,用于采用所述偏移方向和所述偏移距离,生成所述弹幕信息对应的目标弹幕位置数据;
其中,所述装置还可以包括:
视频获取模块,用于响应于所述主播用户客户端的图像弹幕互动请求,获取所述观众用户客户端中实时展示的视频帧数据;所述视频帧数据为所述主播用户客户端上传的直播视频;
特征位置数据确定模块,用于当检测到所述视频帧数据中包括目标图像特征时,确定所述目标图像特征对应的特征位置数据;
第一实时弹幕位置数据确定模块,用于确定所述弹幕信息对应的实时弹幕位置数据;
弹幕特效数据生成模块,用于若所述实时弹幕位置数据与所述特征位置数据相匹配,则生成所述目标图像特征对应的弹幕特效数据,并发送至所述观众用户客户端,以在所述观众用户客户端中采用所述弹幕特效数据对所述弹幕信息进行特效处理。
11.一种弹幕处理的装置,其特征在于,应用于视频直播场景的观众用户客户端,所述装置包括:
弹幕获取请求生成模块,用于生成弹幕获取请求,并将所述弹幕获取请求发送至服务端;
弹幕信息接收模块,用于接收所述服务端发送的与所述弹幕获取请求对应的弹幕信息,并展示所述弹幕信息;
弹幕位置数据接收模块,用于在所述弹幕信息的展示过程中,接收所述服务端发送的与所述弹幕信息对应的目标弹幕位置数据;
弹幕位置调整模块,用于将所述弹幕信息调整至所述目标弹幕位置数据对应的位置;
其中,所述装置还包括:
重力传感数据发送模块,用于生成重力传感数据,并发送至所述服务端;其中,所述服务端用于响应于主播用户客户端的重力弹幕互动请求,向观众用户客户端发送互动开启信息;响应于所述观众用户客户端对所述互动开启信息的确定操作,接收所述观众用户客户端发送的重力传感数据,并根据所述重力传感数据,确定所述弹幕信息对应的偏移方向和偏移距离,并采用所述偏移方向信息和所述偏移距离后,生成的与所述弹幕信息对应的目标弹幕位置数据
其中,所述装置还包括:
弹幕特效数据接收模块,用于接收所述服务端发送的弹幕特效数据;其中,所述弹幕特效数据为所述观众用户服务端响应于所述主播用户客户端的图像弹幕互动请求,获取所述客户端中实时展示的视频帧数据,并检测到所述视频帧数据中包括目标图像特征,确定所述目标图像特征对应的特征位置数据和所述弹幕信息对应的实时弹幕位置数据后,在所述实时弹幕位置数据与所述特征位置数据相匹配时,生成的与所述目标图像特征对应的特效数据,所述视频帧数据为所述主播用户客户端上传的直播视频;
特效处理模块,用于采用所述弹幕特效数据对所述弹幕信息进行特效处理。
12.一种电子设备,其特征在于,包括处理器、存储器及存储在所述存储器上并能够在所述处理器上运行的计算机程序,所述计算机程序被所述处理器执行时实现如权利要求1至9中任一项所述的弹幕处理的方法的步骤。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储计算机程序,所述计算机程序被处理器执行时实现如权利要求1至9中任一项所述的弹幕处理的方法的步骤。
CN201911040458.9A 2019-10-29 2019-10-29 一种弹幕处理的方法及装置、电子设备、存储介质 Active CN110740338B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911040458.9A CN110740338B (zh) 2019-10-29 2019-10-29 一种弹幕处理的方法及装置、电子设备、存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911040458.9A CN110740338B (zh) 2019-10-29 2019-10-29 一种弹幕处理的方法及装置、电子设备、存储介质

Publications (2)

Publication Number Publication Date
CN110740338A CN110740338A (zh) 2020-01-31
CN110740338B true CN110740338B (zh) 2022-07-12

Family

ID=69270245

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911040458.9A Active CN110740338B (zh) 2019-10-29 2019-10-29 一种弹幕处理的方法及装置、电子设备、存储介质

Country Status (1)

Country Link
CN (1) CN110740338B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111368223B (zh) * 2020-02-27 2024-03-08 上海连尚网络科技有限公司 页面展示方法和设备
CN113542846B (zh) * 2020-04-21 2022-12-23 上海哔哩哔哩科技有限公司 Ar弹幕显示方法及装置
CN111796827B (zh) * 2020-06-30 2022-02-18 北京字节跳动网络技术有限公司 一种弹幕的绘制方法、装置、设备和存储介质
CN111796826B (zh) * 2020-06-30 2022-04-22 北京字节跳动网络技术有限公司 一种弹幕的绘制方法、装置、设备和存储介质
CN111796825B (zh) * 2020-06-30 2024-02-09 北京字节跳动网络技术有限公司 一种弹幕的绘制方法、装置、设备和存储介质
CN112866787B (zh) * 2021-04-12 2022-05-17 上海哔哩哔哩科技有限公司 弹幕设置方法、装置及系统
CN113805992A (zh) * 2021-09-01 2021-12-17 北京达佳互联信息技术有限公司 信息展示方法和装置、电子设备及存储介质
CN114531607A (zh) * 2021-12-14 2022-05-24 北京奇艺世纪科技有限公司 弹幕显示方法、装置、设备及存储介质
CN115297355B (zh) * 2022-08-02 2024-01-23 北京奇艺世纪科技有限公司 弹幕显示方法、生成方法、装置、电子设备及存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106303731A (zh) * 2016-08-01 2017-01-04 北京奇虎科技有限公司 弹幕的显示方法及装置
CN106792087A (zh) * 2016-12-14 2017-05-31 上海青声网络科技有限公司 一种弹幕显示的方法及装置
CN109495779A (zh) * 2018-10-15 2019-03-19 咪咕音乐有限公司 一种弹幕调节的方法、装置及计算机可读存储介质

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6566698B2 (ja) * 2015-04-13 2019-08-28 キヤノン株式会社 表示制御装置および表示制御方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106303731A (zh) * 2016-08-01 2017-01-04 北京奇虎科技有限公司 弹幕的显示方法及装置
CN106792087A (zh) * 2016-12-14 2017-05-31 上海青声网络科技有限公司 一种弹幕显示的方法及装置
CN109495779A (zh) * 2018-10-15 2019-03-19 咪咕音乐有限公司 一种弹幕调节的方法、装置及计算机可读存储介质

Also Published As

Publication number Publication date
CN110740338A (zh) 2020-01-31

Similar Documents

Publication Publication Date Title
CN110740338B (zh) 一种弹幕处理的方法及装置、电子设备、存储介质
CN107029429B (zh) 用于实现云游戏系统的时移辅导的系统、方法及可读媒体
CN106331732B (zh) 生成、展现全景内容的方法及装置
CN107003512B (zh) 用于虚拟现实的头戴式显示器中的扫描显示系统
US9814977B2 (en) Supplemental video content on a mobile device
CN107820132B (zh) 直播互动方法、装置及系统
US20170142486A1 (en) Information processing device, display device, information processing method, program, and information processing system
US20180367835A1 (en) Personalized presentation enhancement using augmented reality
CN109416931A (zh) 用于视线跟踪的装置和方法
US20170153866A1 (en) Audiovisual Surround Augmented Reality (ASAR)
CN106507178B (zh) 视频播放方法及装置
CN106464773B (zh) 增强现实的装置及方法
CN110270078B (zh) 足球比赛特效展示系统、方法及计算机装置
US10289193B2 (en) Use of virtual-reality systems to provide an immersive on-demand content experience
CN107635153B (zh) 一种基于影像数据的交互方法及系统
JP2013535889A (ja) 3次元通信システムにおいて補助コンテンツを提供する方法及び装置
US20140298379A1 (en) 3D Mobile and Connected TV Ad Trafficking System
CN105657396A (zh) 一种播放视频的处理方法及装置
CN110730340B (zh) 基于镜头变换的虚拟观众席展示方法、系统及存储介质
WO2020206647A1 (zh) 跟随用户运动控制播放视频内容的方法和装置
JP6807744B2 (ja) 画像表示方法及び装置
US11847715B2 (en) Image processing apparatus, image distribution system, and image processing method
CN107087208B (zh) 一种全景视频播放方法、系统及存储装置
KR101856632B1 (ko) 화자의 위치를 기반으로 한 자막 디스플레이 방법 및 이러한 방법을 수행하는 장치
US20100295968A1 (en) Medium adjusting system and method

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant