CN112765990A - 直播弹幕实时合并方法、装置、计算机设备及存储介质 - Google Patents
直播弹幕实时合并方法、装置、计算机设备及存储介质 Download PDFInfo
- Publication number
- CN112765990A CN112765990A CN202011628506.9A CN202011628506A CN112765990A CN 112765990 A CN112765990 A CN 112765990A CN 202011628506 A CN202011628506 A CN 202011628506A CN 112765990 A CN112765990 A CN 112765990A
- Authority
- CN
- China
- Prior art keywords
- bullet screen
- text
- barrage
- current
- displayed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 62
- 239000013598 vector Substances 0.000 claims description 73
- 238000004590 computer program Methods 0.000 claims description 16
- 230000011218 segmentation Effects 0.000 claims description 12
- 238000004422 calculation algorithm Methods 0.000 claims description 11
- 238000000605 extraction Methods 0.000 claims description 11
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000003064 k means clustering Methods 0.000 claims description 3
- 238000013473 artificial intelligence Methods 0.000 abstract description 2
- 230000008569 process Effects 0.000 description 19
- 238000005096 rolling process Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 6
- 230000008859 change Effects 0.000 description 4
- 238000004891 communication Methods 0.000 description 4
- 238000012545 processing Methods 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/20—Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
- H04N21/21—Server components or server architectures
- H04N21/218—Source of audio or video content, e.g. local disk arrays
- H04N21/2187—Live feed
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Databases & Information Systems (AREA)
- User Interface Of Digital Computer (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明公开了直播弹幕实时合并方法、装置、计算机设备及存储介质,涉及人工智能,包括获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本集;获取各当前相似文本数量并与相对应当前显示弹幕文本的当前合并数量求和,得到各更新后合并数量;若有当前显示弹幕文本的更新后合并数量超出重要弹幕文本数量阈值,获取对应文本组成重要弹幕文本集;将各条重要弹幕文本的屏幕显示高度调整至第一屏幕高度,并将各条重要弹幕文本的弹幕移动速度调整至第一弹幕移动速度。实现了将当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本合并显示,还能调节重要弹幕的字体大小和速度,使界面上弹幕文本更加精简且避免遮挡重要画面。
Description
技术领域
本发明涉及人工智能的语音语义技术领域,尤其涉及一种直播弹幕实时合并方法、装置、计算机设备及存储介质。
背景技术
视频直播随着线上教学的普及越来越多的被课程培训所采用,相对于录播视频旨在帮助教学双方完全打破时间限制,直播课程的必要性在于它可以提供条件给学生和老师进行实时互动。
弹幕便直播场景下诞生的一种用于观看者和直播者进行现场沟通的重要手段。通常情况况下,讲师在直播过程中会关注弹幕留言,或在某些知识点讲解完毕时邀请学生用弹幕的方式提问以便讲师可以及时对疑难点进行解答。弹幕留言区别于视频下方评论的是弹幕是对课程内容的即时反馈,留言发布门更槛低,相较于下方评论发布量也更大。
弹幕作为即时的学生反馈虽然是一种非常有价值的信息,但是在教学这种特殊场景下,它的以上固有特点也会给师生实际使用带来一些不便之处。最显著的问题就是当发言人数多也就是弹幕量大的时候,会造成画面遮挡。
发明内容
本发明实施例提供了一种直播弹幕实时合并方法、装置、计算机设备及存储介质,旨在解决现有技术中直播视频的直播弹幕在单位时间内弹幕量大的时候,会造成画面遮挡的问题。
第一方面,本发明实施例提供了一种直播弹幕实时合并方法,其包括:
若当前系统时间与上一弹幕采集时间之间的时间间隔等于预设的视频弹幕采集周期,获取当前待显示弹幕文本集;
获取当前显示弹幕文本集,及所述当前显示弹幕文本集中每一个当前显示弹幕文本对应的当前合并数量;
获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,组成相似弹幕文本集;
统计获取相似弹幕文本集中每一相似弹幕文本对应的当前相似文本数量,将每一相似弹幕文本对应的当前相似文本数量与相对应当前显示弹幕文本的当前合并数量求和,得到各当前显示弹幕文本的更新后合并数量并发送至用户端进行显示;
判断是否有当前显示弹幕文本的更新后合并数量超出预先设置的重要弹幕文本数量阈值;
若有当前显示弹幕文本的更新后合并数量超出所述重要弹幕文本数量阈值,获取对应的当前显示弹幕文本组成重要弹幕文本集;其中,所述重要弹幕文本集中包括若干条重要弹幕文本;以及
将所述重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度,并将所述重要弹幕文本集中各条重要弹幕文本的弹幕移动速度调整至预设的第一弹幕移动速度。
第二方面,本发明实施例提供了一种直播弹幕实时合并装置,其包括:
第一弹幕文本集获取单元,用于若当前系统时间与上一弹幕采集时间之间的时间间隔等于预设的视频弹幕采集周期,获取当前待显示弹幕文本集;
第二弹幕文本集获取单元,用于获取当前显示弹幕文本集,及所述当前显示弹幕文本集中每一个当前显示弹幕文本对应的当前合并数量;
相似弹幕文本集获取单元,用于获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,组成相似弹幕文本集;
弹幕合并数量更新单元,用于统计获取相似弹幕文本集中每一相似弹幕文本对应的当前相似文本数量,将每一相似弹幕文本对应的当前相似文本数量与相对应当前显示弹幕文本的当前合并数量求和,得到各当前显示弹幕文本的更新后合并数量并发送至用户端进行显示;
合并数量判断单元,用于判断是否有当前显示弹幕文本的更新后合并数量超出预先设置的重要弹幕文本数量阈值;
重要弹幕文本集获取单元,用于若有当前显示弹幕文本的更新后合并数量超出所述重要弹幕文本数量阈值,获取对应的当前显示弹幕文本组成重要弹幕文本集;其中,所述重要弹幕文本集中包括若干条重要弹幕文本;以及
第一弹幕调整单元,用于将所述重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度,并将所述重要弹幕文本集中各条重要弹幕文本的弹幕移动速度调整至预设的第一弹幕移动速度。
第三方面,本发明实施例又提供了一种计算机设备,其包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的直播弹幕实时合并方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其中所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行上述第一方面所述的直播弹幕实时合并方法。
本发明实施例提供了一种直播弹幕实时合并方法、装置、计算机设备及存储介质,包括获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,组成相似弹幕文本集;统计获取相似弹幕文本集中每一相似弹幕文本对应的当前相似文本数量,将每一相似弹幕文本对应的当前相似文本数量与相对应当前显示弹幕文本的当前合并数量求和,得到各当前显示弹幕文本的更新后合并数量并发送至用户端进行显示;若有当前显示弹幕文本的更新后合并数量超出重要弹幕文本数量阈值,获取对应的当前显示弹幕文本组成重要弹幕文本集;将重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度,并将重要弹幕文本集中各条重要弹幕文本的弹幕移动速度调整至预设的第一弹幕移动速度。实现了将当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本合并显示,还能调节重要弹幕的字体大小和滚动速度,使得界面上弹幕文本更加精简且避免遮挡重要画面。
附图说明
为了更清楚地说明本发明实施例技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的直播弹幕实时合并方法的应用场景示意图;
图2为本发明实施例提供的直播弹幕实时合并方法的流程示意图;
图3为本发明实施例提供的直播弹幕实时合并装置的示意性框图;
图4为本发明实施例提供的计算机设备的示意性框图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
应当理解,当在本说明书和所附权利要求书中使用时,术语“包括”和“包含”指示所描述特征、整体、步骤、操作、元素和/或组件的存在,但并不排除一个或多个其它特征、整体、步骤、操作、元素、组件和/或其集合的存在或添加。
还应当理解,在此本发明说明书中所使用的术语仅仅是出于描述特定实施例的目的而并不意在限制本发明。如在本发明说明书和所附权利要求书中所使用的那样,除非上下文清楚地指明其它情况,否则单数形式的“一”、“一个”及“该”意在包括复数形式。
还应当进一步理解,在本发明说明书和所附权利要求书中使用的术语“和/或”是指相关联列出的项中的一个或多个的任何组合以及所有可能组合,并且包括这些组合。
请参阅图1和图2,图1为本发明实施例提供的直播弹幕实时合并方法的应用场景示意图;图2为本发明实施例提供的直播弹幕实时合并方法的流程示意图,该直播弹幕实时合并方法应用于服务器中,该方法通过安装于服务器中的应用软件进行执行。
如图2所示,该方法包括步骤S101~S107。
S101、若当前系统时间与上一弹幕采集时间之间的时间间隔等于预设的视频弹幕采集周期,获取当前待显示弹幕文本集。
在本实施例中,是在视频直播授课的场景下且在服务器的角度描述技术方案。视频主播的直播视频先被该视频主播所使用的第一类型智能终端采集后上传至服务器,而其他用户在观看该直播视频时发送的弹幕文本是由其他用户所使用的第二类型智能终端编辑后发送至服务器。直播视频和弹幕文本进行融合处理后发送至第一类型智能终端和第二类型智能终端进行显示。服务器中由于接收了大量的第二类型智能终端发送的弹幕文本,故可以在服务器中设置一个弹幕文本池,用于存储第二类型智能终端发送的弹幕文本。
更具体的,在弹幕文本池可以设置3个存储区域,一是存储当前显示弹幕文本集的已入画弹幕表,二是存储当前待显示弹幕文本集的临时入画弹幕表,三是存储未待显示弹幕文本集的未入画弹幕表。
其中,第二类型智能终端发送的弹幕文本先是存储于未入画弹幕表,然后服务器中每间隔视频弹幕采集周期(例如将视频弹幕采集周期设置为2s)从未入画弹幕表取出当前的未入画弹幕表中所有弹幕文本并存储在临时入画弹幕表中的第一临时表区域。此时,在第一临时表区域中存储的所有弹幕文本记为当前待显示弹幕文本集。
S102、获取当前显示弹幕文本集,及所述当前显示弹幕文本集中每一个当前显示弹幕文本对应的当前合并数量。
在本实施例中,由于已入画弹幕表中的所有弹幕文本(已入画弹幕表中的所有弹幕文本组成了当前显示弹幕文本集)是此时在直播视频的界面上与直播视频叠加在一起同时显示的,而且当前显示弹幕文本集中的每一当前显示弹幕文本至少包括以下属性:
A1)弹幕类代表文本,其获取过程可参考后续弹幕文本聚类的过程,聚类后得到聚类结果中的每一聚类簇可以对应一个弹幕分类,同一弹幕分类对应相同或相近的语义,该同一弹幕分类对应用一个统一文本来表示则将这一统一文本记为弹幕类代表文本,例如‘没听懂’、‘不明白’、‘不懂’这3条弹幕被聚类成1类了,就统一用‘不明白’代表这一类(也即‘不明白’是一个弹幕类代表文本);
A2)类总计数,其获取过程可参考后续弹幕文本聚类的过程,当前显示弹幕文本集通过聚类后,得到聚类结果中的每一聚类簇可以对应一个弹幕分类,每一聚类簇都可以对应统计出该聚类簇中所包括弹幕文本的总数,从而作为这一类弹幕的类总计数;
A3)类中心坐标,其表示当前显示弹幕文本集中各弹幕类代表文本对应的文本在直播视频的界面上的显示区域对应的中心坐标,由于各弹幕类代表文本对应的文本在直播视频的界面上是移动的,故各弹幕类代表文本对应的类中心坐标是一个实时变化的值;
A4)滚动速度,其表示当前显示弹幕文本集中对应的各个弹幕类代表文本进入直播视频的界面后的移动速度(例如弹幕文本从进入直播视频的界面到完全离开直播视频的时间是t,且已知直播视频的界面宽度是w,则弹幕文本的滚动速度为w/t);其中,滚动速度默认为正常速度(如上述举例的w/t),若弹幕文本的类总计数增加,则按类总计数增大趋势的阶梯式减小,例如可以将弹幕文本的滚动速度通过下式进行计算弹幕文本的滚动速度:
vi滚动=w/t-v0*(worditotal-word0)/word0;
其中,vi滚动表示第i个弹幕类代表文本的实际滚动速度,w/t表示标准滚动速度,worditotal表示第i个弹幕类代表文本的类总计数,word0表示预设的标准类总计数,v0表示预设的调节滚动速度;
A5)字体大小,其表示当前显示弹幕文本集中对应的各个弹幕类代表文本进入直播视频的界面后的字体显示大小,弹幕类代表文本的字体大小默认为正常大小(如小四号字体),按计数阶梯式增大,也是可以参考滚动速度的调节方式,只是弹幕类代表文本的类总计数增加后对应的字体越大;
A6)更新时间,其表示当前显示弹幕文本集中各个弹幕类代表文本上一次调整类总计数的时间;
A7)当前位置,其表示当前显示弹幕文本集中各个弹幕类代表文本当前实时界面位置;
A8)出画时间,其表示当前显示弹幕文本集中各个弹幕类代表文本基于入画时间和滚动速度计算出来的出画时间,若有弹幕类代表文本的滚动速度是变化的则其对应的出画时间也是动态变化的;
A9)类内所有弹幕向量值序列,其表示当前显示弹幕文本集中弹幕类代表文本对应的词嵌入向量。
由于已入画弹幕表中的所有弹幕文本可能是在更新时间对应的时间点完成过一次类总计数、滚动速度、字体大小、出画时间的调整,若此时当前时间点与更新时间之间的间隔等于所述视频弹幕采集周期,之后可以从当前待显示弹幕文本集中挑选出与当前显示弹幕文本集之间的相似弹幕文本,从而更新相应的弹幕类代表文本对应的类总计数、滚动速度、字体大小、出画时间。
S103、获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,组成相似弹幕文本集。
在本实施例中,获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,是为了将一些还未显示的弹幕文本且在当前显示弹幕文本集中有相似文本的弹幕文本进行统计计数后,在对应的当前显示弹幕文本上增加对应的类总计数并从当前待显示弹幕文本集中删除,不仅避免了界面上重复的显示相近似文本,而且将相近似的弹幕文本统一用一个弹幕类代表文本表示的方式有效统一弹幕表述。
在一实施例中,步骤S103包括:
将所述当前待显示弹幕文本集中每一个当前待显示弹幕文本依次进行分词、关键词提取和词向量转换,得到与每一个当前待显示弹幕文本对应的词嵌入向量;
将所述当前待显示弹幕文本集根据各当前待显示弹幕文本对应的词嵌入向量进行聚类,得到聚类结果;
获取所述聚类结果中每一聚类簇对应的聚类簇中心向量与每一个当前显示弹幕文本对应的词嵌入向量之间的欧式距离,作为每一聚类簇对应的类输出代表文本与各当前显示弹幕文本之间的相似度;
判断是否有聚类簇对应的聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离低于预先设置的欧氏距离阈值;
若有聚类簇对应的聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离低于所述欧氏距离阈值,获取对应的聚类簇中心向量所相应的聚类簇作为目标聚类簇,由目标聚类簇组成相似弹幕文本集。
在本实施例中,为了获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,可以将当前待显示弹幕文本集中各当前待显示弹幕文本均转换为词嵌入向量。
这样即可根据各当前待显示弹幕文本对应的词嵌入向量进行聚类处理。具体实施时,可以将所述当前待显示弹幕文本集根据各当前待显示弹幕文本对应的词嵌入向量通过K-means算法进行聚类,得到聚类结果。
例如可以先通过N-gram模型(即多元模型)进行分词,然后对利用TF-IDF算法(即词频-逆文本频率指数算法)进行关键词提取,最后将各提取的关键词通过word2vec技术向量化后得到一个当前待显示弹幕文本对应的词嵌入向量。之后采用K-means聚类算法,将当前待显示弹幕文本集分为几个语义互不相同的类,提取每个类中计数最高的文本作为类输出代表文本;合并同一类内所有弹幕条数作为这一类弹幕的总计数。同时,保留K-means模型输出的每一类的类中心坐标。
当已知了每一聚类簇对应的聚类簇中心向量,即可计算各聚类簇中心向量与每一个当前显示弹幕文本对应的词嵌入向量(当前显示弹幕文本集中各当前显示弹幕文本的词嵌入向量是已知的)之间的欧氏距离,以作为各聚类簇对应的类输出代表文本与当前显示弹幕文本之间的相似度。聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离越小,表示两者越近似,故可以预先设置一个欧氏距离阈值。若有聚类簇对应的聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离低于所述欧氏距离阈值,获取对应的聚类簇中心向量所相应的聚类簇作为目标聚类簇,由目标聚类簇组成相似弹幕文本集。通过上述方式,快速且准确的从当前待显示弹幕文本集筛选出了可以与当前显示弹幕文本合并显示的近似文本。
S104、统计获取相似弹幕文本集中每一相似弹幕文本对应的当前相似文本数量,将每一相似弹幕文本对应的当前相似文本数量与相对应当前显示弹幕文本的当前合并数量求和,得到各当前显示弹幕文本的更新后合并数量并发送至用户端进行显示。
在本实施例中,当获取了相似弹幕文本集后,还可统计获取其中各相似弹幕文本对应的当前相似文本数量。例如,当前显示弹幕文本集中包括5条当前显示弹幕文本,分别为:很精彩(1087),不懂(2341),明白了(1111),A是什么含义(3333),再讲一次B知识点(5555),其中括号里的数字表示该当前显示弹幕文本的当前合并数量。而相似弹幕文本集中包括2条相似弹幕文本,分别为很精彩(1234),明白了(555),其中括号里的数字表示该相似弹幕文本的当前相似文本数量。可见,当前显示弹幕文本集中只有“很精彩”和“明白了”这两个弹幕的当前合并数量会发生更新,另外3个当前显示弹幕文本集的当前合并数量保持不变。这样各当前显示弹幕文本的更新后合并数量如下:很精彩(2321),不懂(2341),明白了(1666),A是什么含义(3333),再讲一次B知识点(5555)。
通过上述相似文本合并统计显示的方式,界面上不会显示大量相同或相近的弹幕文本,有效避免了直播界面被遮挡。
在一实施例中,步骤S104之后还包括:
将所述相似弹幕文本集中各相似弹幕文本对应的聚类簇从聚类结果中删除,得到更新后当前待显示弹幕文本集。
在本实施例中,由于预先从当前待显示弹幕文本集中筛选出了可提前与当前显示弹幕文本合并的一些弹幕文本,故需要将这些已经显示过的当前待显示弹幕文本从当前待显示弹幕文本集中及时删除,得到更新后当前待显示弹幕文本集。之后若当前显示弹幕文本集中有当前显示弹幕文本已完成显示从界面中消失后,更新后当前待显示弹幕文本集中的更新后当前待显示弹幕文本即可进入界面进行显示。
S105、判断是否有当前显示弹幕文本的更新后合并数量超出预先设置的重要弹幕文本数量阈值。
在本实施例中,之所以进行上述判断是为了进行重要弹幕的筛选,之后可以对这些重要弹幕进行显示位置、滚动速度、字体大小等的调节。故可以预先设置一个重要弹幕文本数量阈值(例如设置重要弹幕文本数量阈值为3000),之后将当前显示弹幕文本的更新后合并数量与重要弹幕文本数量阈值相比较,即可快速筛选出重要弹幕文本。
S106、若有当前显示弹幕文本的更新后合并数量超出所述重要弹幕文本数量阈值,获取对应的当前显示弹幕文本组成重要弹幕文本集;其中,所述重要弹幕文本集中包括若干条重要弹幕文本。
在本实施例中,若有当前显示弹幕文本的更新后合并数量超出所述重要弹幕文本数量阈值,表示当前显示弹幕文本中有重要弹幕,如上述实例中的A是什么含义(3333),再讲一次B知识点(5555),此时这两条当前显示弹幕文本组成重要弹幕文本集。
具体实施时,除了挑选重要弹幕文本,还可以挑选一些疑问句式的弹幕文本组成问题集。即在步骤S102之后还包括:
获取当前待显示弹幕文本集中句式种类为疑问句式种类的当前显示弹幕文本,组成问题集;其中,所述问题集中包括若干条当前显示弹幕文本。
在本实施例中,可以通过句法分析工具LTP分析各当前待显示弹幕文本的句式种类,筛选出其中为疑问句式种类的当前显示弹幕文本,组成问题集。由于疑问句式的弹幕文本一般是用户提问,故为了更直观的让视频主播看到这些提问,也可以参考对重要弹幕进行显示位置、滚动速度、字体大小等调节的方式,对问题集中的各当前显示弹幕文本也进行显示位置、滚动速度、字体大小等调节。
S107、将所述重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度,并将所述重要弹幕文本集中各条重要弹幕文本的弹幕移动速度调整至预设的第一弹幕移动速度。
在本实施例中,为了更直观的提示视频主播,可以对这两条重要弹幕文本进行显示位置、滚动速度、字体大小等的调节,例如将显示位置调整到重要弹幕文本的指定显示区域(例如界面中靠近最下方的一个预先划分的第一横向矩形区域),并将重要弹幕文本的字体大小相对于之前更大号字体进行显示,还将重要弹幕文本的滚动速度相对于之前慢而进行移动。
在一实施例中,步骤S107之后还包括:
将所述问题集中各条当前显示弹幕文本的屏幕显示高度调整至预设的第二屏幕高度,并将所述问题集中各条当前显示弹幕文本的弹幕移动速度调整至预设的第而弹幕移动速度。
在本实施例中,同样的,为了更直观的提示视频主播,可以对所述问题集中各条当前显示弹幕文本进行显示位置、滚动速度、字体大小等的调节,例如将显示位置调整到句式种类为疑问句式种类的当前显示弹幕文本的指定显示区域(例如界面中靠近第一横向矩形区域且位于第一横向矩形区域上方的第二横向矩形区域),并将问题集中各条当前显示弹幕文本的字体大小相对于之前更大号字体进行显示,还将问题集中各条当前显示弹幕文本的滚动速度相对于之前慢而进行移动。
具体实施时,将重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度的过程中,可以是一个渐变的过程,例如有一个逐步减小各条重要弹幕文本的屏幕显示高度,直至下沉至第一横向矩形区域,这种渐变过程也能直观提示视频主播查看重要弹幕文本。
该方法实现了将当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本合并显示,还能调节重要弹幕的字体大小和滚动速度,使得界面上弹幕文本更加精简且避免遮挡重要画面。
本发明实施例还提供一种直播弹幕实时合并装置,该直播弹幕实时合并装置用于执行前述直播弹幕实时合并方法的任一实施例。具体地,请参阅图3,图3是本发明实施例提供的直播弹幕实时合并装置的示意性框图。该直播弹幕实时合并装置100可以配置于服务器中。
如图3所示,直播弹幕实时合并装置100包括:第一弹幕文本集获取单元101、第二弹幕文本集获取单元102、相似弹幕文本集获取单元103、弹幕合并数量更新单元104、合并数量判断单元105、重要弹幕文本集获取单元106、第一弹幕调整单元107。
第一弹幕文本集获取单元101,用于若当前系统时间与上一弹幕采集时间之间的时间间隔等于预设的视频弹幕采集周期,获取当前待显示弹幕文本集。
在本实施例中,是在视频直播授课的场景下且在服务器的角度描述技术方案。视频主播的直播视频先被该视频主播所使用的第一类型智能终端采集后上传至服务器,而其他用户在观看该直播视频时发送的弹幕文本是由其他用户所使用的第二类型智能终端编辑后发送至服务器。直播视频和弹幕文本进行融合处理后发送至第一类型智能终端和第二类型智能终端进行显示。服务器中由于接收了大量的第二类型智能终端发送的弹幕文本,故可以在服务器中设置一个弹幕文本池,用于存储第二类型智能终端发送的弹幕文本。
更具体的,在弹幕文本池可以设置3个存储区域,一是存储当前显示弹幕文本集的已入画弹幕表,二是存储当前待显示弹幕文本集的临时入画弹幕表,三是存储未待显示弹幕文本集的未入画弹幕表。
其中,第二类型智能终端发送的弹幕文本先是存储于未入画弹幕表,然后服务器中每间隔视频弹幕采集周期(例如将视频弹幕采集周期设置为2s)从未入画弹幕表取出当前的未入画弹幕表中所有弹幕文本并存储在临时入画弹幕表中的第一临时表区域。此时,在第一临时表区域中存储的所有弹幕文本记为当前待显示弹幕文本集。
第二弹幕文本集获取单元102,用于获取当前显示弹幕文本集,及所述当前显示弹幕文本集中每一个当前显示弹幕文本对应的当前合并数量。
在本实施例中,由于已入画弹幕表中的所有弹幕文本(已入画弹幕表中的所有弹幕文本组成了当前显示弹幕文本集)是此时在直播视频的界面上与直播视频叠加在一起同时显示的,而且当前显示弹幕文本集中的每一当前显示弹幕文本至少包括以下属性:
A1)弹幕类代表文本,其获取过程可参考后续弹幕文本聚类的过程,聚类后得到聚类结果中的每一聚类簇可以对应一个弹幕分类,同一弹幕分类对应相同或相近的语义,该同一弹幕分类对应用一个统一文本来表示则将这一统一文本记为弹幕类代表文本,例如‘没听懂’、‘不明白’、‘不懂’这3条弹幕被聚类成1类了,就统一用‘不明白’代表这一类(也即‘不明白’是一个弹幕类代表文本);
A2)类总计数,其获取过程可参考后续弹幕文本聚类的过程,当前显示弹幕文本集通过聚类后,得到聚类结果中的每一聚类簇可以对应一个弹幕分类,每一聚类簇都可以对应统计出该聚类簇中所包括弹幕文本的总数,从而作为这一类弹幕的类总计数;
A3)类中心坐标,其表示当前显示弹幕文本集中各弹幕类代表文本对应的文本在直播视频的界面上的显示区域对应的中心坐标,由于各弹幕类代表文本对应的文本在直播视频的界面上是移动的,故各弹幕类代表文本对应的类中心坐标是一个实时变化的值;
A4)滚动速度,其表示当前显示弹幕文本集中对应的各个弹幕类代表文本进入直播视频的界面后的移动速度(例如弹幕文本从进入直播视频的界面到完全离开直播视频的时间是t,且已知直播视频的界面宽度是w,则弹幕文本的滚动速度为w/t);其中,滚动速度默认为正常速度(如上述举例的w/t),若弹幕文本的类总计数增加,则按类总计数增大趋势的阶梯式减小,例如可以将弹幕文本的滚动速度通过下式进行计算弹幕文本的滚动速度:
vi滚动=w/t-v0*(worditotal-word0)/word0;
其中,vi滚动表示第i个弹幕类代表文本的实际滚动速度,w/t表示标准滚动速度,worditotal表示第i个弹幕类代表文本的类总计数,word0表示预设的标准类总计数,v0表示预设的调节滚动速度;
A5)字体大小,其表示当前显示弹幕文本集中对应的各个弹幕类代表文本进入直播视频的界面后的字体显示大小,弹幕类代表文本的字体大小默认为正常大小(如小四号字体),按计数阶梯式增大,也是可以参考滚动速度的调节方式,只是弹幕类代表文本的类总计数增加后对应的字体越大;
A6)更新时间,其表示当前显示弹幕文本集中各个弹幕类代表文本上一次调整类总计数的时间;
A7)当前位置,其表示当前显示弹幕文本集中各个弹幕类代表文本当前实时界面位置;
A8)出画时间,其表示当前显示弹幕文本集中各个弹幕类代表文本基于入画时间和滚动速度计算出来的出画时间,若有弹幕类代表文本的滚动速度是变化的则其对应的出画时间也是动态变化的;
A9)类内所有弹幕向量值序列,其表示当前显示弹幕文本集中弹幕类代表文本对应的词嵌入向量。
由于已入画弹幕表中的所有弹幕文本可能是在更新时间对应的时间点完成过一次类总计数、滚动速度、字体大小、出画时间的调整,若此时当前时间点与更新时间之间的间隔等于所述视频弹幕采集周期,之后可以从当前待显示弹幕文本集中挑选出与当前显示弹幕文本集之间的相似弹幕文本,从而更新相应的弹幕类代表文本对应的类总计数、滚动速度、字体大小、出画时间。
相似弹幕文本集获取单元103,用于获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,组成相似弹幕文本集。
在本实施例中,获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,是为了将一些还未显示的弹幕文本且在当前显示弹幕文本集中有相似文本的弹幕文本进行统计计数后,在对应的当前显示弹幕文本上增加对应的类总计数并从当前待显示弹幕文本集中删除,不仅避免了界面上重复的显示相近似文本,而且将相近似的弹幕文本统一用一个弹幕类代表文本表示的方式有效统一弹幕表述。
在一实施例中,相似弹幕文本集获取单元103包括:
词嵌入向量获取单元,用于将所述当前待显示弹幕文本集中每一个当前待显示弹幕文本依次进行分词、关键词提取和词向量转换,得到与每一个当前待显示弹幕文本对应的词嵌入向量;
聚类单元,用于将所述当前待显示弹幕文本集根据各当前待显示弹幕文本对应的词嵌入向量进行聚类,得到聚类结果;
相似度计算单元,用于获取所述聚类结果中每一聚类簇对应的聚类簇中心向量与每一个当前显示弹幕文本对应的词嵌入向量之间的欧式距离,作为每一聚类簇对应的类输出代表文本与各当前显示弹幕文本之间的相似度;
相似度判断单元,用于判断是否有聚类簇对应的聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离低于预先设置的欧氏距离阈值;
目标聚类簇获取单元,用于若有聚类簇对应的聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离低于所述欧氏距离阈值,获取对应的聚类簇中心向量所相应的聚类簇作为目标聚类簇,由目标聚类簇组成相似弹幕文本集。
在本实施例中,为了获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,可以将当前待显示弹幕文本集中各当前待显示弹幕文本均转换为词嵌入向量。
这样即可根据各当前待显示弹幕文本对应的词嵌入向量进行聚类处理。具体实施时,可以将所述当前待显示弹幕文本集根据各当前待显示弹幕文本对应的词嵌入向量通过K-means算法进行聚类,得到聚类结果。
在一实施例中,词嵌入向量获取单元包括:
分词单元,用于通过N-gram模型对当前待显示弹幕文本进行分词,得到分词结果;
关键词抽取单元,用于将分词结果通过词频-逆文本频率指数算法进行关键词提取,得到关键词抽取结果;
向量转换单元,用于将关键词抽取结果通过word2vec模型向量化,得到与当前待显示弹幕文本对应的词嵌入向量。
例如可以先通过N-gram模型(即多元模型)进行分词,然后对利用TF-IDF算法(即词频-逆文本频率指数算法)进行关键词提取,最后将各提取的关键词通过word2vec技术向量化后得到一个当前待显示弹幕文本对应的词嵌入向量。之后采用K-means聚类算法,将当前待显示弹幕文本集分为几个语义互不相同的类,提取每个类中计数最高的文本作为类输出代表文本;合并同一类内所有弹幕条数作为这一类弹幕的总计数。同时,保留K-means模型输出的每一类的类中心坐标。
当已知了每一聚类簇对应的聚类簇中心向量,即可计算各聚类簇中心向量与每一个当前显示弹幕文本对应的词嵌入向量(当前显示弹幕文本集中各当前显示弹幕文本的词嵌入向量是已知的)之间的欧氏距离,以作为各聚类簇对应的类输出代表文本与当前显示弹幕文本之间的相似度。聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离越小,表示两者越近似,故可以预先设置一个欧氏距离阈值。若有聚类簇对应的聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离低于所述欧氏距离阈值,获取对应的聚类簇中心向量所相应的聚类簇作为目标聚类簇,由目标聚类簇组成相似弹幕文本集。通过上述方式,快速且准确的从当前待显示弹幕文本集筛选出了可以与当前显示弹幕文本合并显示的近似文本。
弹幕合并数量更新单元104,用于统计获取相似弹幕文本集中每一相似弹幕文本对应的当前相似文本数量,将每一相似弹幕文本对应的当前相似文本数量与相对应当前显示弹幕文本的当前合并数量求和,得到各当前显示弹幕文本的更新后合并数量并发送至用户端进行显示。
在本实施例中,当获取了相似弹幕文本集后,还可统计获取其中各相似弹幕文本对应的当前相似文本数量。例如,当前显示弹幕文本集中包括5条当前显示弹幕文本,分别为:很精彩(1087),不懂(2341),明白了(1111),A是什么含义(3333),再讲一次B知识点(5555),其中括号里的数字表示该当前显示弹幕文本的当前合并数量。而相似弹幕文本集中包括2条相似弹幕文本,分别为很精彩(1234),明白了(555),其中括号里的数字表示该相似弹幕文本的当前相似文本数量。可见,当前显示弹幕文本集中只有“很精彩”和“明白了”这两个弹幕的当前合并数量会发生更新,另外3个当前显示弹幕文本集的当前合并数量保持不变。这样各当前显示弹幕文本的更新后合并数量如下:很精彩(2321),不懂(2341),明白了(1666),A是什么含义(3333),再讲一次B知识点(5555)。
通过上述相似文本合并统计显示的方式,界面上不会显示大量相同或相近的弹幕文本,有效避免了直播界面被遮挡。
在一实施例中,直播弹幕实时合并装置100还包括:
聚类结果更新单元,用于将所述相似弹幕文本集中各相似弹幕文本对应的聚类簇从聚类结果中删除,得到更新后当前待显示弹幕文本集。
在本实施例中,由于预先从当前待显示弹幕文本集中筛选出了可提前与当前显示弹幕文本合并的一些弹幕文本,故需要将这些已经显示过的当前待显示弹幕文本从当前待显示弹幕文本集中及时删除,得到更新后当前待显示弹幕文本集。之后若当前显示弹幕文本集中有当前显示弹幕文本已完成显示从界面中消失后,更新后当前待显示弹幕文本集中的更新后当前待显示弹幕文本即可进入界面进行显示。
合并数量判断单元105,用于判断是否有当前显示弹幕文本的更新后合并数量超出预先设置的重要弹幕文本数量阈值。
在本实施例中,之所以进行上述判断是为了进行重要弹幕的筛选,之后可以对这些重要弹幕进行显示位置、滚动速度、字体大小等的调节。故可以预先设置一个重要弹幕文本数量阈值(例如设置重要弹幕文本数量阈值为3000),之后将当前显示弹幕文本的更新后合并数量与重要弹幕文本数量阈值相比较,即可快速筛选出重要弹幕文本。
重要弹幕文本集获取单元106,用于若有当前显示弹幕文本的更新后合并数量超出所述重要弹幕文本数量阈值,获取对应的当前显示弹幕文本组成重要弹幕文本集;其中,所述重要弹幕文本集中包括若干条重要弹幕文本。
在本实施例中,若有当前显示弹幕文本的更新后合并数量超出所述重要弹幕文本数量阈值,表示当前显示弹幕文本中有重要弹幕,如上述实例中的A是什么含义(3333),再讲一次B知识点(5555),此时这两条当前显示弹幕文本组成重要弹幕文本集。
具体实施时,除了挑选重要弹幕文本,还可以挑选一些疑问句式的弹幕文本组成问题集。即直播弹幕实时合并装置100还包括:
问题集获取单元,用于获取当前待显示弹幕文本集中句式种类为疑问句式种类的当前显示弹幕文本,组成问题集;其中,所述问题集中包括若干条当前显示弹幕文本。
在本实施例中,可以通过句法分析工具LTP分析各当前待显示弹幕文本的句式种类,筛选出其中为疑问句式种类的当前显示弹幕文本,组成问题集。由于疑问句式的弹幕文本一般是用户提问,故为了更直观的让视频主播看到这些提问,也可以参考对重要弹幕进行显示位置、滚动速度、字体大小等调节的方式,对问题集中的各当前显示弹幕文本也进行显示位置、滚动速度、字体大小等调节。
第一弹幕调整单元107,用于将所述重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度,并将所述重要弹幕文本集中各条重要弹幕文本的弹幕移动速度调整至预设的第一弹幕移动速度。
在本实施例中,为了更直观的提示视频主播,可以对这两条重要弹幕文本进行显示位置、滚动速度、字体大小等的调节,例如将显示位置调整到重要弹幕文本的指定显示区域(例如界面中靠近最下方的一个预先划分的第一横向矩形区域),并将重要弹幕文本的字体大小相对于之前更大号字体进行显示,还将重要弹幕文本的滚动速度相对于之前慢而进行移动。
在一实施例中,直播弹幕实时合并装置100还包括:
第二弹幕调整单元,用于将所述问题集中各条当前显示弹幕文本的屏幕显示高度调整至预设的第二屏幕高度,并将所述问题集中各条当前显示弹幕文本的弹幕移动速度调整至预设的第而弹幕移动速度。
在本实施例中,同样的,为了更直观的提示视频主播,可以对所述问题集中各条当前显示弹幕文本进行显示位置、滚动速度、字体大小等的调节,例如将显示位置调整到句式种类为疑问句式种类的当前显示弹幕文本的指定显示区域(例如界面中靠近第一横向矩形区域且位于第一横向矩形区域上方的第二横向矩形区域),并将问题集中各条当前显示弹幕文本的字体大小相对于之前更大号字体进行显示,还将问题集中各条当前显示弹幕文本的滚动速度相对于之前慢而进行移动。
具体实施时,将重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度的过程中,可以是一个渐变的过程,例如有一个逐步减小各条重要弹幕文本的屏幕显示高度,直至下沉至第一横向矩形区域,这种渐变过程也能直观提示视频主播查看重要弹幕文本。
该装置将当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本合并显示,还能调节重要弹幕的字体大小和滚动速度,使得界面上弹幕文本更加精简且避免遮挡重要画面。
上述直播弹幕实时合并装置可以实现为计算机程序的形式,该计算机程序可以在如图4所示的计算机设备上运行。
请参阅图4,图4是本发明实施例提供的计算机设备的示意性框图。该计算机设备500是服务器,服务器可以是独立的服务器,也可以是多个服务器组成的服务器集群。
参阅图4,该计算机设备500包括通过系统总线501连接的处理器502、存储器和网络接口505,其中,存储器可以包括非易失性存储介质503和内存储器504。
该非易失性存储介质503可存储操作系统5031和计算机程序5032。该计算机程序5032被执行时,可使得处理器502执行直播弹幕实时合并方法。
该处理器502用于提供计算和控制能力,支撑整个计算机设备500的运行。
该内存储器504为非易失性存储介质503中的计算机程序5032的运行提供环境,该计算机程序5032被处理器502执行时,可使得处理器502执行直播弹幕实时合并方法。
该网络接口505用于进行网络通信,如提供数据信息的传输等。本领域技术人员可以理解,图4中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的计算机设备500的限定,具体的计算机设备500可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
其中,所述处理器502用于运行存储在存储器中的计算机程序5032,以实现本发明实施例公开的直播弹幕实时合并方法。
本领域技术人员可以理解,图4中示出的计算机设备的实施例并不构成对计算机设备具体构成的限定,在其他实施例中,计算机设备可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。例如,在一些实施例中,计算机设备可以仅包括存储器及处理器,在这样的实施例中,存储器及处理器的结构及功能与图4所示实施例一致,在此不再赘述。
应当理解,在本发明实施例中,处理器502可以是中央处理单元(CentralProcessing Unit,CPU),该处理器502还可以是其他通用处理器、数字信号处理器(DigitalSignal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。其中,通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等。
在本发明的另一实施例中提供计算机可读存储介质。该计算机可读存储介质可以为非易失性的计算机可读存储介质。该计算机可读存储介质存储有计算机程序,其中计算机程序被处理器执行时实现本发明实施例公开的直播弹幕实时合并方法。
所属领域的技术人员可以清楚地了解到,为了描述的方便和简洁,上述描述的设备、装置和单元的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
在本发明所提供的几个实施例中,应该理解到,所揭露的设备、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为逻辑功能划分,实际实现时可以有另外的划分方式,也可以将具有相同功能的单元集合成一个单元,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口、装置或单元的间接耦合或通信连接,也可以是电的,机械的或其它的形式连接。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本发明实施例方案的目的。
另外,在本发明各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以是两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分,或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到各种等效的修改或替换,这些修改或替换都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以权利要求的保护范围为准。
Claims (10)
1.一种直播弹幕实时合并方法,其特征在于,包括:
若当前系统时间与上一弹幕采集时间之间的时间间隔等于预设的视频弹幕采集周期,获取当前待显示弹幕文本集;
获取当前显示弹幕文本集,及所述当前显示弹幕文本集中每一个当前显示弹幕文本对应的当前合并数量;
获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,组成相似弹幕文本集;
统计获取相似弹幕文本集中每一相似弹幕文本对应的当前相似文本数量,将每一相似弹幕文本对应的当前相似文本数量与相对应当前显示弹幕文本的当前合并数量求和,得到各当前显示弹幕文本的更新后合并数量并发送至用户端进行显示;
判断是否有当前显示弹幕文本的更新后合并数量超出预先设置的重要弹幕文本数量阈值;
若有当前显示弹幕文本的更新后合并数量超出所述重要弹幕文本数量阈值,获取对应的当前显示弹幕文本组成重要弹幕文本集;其中,所述重要弹幕文本集中包括若干条重要弹幕文本;以及
将所述重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度,并将所述重要弹幕文本集中各条重要弹幕文本的弹幕移动速度调整至预设的第一弹幕移动速度。
2.根据权利要求1所述的直播弹幕实时合并方法,其特征在于,所述获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,组成相似弹幕文本集,包括:
将所述当前待显示弹幕文本集中每一个当前待显示弹幕文本依次进行分词、关键词提取和词向量转换,得到与每一个当前待显示弹幕文本对应的词嵌入向量;
将所述当前待显示弹幕文本集根据各当前待显示弹幕文本对应的词嵌入向量进行聚类,得到聚类结果;
获取所述聚类结果中每一聚类簇对应的聚类簇中心向量与每一个当前显示弹幕文本对应的词嵌入向量之间的欧式距离,作为每一聚类簇对应的类输出代表文本与各当前显示弹幕文本之间的相似度;
判断是否有聚类簇对应的聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离低于预先设置的欧氏距离阈值;
若有聚类簇对应的聚类簇中心向量与当前显示弹幕文本对应的词嵌入向量之间的欧氏距离低于所述欧氏距离阈值,获取对应的聚类簇中心向量所相应的聚类簇作为目标聚类簇,由目标聚类簇组成相似弹幕文本集。
3.根据权利要求2所述的直播弹幕实时合并方法,其特征在于,所述将所述当前待显示弹幕文本集中每一个当前待显示弹幕文本依次进行分词、关键词提取和词向量转换,得到与每一个当前待显示弹幕文本对应的词嵌入向量,包括:
通过N-gram模型对当前待显示弹幕文本进行分词,得到分词结果;
将分词结果通过词频-逆文本频率指数算法进行关键词提取,得到关键词抽取结果;
将关键词抽取结果通过word2vec模型向量化,得到与当前待显示弹幕文本对应的词嵌入向量。
4.根据权利要求2所述的直播弹幕实时合并方法,其特征在于,所述将所述当前待显示弹幕文本集根据各当前待显示弹幕文本对应的词嵌入向量进行聚类,得到聚类结果,包括:
将各当前待显示弹幕文本对应的词嵌入向量进行K-means聚类,得到聚类结果。
5.根据权利要求1所述的直播弹幕实时合并方法,其特征在于,所述统计获取相似弹幕文本集中每一相似弹幕文本对应的当前相似文本数量,将每一相似弹幕文本对应的当前相似文本数量与相对应当前显示弹幕文本的当前合并数量求和,得到各当前显示弹幕文本的更新后合并数量并发送至用户端进行显示之后,还包括:
将所述相似弹幕文本集中各相似弹幕文本对应的聚类簇从聚类结果中删除,得到更新后当前待显示弹幕文本集。
6.根据权利要求1所述的直播弹幕实时合并方法,其特征在于,所述获取当前显示弹幕文本集,及所述当前显示弹幕文本集中每一个当前显示弹幕文本对应的当前合并数量之后,还包括:
获取当前待显示弹幕文本集中句式种类为疑问句式种类的当前显示弹幕文本,组成问题集;其中,所述问题集中包括若干条当前显示弹幕文本。
7.根据权利要求1所述的直播弹幕实时合并方法,其特征在于,所述将所述重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度,并将所述重要弹幕文本集中各条重要弹幕文本的弹幕移动速度调整至预设的第一弹幕移动速度之后,还包括:
将所述问题集中各条当前显示弹幕文本的屏幕显示高度调整至预设的第二屏幕高度,并将所述问题集中各条当前显示弹幕文本的弹幕移动速度调整至预设的第而弹幕移动速度。
8.一种直播弹幕实时合并装置,其特征在于,包括:
第一弹幕文本集获取单元,用于若当前系统时间与上一弹幕采集时间之间的时间间隔等于预设的视频弹幕采集周期,获取当前待显示弹幕文本集;
第二弹幕文本集获取单元,用于获取当前显示弹幕文本集,及所述当前显示弹幕文本集中每一个当前显示弹幕文本对应的当前合并数量;
相似弹幕文本集获取单元,用于获取当前待显示弹幕文本集中与当前显示弹幕文本集之间的相似弹幕文本,组成相似弹幕文本集;
弹幕合并数量更新单元,用于统计获取相似弹幕文本集中每一相似弹幕文本对应的当前相似文本数量,将每一相似弹幕文本对应的当前相似文本数量与相对应当前显示弹幕文本的当前合并数量求和,得到各当前显示弹幕文本的更新后合并数量并发送至用户端进行显示;
合并数量判断单元,用于判断是否有当前显示弹幕文本的更新后合并数量超出预先设置的重要弹幕文本数量阈值;
重要弹幕文本集获取单元,用于若有当前显示弹幕文本的更新后合并数量超出所述重要弹幕文本数量阈值,获取对应的当前显示弹幕文本组成重要弹幕文本集;其中,所述重要弹幕文本集中包括若干条重要弹幕文本;以及
第一弹幕调整单元,用于将所述重要弹幕文本集中各条重要弹幕文本的屏幕显示高度调整至预设的第一屏幕高度,并将所述重要弹幕文本集中各条重要弹幕文本的弹幕移动速度调整至预设的第一弹幕移动速度。
9.一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,其特征在于,所述处理器执行所述计算机程序时实现如权利要求1至7中任一项所述的直播弹幕实时合并方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行如权利要求1至7任一项所述的直播弹幕实时合并方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011628506.9A CN112765990B (zh) | 2020-12-31 | 2020-12-31 | 直播弹幕实时合并方法、装置、计算机设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011628506.9A CN112765990B (zh) | 2020-12-31 | 2020-12-31 | 直播弹幕实时合并方法、装置、计算机设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112765990A true CN112765990A (zh) | 2021-05-07 |
CN112765990B CN112765990B (zh) | 2024-01-12 |
Family
ID=75699392
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011628506.9A Active CN112765990B (zh) | 2020-12-31 | 2020-12-31 | 直播弹幕实时合并方法、装置、计算机设备及存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112765990B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114071174A (zh) * | 2021-11-15 | 2022-02-18 | 咪咕文化科技有限公司 | 直播内容的处理方法、电子设备及可读存储介质 |
CN115170372A (zh) * | 2022-09-06 | 2022-10-11 | 江西兴智教育科技有限公司 | 基于互联网的交互式教育平台系统及方法 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104331498A (zh) * | 2014-11-19 | 2015-02-04 | 亚信科技(南京)有限公司 | 一种对互联网用户访问的网页内容自动分类的方法 |
CN108235148A (zh) * | 2018-01-09 | 2018-06-29 | 武汉斗鱼网络科技有限公司 | 直播中的相似弹幕合并方法、存储介质、电子设备及系统 |
CN109413484A (zh) * | 2018-12-29 | 2019-03-01 | 咪咕文化科技有限公司 | 一种弹幕展示方法、装置及存储介质 |
CN111898336A (zh) * | 2020-09-30 | 2020-11-06 | 拼说说(深圳)网络科技有限公司 | 弹幕显示方法、装置、计算机设备及存储介质 |
-
2020
- 2020-12-31 CN CN202011628506.9A patent/CN112765990B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104331498A (zh) * | 2014-11-19 | 2015-02-04 | 亚信科技(南京)有限公司 | 一种对互联网用户访问的网页内容自动分类的方法 |
CN108235148A (zh) * | 2018-01-09 | 2018-06-29 | 武汉斗鱼网络科技有限公司 | 直播中的相似弹幕合并方法、存储介质、电子设备及系统 |
CN109413484A (zh) * | 2018-12-29 | 2019-03-01 | 咪咕文化科技有限公司 | 一种弹幕展示方法、装置及存储介质 |
CN111898336A (zh) * | 2020-09-30 | 2020-11-06 | 拼说说(深圳)网络科技有限公司 | 弹幕显示方法、装置、计算机设备及存储介质 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114071174A (zh) * | 2021-11-15 | 2022-02-18 | 咪咕文化科技有限公司 | 直播内容的处理方法、电子设备及可读存储介质 |
CN115170372A (zh) * | 2022-09-06 | 2022-10-11 | 江西兴智教育科技有限公司 | 基于互联网的交互式教育平台系统及方法 |
CN115170372B (zh) * | 2022-09-06 | 2022-12-09 | 江西兴智教育科技有限公司 | 基于互联网的交互式教育平台系统及方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112765990B (zh) | 2024-01-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109729426B (zh) | 一种视频封面图像的生成方法及装置 | |
CN110324662B (zh) | 一种视频封面生成方法及装置 | |
EP3902280A1 (en) | Short video generation method and platform, electronic device, and storage medium | |
CN107124653A (zh) | 电视用户画像的构建方法 | |
CN113170076A (zh) | 用于通信会话的序列事件的动态策展 | |
CN106649780A (zh) | 基于人工智能的信息提供方法及装置 | |
CN112765990A (zh) | 直播弹幕实时合并方法、装置、计算机设备及存储介质 | |
CN114095749B (zh) | 推荐及直播界面展示方法、计算机存储介质、程序产品 | |
CN108255962A (zh) | 知识点关联方法、装置、存储介质和电子设备 | |
CN110880324A (zh) | 语音数据的处理方法、装置、存储介质及电子设备 | |
CN109275036B (zh) | 一种用于教学直播的消息提醒方法、装置及设备 | |
CN113301358A (zh) | 内容提供及展示方法、装置、电子设备、存储介质 | |
CN110072140A (zh) | 一种视频信息提示方法、装置、设备及存储介质 | |
CN113556484A (zh) | 视频处理方法、装置、电子设备及计算机可读存储介质 | |
CN115840796A (zh) | 一种事件整合方法、装置、设备及计算机可读存储介质 | |
CN111695323B (zh) | 信息处理方法、装置及电子设备 | |
EP3940551A1 (en) | Method and apparatus for generating weather forecast video, electronic device, and storage medium | |
CN116962796A (zh) | 应用于直播场景的跨屏互动方法、装置、设备及介质 | |
CN111368553A (zh) | 智能词云图数据处理方法、装置、设备及存储介质 | |
CN112672202B (zh) | 弹幕处理方法、设备和存储介质 | |
CN115963963A (zh) | 互动小说生成方法、呈现方法、装置、设备及介质 | |
CN109948426A (zh) | 应用程序调整方法、装置、电子设备及存储介质 | |
CN114422844B (zh) | 弹幕素材生成方法、推荐方法、装置、设备、介质及产品 | |
CN110415015A (zh) | 产品认可度分析方法、装置、终端及计算机可读存储介质 | |
CN105763947A (zh) | 一种智能电视用户的特征兴趣提取方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |