CN113225606B - 视频弹幕处理方法及装置 - Google Patents
视频弹幕处理方法及装置 Download PDFInfo
- Publication number
- CN113225606B CN113225606B CN202110480501.4A CN202110480501A CN113225606B CN 113225606 B CN113225606 B CN 113225606B CN 202110480501 A CN202110480501 A CN 202110480501A CN 113225606 B CN113225606 B CN 113225606B
- Authority
- CN
- China
- Prior art keywords
- bullet screen
- video
- processed
- video frame
- generate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/435—Processing of additional data, e.g. decrypting of additional data, reconstructing software from modules extracted from the transport stream
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/431—Generation of visual interfaces for content selection or interaction; Content or additional data rendering
- H04N21/4312—Generation of visual interfaces for content selection or interaction; Content or additional data rendering involving specific graphical features, e.g. screen layout, special fonts or colors, blinking icons, highlights or animations
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/478—Supplemental services, e.g. displaying phone caller identification, shopping application
- H04N21/4788—Supplemental services, e.g. displaying phone caller identification, shopping application communicating with other users, e.g. chatting
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
Abstract
本申请实施例提供了视频弹幕处理方法及装置,其中,所述视频弹幕处理方法包括:根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容,在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行高斯模糊处理,生成第一高斯效果图像,将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧,对所述目标视频帧进行整合,生成目标视频。
Description
技术领域
本申请实施例涉及计算机技术领域,特别涉及一种视频弹幕处理方法。本申请一个或者多个实施例同时涉及一种视频弹幕处理装置,一种计算设备,以及一种计算机可读存储介质。
背景技术
随着多媒体技术的蓬勃发展,弹幕已经越来越多的被人们关注。从网站视频到电影院线的播放,再到大型活动,弹幕已经开始成为一个衡量平台方是否具有时代活力的重要标准之一。
弹幕是指在视频播放器中飘过的评论文字,评论文字是由观看弹幕的观众边看发表评论而形成,因此,也可以说弹幕传播现象是一个典型的群体性传播案例。
但是,目前的视频分享过程中,用户使用某些分享方式进行视频分享时,可能无法控制弹幕的分享,同样,接收视频的用户无法在播放视频的同时查看视频弹幕,可见,由于视频弹幕的特殊性,目前在进行视频分享或者视频图片分享时,可能无法对视频弹幕一并进行分享,影响用户的视频观看体验。
发明内容
有鉴于此,本申请施例提供了一种视频弹幕处理方法。本申请一个或者多个实施例同时涉及一种视频弹幕处理装置,一种计算设备,以及一种计算机可读存储介质,以解决现有技术中在进行视频分享或者视频图片分享时,无法对视频弹幕一并进行分享的技术缺陷。
根据本申请实施例的第一方面,提供了一种视频弹幕处理方法,包括:
根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容;
在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行高斯模糊处理,生成第一高斯效果图像;
将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧;
对所述目标视频帧进行整合,生成目标视频。
根据本申请实施例的第二方面,提供了一种视频弹幕处理装置,包括:
确定模块,被配置为根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容;
处理模块,被配置为在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行高斯模糊处理,生成第一高斯效果图像;
叠加模块,被配置为将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧;
整合模块,被配置为对所述目标视频帧进行整合,生成目标视频。
根据本申请实施例的第三方面,提供了一种计算设备,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,其中,所述处理器执行所述计算机可执行指令时实现所述视频弹幕处理方法的步骤。
根据本申请实施例的第四方面,提供了一种计算机可读存储介质,其存储有计算机可执行指令,该指令被处理器执行时实现所述视频弹幕处理方法的步骤。
本申请一个实施例实现了一种视频弹幕处理方法及装置,其中,所述视频弹幕处理方法包括根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容,在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行高斯模糊处理,生成第一高斯效果图像,将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧,对所述目标视频帧进行整合,生成目标视频。
本申请实施例通过将弹幕以图片的形式嵌入到视频帧中,从而可以实现由第一用户对视频以及视频的弹幕灵活地分享至第二用户,从而有利于提升第二用户的视频观看体验。
附图说明
图1是本申请一个实施例提供的一种视频弹幕处理方法的流程图;
图2(a)是本申请一个实施例提供的弹幕显示单元的示意图;
图2(b)是本申请一个实施例提供的初始图像的划分结果示意图;
图2(c)是本申请一个实施例提供的一种目标视频帧的示意图;
图2(d)是本申请一个实施例提供的弹幕显示区域的划分结果示意图;
图2(e)是本申请一个实施例提供的另一种目标视频帧的示意图;
图2(f)是本申请一个实施例提供的又一种目标视频帧的示意图;
图3是本申请一个实施例提供的一种所述视频弹幕处理方法应用在视频领域的处理过程流程图;
图4是本申请一个实施例提供的一种视频弹幕处理装置的结构示意图;
图5是本申请一个实施例提供的一种计算设备的结构框图。
具体实施方式
在下面的描述中阐述了很多具体细节以便于充分理解本申请。但是本申请能够以很多不同于在此描述的其它方式来实施,本领域技术人员可以在不违背本申请内涵的情况下做类似推广,因此本申请不受下面公开的具体实施的限制。
在本申请一个或多个实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本申请一个或多个实施例。在本申请一个或多个实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。还应当理解,本申请一个或多个实施例中使用的术语“和/或”是指并包含一个或多个相关联的列出项目的任何或所有可能组合。
应当理解,尽管在本申请一个或多个实施例中可能采用术语第一、第二等来描述各种信息,但这些信息不应限于这些术语。这些术语仅用来将同一类型的信息彼此区分开。例如,在不脱离本申请一个或多个实施例范围的情况下,第一也可以被称为第二,类似地,第二也可以被称为第一。取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”。
首先,对本申请一个或多个实施例涉及的名词术语进行解释。
视频内嵌弹幕:将文字弹幕制成一张张类似水印的图片,嵌入叠加进视频帧中,根据视频时间戳调整弹幕位置,实现的一种视频内嵌的滑动弹幕效果。
高斯模糊:也叫高斯平滑,是在Adobe Photoshop、GIMP以及Paint.NET等图像处理软件中广泛使用的处理效果,通常用它来减少图像噪声以及降低细节层次。
在本申请中,提供了一种视频弹幕处理方法。本申请一个或者多个实施例同时涉及一种视频弹幕处理装置,一种计算设备,以及一种计算机可读存储介质,在下面的实施例中逐一进行详细说明。
具体实施时,本申请实施例的弹幕可以呈现于大型视频播放设备、游戏机、台式计算机、智能手机、平板电脑、MP3(Moving Picture Experts Group Audio Layer III,动态影像专家压缩标准音频层面3)播放器,MP4(Moving Picture Experts Group Audio LayerIV,动态影像专家压缩标准音频层面4)播放器、膝上型便携计算机、电子书阅读器以及其它显示终端等客户端。
参见图1,图1示出了根据本申请一个实施例提供的一种视频弹幕处理方法的流程图,包括以下步骤:
步骤102,根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容。
传统的视频分享过程中,用户若使用某些特定的分享方式进行视频分享时,例如,将视频保存至本地相册,再将本地相册中的视频分享至其他用户,这种情况下则可能无法控制弹幕的分享,同样,接收视频的用户无法在播放视频的同时查看视频弹幕,影响用户的视频观看体验。
基于此,本申请实施例通过将弹幕以图片的形式嵌入到视频帧中,从而克服上述技术缺陷,实现在用户将视频保存到客户端本地的存储空间(例如,手机端的本地相册)后,在下次播放视频或将视频分享至其他用户时,仍能够展示这一视频的相关弹幕。
具体实施时,根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,具体可通过以下方式实现:
获取待处理视频的视频帧、以及与所述视频帧的时间点相对应的弹幕信息,所述弹幕信息包括至少一条弹幕的弹幕位置以及弹幕内容;
根据所述弹幕位置,确定目标弹幕在所述视频帧中的显示位置,并将所述显示位置对应的区域作为所述弹幕显示单元,其中,所述目标弹幕为所述至少一条弹幕中的任意一个。
具体的,由于目前的弹幕多是通过弹幕图层进行展示,因此,所述弹幕信息,实际是视频播放过程中,与视频帧的时间点对应的弹幕图层中包含的弹幕的弹幕位置以及弹幕内容等。
其中,待处理视频的弹幕可以是与视频内容对应的预设弹幕,或者可以是用户发送的弹幕等,其中,与视频内容对应的预设弹幕可以是服务方在弹幕区域预设的弹幕,例如弹幕广告。
获取所述弹幕信息后,可根据弹幕在弹幕图层中的位置确定弹幕在视频帧中的显示位置,由于弹幕图层的大小与视频播放界面中视频帧的大小一致,因此,可先确定弹幕图层中弹幕的位置,并将视频帧中与所述位置对应的区域作为弹幕显示单元。
本申请实施例提供的弹幕显示单元的示意图如图2(a)所示。图2(a)中示意性的展示了5个弹幕显示单元,实际应用中,视频帧中弹幕显示单元的数量可根据所述视频帧中弹幕的数量确定,在此不做限制。
具体实施时,确定所述待处理视频的视频帧包含的弹幕显示单元之前,可先确定视频帧中的弹幕数量,并在弹幕数量过大的情况下,对弹幕进行筛选,具体可通过以下方式实现:
根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕数量;
在所述弹幕数量大于预设数量阈值的情况下,对所述视频帧包含的弹幕进行筛选;
相应的,确定所述待处理视频的视频帧包含的弹幕显示单元,包括:
根据筛选结果确定所述视频帧包含的弹幕显示单元。
具体的,由于获取到的待处理视频的弹幕信息中包含各视频帧的全部弹幕信息,而过多的弹幕则可能会对视频画面造成遮挡,从而影响用户的视频观看体验,或者,这些弹幕中可能存在部分没有实际意义的弹幕,不仅影响弹幕的显示效果,而且影响观影体验。
本申请实施例,通过确定视频帧中的弹幕数量,并在弹幕数量大于预设数量阈值的情况下,可对弹幕进行筛选。通过这种筛选过滤的方式,能够在减少弹幕展示数量的同时,保证展示较为有效的弹幕,从而让用户在享受弹幕服务的同时提高了观影体验的舒适度。
步骤104,在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行高斯模糊处理,生成第一高斯效果图像。
具体的,确定视频帧中的弹幕显示单元后,可对视频帧中所述弹幕显示单元所在的区域进行图像截取,生成初始图像,然后对初始图像进行高斯模糊处理,生成第一高斯效果图像。
其中,初始图像需包含所述弹幕显示单元所显示弹幕的完整内容,但截取的初始图像的大小可根据实际需求确定,在此不做限制。
具体实施时,对所述初始图像进行高斯模糊处理,生成第一高斯效果图像,具体可通过以下方式实现:
对所述初始图像进行单元划分,生成至少两个待处理子单元;
利用不同的高斯模糊半径分别对所述至少两个待处理子单元进行高斯模糊处理,生成第一高斯效果图像。
具体的,若直接使用同一个高斯模糊半径对初始图像进行处理,那么在将处理得到的高斯效果图像与视频帧进行叠加后,叠加生成的目标视频帧中会存在一条明显的模糊层次线,这样会影响用户的视频观看效果。
因此,本申请实施例通过将所述初始图像划分为至少两个待处理子单元,并分别采用不同的高斯模糊半径对所述至少两个待处理子单元进行高斯模糊处理,以克服上述缺陷。
进一步的,对所述初始图像进行单元划分,生成至少两个待处理子单元,包括:
利用n个矩形框对所述初始图像进行单元划分,生成n个待处理子单元,其中,n为正整数。
更进一步的,利用n个矩形框对所述初始图像进行单元划分,生成n个待处理子单元,包括:
利用第i矩形框对所述初始图像进行单元划分,生成第一待处理子单元,其中,i从1开始取值,且i∈[1,n];
利用第i+1矩形框对所述初始图像进行单元划分,生成第二待处理子单元,其中,所述第i+1矩形框包含所述第i矩形框,且所述第二待处理子单元的高斯模糊半径小于所述第一待处理子单元的高斯模糊半径;
判断i+1是否等于n;
若否,则i自增2,并返回执行所述利用第i矩形框对所述初始图像进行单元划分的步骤。
其中,利用第i+1矩形框对所述初始图像进行单元划分,生成第二待处理子单元,具体即为:将所述初始图形中所述第i矩形框与所述第i+1矩形框间的连通区域作为所述第二待处理子单元。
具体的,本申请实施例选择通过n个矩形框对所述初始图像进行划分,生成n个待处理子单元。其中,从第n至第1个矩形框,其大小为依次减小,并且为依次包含的关系,即第n个矩形框中包含第n-1至第1个矩形框,第n-1个矩形框中包含第n-2至第1个矩形框,以此类推。
因此,利用n个矩形框对所述初始图像进行单元划分,具体即可将第1(i=1)个矩形框所形成的单连通区域作为所述第一待处理子单元,并将由第2(i+1)个矩形框和第1个矩形框构成的多连通区域作为所述第二待处理子单元;其中,第2个矩形框的大小大于第1个矩形框,并且第2个矩形框包含第1个矩形框。
确定第二待处理子单元后,可判断i+1的值是否等于n,若是,则可停止对所述初始图像进行单元划分;若否,则可继续利用第i+1(第3)个矩形框对所述初始图像进行单元划分,具体即可将由第3个矩形框与第2个矩形框所形成的多联通区域作为第三待处理子单元,以此类推,直至i+1等于n,则可停止对所述初始图像进行单元划分。
另外,对所述初始图像进行单元划分得到至少两个待处理子单元后,由于n个待处理子单元中,第n至第1待处理子单元的上边缘与所述初始图像的上边缘间的距离依次递增,因此,为消除叠加生成的目标视频帧中存在的模糊层次线,本申请实施例可将n个待处理子单元中,第n个待处理子单元的高斯模糊半径设为最小值,并将第n至第1个待处理子单元的高斯模糊半径设置为逐渐增大的关系,以保证能够消除目标视频帧中模糊层次线的同时,还能够保证目标视频帧中弹幕内容的清晰度。
本申请实施例提供的初始图像的划分结果示意图如图2(b)所示,图2(b)中,利用3个矩形框对初始图像进行单元划分,生成3个待处理子单元,具体即可将由第一矩形框形成的单连通区域作为所述第一待处理子单元,并将由第二矩形框和第一矩形框构成的多连通区域作为所述第二待处理子单元;同样的,将由第三矩形框和第二矩形框所形成的多联通区域作为第三待处理子单元;每确定一个待处理子单元后,即可判断当前i+1的值是否等于3;其中,在i取值为2,并生成第三待处理子单元后,确定i+1等于3,因此,确定第三待处理子单元后,可停止对所述初始图像进行划分的过程,并为三个待处理子单元设置高斯模糊半径,具体可将第三至第一待处理子单元的高斯模糊半径设置为逐渐增大的关系,然后按照待处理子单元各自对应的高斯模糊半径对其进行高斯模糊处理即可。
通过这种处理方式,有利于消除初始图像与视频帧叠加后存在的层次线,从而提升用户观看体验。
步骤106,将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧。
具体的,对初始图像进行高斯模糊处理生成第一高斯效果图像后,即可将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧。
将对图2(b)所示的初始图像进行高斯模糊处理,得到的第一高斯效果图像与视频帧进行叠加,生成的目标视频帧的示意图如图2(c)所示。
前述实施例仅对弹幕显示单元进行高斯模糊处理,在对弹幕显示单元进行高斯模糊处理生成第一高斯图像,并将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧后,还可对所述目标视频帧中由第一高斯效果图像组成的弹幕显示区域所对应的待处理图像进行高斯模糊,生成对应的效果图像,具体可通过以下方式实现:
根据所述弹幕显示单元确定弹幕显示区域;
在所述目标视频帧中截取所述弹幕显示区域对应的第一待处理图像,并对所述第一待处理图像进行划分,生成至少两个待处理子区域,其中,所述至少两个待处理子区域的长与所述弹幕显示区域的长相等,所述至少两个待处理子区域的宽小于所述弹幕显示区域的宽;
利用不同的高斯模糊半径分别对所述至少两个待处理子区域进行高斯模糊处理,生成第二高斯效果图像。
另外,对所述第一待处理图像进行划分,生成至少两个待处理子区域后,还可基于所述弹幕显示区域确定参考对象,并根据所述至少两个待处理子区域与所述参考对象间的距离,确定所述至少两个待处理子区域的高斯模糊半径。
具体的,可将目标视频帧中弹幕显示单元所在的区域作为弹幕显示区域,弹幕显示区域的示意图如2(c)所示。
根据弹幕显示单元(第一高斯效果图像)确定弹幕显示区域后,可对弹幕显示区域进行区域划分,生成多个相邻的待处理子区域。本申请实施例提供的弹幕显示区域的划分结果示意图如图2(d)所示。其中,所述待处理子区域的长与所述弹幕显示区域的长相等,所述待处理子区域的宽小于所述弹幕显示区域的宽。
确定弹幕显示区域后,可将所述弹幕显示区域的长所在的边作为参考对象,并计算待处理子区域与边之间的最短距离,并根据最短距离确定各待处理子区域的高斯模糊半径。
如图2(d)所示,弹幕显示区域所对应的四边形(矩形)ABCD中,线段AB和线段CD所在直线即为四边形的长所在的边,可以线段AB或线段CD所在边为参考对象确定各待处理子区域的高斯模糊半径;其中,若以线段AB所在边为参考对象,则所述高斯模糊半径与最短距离成反比,若以线段CD所在边为参考对象,则所述高斯模糊半径与最短距离成正比。
根据所述最短距离确定各待处理子区域的高斯模糊半径后,利用不同的高斯模糊半径分别对所述至少两个待处理子区域进行高斯模糊处理,即可生成所述第二高斯效果图像。将所述第二高斯效果图像与所述视频帧进行叠加,同样可生成包含所述弹幕内容的目标视频帧。
实际应用中,将弹幕嵌入视频后会增加视频的编码复杂度,在码率有限的情况下,可能会导致一些较为复杂场景(多特效渲染的动画制作,舞台舞蹈等)的视频画面变模糊、弹幕文字边缘细节丢失或弹幕变模糊等情况;但由于高斯模糊主要是用于降低弹幕显示区域中的细节,以便于在有限的码率下编码出清晰较高的视频,因此,在确定弹幕显示区域后,对弹幕显示区域进行区域划分,生成多个相邻的待处理子区域后,再对待处理子区域做n层高斯模糊半径的由大到小渐变的高斯模糊处理,即可提高弹幕观看的效果,同时降低视频画面复杂度,从而有利于节省视频编码过程所需的码率,进而有利于降低网络带宽的开销。
具体实施时,前述实施例对弹幕显示单元进行高斯模糊处理生成第一高斯图像,并将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧后,还可根据视频帧中弹幕的数量做动态高斯模糊,因此,在确定所述待处理视频的视频帧包含的弹幕显示单元之前,可先确定视频帧中的弹幕数量,然后根据弹幕数量确定具体的高斯模糊策略,具体可通过以下方式实现:
根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕数量;
在所述弹幕数量大于预设数量阈值的情况下,执行所述根据所述弹幕显示单元确定弹幕显示区域的步骤。
具体的,在视频帧中的弹幕数量较多时,对弹幕显示单元做高斯模糊处理的同时,还可对由弹幕显示单元组成的弹幕显示区域做渐变性的高斯模糊,因此,在确定视频帧中的弹幕数量较多(大于预设阈值)时,即可通过前述的对弹幕显示区域进行高斯处理的实现方式对目标视频帧中弹幕显示单元(第一高斯图像)对应的弹幕显示区域进行高斯模糊处理,在此不再赘述。
在确定弹幕显示区域,并在视频帧中的弹幕数量较多(大于预设阈值)时,对弹幕显示区域进行区域划分,生成多个相邻的待处理子区域后,再对待处理子区域做n层高斯模糊半径的由大到小渐变的高斯模糊处理,即可提高弹幕观看的效果,同时降低视频画面复杂度,从而有利于节省视频编码过程所需的码率,并有利于降低网络带宽的开销。
进一步的,根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕数量之后,还包括:
在所述弹幕数量小于等于预设数量阈值的情况下,根据所述弹幕显示单元确定弹幕显示区域;
在所述目标视频帧中截取所述弹幕显示区域对应的第二待处理图像,并对所述第二待处理图像进行高斯模糊处理,生成第三高斯效果图像。
具体的,在视频帧中的弹幕数量较少(小于等于预设阈值)时,仅对弹幕显示区域做高斯模糊,具体可对所述弹幕显示区域进行图像截取,并利用同一高斯模糊半径对截取的图像进行高斯模糊处理,生成第三高斯效果图像。
具体实施时,生成第二高斯效果图后,可将所述第二高斯效果图像与所述目标视频帧进行叠加,生成所述目标视频帧的更新结果。
同样的,生成第三高斯效果图后,可将所述第三高斯效果图像与所述目标视频帧进行叠加,生成所述目标视频帧的更新结果。
在确定弹幕显示区域,并在视频帧中的弹幕数量较少(小于等于预设阈值)时,仅对待处理子区域做1层高斯模糊半径的高斯模糊处理,即可提高弹幕观看的效果,同时降低视频画面复杂度,从而有利于节省视频编码过程所需的码率,进而有利于降低网络带宽的开销。
此外,将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧,还可通过以下方式实现:
解析所述视频帧,提取所述视频帧的防遮挡区域数据;
根据所述防遮挡区域数据建立所述视频帧对应的弹幕蒙版;
将所述第一高斯效果图像显示到所述弹幕蒙版,生成包所述弹幕内容的目标视频帧。
具体的,所述防遮挡区域数据具体可以是目标对象在所述视频帧中所处的区域数据,所述目标对象即视频帧中不想要被遮挡的对象,如目标对象可以为视频帧中的人物、道具或景物等。通过对视频帧进行解析(具体可对所述视频帧进行图像识别,以确定目标对象在所述视频帧中的位置),获得所述防遮挡区域数据,并根据所述防遮挡区域数据建立所述视频帧对应的弹幕蒙版,具体即在预设的所述视频帧的初始弹幕蒙版中设置对应于所述防遮挡区域的防遮挡区块,以生成所述视频帧对应的弹幕蒙版。
需要说明的是,确定出视频帧对应的弹幕蒙版后,即可以确定所述视频帧中哪些范围内可以显示弹幕,哪些范围不能显示弹幕,根据确定出的范围将所述第一高斯效果图像显示到所述弹幕蒙版,即可生成包所述弹幕内容的目标视频帧。另外,在将所述第一高斯效果图像显示到所述弹幕蒙版时,还可判断所述第一高斯效果图像与所述防遮挡区块是否重叠,若所述第一高斯效果图像与所述防遮挡区块重叠,则将所述第一高斯效果图像的重叠部分进行透明显示。因此,本申请实施例通过已设置防遮挡区块的弹幕蒙版,实现将第一高斯效果图像显示到视频帧时,能够避开视频帧中的目标对象,有利于防止弹幕对所述目标对象造成遮挡,从而有利于提升用户的视频观看体验。
步骤108,对所述目标视频帧进行整合,生成目标视频。
具体的,对待处理视频中的各视频帧进行处理,得到各视频帧对应的目标视频帧后,可基于所述目标视频帧合成所述待处理视频对应的目标视频,所述目标视频中,各视频帧所包含的弹幕均以图像的形式嵌入到视频帧中,因此,用户将目标视频保存到本地数据存储空间,即相当于同时保存了视频帧所包含的弹幕。
除此之外,本申请实施例还可通过提供一块一定比例的弹幕专用的模糊区域,具体可通过以下方式实现:
根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕内容;
根据所述视频帧的大小确定目标视频帧的显示区域的大小,并对所述显示区域进行划分,生成视频播放子区域以及弹幕显示子区域;
将所述弹幕内容添加至所述弹幕显示子区域,并截取所述弹幕显示子区域对应的初始图像;
对所述初始图像进行高斯模糊处理,生成高斯效果图像;
按照所述视频播放子区域的大小对所述视频帧进行收缩处理,生成中间视频帧;
将所述高斯效果图像与所述中间视频帧进行拼接,生成包含所述弹幕内容的目标视频帧;
对所述目标视频帧进行整合,生成目标视频。
具体的,为防止弹幕对视频帧中的目标对象造成遮挡,本申请实施例可将视频显示区域划分为两个独立的区域,分别为视频播放子区域和弹幕显示子区域,其中,视频播放子区域单独用于进行视频播放(展示视频帧),而弹幕显示子区域则单独用于展示弹幕。
另外,为提高用户的视频观看体验,本申请实施例可将视频帧作为弹幕显示子区域的背景,并在将弹幕内容添加至所述弹幕显示子区域后,为保证弹幕内容的清晰度,可截取所述弹幕显示子区域对应的初始图像,并对所述初始图像进行高斯模糊处理,生成弹幕显示子区域对应的高斯效果图像;
对于视频播放子区域,为保证视频在所述视频播放子区域进行展示时展示内容的完整性,具体可按照该区域的大小或横纵比例对视频帧进行收缩处理,生成适用于在所述视频播放子区域展示的视频帧,然后将前述弹幕显示子区域的高斯效果图像与收缩生成的视频帧进行拼接,生成包含所述弹幕内容的目标视频帧,最后对目标视频帧进行整合,即可生成目标视频。
或者,若视频的默认播放模式或初始播放模式为横屏模式,并且视频当前的播放模式为横屏模式的情况下,可将视频的播放模式由横屏模式转为竖屏模式,横屏模式和竖屏模式中,视频帧的横纵比例保持不变,例如,横屏模式中,视频帧的横纵比例为16:9(全屏显示),转换为竖屏模式后,横纵比例不变,但由于竖屏模式中视频帧的横长变短,因此纵长也会变短,这样,在屏幕显示区域(视频播放界面)不变的情况下,竖屏模式中,视频的播放区域仅占视频播放界面的一部分(非全屏显示),而视频播放界面的其他空白区域则可以作为弹幕显示区域,通过这种方式生成的目标视频帧的示意图如图2(e)所示。
此外,若视频的默认播放模式或初始播放模式为竖屏模式,并且视频当前的播放模式为竖屏模式的情况下,将视频的播放模式由竖屏模式转为横屏模式,竖屏模式和横屏模式中,视频帧的横纵比例保持不变,例如,竖屏模式中,视频帧的横纵比例为9:16(全屏显示),转换为横屏模式后,横纵比例不变,但由于横屏模式中视频帧的纵长变短,因此横长也会变短,这样,在屏幕显示区域(视频播放界面)不变的情况下,横屏模式中,视频的播放区域仅占视频播放界面的一部分(非全屏显示),而视频播放界面的其他空白区域则可以作为弹幕显示区域,通过这种方式生成的目标视频帧的示意图如图2(f)所示。
通过对弹幕显示区域的背景视频进行高斯模糊处理,以降低原始弹幕显示区域的细节,有利于降低弹幕显示区域的画面复杂度,从而有利于保证编码器能够在有限的码率内进行视频编码,并确保编码后弹幕和视频画面的清晰度。
本申请一个实施例实现了一种视频弹幕处理方法及装置,其中,所述视频弹幕处理方法包括根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容,在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行高斯模糊处理,生成第一高斯效果图像,将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧,对所述目标视频帧进行整合,生成目标视频。
本申请实施例通过将弹幕以图片的形式嵌入到视频帧中,即视频内嵌弹幕,从而可以实现由第一用户对视频以及视频的弹幕灵活地分享至第二用户,从而有利于提升第二用户的视频观看体验。
参见图3,以本申请实施例提供的所述视频弹幕处理方法应用在对视频领域的弹幕处理过程的应用为例,对所述视频弹幕处理方法进行进一步说明。其中,图3示出了本申请一个实施例提供的一种视频弹幕处理方法的处理过程流程图,具体包括以下步骤:
步骤302,获取待处理视频的弹幕信息。
步骤304,根据所述弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容。
步骤306,在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行单元划分,生成至少两个待处理子单元。
步骤308,利用不同的高斯模糊半径分别对所述至少两个待处理子单元进行高斯模糊处理,生成第一高斯效果图像。
步骤310,将所述第一高斯效果图像与所述视频帧进行叠加,生成目标视频帧。
步骤312,根据所述弹幕信息,确定所述待处理视频的视频帧包含的弹幕数量。
在所述弹幕数量小于等于预设数量阈值的情况下,执行步骤314;在所述弹幕数量大于预设数量阈值的情况下,执行步骤322。
步骤314,确定所述待处理视频的视频帧包含的弹幕显示单元,并根据所述弹幕显示单元确定弹幕显示区域。
步骤316,在所述目标视频帧中截取所述弹幕显示区域对应的第一待处理图像,并对所述第一待处理图像进行高斯模糊处理,生成第二高斯效果图像。
步骤318,将所述第二高斯效果图像与所述目标视频帧进行叠加,生成所述目标视频帧的更新结果。
步骤320,对所述目标视频帧的更新结果进行整合,生成目标视频。
步骤322,确定所述待处理视频的视频帧包含的弹幕显示单元,根据所述弹幕显示单元确定弹幕显示区域。
步骤324,在所述目标视频帧中截取所述弹幕显示区域对应的第二待处理图像,并对所述第二待处理图像进行划分,生成至少两个待处理子区域。
步骤326,利用不同的高斯模糊半径分别对所述至少两个待处理子区域进行高斯模糊处理,生成第三高斯效果图像。
步骤328,将所述第三高斯效果图像与所述目标视频帧进行叠加,生成所述目标视频帧的更新结果。
执行步骤320,对所述目标视频帧的更新结果进行整合,生成目标视频。
本申请实施例通过将弹幕以图片的形式嵌入到视频帧中,从而可以实现由第一用户对视频以及视频的弹幕灵活地分享至第二用户,从而有利于提升第二用户的视频观看体验。
与上述方法实施例相对应,本申请还提供了视频弹幕处理装置实施例,图4示出了本申请一个实施例提供的一种视频弹幕处理装置的结构示意图。如图4所示,该装置包括:
确定模块402,被配置为根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容;
处理模块404,被配置为在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行高斯模糊处理,生成第一高斯效果图像;
叠加模块406,被配置为将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧;
整合模块408,被配置为对所述目标视频帧进行整合,生成目标视频。
可选地,确定模块402,包括:
弹幕信息获取子模块,被配置为获取待处理视频的视频帧、以及与所述视频帧的时间点相对应的弹幕信息,所述弹幕信息包括至少一条弹幕的弹幕位置以及弹幕内容;
显示位置确定子模块,被配置为根据所述弹幕位置,确定目标弹幕在所述视频帧中的显示位置,并将所述显示位置对应的区域作为所述弹幕显示单元,其中,所述目标弹幕为所述至少一条弹幕中的任意一个。
可选地,处理模块404,包括:
划分子模块,被配置为对所述初始图像进行单元划分,生成至少两个待处理子单元;
处理子模块,被配置为利用不同的高斯模糊半径分别对所述至少两个待处理子单元进行高斯模糊处理,生成第一高斯效果图像。
可选地,划分子模块,包括:
划分单元,被配置为利用n个矩形框对所述初始图像进行单元划分,生成n个待处理子单元,其中,n为正整数。
可选地,划分单元,包括:
第一划分子单元,被配置为利用第i矩形框对所述初始图像进行单元划分,生成第一待处理子单元,其中,i从1开始取值,且i∈[1,n];
第二划分子单元,被配置为利用第i+1矩形框对所述初始图像进行单元划分,生成第二待处理子单元,其中,所述第i+1矩形框包含所述第i矩形框,且所述第二待处理子单元的高斯模糊半径小于所述第一待处理子单元的高斯模糊半径;
判断子单元,被配置为判断i+1是否等于n;
若所述判断子单元的运行结果为否,则运行自增子单元;
所述自增子单元,被配置为i自增2,并运行所述第一划分子单元。
可选地,第二划分子单元,还被配置为将所述初始图形中所述第i矩形框与所述第i+1矩形框间的连通区域作为所述第二待处理子单元。
可选地,所述视频弹幕处理装置,还包括:
第一数量确定模块,被配置为根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕数量;
筛选模块,被配置为在所述弹幕数量大于预设数量阈值的情况下,对所述视频帧包含的弹幕进行筛选;
相应的,确定模块402,还被配置为根据筛选结果确定所述视频帧包含的弹幕显示单元。
可选地,所述视频弹幕处理装置,还包括:
第一区域确定模块,被配置为根据所述弹幕显示单元确定弹幕显示区域;
截取模块,被配置为在所述目标视频帧中截取所述弹幕显示区域对应的第一待处理图像,并对所述第一待处理图像进行划分,生成至少两个待处理子区域,其中,所述至少两个待处理子区域的长与所述弹幕显示区域的长相等,所述至少两个待处理子区域的宽小于所述弹幕显示区域的宽;
第一高斯模糊处理模块,被配置为利用不同的高斯模糊半径分别对所述至少两个待处理子区域进行高斯模糊处理,生成第二高斯效果图像。
可选地,所述视频弹幕处理装置,还包括:
第二数量确定模块,被配置为根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕数量;
在所述弹幕数量大于预设数量阈值的情况下,运行所述第一区域确定模块。
可选地,所述视频弹幕处理装置,还包括:
弹幕显示单元确定模块,被配置为在所述弹幕数量小于等于预设数量阈值的情况下,确定所述待处理视频的视频帧包含的弹幕显示单元;
第二区域确定模块,被配置为根据所述弹幕显示单元确定弹幕显示区域;
第二高斯模糊处理模块,被配置为在所述目标视频帧中截取所述弹幕显示区域对应的第二待处理图像,并对所述第二待处理图像进行高斯模糊处理,生成第三高斯效果图像。
可选地,所述视频弹幕处理装置,还包括:
参考对象确定模块,被配置为基于所述弹幕显示区域确定参考对象,并根据所述至少两个待处理子区域与所述参考对象间的距离,确定所述至少两个待处理子区域的高斯模糊半径。
可选地,所述视频弹幕处理装置,还包括:
生成模块,被配置为将所述第二高斯效果图像与所述目标视频帧进行叠加,生成所述目标视频帧的更新结果。
可选地,所述视频弹幕处理装置,还包括:
弹幕内容确定模块,被配置为根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕内容;
子区域生成模块,被配置为根据所述视频帧的大小确定目标视频帧的显示区域的大小,并对所述显示区域进行划分,生成视频播放子区域以及弹幕显示子区域;
添加模块,被配置为将所述弹幕内容添加至所述弹幕显示子区域,并截取所述弹幕显示子区域对应的初始图像;
图像生成模块,被配置为对所述初始图像进行高斯模糊处理,生成高斯效果图像;
收缩处理模块,被配置为按照所述视频播放子区域的大小对所述视频帧进行收缩处理,生成中间视频帧;
拼接模块,被配置为将所述高斯效果图像与所述中间视频帧进行拼接,生成包含所述弹幕内容的目标视频帧;
目标视频生成模块,被配置为对所述目标视频帧进行整合,生成目标视频。
可选地,叠加模块406,包括:
解析子模块,被配置为解析所述视频帧,提取所述视频帧的防遮挡区域数据;
建立子模块,被配置为根据所述防遮挡区域数据建立所述视频帧对应的弹幕蒙版;
显示子模块,被配置为将所述第一高斯效果图像显示到所述弹幕蒙版,生成包所述弹幕内容的目标视频帧。
上述为本实施例的一种视频弹幕处理装置的示意性方案。需要说明的是,该视频弹幕处理装置的技术方案与上述的视频弹幕处理方法的技术方案属于同一构思,视频弹幕处理装置的技术方案未详细描述的细节内容,均可以参见上述视频弹幕处理方法的技术方案的描述。
图5示出了根据本申请一个实施例提供的一种计算设备500的结构框图。该计算设备500的部件包括但不限于存储器510和处理器520。处理器520与存储器510通过总线530相连接,数据库550用于保存数据。
计算设备500还包括接入设备540,接入设备540使得计算设备500能够经由一个或多个网络560通信。这些网络的示例包括公用交换电话网(PSTN)、局域网(LAN)、广域网(WAN)、个域网(PAN)或诸如因特网的通信网络的组合。接入设备540可以包括有线或无线的任何类型的网络接口(例如,网络接口卡(NIC))中的一个或多个,诸如IEEE802.11无线局域网(WLAN)无线接口、全球微波互联接入(Wi-MAX)接口、以太网接口、通用串行总线(USB)接口、蜂窝网络接口、蓝牙接口、近场通信(NFC)接口,等等。
在本申请的一个实施例中,计算设备500的上述部件以及图5中未示出的其他部件也可以彼此相连接,例如通过总线。应当理解,图5所示的计算设备结构框图仅仅是出于示例的目的,而不是对本申请范围的限制。本领域技术人员可以根据需要,增添或替换其他部件。
计算设备500可以是任何类型的静止或移动计算设备,包括移动计算机或移动计算设备(例如,平板计算机、个人数字助理、膝上型计算机、笔记本计算机、上网本等)、移动电话(例如,智能手机)、可佩戴的计算设备(例如,智能手表、智能眼镜等)或其他类型的移动设备,或者诸如台式计算机或PC的静止计算设备。计算设备500还可以是移动式或静止式的服务器。
其中,处理器520用于执行如下计算机可执行指令,所述处理器用于执行所述计算机可执行指令,其中,所述处理器执行所述计算机可执行指令时实现所述视频弹幕处理方法的步骤。
上述为本实施例的一种计算设备的示意性方案。需要说明的是,该计算设备的技术方案与上述的视频弹幕处理方法的技术方案属于同一构思,计算设备的技术方案未详细描述的细节内容,均可以参见上述视频弹幕处理方法的技术方案的描述。
本申请一实施例还提供一种计算机可读存储介质,其存储有计算机可执行指令,该指令被处理器执行时实现所述视频弹幕处理方法的步骤。
上述为本实施例的一种计算机可读存储介质的示意性方案。需要说明的是,该存储介质的技术方案与上述的视频弹幕处理方法的技术方案属于同一构思,存储介质的技术方案未详细描述的细节内容,均可以参见上述视频弹幕处理方法的技术方案的描述。
上述对本申请特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
所述计算机指令包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。需要说明的是,所述计算机可读介质包含的内容可以根据司法管辖区内立法和专利实践的要求进行适当的增减,例如在某些司法管辖区,根据立法和专利实践,计算机可读介质不包括电载波信号和电信信号。
需要说明的是,对于前述的各方法实施例,为了简便描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请实施例并不受所描述的动作顺序的限制,因为依据本申请实施例,某些步骤可以采用其它顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定都是本申请实施例所必须的。
在上述实施例中,对各个实施例的描述都各有侧重,某个实施例中没有详述的部分,可以参见其它实施例的相关描述。
以上公开的本申请优选实施例只是用于帮助阐述本申请。可选实施例并没有详尽叙述所有的细节,也不限制该发明仅为所述的具体实施方式。显然,根据本申请实施例的内容,可作很多的修改和变化。本申请选取并具体描述这些实施例,是为了更好地解释本申请实施例的原理和实际应用,从而使所属技术领域技术人员能很好地理解和利用本申请。本申请仅受权利要求书及其全部范围和等效物的限制。
Claims (15)
1.一种视频弹幕处理方法,其特征在于,包括:
根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容;
在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行高斯模糊处理,生成第一高斯效果图像;
将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧,根据所述目标视频帧中的弹幕显示单元确定弹幕显示区域;在所述目标视频帧中截取所述弹幕显示区域对应的第一待处理图像,并对所述第一待处理图像进行划分,生成至少两个待处理子区域,其中,所述至少两个待处理子区域的长与所述弹幕显示区域的长相等,所述至少两个待处理子区域的宽小于所述弹幕显示区域的宽;利用不同的高斯模糊半径分别对所述至少两个待处理子区域进行高斯模糊处理,生成第二高斯效果图像,将所述第二高斯效果图像与所述目标视频帧进行叠加,生成所述目标视频帧的更新结果;
对所述目标视频帧的更新结果进行整合,生成目标视频。
2.根据权利要求1所述的视频弹幕处理方法,其特征在于,所述根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,包括:
获取待处理视频的视频帧、以及与所述视频帧的时间点相对应的弹幕信息,所述弹幕信息包括至少一条弹幕的弹幕位置以及弹幕内容;
根据所述弹幕位置,确定目标弹幕在所述视频帧中的显示位置,并将所述显示位置对应的区域作为所述弹幕显示单元,其中,所述目标弹幕为所述至少一条弹幕中的任意一个。
3.根据权利要求1所述的视频弹幕处理方法,其特征在于,所述对所述初始图像进行高斯模糊处理,生成第一高斯效果图像,包括:
对所述初始图像进行单元划分,生成至少两个待处理子单元;
利用不同的高斯模糊半径分别对所述至少两个待处理子单元进行高斯模糊处理,生成第一高斯效果图像。
4.根据权利要求3所述的视频弹幕处理方法,其特征在于,所述对所述初始图像进行单元划分,生成至少两个待处理子单元,包括:
利用n个矩形框对所述初始图像进行单元划分,生成n个待处理子单元,其中,n为正整数。
5.根据权利要求4所述的视频弹幕处理方法,其特征在于,所述利用n个矩形框对所述初始图像进行单元划分,生成n个待处理子单元,包括:
利用第i矩形框对所述初始图像进行单元划分,生成第一待处理子单元,其中,i从1开始取值,且i∈[1,n];
利用第i+1矩形框对所述初始图像进行单元划分,生成第二待处理子单元,其中,所述第i+1矩形框包含所述第i矩形框,且所述第二待处理子单元的高斯模糊半径小于所述第一待处理子单元的高斯模糊半径;
判断i+1是否等于n;
若否,则i自增2,并返回执行所述利用第i矩形框对所述初始图像进行单元划分的步骤。
6.根据权利要求5所述的视频弹幕处理方法,其特征在于,所述利用第i+1矩形框对所述初始图像进行单元划分,生成第二待处理子单元,包括:
将所述初始图像中所述第i矩形框与所述第i+1矩形框间的连通区域作为所述第二待处理子单元。
7.根据权利要求1或3所述的视频弹幕处理方法,其特征在于,所述确定所述待处理视频的视频帧包含的弹幕显示单元之前,还包括:
根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕数量;
在所述弹幕数量大于预设数量阈值的情况下,对所述视频帧包含的弹幕进行筛选;
相应的,确定所述待处理视频的视频帧包含的弹幕显示单元,包括:
根据筛选结果确定所述视频帧包含的弹幕显示单元。
8.根据权利要求1所述的视频弹幕处理方法,其特征在于,所述确定所述待处理视频的视频帧包含的弹幕显示单元之后,还包括:
根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕数量;
在所述弹幕数量大于预设数量阈值的情况下,执行所述根据所述弹幕显示单元确定弹幕显示区域的步骤。
9.根据权利要求8所述的视频弹幕处理方法,其特征在于,还包括:
在所述弹幕数量小于等于预设数量阈值的情况下,根据所述弹幕显示单元确定弹幕显示区域;
在所述目标视频帧中截取所述弹幕显示区域对应的第二待处理图像,并对所述第二待处理图像进行高斯模糊处理,生成第三高斯效果图像。
10.根据权利要求1所述的视频弹幕处理方法,其特征在于,所述利用不同的高斯模糊半径分别对所述至少两个待处理子区域进行高斯模糊处理之前,还包括:
基于所述弹幕显示区域确定参考对象,并根据所述至少两个待处理子区域与所述参考对象间的距离,确定所述至少两个待处理子区域的高斯模糊半径。
11.根据权利要求1所述的视频弹幕处理方法,其特征在于,还包括:
根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕内容;
根据所述视频帧的大小确定目标视频帧的显示区域的大小,并对所述显示区域进行划分,生成视频播放子区域以及弹幕显示子区域;
将所述弹幕内容添加至所述弹幕显示子区域,并截取所述弹幕显示子区域对应的初始图像;
对所述初始图像进行高斯模糊处理,生成高斯效果图像;
按照所述视频播放子区域的大小对所述视频帧进行收缩处理,生成中间视频帧;
将所述高斯效果图像与所述中间视频帧进行拼接,生成包含所述弹幕内容的目标视频帧;
对所述目标视频帧进行整合,生成目标视频。
12.根据权利要求1所述的视频弹幕处理方法,其特征在于,所述将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧,包括:
解析所述视频帧,提取所述视频帧的防遮挡区域数据;
根据所述防遮挡区域数据建立所述视频帧对应的弹幕蒙版;
将所述第一高斯效果图像显示到所述弹幕蒙版,生成包所述弹幕内容的目标视频帧。
13.一种视频弹幕处理装置,其特征在于,包括:
确定模块,被配置为根据待处理视频的弹幕信息,确定所述待处理视频的视频帧包含的弹幕显示单元,以及所述弹幕显示单元显示的弹幕内容;
处理模块,被配置为在所述视频帧中截取所述弹幕显示单元对应的初始图像,并对所述初始图像进行高斯模糊处理,生成第一高斯效果图像;
叠加模块,被配置为将所述第一高斯效果图像与所述视频帧进行叠加,生成包含所述弹幕内容的目标视频帧,根据所述目标视频帧中的弹幕显示单元确定弹幕显示区域;在所述目标视频帧中截取所述弹幕显示区域对应的第一待处理图像,并对所述第一待处理图像进行划分,生成至少两个待处理子区域,其中,所述至少两个待处理子区域的长与所述弹幕显示区域的长相等,所述至少两个待处理子区域的宽小于所述弹幕显示区域的宽;利用不同的高斯模糊半径分别对所述至少两个待处理子区域进行高斯模糊处理,生成第二高斯效果图像,将所述第二高斯效果图像与所述目标视频帧进行叠加,生成所述目标视频帧的更新结果;
整合模块,被配置为对所述目标视频帧的更新结果进行整合,生成目标视频。
14.一种计算设备,其特征在于,包括:
存储器和处理器;
所述存储器用于存储计算机可执行指令,所述处理器用于执行所述计算机可执行指令,其中,所述处理器执行所述计算机可执行指令时实现权利要求1-12任意一项所述的视频弹幕处理方法的步骤。
15.一种计算机可读存储介质,其特征在于,其存储有计算机指令,该指令被处理器执行时实现权利要求1-12任意一项所述的视频弹幕处理方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110480501.4A CN113225606B (zh) | 2021-04-30 | 2021-04-30 | 视频弹幕处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110480501.4A CN113225606B (zh) | 2021-04-30 | 2021-04-30 | 视频弹幕处理方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113225606A CN113225606A (zh) | 2021-08-06 |
CN113225606B true CN113225606B (zh) | 2022-09-23 |
Family
ID=77090355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110480501.4A Active CN113225606B (zh) | 2021-04-30 | 2021-04-30 | 视频弹幕处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113225606B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113784169B (zh) * | 2021-09-10 | 2023-06-27 | 湖南快乐阳光互动娱乐传媒有限公司 | 一种带弹幕的视频录制方法及装置 |
CN113792653B (zh) * | 2021-09-13 | 2023-10-20 | 山东交通学院 | 一种遥感影像云检测的方法、系统、设备和存储介质 |
CN113949922A (zh) * | 2021-10-14 | 2022-01-18 | 海南车智易通信息技术有限公司 | 一种蒙版图片的生成方法、计算设备以及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853498A (zh) * | 2009-03-31 | 2010-10-06 | 华为技术有限公司 | 图像合成方法及图像处理装置 |
CN105825490A (zh) * | 2016-03-16 | 2016-08-03 | 北京小米移动软件有限公司 | 图像的高斯模糊方法及装置 |
CN106651991A (zh) * | 2016-09-12 | 2017-05-10 | 广州市久邦数码科技有限公司 | 一种智能贴图实现方法及其系统 |
CN107743272A (zh) * | 2017-10-26 | 2018-02-27 | 上海哔哩哔哩科技有限公司 | 截图方法及设备 |
CN108322646A (zh) * | 2018-01-31 | 2018-07-24 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN111402135A (zh) * | 2020-03-17 | 2020-07-10 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN111415300A (zh) * | 2020-05-08 | 2020-07-14 | 广东申义实业投资有限公司 | 一种用于全景图像的拼接方法和系统 |
CN111818331A (zh) * | 2020-08-14 | 2020-10-23 | 广州虎牙科技有限公司 | 弹幕显示流畅性的检测方法、装置、设备和介质 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5571269B2 (ja) * | 2012-07-20 | 2014-08-13 | パナソニック株式会社 | コメント付き動画像生成装置およびコメント付き動画像生成方法 |
CN104575553B (zh) * | 2014-12-19 | 2017-09-15 | 百度时代网络技术(北京)有限公司 | 产生叠加在播放对象上的弹幕的方法和装置 |
CN106713968B (zh) * | 2016-12-27 | 2020-04-24 | 北京奇虎科技有限公司 | 一种直播数据显示方法和装置 |
CN107820131B (zh) * | 2017-10-30 | 2019-12-31 | 优酷网络技术(北京)有限公司 | 分享评论信息的方法及装置 |
CN108564541B (zh) * | 2018-03-28 | 2022-04-15 | 麒麟合盛网络技术股份有限公司 | 一种图像处理方法及装置 |
CN110458752B (zh) * | 2019-07-18 | 2022-11-11 | 西北工业大学 | 一种基于局部遮挡条件下的图像换脸方法 |
-
2021
- 2021-04-30 CN CN202110480501.4A patent/CN113225606B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853498A (zh) * | 2009-03-31 | 2010-10-06 | 华为技术有限公司 | 图像合成方法及图像处理装置 |
CN105825490A (zh) * | 2016-03-16 | 2016-08-03 | 北京小米移动软件有限公司 | 图像的高斯模糊方法及装置 |
CN106651991A (zh) * | 2016-09-12 | 2017-05-10 | 广州市久邦数码科技有限公司 | 一种智能贴图实现方法及其系统 |
CN107743272A (zh) * | 2017-10-26 | 2018-02-27 | 上海哔哩哔哩科技有限公司 | 截图方法及设备 |
CN108322646A (zh) * | 2018-01-31 | 2018-07-24 | 广东欧珀移动通信有限公司 | 图像处理方法、装置、存储介质及电子设备 |
CN111402135A (zh) * | 2020-03-17 | 2020-07-10 | Oppo广东移动通信有限公司 | 图像处理方法、装置、电子设备及计算机可读存储介质 |
CN111415300A (zh) * | 2020-05-08 | 2020-07-14 | 广东申义实业投资有限公司 | 一种用于全景图像的拼接方法和系统 |
CN111818331A (zh) * | 2020-08-14 | 2020-10-23 | 广州虎牙科技有限公司 | 弹幕显示流畅性的检测方法、装置、设备和介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113225606A (zh) | 2021-08-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113225606B (zh) | 视频弹幕处理方法及装置 | |
US10909664B2 (en) | Generating and displaying blur in images | |
US9811894B2 (en) | Image processing method and apparatus | |
EP3681144B1 (en) | Video processing method and apparatus based on augmented reality, and electronic device | |
KR102248799B1 (ko) | 타겟 대상 디스플레이 방법, 장치 및 전자 기기 | |
KR20130140904A (ko) | 비디오 적응 및 재타겟팅을 위한 비디오 캡션 재-오버레이 시스템 및 방법 | |
CN112868224B (zh) | 捕获和编辑动态深度图像的方法、装置和存储介质 | |
CN114331820A (zh) | 图像处理方法、装置、电子设备及存储介质 | |
CN114630057B (zh) | 确定特效视频的方法、装置、电子设备及存储介质 | |
US20220188357A1 (en) | Video generating method and device | |
CN113469883B (zh) | 动态分辨率的渲染方法、装置、电子设备及可读存储介质 | |
CN113727039B (zh) | 视频生成方法、装置、电子设备及存储介质 | |
CN114598823A (zh) | 特效视频生成方法、装置、电子设备及存储介质 | |
CN114339447B (zh) | 图片转视频的方法、装置、设备及存储介质 | |
CN113256785B (zh) | 图像处理方法、装置、设备及介质 | |
CN114428573B (zh) | 特效图像处理方法、装置、电子设备及存储介质 | |
CN110941413B (zh) | 显示画面的生成方法及相关装置 | |
CN115049572A (zh) | 图像处理方法、装置、电子设备和计算机可读存储介质 | |
CN114040129A (zh) | 视频生成方法、装置、设备及存储介质 | |
JP7471510B2 (ja) | ピクチャのビデオへの変換の方法、装置、機器および記憶媒体 | |
US20230247262A1 (en) | Bullet-screen comment processing | |
CN116167914A (zh) | 图像超分辨率处理方法、装置、电子设备及存储介质 | |
CN116112680A (zh) | 视频处理方法和装置 | |
CN117151975A (zh) | 图像处理方法、场景更新方法、装置、设备及存储介质 | |
KR20230129798A (ko) | 원본 영상으로부터 객체 영상을 추출하는 장치, 방법 및 컴퓨터 프로그램 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |