CN109495793B - 一种弹幕写入方法、装置、设备及介质 - Google Patents
一种弹幕写入方法、装置、设备及介质 Download PDFInfo
- Publication number
- CN109495793B CN109495793B CN201811493486.1A CN201811493486A CN109495793B CN 109495793 B CN109495793 B CN 109495793B CN 201811493486 A CN201811493486 A CN 201811493486A CN 109495793 B CN109495793 B CN 109495793B
- Authority
- CN
- China
- Prior art keywords
- bullet screen
- video
- data
- original
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/47—End-user applications
- H04N21/488—Data services, e.g. news ticker
- H04N21/4884—Data services, e.g. news ticker for displaying subtitles
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/439—Processing of audio elementary streams
- H04N21/4398—Processing of audio elementary streams involving reformatting operations of audio signals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/40—Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
- H04N21/43—Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
- H04N21/44—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
- H04N21/4402—Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8106—Monomedia components thereof involving special audio data, e.g. different tracks for different languages
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/81—Monomedia components thereof
- H04N21/8126—Monomedia components thereof involving additional data, e.g. news, sports, stocks, weather forecasts
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N21/00—Selective content distribution, e.g. interactive television or video on demand [VOD]
- H04N21/80—Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
- H04N21/85—Assembly of content; Generation of multimedia applications
Abstract
本发明实施例公开了一种弹幕写入方法、装置、设备及介质,所述方法包括:获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据。本发明实施例提供的方法通过使用ffmpeg的滤镜属性实现视频弹幕动画功能,解决了使用第三方接口写入弹幕时造成的兼容性问题。
Description
技术领域
本发明实施例涉及直播领域,尤其涉及一种弹幕写入方法、装置、设备及介质。
背景技术
随着视频直播行业的发展,弹幕越来越受到年轻人的喜爱。弹幕不仅增强了用户的互动性和趣味性,而且能根据用户的相关等级展示不同的弹幕效果,满足不同用户的各种诉求。
目前,在视频中绘制弹幕时,一般通过ffmpeg结合多媒体编程接口(DirecteXtension,DirectX)进行弹幕的绘制,但是由于引入了第三方DirectX,会出现DirectX兼容性问题。
发明内容
本发明实施例提供了一种弹幕写入方法、装置、设备及介质,以实现解决第三方接口写入弹幕时造成的兼容性问题。
第一方面,本发明实施例提供了一种弹幕写入方法,包括:
获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;
确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;
通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据。第二方面,本发明实施例还提供了一种弹幕写入装置,包括:
原始数据获取模块,用于获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;
弹幕信息写入模块,用于确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;
视频数据生成模块,用于通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据。
第三方面,本发明实施例还提供了一种计算机设备,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明任意实施例所提供的弹幕写入方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例所提供的弹幕写入方法。
本发明实施例通过获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据,通过使用ffmpeg的滤镜属性实现视频弹幕动画功能,解决了使用第三方接口写入弹幕时造成的兼容性问题。
附图说明
图1是本发明实施例一所提供的一种弹幕写入方法的流程图;
图2是本发明实施例二所提供的一种弹幕写入方法的流程图;
图3是本发明实施例三所提供的一种弹幕写入方法的流程图;
图4是本发明实施例四所提供的一种弹幕写入方法的流程图;
图5是本发明实施例五所提供的一种弹幕写入装置的结构示意图;
图6是本发明实施例六所提供的计算机设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1是本发明实施例一所提供的一种弹幕写入方法的流程图,本实施例可适用于在进行视频直播时,在视频中绘制弹幕的情形。该方法可以由弹幕写入装置执行,该弹幕写入装置可以采用软件和/或硬件的方式实现,例如,该弹幕写入装置可配置于计算机设备中。如图1所示,所述方法包括:
S110、获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据。
可选的,可以通过ffmpeg通过原始视频数据获得原始视频数据中的原始音频采样数据和原始视频像素数据。ffmpeg是一套可以用来记录、转换数字音频、视频,并能将其转化为流的开源音视频编解码套件。ffmpeg主要模块由AVFormat、AVFilter、AVDevice、AVUtil、swresample和swscale七个部分组成,其中,AVFormat用于各种音视频封装格式的生成和解析,AVCodec用于各种音视频的编解码,AVFilter用于对音视频进行滤镜处理,AVDevice用于与多媒体设备进行交互,AVUtil封装了各种公共函数,swresample用于对音视频进行重采样,swscale用于对视频图像进行缩放以及图像YUV转为RGB等格式。
使用ffmpeg对视频进行编解码的过程为:将获取的Flv、Mkv、MP4等封装格式的原始视频数据进行解封装处理后,得到AAC、MP3等格式音频压缩数据和H.264、MPEG2等格式的视频压缩数据,然后对音频压缩数据进行音频解码得到音频采样数据PCM,对视频压缩数据进行视频解码得到视频像素数据YUV,最后经过音视频同步变成音频和视频所能同时播放的视频数据。
在本实施例中,在得到视频像素数据之后,将弹幕写入视频像素数据中,将写入弹幕后的视频像素数据与音频采样数据进行封装,得到音视频同步的写入弹幕后的视频数据。
S120、确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据。
在本实施例中,可以根据发起待生成弹幕的用户属性确定待生成弹幕的弹幕属性信息。可选的,弹幕属性信息包括弹幕位置、弹幕尺寸、弹幕颜色和弹幕特效中的至少一种。
可选的,可以预先设置用户属性与弹幕属性信息的对应关系,在检测到弹幕生成指令后,通过对弹幕生成指令进行解析,得到弹幕生成指令中包含的用户标识,根据用户标识对应的用户属性,以及用户属性与弹幕属性信息的对应关系确定弹幕属性信息。
可选的,用户还可以自定义弹幕属性信息,当用户自定义弹幕属性信息后,触发弹幕写入功能,当检测到用户触发弹幕写入功能时,获取用户自定义的弹幕属性信息,将获取的弹幕属性信息确定为待生成弹幕的弹幕属性信息。
可选的,所述确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数包括:
调用所述ffmpeg中的滤镜属性参数,获得所述待生成弹幕对应画面在视频中的时间;
根据所述时间以及所述待生成弹幕的移动速度计算出所述待生成弹幕在视频中的位置信息,将所述位置信息作为所述滤镜属性参数中的位置参数;
获得所述待生成弹幕的尺寸参数以及颜色参数,将所述尺寸参数作为所述滤镜属性参数的尺寸参数,将所述颜色参数作为所述滤镜属性参数的颜色参数。
在本实施例中,根据待生成弹幕的弹幕属性信息确定ffmpeg中的滤镜属性参数,通过ffmpeg中的滤镜属性将滤镜属性参数写入原始视频像素数据中。可选的,针对弹幕尺寸、弹幕颜色和弹幕特效等属性,可以将弹幕属性信息中该属性对应的值作为ffmpeg中的滤镜属性参数中该属性对应的值。
具体的,可以通过ffmpeg中的滤镜属性计算待生成弹幕在弹幕中的最终位置。可选,调用滤镜属性,获得返回的当前画面在视频中的时间t,考虑到弹幕的移动方向为由屏幕右侧移动到屏幕左侧,则通过公式x=width-t*speed计算弹幕所在屏幕的水平位置x,其中,width为屏幕的宽度,speed为弹幕的移动速度,t为待生成弹幕所在画面在视频中的时间,由于弹幕移动是在水平方向上移动的,因此待生成弹幕在屏幕中的垂直位置只要保证y一致即可。通过ffmpeg中的滤镜属性计算出待生成弹幕在视频中的位置坐标,将该位置坐标作为弹幕属性参数中的弹幕位置参数。
示例性的,若通过ffmpeg中的滤镜属性计算出待生成弹幕在视频中的位置坐标为(1,1),弹幕属性信息中弹幕尺寸为4号字体,弹幕颜色为黄色,则可以确定滤镜属性参数中弹幕位置坐标为(1,1),弹幕属性信息中弹幕尺寸为4号字体,弹幕颜色为黄色。
S130、通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据。
在本实施例中,可以通过ffmpeg将原始音频采样数据进行编码,得到音频采样数据,将写入弹幕后的视频像素数据进行编码,得到视频压缩数据,再将音频采样数据和视频压缩数据进行封装,得到封装好的,音频视频同步的写入弹幕后的视频数据。
本发明实施例通过获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据,通过使用ffmpeg的滤镜属性实现视频弹幕动画功能,解决了使用第三方接口写入弹幕时造成的兼容性问题。
实施例二
图2是本发明实施例二所提供的一种弹幕写入方法的流程图,本实施例在上述实施例的基础上进行进一步地优化。如图2所示,所述方法包括:
S210、获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据。
S220、确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数。
S230、调用ffmpeg中的预设创建函数创建滤镜上下文,并获得返回的滤镜上下文结构体。
在本实施例中,对通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据进行了具体化。
首先,通过调用ffmpeg中的预设创建函数创建滤镜上下文,其中,预设创建函数可以为avfilter_graph_create_filter函数,调用avfilter_graph_create_filter函数遍可以获得返回值AVFilterContext,AVFilterContext即滤镜上下文结构体。
S240、将所述滤镜属性参数作为属性传入所述滤镜上下文结构体,并将传入属性后的滤镜上下文结构体作为预设写入函数的执行参数。
可选的,获得滤镜上下文结构体后,将确定好的滤镜属性参数作为属性传入滤镜上下文结构体。例如,可以通过将AVFilterContext结构体作为参数传入avfilter_graph_create_filter函数,将确定好的滤镜属性参数传入滤镜上下文结构体。
S250、调用所述预设写入函数,将传入属性后的滤镜上下文结构体写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据。
在本实施例中,可以调用ffmpeg中的avfilter_graph_config方法,将滤镜上下文结构体AVFilterContext以及原始视频像素数据作为参数传入该方法中,将弹幕写入原始视频像素数据中。
S260、通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据。
本发明实施例的技术方案,在上述实施例的基础上对通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据进行了具体化,通过调用ffmpeg中的预设创建函数创建滤镜上下文,并获得返回的滤镜上下文结构体,将所述滤镜属性参数作为属性传入所述滤镜上下文结构体,调用所述预设写入函数,将传入属性后的滤镜上下文结构体写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据,实现了通过ffmpeg中的滤镜属性将弹幕写入视频像素数据中,解决了使用第三方接口写入弹幕时造成的兼容性问题。
实施例三
图3是本发明实施例三所提供的一种弹幕写入方法的流程图,本实施例在上述实施例的基础上进行进一步地优化。如图3所示,所述方法包括:
S310、获取原始视频数据,将所述原始视频数据的封装目录作为参数传入预设结构体获取函数,获得所述原始视频数据的视频文件格式上下文结构体。
在本实施例中,原始视频数据即需要加入弹幕动画的视频,其封装格式可以为Flv、Mkv、MP4等格式。可选的,可以获取原始视频数据的封装目录,将封装目录作为参数传入预设结构体获取函数。其中,封装目录即存放视频文件的目录,是由用户选择存放视频文件的目录。预设结构体获取函数可以为avformat_open_input函数。
示例性的,将原始视频数据的封装目录替换avformat_open_input(const char*url,AVFormatContext**ps)中的const char参数,即可实现将封装目录作为参数传入该函数,将封装目录作为参数传入该函数后,获得该返回返回的视频文件格式上下文结构体AVFormatContext。其中,视频文件上下文结构体中包含有视频文件的文件格式等信息。
S320、将所述视频文件格式上下文结构体作为参数传入预设参数获取函数,并执行所述预设参数获取函数,获得所述原始视频数据的音频参数和视频参数。
可选的,获取原始视频数据的视频文件格式上下文结构体AVFormatContext后,将AVFormatContext作为参数传入预设参数获取函数,获得返回的音频参数和视频参数。其中,预设参数获取函数可以为avformat_find_stream_info函数。
示例性的,将获取的视频文件格式上下文结构体AVFormatContext替换avformat_find_stream_info(AVFormatContext**ps)中的AVFormatContext参数,再执行参数写入后的该函数即可获得返回的音频参数和视频参数。
S330、遍历所述视频文件格式上下文结构体,通过所述音频参数获得原始音频压缩数据,通过所述视频参数获得原始视频压缩数据。
在本实施例中,获取音频参数和视频参数后,分别通过音频参数和视频参数在视频文件上下文结构体中查找到原始音频压缩数据和原始视频压缩数据。
示例性的,可以遍历视频文件格式上下文结构体中的nb_streams(即保存的音视频数据格式),判断当前是否为音频或者视频,再通过videoIndex和audioIndex保存当前音视频在nb_streams的索引,最后使用videoCodec和audioCodec通过预先设置的保存路径保存音频压缩数据和视频压缩数据。
S340、通过预设的解编码算法,根据所述视频文件格式上下文结构体中的编码标识以及所述原始音频压缩数据获得所述原始音频采样数据,根据编码标识以及所述原始视频压缩数据获得所述原始视频像素数据。
在本实施例中,对原始音频压缩数据和原始视频压缩数据进行解编码。在一种实施方式中,可以首先获得音频解码器以及视频解码器,然后基于音频解码器和原始音频压缩数据,调用预设解编码算法,获得原始音频采样数据,基于视频解码器和原始视频压缩数据,调用预设解编码算法,获得原始视频像素数据。
可选的,所述根据所述视频文件格式上下文结构体中的编码标识以及所述原始音频压缩数据获得所述原始音频采样数据,根据编码标识以及所述原始视频压缩数据获得所述原始视频像素数据,包括:
将所述编码标识作为参数传入预设解码器获取函数中,获得音频解码器和视频解码器;将所述音频解码器和所述原始音频压缩数据作为参数传入预设数据获取函数中,获得所述原始音频采样数据;将所述视频解码器和所述原始视频压缩数据作为参数传入预设数据获取函数中,获得所述原始视频像素数据。
可选的,预设解码器获取函数可以为avcodec_find_decoder(AVCodecID codeId)函数,预设数据获取函数可以为avcodec_open2(AVCodecContext*avctx,AVCodec codec)函数。
示例性的,可以将获得的AVFormatContext结构体中的编码标识codeId作为参数传入avcodec_find_decoder(AVCodecID codeId)函数中,获得当前视频或音频解码器codec。然后将当前视频或音频解码器codec和原始音频压缩数据以及原始视频压缩数据作为参数传入avcodec_open2(AVCodecContext*avctx,AVCodec codec)中,即可得到原始音频采样数据PCM和原始视频像素数据YUV。
S350、确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据。
S360、通过预设函数,根据所述编码标识获得音频压缩数据和视频压缩数据。
在本实施例中,通过与上述对原始音频压缩数据和原始视频压缩数据进行解编码相反的操作,对原始音频采样数据和视频像素数据进行编码。在一种实施方式中,可以首先获得音频编码器以及视频编码器,然后基于音频编码器和原始音频压缩数据,调用预设编码算法,获得视频采样数据,基于视频编码器和视频压缩数据,调用预设编码算法,获得视频像素数据。
可选的,所述通过预设函数,根据所述编码标识获得音频压缩数据和视频压缩数据,包括:
将所述编码标识作为参数传入预设编码器获取函数中,获得音频编码器和视频编码器;将所述音频编码器和所述原始音频压缩数据作为参数传入预设编码函数中,获得所述音频压缩数据;将所述视频解码器和所述原始视频压缩数据作为参数传入预设编码函数中,获得所述视频压缩数据。
示例性的,可以将获得的AVFormatContext结构体中的编码标识codeId作为参数传入avcodec_find_encoder(AVCodecID codeId)函数中,获得当前视频或音频编码器codec。然后将当前视频或音频编码器codec和原始音频压缩数据以及写入弹幕后的视频压缩数据作为参数传入avcodec_open2(AVCodecContext*avctx,AVCodec codec)中,即可将音频采样数据编码为音频压缩数据,将视频像素数据编码为视频像素数据。
S370、通过预设的封装函数,将所述音频压缩数据和所述视频压缩数据写入各封装格式数据中,得到写入弹幕后的视频数据。
在本实施例中,可以通过预设的封装函数,如avformat_write_header,av_read_frame,avformat_write_tail,分别将音频压缩数据和视频压缩数据写入封装格式头部数据,压缩数据以及尾部数据,最后获得封装格式为Flv、Mkv、MP4等格式的视频数据。
本发明实施例的技术方案,在上述实施例的基础上对获取原始音频压缩数据和原始视频压缩数据,以及在将弹幕写入视频像素数据后,如何生成写入弹幕后的视频进行了具体化,实现了仅通过ffmpeg便可将弹幕写入视频像素数据中,解决了使用第三方接口写入弹幕时造成的兼容性问题。
实施例四
图4是本发明实施例四所提供的一种弹幕写入方法的流程图。本实施例在上述实施例的基础上,提供了一种优选实施例。如图4所示,所述方法包括:
S410、初始化。
通过调用ffmpeg中的av_register_all()方法可以注册ffmpeg中所有的组件,注册后即可使用各组件,以及各组件对应的功能。
S420、打开视频文件。
视频文件即需要加入弹幕动画的视频,其封装格式可以是Flv、Mkv、MP4等。通过ffmpeg中avformat_open_input(const char*url,AVFormatContext**ps)方法打开视频文件,将封装格式(即存放视频文件的目录,是由用户选择存放视频文件的目录)所在的目录传入此函数的参数url,目录替换const char参数并获得视频文件格式上下文结构体AVFormatContext,上下文结构体中包含文件格式等信息。
调用avformat_open_input之后,需要调用avformat_find_stream_info进一步获取所有的音频参数和视频参数,具体的,将AVFormatContext作为参数传入avformat_find_stream_info(AVFormatContext**ps)方法中,获取所有音视频媒体参数。
S430、解封装格式。
在本实施例中,S420中获得的结构体AVFormatContext保存了所有音视频媒体参数,通过遍历该结构体分别获得音频压缩数据和视频压缩数据。可选的,遍历视频文件格式上下文结构体分别获得原始音频压缩数据和原始视频压缩数据的代码可以为:
由上述代码可知,通过遍历avformatContext中的nb_streams(即保存的音视频数据格式),判断当前是否为音频或者视频,再通过videoIndex和audioIndex保存当前音视频再nb_streams的索引,最后使用videoCodec和audioCodec分别保存音频压缩数据和视频压缩数据。
S440、解编码。
将通过S420获得的AVFormatContext结构体中的codeId作为参数传入avcodec_find_decoder(AVCodecID codeId)函数中,可获得当前视频或音频解码器codec。然后将当前视频或音频解码器codec和通过S430获得的音频压缩数据和视频压缩数据作为参数分别传入avcodec_open2(AVCodecContext*avctx,AVCodec codec)中,得到音频采样数据PCM和视频像素数据YUV。
S450、使用ffmpeg滤镜功能写入弹幕。
在本实施例中,ffmpeg滤镜功能即AVFilter,通过AVFilter中的drawText属性可以为视频像素数据YUV加入弹幕,其加入方式为对S440中获得的视频像素数据YUV根据弹幕的大小颜色以及位置进行重新写入。
其中,使用使用ffmpeg滤镜功能将弹幕写入视频像素数据可以分为3步。
a.计算弹幕所在的最终位置。通过ffmpeg中的滤镜属性,获得返回的当前画面在视频中的时间t。由于弹幕是从屏幕右侧移动到屏幕左侧,通过x=width-t*speed可以获得弹幕所在屏幕的水平方向,其中,width为整个屏幕的宽度,speed为弹幕的速度,t为整个弹幕所在的速度,弹幕在垂直方向上的坐标只要保证y一致即可。
b.设置弹幕大小和颜色。通过ffmpeg中滤镜属性drawText设置弹幕的大小和颜色。可以分别通过设置弹幕的fontcolor以及fontsize,设置弹幕的大小以及颜色。
c.使用ffmpeg中的滤镜属性将弹幕写入。
首先通过ffmpeg中avfilter_graph_create_filter函数创建了滤镜上下文,并获得返回值为AVFilterContext的滤镜上下文结构体,然后通过a和b中设置的弹幕大小颜色以及位置等属性,作为属性传入AVFilterContext,最后使用ffmpeg中的avfilter_graph_config方法,将AVFilterContext以及S440中获得的视频像素数据YUV作为参数传入,将弹幕写入YUV视频像素数据中,得到写入弹幕后的视频像素数据。
S460、编码。
在本实施例中,此步骤与S440相反,其通过S420中获得的AVFormatContext结构体中的codeId作为参数传入avcodec_find_encoder(AVCodecID codeId)函数中获取当前视频或音频视频编码器codec,然后将当前视频或音频视频编码器codec以及音频压缩数据和S450中获得的视频像素数据作为参数传入avcodec_open2(AVCodecContext*avctx,AVCodec codec)中,将音频压缩数据和S450中获得的视频像素数据重新编码为音频压缩数据和视频压缩数据。
S470、封装格式。
将编码获得的音频压缩数据和视频压缩数据通过avformat_write_header,av_read_frame,avformat_write_tail分别写入封装格式头部数据,压缩数据以及尾部数据,最后获得封装格式为Flv、Mkv、MP4等格式的封装数据。
实施例五
图5是本发明实施例五所提供的一种弹幕写入装置的结构示意图。该弹幕写入装置可以采用软件和/或硬件的方式实现,例如该弹幕写入装置可以配置于计算机设备中,如图5所示,所述装置包括:原始数据获取模块510、弹幕信息写入模块520和视频数据生成模块530,其中:
原始数据获取模块510,用于获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;
弹幕信息写入模块520,用于确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;
视频数据生成模块530,用于通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据。
本发明实施例通过原始数据获取模块获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;弹幕信息写入模块确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;视频数据生成模块通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据,通过使用ffmpeg的滤镜属性实现视频弹幕动画功能,解决了使用第三方接口写入弹幕时造成的兼容性问题。
在上述方案的基础上,所述弹幕信息写入模块520具体用于:
调用ffmpeg中的预设创建函数创建滤镜上下文,并获得返回的滤镜上下文结构体;
将所述滤镜属性参数作为属性传入所述滤镜上下文结构体,并将传入属性后的滤镜上下文结构体作为预设写入函数的执行参数;
调用所述预设写入函数,将传入属性后的滤镜上下文结构体写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据。
在上述方案的基础上,所述原始数据获取模块510包括:
结构体获取单元,用于获取原始视频数据,将所述原始视频数据的封装目录作为参数传入预设结构体获取函数,获得所述原始视频数据的视频文件格式上下文结构体;
参数获取单元,用于将所述视频文件格式上下文结构体作为参数传入预设参数获取函数,并执行所述预设参数获取函数,获得所述原始视频数据的音频参数和视频参数;
压缩数据获取单元,用于遍历所述视频文件格式上下文结构体,通过所述音频参数获得原始音频压缩数据,通过所述视频参数获得原始视频压缩数据;
解编码单元,用于通过预设的解编码算法,根据所述视频文件格式上下文结构体中的编码标识以及所述原始音频压缩数据获得所述原始音频采样数据,根据编码标识以及所述原始视频压缩数据获得所述原始视频像素数据。
在上述方案的基础上,所述解编码单元具体用于:
将所述编码标识作为参数传入预设解码器获取函数中,获得音频解码器和视频解码器;
将所述音频解码器和所述原始音频压缩数据作为参数传入预设数据获取函数中,获得所述原始音频采样数据;
将所述视频解码器和所述原始视频压缩数据作为参数传入预设数据获取函数中,获得所述原始视频像素数据。
在上述方案的基础上,所述弹幕信息写入模块520具体用于:
调用所述ffmpeg中的滤镜属性参数,获得所述待生成弹幕对应画面在视频中的时间;
根据所述时间以及所述待生成弹幕的移动速度计算出所述待生成弹幕在视频中的位置信息,将所述位置信息作为所述滤镜属性参数中的位置参数;
获得所述待生成弹幕的尺寸参数以及颜色参数,将所述尺寸参数作为所述滤镜属性参数的尺寸参数,将所述颜色参数作为所述滤镜属性参数的颜色参数。
在上述方案的基础上,所述视频数据生成模块530具体用于:
通过预设函数,根据所述编码标识获得音频压缩数据和视频压缩数据;
通过预设的封装函数,将所述音频压缩数据和所述视频压缩数据写入各封装格式数据中,得到写入弹幕后的视频数据。
在上述方案的基础上,所述视频数据生成模块530具体用于:
将所述编码标识作为参数传入预设编码器获取函数中,获得音频编码器和视频编码器;
将所述音频编码器和所述原始音频压缩数据作为参数传入预设编码函数中,获得所述音频压缩数据;
将所述视频解码器和所述原始视频压缩数据作为参数传入预设编码函数中,获得所述视频压缩数据。
本发明实施例所提供的弹幕写入装置可执行任意实施例所提供的弹幕写入方法,具备执行方法相应的功能模块和有益效果。
实施例六
图6是本发明实施例六所提供的计算机设备的结构示意图。图6示出了适于用来实现本发明实施方式的示例性计算机设备612的框图。图6显示的计算机设备612仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图6所示,计算机设备612以通用计算设备的形式表现。计算机设备612的组件可以包括但不限于:一个或者多个处理器616,系统存储器628,连接不同系统组件(包括系统存储器628和处理器616)的总线618。
总线618表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器616或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
计算机设备612典型地包括多种计算机系统可读介质。这些介质可以是任何能够被计算机设备612访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器628可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)630和/或高速缓存存储器632。计算机设备612可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储装置634可以用于读写不可移动的、非易失性磁介质(图6未显示,通常称为“硬盘驱动器”)。尽管图6中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线618相连。存储器628可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块642的程序/实用工具640,可以存储在例如存储器628中,这样的程序模块642包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块642通常执行本发明所描述的实施例中的功能和/或方法。
计算机设备612也可以与一个或多个外部设备614(例如键盘、指向设备、显示器624等)通信,还可与一个或者多个使得用户能与该计算机设备612交互的设备通信,和/或与使得该计算机设备612能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口622进行。并且,计算机设备612还可以通过网络适配器620与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器620通过总线618与计算机设备612的其它模块通信。应当明白,尽管图中未示出,可以结合计算机设备612使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理器616通过运行存储在系统存储器628中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的弹幕写入方法,该方法包括:
获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;
确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;
通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据。
当然,本领域技术人员可以理解,处理器还可以实现本发明任意实施例所提供的弹幕写入方法的技术方案。
实施例七
本发明实施例七还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例所提供的弹幕写入方法,该方法包括:
获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;
确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;
通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据。
当然,本发明实施例所提供的一种计算机可读存储介质,其上存储的计算机程序不限于如上所述的方法操作,还可以执行本发明任意实施例所提供的弹幕写入中的相关操作。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。
Claims (8)
1.一种弹幕写入方法,其特征在于,包括:
获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;
确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;
通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据;
所述确定待生成弹幕的弹幕属性信息,包括:
根据发起待生成弹幕的用户属性确定待生成弹幕的弹幕属性信息;
其中,所述确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数包括:
调用所述ffmpeg中的滤镜属性参数,获得所述待生成弹幕对应画面在视频中的时间;
根据所述时间以及所述待生成弹幕的移动速度计算出所述待生成弹幕在视频中的位置信息,将所述位置信息作为所述滤镜属性参数中的位置参数;
获得所述待生成弹幕的尺寸参数以及颜色参数,将所述尺寸参数作为所述滤镜属性参数的尺寸参数,将所述颜色参数作为所述滤镜属性参数的颜色参数;
所述通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据,包括:
调用ffmpeg中的预设创建函数创建滤镜上下文,并获得返回的滤镜上下文结构体;
将所述滤镜属性参数作为属性传入所述滤镜上下文结构体,并将传入属性后的滤镜上下文结构体作为预设写入函数的执行参数;
调用所述预设写入函数,将传入属性后的滤镜上下文结构体写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据。
2.根据权利要求1所述的方法,其特征在于,所述获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据,包括:
获取原始视频数据,将所述原始视频数据的封装目录作为参数传入预设结构体获取函数,获得所述原始视频数据的视频文件格式上下文结构体;
将所述视频文件格式上下文结构体作为参数传入预设参数获取函数,并执行所述预设参数获取函数,获得所述原始视频数据的音频参数和视频参数;
遍历所述视频文件格式上下文结构体,通过所述音频参数获得原始音频压缩数据,通过所述视频参数获得原始视频压缩数据;
通过预设的解编码算法,根据所述视频文件格式上下文结构体中的编码标识以及所述原始音频压缩数据获得所述原始音频采样数据,根据所述编码标识以及所述原始视频压缩数据获得所述原始视频像素数据。
3.根据权利要求2所述的方法,其特征在于,所述根据所述视频文件格式上下文结构体中的编码标识以及所述原始音频压缩数据获得所述原始音频采样数据,根据所述编码标识以及所述原始视频压缩数据获得所述原始视频像素数据,包括:
将所述编码标识作为参数传入预设解码器获取函数中,获得音频解码器和视频解码器;
将所述音频解码器和所述原始音频压缩数据作为参数传入预设数据获取函数中,获得所述原始音频采样数据;
将所述视频解码器和所述原始视频压缩数据作为参数传入预设数据获取函数中,获得所述原始视频像素数据。
4.根据权利要求2所述的方法,其特征在于,所述通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据,包括:
通过预设函数,根据所述编码标识获得音频压缩数据和视频压缩数据;
通过预设的封装函数,将所述音频压缩数据和所述视频压缩数据写入各封装格式数据中,得到写入弹幕后的视频数据。
5.根据权利要求4所述的方法,其特征在于,所述通过预设函数,根据所述编码标识获得音频压缩数据和视频压缩数据,包括:
将所述编码标识作为参数传入预设编码器获取函数中,获得音频编码器和视频编码器;
将所述音频编码器和所述原始音频压缩数据作为参数传入预设编码函数中,获得所述音频压缩数据;
将所述视频编码器和所述原始视频压缩数据作为参数传入预设编码函数中,获得所述视频压缩数据。
6.一种弹幕写入装置,其特征在于,包括:
原始数据获取模块,用于获取原始视频数据,根据预设算法获取所述原始视频数据中的原始音频采样数据和原始视频像素数据;
弹幕信息写入模块,用于确定待生成弹幕的弹幕属性信息,根据所述弹幕属性信息确定ffmpeg中的滤镜属性参数,并通过ffmpeg中的滤镜属性将所述滤镜属性参数写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据;
视频数据生成模块,用于通过预设的编码算法根据所述原始音频采样数据和写入弹幕后的视频像素数据生成写入弹幕后的视频数据;
其中,
所述弹幕信息写入模块具体用于:
根据发起待生成弹幕的用户属性确定待生成弹幕的弹幕属性信息;
调用所述ffmpeg中的滤镜属性参数,获得所述待生成弹幕对应画面在视频中的时间;
根据所述时间以及所述待生成弹幕的移动速度计算出所述待生成弹幕在视频中的位置信息,将所述位置信息作为所述滤镜属性参数中的位置参数;
获得所述待生成弹幕的尺寸参数以及颜色参数,将所述尺寸参数作为所述滤镜属性参数的尺寸参数,将所述颜色参数作为所述滤镜属性参数的颜色参数;
调用ffmpeg中的预设创建函数创建滤镜上下文,并获得返回的滤镜上下文结构体;
将所述滤镜属性参数作为属性传入所述滤镜上下文结构体,并将传入属性后的滤镜上下文结构体作为预设写入函数的执行参数;
调用所述预设写入函数,将传入属性后的滤镜上下文结构体写入所述原始视频像素数据中,得到写入弹幕后的视频像素数据。
7.一种计算机设备,其特征在于,所述设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-5中任一所述的弹幕写入方法。
8.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-5中任一所述的弹幕写入方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811493486.1A CN109495793B (zh) | 2018-12-07 | 2018-12-07 | 一种弹幕写入方法、装置、设备及介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201811493486.1A CN109495793B (zh) | 2018-12-07 | 2018-12-07 | 一种弹幕写入方法、装置、设备及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109495793A CN109495793A (zh) | 2019-03-19 |
CN109495793B true CN109495793B (zh) | 2022-03-08 |
Family
ID=65709548
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811493486.1A Active CN109495793B (zh) | 2018-12-07 | 2018-12-07 | 一种弹幕写入方法、装置、设备及介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN109495793B (zh) |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108469991B (zh) * | 2017-02-23 | 2021-04-09 | 阿里巴巴(中国)有限公司 | 多媒体数据处理方法及装置 |
CN106851401A (zh) * | 2017-03-20 | 2017-06-13 | 惠州Tcl移动通信有限公司 | 一种自动添加字幕的方法及系统 |
CN108882051B (zh) * | 2017-05-15 | 2021-07-23 | 北京嘀嘀无限科技发展有限公司 | 一种外挂字幕的获取方法及装置 |
-
2018
- 2018-12-07 CN CN201811493486.1A patent/CN109495793B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN109495793A (zh) | 2019-03-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9609338B2 (en) | Layered video encoding and decoding | |
JP6475228B2 (ja) | コンテナフォーマットでのメディアファイルの構文を意識した操作 | |
WO2022170836A1 (zh) | 多媒体文件中轨道数据的处理方法、装置、介质及设备 | |
CN112653700B (zh) | 一种基于webrtc网页视频通信的方法 | |
CN110996160B (zh) | 视频处理方法、装置、电子设备及计算机可读取存储介质 | |
CN112261377B (zh) | web版监控视频播放方法、电子设备及存储介质 | |
US9883216B2 (en) | Method and apparatus for carrying transport stream | |
CN112689197B (zh) | 一种文件格式转换方法、装置、以及计算机存储介质 | |
CN109495793B (zh) | 一种弹幕写入方法、装置、设备及介质 | |
CN110769241A (zh) | 视频帧处理方法、装置、用户端及存储介质 | |
WO2022116822A1 (zh) | 沉浸式媒体的数据处理方法、装置和计算机可读存储介质 | |
CN115103215A (zh) | 直播的质检方法、系统、Web服务器及存储介质 | |
WO2019197723A1 (en) | Method and apparatus for signaling grouping types in an image container file | |
US11973820B2 (en) | Method and apparatus for mpeg dash to support preroll and midroll content during media playback | |
US11588870B2 (en) | W3C media extensions for processing DASH and CMAF inband events along with media using process@append and process@play mode | |
US11799943B2 (en) | Method and apparatus for supporting preroll and midroll during media streaming and playback | |
CN111225275A (zh) | 一种基于视频流的屏幕显示方法、装置和系统 | |
US20240129537A1 (en) | Method and apparatus for signaling cmaf switching sets in isobmff | |
US11838602B2 (en) | MPD chaining in a live CMAF/DASH player using W3C media source and encrypted extensions | |
CN114466225A (zh) | 视频数据播放方法及装置、电子设备和可读存储介质 | |
CN115866254A (zh) | 一种传输视频帧及摄像参数信息的方法与设备 | |
CN115866162A (zh) | 视频流生成方法、装置、电子设备及存储介质 | |
AU2022433628A1 (en) | Auxiliary mpds for mpeg dash to support prerolls, midrolls and endrolls with stacking properties | |
CN117939252A (zh) | 一种数据处理方法、装置、设备及存储介质 | |
CN114760525A (zh) | 视频生成及播放方法、装置、设备、介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |