CN112584199A - 一种多媒体文件的封面动图的生成方法与装置 - Google Patents

一种多媒体文件的封面动图的生成方法与装置 Download PDF

Info

Publication number
CN112584199A
CN112584199A CN201910936337.6A CN201910936337A CN112584199A CN 112584199 A CN112584199 A CN 112584199A CN 201910936337 A CN201910936337 A CN 201910936337A CN 112584199 A CN112584199 A CN 112584199A
Authority
CN
China
Prior art keywords
bullet screen
time period
multimedia file
bullet
state information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910936337.6A
Other languages
English (en)
Other versions
CN112584199B (zh
Inventor
凌正鑫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Bilibili Technology Co Ltd
Original Assignee
Shanghai Bilibili Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Bilibili Technology Co Ltd filed Critical Shanghai Bilibili Technology Co Ltd
Priority to CN201910936337.6A priority Critical patent/CN112584199B/zh
Priority to US17/032,421 priority patent/US11373688B2/en
Publication of CN112584199A publication Critical patent/CN112584199A/zh
Application granted granted Critical
Publication of CN112584199B publication Critical patent/CN112584199B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/102Programmed access in sequence to addressed parts of tracks of operating record carriers
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/02Editing, e.g. varying the order of information signals recorded on, or reproduced from, record carriers
    • G11B27/031Electronic editing of digitised analogue information signals, e.g. audio or video signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/235Processing of additional data, e.g. scrambling of additional data or processing content descriptors
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B27/00Editing; Indexing; Addressing; Timing or synchronising; Monitoring; Measuring tape travel
    • G11B27/10Indexing; Addressing; Timing or synchronising; Measuring tape travel
    • G11B27/11Indexing; Addressing; Timing or synchronising; Measuring tape travel by using information not detectable on the record carrier
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本发明涉及视频处理领域,尤其涉及一种多媒体文件的封面动图的生成方法与装置,用于生成多媒体文件的封面动图。该方法为:获取多媒体文件以及其对应的弹幕集合后,将所述多媒体文件的播放时长划分为若干时间段,并基于各个时间段和所述弹幕集合中各条弹幕的对应关系,分别计算各个时间段的弹幕状态信息,再筛选出弹幕状态信息满足预设条件的时间段,并基于筛选出的时间段对应的视频图像分别生成相应的动图,最后从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图。这样,不再依赖人工截取的图像帧生成封面动图,极大降低了人力成本,提高了封面动图的生成效率,最大可能的使封面动图能够展示多媒体提文件的精华内容。

Description

一种多媒体文件的封面动图的生成方法与装置
技术领域
本发明涉及视频处理领域,尤其涉及一种多媒体文件的封面动图的生成方法与装置。
背景技术
随着技术的发展,多媒体文件的播放形式发生了多样性的改变,当人们浏览多媒体文件时,可以预先通过多媒体文件的封面动图了解所述多媒体文件的精华内容,这一功能的实现依赖于对多媒体文件中精华图像帧的截取以及对所述封面动图的配置。
相关技术下,多媒体文件的封面动图依赖于运营人员在多媒体文件中手动截取图像帧,进而利用截取的图像帧生成所述多媒体文件的封面动图。
然而,采用上述方法生成多媒体文件的封面动图时,需要耗费大量的人力成本,且由运营人员自行截取图像帧会导致生成所述多媒体文件封面动图的效率很低,而且,无法保证由运营人员截取的图像帧生成的封面动图能够展现多媒体文件的精华内容,极大影响了用户的预览效果。
发明内容
本发明实施例提供一种多媒体文件的封面动图的生成方法与装置,用以解决现有技术中存在依赖于运营人员手动截取的图像帧生成封面动图的问题。
本发明实施例提供的具体技术方案如下:
一种多媒体文件的封面动图的生成方法,包括:
获取多媒体文件,以及获取所述多媒体文件对应的弹幕集合;
将所述多媒体文件的播放时长划分为若干时间段,并基于各个时间段和所述弹幕集合中各条弹幕的对应关系,分别计算各个时间段的弹幕状态信息;
筛选出弹幕状态信息满足预设条件的时间段,并基于筛选出的各个时间段对应的视频图像分别生成相应的动图;
从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图。
可选的,所述基于各个时间段和所述弹幕集合中各条弹幕的对应关系,计算任意一个时间段的弹幕状态信息,包括:
根据所述对应关系,从所述弹幕集合中,筛选出所述任意一个时间段对应的弹幕子集合,得到所述弹幕子集合中的初始弹幕数目;
将所述弹幕子集合中的弹幕内容与预设的关键词进行匹配,筛选出匹配成功的弹幕,获得关键词弹幕集合,并基于所述关键词弹幕集合,确定弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目;
基于所述目标弹幕数目,获得所述任意一个时间段的弹幕状态信息。
可选的,所述基于所述关键词弹幕集合,确定弹幕调整系数,包括:
根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕数目;
对获得的各个附加弹幕数目进行汇总,获得附加弹幕总数目;
将所述附加弹幕总数目作为所述弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,包括:
将所述弹幕调整系数与所述初始弹幕数目进行相加,获得的结果为所述任意一个时间段对应的目标弹幕数目。
可选的,所述基于所述关键词弹幕集合,确定弹幕调整系数,包括:
根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕比例;
基于获得的各个附加弹幕比例,计算附加弹幕比例平均值;
将所述附加弹幕比例平均值作为所述弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,包括:
将所述初始弹幕数目与所述弹幕调整系数相乘,获得的结果为所述任意一个时间段对应的目标弹幕数目。
可选的,所述获得所述任意一个时间段的弹幕状态信息,包括:
将所述任意一个时间段对应的目标弹幕数目直接作为所述任意一个时间段的弹幕状态信息;或者,
基于所述任意一个时间段对应的目标弹幕数目,以及所述任意一个时间段对应的时间间隔值,计算相应的弹幕密度系数,并将所述弹幕密度系数作为所述任意一个时间段的弹幕状态信息。
可选的,所述筛选出弹幕状态信息满足预设条件的时间段,包括:
将所述各个时间段对应的弹幕状态信息按照取值大小进行排序,筛选取值最大的N个弹幕状态信息对应的时间段,其中,N为预设自然数;或者,
将所述各个时间段对应的弹幕状态信息与设定阈值进行比较,筛选出所述弹幕状态信息的取值达到所述设定阈值的时间段。
可选的,所述从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图,包括:
选择所述弹幕状态信息取值最大的时间段对应的动图,作为所述多媒体文件的封面动图;或者,
将获得的各个动图发往后台,根据管理人员的指令选取一个动图,作为所述多媒体文件的封面动图。
一种多媒体文件的封面动图的生成装置,包括:
获取单元,获取多媒体文件,以及获取所述多媒体文件对应的弹幕集合;
计算单元,将所述多媒体文件的播放时长划分为若干时间段,并基于各个时间段和所述弹幕集合中各条弹幕的对应关系,分别计算各个时间段的弹幕状态信息;
筛选单元,筛选出弹幕状态信息满足预设条件的时间段,并基于筛选出的各个时间段对应的视频图像分别生成相应的动图;
选择单元,从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图。
可选的,所述基于各个时间段和所述弹幕集合中各条弹幕的对应关系,计算任意一个时间段的弹幕状态信息时,所述计算单元用于:
根据所述对应关系,从所述弹幕集合中,筛选出所述任意一个时间段对应的弹幕子集合,得到所述弹幕子集合中的初始弹幕数目;
将所述弹幕子集合中的弹幕内容与预设的关键词进行匹配,筛选出匹配成功的弹幕,获得关键词弹幕集合,并基于所述关键词弹幕集合,确定弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目;
基于所述目标弹幕数目,获得所述任意一个时间段的弹幕状态信息。
可选的,所述基于所述关键词弹幕集合,确定弹幕调整系数时,所述计算单元进一步用于:
根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕数目;
对获得的各个附加弹幕数目进行汇总,获得附加弹幕总数目;
将所述附加弹幕总数目作为所述弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,包括:
将所述弹幕调整系数与所述初始弹幕数目进行相加,获得的结果为所述任意一个时间段对应的目标弹幕数目。
可选的,所述基于所述关键词弹幕集合,确定弹幕调整系数时,所述计算单元进一步用于:
根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕比例;
基于获得的各个附加弹幕比例,计算附加弹幕比例平均值;
将所述附加弹幕比例平均值作为所述弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,包括:
将所述初始弹幕数目与所述弹幕调整系数相乘,获得的结果为所述任意一个时间段对应的目标弹幕数目。
可选的,所述获得所述任意一个时间段的弹幕状态信息时,所述计算单元进一步用于:
将所述任意一个时间段对应的目标弹幕数目直接作为所述任意一个时间段的弹幕状态信息;或者,
基于所述任意一个时间段对应的目标弹幕数目,以及所述任意一个时间段对应的时间间隔值,计算相应的弹幕密度系数,并将所述弹幕密度系数作为所述任意一个时间段的弹幕状态信息。
可选的,所述筛选出弹幕状态信息满足预设条件的时间段时,所述筛选单元用于:
将所述各个时间段对应的弹幕状态信息按照取值大小进行排序,筛选取值最大的N个弹幕状态信息对应的时间段,其中,N为预设自然数;或者,
将所述各个时间段对应的弹幕状态信息与设定阈值进行比较,筛选出所述弹幕状态信息的取值达到所述设定阈值的时间段。
可选的,所述从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图时,所述选择单元用于:
选择所述弹幕状态信息取值最大的时间段对应的动图,作为所述多媒体文件的封面动图;或者,
将获得的各个动图发往后台,根据管理人员的指令选取一个动图,作为所述多媒体文件的封面动图。
一种服务器,包括:
存储器,用于存储可执行指令;
处理器,用于读取并执行所述存储器中存储的可执行指令,以实现上述任一项多媒体文件的封面动图的生成方法。
一种存储介质,当所述存储介质中的指令由处理器执行时,使得所述处理器能够执行上述任一项多媒体文件的封面动图的生成方法。
本发明有益效果如下:
本申请提供一种多媒体文件的封面动图的生成方法与装置,在获取多媒体文件以及所述多媒体文件对应的弹幕集合后,将所述多媒体文件的播放时长划分为若干时间段,并基于各个时间段和所述弹幕集合中各条弹幕的对应关系,分别计算各个时间段的弹幕状态信息,然后筛选出弹幕状态信息满足预设条件的时间段,并基于筛选出的各个时间段对应的视频图像分别生成相应的动图,最后从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图。可见,本申请中提出的多媒体文件的封面动图的生成方法有效解决了存在的依赖于运营人员手动截取的图像帧生成封面动图问题,极大降低了人力成本,而且基于弹幕状态信息的筛选提高了封面动图的生成效率与生成质量,最大可能的使封面动图能够展示多媒体提文件的精华内容。
附图说明
图1为本申请实施例中弹幕发布时间点对应示意图;
图2为本申请实施例中弹幕关联时间点示意图;
图3为本申请实施例中多媒体文件的封面动图的生成流程示意图;
图4为本申请实施例中多媒体文件B时间轴示意图;
图5为本申请实施例中弹幕子集合a内容示意图;
图6为本申请实施例中关键词弹幕集合a内容示意图;
图7为本申请实施例中弹幕子集合b内容示意图;
图8为本申请实施例中关键词弹幕集合b内容示意图;
图9为本申请实施例中服务器逻辑结构示意图;
图10为本申请实施例中服务器实体结构示意图。
具体实施方式
为了解决现有技术中存在的依赖于运营人员手动截取的图像帧配置多媒体文件的封面动图的问题。本申请实施例中在获取多媒体文件以及所述多媒体文件对应的弹幕集合后,将所述多媒体文件的播放时长划分为若干时间段,然后基于各个时间段的弹幕状态信息,筛选出满足预设条件的时间段,并由所述时间段对应的视频图像分别生成相应的动图,最后从所述动图中选取出一个动图作为所述多媒体文件的封面动图。
下面结合附图对本申请优选的实施方式作出进一步详细说明。
本申请实施例中,由网络侧的服务器对多媒体文件进行统一管理,其中,每个多媒体文件都对应一个弹幕集合,所述弹幕集合由用户在观看多媒体文件时发布的弹幕内容组成,弹幕集合中的每一条弹幕内容都与多媒体文件时间轴上的一个时间点相关联,所述时间轴为多媒体文件中视频帧按照时间顺序进行串联记录的一种时间体系。
例如,参阅图1所示,以服务器所管理的多个多媒体文件中的多媒体文件A为例,所述多媒体文件A的内容对应的多媒体文件A时间轴总时长为45分钟,用户1在XX年X月11日观看多媒体文件A时,在时间轴上的时间点a:13分14秒时发布了一条弹幕a1,用户2在XX年X月15日观看多媒体文件A时,在时间轴上对应的时间点a:13分14秒时发布了一条弹幕a2,虽然用户1和用户2发布弹幕的时间不同,但是弹幕a1和弹幕a2所关联的多媒体文件A时间轴上的时间点相同,都为时间点a。
再如,参阅图2所示,同样以服务器所管理的多个多媒体文件中的多媒体文件A为例,所述多媒体文件A的内容对应的多媒体文件A时间轴总时长为45分钟,用户2分别在时间点b:12分27秒,时间点c:28分27秒时发布了弹幕b1和弹幕c1,用户3分别在时间点b:12分27秒,时间点c:28分27秒时发布了弹幕b2和弹幕c2,用户4在时间点b:12分27秒时发布了弹幕b3,用户5在时间点b:12分27秒时发布了弹幕b4,用户6在时间点c:28分27秒时发布了弹幕c3,则多媒体文件A时间轴上的时间点b:12分27秒关联了4条弹幕,分别为弹幕b1、弹幕b2、弹幕b3、弹幕b4,时间点c:28分27秒关联了3条弹幕,分别为弹幕c1、弹幕c2、弹幕c3。
参阅图3所述,本申请实施例中,生成多媒体文件的封面动图的详细流程如下:
步骤301:服务器获取多媒体文件,以及所述多媒体文件对应的弹幕集合。
服务器端获取多媒体文件,具体的,获取的多媒体文件内容包括但不限于图像帧、声音、时间轴、用户在观看多媒体文件时发布的弹幕内容。其中,多媒体文件的图像帧,声音以及用户在观看多媒体文件时发布的弹幕内容都与时间轴上的具体时间点相对应。同时,还可以获取基于用户在观看多媒体文件时发布的弹幕内容所组成的多媒体文件对应的弹幕集合,以下简称弹幕集合。其中,用户在观看多媒体文件时发布的弹幕内容与时间轴上的时间点相对应。
另外,所述服务器会按照系统预设的更新时间重新获取多媒体文件,这样,可以对用户在观看多媒体文件时发布的弹幕内容进行更新,进而实现对多媒体文件对应的弹幕集合进行更新。
步骤302:服务器将所述多媒体文件的播放时长划分为若干时间段。
服务器在获取多媒体文件之后,对多媒体文件的播放时长进行划分,划分成若干时间段。具体的,当所述服务器对多媒体文件的播放时长进行划分时,会根据实际情况对于划分的时间段对应的时间间隔值进行配置。
例如,参阅图4所示,对于所述服务器获取的多媒体文件B,可知多媒体文件B时间轴总时长为10分钟,即多媒体文件B的播放时长为10min,而且定位多媒体文件B时间轴上时间点0与时间点1min之间的多媒体文件内容为片头曲视频,所述时间轴上时间点1min与时间点9min之间的多媒体文件内容为有剧情的视频内容,所述时间轴上9min与时间轴上10min之间的多媒体文件内容为片尾曲视频。进一步的,所述服务器按照多媒体文件B不同阶段视频内容的不同,对划分的时间段对应的时间间隔值进行配置,如在片头曲视频与片尾曲视频处,按照时间间隔值为30s进行配置,在有剧情的视频内容处按照时间间隔值为10s进行配置。故总时长为10min的多媒体文件B可被划分为4个30s的时间段以及48个10s的时间段。
也可以采用统一的时间间隔值对所述多媒体文件的播放时长进行划分,如对于多媒体文件B时间轴总时长为10分钟,即多媒体文件B的播放时长为10min。不对多媒体文件B中不同阶段的视频内容进行区分,统一按照时间间隔值为10s进行配置,则此时多媒体文件B可被划分为60个10s的时间段。为方便描述,以下说明中默认对多媒体文件的播放时长按照统一的时间间隔值进行划分。
步骤303:服务器基于各个时间段和所述弹幕集合中各条弹幕的对应关系,分别计算各个时间段的弹幕状态信息。
具体的,服务器将多媒体文件的播放时长划分为若干时间段具体可表现为,所述服务器将时间轴划分为若干个时间段,时间轴上的任意一个时间段都对应一段多媒体文件内容,同时,所述时间轴上的任意一个时间段都对应弹幕集合中的部分弹幕,其中,所述部分弹幕关联的时间点在时间轴上的所述时间段内。根据所述对应关系,从所述弹幕集合中,筛选出所述任意一个时间段对应的弹幕子集合,得到所述弹幕子集合中的初始弹幕数目,其中,所述初始弹幕数目为弹幕子集合中的实际弹幕条数。
进一步的,将所述弹幕子集合中的弹幕内容与预设的关键词进行匹配,筛选出匹配成功的弹幕,获得关键词弹幕集合,并基于所述关键词弹幕集合,确定弹幕调整系数。具体的,所述服务器预设的关键词包括多种词类型,其中,所述关键词的词类型包括但不限于:抒情类型,具体例如,‘XX我爱你’,‘XX陪伴了我整个青春’等等;调侃类型,具体例如‘哈哈哈’,‘XX简直活在我的笑点上’等等;赞叹类型,具体例如,‘真好’,‘真棒’等等;强赞叹类型,具体例如,‘高能预警’,‘名场面’,‘演技炸裂’等等。
例如,参阅图5和图6所示,弹幕子集合a中的弹幕内容包括有:‘我在A市天气晴’,‘XX发来贺电’,‘哈哈哈哈哈’,‘XX太搞笑了,简直活在我的笑点上’,‘XX我爱你’,‘高能预警’,经过与预设的关键词进行匹配后,得到如图6所示的关键词弹幕集合a,所述关键词弹幕集合中的弹幕内容包括有:‘哈哈哈哈哈’,‘XX太搞笑了,简直活在我的笑点上’,‘XX我爱你’,‘高能预警’。
然后所述服务器基于所述关键词弹幕集合,确定弹幕调整系数,所述弹幕调整系数的形成具体可包括以下两种方式:
方式一:
所述服务器根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕数目,然后对获得的各个附加弹幕数目进行汇总,获得附加弹幕总数目,再将所述附加弹幕总数目作为所述弹幕调整系数,。具体的,由于所述服务器预设的关键词具有对应的词类型,所述服务器为各种词类型配置相应的附加弹幕数目,其中,所述附加弹幕数目具体为针对各种关键词所设置的附加的弹幕数目,另外,若关键词弹幕集合中存在某条弹幕包含两种关键词类型,那么将所述弹幕按照附加弹幕数目高的关键词类型处理。
例如,假设所述服务器为关键词弹幕集合中的抒情类型关键词配置的附加弹幕数目为3,为调侃类型关键词配置的附加弹幕数目为5,为赞叹类型关键词配置的附加弹幕数目为12,为强赞叹类型关键词配置的附加弹幕数目为20。那么结合图6所示,图6所示的关键词弹幕集合中,对各个附加弹幕数目的数值进行汇总后,得到附加弹幕总数目为33,即图6所示的关键词弹幕集合a对应的弹幕调整系数为33。
进一步的,所述服务器采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,具体的,所述服务器将所述弹幕调整系数与所述初始弹幕数目进行相加,获得的结果为所述任意一个时间段对应的目标弹幕数目。其中,初始弹幕数目为与所述任意一个时间段相对应的弹幕子集合中的实际弹幕条数。
例如参阅图5和图6所示,图5为某一个时间段对应的弹幕子集合a,所述弹幕子集合a的初始弹幕数目为6,对图5中的弹幕子集合a进行筛选后,得到图6所示的关键词弹幕集合a,经计算得到所述关键词弹幕集合对应的弹幕调整系数为33,则所述服务器将所述初始弹幕数目和弹幕调整系数相加后,得到所述某一个时间段对应的目标弹幕数目,故得到所述目标弹幕数目为39。
方式二:
所述服务器根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕比例,基于获得的各个附加弹幕比例,计算附加弹幕比例平均值,将所述附加弹幕比例平均值作为所述弹幕调整系数。具体的,由于所述服务器预设的关键词具有对应的词类型,所述服务器为各种词类型配置相应的附加弹幕比例,其中,所述附加弹幕比例具体为针对各种关键词所设置的比例值,用于衡量关键词弹幕对于弹幕总数目的影响。另外,若关键词弹幕集合中存在某条弹幕包含两种关键词类型,那么将所述弹幕按照附加弹幕比例高的关键词类型处理。
例如,假设所述服务器为关键词弹幕集合中的抒情类型关键词配置的附加弹幕比例为2,为调侃类型关键词配置的附加弹幕比例为5,为赞叹类型关键词配置的附加弹幕比例为10,为强赞叹类型关键词配置的附加弹幕比例为15。那么结合图7和图8所示,图7中的初始弹幕数目为6,经过所述服务器的筛选后,得到如图8所示的关键词弹幕集合b中,其中,所述服务器基于获得的各个附加弹幕比例,可以计算附加弹幕比例平均值为11.25。所述服务器将所述附加弹幕比例平均值作为所述弹幕调整系数,即图8所示的关键词弹幕集合b对应的弹幕调整系数为11.25。
进一步的,所述服务器采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,具体的,所述服务器将所述初始弹幕数目与所述弹幕调整系数相乘,获得的结果为所述任意一个时间段对应的目标弹幕数目。
例如参阅图7和图8所示,图7为某一个时间段对应的弹幕子集合,所述弹幕子集合的初始弹幕数目为6,对图7中的弹幕子集合进行筛选后,得到图8所示的关键词弹幕集合,经计算得到所述关键词弹幕集合对应的弹幕调整系数为11.25,则所述服务器将所述初始弹幕数目与所述弹幕调整系数相乘,得到所述某一个时间段对应的目标弹幕数目,故得到所述目标弹幕数目为67.5。
进一步的,所述服务器基于所述目标弹幕数目,获得所述任意一个时间段的弹幕状态信息,具体的,所述服务器可以将所述任意一个时间段对应的目标弹幕数目直接作为所述任意一个时间段的弹幕状态信息。
例如,所述服务器在上述方式一中,结合图5中的某一个时间段对应的弹幕子集合a以及筛选后得到的图6中的关键词弹幕集合a,计算所述某一个时间段对应的目标弹幕数目为39。
或者,所述服务器可以基于所述任意一个时间段对应的目标弹幕数目,以及所述任意一个时间段对应的时间间隔值,计算相应的弹幕密度系数,并将所述弹幕密度系数作为所述任意一个时间段的弹幕状态信息。
例如,上述方式一计算出了图5所描述的某一时间段对应的目标弹幕数目为39,假设所述某一时间段的时间间隔值为10s,那么所述服务器经计算可得到所述某一时间段的弹幕密度系数为3.9。
步骤304:服务器筛选出弹幕状态信息满足预设条件的时间段。
具体的,所述服务器可以将所述各个时间段对应的弹幕状态信息按照取值大小进行排序,筛选取值最大的N个弹幕状态信息对应的时间段,其中,N为预设自然数。另外,一个时间段的弹幕状态信息可以是所述一个时间段对应的目标弹幕数目或是所述一个时间段对应的弹幕密度系数,为方便描述,下面仅以将一个时间段对应的目标弹幕数目直接作为所述一个时间段的弹幕状态信息为例,进行具体说明。
例如,假设所述服务器将N的取值设置为4,现已知时间段a对应的弹幕状态信息为39,时间段b对应的弹幕状态信息为45,时间段c对应的弹幕状态信息为56,时间段d对应的弹幕状态信息为25,时间段e对应的弹幕状态信息为78,时间段f对应的弹幕状态信息为50,时间段g对应的弹幕状态信息为77,那么对上述涉及到的时间段按照弹幕状态信息排序后可以得到依次为,时间段e、时间段g、时间段c、时间段f、时间段b、时间段a、时间段d,由于N取值为4,那么所述服务器筛选出的弹幕状态满足预设条件的时间段依次为时间段e、时间段g、时间段c、时间段f。
或者,所述服务器可以将所述各个时间段对应的弹幕状态信息与设定阈值进行比较,筛选出所述弹幕状态信息的取值达到所述设定阈值的时间段。另外,一个时间段的弹幕状态信息可以是所述一个时间段对应的目标弹幕数目或是所述一个时间段对应的弹幕密度系数,为方便描述,下面仅以将一个时间段对应的弹幕密度系数直接作为所述一个时间段的弹幕状态信息为例,进行具体说明。
例如,假设所述服务器设置的设定阈值为15,现已知时间段a1对应的弹幕状态信息为11.25,时间段b1对应的弹幕状态信息为13.76,时间段c1对应的弹幕状态信息为15.72,时间段d1对应的弹幕状态信息为17,时间段e1对应的弹幕状态信息为9.6,时间段f1对应的弹幕状态信息为20.27,时间段g1对应的弹幕状态信息为17.7,那么将上述涉及到的时间段按照弹幕状态信息与所述设定阈值进行比较后,所述服务器筛选出所述弹幕状态信息的取值达到所述设定阈值的时间段,分别为时间段c1、时间段d1、时间段f1、时间段g1。
步骤305:服务器基于筛选出的各个时间段对应的视频图像分别生成相应的动图。
具体的,服务器筛选出弹幕状态信息满足预设条件的时间段后,根据所述时间段对应的视频图像分别生成相应的动图,其中,利用视频图像片段生成相应动图为现有技术下的成熟技术,在此不再赘述。
步骤306:服务器从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图。
具体的,服务器可以选择弹幕状态信息取值最大的时间段对应的动图,作为所述多媒体文件的封面动图,在上述步骤303中已经说明某一时间段的弹幕状态信息可以为所述某一时间段对应的目标弹幕数目,也可以是所述某一时间段的弹幕密度系数,为方便描述,下面仅对所述目标弹幕数目作为所述弹幕状态信息的情况进行详细说明,所述弹幕密度系数作为所述弹幕状态信息的情况与此类似,在此不再赘述。
例如,假设所述服务器对某个多媒体文件进行处理后,筛选出的时间段分别为:时间段e,其对应的弹幕状态信息为78、时间段g,其对应的弹幕状态信息为77、时间段c,其对应的弹幕状态信息为56、时间段f,其对应的弹幕状态信息为50。所述服务器选择弹幕状态信息取值最大的时间段e对应的动图,作为所述某个多媒体文件的封面动图。
或者,所述服务器可以将获得的各个动图发往后台,根据管理人员的指令选取一个动图,作为所述多媒体文件的封面动图。具体的,所述服务器在对多媒体文件进行处理后,根据筛选出的时间段所对应的视频片段生成了相应动图,然后所述服务器将所述动图发往管理人员所在的后台,根据管理人员的操作指令选取一个动图,最终作为所述多媒体文件的封面动图。
基于上述实施例,参阅图9所示,本申请实施例中,服务器至少包括:
获取单元901,获取多媒体文件,以及获取所述多媒体文件对应的弹幕集合;
计算单元902,将所述多媒体文件的播放时长划分为若干时间段,并基于各个时间段和所述弹幕集合中各条弹幕的对应关系,分别计算各个时间段的弹幕状态信息;
筛选单元903,筛选出弹幕状态信息满足预设条件的时间段,并基于筛选出的各个时间段对应的视频图像分别生成相应的动图;
选择单元904,从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图。
所述基于各个时间段和所述弹幕集合中各条弹幕的对应关系,计算任意一个时间段的弹幕状态信息时,所述计算单元902用于:
根据所述对应关系,从所述弹幕集合中,筛选出所述任意一个时间段对应的弹幕子集合,得到所述弹幕子集合中的初始弹幕数目;
将所述弹幕子集合中的弹幕内容与预设的关键词进行匹配,筛选出匹配成功的弹幕,获得关键词弹幕集合,并基于所述关键词弹幕集合,确定弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目;
基于所述目标弹幕数目,获得所述任意一个时间段的弹幕状态信息。
所述基于所述关键词弹幕集合,确定弹幕调整系数时,所述计算单元902进一步用于:
根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕数目;
对获得的各个附加弹幕数目进行汇总,获得附加弹幕总数目;
将所述附加弹幕总数目作为所述弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,包括:
将所述弹幕调整系数与所述初始弹幕数目进行相加,获得的结果为所述任意一个时间段对应的目标弹幕数目。
所述基于所述关键词弹幕集合,确定弹幕调整系数时,所述计算单元902进一步用于:
根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕比例;
基于获得的各个附加弹幕比例,计算附加弹幕比例平均值;
将所述附加弹幕比例平均值作为所述弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,包括:
将所述初始弹幕数目与所述弹幕调整系数相乘,获得的结果为所述任意一个时间段对应的目标弹幕数目。
所述获得所述任意一个时间段的弹幕状态信息时,所述计算单元902进一步用于:
将所述任意一个时间段对应的目标弹幕数目直接作为所述任意一个时间段的弹幕状态信息;或者,
基于所述任意一个时间段对应的目标弹幕数目,以及所述任意一个时间段对应的时间间隔值,计算相应的弹幕密度系数,并将所述弹幕密度系数作为所述任意一个时间段的弹幕状态信息。
所述筛选出弹幕状态信息满足预设条件的时间段时,所述筛选单元903用于:
将所述各个时间段对应的弹幕状态信息按照取值大小进行排序,筛选取值最大的N个弹幕状态信息对应的时间段,其中,N为预设自然数;或者,
将所述各个时间段对应的弹幕状态信息与设定阈值进行比较,筛选出所述弹幕状态信息的取值达到所述设定阈值的时间段。
所述从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图时,所述选择单元904用于:
选择所述弹幕状态信息取值最大的时间段对应的动图,作为所述多媒体文件的封面动图;或者,
将获得的各个动图发往后台,根据管理人员的指令选取一个动图,作为所述多媒体文件的封面动图。
基于同一申请构思,参阅图10所示,本申请实施例中提出一种服务器,所述服务器至少包括:存储器1001和处理器1002,其中,
存储器1001,用于存储可执行指令;
处理器1002,用于读取并执行所述存储器中存储的可执行指令,以实现上述任一项多媒体文件的封面动图的生成方法。
基于同一申请构思,本申请实施例中提供一种存储介质,当所述存储介质中的指令由处理器执行时,使得所述处理器能够执行上述任一项多媒体文件的封面动图的生成方法。
综上所述,本申请实施例中提供一种多媒体文件的封面动图的生成方法与装置,在获取多媒体文件以及所述多媒体文件对应的弹幕集合后,将所述多媒体文件的播放时长划分为若干时间段,并基于各个时间段和所述弹幕集合中各条弹幕的对应关系,确定各个时间段对应的弹幕子集合,然后将所述弹幕子集合中的弹幕内容与预设的关键词进行匹配,确定关键词弹幕集合,进而确定所述各个时间段的目标弹幕数目以及弹幕密度系数,进而确定所述各个时间段的弹幕状态信息,再筛选出弹幕状态信息满足预设条件的时间段,并基于筛选出的各个时间段对应的视频图像分别生成相应的动图,最后从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图。可见,本申请中提出的多媒体文件的封面动图的生成方法有效解决了存在的依赖于运营人员手动截取的图像帧生成封面动图问题,极大降低了人力成本,而且基于弹幕状态信息对时间段的筛选提高了封面动图的生成效率与生成质量,最大可能的使封面动图能够展示多媒体提文件的精华内容。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
尽管已描述了本发明的优选实施例,但本领域内的技术人员一旦得知了基本创造性概念,则可对这些实施例作出另外的变更和修改。所以,所附权利要求意欲解释为包括优选实施例以及落入本发明范围的所有变更和修改。
显然,本领域的技术人员可以对本发明实施例进行各种改动和变型而不脱离本发明实施例的精神和范围。这样,倘若本发明实施例的这些修改和变型属于本发明权利要求及其等同技术的范围之内,则本发明也意图包含这些改动和变型在内。

Claims (10)

1.一种多媒体文件的封面动图的生成方法,其特征在于,包括:
获取多媒体文件,以及获取所述多媒体文件对应的弹幕集合;
将所述多媒体文件的播放时长划分为若干时间段,并基于各个时间段和所述弹幕集合中各条弹幕的对应关系,分别计算各个时间段的弹幕状态信息;
筛选出弹幕状态信息满足预设条件的时间段,并基于筛选出的各个时间段对应的视频图像分别生成相应的动图;
从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图。
2.如权利要求1所述的方法,其特征在于,所述基于各个时间段和所述弹幕集合中各条弹幕的对应关系,计算任意一个时间段的弹幕状态信息,包括:
根据所述对应关系,从所述弹幕集合中,筛选出所述任意一个时间段对应的弹幕子集合,得到所述弹幕子集合中的初始弹幕数目;
将所述弹幕子集合中的弹幕内容与预设的关键词进行匹配,筛选出匹配成功的弹幕,获得关键词弹幕集合,并基于所述关键词弹幕集合,确定弹幕调整系数;
采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目;
基于所述目标弹幕数目,获得所述任意一个时间段的弹幕状态信息。
3.如权利要求2所述的方法,其特征在于,所述基于所述关键词弹幕集合,确定弹幕调整系数,包括:
根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕数目;
对获得的各个附加弹幕数目进行汇总,获得附加弹幕总数目;
将所述附加弹幕总数目作为所述弹幕调整系数;采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,包括:
将所述弹幕调整系数与所述初始弹幕数目进行相加,获得的结果为所述任意一个时间段对应的目标弹幕数目。
4.如权利要求2所述的方法,其特征在于,所述基于所述关键词弹幕集合,确定弹幕调整系数,包括:
根据各个关键词的词类型,分别确定各个关键词对应的附加弹幕比例;
基于获得的各个附加弹幕比例,计算附加弹幕比例平均值;
将所述附加弹幕比例平均值作为所述弹幕调整系数;采用所述弹幕调整系数对所述初始弹幕数目进行相应调整,获得所述任意一个时间段对应的目标弹幕数目,包括:
将所述初始弹幕数目与所述弹幕调整系数相乘,获得的结果为所述任意一个时间段对应的目标弹幕数目。
5.如权利要求3或4所述的方法,其特征在于,所述获得所述任意一个时间段的弹幕状态信息,包括:
将所述任意一个时间段对应的目标弹幕数目直接作为所述任意一个时间段的弹幕状态信息;或者,
基于所述任意一个时间段对应的目标弹幕数目,以及所述任意一个时间段对应的时间间隔值,计算相应的弹幕密度系数,并将所述弹幕密度系数作为所述任意一个时间段的弹幕状态信息。
6.如权利要求5所述的方法,其特征在于,所述筛选出弹幕状态信息满足预设条件的时间段,包括:
将所述各个时间段对应的弹幕状态信息按照取值大小进行排序,筛选取值最大的N个弹幕状态信息对应的时间段,其中,N为预设自然数;或者,
将所述各个时间段对应的弹幕状态信息与设定阈值进行比较,筛选出所述弹幕状态信息的取值达到所述设定阈值的时间段。
7.如权利要求1-4任一项所述的方法,其特征在于,所述从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图,包括:
选择所述弹幕状态信息取值最大的时间段对应的动图,作为所述多媒体文件的封面动图;或者,
将获得的各个动图发往后台,根据管理人员的指令选取一个动图,作为所述多媒体文件的封面动图。
8.一种多媒体文件的封面动图的生成装置,其特征在于,包括:
获取单元,获取多媒体文件,以及获取所述多媒体文件对应的弹幕集合;
计算单元,将所述多媒体文件的播放时长划分为若干时间段,并基于各个时间段和所述弹幕集合中各条弹幕的对应关系,分别计算各个时间段的弹幕状态信息;
筛选单元,筛选出弹幕状态信息满足预设条件的时间段,并基于筛选出的各个时间段对应的视频图像分别生成相应的动图;
选择单元,从获得的各个动图中选取出一个动图,作为所述多媒体文件的封面动图。
9.一种服务器,其特征在于,包括:
存储器,用于存储可执行指令;
处理器,用于读取并执行所述存储器中存储的可执行指令,以实现如权利要求1至7中任一项所述的多媒体文件的封面动图的生成方法。
10.一种存储介质,其特征在于,当所述存储介质中的指令由处理器执行时,使得所述处理器能够执行如权利要求1至7中任一项所述的多媒体文件的封面动图的生成方法。
CN201910936337.6A 2019-09-29 2019-09-29 一种多媒体文件的封面动图的生成方法与装置 Active CN112584199B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201910936337.6A CN112584199B (zh) 2019-09-29 2019-09-29 一种多媒体文件的封面动图的生成方法与装置
US17/032,421 US11373688B2 (en) 2019-09-29 2020-09-25 Method and device of generating cover dynamic pictures of multimedia files

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910936337.6A CN112584199B (zh) 2019-09-29 2019-09-29 一种多媒体文件的封面动图的生成方法与装置

Publications (2)

Publication Number Publication Date
CN112584199A true CN112584199A (zh) 2021-03-30
CN112584199B CN112584199B (zh) 2023-12-22

Family

ID=75110995

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910936337.6A Active CN112584199B (zh) 2019-09-29 2019-09-29 一种多媒体文件的封面动图的生成方法与装置

Country Status (2)

Country Link
US (1) US11373688B2 (zh)
CN (1) CN112584199B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113656642A (zh) * 2021-08-20 2021-11-16 北京百度网讯科技有限公司 封面图像生成方法、装置、设备、存储介质和程序产品
CN115297355A (zh) * 2022-08-02 2022-11-04 北京奇艺世纪科技有限公司 弹幕显示方法、生成方法、装置、电子设备及存储介质
CN113656642B (zh) * 2021-08-20 2024-05-28 北京百度网讯科技有限公司 封面图像生成方法、装置、设备、存储介质和程序产品

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113254696B (zh) * 2021-06-30 2022-02-11 腾讯科技(深圳)有限公司 一种封面图像获取方法及装置

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071587A (zh) * 2017-04-25 2017-08-18 腾讯科技(深圳)有限公司 视频片段的获取方法及装置
CN107707967A (zh) * 2017-09-30 2018-02-16 咪咕视讯科技有限公司 一种视频文件封面的确定方法、装置及计算机可读存储介质
CN108307230A (zh) * 2018-02-07 2018-07-20 北京奇艺世纪科技有限公司 一种视频精彩片段的提取方法及装置
CN109089154A (zh) * 2018-07-10 2018-12-25 武汉斗鱼网络科技有限公司 一种视频提取方法、装置、设备及介质
CN109729435A (zh) * 2017-10-27 2019-05-07 优酷网络技术(北京)有限公司 视频片段的提取方法及装置
CN110248258A (zh) * 2019-07-18 2019-09-17 腾讯科技(深圳)有限公司 视频片段的推荐方法、装置、存储介质和计算机设备

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2015012581A2 (ko) * 2013-07-26 2015-01-29 Ju Hyun Sun 동영상 콘텐츠 제공, 편집 및 재생을 위한 장치 및 그 방법
CN109992697B (zh) * 2019-03-27 2022-03-25 联想(北京)有限公司 一种信息处理方法和电子设备

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107071587A (zh) * 2017-04-25 2017-08-18 腾讯科技(深圳)有限公司 视频片段的获取方法及装置
CN107707967A (zh) * 2017-09-30 2018-02-16 咪咕视讯科技有限公司 一种视频文件封面的确定方法、装置及计算机可读存储介质
CN109729435A (zh) * 2017-10-27 2019-05-07 优酷网络技术(北京)有限公司 视频片段的提取方法及装置
CN108307230A (zh) * 2018-02-07 2018-07-20 北京奇艺世纪科技有限公司 一种视频精彩片段的提取方法及装置
CN109089154A (zh) * 2018-07-10 2018-12-25 武汉斗鱼网络科技有限公司 一种视频提取方法、装置、设备及介质
CN110248258A (zh) * 2019-07-18 2019-09-17 腾讯科技(深圳)有限公司 视频片段的推荐方法、装置、存储介质和计算机设备

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113656642A (zh) * 2021-08-20 2021-11-16 北京百度网讯科技有限公司 封面图像生成方法、装置、设备、存储介质和程序产品
CN113656642B (zh) * 2021-08-20 2024-05-28 北京百度网讯科技有限公司 封面图像生成方法、装置、设备、存储介质和程序产品
CN115297355A (zh) * 2022-08-02 2022-11-04 北京奇艺世纪科技有限公司 弹幕显示方法、生成方法、装置、电子设备及存储介质
CN115297355B (zh) * 2022-08-02 2024-01-23 北京奇艺世纪科技有限公司 弹幕显示方法、生成方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN112584199B (zh) 2023-12-22
US20210098025A1 (en) 2021-04-01
US11373688B2 (en) 2022-06-28

Similar Documents

Publication Publication Date Title
CN111866585B (zh) 一种视频处理方法及装置
US9002175B1 (en) Automated video trailer creation
US20190297379A1 (en) Method and apparatus for enabling a loudness controller to adjust a loudness level of a secondary media data portion in a media content to a different loudness level
US9955196B2 (en) Selective degradation of videos containing third-party content
CN104244024B (zh) 一种视频封面生成方法、装置及终端
US20170257653A1 (en) Shot structure of online video as a predictor of success
CN109408639A (zh) 一种弹幕分类方法、装置、设备和存储介质
WO2021082589A1 (zh) 内容审核模型的训练方法和装置、视频内容的审核方法和装置、计算机设备以及存储介质
CN112584199A (zh) 一种多媒体文件的封面动图的生成方法与装置
CN110958493A (zh) 一种弹幕调整方法、装置、电子设备和存储介质
CN109413216A (zh) 一种信息推送方法、装置及移动终端
CN103313090B (zh) 一种离线下载视频文件的方法、系统
CN102332001A (zh) 一种视频缩略图生成方法及装置
WO2022087826A1 (zh) 视频处理方法、装置、可移动设备及可读存储介质
US8659654B2 (en) Image verification with tiered tolerance
CN106791930B (zh) 一种视频处理方法和装置
CN112445935A (zh) 一种基于内容分析的视频精选合集的自动生成方法
CN111698554A (zh) 直播视频专辑生成方法、装置、设备及存储介质
CN105407030A (zh) 一种即时通讯中播放多媒体文件的方法及装置
US20090251614A1 (en) Method and apparatus for automatically generating a summary of a multimedia content item
CN113766282A (zh) 一种直播视频处理方法及装置
CN106570060B (zh) 一种信息流中数据的随机抽取方法及装置
CN113051413A (zh) 一种多媒体信息处理方法、装置、电子设备及存储介质
CN110727810A (zh) 图像处理方法、装置、电子设备及存储介质
CN113542909A (zh) 视频处理方法、装置、电子设备及计算机存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant