CN109167934B - 一种视频处理方法、装置及计算机可读存储介质 - Google Patents

一种视频处理方法、装置及计算机可读存储介质 Download PDF

Info

Publication number
CN109167934B
CN109167934B CN201811021096.4A CN201811021096A CN109167934B CN 109167934 B CN109167934 B CN 109167934B CN 201811021096 A CN201811021096 A CN 201811021096A CN 109167934 B CN109167934 B CN 109167934B
Authority
CN
China
Prior art keywords
video data
group
time length
duration
fused
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811021096.4A
Other languages
English (en)
Other versions
CN109167934A (zh
Inventor
周治尹
叶军
李立峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MIGU Video Technology Co Ltd
Original Assignee
MIGU Video Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MIGU Video Technology Co Ltd filed Critical MIGU Video Technology Co Ltd
Priority to CN201811021096.4A priority Critical patent/CN109167934B/zh
Publication of CN109167934A publication Critical patent/CN109167934A/zh
Application granted granted Critical
Publication of CN109167934B publication Critical patent/CN109167934B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本发明公开了一种视频处理方法,包括:对待处理视频数据进行划分,得到至少一组视频数据;对所述至少一组视频数据的内容类型进行识别,将内容类型满足预设条件的一组视频数据作为第一视频数据,并确定所述第一视频数据对应的第一时长;将所述第一时长与预设时长进行比较,得到比较结果;当所述比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定待融合的视频数据;对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据。本发明还同时公开了一种视频处理装置以及计算机可读存储介质。

Description

一种视频处理方法、装置及计算机可读存储介质
技术领域
本发明涉及信息处理技术领域,尤其涉及一种基于视频处理方法、装置及计算机可读存储介质。
背景技术
目前,视频的剪辑通常由用户使用视频剪辑软件完成,剪辑的方式包括固定时长和固定镜头数。
目前,采用固定时长对视频剪辑时,可能会裁剪掉视频中的部分精彩视频内容,导致剪辑后的视频中的精彩视频内容不完整;采用固定镜头数对视频剪辑时,由于每个镜头对应的视频内容的时长无法确定,可能导致剪辑后的视频中其他视频内容的时长比精彩视频内容的时长要大,可能使用户消耗更多时间观看与精彩视频内容无关的视频内容。
发明内容
有鉴于此,本发明实施例期望提供一种视频处理方法、装置及计算机可读存储介质,能够保证剪辑后的视频中保存完整的精彩视频内容。
本发明实施例的技术方案是这样实现的:
本发明实施例提供一种视频处理方法,所述方法包括:
对待处理视频数据进行划分,得到至少一组视频数据;
对所述至少一组视频数据的内容类型进行识别,将内容类型满足预设条件的一组视频数据作为第一视频数据,并确定所述第一视频数据对应的第一时长;
将所述第一时长与预设时长进行比较,得到比较结果;
当所述比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定待融合的视频数据;
对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据。
上述方案中,所述方法还包括:
统计不同内容类型的视频数据及对应时长;
根据统计的不同内容类型的视频数据及对应时长,确定与所述第一视频数据的内容类型相同的至少一个视频数据;
基于所述至少一个视频数据对应的时长分布,确定所述预设时长。
上述方案中,所述从剩余组的视频数据中确定待融合的视频数据,包括:
结合所述至少一组视频数据的时间轴,从除第一视频数据外的剩余组视频数据中,确定时间在第一视频数据之前的至少一组视频数据;
针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据;
当确定时,将相应组视频数据作为待融合的视频数据。
上述方案中,所述针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据,包括:
针对时间在第一视频数据之前的每组视频数据,判断相应组视频数据对应的时长是否属于第一预设时长范围;
当确定时,将相应组视频数据作为待融合的视频数据;并针对时间在第一视频数据之后的每组视频数据,基于相应组视频数据对应的时长和第二预设时长范围,判断是否将相应组视频数据作为待融合的视频数据。
上述方案中,所述针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据,包括:
针对时间在第一视频数据之前的每组视频数据,判断第i组视频数据对应的时长是否小于或等于第一预设时长范围的起始时间;
当确定时,将第i组视频数据作为待融合的视频数据;并判断第i+1组视频数据对应的时长是否小于或等于第一预设时长范围的起始时间;以此类推;
其中,i=1,2,3,…N,N为正整数。
上述方案中,所述针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据,包括:
针对时间在第一视频数据之前的每组视频数据,判断相应组视频数据对应的时长是否大于或等于第一预设时长范围的结束时间;
当确定时,将相应组视频数据作为待融合的视频数据;并统计待融合的视频数据对应的时长总和;
计算所述第一时长与所述时长总和之和,得到第二时长;
判断所述第二时长是否小于所述预设时长;
当确定时,针对时间在第一视频数据之后的每组视频数据,基于相应组视频数据对应的时长和第二预设时长范围,确定待融合的视频数据。
上述方案中,所述方法还包括:
确定融合处理后的视频数据对应的时长总和;
对融合处理后的视频数据进行剪辑,得到时长等于所述预设时长的视频数据;
将时长等于所述预设时长的视频数据作为剪辑后的视频数据。
本发明实施例提供一种视频处理装置,所述装置包括:
划分模块,用于对待处理视频数据进行划分,得到至少一组视频数据;
识别模块,用于对所述至少一组视频数据的内容类型进行识别,将内容类型满足预设条件的一组视频数据作为第一视频数据,并确定所述第一视频数据对应的第一时长;
比较模块,用于将所述第一时长与预设时长进行比较,得到比较结果;当所述比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定待融合的视频数据;
剪辑模块,用于对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据。
本发明实施例提供一种计算机可读存储介质,其上存储有计算机程序,所述计算机程序被处理器执行时实现上面所述任一项视频处理方法的步骤。
本发明实施例提供一种视频处理装置,包括:存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序;
其中,所述处理器用于运行所述计算机程序时,执行上面所述任一项视频处理方法的步骤。
本发明实施例提供的视频处理方法、装置及计算机可读存储介质,对待处理视频数据进行划分,得到至少一组视频数据;对所述至少一组视频数据的内容类型进行识别,将内容类型满足预设条件的一组视频数据作为第一视频数据,并确定所述第一视频数据对应的第一时长;将所述第一时长与预设时长进行比较,得到比较结果;当所述比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定待融合的视频数据;对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据。本发明实施例中,将所述第一视频数据对应的第一时长与预设时长进行比较,当比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定待融合的视频数据,如此,可以保证内容满足预设条件的第一视频数据的完整。对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据;所述剪辑后的视频数据中包含所述第一视频数据。显然,在剪辑后的视频数据中能够保存完整的第一视频数据。
附图说明
图1为本发明实施例视频处理方法的实现流程示意图;
图2为本发明实施例视频处理方法的具体实现流程示意图;
图3为本发明实施例视频数据对应的镜头画面的示意图;
图4为本发明实施例视频处理装置的组成结构示意图一;
图5为本发明实施例视频处理装置的组成结构示意图二。
具体实施方式
本发明实施例中,对待处理视频数据进行划分,得到至少一组视频数据;对所述至少一组视频数据的内容类型进行识别,将内容类型满足预设条件的一组视频数据作为第一视频数据,并确定所述第一视频数据对应的第一时长;将所述第一时长与预设时长进行比较,得到比较结果;当所述比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定待融合的视频数据;对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据。
为了能够更加详尽地了解本发明实施例的特点与技术内容,下面结合附图对本发明实施例的实现进行详细阐述,所附附图仅供参考说明之用,并非用来限定本发明。
如图1所示,详细说明本发明实施例视频处理方法,所述视频处理方法应用于终端侧,包括以下步骤:
步骤101:对待处理视频数据进行划分,得到至少一组视频数据。
实际应用于视频剪辑处理时,为了保证剪辑后的视频中仍保存完整的图像,考虑到待剪辑的视频可以由连续的多个图像构成,因此可以对待剪辑的视频进行划分,将一个完整图像对应的视频数据作为一组视频数据。其中,一个完整图像可以对应一个镜头画面。
考虑到待剪辑的视频对应的图像间存在差异,因而可以对所述待处理视频数据中的每帧视频数据进行特征提取,得到特征数据,比如直方图特征数据;基于相邻两帧视频数据对应的特征数据,计算相应帧视频数据对应的均方差,对计算的均方差进行归一化处理,基于归一化处理后的均方差,计算相邻两帧视频数据对应的特征变化率;特征变化率是相邻两帧视频数据对应的均方差的差值与所有帧视频数据对应的均方差总和的比值;将所述特征变化率与预设阈值比较,得到比较结果;当比较结果表征所述特征变化率小于所述预设阈值时,确定相邻两帧视频数据属于同一个镜头画面;以此类推,将所述待处理视频数据对应的图像划分为至少一个镜头画面。
步骤102:对所述至少一组视频数据的内容类型进行识别,将内容类型满足预设条件的一组视频数据作为第一视频数据,并确定所述第一视频数据对应的第一时长。
其中,所述内容类型满足预设条件,可以是识别出的内容类型为精彩视频内容,也可以是识别出的内容类型为动漫视频内容等等。
对所述至少一组视频数据的内容类型进行识别的过程,包括以下几种情况:
第一种、假设所述预设条件为识别出的内容类型为精彩视频内容,可以基于人工智能算法(AI,Artificial Intelligence),确定动作场景检测模型;针对每组视频数据,利用确定的动作场景检测模型,对相应组视频数据中的人物动作进行识别,判断识别出的人物动作是否为预设动作,比如进球动作、角球动作等等;当确定识别出的人物动作为预设动作时,确定相应组视频数据的内容类型为精彩视频内容。
第二种、假设所述预设条件为识别出的内容类型为动漫视频内容,针对每组视频数据,对相应组视频数据进行图像识别,以识别目标图像;判断识别出的目标图像是否为预设动漫图像,比如柯南头像、火影忍者头像等等;当确定识别出的目标图像为预设动漫图像时,确定相应组视频数据的内容类型为动漫视频内容。
为了提高用户的剪辑兴趣,可以由用户选择的满足预设条件的内容类型,并根据用户选择的内容类型对各组视频数据的内容类型进行识别。具体地,所述终端可以生成提示消息,并显示所述提示消息;所述提示消息用于指示用户选择一个内容类型;接收用户的操作;所述操作为针对所述提示消息的选择操作;响应所述操作,基于用户选择的内容类型,确定相应的识别方法;利用确定的识别方法对各组视频数据的内容类型进行识别。当用户未选择任何内容类型时,所述终端可以基于默认的预设条件对各组视频数据的内容类型进行识别;其中,默认的预设条件可以为识别出的内容类型为精彩视频内容。
这里,可以结合所述至少一组视频数据的时间轴,确定所述第一视频数据对应的第一时长的起始时间、结束时间。
步骤103:将所述第一时长与预设时长进行比较,得到比较结果;当所述比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定待融合的视频数据。
所述预设时长可以是用户设置的,也可以是利用机器学习算法,比如大数据算法,结合统计的不同内容类型的视频数据及对应时长进行确定。
其中,确定所述预设时长的过程,包括:利用机器学习算法,统计不同内容类型的视频数据及对应时长;根据统计的不同内容类型的视频数据及对应时长,确定与所述第一视频数据的内容类型相同的至少一个视频数据;基于所述至少一个视频数据对应的时长分布,确定所述预设时长。所述时长分布可以是正态分布等等。
当所述时长分布为正态分布时,基于预设比例,确定对应所述预设比例的正态分布面积;将所述正态分布面积对应的最大时长作为所述预设时长。其中,所述预设比例可以为70%或50%等等。
在一实施例中,所述从剩余组的视频数据中确定待融合的视频数据,包括:结合所述至少一组视频数据的时间轴,从除第一视频数据外的剩余组视频数据中,确定时间在第一视频数据之前的至少一组视频数据;针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据;当确定时,将相应组视频数据作为待融合的视频数据。
考虑到时间在所述第一视频数据之前的至少一组视频数据对应的视频内容,相比时间在所述第一视频数据之后的至少一组视频数据对应的视频内容,更能引起用户的关注,因此,当所述第一时长大于或等于所述预设时长时,从时间在第一视频数据之前的至少一组视频数据中确定待融合的视频数据。
第i组视频数据为时间在第一视频数据之前的一组视频数据,确定待融合的视频数据的过程,包括以下三种情况:
第一种、如果第i组视频数据对应的时长属于第一预设时长范围,则将第i组视频数据作为待融合的视频数据,并继续从时间在第一视频数据之后的至少一组视频数据中,确定待融合的视频数据;
第二种、如果第i组视频数据对应的时长小于或等于第一预设时长范围的起始时间,则将第i组视频数据作为待融合的视频数据,并继续判断第i+1组视频数据对应的时长是否小于或等于第一预设时长范围的起始时间;
第三种、如果第i组视频数据对应的时长大于或等于第一预设时长范围的结束时间,则将第i组视频数据作为待融合的视频数据,并计算待融合的视频数据与所述第一视频数据对应的时长总和,判断所述时长总和是否小于所述预设时长,当确定时,继续从时间在第一视频数据之后的至少一组视频数据中,确定待融合的视频数据。
其中,i=1,2,3,…N,N为正整数。相应地,第1组视频数据与所述第一视频数据在时间轴上距离最近,第N组视频数据与所述第一视频数据在时间轴上距离最远。
在一实施例中,所述针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据,包括:针对时间在第一视频数据之前的每组视频数据,判断相应组视频数据对应的时长是否属于第一预设时长范围;当确定时,将相应组视频数据作为待融合的视频数据;并针对时间在第一视频数据之后的每组视频数据,基于相应组视频数据对应的时长和第二预设时长范围,判断是否将相应组视频数据作为待融合的视频数据。
所述第一预设时长范围可以是用户设置的,也可以是基于机器学习算法,比如大数据算法,结合统计的不同内容类型的视频数据进行确定。
以大数据算法为例,基于机器学习算法,确定第一预设时长范围的过程包括:基于大数据算法,对视频数据进行分类统计;针对不同类别的每个视频数据,将相应视频数据进行划分,得到至少一组视频数据,对所述至少一组视频数据的内容类型进行识别,将识别的内容类型为精彩视频内容的一组短视频数据作为第一视频数据;得到对应不同类别的短视频数据的至少一个第一视频数据;结合视频数据的时间轴,确定时间在第一视频数据之前的各组视频数据对应的时长分布;基于确定的时长分布,确定所述第一预设时长范围。
所述第二预设时长范围可以是用户设置的,也可以是基于机器学习算法,比如大数据算法,结合统计的不同内容类型的视频数据进行确定。
以大数据算法为例,基于机器学习算法,确定第二预设时长范围的过程包括:基于大数据算法,对视频数据进行分类统计;针对不同类别的每个视频数据,将相应视频数据进行划分,得到至少一组视频数据,对所述至少一组视频数据的内容类型进行识别,将识别的内容类型为精彩视频内容的一组短视频数据作为第一视频数据;得到对应不同类别的短视频数据的至少一个第一视频数据;结合视频数据的时间轴,确定时间在第一视频数据之后的各组视频数据对应的时长分布;基于确定的时长分布,确定所述第二预设时长范围。
为了保证第一视频数据的时长较待融合的视频数据的时长更大,通过第一预设时长范围与时间在第一视频数据之前的每组视频数据对应的时长之间的关系,以及第二预设时长范围与时间在第一视频数据之后的每组视频数据对应的时长之间的关系,确定出能够与所述第一视频数据进行融合的待融合视频数据,从而限定与所述第一视频数据进行融合的视频数据的时长。
在一实施例中,所述针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据,包括:针对时间在第一视频数据之前的每组视频数据,判断第i组视频数据对应的时长是否小于或等于第一预设时长范围的起始时间;当确定时,将第i组视频数据作为待融合的视频数据;并判断第i+1组视频数据对应的时长是否小于或等于第一预设时长范围的起始时间;以此类推;其中,i=1,2,3,…N,N为正整数。
在一实施例中,所述针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据,包括:针对时间在第一视频数据之前的每组视频数据,判断相应组视频数据对应的时长是否大于或等于第一预设时长范围的结束时间;当确定时,将相应组视频数据作为待融合的视频数据;并统计待融合的视频数据对应的时长总和;计算所述第一时长与所述时长总和之和,得到第二时长;判断所述第二时长是否小于所述预设时长;当确定时,针对时间在第一视频数据之后的每组视频数据,基于相应组视频数据对应的时长和第二预设时长范围,确定待融合的视频数据。
第m组视频数据为时间在第一视频数据之后的一组视频数据,确定待融合的视频数据,包括以下三种情况:
第一种、如果第m组视频数据对应的时长属于第二预设时长范围,则将第m组视频数据作为待融合的视频数据;
第二种、如果第m组视频数据对应的时长小于或等于第二预设时长范围的起始时间,则将第m组视频数据作为待融合的视频数据,并继续判断第m+1组视频数据对应的时长是否小于或等于第二预设时长范围的起始时间;
第三种、如果第m组视频数据对应的时长大于或等于第二预设时长范围的结束时间,则将第m组视频数据作为待融合的视频数据,并计算待融合的视频数据与所述第一视频数据对应的时长总和,判断所述时长总和是否小于所述预设时长,当确定时,将确定待融合的视频数据与所述第一视频数据进行融合处理,将融合处理后的视频数据作为剪辑后的视频数据。
其中,m=1,2,3,…M,M为正整数。相应地,第1组视频数据与所述第一视频数据在时间轴上距离最近,第M组视频数据与所述第一视频数据在时间轴上距离最远。
这里,从时间在第一视频数据之后的一组视频数据中,确定待融合的视频数据的过程,与从时间在第一视频数据之前的一组视频数据中,确定待融合的视频数据的过程相同,在此不再赘述。
步骤104:对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据。
在一实施例中,对所述待融合的视频数据与第一视频数据进行融合处理之后,所述方法还包括:确定融合处理后的视频数据对应的时长总和;对融合处理后的视频数据进行剪辑,得到时长等于所述预设时长的视频数据;将时长等于所述预设时长的视频数据作为剪辑后的视频数据。
这里,对视频数据进行剪辑包括以下情况:
第一种、当所述第一视频数据对应的第一时长大于或等于所述预设时长时,不对所述第一视频数据进行融合处理,而是直接对所述第一视频数据进行剪辑。
具体地,对所述第一视频数据进行剪辑,剪辑得到的视频数据需满足to-tb≤Tmmax且te-to≤Tmmax。其中,to是识别出的精彩动作对应的时间;tb是所述第一视频数据对应的开始时间,te是所述第一视频数据对应的结束时间,Tmmax为预设时长。
第二种、计算待融合的视频数据与所述第一视频数据对应的时长总和,当所述时长总和大于或等于所述预设时长,对待融合的视频数据与第一视频数据进行融合处理,对融合处理后的视频数据进行剪辑。其中,待融合的视频数据是从时间在所述第一视频数据之前的各组视频数据中确定的。
具体地,将待融合数据与所述第一视频数据进行融合处理,对融合处理后的视频数据进行剪辑。结合融合处理后的视频数据的时间抽,从时间轴的开始处,裁剪掉对应时长为Tp=Tm1-Tmmax的视频数据;Tp≤1/2ΣTpk。其中,Tm1表示待融合的视频数据与所述第一视频数据对应的时长总和,Tpk表示第i组视频数据对应的时长,第i组视频数据为时间在所述第一视频数据之前的至少一组视频数据。
第三种、计算待融合的视频数据与所述第一视频数据对应的时长总和,当所述时长总和大于或等于所述预设时长,对待融合的视频数据与第一视频数据进行融合处理,对融合处理后的视频数据进行剪辑。其中,待融合的视频数据是从时间在所述第一视频数据之前和之后的各组视频数据中确定的。
具体地,将待融合数据与所述第一视频数据进行融合处理,对融合处理后的视频数据进行剪辑。结合融合处理后的视频数据的时间抽,从时间轴的结尾处,裁剪掉对应时长为Tp=Tm2-Tmmax的视频数据;Tp≤1/2ΣTpk。其中,Tm2表示待融合的视频数据与所述第一视频数据对应的时长总和,Tsk表示第i组视频数据对应的时长,第i组视频数据为时间在所述第一视频数据之前的至少一组视频数据。
采用本发明实施例提供的技术方案,将所述第一视频数据对应的第一时长与预设时长进行比较,当比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定待融合的视频数据,如此,可以保证内容满足预设条件的第一视频数据的完整。基于将剩余组视频数据对应的时长和预设时长范围,从剩余组视频数据中确定待融合的视频数据,如此,可以控制与所述第一视频数据进行融合的视频数据的时长。对所述待融合的视频数据与第一视频数据进行融合处理,对融合处理后的视频数据进行剪辑,得到剪辑后的视频数据;所述剪辑后的视频数据中包含所述第一视频数据。显然,在剪辑后的视频数据中能够保存完整的第一视频数据,同时能够限定与第一视频数据进行融合的视频数据的时长。
下面以具体实施例为例,详细说明本发明在实际应用中的实现过程及原理。
图2为本发明实施例视频处理方法的具体实现流程示意图,具体实现过程,包括如下步骤:
步骤201:获取用户上传的待处理视频数据;并对待处理视频数据进行划分,得到至少一组视频数据。
其中,一组视频数据对应一个镜头画面。
考虑到一个镜头画面内的图像具有连续性,两个镜头画面对应的两个图像之间具有差异性,因而可以对所述待处理视频数据进行特征提取。将所述待处理视频拆解为多个视频帧;针对每个视频帧,提取直方图特征数据;针对相邻两个视频帧对应的直方图特征数据,计算均方差,并对计算的均方差进行归一化处理;计算视频帧直方图特征变化率;根据预设的的变化率门限值完成镜头分割,若小于阀值则判断为同一镜头;若大于等于阀值则判断为不同镜头
步骤202:对所述至少一组视频数据进行识别,得到内容类型为精彩视频内容的一组视频数据,并作为第一视频数据,确定所述第一视频数据对应的第一时长T0。
所述第一视频数据对应的镜头画面为精彩镜头画面。
可以使用基于AI的动作场景检测模型,检测出对应精彩视频内容的第一视频数据。比如,假设待处理视频为足球比赛视频,识别出的所述第一视频数据对应的精彩视频内容可以为进球或者角球等等。
可以结合所述至少一组视频数据的时间轴,确定第一视频数据对应的精彩镜头画面的开始时间tb以及结束时间te,从而确定所述第一视频数据对应的精彩镜头画面的第一时长T0=te-tb。
步骤203:基于统计的不同内容类型的视频数据及对应时长,确定预设时长Tmmax;判断T0是否大于或等于Tmmax,当确定时,执行步骤212;否则,执行步骤204。
以内容类型为精彩视频内容为例,确定预设时长Tmmax的过程包括:
以短视频为例,基于大数据算法,对存储的短视频数据和用户历史播放的短视频数据进行分类统计;针对不同类别的每个短视频数据,将相应短视频数据进行划分,得到至少一组短视频数据,对所述至少一组短视频数据的内容类型进行识别,将识别的内容类型为精彩视频内容的一组短视频数据作为第一短视频数据;得到对应不同类别的短视频数据的至少一个第一短视频数据;确定所述第一短视频数据对应的时长分布,假设为正态分布;假设预设比例为50%,确定50%的正态分布面积对应的各个时长,将确定的各个时长中的最大时长作为所述预设时长Tmmax
举例来说,假设针对足球比赛类的短视频数据,识别出的第一短视频数据对应的最大时长为200s,假设针对竞技游戏类的短视频数据,识别出的第一短视频数据对应的最大时长为260s,假设针对电影类的短视频数据,识别出的第一短视频数据对应的最大时长为180s。
确定第一预设时长范围的过程包括:
基于大数据算法,对存储的短视频数据和用户历史播放的短视频数据进行分类统计;针对不同类别的每个短视频数据,将相应短视频数据进行划分,得到至少一组短视频数据,对所述至少一组短视频数据的内容类型进行识别,将识别的内容类型为精彩视频内容的一组短视频数据作为第一短视频数据;得到对应不同类别的短视频数据的至少一个第一短视频数据;结合视频数据的时间轴,确定时间在所述第一短视频数据之前的各组视频数据对应的时长分布,假设为正态分布;假设预设比例为50%,确定50%的正态分布面积对应的各个时长,将确定的各个时长中的最小时长作为所述第一预设时长范围的开始时间Tpmin,将确定的各个时长中的最大时长作为所述第一预设时长范围的结束时间Tpmax
举例来说,假设针对足球比赛类的短视频数据,识别出时间在第一短视频数据之前的各组视频数据即各个前导镜头画面,确定各个前导镜头画面对应的时长分布,基于所述时长分布,确定出最小时长为30s、最大时长为90s;假设针对竞技游戏类的短视频数据,识别出时间在第一短视频数据之前的各组视频数据即各个前导镜头画面,确定各个前导镜头画面对应的时长分布,基于所述时长分布,确定出最小时长为20s、最大时长为100s,假设针对电影类的短视频数据,识别出时间在第一短视频数据之前的各组视频数据即各个前导镜头画面,确定各个前导镜头画面对应的时长分布,基于所述时长分布,确定出最小时长为15s、最大时长为80s。
确定第二预设时长范围的过程包括:
基于大数据算法,对存储的短视频数据和用户历史播放的短视频数据进行分类统计;针对不同类别的每个短视频数据,将相应短视频数据进行划分,得到至少一组短视频数据,对所述至少一组短视频数据的内容类型进行识别,将识别的内容类型为精彩视频内容的一组短视频数据作为第一短视频数据;得到对应不同类别的短视频数据的至少一个第一短视频数据;结合视频数据的时间轴,确定时间在所述第一短视频数据之后的各组视频数据对应的时长分布,假设为正态分布;假设预设比例为50%,确定50%的正态分布面积对应的各个时长,将确定的各个时长中的最小时长作为所述第二预设时长范围的开始时间Tsmin,将确定的各个时长中的最大时长作为所述第二预设时长范围的结束时间Tsmax
举例来说,假设针对足球比赛类的短视频数据,识别出时间在第一短视频数据之后的各组视频数据即各个后继镜头画面,确定各个后继镜头画面对应的时长分布,基于所述时长分布,确定出最小时长为20s、最大时长为80s;假设针对竞技游戏类的短视频数据,识别出时间在第一短视频数据之后的各组视频数据即各个后继镜头画面,确定各个后继镜头画面对应的时长分布,基于所述时长分布,确定出最小时长为30s、最大时长为90s,假设针对电影类的短视频数据,识别出时间在第一短视频数据之后的各组视频数据即各个后继镜头画面,确定各个后继镜头画面对应的时长分布,基于所述时长分布,确定出最小时长为10s、最大时长为70s。
步骤204:判断第i组视频数据对应的时长Tpk是否小于或等于第一预设时长范围的起始时间Tpmin;当确定时,则将第i组视频数据作为待融合的视频数据,并继续判断第i+1组视频数据对应的时长Tpk是否小于或等于第一预设时长范围的起始时间Tpmin;否则,执行步骤205。
其中,第i组视频数据为时间在所述第一视频数据之前的至少一组视频数据,第m组视频数据为时间在所述第一视频数据之后的至少一组视频数据。i=1,2,3,…N,N为正整数,m=1,2,3,…M,M为正整数。
图3是视频数据对应的镜头画面的示意图,如图3所示,所述第一视频数据对应的镜头画面为精彩镜头画面,第i组视频数据对应的镜头画面为前导镜头画面,第m组视频数据对应的镜头画面为后继镜头画面。
由于用户对精彩镜头画面、前导镜头画面和后继镜头画面的关注度不同,关注度的优先级可以为:精彩镜头画面>前导镜头画面>后继镜头画面,所以在确定与所述第一视频数据进行融合的待融合视频数据时,优先从前导镜头画面对应的视频数据中确定待融合数据。
步骤205:判断第i组视频数据对应的时长Tpk是否小于第一预设时长范围的结束时间Tpmax;当确定时,则将第i组视频数据作为待融合的视频数据,并执行步骤208;否则,将第i组视频数据作为待融合的视频数据,执行步骤206。
步骤206:计算待融合的视频数据与所述第一视频数据对应的时长总和Tm1,并执行步骤207。
按照公式(1)计算时长总和Tm 1。
Tm1=T0+∑Tpk (1)
其中,T0表示所述第一视频数据对应的第一时长,∑Tpk表示确定出的所有待融合视频数据对应的时长总和。
步骤207:判断所述时长总和Tm 1是否大于或等于所述预设时长Tmmax,当确定时,执行步骤209;否则,执行步骤208。
步骤208:判断第m组视频数据对应的时长Tsk是否小于或等于第二预设时长范围的起始时间Tsmin;当确定时,则将第m组视频数据作为待融合的视频数据,并继续判断第m+1组视频数据对应的时长Tsk是否小于或等于第二预设时长范围的起始时间Tsmin;否则,执行步骤210。
步骤209:将待融合数据与所述第一视频数据进行融合处理,对融合处理后的视频数据进行剪辑。
结合融合处理后的视频数据的时间抽,从时间轴的开始处,裁剪掉对应时长为Tp=Tm1-Tmmax的视频数据。其中,Tp≤1/2ΣTpk
步骤210:判断第m组视频数据对应的时长Tsk是否小于第二预设时长范围的结束时间Tsmax;当确定时,则将第m组视频数据作为待融合的视频数据;否则,将第m组视频数据作为待融合的视频数据,并执行步骤211。
步骤211:计算待融合的视频数据与所述第一视频数据对应的时长总和Tm2,并执行步骤213。
按照公式(2)计算时长总和Tm2。
Tm2=T0+∑Tsk+∑Tpk (2)
其中,T0表示所述第一视频数据对应的第一时长,∑Tsk+∑Tpk表示确定出的所有待融合视频数据对应的时长总和。
步骤212:对所述第一视频数据进行剪辑,得到剪辑后的视频数据。
对所述第一视频数据进行剪辑,剪辑得到的视频数据需满足to-tb≤Tmmax且te-to≤Tmmax。其中,to是识别出的精彩动作对应的时间;tb是所述第一视频数据对应的开始时间,te是所述第一视频数据对应的结束时间。
步骤213:判断所述时长总和Tm2是否大于或等于所述预设时长Tmmax,当确定时,执行步骤214;否则,执行步骤215。
步骤214:将待融合数据与所述第一视频数据进行融合处理,对融合处理后的视频数据进行剪辑。
结合融合处理后的视频数据的时间抽,从时间轴的结尾处,裁剪掉对应时长为Tp=Tm2-Tmmax的视频数据。其中,Tp≤1/2ΣTpk
步骤215:将确定的待融合数据与所述第一视频数据进行融合处理,将融合处理后的视频数据作为剪辑后的视频数据,得到剪辑后的短视频。
基于本申请各实施例提供的视频处理方法,本申请还提供一种视频处理装置,所述装置设置在终端上,如图4所示,所述装置包括:
划分模块41,用于对待处理视频数据进行划分,得到至少一组视频数据;
识别模块42,用于对所述至少一组视频数据的内容类型进行识别,将内容类型满足预设条件的一组视频数据作为第一视频数据,并确定所述第一视频数据对应的第一时长;
比较模块43,用于将所述第一时长与预设时长进行比较,得到比较结果;当所述比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定待融合的视频数据;
剪辑模块44,用于对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据。
在一实施例中,所述比较模块43,具体用于结合所述至少一组视频数据的时间轴,从除第一视频数据外的剩余组视频数据中,确定时间在第一视频数据之前的至少一组视频数据;针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据;当确定时,将相应组视频数据作为待融合的视频数据。
所述比较模块43,具体用于针对时间在第一视频数据之前的每组视频数据,判断相应组视频数据对应的时长是否属于第一预设时长范围;当确定时,将相应组视频数据作为待融合的视频数据;并针对时间在第一视频数据之后的每组视频数据,基于相应组视频数据对应的时长和第二预设时长范围,判断是否将相应组视频数据作为待融合的视频数据。
所述比较模块43,具体用于针对时间在第一视频数据之前的每组视频数据,判断第i组视频数据对应的时长是否小于或等于第一预设时长范围的起始时间;当确定时,将第i组视频数据作为待融合的视频数据;并判断第i+1组视频数据对应的时长是否小于或等于第一预设时长范围的起始时间;以此类推;其中,i=1,2,3,…N,N为正整数。
所述比较模块43,具体用于针对时间在第一视频数据之前的每组视频数据,判断相应组视频数据对应的时长是否大于或等于第一预设时长范围的结束时间;当确定时,将相应组视频数据作为待融合的视频数据;并统计待融合的视频数据对应的时长总和;计算所述第一时长与所述时长总和之和,得到第二时长;判断所述第二时长是否小于所述预设时长;当确定时,针对时间在第一视频数据之后的每组视频数据,基于相应组视频数据对应的时长和第二预设时长范围,确定待融合的视频数据。
在一实施例中,所述剪辑模块44,具体用于确定融合处理后的视频数据对应的时长总和;对融合处理后的视频数据进行剪辑,得到时长等于所述预设时长的视频数据;将时长等于所述预设时长的视频数据作为剪辑后的视频数据。
在一实施例中,所述装置还包括:确定模块;
所述确定模块,用于利用机器学习算法,统计不同内容类型的视频数据及对应时长;利用统计的不同内容类型的视频数据及对应时长,确定与所述第一视频数据的内容类型相同的至少一个视频数据,以及所述至少一个视频数据对应的时长分布;基于所述时长分布,确定所述预设时长。
需要说明的是:上述实施例提供的视频处理装置在进行视频处理时,仅以上述各程序模块的划分进行举例说明,实际应用中,可以根据需要而将上述处理分配由不同的程序模块完成,即将装置的内部结构划分成不同的程序模块,以完成以上描述的全部或者部分处理。另外,上述实施例提供的视频处理装置与视频处理方法实施例属于同一构思,其具体实现过程详见方法实施例,这里不再赘述。
在实际应用中,划分模块41、识别模块42、比较模块43、剪辑模块44、确定模块可由位于视频处理装置上的处理器比如中央处理器(CPU,Central Processing Unit)、微处理器(MPU,Micro Processor Unit)、数字信号处理器(DSP,Digital Signal Processor)、或现场可编程门阵列(FPGA,Field Programmable Gate Array)等实现。
图5是本发明视频处理装置的结构示意图,图5所示的视频处理装置500设置在所述终端上,包括:至少一个处理器501、存储器502、用户接口503、至少一个网络接口504。视频处理装置500中的各个组件通过总线系统505耦合在一起。可理解,总线系统505用于实现这些组件之间的连接通信。总线系统505除包括数据总线之外,还包括电源总线、控制总线和状态信号总线。但是为了清楚说明起见,在图5中将各种总线都标为总线系统505。
其中,用户接口503可以包括显示器、键盘、鼠标、轨迹球、点击轮、按键、按钮、触感板或者触摸屏等。
本发明实施例中的存储器502用于存储各种类型的数据以支持视频处理装置500的操作。这些数据的示例包括:用于在视频处理装置500上操作的任何计算机程序,如操作系统5021和应用程序5022;其中,操作系统5021包含各种系统程序,例如框架层、核心库层、驱动层等,用于实现各种基础业务以及处理基于硬件的任务。应用程序5022可以包含各种应用程序,用于实现各种应用业务。实现本发明实施例方法的程序可以包含在应用程序5022中。
上述本发明实施例揭示的方法可以应用于处理器501中,或者由处理器501实现。处理器501可能是一种集成电路芯片,具有信号的处理能力。在实现过程中,上述方法的各步骤可以通过处理器501中的硬件的集成逻辑电路或者软件形式的指令完成。上述的处理器501可以是通用处理器、数字信号处理器,或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。处理器501可以实现或者执行本发明实施例中的公开的各方法、步骤及逻辑框图。通用处理器可以是微处理器或者任何常规的处理器等。结合本发明实施例所公开的方法的步骤,可以直接体现为硬件译码处理器执行完成,或者用译码处理器中的硬件及软件模块组合执行完成。软件模块可以位于存储介质中,该存储介质位于存储器502,处理器501读取存储器502中的信息,结合其硬件完成前述方法的步骤。
可以理解,存储器502可以是易失性存储器或非易失性存储器,也可包括易失性和非易失性存储器两者。其中,非易失性存储器可以是只读存储器(ROM,Read Only Memory)、可编程只读存储器(PROM,Programmable Read-Only Memory)、可视频处理可编程只读存储器(EPROM,Erasable Programmable Read-Only Memory)、电可视频处理可编程只读存储器(EEPROM,Electrically Erasable Programmable Read-Only Memory)、磁性随机存取存储器(FRAM,ferromagnetic random access memory)、快闪存储器(Flash Memory)、磁表面存储器、光盘、或只读光盘(CD-ROM,Compact Disc Read-Only Memory);磁表面存储器可以是磁盘存储器或磁带存储器。易失性存储器可以是随机存取存储器(RAM,Random AccessMemory),其用作外部高速缓存。通过示例性但不是限制性说明,许多形式的RAM可用,例如静态随机存取存储器(SRAM,Static Random Access Memory)、同步静态随机存取存储器(SSRAM,Synchronous Static Random Access Memory)、动态随机存取存储器(DRAM,Dynamic Random Access Memory)、同步动态随机存取存储器(SDRAM,SynchronousDynamic Random Access Memory)、双倍数据速率同步动态随机存取存储器(DDRSDRAM,Double Data Rate Synchronous Dynamic Random Access Memory)、增强型同步动态随机存取存储器(ESDRAM,Enhanced Synchronous Dynamic Random Access Memory)、同步连接动态随机存取存储器(SLDRAM,SyncLink Dynamic Random Access Memory)、直接内存总线随机存取存储器(DRRAM,Direct Rambus Random Access Memory)。本发明实施例描述的存储器502旨在包括但不限于这些和任意其它适合类型的存储器。
基于本申请各实施例提供的视频处理方法,本申请还提供一种计算机可读存储介质,参照图5所示,所述计算机可读存储介质可以包括:用于存储计算机程序的存储器502,上述计算机程序可由视频处理装置500的处理器501执行,以完成前述方法所述步骤。计算机可读存储介质可以是FRAM、ROM、PROM、EPROM、EEPROM、Flash Memory、磁表面存储器、光盘、或CD-ROM等存储器。
需要说明的是:本发明实施例所记载的技术方案之间,在不冲突的情况下,可以任意组合。
以上所述,仅为本发明的较佳实施例而已,并非用于限定本发明的保护范围。

Claims (10)

1.一种视频处理方法,其特征在于,所述方法包括:
对待处理视频数据进行划分,得到至少一组视频数据;
对所述至少一组视频数据的内容类型进行识别,将内容类型满足预设条件的一组视频数据作为第一视频数据,并确定所述第一视频数据对应的第一时长;
将所述第一时长与预设时长进行比较,得到比较结果;
当所述比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定至少一组视频数据;基于相应组视频数据对应的时长和第一预设时长范围,确定待融合的视频数据;
对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
统计不同内容类型的视频数据及对应时长;
根据统计的不同内容类型的视频数据及对应时长,确定与所述第一视频数据的内容类型相同的至少一个视频数据;
基于所述至少一个视频数据对应的时长分布,确定所述预设时长。
3.根据权利要求1所述的方法,其特征在于,从剩余组视频数据中确定至少一组视频数据;基于相应组视频数据对应的时长和第一预设时长范围,确定待融合的视频数据,包括:
结合所述至少一组视频数据的时间轴,从除第一视频数据外的剩余组视频数据中,确定时间在第一视频数据之前的至少一组视频数据;
针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据;
当确定时,将相应组视频数据作为待融合的视频数据。
4.根据权利要求3所述的方法,其特征在于,所述针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据,包括:
针对时间在第一视频数据之前的每组视频数据,判断相应组视频数据对应的时长是否属于第一预设时长范围;
当确定时,将相应组视频数据作为待融合的视频数据;并针对时间在第一视频数据之后的每组视频数据,基于相应组视频数据对应的时长和第二预设时长范围,判断是否将相应组视频数据作为待融合的视频数据。
5.根据权利要求3所述的方法,其特征在于,所述针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据,包括:
针对时间在第一视频数据之前的每组视频数据,判断第i组视频数据对应的时长是否小于或等于第一预设时长范围的起始时间;
当确定时,将第i组视频数据作为待融合的视频数据;并判断第i+1组视频数据对应的时长是否小于或等于第一预设时长范围的起始时间;以此类推;
其中,i=1,2,3,…N,N为正整数。
6.根据权利要求3所述的方法,其特征在于,所述针对时间在第一视频数据之前的每组视频数据,基于相应组视频数据对应的时长和第一预设时长范围,判断是否将相应组视频数据作为待融合的视频数据,包括:
针对时间在第一视频数据之前的每组视频数据,判断相应组视频数据对应的时长是否大于或等于第一预设时长范围的结束时间;
当确定时,将相应组视频数据作为待融合的视频数据;并统计待融合的视频数据对应的时长总和;
计算所述第一时长与所述时长总和之和,得到第二时长;
判断所述第二时长是否小于所述预设时长;
当确定时,针对时间在第一视频数据之后的每组视频数据,基于相应组视频数据对应的时长和第二预设时长范围,确定待融合的视频数据。
7.根据权利要求1或2所述的方法,其特征在于,所述方法还包括:
确定融合处理后的视频数据对应的时长总和;
对融合处理后的视频数据进行剪辑,得到时长等于所述预设时长的视频数据;
将时长等于所述预设时长的视频数据作为剪辑后的视频数据。
8.一种视频处理装置,其特征在于,所述装置包括:
划分模块,用于对待处理视频数据进行划分,得到至少一组视频数据;
识别模块,用于对所述至少一组视频数据的内容类型进行识别,将内容类型满足预设条件的一组视频数据作为第一视频数据,并确定所述第一视频数据对应的第一时长;
比较模块,用于将所述第一时长与预设时长进行比较,得到比较结果;当所述比较结果表征所述第一时长小于预设时长时,从剩余组视频数据中确定至少一组视频数据;基于相应组视频数据对应的时长和第一预设时长范围,确定待融合的视频数据;
剪辑模块,用于对所述待融合的视频数据与第一视频数据进行融合处理,以得到剪辑后的视频数据。
9.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7任一项所述方法的步骤。
10.一种视频处理装置,其特征在于,包括:存储器、处理器以及存储在存储器上并可在处理器上运行的计算机程序;
其中,所述处理器用于运行所述计算机程序时,执行权利要求1至7任一项所述方法的步骤。
CN201811021096.4A 2018-09-03 2018-09-03 一种视频处理方法、装置及计算机可读存储介质 Active CN109167934B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811021096.4A CN109167934B (zh) 2018-09-03 2018-09-03 一种视频处理方法、装置及计算机可读存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811021096.4A CN109167934B (zh) 2018-09-03 2018-09-03 一种视频处理方法、装置及计算机可读存储介质

Publications (2)

Publication Number Publication Date
CN109167934A CN109167934A (zh) 2019-01-08
CN109167934B true CN109167934B (zh) 2020-12-22

Family

ID=64893847

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811021096.4A Active CN109167934B (zh) 2018-09-03 2018-09-03 一种视频处理方法、装置及计算机可读存储介质

Country Status (1)

Country Link
CN (1) CN109167934B (zh)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109982109B (zh) * 2019-04-03 2021-08-03 睿魔智能科技(深圳)有限公司 短视频的生成方法及装置、服务器和存储介质
CN111246124B (zh) * 2020-03-09 2021-05-25 三亚至途科技有限公司 一种多媒体数字融合方法和装置
CN111800673A (zh) * 2020-07-31 2020-10-20 聚好看科技股份有限公司 视频播放方法、显示设备及服务器
CN113015005B (zh) * 2021-05-25 2021-08-31 腾讯科技(深圳)有限公司 一种视频剪辑方法、装置、设备及计算机可读存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101072305A (zh) * 2007-06-08 2007-11-14 华为技术有限公司 镜头分类方法、场景提取方法、摘要生成方法及装置
CN101896906A (zh) * 2007-12-17 2010-11-24 国际商业机器公司 基于时间片段的提取和视频指纹的健壮性匹配
CN102770861A (zh) * 2010-12-13 2012-11-07 英特尔公司 数据突出和提取
CN103635967A (zh) * 2011-06-21 2014-03-12 诺基亚公司 视频再混合系统
CN103873927A (zh) * 2012-12-17 2014-06-18 联想(北京)有限公司 流媒体数据处理方法和电子设备
CN107483843A (zh) * 2017-08-16 2017-12-15 成都品果科技有限公司 音视频匹配剪辑方法及装置
CN107566907A (zh) * 2017-09-20 2018-01-09 广东欧珀移动通信有限公司 视频剪辑方法、装置、存储介质及终端
CN108259990A (zh) * 2018-01-26 2018-07-06 腾讯科技(深圳)有限公司 一种视频剪辑的方法及装置

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4758161B2 (ja) * 2004-07-30 2011-08-24 パナソニック株式会社 ダイジェストの作成方法及び装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101072305A (zh) * 2007-06-08 2007-11-14 华为技术有限公司 镜头分类方法、场景提取方法、摘要生成方法及装置
CN101896906A (zh) * 2007-12-17 2010-11-24 国际商业机器公司 基于时间片段的提取和视频指纹的健壮性匹配
CN102770861A (zh) * 2010-12-13 2012-11-07 英特尔公司 数据突出和提取
CN103635967A (zh) * 2011-06-21 2014-03-12 诺基亚公司 视频再混合系统
CN103873927A (zh) * 2012-12-17 2014-06-18 联想(北京)有限公司 流媒体数据处理方法和电子设备
CN107483843A (zh) * 2017-08-16 2017-12-15 成都品果科技有限公司 音视频匹配剪辑方法及装置
CN107566907A (zh) * 2017-09-20 2018-01-09 广东欧珀移动通信有限公司 视频剪辑方法、装置、存储介质及终端
CN108259990A (zh) * 2018-01-26 2018-07-06 腾讯科技(深圳)有限公司 一种视频剪辑的方法及装置

Also Published As

Publication number Publication date
CN109167934A (zh) 2019-01-08

Similar Documents

Publication Publication Date Title
CN109167934B (zh) 一种视频处理方法、装置及计算机可读存储介质
US10706892B2 (en) Method and apparatus for finding and using video portions that are relevant to adjacent still images
US10062412B2 (en) Hierarchical segmentation and quality measurement for video editing
CN110691259B (zh) 视频播放方法、系统、装置、电子设备及存储介质
US9635307B1 (en) Preview streaming of video data
CN106998494B (zh) 一种视频录制方法及相关装置
US11438510B2 (en) System and method for editing video contents automatically technical field
US10721519B2 (en) Automatic generation of network pages from extracted media content
CN111836118B (zh) 视频处理方法、装置、服务器及存储介质
CN106027893A (zh) 控制Live Photo生成的方法、装置及电子设备
US20110235859A1 (en) Signal processor
CN112291634B (zh) 视频处理方法及装置
CN108235126B (zh) 在视频中插入推荐信息的方法和装置
CN113923472A (zh) 视频内容分析方法、装置、电子设备及存储介质
CN112929728A (zh) 一种视频渲染方法、装置、系统、电子设备及存储介质
CN108566567B (zh) 电影剪辑方法及装置
CN110019951B (zh) 一种生成视频缩略图的方法及设备
CN110769291A (zh) 一种视频处理方法、装置、电子设备及存储介质
WO2019042249A1 (zh) 一种翻页方法、装置和存储介质
CN113840099B (zh) 视频处理方法、装置、设备及计算机可读存储介质
CN111046232A (zh) 一种视频分类方法、装置及系统
CN113810751B (zh) 视频处理方法及设备、电子设备及服务器
CN115119050B (zh) 一种视频剪辑方法和装置、电子设备和存储介质
CN116756429B (zh) 一种新媒体内容推荐方法以及推荐系统
CN111079051B (zh) 一种展示内容的播放方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant