CN113225586A - 视频处理方法、装置、电子设备及存储介质 - Google Patents

视频处理方法、装置、电子设备及存储介质 Download PDF

Info

Publication number
CN113225586A
CN113225586A CN202010080763.7A CN202010080763A CN113225586A CN 113225586 A CN113225586 A CN 113225586A CN 202010080763 A CN202010080763 A CN 202010080763A CN 113225586 A CN113225586 A CN 113225586A
Authority
CN
China
Prior art keywords
video
score
segment
color
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010080763.7A
Other languages
English (en)
Other versions
CN113225586B (zh
Inventor
靳潇杰
沈晓辉
罗昱
杨林杰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ByteDance Inc
Original Assignee
ByteDance Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ByteDance Inc filed Critical ByteDance Inc
Priority to CN202010080763.7A priority Critical patent/CN113225586B/zh
Publication of CN113225586A publication Critical patent/CN113225586A/zh
Application granted granted Critical
Publication of CN113225586B publication Critical patent/CN113225586B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/233Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs
    • H04N21/23424Processing of video elementary streams, e.g. splicing of video streams, manipulating MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for inserting or substituting an advertisement
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/83Generation or processing of protective or descriptive data associated with content; Content structuring
    • H04N21/845Structuring of content, e.g. decomposing content into time segments
    • H04N21/8456Structuring of content, e.g. decomposing content into time segments by decomposing the content in the time domain, e.g. in time segments

Abstract

本公开实施例提供一种视频处理方法、装置、电子设备及存储介质;方法包括:根据片段时长从视频中提取多个候选视频片段;确定所述候选视频片段中相邻视频帧之间的位移幅值,并将所述位移幅值确定为视频帧的运动分数;对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数;根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数;根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段。本公开实施例提升了筛选视频片段的效率,同时提升了确定出的目标视频片段的效果,适用于视频剪辑的场景。

Description

视频处理方法、装置、电子设备及存储介质
技术领域
本公开实施例涉及视频技术,尤其涉及一种视频处理方法、装置、电子设备及存储介质。
背景技术
随着视频技术的发展,出现了越来越多的视频剪辑方式。例如,在多个不同的视频中分别剪辑出视频片段,并将多个视频片段拼接在一起,同时添加音频,制作成卡点视频,提升用户的观看体验。
在相关技术提供的方案中,通常依靠手动进行片段剪辑,即由用户在视频中手动设置起始时间和结束时间,从而剪辑出视频片段,但是,该种方式的效率低下,在视频数量较多时,需要耗费大量时间进行剪辑。
发明内容
提供该发明内容部分以便以简要的形式介绍构思,这些构思将在后面的具体实施方式部分被详细描述。该发明内容部分并不旨在标识要求保护的技术方案的关键特征或必要特征,也不旨在用于限制所要求的保护的技术方案的范围。
第一方面,本公开实施例提供了一种视频处理方法,包括:
根据片段时长从视频中提取多个候选视频片段;
确定所述候选视频片段中相邻视频帧之间的位移幅值,并将所述位移幅值确定为视频帧的运动分数;
对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数;
根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数;
根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段。
上述方案中,所述根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段,包括:
根据所述候选视频片段中各所述视频帧的运动分数、美学分数及颜色分数,分别确定所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数;
根据片段运动分数对多个所述候选视频片段进行比例选取处理,得到第一片段集合;
根据片段美学分数对多个所述候选视频片段进行比例选取处理,得到第二片段集合;
根据片段颜色分数对多个所述候选视频片段进行比例选取处理,得到第三片段集合;
将所述第一片段集合、所述第二片段集合及所述第三片段集合的交集,确定为目标片段集合,并在所述目标片段集合中确定目标视频片段。
上述方案中,所述根据所述候选视频片段中各所述视频帧的运动分数、美学分数及颜色分数,分别确定所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数,包括:
对所述候选视频片段内所有视频帧的分数进行平均处理,得到平均分数;
对所述候选视频片段的平均分数进行归一化处理,得到归一化分数;
对多个所述归一化分数进行排序,并将位于设定位次的归一化分数确定为优化分数;
根据所述归一化分数和所述优化分数,确定所述候选视频片段的分数;
其中,所述视频帧的分数为运动分数、美学分数或颜色分数,所述候选视频片段的分数为对应的片段运动分数、片段美学分数或片段颜色分数。
上述方案中,所述在所述目标片段集合中确定目标视频片段,包括:
当所述目标片段集合包括至少两个候选视频片段时,对所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数进行融合处理,得到融合分数;
将所述目标片段集合中融合分数最高的候选视频片段,确定为目标视频片段。
上述方案中,还包括:
当所述第一片段集合、所述第二片段集合及所述第三片段集合的交集为空时,将所述第一片段集合确定为目标片段集合。
上述方案中,所述根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数,包括:
对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵;
确定所述第一颜色矩阵的均值及方差,并确定所述第二颜色矩阵的均值及方差;
根据所述第一颜色矩阵的均值和所述第二颜色矩阵的均值,确定全局均值;
根据所述第一颜色矩阵的方差和所述第二颜色矩阵的方差,确定全局方差;
对所述全局均值及所述全局方差进行融合处理,得到所述视频帧的颜色分数。
上述方案中,所述对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵,包括:
将所述候选视频片段中视频帧的红色通道的颜色矩阵,与绿色通道的颜色矩阵进行相差处理,并
对相差处理得到的矩阵进行绝对值处理,得到第一颜色矩阵;
将所述红色通道的颜色矩阵与所述绿色通道的颜色矩阵进行相加处理,将相加处理得到的矩阵与蓝色通道的颜色矩阵进行相差处理,并
对相差处理得到的矩阵进行绝对值处理,得到第二颜色矩阵。
上述方案中,所述对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数,包括:
获取标注视频帧及对应的标注美学分数;
通过机器学习模型对所述标注视频帧进行预测处理,得到预测美学分数;
确定所述标注美学分数与所述预测美学分数之间的差异;
根据所述差异在所述机器学习模型中进行反向传播,并在反向传播的过程中更新所述机器学习模型的权重参数;
通过更新后的机器学习模型,对所述候选视频片段中的视频帧进行预测处理,得到所述视频帧的美学分数。
第二方面,本公开实施例提供了一种视频处理装置,包括:
提取单元,用于根据片段时长从视频中提取多个候选视频片段;
运动分数确定单元,用于确定所述候选视频片段中相邻视频帧之间的位移幅值,并将所述位移幅值确定为视频帧的运动分数;
美学分数确定单元,用于对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数;
颜色分数确定单元,用于根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数;
目标确定单元,用于根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段。
上述方案中,所述目标确定单元,还用于:
根据所述候选视频片段中各所述视频帧的运动分数、美学分数及颜色分数,分别确定所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数;
根据片段运动分数对多个所述候选视频片段进行比例选取处理,得到第一片段集合;
根据片段美学分数对多个所述候选视频片段进行比例选取处理,得到第二片段集合;
根据片段颜色分数对多个所述候选视频片段进行比例选取处理,得到第三片段集合;
将所述第一片段集合、所述第二片段集合及所述第三片段集合的交集,确定为目标片段集合,并在所述目标片段集合中确定目标视频片段。
上述方案中,所述目标确定单元,还用于:
对所述候选视频片段内所有视频帧的分数进行平均处理,得到平均分数;
对所述候选视频片段的平均分数进行归一化处理,得到归一化分数;
对多个所述归一化分数进行排序,并将位于设定位次的归一化分数确定为优化分数;
根据所述归一化分数和所述优化分数,确定所述候选视频片段的分数;
其中,所述视频帧的分数为运动分数、美学分数或颜色分数,所述候选视频片段的分数为对应的片段运动分数、片段美学分数或片段颜色分数。
上述方案中,所述目标确定单元,还用于:
当所述目标片段集合包括至少两个候选视频片段时,对所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数进行融合处理,得到融合分数;
将所述目标片段集合中融合分数最高的候选视频片段,确定为目标视频片段。
上述方案中,所述目标确定单元,还用于:
当所述第一片段集合、所述第二片段集合及所述第三片段集合的交集为空时,将所述第一片段集合确定为目标片段集合。
上述方案中,所述颜色分数确定单元,还用于:
对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵;
确定所述第一颜色矩阵的均值及方差,并确定所述第二颜色矩阵的均值及方差;
根据所述第一颜色矩阵的均值和所述第二颜色矩阵的均值,确定全局均值;
根据所述第一颜色矩阵的方差和所述第二颜色矩阵的方差,确定全局方差;
对所述全局均值及所述全局方差进行融合处理,得到所述视频帧的颜色分数。
上述方案中,所述颜色分数确定单元,还用于:
将所述候选视频片段中视频帧的红色通道的颜色矩阵,与绿色通道的颜色矩阵进行相差处理,并
对相差处理得到的矩阵进行绝对值处理,得到第一颜色矩阵;
将所述红色通道的颜色矩阵与所述绿色通道的颜色矩阵进行相加处理,将相加处理得到的矩阵与蓝色通道的颜色矩阵进行相差处理,并
对相差处理得到的矩阵进行绝对值处理,得到第二颜色矩阵。
上述方案中,所述美学分数确定单元,还用于:
获取标注视频帧及对应的标注美学分数;
通过机器学习模型对所述标注视频帧进行预测处理,得到预测美学分数;
确定所述标注美学分数与所述预测美学分数之间的差异;
根据所述差异在所述机器学习模型中进行反向传播,并在反向传播的过程中更新所述机器学习模型的权重参数;
通过更新后的机器学习模型,对所述候选视频片段中的视频帧进行预测处理,得到所述视频帧的美学分数。
第三方面,本公开实施例提供了一种电子设备,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述可执行指令时,实现本公开实施例提供的视频处理方法。
第四方面,本公开实施例提供了一种存储介质,存储有可执行指令,所述可执行指令被执行时,用于实现本公开实施例提供的视频处理方法。
本公开实施例具有如下有益效果:
本公开实施例根据片段时长从视频中提取多个候选视频片段,并通过计算运动分数、美学分数及颜色分数,在多个候选视频片段确定出目标视频片段,实现了视频片段的自动选择,同时使得确定出的目标视频片段的效果较好,适用于制作卡点视频等应用场景。
附图说明
结合附图并参考以下具体实施方式,本公开各实施例的上述和其他特征、优点及方面将变得更加明显。贯穿附图中,相同或相似的附图标记表示相同或相似的元素。应当理解附图是示意性的,原件和元素不一定按照比例绘制。
图1是实现本公开实施例的电子设备的一个可选的结构示意图;
图2是实现本公开实施例的视频处理装置的一个可选的结构示意图;
图3A是实现本公开实施例的视频处理方法的一个可选的流程示意图;
图3B是实现本公开实施例的视频处理方法的一个可选的流程示意图;
图3C是本公开实施例提供的确定候选视频片段的片段运动分数、片段美学分数及片段颜色分数的一个可选的流程示意图;
图3D是实现本公开实施例的视频处理方法的一个可选的流程示意图;
图3E是实现本公开实施例的视频处理方法的一个可选的流程示意图。
具体实施方式
下面将参照附图更详细地描述本公开的实施例。虽然附图中显示了本公开的某些实施例,然而应当理解的是,本公开可以通过各种形式来实现,而且不应该被解释为限于这里阐述的实施例,相反提供这些实施例是为了更加透彻和完整地理解本公开。应当理解的是,本公开的附图及实施例仅用于示例性作用,并非用于限制本公开的保护范围。
应当理解,本公开的方法实施方式中记载的各个步骤可以按照不同的顺序执行,和/或并行执行。此外,方法实施方式可以包括附加的步骤和/或省略执行示出的步骤。本公开的范围在此方面不受限制。
本文使用的术语“包括”及其变形是开放性包括,即“包括但不限于”。术语“基于”是“至少部分地基于”。术语“一个实施例”表示“至少一个实施例”;术语“另一实施例”表示“至少一个另外的实施例”;术语“一些实施例”表示“至少一些实施例”。其他术语的相关定义将在下文描述中给出。
需要注意,本公开中提及的“第一”、“第二”等概念仅用于对不同的装置、模块或单元进行区分,并非用于限定这些装置、模块或单元所执行的功能的顺序或者相互依存关系。
需要注意,本公开中提及的“一个”、“多个”的修饰是示意性而非限制性的,本领域技术人员应当理解,除非在上下文另有明确指出,否则应该理解为“一个或多个”。
本公开实施方式中的多个装置之间所交互的消息或者信息的名称仅用于说明性的目的,而并不是用于对这些消息或信息的范围进行限制。
下面参见图1,图1是实现本公开实施例的电子设备100的结构示意图。电子设备可以是各种终端,包括移动电话、笔记本电脑、数字广播接收器、个人数字助理(PDA,PersonalDigital Assistant)、平板电脑(PAD)、便携式多媒体播放器(PMP,Portable MediaPlayer)、车载终端(例如车载导航终端)等等的移动终端以及诸如数字电视(TV)、台式计算机等等的固定终端。图1示出的电子设备仅仅是一个示例,不应对本公开实施例的功能和使用范围带来任何限制。
如图1所示,电子设备100可以包括处理装置(例如中央处理器、图形处理器等)110,其可以根据存储在只读存储器(ROM,Read-Only Memory)120中的程序或者从存储装置180加载到随机访问存储器(RAM,Random Access Memory)130中的程序而执行各种适当的动作和处理。在RAM 130中,还存储有电子设备100操作所需的各种程序和数据。处理装置110、ROM 120以及RAM 130通过总线140彼此相连。输入/输出(I/O,Input/Output)接口150也连接至总线140。
通常,以下装置可以连接至I/O接口150:包括例如触摸屏、触摸板、键盘、鼠标、摄像头、麦克风、加速度计、陀螺仪等的输入装置160;包括例如液晶显示器(LCD,LiquidCrystal Display)、扬声器、振动器等的输出装置170;包括例如磁带、硬盘等的存储装置180;以及通信装置190。通信装置190可以允许电子设备100与其他设备进行无线或有线通信以交换数据。虽然图1示出了具有各种装置的电子设备100,但是应理解的是,并不要求实施或具备所有示出的装置。可以替代地实施或具备更多或更少的装置。
特别地,根据本公开实施例,所提供的流程图描述的过程可以被实现为计算机软件程序。例如,本公开实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,计算机程序可以通过通信装置190从网络上被下载和安装,或者从存储装置180被安装,或者从ROM 120被安装。在计算机程序被处理装置110执行时,执行本公开实施例的方法中的功能。
需要说明的是,本公开实施例上述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以包括但不限于电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、RAM、ROM、可擦式可编程只读存储器(EPROM,ErasableProgrammable Read Only Memory)、闪存、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。
在本公开实施例中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本公开实施例中,计算机可读信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,计算机可读信号介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括电线、光缆、射频(RF,Radio Frequency)等等,或者上述的任意合适的组合。
上述计算机可读介质可以是上述电子设备100中所包含的;也可以是单独存在,而未装配入电子设备100中。
上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被电子设备100执行时,使得电子设备执行本公开实施例提供的视频处理方法。
可以以一种或多种程序设计语言或其组合来编写用于执行本公开实施例中操作的计算机程序代码,上述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络,包括局域网(LAN,Local Area Network))和广域网(WAN,Wide Area Network),以连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
本公开实施例提供的流程图和框图,图示了按照本公开各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本公开实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。其中,单元的名称在某种情况下并不构成对该单元本身的限定,例如,提取单元还可以被描述为“根据片段时长从视频中提取多个候选视频片段的单元”。
本公开实施例中描述的功能可以至少部分地由一个或多个硬件逻辑部件来执行。例如,非限制性地,可以使用的示范类型的硬件逻辑部件包括:现场可编程门阵列(FPGA,Field-Programmable Gate Array)、专用集成电路(ASIC,Application SpecificIntegrated Circuit)、专用标准产品(ASSP,Application Specific Standard Parts))、片上系统(SOC)、复杂可编程逻辑设备(CPLD)等等。
在本公开实施例的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
下面结合本公开实施例提供的视频处理装置中的单元进行说明。可以理解地,装置中的单元可以采用软件(例如上述的计算机软件程序中存储的计算机程序)的方式在如图1所示的电子设备中实现,也可以采用上述的硬件逻辑部件(例如FPGA、ASIC、ASSP、SOC和CPLD)的方式在如图1所示的电子设备中实现。
参见图2,图2是实现本公开实施例的视频处理装置200的一个可选的结构示意图,示出了以下单元:提取单元210、运动分数确定单元220、美学分数确定单元230、颜色分数确定单元240及目标确定单元250。
需要指出,上述单元的分类并不构成对电子设备本身的限定,例如一些单元可以拆分为两个或以上的子单元,或者,一些单元可以合并为一个新的单元。
还需要指出,上述单元的名称在某种情况下并不构成对单元本身的限定,例如,上述提取单元210也可以被描述为“根据片段时长从视频中提取多个候选视频片段”的单元。
基于同样的理由,电子设备中未详尽描述的单元不代表相应的单元的缺省,凡是电子设备所执行的操作都可以通过电子设备中的相应的单元实现。
继续参见图3A,图3A是实现本公开实施例的视频处理方法的一个可选的流程示意图,例如,处理装置110将只读存储器(ROM)102中的程序或者将存储装置180中的程序加载到随机访问存储器(RAM)时,执行程序时可以实现图3A示出的视频处理方法,下面说明图3A示出的步骤。
在步骤101中,根据片段时长从视频中提取多个候选视频片段。
这里,片段时长是指待确定的视频片段的时长,可预先设定,如设定为1分钟,也可根据其他方式确定。根据片段时长从视频中提取多个视频片段,为了便于区分,将这里提取的视频片段命名为候选视频片段。在提取过程中,可以是遍历视频中的每个帧,将满足片段时长的连续帧的集合确定为候选视频片段,直至得到所有可能出现的候选视频片段为止,例如,视频共有5个帧,片段时长为2个连续帧所占的时长,则可得到4个候选视频片段。当然,也可设定提取的候选视频片段不存在重叠的帧,例如视频共有10分钟,片段时长为1分钟,根据片段时长进行片段提取,各个候选视频片段互不重叠,则可得到10个候选视频片段。本公开实施例对片段提取的方式不做限定。
在步骤102中,确定所述候选视频片段中相邻视频帧之间的位移幅值,并将所述位移幅值确定为视频帧的运动分数。
这里,确定候选视频片段中相邻视频帧之间的仿射变换矩阵,并根据仿射变换矩阵得到相邻视频帧之间的位移幅值,将该位移幅值确定为相邻视频帧中前一个视频帧或后一个视频帧的运动分数。当然,也可预先在原视频中确定各视频帧的运动分数。
在步骤103中,对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数。
这里,美学处理可依赖于机器学习模型完成,在处理完成后,得到候选视频片段中各帧的美学分数,美学分数体现了视频帧的美学质量,具体的处理过程在后文进行具体阐述。
在步骤104中,根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数。
这里,根据候选视频片段中视频帧的三个通道,即RGB通道的数据,确定视频帧的颜色分数,具体内容在后文进行具体阐述。
在步骤105中,根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段。
在确定出候选视频片段中各视频帧的运动分数、美学分数及颜色分数后,进一步确定候选视频片段的分数,并根据候选视频片段的分数,在多个候选视频片段中确定目标视频片段。例如,可以为视频帧的运动分数、美学分数及颜色分数设置不同的权重,进行加权求和,并将候选视频片段中所有视频帧的加权求和结果的平均值,确定为候选视频片段的分数,最终将分数最高的候选视频片段确定为目标视频片段,当然,确定目标视频片段的方式并不限于此。
在一些实施例中,步骤101之前,还包括:确定音频中的划分点,并根据所述划分点确定所述音频的至少两个片段时长,其中,每个片段时长对应一个视频;
步骤105之后,还包括:
将各片段时长对应的目标视频片段进行拼接得到拼接视频,并将所述音频添加至所述拼接视频的音轨,得到目标视频。
在一些如制作卡点视频的应用场景中,片段时长可根据音频确定,具体地,首先获取音频和N个待提取片段的视频,N为大于1的整数,然后对音频进行检测,确定音频中的划分点,该划分点可包括音频起始点(Onset beats)和节拍点(Downbeats)。当划分点的数量超过N-1时,对划分点进行剪枝,直到剩余划分点的数量等于N-1为止;当划分点的数量小于N-1时,插入新的划分点,直到划分点的数量等于N-1为止。
根据音频中的N-1个划分点,将音频划分为N个音频片段,每个音频片段的时长即为片段时长。根据片段时长对对应的视频执行步骤101~步骤105的处理操作后,得到目标视频片段。最终,将各片段时长对应的目标视频片段,按照各片段时长在音频中的顺序拼接在一起,得到拼接视频,并将音频添加至拼接视频的音轨,得到目标视频,该目标视频即为制作完成的卡点视频。通过上述方式,在选定音频和多个视频的基础上,实现了卡点视频的自动制作,提升了制作卡点视频的效率和效果。
通过公开实施例对于图3A的上述示例性实施可知,本公开实施例综合运动、美学和颜色三个维度,对视频帧进行评价,并根据评价得到的分数,从多个候选视频片段中确定目标视频片段,实现了视频片段的自动选择,同时也提升了确定出的目标视频片段的效果,适用于制作卡点视频等视频剪辑场景。
在一些实施例中,参见图3B,图3B是本公开实施例提供的视频处理方法的一个可选的流程示意图,图3A示出的步骤105可以通过步骤201至步骤205实现,将结合各步骤进行说明。
在步骤201中,根据所述候选视频片段中各所述视频帧的运动分数、美学分数及颜色分数,分别确定所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数。
这里,根据候选视频片段中各视频帧的运动分数确定该候选视频片段的片段运动分数,根据候选视频片段中各视频帧的美学分数确定该候选视频片段的片段美学分数,根据候选视频片段中各视频帧的颜色分数确定该候选视频片段的片段颜色分数。具体地,可以对候选视频片段中所有视频帧的分数进行平均处理,得到候选视频片段中相应的片段分数,当然实际处理方式并不限于此。
在步骤202中,根据片段运动分数对多个所述候选视频片段进行比例选取处理,得到第一片段集合。
这里,比例选取处理所用的比例可预先设定,例如设定为前10%。在确定出片段运动分数后,按照片段运动分数从大到小的顺序对多个候选视频片段进行排序,并将根据设定的比例选取的候选视频片段,归入第一片段集合。
在步骤203中,根据片段美学分数对多个所述候选视频片段进行比例选取处理,得到第二片段集合。
同样地,按照片段美学分数从大到小的顺序对多个候选视频片段进行排序,并将根据设定的比例选取的候选视频片段,归入第二片段集合。
在步骤204中,根据片段颜色分数对多个所述候选视频片段进行比例选取处理,得到第三片段集合。
这里,按照片段颜色分数从大到小的顺序对多个候选视频片段进行排序,并将根据设定的比例选取的候选视频片段,归入第三片段集合。值得说明的是,三个维度的片段分数对应的用于选取的比例可设定为一致,例如都为前10%,也可根据实际应用场景,对不同维度的片段分数单独设定用于选取的比例,维度指的是运动、美学和颜色。
在步骤205中,将所述第一片段集合、所述第二片段集合及所述第三片段集合的交集,确定为目标片段集合,并在所述目标片段集合中确定目标视频片段。
这里,将第一片段集合、第二片段集合及第三片段集合的交集,确定为目标片段集合,即,过滤掉目标片段集合之外的候选视频片段。当目标片段集合仅包括一个候选视频片段时,直接将该候选视频片段确定为目标视频片段。
在一些实施例中,可以通过这样的方式来实现上述的在所述目标片段集合中确定目标视频片段:当所述目标片段集合包括至少两个候选视频片段时,对所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数进行融合处理,得到融合分数;将所述目标片段集合中融合分数最高的候选视频片段,确定为目标视频片段。
当目标片段集合包括至少两个候选视频片段时,对其中各候选视频片段的片段运动分数、片段美学分数及片段颜色分数进行融合处理,得到融合分数。融合处理可以是将片段运动分数、片段美学分数及片段颜色分数进行相加,也可以是为片段运动分数、片段美学分数及片段颜色分数设置不同的权重,并进行加权求和。确定出目标片段集合中各候选视频片段的融合分数后,将融合分数最高的候选视频片段,确定为目标视频片段。通过上述方式,对目标片段集合中的候选视频片段进行进一步筛选,使得确定出的目标视频片段的效果更好。
在一些实施例中,步骤204之后,还包括:当所述第一片段集合、所述第二片段集合及所述第三片段集合的交集为空时,将所述第一片段集合确定为目标片段集合。
这里,第一片段集合、第二片段集合及第三片段集合的交集也可能为空,在该情况下,优先选取画面变化较强烈的片段集合,即,将第一片段集合确定为目标片段集合。通过上述方式能够保证最终得到的目标视频片段的观感较好。
通过公开实施例对于图3B的上述示例性实施可知,本公开实施例针对运动、美学和颜色三个维度,单独进行比例选取处理,并通过求交集的方式得到目标片段集合,保证最终得到的目标视频片段在三个维度的表现均较好,即提升了目标视频片段的综合效果。
在一些实施例中,参见图3C,图3C是本公开实施例提供的确定候选视频片段的片段运动分数、片段美学分数及片段颜色分数的一个可选的流程示意图,图3B示出的步骤201可以通过步骤301至步骤304实现,将结合各步骤进行说明。
在步骤301中,对所述候选视频片段内所有视频帧的分数进行平均处理,得到平均分数。
在候选视频片段内,对所有视频帧在某一维度的分数进行平均处理,得到该维度的平均分数。
在步骤302中,对所述候选视频片段的平均分数进行归一化处理,得到归一化分数。
这里,对候选视频片段的平均分数进行归一化处理,得到归一化分数,便于衡量不同维度的分数。
在步骤303中,对多个所述归一化分数进行排序,并将位于设定位次的归一化分数确定为优化分数。
对各候选视频片段的归一化分数按照从小到大的顺序进行排序,并将位于设定位次的归一化分数确定为优化分数,设定位次如排在65%的位次。
在步骤304中,根据所述归一化分数和所述优化分数,确定所述候选视频片段的分数;其中,所述视频帧的分数为运动分数、美学分数或颜色分数,所述候选视频片段的分数为对应的片段运动分数、片段美学分数或片段颜色分数。
根据某维度的优化分数和候选视频片段的归一化分数,确定该候选视频片段在该维度的片段分数,这里的维度指的是运动、美学和颜色。
为了便于理解,以候选视频片段在各维度的片段分数的计算过程进行举例说明:
1)候选视频片段的片段运动分数:确定候选视频片段中相邻帧的位移幅值,并进一步确定该候选视频片段内所有相邻帧的平均位移幅值val_avg,然后对该候选视频片段的平均位移幅值进行归一化处理,得到归一化分数val_norm,计算公式为:
Figure BDA0002380233900000171
这里,val_avg指的是该候选视频片段的平均位移幅值,min(val_avg)指的是所有候选视频片段中数值最小的平均位移幅值,max(val_avg)指的是所有候选视频片段中数值最大的平均位移幅值。对所有候选视频片段的val_norm按照从小到大的顺序进行排序,选取排在第65%位次的val_norm作为优化分数opt_norm。例如,包括100个候选视频片段,则将100个val_norm按照从小到大的顺序进行排序后,选取位于第65位的val_norm作为优化分数opt_norm。最终,计算候选视频片段的片段运动分数
Figure BDA0002380233900000172
abs()为绝对值函数。
2)候选视频片段的片段美学分数:与计算片段运动分数同理,在得到候选视频片段内所有视频帧的美学分数后,确定所有视频帧在美学上的平均分数val_avg,对平均分数进行归一化处理后得到归一化分数val_norm。然后,对所有候选视频片段的归一化分数进行排序,并选择位于第65%位次的val_norm作为优化分数opt_norm,最终得到候选视频片段的片段美学分数aesthetic_score:
Figure BDA0002380233900000173
3)候选视频片段的片段颜色分数:同理地,在得到候选视频片段内所有视频帧的颜色分数后,确定所有视频帧在颜色上的平均分数val_avg,对平均分数进行归一化处理后得到归一化分数val_norm。然后,对所有候选视频片段的归一化分数进行排序,并选择位于第65%位次的val_norm作为优化分数opt_norm,最终得到候选视频片段的片段颜色分数attribute_score:
Figure BDA0002380233900000181
通过公开实施例对于图3C的上述示例性实施可知,本公开实施例通过归一化处理及确定优化分数的方式,使得确定出的候选视频片段在各个维度的片段分数位于一定的范围内,便于进行比较及后续处理。
在一些实施例中,参见图3D,图3D是本公开实施例提供的视频处理方法的一个可选的流程示意图,图3A示出的步骤104可以通过步骤401至步骤405实现,将结合各步骤进行说明。
在步骤401中,对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵。
这里,颜色通道数据是指视频帧在三个通道的颜色矩阵。在确定颜色分数的过程中,首先对视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵,第一颜色矩阵和第二颜色矩阵体现了不同通道的颜色矩阵之间的差异。
在一些实施例中,可以通过这样的方式来实现上述的对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵:将所述候选视频片段中视频帧的红色通道的颜色矩阵,与绿色通道的颜色矩阵进行相差处理,并对相差处理得到的矩阵进行绝对值处理,得到第一颜色矩阵;将所述红色通道的颜色矩阵与所述绿色通道的颜色矩阵进行相加处理,将相加处理得到的矩阵与蓝色通道的颜色矩阵进行相差处理,并对相差处理得到的矩阵进行绝对值处理,得到第二颜色矩阵。
举例来说,视频帧的宽和高分别为w和h,在确定颜色分数时,首先提取视频帧在三个通道的颜色矩阵,分别标记为R(对应红色通道)、G(对应绿色通道)和B(对应蓝色通道),并计算:
rg=abs(R-G)
yb=abs(0.5*(R+G)-B)
其中,abs()为绝对值函数,rg为第一颜色矩阵,yb为第二颜色矩阵,rg和yb的宽高均与原视频帧一致。
在步骤402中,确定所述第一颜色矩阵的均值及方差,并确定所述第二颜色矩阵的均值及方差。
以上文的rg举例,确定第一颜色矩阵的均值的公式如下:
Figure BDA0002380233900000191
其中,rgi,j是指第一颜色矩阵在宽方向第i个像素,且在高方向第j个像素的值。
确定第一颜色矩阵的方差的公式如下:
Figure BDA0002380233900000192
第二颜色矩阵的均值和方差的计算方式同理,只需将上述两个公式中的rg替换为yb。
在步骤403中,根据所述第一颜色矩阵的均值和所述第二颜色矩阵的均值,确定全局均值。
举例来说,第一颜色矩阵的均值为rg_mean,第二颜色矩阵的均值为yb_mean,则可根据如下公式计算全局均值root_mean:
Figure BDA0002380233900000193
在步骤404中,根据所述第一颜色矩阵的方差和所述第二颜色矩阵的方差,确定全局方差。
举例来说,第一颜色矩阵的方差为rg_std,第二颜色矩阵的方差为yb_std,则可根据如下公式计算全局方差root_std:
Figure BDA0002380233900000194
在步骤405中,对所述全局均值及所述全局方差进行融合处理,得到所述视频帧的颜色分数。
这里,融合处理可以是对全局均值及全局方差进行加权求和,具体公式如下:
attribute=root_std+0.3*root_mean
该公式中的attribute即为视频帧的颜色分数,除了该公式中设置的权重外,还可根据实际应用场景,对全局均值和全局方差设置不同的权重,本公开实施例对此不做限定。
通过公开实施例对于图3D的上述示例性实施可知,本公开实施例通过计算全局均值和全局方差,从而确定颜色分数,提升了颜色分数对视频帧的衡量效果。
在一些实施例中,参见图3E,图3E是本公开实施例提供的视频处理方法的一个可选的流程示意图,图3A示出的步骤103可以通过步骤501至步骤505实现,将结合各步骤进行说明。
在步骤501中,获取标注视频帧及对应的标注美学分数。
美学处理可依赖于机器学习模型进行,在对视频帧进行美学处理前,先对机器学习模型进行训练,具体地,获取标注视频帧及对应标注美学分数,该标注美学分数由人为标注,用于体现标注视频帧的美学质量。
在步骤502中,通过机器学习模型对所述标注视频帧进行预测处理,得到预测美学分数。
通过机器学习模型提取标注视频帧中的图像特征,并对图像特征进行预测处理,得到预测美学分数。本公开实施例对机器学习模型的种类不做限定,例如机器学习模型可为卷积神经网络(CNN,Convolutional Neural Networks)模型。
在步骤503中,确定所述标注美学分数与所述预测美学分数之间的差异。
这里,确定标注美学分数与预测美学分数之间的数值差异。
在步骤504中,根据所述差异在所述机器学习模型中进行反向传播,并在反向传播的过程中更新所述机器学习模型的权重参数。
例如,在机器学习模型为CNN模型时,根据差异在CNN模型中进行反向传播,并在反向传播至CNN模型各个层的过程中,沿梯度下降方向更新对应层的权重参数,以使根据CNN模型预测出的预测美学分数与标注美学分数更为接近。
在步骤505中,通过更新后的机器学习模型,对所述候选视频片段中的视频帧进行预测处理,得到所述视频帧的美学分数。
完成对机器学习模型的训练后,通过更新后的机器学习模型,对候选视频片段中的各视频帧进行预测处理,得到对应视频帧的美学分数。
通过公开实施例对于图3E的上述示例性实施可知,本公开实施例通过训练好的机器学习模型对视频帧进行预测处理得到美学分数,提升了得到的美学分数的准确性。
根据本公开的一个或多个实施例,提供了一种视频处理方法,包括:根据片段时长从视频中提取多个候选视频片段;确定所述候选视频片段中相邻视频帧之间的位移幅值,并将所述位移幅值确定为视频帧的运动分数;对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数;根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数;根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段。
在一些实施例中,所述根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段,包括:根据所述候选视频片段中各所述视频帧的运动分数、美学分数及颜色分数,分别确定所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数;根据片段运动分数对多个所述候选视频片段进行比例选取处理,得到第一片段集合;根据片段美学分数对多个所述候选视频片段进行比例选取处理,得到第二片段集合;根据片段颜色分数对多个所述候选视频片段进行比例选取处理,得到第三片段集合;将所述第一片段集合、所述第二片段集合及所述第三片段集合的交集,确定为目标片段集合,并在所述目标片段集合中确定目标视频片段。
在一些实施例中,所述根据所述候选视频片段中各所述视频帧的运动分数、美学分数及颜色分数,分别确定所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数,包括:对所述候选视频片段内所有视频帧的分数进行平均处理,得到平均分数;对所述候选视频片段的平均分数进行归一化处理,得到归一化分数;对多个所述归一化分数进行排序,并将位于设定位次的归一化分数确定为优化分数;根据所述归一化分数和所述优化分数,确定所述候选视频片段的分数;其中,所述视频帧的分数为运动分数、美学分数或颜色分数,所述候选视频片段的分数为对应的片段运动分数、片段美学分数或片段颜色分数。
在一些实施例中,所述在所述目标片段集合中确定目标视频片段,包括:当所述目标片段集合包括至少两个候选视频片段时,对所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数进行融合处理,得到融合分数;将所述目标片段集合中融合分数最高的候选视频片段,确定为目标视频片段。
在一些实施例中,还包括:当所述第一片段集合、所述第二片段集合及所述第三片段集合的交集为空时,将所述第一片段集合确定为目标片段集合。
在一些实施例中,所述根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数,包括:对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵;确定所述第一颜色矩阵的均值及方差,并确定所述第二颜色矩阵的均值及方差;根据所述第一颜色矩阵的均值和所述第二颜色矩阵的均值,确定全局均值;根据所述第一颜色矩阵的方差和所述第二颜色矩阵的方差,确定全局方差;对所述全局均值及所述全局方差进行融合处理,得到所述视频帧的颜色分数。
在一些实施例中,所述对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵,包括:将所述候选视频片段中视频帧的红色通道的颜色矩阵,与绿色通道的颜色矩阵进行相差处理,并对相差处理得到的矩阵进行绝对值处理,得到第一颜色矩阵;将所述红色通道的颜色矩阵与所述绿色通道的颜色矩阵进行相加处理,将相加处理得到的矩阵与蓝色通道的颜色矩阵进行相差处理,并对相差处理得到的矩阵进行绝对值处理,得到第二颜色矩阵。
在一些实施例中,所述对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数,包括:获取标注视频帧及对应的标注美学分数;通过机器学习模型对所述标注视频帧进行预测处理,得到预测美学分数;确定所述标注美学分数与所述预测美学分数之间的差异;根据所述差异在所述机器学习模型中进行反向传播,并在反向传播的过程中更新所述机器学习模型的权重参数;通过更新后的机器学习模型,对所述候选视频片段中的视频帧进行预测处理,得到所述视频帧的美学分数。
根据本公开的一个或多个实施例,提供了一种视频处理装置,包括:提取单元,用于根据片段时长从视频中提取多个候选视频片段;运动分数确定单元,用于确定所述候选视频片段中相邻视频帧之间的位移幅值,并将所述位移幅值确定为视频帧的运动分数;美学分数确定单元,用于对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数;颜色分数确定单元,用于根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数;目标确定单元,用于根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段。
在一些实施例中,所述目标确定单元,还用于:根据所述候选视频片段中各所述视频帧的运动分数、美学分数及颜色分数,分别确定所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数;根据片段运动分数对多个所述候选视频片段进行比例选取处理,得到第一片段集合;根据片段美学分数对多个所述候选视频片段进行比例选取处理,得到第二片段集合;根据片段颜色分数对多个所述候选视频片段进行比例选取处理,得到第三片段集合;将所述第一片段集合、所述第二片段集合及所述第三片段集合的交集,确定为目标片段集合,并在所述目标片段集合中确定目标视频片段。
在一些实施例中,所述目标确定单元,还用于:对所述候选视频片段内所有视频帧的分数进行平均处理,得到平均分数;对所述候选视频片段的平均分数进行归一化处理,得到归一化分数;对多个所述归一化分数进行排序,并将位于设定位次的归一化分数确定为优化分数;根据所述归一化分数和所述优化分数,确定所述候选视频片段的分数;其中,所述视频帧的分数为运动分数、美学分数或颜色分数,所述候选视频片段的分数为对应的片段运动分数、片段美学分数或片段颜色分数。
在一些实施例中,所述目标确定单元,还用于:当所述目标片段集合包括至少两个候选视频片段时,对所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数进行融合处理,得到融合分数;将所述目标片段集合中融合分数最高的候选视频片段,确定为目标视频片段。
在一些实施例中,所述目标确定单元,还用于:当所述第一片段集合、所述第二片段集合及所述第三片段集合的交集为空时,将所述第一片段集合确定为目标片段集合。
在一些实施例中,所述颜色分数确定单元,还用于:对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵;确定所述第一颜色矩阵的均值及方差,并确定所述第二颜色矩阵的均值及方差;根据所述第一颜色矩阵的均值和所述第二颜色矩阵的均值,确定全局均值;根据所述第一颜色矩阵的方差和所述第二颜色矩阵的方差,确定全局方差;对所述全局均值及所述全局方差进行融合处理,得到所述视频帧的颜色分数。
在一些实施例中,所述颜色分数确定单元,还用于:将所述候选视频片段中视频帧的红色通道的颜色矩阵,与绿色通道的颜色矩阵进行相差处理,并对相差处理得到的矩阵进行绝对值处理,得到第一颜色矩阵;将所述红色通道的颜色矩阵与所述绿色通道的颜色矩阵进行相加处理,将相加处理得到的矩阵与蓝色通道的颜色矩阵进行相差处理,并对相差处理得到的矩阵进行绝对值处理,得到第二颜色矩阵。
在一些实施例中,所述美学分数确定单元,还用于:获取标注视频帧及对应的标注美学分数;通过机器学习模型对所述标注视频帧进行预测处理,得到预测美学分数;确定所述标注美学分数与所述预测美学分数之间的差异;根据所述差异在所述机器学习模型中进行反向传播,并在反向传播的过程中更新所述机器学习模型的权重参数;通过更新后的机器学习模型,对所述候选视频片段中的视频帧进行预测处理,得到所述视频帧的美学分数。
根据本公开的一个或多个实施例,提供了一种电子设备,包括:存储器,用于存储可执行指令;处理器,用于执行所述可执行指令时,实现本公开实施例提供的视频处理方法。
根据本公开的一个或多个实施例,提供了一种存储介质,存储有可执行指令,所述可执行指令被执行时,用于实现本公开实施例提供的视频处理方法。
以上描述仅为本公开的实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本公开中所涉及的公开范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述公开构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本公开中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
此外,虽然采用特定次序描绘了各操作,但是这不应当理解为要求这些操作以所示出的特定次序或以顺序次序执行来执行。在一定环境下,多任务和并行处理可能是有利的。同样地,虽然在上面论述中包含了若干具体实现细节,但是这些不应当被解释为对本公开的范围的限制。在单独的实施例的上下文中描述的某些特征还可以组合地实现在单个实施例中。相反地,在单个实施例的上下文中描述的各种特征也可以单独地或以任何合适的子组合的方式实现在多个实施例中。
尽管已经采用特定于结构特征和/或方法逻辑动作的语言描述了本主题,但是应当理解所附权利要求书中所限定的主题未必局限于上面描述的特定特征或动作。相反,上面所描述的特定特征和动作仅仅是实现权利要求书的示例形式。

Claims (11)

1.一种视频处理方法,其特征在于,包括:
根据片段时长从视频中提取多个候选视频片段;
确定所述候选视频片段中相邻视频帧之间的位移幅值,并将所述位移幅值确定为视频帧的运动分数;
对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数;
根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数;
根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段。
2.根据权利要求1所述的视频处理方法,其特征在于,所述根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段,包括:
根据所述候选视频片段中各所述视频帧的运动分数、美学分数及颜色分数,分别确定所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数;
根据片段运动分数对多个所述候选视频片段进行比例选取处理,得到第一片段集合;
根据片段美学分数对多个所述候选视频片段进行比例选取处理,得到第二片段集合;
根据片段颜色分数对多个所述候选视频片段进行比例选取处理,得到第三片段集合;
将所述第一片段集合、所述第二片段集合及所述第三片段集合的交集,确定为目标片段集合,并在所述目标片段集合中确定目标视频片段。
3.根据权利要求2所述的视频处理方法,其特征在于,所述根据所述候选视频片段中各所述视频帧的运动分数、美学分数及颜色分数,分别确定所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数,包括:
对所述候选视频片段内所有视频帧的分数进行平均处理,得到平均分数;
对所述候选视频片段的平均分数进行归一化处理,得到归一化分数;
对多个所述归一化分数进行排序,并将位于设定位次的归一化分数确定为优化分数;
根据所述归一化分数和所述优化分数,确定所述候选视频片段的分数;
其中,所述视频帧的分数为运动分数、美学分数或颜色分数,所述候选视频片段的分数为对应的片段运动分数、片段美学分数或片段颜色分数。
4.根据权利要求2所述的视频处理方法,其特征在于,所述在所述目标片段集合中确定目标视频片段,包括:
当所述目标片段集合包括至少两个候选视频片段时,对所述候选视频片段的片段运动分数、片段美学分数及片段颜色分数进行融合处理,得到融合分数;
将所述目标片段集合中融合分数最高的候选视频片段,确定为目标视频片段。
5.根据权利要求2所述的视频处理方法,其特征在于,还包括:
当所述第一片段集合、所述第二片段集合及所述第三片段集合的交集为空时,将所述第一片段集合确定为目标片段集合。
6.根据权利要求1至5任一项所述的视频处理方法,其特征在于,所述根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数,包括:
对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵;
确定所述第一颜色矩阵的均值及方差,并确定所述第二颜色矩阵的均值及方差;
根据所述第一颜色矩阵的均值和所述第二颜色矩阵的均值,确定全局均值;
根据所述第一颜色矩阵的方差和所述第二颜色矩阵的方差,确定全局方差;
对所述全局均值及所述全局方差进行融合处理,得到所述视频帧的颜色分数。
7.根据权利要求6所述的视频处理方法,其特征在于,所述对所述候选视频片段中视频帧的三个通道的颜色矩阵进行均衡处理,得到第一颜色矩阵和第二颜色矩阵,包括:
将所述候选视频片段中视频帧的红色通道的颜色矩阵,与绿色通道的颜色矩阵进行相差处理,并
对相差处理得到的矩阵进行绝对值处理,得到第一颜色矩阵;
将所述红色通道的颜色矩阵与所述绿色通道的颜色矩阵进行相加处理,将相加处理得到的矩阵与蓝色通道的颜色矩阵进行相差处理,并
对相差处理得到的矩阵进行绝对值处理,得到第二颜色矩阵。
8.根据权利要求1至5任一项所述的视频处理方法,其特征在于,所述对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数,包括:
获取标注视频帧及对应的标注美学分数;
通过机器学习模型对所述标注视频帧进行预测处理,得到预测美学分数;
确定所述标注美学分数与所述预测美学分数之间的差异;
根据所述差异在所述机器学习模型中进行反向传播,并在反向传播的过程中更新所述机器学习模型的权重参数;
通过更新后的机器学习模型,对所述候选视频片段中的视频帧进行预测处理,得到所述视频帧的美学分数。
9.一种视频处理装置,其特征在于,包括:
提取单元,用于根据片段时长从视频中提取多个候选视频片段;
运动分数确定单元,用于确定所述候选视频片段中相邻视频帧之间的位移幅值,并将所述位移幅值确定为视频帧的运动分数;
美学分数确定单元,用于对所述候选视频片段中的视频帧进行美学处理,得到所述视频帧的美学分数;
颜色分数确定单元,用于根据所述候选视频片段中视频帧的颜色通道数据,确定所述视频帧的颜色分数;
目标确定单元,用于根据所述视频帧的运动分数、美学分数及颜色分数,在多个所述候选视频片段中确定目标视频片段。
10.一种电子设备,其特征在于,包括:
存储器,用于存储可执行指令;
处理器,用于执行所述可执行指令时,实现如权利要求1至8任一项所述的视频处理方法。
11.一种存储介质,其特征在于,存储有可执行指令,所述可执行指令被执行时,用于实现如权利要求1至8任一项所述的视频处理方法。
CN202010080763.7A 2020-02-05 2020-02-05 视频处理方法、装置、电子设备及存储介质 Active CN113225586B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010080763.7A CN113225586B (zh) 2020-02-05 2020-02-05 视频处理方法、装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010080763.7A CN113225586B (zh) 2020-02-05 2020-02-05 视频处理方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN113225586A true CN113225586A (zh) 2021-08-06
CN113225586B CN113225586B (zh) 2023-03-10

Family

ID=77085503

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010080763.7A Active CN113225586B (zh) 2020-02-05 2020-02-05 视频处理方法、装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN113225586B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113689633A (zh) * 2021-08-26 2021-11-23 浙江力石科技股份有限公司 一种景区人机交互方法、装置及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697523B1 (en) * 2000-08-09 2004-02-24 Mitsubishi Electric Research Laboratories, Inc. Method for summarizing a video using motion and color descriptors
CN103208125A (zh) * 2013-03-14 2013-07-17 上海大学 视频帧图像中颜色和运动全局对比度的视觉显著性算法
US20180301169A1 (en) * 2015-02-24 2018-10-18 Plaay, Llc System and method for generating a highlight reel of a sporting event
CN108804578A (zh) * 2018-05-24 2018-11-13 南京理工大学 基于一致性片段生成的无监督视频摘要方法
US20190228231A1 (en) * 2018-01-25 2019-07-25 Adobe Inc. Video segmentation using predictive models trained to provide aesthetic scores
US20190377955A1 (en) * 2018-06-08 2019-12-12 Adobe Inc. Generating digital video summaries utilizing aesthetics, relevancy, and generative neural networks
US20190394350A1 (en) * 2018-06-25 2019-12-26 Adobe Inc. Video-based document scanning

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697523B1 (en) * 2000-08-09 2004-02-24 Mitsubishi Electric Research Laboratories, Inc. Method for summarizing a video using motion and color descriptors
CN103208125A (zh) * 2013-03-14 2013-07-17 上海大学 视频帧图像中颜色和运动全局对比度的视觉显著性算法
US20180301169A1 (en) * 2015-02-24 2018-10-18 Plaay, Llc System and method for generating a highlight reel of a sporting event
US20190228231A1 (en) * 2018-01-25 2019-07-25 Adobe Inc. Video segmentation using predictive models trained to provide aesthetic scores
CN108804578A (zh) * 2018-05-24 2018-11-13 南京理工大学 基于一致性片段生成的无监督视频摘要方法
US20190377955A1 (en) * 2018-06-08 2019-12-12 Adobe Inc. Generating digital video summaries utilizing aesthetics, relevancy, and generative neural networks
US20190394350A1 (en) * 2018-06-25 2019-12-26 Adobe Inc. Video-based document scanning

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113689633A (zh) * 2021-08-26 2021-11-23 浙江力石科技股份有限公司 一种景区人机交互方法、装置及系统

Also Published As

Publication number Publication date
CN113225586B (zh) 2023-03-10

Similar Documents

Publication Publication Date Title
CN109688463B (zh) 一种剪辑视频生成方法、装置、终端设备及存储介质
CN109618222B (zh) 一种拼接视频生成方法、装置、终端设备及存储介质
CN112184738B (zh) 一种图像分割方法、装置、设备及存储介质
CN112101305B (zh) 多路图像处理方法、装置及电子设备
CN110288549B (zh) 视频修复方法、装置及电子设备
CN112954450A (zh) 视频处理方法、装置、电子设备和存储介质
CN112381717A (zh) 图像处理方法、模型训练方法、装置、介质及设备
CN110347875B (zh) 一种视频场景分类方法、装置、移动终端及存储介质
CN109816023B (zh) 用于生成图片标签模型的方法和装置
US20240112299A1 (en) Video cropping method and apparatus, storage medium and electronic device
CN113225586B (zh) 视频处理方法、装置、电子设备及存储介质
CN112907628A (zh) 视频目标追踪方法、装置、存储介质及电子设备
CN110636331B (zh) 用于处理视频的方法和装置
CN112949430A (zh) 视频处理方法和装置、存储介质和电子设备
CN112434753A (zh) 模型训练方法、目标检测方法、装置、设备及存储介质
CN112258622A (zh) 图像处理方法、装置、可读介质及电子设备
CN114187557A (zh) 确定关键帧的方法、装置、可读介质及电子设备
CN113225488B (zh) 一种视频处理方法、装置、电子设备及存储介质
CN113177176A (zh) 特征构建方法、内容显示方法及相关装置
CN113762016A (zh) 关键帧选取方法和装置
CN116384945B (zh) 一种项目管理方法和系统
CN104574343A (zh) 一种视频中提取图像的方法及设备
CN116152233B (zh) 图像处理方法、智能终端及存储介质
US20220383910A1 (en) Video processing method, apparatus, readable medium and electronic device
CN114663290A (zh) 一种人脸图像的处理方法、装置、电子设备和存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant