CN111787356B - 目标视频片段提取方法和装置 - Google Patents

目标视频片段提取方法和装置 Download PDF

Info

Publication number
CN111787356B
CN111787356B CN202010656648.XA CN202010656648A CN111787356B CN 111787356 B CN111787356 B CN 111787356B CN 202010656648 A CN202010656648 A CN 202010656648A CN 111787356 B CN111787356 B CN 111787356B
Authority
CN
China
Prior art keywords
video
score
target
image
video clip
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010656648.XA
Other languages
English (en)
Other versions
CN111787356A (zh
Inventor
蒋文
田泽康
危明
程搏
邓卉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ysten Technology Co ltd
Original Assignee
Ysten Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ysten Technology Co ltd filed Critical Ysten Technology Co ltd
Priority to CN202010656648.XA priority Critical patent/CN111787356B/zh
Publication of CN111787356A publication Critical patent/CN111787356A/zh
Application granted granted Critical
Publication of CN111787356B publication Critical patent/CN111787356B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/732Query formulation
    • G06F16/7328Query by example, e.g. a complete video frame or video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/743Browsing; Visualisation therefor a collection of video files or sequences
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/75Clustering; Classification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7834Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using audio features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7837Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content
    • G06F16/784Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using objects detected or recognised in the video content the detected or recognised objects being people
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/23418Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44008Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving operations for analysing video streams, e.g. detecting features or characteristics in the video stream
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Library & Information Science (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Abstract

本发明为了解决目标视频片段提取与用户兴趣度关联性小的问题,提供了一种目标视频片段提取方法,包括的步骤:获取目标场景分类信息和目标人物信息;识别场景获取每个视频片段的场景分类精彩度分数;识别人物获取各个视频片段的目标人物识别精彩度分数;根据场景分类精彩度分数和目标人物识别精彩度分数生成用户选项精彩度分数;根据图像差异性,获取视频片段的图像精彩度分数;根据音频帧的短时能量值,获取各个视频片段的音频精彩度分数;根据图像精彩度分数和音频精彩度分数获取内容精彩度分数;根据视频片段之间的距离获取视频片段之间的多样性分数;根据优化目标函数f(X)=∑i∈XUScore(i)*w1+∑i∈XCScore(i)*w2+∑i,j∈ XDScore(i,j)*w3,选取预设值Nsel个视频片段组成目标视频片段集合X,使得f(X)取值最大。

Description

目标视频片段提取方法和装置
技术领域
本发明属于视频处理技术领域,具体而言,涉及一种目标视频片段提取方法、提取装置、计算机可读介质及电子设备。
背景技术
随着互联网技术的迅猛发展,以及手机等移动设备的普及,视频的制作和传播成本越来越低,每天都有大量视频产生。当人们面对海量视频时,如何寻找自己感兴趣的内容成为一个难题,传统的依赖人工浏览并筛选视频的方法成本高、效率低,随着视频爆发性的增长,甚至变得不可行。针对这一问题,人们发展了视频精彩片段提取技术,它能够自动识别并提取视频中的精彩片段,大大降低人们观看视频的负担。
精彩片段提取技术根据视频内容识别视频中的精彩片段,当前大多数方法是提取视频的特征向量(基于图像或/和音频内容);然后使用预先训练的回归模型得到视频中不同片段的精彩度分数,根据精彩度分数识别出精彩片段;或者直接使用预先训练的分类模型处理特征向量得到精彩度分类结果(精彩或者非精彩片段)。训练使用的数据需要人工标定,标定间接体现了用户兴趣点,但是这种方法与用户的兴趣关联性较弱,更多的依赖于图像或/和音频特征提取精彩片段。
发明内容
本发明为了解决上述精彩视频片段抓取与用户的兴趣关联较弱的问题,本发明实施例,第一方面,提供了一种目标视频片段提取方法,包括如下步骤:
S110、获取用户关注的目标场景分类信息和目标人物信息;
S120、分割待提取视频形成视频片段集合,从每个视频片段中抽取关键帧,得到视频片段关键帧序列;识别视频片段关键帧序列中各个关键帧的场景类别信息,将各个关键帧的场景类别信息与目标场景分类信息进行比较获取每个视频片段的场景分类精彩度分数;
S130、根据所述目标人物信息获取目标人物人脸特征,提取各个关键帧的人脸图像,根据各个关键帧的人脸图像和所述目标人物人脸特征之间的相似度,生成各个视频片段的目标人物识别精彩度分数;
S140、根据场景分类精彩度分数和目标人物识别精彩度分数生成用户选项精彩度分数;
S150、分离各个视频片段中的图像和音频数据,根据各个视频片段中相邻帧之间的图像差异性,获取各个视频片段的图像精彩度分数;
S160、按照视频帧率划分音频数据形成音频帧,根据所述音频帧的短时能量值,获取各个视频片段的音频精彩度分数;
S170、根据各个视频片段的图像精彩度分数和音频精彩度分数获取内容精彩度分数;
S180、根据各个视频片段之间的距离获取各个视频片段之间的多样性分数;
S190、根据目标函数
f(X)=∑i∈XUScore(i)*w1+∑i∈XCScore(i)*w2+∑i,j∈XDScore(i,j)*w3,在视频片段的序号集合V={1,2,...,i,...,N}中选取预设值Nsel个视频片段组成目标视频片段集合X,使得f(X)取值最大,其中,UScore(i)代表用户选项精彩度分数、CScore(i)代表内容精彩度分数、DScore(i,j)代表多样性分数。
进一步地,所述步骤S120中包括:
S121、采用固定时长均匀分割待提取视频,获取视频片段集合
Figure BDA0002577002170000021
Ttotal代表视频总时长,Tc代表时长阈值;
S122、从视频片段中均匀抽取关键帧,得到视频片段关键帧序列
Figure BDA0002577002170000022
其中Ns表示视频片段中关键帧个数;
S123、将视频片段关键帧序列输入第一预先训练的模型,获得视频片段所属的场景类别,与所述目标场景分类信息进行比较,如果相符,视频片段对应的场景分类精彩度分数A(i)为1,否则为0。
进一步地,所述步骤S130包括:
S131、将视频片段关键帧序列输入第二预先训练的模型,获取视频片段每个关键帧检测到的人脸位置;
S132、根据所述人脸位置,提取人脸图像,将所述人脸图像输入第三预先训练的模型,获取人脸图像特征向量,生成人脸图像特征向量集合
Figure BDA0002577002170000023
其中Nj表示第i个片段的第j个关键帧检测到的人脸个数;
S133、根据目标人物信息从待选目标人物特征集合数据库中获取目标人物的人脸图像特征集合
Figure BDA0002577002170000024
其中,Nu表示用户选择的明星个数,Np表示用户选择的第p个明星在数据库中保存的人脸图像个数;其中,所述待选目标人物特征集合数据库中特征由待选目标人物的人脸图像输入到第三预先训练的模型中得到;
S134、计算DFQ和CFQ两个序列的向量之间的距离,小于预设阈值的两个向量被认为相似,则置相应标志为1,否则置为0,得到目标人物人脸检测的结果为
Figure BDA0002577002170000037
S135、通过每个视频片段目标人物人脸检测结果的均值
Figure BDA0002577002170000038
得到目标人物识别精彩度分数R(i)=rci
进一步地,所述步骤S150包括:
S151、通过如下公式,
Figure BDA0002577002170000031
计算视频片段中相邻图像帧之间的图像差异性dm,生成差异性集合
Figure BDA0002577002170000032
其中,Nf表示每个视频片段中包含的图像帧个数,
Figure BDA0002577002170000033
X和Y代表相邻两帧图像帧;
S152、计算每个视频片段差异性的均值
Figure BDA0002577002170000034
得到图像精彩度分数D(i)=dci
进一步地,所述步骤S160包括:
S161、按照视频帧率划分音频数据形成音频帧;
S162、对于一个音频帧X,计算2-范数
Figure BDA0002577002170000035
xt表示向量X的元素,计算音频帧的短时能量值
Figure BDA0002577002170000039
生成能量值集合
Figure BDA0002577002170000036
S163、根据能量值集合中的最大值
Figure BDA00025770021700000310
对能量值集合进行归一化,得到
Figure BDA00025770021700000311
S164、计算每个视频片段能量值的均值
Figure BDA00025770021700000312
得到音频精彩度分数E(i)=eci
进一步地,所述步骤S180包括:
从视频片段集合SQ={s1,s2,...,si,...sN},i≤N中选取任意两个片段si和sj,计算距离
Figure BDA00025770021700000313
其中Nsh表示期望的两个片段距离的最小值;获取多样性分数DScore(i,j)=dist(i,j)。
进一步地,所述步骤S190包括:S191、初始化候选视频片段的序号集合Z*={1,2,...,i,...,N},以及当前精彩片段的序号集合X*={}为空集合;
S192、遍历候选集合Z*,对于遍历到的序号i,计算目标函数值
Figure BDA00025770021700000314
选取目标函数最大的序号i*
S193、更新候选视频片段的序号集合Z*=Z*-i*,以及当前精彩片段的序号集合X*=X*∪i*
S194、重复步骤S192和步骤S193,直到X*中的元素数目为Nsel
S195、输出选择的精彩片段X*为目标视频片段集合X。
本发明实施例第二方面,提供了一种目标视频片段提取装置,包括:
接收模块,用于获取用户关注的目标场景分类信息和目标人物信息;
场景分类精彩度计算模块,用于分割待提取视频形成视频片段集合,从每个视频片段中抽取关键帧,得到视频片段关键帧序列;识别视频片段关键帧序列中各个关键帧的场景类别信息,将各个关键帧的场景类别信息与目标场景分类信息进行比较获取每个视频片段的场景分类精彩度分数;
目标人物识别精彩度计算模块,用于根据所述目标人物信息获取目标人物人脸特征,提取各个关键帧的人脸图像,根据各个关键帧的人脸图像和所述目标人物人脸特征之间的相似度,生成各个视频片段的目标人物识别精彩度分数;
用户选项精彩度计算模块,用于根据场景分类精彩度分数和目标人物识别精彩度分数生成用户选项精彩度分数;
图像精彩度计算模块,用于分离各个视频片段中的图像和音频数据,根据各个视频片段中相邻帧之间的图像差异性,获取各个视频片段的图像精彩度分数;
音频精彩度计算模块,用于按照视频帧率划分音频数据形成音频帧,根据所述音频帧的短时能量值,获取各个视频片段的音频精彩度分数;
内容精彩度计算模块,用于根据各个视频片段的图像精彩度分数和音频精彩度分数获取内容精彩度分数;
多样性计算模块,用于根据各个视频片段之间的距离获取各个视频片段之间的多样性分数;
最优化模块,用于根据目标函数f(X)=∑i∈XUScore(i)*w1+∑i∈XCScore(i)*w2+∑i,j∈XDScore(i,j)*w3,在视频片段的序号集合V={1,2,...,i,...,N}中选取预设值Nsel个视频片段组成目标视频片段集合X,使得f(X)取值最大,其中,UScore(i)代表用户选项精彩度分数、CScore(i)代表内容精彩度分数、DScore(i,j)代表多样性分数。
本发明第三方面,提供了一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现上述任一所述的方法。
本发明第四方面,提供了一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现上述任一所述的方法。
提取精彩片段的目的是帮助用户节省时间,更快的找到自己感兴趣的内容,本发明实施例公开了一种面向用户的视频精彩片段提取方法,该方法不仅提取特征向量,还提取用户关注的语义信息,综合利用两者识别精彩片段,从而得到更符合用户喜好的精彩片段,该方法同时考虑了精彩片段的多样性,使得提取的片段在时间轴上保持一定距离,从而更好的体现视频整体情节。
附图说明
通过参考附图会更加清楚的理解本发明的特征和优点,附图是示意性的而不应理解为对本发明进行任何限制,在附图中:
图1为本发明一些实例中的目标视频片段提取方法、提取装置运行的系统架构示意图;
图2为本发明一些实例中的目标视频片段提取方法流程图;
图3为本发明另一些实施例中的目标视频片段提取方法的流程示意图;
图4为本发明另一些实施例中的目标视频片段提取方法中获取场景分类精彩度分数的流程示意图;
图5为本发明另一些实施例中的目标视频片段提取方法中获取目标人物识别精彩度分数流程示意图;
图6为本发明另一些实施例中的目标视频片段提取方法中获取图像精彩度分数流程示意图;
图7为本发明另一些实施例中的目标视频片段提取方法中获取音频精彩度分数流程示意图;
图8为本发明另一些实施例中的目标视频片段提取方法中获取目标视频片段的流程示意图;
图9为本发明一些实施例中的基于上述附图中的目标视频片段提取方法所实现的目标视频片段提取装置的系统示意图;
图10为本发明一些实施例中目标视频片段提取方法或者提取装置运行的计算机系统结构示意图。
具体实施方式
为了能够更清楚地理解本发明的上述目的、特征和优点,下面结合附图和具体实施方式对本发明进行进一步的详细描述。需要说明的是,在不冲突的情况下,本申请的实施例及实施例中的特征可以相互组合。
在下面的描述中阐述了很多具体细节以便于充分理解本发明,但是,本发明还可以采用其他不同于在此描述的其他方式来实施,因此,本发明的保护范围并不受下面公开的具体实施例的限制。
图1示出了可以应用本申请实施例的目标视频片段提取方法或目标视频片段提取装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送数据(例如视频)等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如视频播放软件、视频处理类应用、网页浏览器应用、购物类应用、搜索类应用、即时通信工具、邮箱客户端、社交平台软件等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是具有显示屏并且支持数据传输的各种电子设备,包括但不限于智能手机、平板电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如对终端设备101、102、103上显示的视频提供支持的后台服务器。后台服务器可以对接收到的图像处理请求等数据进行分析等处理,并将处理结果(例如对视频进行分割后得到的视频片段或其他数据)反馈给与其通信连接的电子设备(例如终端设备)。
需要说明的是,本申请实施例所提供的目标视频片段提取方法可以由服务器105执行,相应地,目标视频片段提取装置可以设置于服务器105中。此外,本申请实施例所提供的目标视频片段提取方法也可以由终端设备101、102、103执行,相应地,目标视频片段提取装置也可以设置于终端设备101、102、103中。
需要说明的是,服务器可以是硬件,也可以是软件。当服务器为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务的软件或软件模块),也可以实现成单个软件或软件模块。在此不做具体限定。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。当目标视频片段提取方法运行于其上的电子设备不需要与其他电子设备进行数据传输时,该系统架构可以仅包括用于提取视频片段方法运行于其上的电子设备(例如终端设备101、102、103或服务器105)。
本发明实施例的技术方案是:首先,由用户选定自己关注的语义信息选项(例如片段所属场景类别、是否包含喜爱的明星等,不同应用可根据需要提供不同选项);其次,对视频进行片段分割以将单个视频转换为候选片段集合;接着,从片段中提取选定的语义信息,并生成用户选项精彩度分数;然后,从片段中提取视频特征,并生成内容精彩度分数;另外,计算片段间的距离,并生成多样性分数;最后,综合用户选项精彩度分数和内容精彩度分数,以及多样性分数,提取视频精彩片段。
图2示出了依照本发明实施例的一种视频精彩片段提取方法的一般流程,其具体步骤如下:
S1、提供选项由用户进行选择,获取用户关注点。在大多数情况下,用户在关心视频片段的图像或/和音频特征本身之前,更关注视频片段是否属于打斗、枪战等场景,以及是否是自己喜爱的明星的主戏等更高级的信息。由用户选择自己关注的方向,进而从视频中提取相应的信息,能更好的体现用户的偏好。
在不同的应用场景中,可以结合应用自身的特点,提供一些不同选项。本发明实施例中将以视频片段的场景分类和明星识别作为一种应用场景的可选项。具体来说,场景分类中默认提供了打斗、枪战、战争、爆炸、床戏、哭泣、追逐、其它共八类,如果用户对某些类别的场景不感兴趣,可以去除对应选项从而只保留感兴趣的类别(一定包括其它类别)。同样的,明星识别(即目标人物识别)中默认提供一个可识别明星列表(即已经收集了人脸信息的明星),可选的可以根据当前视频关联的演员表进行筛选,保留当前视频演员表与可识别明星列表的交集作为候选明星列表,用户可以选择喜爱的明星名称,去除其它明星名称。通过这种方法能够为不同用户定制不同的精彩片段识别准则,从而提高用户体验。
S2、分割视频生成候选片段集合。识别视频精彩片段之前必须将视频分割为一组片段,相邻片段在时间上连续,并且不存在重叠。本发明采用固定时长均匀分割的方法,即每隔预设的时长阈值Tc产生一个新的片段。记视频总时长(视频的时间长度)为Ttotal,则分割得到的片段数量为
Figure BDA0002577002170000071
其中
Figure BDA0002577002170000072
表示向下取整。得到的片段集合为SQ={s1,s2,...,si,...sN},i≤N。本发明实施例中,分割视频的手段,还可采用镜头分割、运动检测等任何能够对图像序列进行分组、聚类的方法。
S3、生成用户选项精彩度分数。为了匹配用户的关注点,需要从视频中提取一些更高级的信息,即视频片段的场景类别、出现的明星等。深度神经网络能很好的完成这些任务,通过分类器实现场景分类,以及检测器和分类器实现明星人脸检测、识别。场景分类识别和明星或者目标人物的识别可采用现有技术中运用到的模型来实现。
在场景分类任务中,每个视频片段经过预先训练的分类模型得到该片段所属类别,具体步骤如下:
1)从片段抽取关键帧。从片段中均匀抽取预设帧数的关键帧,得到视频片段关键帧序列
Figure BDA0002577002170000081
其中Ns表示视频片段中关键帧个数。抽取关键帧还可采用随机采样、变频率采样,采样参数不受限于当前设置。场景分类任务还可采用支撑向量机(SVM)等分类方法。明星识别任务中人脸检测还可采用Adaboost等方法,人脸特征向量还可采用颜色、梯度等特征
2)对片段预测场景类别。将视频片段关键帧序列输入预先训练的模型(模型使用大量经过标定的视频片段训练得到),模型输出该片段所属的场景类别,场景类别由用户选择决定。如果某个片段属于其它类别,则置相应标志为0,否则置为1,得到片段场景分类结果。对同一视频所有片段的分类结果进行连续性检查,纠正个别错误预测,得到AQ={a1,a2,...,ai,...aN},i≤N。
3)统计每个片段场景分类精彩度分数。场景分类精彩度分数A(i)=ai
在明星识别任务中,每个视频片段经过预先训练的模型得到该片段是否包含指定的明星,以及包含明星的图像位置,具体步骤如下:
1)建立明星人脸特征数据库。根据需要收集明星人脸图像,将人脸图像序列输入预先训练的模型,模型输出人脸图像的128维特征向量,从而建立明星人脸特征数据库。
2)从片段抽取关键帧。从片段中均匀抽取预设帧数的关键帧,得到视频片段关键帧序列
Figure BDA0002577002170000082
其中Ns表示视频片段中关键帧个数。
3)从片段检测人脸。将视频片段关键帧序列输入预先训练的模型(模型使用大量经过标定的图像训练得到),模型输出该片段每个关键帧检测到的人脸位置。
4)从片段提取人脸特征向量。根据步骤2得到的人脸位置提取人脸图像,将人脸图像输入预先训练的模型(和步骤1是同一个模型),模型输出人脸图像的128维特征向量,生成集合
Figure BDA0002577002170000093
其中Nj表示第i个片段的第j个关键帧检测到的人脸个数。
5)从数据库中提取人脸特征向量。根据用户选择的明星名称,从已有的人脸特征数据库中提取对应的特征向量得到集合
Figure BDA0002577002170000094
其中Nu表示用户选择的明星个数,Np表示用户选择的第p个明星在数据库中保存的人脸图像个数。
6)比较人脸特征向量识别明星。比较DFQ和CFQ寻找相似向量,即计算两个序列的向量之间的距离,小于预设阈值的两个向量被认为相似,即检测到明星的人脸。如果检测到某个明星,则置相应标志为1,否则置为0,得到明星人脸检测的结果为
Figure BDA0002577002170000095
7)统计每个片段明星识别精彩度分数。计算每个片段明星人脸检测结果的均值
Figure BDA0002577002170000096
得到明星识别精彩度分数R(i)=rci
综合场景分类和明星识别精彩度分数得到用户选项精彩度分数,本发明使用加权平均方法,即UScore(i)=A(i)*wA+R(i)*wR,其中wA、wR为预设的权重系数。
需要说明的是,本发明实施例中描述成明星识别,并非限定只能适用于明星,一般人物的识别也能实现。
S4、生成视频内容精彩度分数。除了用户选项以外,片段精彩度评价主要依赖于视频片段的具体内容。视频片段通常包含了视频和音频数据,因此,可以从视频片段中提取视频或/和音频特征,并计算相应的精彩度分数。具体步骤如下:
1)分离视频片段中的图像和音频数据。在大部分视频格式中,图像和音频数据分别打包为单个数据流,能够很容易分离出来。
2)对图像数据计算精彩度分数。
a)首先,将图像看作一个向量,对于两帧图像X和Y,可以计算归一化相关系数
Figure BDA0002577002170000091
定义视频片段中相邻帧之间的图像差异性
Figure BDA0002577002170000092
生成差异性的集合
Figure BDA0002577002170000097
其中Nf表示每个视频片段中包含的图像个数;
b)然后,统计每个片段图像精彩度分数。计算每个片段差异性的均值
Figure BDA0002577002170000101
得到图像精彩度分数D(i)=dci
3)对音频数据计算精彩度分数。
a)首先,将音频数据按照视频的帧率划分成帧,例如对于帧率为25fps(frame persecond)的视频,将包含的音频数据按照40ms(millisecond)的长度划分成连续的音频帧;
b)接着,将音频帧看作一个向量,对于一个音频帧X可以计算2-范数
Figure BDA0002577002170000102
Xt表示向量X的元素。定义音频帧的短时能量值
Figure BDA0002577002170000106
生成能量值集合
Figure BDA0002577002170000103
c)然后,使用能量值的最大值
Figure BDA0002577002170000107
对能量值集合进行归一化,得到
Figure BDA0002577002170000104
d)最后,统计每个片段音频精彩度分数。计算每个片段能量值的均值
Figure BDA0002577002170000105
得到音频精彩度分数E(i)=eci
综合图像和音频精彩度分数得到内容精彩度分数。本发明利用求图像和音频精彩度分数的加权平均值,计算内容精彩度分数,即视频片段的内容精彩度分数CScore(i)=D(i)*wD+E(i)*wE,其中wD、wE为预设的权重系数。
需要说明的是,本发明实施例中计算图像差异性还可采用结构相似性度量(SSIM)、余弦距离、直方图相似等。视频数据和/或音频数据还可采用神经网络方法提取特征向量,并计算相应精彩度分数。
S5、生成多样性分数。获得用户选项精彩度分数和内容精彩度分数之后,可以直接以分数排序选择精彩片段,但是这样容易使得选取的精彩片段集中于个别时间段,不能很好的体现视频整体情节。为了克服这一缺陷,考虑增加多样性分数,提高提取的视频精彩片段在时间轴上的散布。
记片段集合SQ={s1,s2,...,si,...sN},i≤N中任意两个片段si和sj距离为dist(i,j),本发明通过公式
Figure BDA0002577002170000108
计算距离,其中Nsh表示期望的两个片段距离的最小值,Nsh可人为设定。两个片段在时间轴上离开的越远,其距离值越大,并且距离的值域为[0,1],因此定义多样性分数DScore(i,j)=dist(i,j)。
S6、提取视频精彩片段(目标片段)。在视频片段的序号集合V={1,2,...,i,...,N}上定义了用户选项分数UScore(i)、内容分数CScore(i)、多样性分数DScore(i,j),对集合
Figure BDA0002577002170000109
定义目标函数f(X)=∑i∈XUScore(i)*w1+∑i∈XCScore(i)*w2+∑i,j∈XDScore(i,j)*w3,其中w1、w2、w3是预设的权重系数。要从视频片段集合中选出Nsel个精彩片段,这可以看作对f(X)的最优化问题
Figure BDA0002577002170000111
即寻找使得f(X)取值最大的集合X。已有许多不同的方法用于解决最优化问题,例如贪婪算法、动态规划算法。本发明实施例以贪婪算法为例说明具体步骤:
1)初始化候选视频片段的序号集合Z*={1,2,...,i,...,N},以及当前精彩片段的序号集合X*={}为空集合。
2)遍历候选集合Z*,对于遍历到的序号i,计算目标函数值
Figure BDA0002577002170000112
选取目标函数最大的序号i*
3)更新候选视频片段的序号集合X*=X*∪i*,以及当前精彩片段的序号集合Z*=Z*-i*
4)重复步骤2和步骤3,直到X*中的元素数目为Nsel
输出选择的精彩片段X*
上述实施例中wA、wR、wD、wE、w1、w2、w3等系数还可采用神经网络方法学习得到。神经网络模型还可采用其它网络,包括但不限于VGG、DenseNet、UNet、resNet等。
本发明实施例提供了一种面向用户的视频精彩片段提取方法,该方法综合利用视频的内容和用户的偏好信息,从而得到更符合用户喜好的精彩片段。不仅仅提取图像和/或音频特征,还从视频中提取用户关注的语义信息,并充分利用收集的用户信息帮助识别精彩片段。
该方法同时考虑了精彩片段的多样性,利用片段之间的距离得到多样性分数,使得提取的精彩片段之间保持足够的距离,避免精彩片段集中于个别时间段,从而更好的体现视频整体情节。经过测试,所选出的精彩片段能够有效捕捉视频中相对精彩的部分,抽取视频片段的质量相较于均匀采样或随机采样有明显的提升,可以帮助视频用户快速了解视频中关注的精彩内容。
如图3所示,本发明实施例提供了一种目标视频片段提取方法,包括如下步骤:
S110、获取用户关注的目标场景分类信息和目标人物信息;
S120、分割待提取视频形成视频片段集合,从每个视频片段中抽取关键帧,得到视频片段关键帧序列;识别视频片段关键帧序列中各个关键帧的场景类别信息,将各个关键帧的场景类别信息与目标场景分类信息进行比较获取每个视频片段的场景分类精彩度分数;
S130、根据所述目标人物信息获取目标人物人脸特征,提取各个关键帧的人脸图像,根据各个关键帧的人脸图像和所述目标人物人脸特征之间的相似度,生成各个视频片段的目标人物识别精彩度分数;
S140、根据场景分类精彩度分数和目标人物识别精彩度分数生成用户选项精彩度分数;
S150、分离各个视频片段中的图像和音频数据,根据各个视频片段中相邻帧之间的图像差异性,获取各个视频片段的图像精彩度分数;
S160、按照视频帧率划分音频数据形成音频帧,根据所述音频帧的短时能量值,获取各个视频片段的音频精彩度分数;
S170、根据各个视频片段的图像精彩度分数和音频精彩度分数获取内容精彩度分数;
S180、根据各个视频片段之间的距离获取各个视频片段之间的多样性分数;
S190、根据目标函数
f(X)=∑i∈XUScore(i)*w1+∑i∈XCScore(i)*w2+∑i,j∈XDScore(i,j)*w3,在视频片段的序号集合V={1,2,...,i,...,N}中选取预设值Nsel个视频片段组成目标视频片段集合X,使得f(X)取值最大,其中,UScore(i)代表用户选项精彩度分数、CScore(i)代表内容精彩度分数、DScore(i,j)代表多样性分数。
进一步地,如图4所示,所述步骤S120中包括:
S121、采用固定时长均匀分割待提取视频,获取视频片段集合
Figure BDA0002577002170000121
Ttotal代表视频总时长,Tc代表时长阈值;
S122、从视频片段中均匀抽取关键帧,得到视频片段关键帧序列
Figure BDA0002577002170000122
其中Ns表示视频片段中关键帧个数;
S123、将视频片段关键帧序列输入第一预先训练的模型,获得视频片段所属的场景类别,与所述目标场景分类信息进行比较,如果相符,视频片段对应的场景分类精彩度分数A(i)为1,否则为0。
进一步地,如图5所示,所述步骤S130包括:
S131、将视频片段关键帧序列输入第二预先训练的模型,获取视频片段每个关键帧检测到的人脸位置;
S132、根据所述人脸位置,提取人脸图像,将所述人脸图像输入第三预先训练的模型,获取人脸图像特征向量,生成人脸图像特征向量集合
Figure BDA0002577002170000123
其中Nj表示第i个片段的第j个关键帧检测到的人脸个数;
S133、根据目标人物信息从待选目标人物特征集合数据库中获取目标人物的人脸图像特征集合
Figure BDA0002577002170000137
其中,Nu表示用户选择的明星个数,Np表示用户选择的第p个明星在数据库中保存的人脸图像个数;其中,所述待选目标人物特征集合数据库中特征由待选目标人物的人脸图像输入到第三预先训练的模型中得到;
S134、计算DFQ和CFQ两个序列的向量之间的距离,小于预设阈值的两个向量被认为相似,则置相应标志为1,否则置为0,得到目标人物人脸检测的结果为
Figure BDA0002577002170000138
S135、通过每个视频片段目标人物人脸检测结果的均值
Figure BDA0002577002170000139
得到目标人物识别精彩度分数R(i)=rci
进一步地,如图6所示,所述步骤S150包括:
S151、通过如下公式,
Figure BDA0002577002170000131
计算视频片段中相邻图像帧之间的图像差异性dm,生成差异性集合
Figure BDA0002577002170000132
其中,Nf表示每个视频片段中包含的图像帧个数,
Figure BDA0002577002170000133
X和Y代表相邻两帧图像帧;
S152、计算每个视频片段差异性的均值
Figure BDA0002577002170000134
得到图像精彩度分数D(i)=dci
进一步地,如图7所示,所述步骤S160包括:
S161、按照视频帧率划分音频数据形成音频帧;
S162、对于一个音频帧X,计算2-范数
Figure BDA0002577002170000135
xt表示向量X的元素,计算音频帧的短时能量值
Figure BDA00025770021700001313
生成能量值集合
Figure BDA0002577002170000136
S163、根据能量值集合中的最大值
Figure BDA00025770021700001310
对能量值集合进行归一化,得到
Figure BDA00025770021700001311
S164、计算每个视频片段能量值的均值
Figure BDA00025770021700001312
得到音频精彩度分数E(i)=eci
讲一步地,所述步骤S180包括:
从视频片段集合SQ={s1,s2,...,si,...sN},i≤N中选取任意两个片段si和sj,计算距离
Figure BDA0002577002170000141
其中Nsh表示期望的两个片段距离的最小值;获取多样性分数DScore(i,j)=dist(i,j)。
进一步地,如图8所示,所述步骤S190包括:
S191、初始化候选视频片段的序号集合Z*={1,2,...,i,...,N},以及当前精彩片段的序号集合X*={}为空集合;
S192、遍历候选集合Z*,对于遍历到的序号i,计算目标函数值
Figure BDA0002577002170000142
选取目标函数最大的序号i*
S193、更新候选视频片段的序号集合Z*=Z*-i*,以及当前精彩片段的序号集合X*=X*∪i*
S194、重复步骤S192和步骤S193,直到X*中的元素数目为Nsel
S195、输出选择的精彩片段X*为目标视频片段集合X。
本发明实施例提供了目标视频片段提取方法,该方法不仅提取特征向量,还提取用户关注的语义信息,综合利用两者识别精彩片段,从而得到更符合用户喜好的精彩片段,该方法同时考虑了精彩片段的多样性,使得提取的片段在时间轴上保持一定距离,从而更好的体现视频整体情节。针对不同用户的不同偏好,从视频中提取相应的高级语义信息,同时提取视频和/或音频特征。通过一个通用处理框架将语义信息和视频内容特征融合,进而提取视频精彩片段,提高与用户喜好的契合程度。
基于上述的目标视频片段提取方法,本发明另外一些实施例如图9所示,提供了一种目标视频片段提取装置100,包括:
接收模块110,用于获取用户关注的目标场景分类信息和目标人物信息;
场景分类精彩度计算模块120,用于分割待提取视频形成视频片段集合,从每个视频片段中抽取关键帧,得到视频片段关键帧序列;识别视频片段关键帧序列中各个关键帧的场景类别信息,将各个关键帧的场景类别信息与目标场景分类信息进行比较获取每个视频片段的场景分类精彩度分数;
目标人物识别精彩度计算模块130,用于根据所述目标人物信息获取目标人物人脸特征,提取各个关键帧的人脸图像,根据各个关键帧的人脸图像和所述目标人物人脸特征之间的相似度,生成各个视频片段的目标人物识别精彩度分数;
用户选项精彩度计算模块140,用于根据场景分类精彩度分数和目标人物识别精彩度分数生成用户选项精彩度分数;
图像精彩度计算模块150,用于分离各个视频片段中的图像和音频数据,根据各个视频片段中相邻帧之间的图像差异性,获取各个视频片段的图像精彩度分数;
音频精彩度计算模块160,用于按照视频帧率划分音频数据形成音频帧,根据所述音频帧的短时能量值,获取各个视频片段的音频精彩度分数;
内容精彩度计算模块170,用于根据各个视频片段的图像精彩度分数和音频精彩度分数获取内容精彩度分数;
多样性计算模块180,用于根据各个视频片段之间的距离获取各个视频片段之间的多样性分数;
最优化模块190,用于根据目标函数f(X)=∑i∈XUScore(i)*w1+∑i∈XCScore(i)*w2+∑i,j∈XDScore(i,j)*w3,在视频片段的序号集合V={1,2,...,i,...,N}中选取预设值Nsel个视频片段组成目标视频片段集合X,使得f(X)取值最大,其中,UScore(i)代表用户选项精彩度分数、CScore(i)代表内容精彩度分数、DScore(i,j)代表多样性分数。
上述各个模块的具体执行步骤在目标视频片段提取方法中对应的步骤中已进行详细叙述,在此不做过多赘述。
下面参考图10,其示出了适于用来实现本申请实施例的控制设备的计算机系统800的结构示意图。图10示出的控制设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图10所示,计算机系统800包括中央处理单元(CPU)801,其可以根据存储在只读存储器(ROM)802中的程序或者从存储部分808加载到随机访问存储器(RAM)803中的程序而执行各种适当的动作和处理。在RAM 803中,还存储有系统800操作所需的各种程序和数据。CPU 801、ROM 802以及RAM 803通过总线804彼此相连。输入/输出(I/O)接口805也连接至总线804。
以下部件连接至I/O接口805:包括键盘、鼠标等的输入部分806;包括诸如阴极射线管(CRT)、液晶显示器(LCD)等以及扬声器等的输出部分807;包括硬盘等的存储部分808;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分809。通信部分809经由诸如因特网的网络执行通信处理。驱动器810也根据需要连接至I/O接口805。可拆卸介质811,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器810上,以便于从其上读出的计算机程序根据需要被安装入存储部分808。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分809从网络上被下载和安装,和/或从可拆卸介质811被安装。在该计算机程序被中央处理单元(CPU)801执行时,执行本申请的方法中限定的上述功能。
需要说明的是,本申请所述的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,所述程序设计语言包括面向目标的程序设计语言—诸如Python、Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的单元可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元也可以设置在处理器中,例如,可以描述为:一种处理器包括获取单元、分割单元、确定单元和选择单元。其中,这些单元的名称在某种情况下并不构成对该单元本身的限定,例如,获取单元还可以被描述为“获取待处理绘本图像的单元”。
作为另一方面,本申请还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:
接收模块,用于获取用户关注的目标场景分类信息和目标人物信息;
场景分类精彩度计算模块,用于分割待提取视频形成视频片段集合,从每个视频片段中抽取关键帧,得到视频片段关键帧序列;识别视频片段关键帧序列中各个关键帧的场景类别信息,将各个关键帧的场景类别信息与目标场景分类信息进行比较获取每个视频片段的场景分类精彩度分数;根据所述目标人物信息获取目标人物人脸特征,提取各个关键帧的人脸图像,根据各个关键帧的人脸图像和所述目标人物人脸特征之间的相似度,生成各个视频片段的目标人物识别精彩度分数;根据场景分类精彩度分数和目标人物识别精彩度分数生成用户选项精彩度分数;分离各个视频片段中的图像和音频数据,根据各个视频片段中相邻帧之间的图像差异性,获取各个视频片段的图像精彩度分数;按照视频帧率划分音频数据形成音频帧,根据所述音频帧的短时能量值,获取各个视频片段的音频精彩度分数;根据各个视频片段的图像精彩度分数和音频精彩度分数获取内容精彩度分数;根据各个视频片段之间的距离获取各个视频片段之间的多样性分数;根据目标函数f(X)=∑i∈XUScore(i)*w1+∑i∈XCScore(i)*w2+∑i,j∈XDScore(i,j)*w3,在视频片段的序号集合V={1,2,...,i,...,N}中选取预设值Nsel个视频片段组成目标视频片段集合X,使得f(X)取值最大,其中,UScore(i)代表用户选项精彩度分数、CScore(i)代表内容精彩度分数、DScore(i,j)代表多样性分数。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。

Claims (9)

1.一种目标视频片段提取方法,其特征在于,包括如下步骤:
S110、获取用户关注的目标场景分类信息和目标人物信息;
S120、分割待提取视频形成视频片段集合,从每个视频片段中抽取关键帧,得到视频片段关键帧序列;识别视频片段关键帧序列中各个关键帧的场景类别信息,将各个关键帧的场景类别信息与目标场景分类信息进行比较获取每个视频片段的场景分类精彩度分数;
S130、根据所述目标人物信息获取目标人物人脸特征,提取各个关键帧的人脸图像,根据各个关键帧的人脸图像和所述目标人物人脸特征之间的相似度,生成各个视频片段的目标人物识别精彩度分数;
S140、根据场景分类精彩度分数和目标人物识别精彩度分数生成用户选项精彩度分数;具体为:使用加权平均方法综合场景分类精彩度分数A(i)和目标人物识别精彩度分数R(i)得到用户选项精彩度分数,即UScore(i)=A(i)*wA+R(i)*wR,其中wA、wR为预设的权重系数;
S150、分离各个视频片段中的图像和音频数据,根据各个视频片段中相邻帧之间的图像差异性,获取各个视频片段的图像精彩度分数;
S160、按照视频帧率划分音频数据形成音频帧,根据所述音频帧的短时能量值,获取各个视频片段的音频精彩度分数;
S170、根据各个视频片段的图像精彩度分数和音频精彩度分数获取内容精彩度分数;具体为:根据图像精彩度分数D(i)和音频精彩度分数E(i)的加权平均值,计算内容精彩度分数,即视频片段的内容精彩度分数CScore(i)=D(i)*wD+E(i)*wE,其中wD、wE为预设的权重系数;
S180、根据各个视频片段之间的距离获取各个视频片段之间的多样性分数;具体为:从视频片段集合SQ={s1,s2,...,si,...sN},i≤N中选取任意两个片段si和sj,计算距离
Figure FDA0003634000870000011
其中Nsh表示期望的两个片段距离的最小值,获取多样性分数DScore(i,j)=dist(i,j);
S190、根据目标函数f(X)=∑i∈XUScore(i)*w1+∑i∈XCScore(i)*w2+∑i,j∈XDScore(i,j)*w3,在视频片段的序号集合V={1,2,...,i,...,N}中选取预设值Nsel个视频片段组成目标视频片段集合X,使得f(X)取值最大,其中,UScore(i)代表用户选项精彩度分数、CScore(i)代表内容精彩度分数、DScore(i,j)代表多样性分数。
2.根据权利要求1所述的目标视频片段提取方法,其特征在于,所述步骤S120中包括:
S121、采用固定时长均匀分割待提取视频,获取视频片段集合SQ={s1,s2,...,si,...sN},i≤N,
Figure FDA0003634000870000026
Ttotal代表视频总时长,Tc代表时长阈值;
S122、从视频片段中均匀抽取关键帧,得到视频片段关键帧序列
Figure FDA0003634000870000021
其中Ns表示视频片段中关键帧个数;
S123、将视频片段关键帧序列输入第一预先训练的模型,获得视频片段所属的场景类别,与所述目标场景分类信息进行比较,如果相符,视频片段对应的场景分类精彩度分数A(i)为1,否则为0。
3.根据权利要求1所述的目标视频片段提取方法,其特征在于,所述步骤S130包括:
S131、将视频片段关键帧序列输入第二预先训练的模型,获取视频片段每个关键帧检测到的人脸位置;
S132、根据所述人脸位置,提取人脸图像,将所述人脸图像输入第三预先训练的模型,获取人脸图像特征向量,生成人脸图像特征向量集合
Figure FDA0003634000870000022
其中Nj表示第i个片段的第j个关键帧检测到的人脸个数;
S133、根据目标人物信息从待选目标人物特征集合数据库中获取目标人物的人脸图像特征集合
Figure FDA0003634000870000023
其中,Nu表示用户选择的明星个数,Np表示用户选择的第p个明星在数据库中保存的人脸图像个数;其中,所述待选目标人物特征集合数据库中特征由待选目标人物的人脸图像输入到第三预先训练的模型中得到;
S134、计算DFQ和CFQ两个序列的向量之间的距离,小于预设阈值的两个向量被认为相似,则置相应标志为1,否则置为0,得到目标人物人脸检测的结果为
Figure FDA0003634000870000024
S135、通过每个视频片段目标人物人脸检测结果的均值
Figure FDA0003634000870000025
得到目标人物识别精彩度分数R(i)=rci
4.根据权利要求1所述的目标视频片段提取方法,其特征在于,所述步骤S150包括:
S151、通过如下公式,
Figure FDA0003634000870000031
计算视频片段中相邻图像帧之间的图像差异性dm,生成差异性集合
Figure FDA0003634000870000032
其中,Nf表示每个视频片段中包含的图像帧个数,
Figure FDA0003634000870000033
X和Y代表相邻两帧图像帧;
S152、计算每个视频片段差异性的均值
Figure FDA0003634000870000034
得到图像精彩度分数D(i)=dci
5.根据权利要求1所述的目标视频片段提取方法,其特征在于,所述步骤S160包括:
S161、按照视频帧率划分音频数据形成音频帧;
S162、对于一个音频帧X,计算2-范数
Figure FDA0003634000870000035
xt表示向量X的元素,计算音频帧的短时能量值
Figure FDA0003634000870000036
生成能量值集合
Figure FDA0003634000870000037
S163、根据能量值集合中的最大值
Figure FDA0003634000870000038
对能量值集合进行归一化,得到
Figure FDA0003634000870000039
S164、计算每个视频片段能量值的均值
Figure FDA00036340008700000310
得到音频精彩度分数E(i)=eci
6.根据权利要求1所述的目标视频片段提取方法,其特征在于,所述步骤S190包括:
S191、初始化候选视频片段的序号集合Z*={1,2,...,i,...,N},以及当前精彩片段的序号集合X*={}为空集合;
S192、遍历候选集合Z*,对于遍历到的序号i,计算目标函数值
Figure FDA00036340008700000311
选取目标函数最大的序号i*
S193、更新候选视频片段的序号集合Z*=Z*-i*,以及当前精彩片段的序号集合X*=X*∪i*
S194、重复步骤S192和步骤S193,直到X*中的元素数目为Nsel
S195、输出选择的精彩片段X*为目标视频片段集合X。
7.一种目标视频片段提取装置,其特征在于,包括:
接收模块,用于获取用户关注的目标场景分类信息和目标人物信息;
场景分类精彩度计算模块,用于分割待提取视频形成视频片段集合,从每个视频片段中抽取关键帧,得到视频片段关键帧序列;识别视频片段关键帧序列中各个关键帧的场景类别信息,将各个关键帧的场景类别信息与目标场景分类信息进行比较获取每个视频片段的场景分类精彩度分数;
目标人物识别精彩度计算模块,用于根据所述目标人物信息获取目标人物人脸特征,提取各个关键帧的人脸图像,根据各个关键帧的人脸图像和所述目标人物人脸特征之间的相似度,生成各个视频片段的目标人物识别精彩度分数;
用户选项精彩度计算模块,用于使用加权平均方法综合场景分类精彩度分数A(i)和目标人物识别精彩度分数R(i)得到用户选项精彩度分数,即UScore(i)=A(i)*wA+R(i)*wR,其中wA、wR为预设的权重系数;
图像精彩度计算模块,用于分离各个视频片段中的图像和音频数据,根据各个视频片段中相邻帧之间的图像差异性,获取各个视频片段的图像精彩度分数;
音频精彩度计算模块,用于按照视频帧率划分音频数据形成音频帧,根据所述音频帧的短时能量值,获取各个视频片段的音频精彩度分数;
内容精彩度计算模块,用于根据各个视频片段的图像精彩度分数D(i)和音频精彩度分数E(i)的加权平均值,计算获取内容精彩度分数,即视频片段的内容精彩度分数CScore(i)=D(i)*wD+E(i)*wE,其中wD、wE为预设的权重系数;
多样性计算模块,用于根据各个视频片段之间的距离获取各个视频片段之间的多样性分数,即从视频片段集合sQ={s1,s2,...,si,…sN},i≤N中选取任意两个片段si和sj,计算距离
Figure FDA0003634000870000041
其中Nth表示期望的两个片段距离的最小值,获取多样性分数DScore(i,j)=dist(i,j);
最优化模块,用于根据目标函数f(X)=∑i∈XUScore(i)*w1+∑i∈XCScore(i)*w2+∑i,j∈ XDScore(i,j)*w3,在视频片段的序号集合V={1,2,...,i,...,N}中选取预设值Nsel个视频片段组成目标视频片段集合X,使得f(X)取值最大,其中,UScore(i)代表用户选项精彩度分数、CScore(i)代表内容精彩度分数、DScore(i,j)代表多样性分数。
8.一种电子设备,包括:
一个或多个处理器;
存储装置,其上存储有一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-6中任一所述的方法。
9.一种计算机可读介质,其上存储有计算机程序,其中,所述程序被处理器执行时实现如权利要求1-6中任一所述的方法。
CN202010656648.XA 2020-07-09 2020-07-09 目标视频片段提取方法和装置 Active CN111787356B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010656648.XA CN111787356B (zh) 2020-07-09 2020-07-09 目标视频片段提取方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010656648.XA CN111787356B (zh) 2020-07-09 2020-07-09 目标视频片段提取方法和装置

Publications (2)

Publication Number Publication Date
CN111787356A CN111787356A (zh) 2020-10-16
CN111787356B true CN111787356B (zh) 2022-09-30

Family

ID=72758511

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010656648.XA Active CN111787356B (zh) 2020-07-09 2020-07-09 目标视频片段提取方法和装置

Country Status (1)

Country Link
CN (1) CN111787356B (zh)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110347872B (zh) * 2019-07-04 2023-10-24 腾讯科技(深圳)有限公司 视频封面图像提取方法及装置、存储介质及电子设备
CN112347941B (zh) * 2020-11-09 2021-06-08 南京紫金体育产业股份有限公司 基于5g mec的运动视频集锦智能生成和分发方法
CN112532897B (zh) * 2020-11-25 2022-07-01 腾讯科技(深圳)有限公司 视频剪辑方法、装置、设备及计算机可读存储介质
CN112445935B (zh) * 2020-11-25 2023-07-04 开望(杭州)科技有限公司 一种基于内容分析的视频精选合集的自动生成方法
CN112559800B (zh) * 2020-12-17 2023-11-14 北京百度网讯科技有限公司 用于处理视频的方法、装置、电子设备、介质和产品
CN112738557A (zh) * 2020-12-22 2021-04-30 上海哔哩哔哩科技有限公司 视频处理方法及装置
CN114697741B (zh) * 2020-12-30 2023-06-30 腾讯科技(深圳)有限公司 多媒体信息的播放控制方法及相关设备
CN112995666B (zh) * 2021-02-22 2022-04-22 天翼爱音乐文化科技有限公司 一种结合场景切换检测的视频横竖屏转换方法及装置
CN115150636B (zh) * 2021-03-30 2023-11-14 海南两心科技有限公司 视频处理方法、电子设备及存储介质
CN113301382B (zh) * 2021-05-07 2022-12-13 北京百度网讯科技有限公司 视频处理方法、设备、介质及程序产品
CN113283327A (zh) * 2021-05-17 2021-08-20 多益网络有限公司 一种视频文本生成方法、装置、设备及存储介质
CN114143575A (zh) * 2021-12-31 2022-03-04 上海爱奇艺新媒体科技有限公司 视频剪辑方法、装置、计算设备及存储介质
CN117370602A (zh) * 2023-04-24 2024-01-09 深圳云视智景科技有限公司 视频处理方法、装置、设备与计算机存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101477798B (zh) * 2009-02-17 2011-01-05 北京邮电大学 一种分析和提取设定场景的音频数据的方法
US8886533B2 (en) * 2011-10-25 2014-11-11 At&T Intellectual Property I, L.P. System and method for combining frame and segment level processing, via temporal pooling, for phonetic classification
CN108595477B (zh) * 2018-03-12 2021-10-15 北京奇艺世纪科技有限公司 一种视频数据的处理方法和装置
CN110267119B (zh) * 2019-06-28 2023-06-30 北京奇艺世纪科技有限公司 视频精彩度的评价方法及相关设备

Also Published As

Publication number Publication date
CN111787356A (zh) 2020-10-16

Similar Documents

Publication Publication Date Title
CN111787356B (zh) 目标视频片段提取方法和装置
CN108898186B (zh) 用于提取图像的方法和装置
WO2020221278A1 (zh) 视频分类方法及其模型的训练方法、装置和电子设备
CN109359636B (zh) 视频分类方法、装置及服务器
CN108446390B (zh) 用于推送信息的方法和装置
CN108269254B (zh) 图像质量评估方法和装置
CN108776676B (zh) 信息推荐方法、装置、计算机可读介质及电子设备
WO2018019126A1 (zh) 视频类别识别方法和装置、数据处理装置和电子设备
JP6994588B2 (ja) 顔特徴抽出モデル訓練方法、顔特徴抽出方法、装置、機器および記憶媒体
CN111242097B (zh) 一种人脸识别方法、装置、计算机可读介质及电子设备
CN109360028B (zh) 用于推送信息的方法和装置
US10524005B2 (en) Facilitating television based interaction with social networking tools
CN110740389B (zh) 视频定位方法、装置、计算机可读介质及电子设备
WO2009061434A1 (en) System and method for processing digital media
CN110418204B (zh) 基于微表情的视频推荐方法、装置、设备和存储介质
CN111046757A (zh) 人脸画像生成模型的训练方法、装置及相关设备
CN110728188A (zh) 图像处理方法、装置、系统和存储介质
CN114625918A (zh) 视频推荐方法、装置、设备、存储介质及程序产品
CN112766284A (zh) 图像识别方法和装置、存储介质和电子设备
JP2014228995A (ja) 画像特徴学習装置、画像特徴学習方法及びプログラム
CN112084954A (zh) 视频目标的检测方法、装置、电子设备及存储介质
CN109214400A (zh) 分类器训练方法、装置、设备和计算机可读存储介质
CN110874547B (zh) 从视频中识别对象的方法和设备
CN110765304A (zh) 图像处理方法、装置、电子设备及计算机可读介质
CN112000872A (zh) 基于用户向量的推荐方法、模型的训练方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant