CN116862946A - 运动视频生成方法、装置、终端设备以及存储介质 - Google Patents
运动视频生成方法、装置、终端设备以及存储介质 Download PDFInfo
- Publication number
- CN116862946A CN116862946A CN202210305584.8A CN202210305584A CN116862946A CN 116862946 A CN116862946 A CN 116862946A CN 202210305584 A CN202210305584 A CN 202210305584A CN 116862946 A CN116862946 A CN 116862946A
- Authority
- CN
- China
- Prior art keywords
- visual target
- video
- tracking
- target
- visual
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 71
- 230000000007 visual effect Effects 0.000 claims abstract description 339
- 238000003062 neural network model Methods 0.000 claims abstract description 42
- 238000013528 artificial neural network Methods 0.000 claims description 36
- 238000011156 evaluation Methods 0.000 claims description 35
- 238000012549 training Methods 0.000 claims description 23
- 101100369993 Mus musculus Tnfsf10 gene Proteins 0.000 claims description 22
- 238000002372 labelling Methods 0.000 claims description 14
- 230000004044 response Effects 0.000 claims description 8
- 239000012634 fragment Substances 0.000 claims description 6
- 238000000605 extraction Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 14
- 238000001514 detection method Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 8
- 241001465754 Metazoa Species 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 229920001621 AMOLED Polymers 0.000 description 3
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 230000000052 comparative effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 239000000463 material Substances 0.000 description 2
- 238000010295 mobile communication Methods 0.000 description 2
- 239000013307 optical fiber Substances 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 239000002096 quantum dot Substances 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000005252 bulbus oculi Anatomy 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 210000001508 eye Anatomy 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000010845 search algorithm Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/09—Supervised learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/265—Mixing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30241—Trajectory
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Biomedical Technology (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Signal Processing (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明实施例提出了一种运动视频生成方法、装置、终端设备以及存储介质,涉及视频处理技术领域;能够自动评价全景视频中视角物体的精彩程度,选择精彩的视角物体进行跟踪导出2D视频。所述方法包括:标记全景视频中关键帧的至少一个视觉目标;利用预设对视频中物体进行精彩程度评分的神经网络模型,对所述至少一个视觉目标进行精彩程度评分输出满足预设条件的跟踪视觉目标;导出所述跟踪视觉目标分别在所述全景视频中每帧画面占据的图像区域,获得所述跟踪视觉目标的运动视频。
Description
【技术领域】
本发明实施例涉及视频处理技术领域,尤其涉及一种运动视频生成方法、装置、终端设备以及存储介质。
【背景技术】
为解决常规摄像装置的局限性:录制视频的视角极其狭小,无法记录许多重要的细节,全景视频记录了相机所在360度球面的所有视觉信息,用户在拍摄时无需运镜取景,只需在拍摄完后手动选定特定视角的视频内容进行导出,可以获得任意视觉目标的视频。但目前往往需要人工查看全景视频的所有画面,选择精彩的画面进行内容导出,并且导出过程需要用户在每个时间戳上选定视角目标进行导出,操作繁琐且低效。
【发明内容】
本发明实施例提供了一种运动视频生成方法、装置、终端设备以及存储介质,能够自动评价全景视频中视角物体的精彩程度,选择精彩的视角物体进行跟踪导出2D视频。
第一方面,本发明实施例提供一种运动视频生成方法,应用于电子终端设备,采用目标框标记全景视频中关键帧的至少一个视觉目标;所述关键帧为所述全景视频中的任意图像帧;利用对视频中物体进行精彩程度评分的神经网络模型,基于统一大小后的目标框提取每个视觉目标对应像素点的RGB特征,并根据对应每个视觉目标的RGB特征对每个视觉目标进行精彩程度评估;根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标;在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列;根据所述运动轨迹序列,将所述跟踪视觉目标对象对应的目标框在所述全景视频的每帧画面占据的图像区域投影成平面图像,获得所述跟踪视觉目标的运动视频。
上述运动视频生成方法,检测并标记全景视频显示的视觉目标,采用目标框框选出全景视频图像帧中的视觉目标,利用预设对视频中物体进行精彩程度评分的神经网络模型,将不同视觉目标对应的目标框统一大小,提取统一大小后的目标框内像素点的RGB特征,根据对应每个视觉目标的RGB特征计算每个视觉目标的精彩程度评分,按照精彩程度评分对视觉目标排序,选择得分较高的若干个视觉目标作为跟踪视觉目标。在全景视频的每帧图像追踪跟踪视觉目标,生成跟踪视觉目标在全景视频的运动轨迹序列;根据运动轨迹序列,将跟踪视觉目标在所述全景视频的每帧画面占据的图像区域投影到与用户视线垂直的平面,获得跟踪视觉目标的运动视频,实现自动评价全景视频显示的视觉目标的精彩程度,输出在全景视频表现精彩的跟踪视觉目标的视频的目的。例如自动输出罕见的物体、运动的物体等吸引用户眼球的视觉目标的视频,获得所述跟踪视觉目标的运动视频,无需人工查看全景视频,操作简便。
其中一种可能的实现方式中,采用目标框标记全景视频中关键帧的至少一个视觉目标,包括:
对所述至少一个视觉目标标注物体的位置坐标;
在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列,包括:
根据所述位置坐标,在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列。
其中一种可能的实现方式中,所述对视频中物体进行精彩程度评分的神经网络模型通过以下方式设定:
获得全景图像;
根据多个维度对精彩程度的评价标准,对所述全景图像中每个物体标注综合得分;所述多个维度包括:目标类别、运动状态、人物属性、显著性;
利用携带标注的全景图像多次训练多层神经网络,直至所述多层神经网络针对物体输出的精彩程度评分与对应标注综合得分相差程度小于预设阈值,将经过多次训练多层神经网络作为所述对视频中物体进行精彩程度评分的神经网络模型。
其中一种可能的实现方式中,所述方法还包括:
响应用户指定的剪辑指令,获得待显示物体和视频时间长度;
获得与待显示物体匹配的多个跟踪视觉目标;
按照所述多个跟踪视觉目标的运动视频各自对应的精彩程度评分大小,顺序选取对应目标运动视频作为待剪辑视频;
从所述待剪辑视频截取符合所述视频时间长度的片段,获得用户指定的显示物体的运动视频。
其中一种可能的实现方式中,根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标,包括:
将所述关键帧的所有视觉目标中精彩程度评分最高的视觉目标确定为跟踪视觉目标。
其中一种可能的实现方式中,根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标,包括:
按照精彩程度评分从大到小顺序选取对应视觉目标作为所述跟踪视觉目标,直至所述跟踪视觉目标的数量满足预设数量。
其中一种可能的实现方式中,采用目标框标记全景视频中关键帧的至少一个视觉目标,包括:
对所述至少一个视觉目标标注物体类型;
利用对视频中物体进行精彩程度评分的神经网络模型,基于统一大小后的目标框提取每个视觉目标对应像素点的RGB特征,并根据对应每个视觉目标的RGB特征对每个视觉目标进行精彩程度评估,包括:
利用所述预设对视频中物体进行精彩程度评分的神经网络模型,对所述至少一个视觉目标进行精彩程度评分;
根据所述至少一个视觉目标的精彩程度评分和所述至少一个视觉目标的类型,输出满足预设条件的跟踪视觉目标。其中一种可能的实现方式中,在所述全景视频的每帧图像追踪到所述跟踪视觉目标后,所述方法还包括:
利用所述对视频中物体进行精彩程度评分的神经网络模型对追踪到所述跟踪视觉目标的图像帧提取与所述跟踪视觉目标不同的视觉目标对应像素点RGB特征;
当任意视觉目标的精彩程度评分大于所述跟踪视觉目标的精彩程度评分,在所述全景视频的每帧图像追踪该任意视觉目标。
第二方面,本发明实施例提供一种运动视频生成装置,设置在电子终端设备中,所述装置包括:
标记模块,用于采用目标框标记全景视频中关键帧的至少一个视觉目标;所述关键帧为所述全景视频中的任意图像帧;
评估模块,用于利用对视频中物体进行精彩程度评分的神经网络模型,基于统一大小后的目标框提取每个视觉目标对应像素点的RGB特征,并根据对应每个视觉目标的RGB特征对每个视觉目标进行精彩程度评估;
选择模块,用于根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标;
轨迹生成模块,用于在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列;
投影模块,用于根据所述运动轨迹序列,将所述跟踪视觉目标对象对应的目标框在所述全景视频的每帧画面占据的图像区域投影成平面图像,获得所述跟踪视觉目标的运动视频。
其中一种可能的实现方式中,所述标记模块具体用于对所述至少一个视觉目标标注物体的位置坐标;
所述轨迹生成模块具体用于根据所述位置坐标,在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列。
其中一种可能的实现方式中,所述装置还包括神经网络训练模块,所述神经网络训练模块具体用于:
获得全景图像;
根据多个维度对精彩程度的评价标准,对所述全景图像中每个物体标注综合得分;所述多个维度包括:目标类别、运动状态、人物属性、显著性;
利用携带标注的全景图像多次训练多层神经网络,直至所述多层神经网络针对物体输出的精彩程度评分与对应标注综合得分相差程度小于预设阈值,将经过多次训练多层神经网络作为所述对视频中物体进行精彩程度评分的神经网络模型。
其中一种可能的实现方式中,所述装置还包括:
响应模块,用于响应用户指定的剪辑指令,获得待显示物体和视频时间长度;
获得模块,用于获得与待显示物体匹配的多个跟踪视觉目标;
选取模块,用于按照所述多个跟踪视觉目标的运动视频各自对应的精彩程度评分大小,顺序选取对应目标运动视频作为待剪辑视频;
截取模块,用于从所述待剪辑视频截取符合所述视频时间长度的片段,获得用户指定的显示物体的运动视频。
其中一种可能的实现方式中,所述评估模块具体用于将所述关键帧的所有视觉目标中精彩程度评分最高的视觉目标确定为跟踪视觉目标。
其中一种可能的实现方式中,所述评估模块具体用于按照精彩程度评分从大到小顺序选取对应视觉目标作为所述跟踪视觉目标,直至所述跟踪视觉目标的数量满足预设数量。
其中一种可能的实现方式中,所述标记模块具体用于对所述至少一个视觉目标标注物体类型;
所述评估模块包括:
评分子模块,用于利用所述预设对视频中物体进行精彩程度评分的神经网络模型,对所述至少一个视觉目标进行精彩程度评分;
输出子模块,用于根据所述至少一个视觉目标的精彩程度评分和所述至少一个视觉目标的类型,输出满足预设条件的跟踪视觉目标。
其中一种可能的实现方式中,所述装置还包括:
提取模块,用于利用对视频中物体进行精彩程度评分的神经网络模型对追踪到所述跟踪视觉目标的图像帧提取不同视觉目标对应像素点RGB特征;
追踪模块,用于当任意视觉目标的精彩程度评分大于所述跟踪视觉目标的精彩程度评分,在所述全景视频的每帧图像追踪该任意视觉目标。
第三方面,本发明实施例提供一种终端设备,包括:至少一个处理器;以及与所述处理器通信连接的至少一个存储器,其中:所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行第一方面提供的方法。
第四方面,本发明实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行第一方面提供的方法。
应当理解的是,本发明实施例的第二~四方面与本发明实施例的第一方面的技术方案一致,各方面及对应的可行实施方式所取得的有益效果相似,不再赘述。
【附图说明】
为了更清楚地说明本发明实施例的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1是本发明实施例训练多层神经网络的步骤流程图;
图2是本发明实施例提出的运动视频生成方法的步骤流程图;
图3是本发明实施例执行运动视频生成方法基于的模型结构图;
图4是本发明一种示例Detection模型输出关键帧的示意图;
图5是本发明一种示例MOTracker模型输出的运动轨迹序列示意图;
图6是本发明实施例执行另一种运动视频生成方法基于的另一种模型结构图;
图7是本发明实施例提出的另一种运动视频生成方法的步骤流程图;
图8是本发明实施例执行运动视频生成方法数据流向图;
图9是本发明一种示例中全景视频关键帧A的示意图;
图10是本发明实施例提出的运动视频生成装置的功能模块图;
图11为本发明实施例提供的一种电子终端设备的结构示意图;
图12为本说明书一个实施例提供的终端设备的结构示意图。
【具体实施方式】
为了更好的理解本说明书的技术方案,下面结合附图对本发明实施例进行详细描述。
应当明确,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施例,都属于本说明书保护的范围。
在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本说明书。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
为了自动评价全景视频中视角物体的精彩程度,选择精彩的视角物体进行跟踪导出2D视频,发明人提出,以携带精彩程度评分的全景图像,对搭建的多层神经网络进行训练,得到能够从视觉目标类别、运动状态、人物属性、显著性等多个方面评价视觉目标的精彩程度的神经网络模型。申请人预先训练得到能够对全景图像中的物体进行精彩程度评分的模型。
图1是本发明实施例训练多层神经网络的步骤流程图,如图1所示本发明实施例训练多层神经网络,获得能够从视觉目标类别、运动状态、人物属性、显著性等多个方面评价视觉目标的重要性,并回归其重要性得分的神经网络模型的步骤包括:
S101:获得全景图像。
可以针对某区域采集全景视频,提取全景视频的图像帧作为全景图像。也可以直接拍摄全景图像,或从数据库获取全景图像。
S102:根据多个维度对精彩程度的评价标准,对所述全景图像中每个物体标注综合得分;所述多个维度包括:目标类别、运动状态、人物属性、显著性。
根据多个维度对精彩程度的评价标准,对所述全景图像中每个物体标注综合得分可以先通过检测器检测出全景图像中的视觉物体,对检测出的视觉物体预标注bbox框。
在预标注bbox的全景图片上,对每个视觉目标(proposal)从目标类别、运动状态、人物属性、显著性等多个方面进行综合判断,获得全景图像中每个物体标注综合得分。对于全景图片中的某个视觉目标,从多个角度:是否完整无遮挡,是否独立鲜明,目标是否具有精彩性,是否具有美感,是否稀缺性等角度等,对其进行多维度的评分。
本发明一种示例中,为了便于标注人员进行评价,将重要性离散划分为4个等级:
1.日常普通目标。
2.较为精彩目标。
3.非常精彩目标。
4.无聊目标。
这4个等级分别对应到具体的量化分数,例如1-4等级分别得分为-5,0,3,5分。每张全景图片将由多人进行标注,并对目前的得分进行加权平均。例如,对于同一个目标,将由5人进行评分,若评分结果为
普通,比较精彩,比较精彩,普通,比较精彩
则对应的得分分别为[0,3,3,0,3],目标的加权得分为1.8分。
S103:利用携带标注的全景图像多次训练多层神经网络,直至所述多层神经网络针对物体输出的精彩程度评分与对应标注综合得分相差程度小于预设阈值,将经过多次训练多层神经网络作为所述对视频中物体进行精彩程度评分的神经网络模型。
在训练过程中,将针对全景图像显示物体标注的综合得分作为监督条件,对多层神经网络进行监督训练,多层神经网络提取全景图像中物体对应像素点的RGB特征,对物体进行多维度评分,计算多维度评分与标注的综合得分的损失值,根据损失值,调整多层神经网络的参数,直至模型收敛,获得用于对视频中物体进行精彩程度评分的神经网络(Ranking)模型。
基于上述预先训练得到的用于对视频中物体进行精彩程度评分的神经网络(Ranking)模型,申请人进一步提出检测全景视频中关键帧显示的视觉目标,并标记全景视频中关键帧显示的视觉目标,将携带标记的关键帧的经纬图输入用于对视频中物体进行精彩程度评分的神经网络(Ranking)模型,对所述至少一个视觉目标进行精彩程度评分输出满足预设条件的跟踪视觉目标,根据跟踪视觉目标获得跟踪视觉目标的跟踪轨迹序列,生成跟踪视觉目标的运动视频的技术方案。
图2是本发明实施例提出的运动视频生成方法的步骤流程图,图3是本发明实施例执行运动视频生成方法基于的模型结构图;如图3所示本发明实施例执行运动视频生成方法基于的模型包括:Detection模型、Ranking模型以及MOTracker模型。
如图2和图3所示,执行运动视频生成方法的过程包括:
S201:采用目标框标记全景视频中关键帧的至少一个视觉目标;所述关键帧为所述全景视频中的任意图像帧。
关键帧可以是全景视频的第一帧或者是全景视频中质量最高的图像帧。
本发明实施例可以采用Detection模型执行步骤S201,以检测全景视频中关键帧的视觉目标。Detection模型通过分析全景视频的关键帧,检测出全景视频中所有属于预定义类别物体的矩形边界框bbox,提供一个或者多个待跟踪的视觉目标作为候选目标,从而用于后续的对视频中物体进行精彩程度评分的神经网络模型进行重要性评价。Detection模型可采用业界标准的目标检测器,例如Faster RCNN、RetinaNet、CentreNet等,基于全景标注的图片进行训练即可。
基于用户指令,确定预定义类别,利用用户输入动物指令,确定动物类别为预定义类别。
在本发明一种实施例中,标记全景视频的关键帧中至少一个视觉目标包括:检测关键帧中属于预定义类别的视觉目标,例如建筑、人物、宠物、风景物体等,针对检测出的视觉目标生成目标框bbox选视觉目标对应的多个像素点。
图4是本发明一种示例Detection模型输出关键帧的示意图,如图4所示,Detection模型检测出关键帧中的时间目标,并生成目标框bbox选出视觉目标。如图4所示,标记框中的像素点可以作为视觉目标框选对应的多个像素点。
S202:利用对视频中物体进行精彩程度评分的神经网络模型,基于统一大小后的目标框提取每个视觉目标对应像素点的RGB特征,并根据对应每个视觉目标的RGB特征对每个视觉目标进行精彩程度评估。
如图3所示,对视频中物体进行精彩程度评分的神经网络模型(Ranking模型)连接Detection模型。
S203:根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标。
根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标的实施方式包括:
将所述关键帧的所有视觉目标中精彩程度评分最高的视觉目标确定为跟踪视觉目标。
根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标的实施方式还包括:
按照精彩程度评分从大到小顺序选取对应视觉目标作为所述跟踪视觉目标,直至所述跟踪视觉目标的数量满足预设数量。
根据用户需求设置预设数量m,按照视觉目标的彩程度评分,排列视觉目标,输出精彩程度评分最大的m视觉目标,作为跟踪视觉目标。
携带标记的关键帧输入Ranking模型,Ranking模型获得每个视觉目标的bbox的位置,并根据bbox的坐标来取得视觉目标对应像素点的RGB特征,将每个视觉目标对应像素点的RGB特征缩放到统一大小,Ranking模型基于RGB特征可预测获得每个视觉目标的精彩程度评分,Ranking模型输出满足预设条件的跟踪视觉目标。
本发明一种实施例中,预设条件是精彩程度评分最高的Top-k个视觉目标,Ranking模型按照视觉目标的精彩程度评分大小,对视觉目标排序,顺序选择得分最高的Top-k个视觉目标给MOTracker模型,MOTracker模型对Top-k个视觉目标进行追踪,导出所述跟踪视觉目标分别在所述全景视频中每帧画面占据的图像区域,获得所述跟踪视觉目标的运动视频。
MOTracker模型对Top-k个视觉目标进行追踪,导出所述跟踪视觉目标分别在所述全景视频中每帧画面占据的图像区域,获得所述跟踪视觉目标的运动视频的过程包括:
MOTracker模型接受Ranking模型输出的Top-k个目标对象bbox,利用开源的深度跟踪模型或者传统跟踪算法进行跟踪,例如可采用多个基于STAPLE、LightTrack等开源单目标跟踪算法实现多目标跟踪的目的,也可利用单个FairMOT等多目标跟踪算法实现。跟踪每个bbox生成视角的运动轨迹序列,并保存到离线文件中,例如可以保存json文件中,结构化全景视频数据。
S204:在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列;
S205:根据所述运动轨迹序列,将所述跟踪视觉目标对象对应的目标框在所述全景视频的每帧画面占据的图像区域投影成平面图像,获得所述跟踪视觉目标的运动视频。
平面图像可以是显示在与用户视线垂直的平面上的图像。
获得视觉目标bbox的运动轨迹序列,可以利用全景投影算法实现任意轨迹的投影,生成每个视角的2D运动轨迹视频,从而实现了全景视频自动剪辑的目的。
在本发明一种实施例中,Detection模型还可以输出视觉目标的位置坐标。
S201包括子步骤S2011:对所述至少一个视觉目标标注物体的位置坐标。
在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列,包括:根据所述位置坐标,在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列。
图5是本发明一种示例MOTracker模型输出的运动轨迹序列示意图。
在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列包括子步骤:S2031至S2032。
S2031:根据所述跟踪视觉目标的位置坐标,在所述全景视频追踪所述跟踪视觉目标,得到完整显示所述跟踪视觉目标的多个目标帧画面;
S2032:连接所述跟踪视觉目标在所述多个目标帧画面中的位置,得到所述跟踪视觉目标的运动轨迹序列;
S2033:根据所述运动轨迹序列,将所述跟踪视觉目标在所述全景视频的每帧画面占据的图像区域投影到与用户视线垂直的平面,获得所述跟踪视觉目标的运动视频。
本发明实施例可以采用Detection模型执行步骤S201,以检测全景视频中关键帧的视觉目标。Detection模型通过分析全景视频的关键帧,检测出全景视频中所有属于预定义类别物体的矩形边界框bbox,提供一个或者多个待跟踪的视觉目标作为候选目标,从而用于后续的对视频中物体进行精彩程度评分的神经网络模型进行重要性评价,并对视觉目标进行跟踪。Detection模型可采用业界标准的目标检测器,例如Faster RCNN,RetinaNet,CentreNet这些,基于全景标注的图片进行训练即可。
图6是本发明实施例执行另一种运动视频生成方法基于的另一种模型结构图,如图6所示,本发明实施例执行运动视频生成方法基于的模型包括:Detection模型、Ranking模型、MOTracker模型以及AutoEditor模型。
剪辑模型(AutoEditor模型)分析多个全景视频的跟踪序列,根据精彩程度评分对每个跟踪序列进行排序,并选取得分较高的Top-P个序列作为待剪辑的目标序列。对于每个目标序列,时长不一,可以根据用户的模板时长或者设定的时长进行剪辑。
在本发明一种示例中,对于某个时长为10s的跟踪序列,如果此模板的需要时长为3s,则通过启发式搜索算法搜索得分最高的3s片段,进行剪辑。前Top-P个序列经过剪辑后获得P个时长满足条件的视频片段,通过拼接可获得最终的视频合辑。
图7是本发明实施例提出的另一种运动视频生成方法的步骤流程图,如图6和图7所示,另一种运动视频生成方法的步骤包括:
S701:采用目标框标记全景视频中关键帧的多个视觉目标;所述关键帧为所述全景视频中的任意图像帧。
S702:利用对视频中物体进行精彩程度评分的神经网络模型,基于统一大小后的目标框提取每个视觉目标对应像素点的RGB特征,并根据对应每个视觉目标的RGB特征计算每个视觉目标的精彩程度评分。
S703:利用所述神经网络模型按照精彩程度评分从大到小顺序选取对应视觉目标作为跟踪视觉目标,直至所述跟踪视觉目标的数量满足预设数量。
S704:在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列。
S705:根据所述运动轨迹序列,将所述跟踪视觉目标在所述全景视频的每帧画面占据的图像区域投影到与用户视线垂直的平面,获得所述跟踪视觉目标的运动视频。
S706:响应用户指定的剪辑指令,获得待显示物体和视频时间长度。
S707:获得与待显示物体匹配的多个跟踪视觉目标。
S708:按照所述多个跟踪视觉目标的运动视频各自对应的精彩程度评分大小,顺序选取对应目标运动视频作为待剪辑视频。
S709:从所述待剪辑视频截取符合所述视频时间长度的片段,获得用户指定的显示物体的运动视频。
本发明再一种实施例中,根据依据用户输入的类别指令,调整指定类别的阈值。例如用户输入的类别指令为宠物,对视频中物体进行精彩程度评分的神经网络模型输出跟踪视觉目标时,可以针对宠物的视觉目标标准阈值。假设精彩程度评分的前Top-K个视觉目标中最低分是M1,属于宠物类别视觉目标A的精彩程度评分为M2,M2<M1,可以选择宠物类别视觉目标A作为跟踪视觉目标。
基于上述技术方案步骤S201还包括子步骤:S201-1。
S201-1:对所述至少一个视觉目标标注物体类型。
步骤S202包括子步骤:S202-1和S202-2。
S202-1:利用预设对视频中物体进行精彩程度评分的神经网络模型,对所述至少一个视觉目标进行精彩程度评分;
S202-2:根据所述至少一个视觉目标的精彩程度评分和所述至少一个视觉目标的类型,输出满足预设条件的跟踪视觉目标。
响应用户输入的需求类型,当视觉目标标注的物体类型与输入的需求类型匹配,优先输出该视觉目标作为跟踪视觉目标。
示例地,全景视频中关键帧的视觉目标包括建筑视觉目标和宠物视觉目标,响应用户输入的需求类型是建筑视觉目标,建筑视觉目标和宠物视觉目标的精彩程度相同,输出建筑视觉目标为跟踪视觉目标。
图8是本发明实施例执行运动视频生成方法数据流向图,图9是本发明一种示例中全景视频关键帧A的示意图,如图8和图9所示,本发明一种示例执行运动视频生成方法的过程如下:
K11:将全景视频中关键帧A(全景图片)输入全景检测器(Detection模型),全景检测器对全景图片的视觉目标进行标记,输出bbox-1、bbox-2以及bbox-3,和bbox-1、bbox-2以及bbox-3的位置坐标。其中,bbox-1的物体类型是建筑、bbox-2的物体类型是人以及bbox-3的物体类型是电线杆。
K12:对bbox-1、bbox-2以及bbox-3的大小进行调整(Resize),调整至同一大小。根据bbox-1、bbox-2以及bbox-3的位置坐标,提取同一大小的bbox-1、bbox-2以及bbox-3中像素点的RGB特征。
K13:将RGB特征输入Ranking模型,Ranking模型对bbox-1、bbox-2以及bbox-3进行精彩程度评分,输出得分最高的bbox-1。
K14:MOTracker模型对bbox-1进行追踪,得到bbox-1对应视觉目标的运动轨迹序列。
K15:最后选择合适的FOV参数来渲染视角运动轨迹序列,产生运动轨迹序列的2D视频,FOV参数可以根据视觉目标的位置和大小进行自适应调整,例如对于高/宽较大的视觉目标,可以采用较大的FOV进行渲染;对于较小的高/宽视觉目标,可以选择较小的FOV参数。
在所述全景视频的每帧图像追踪到所述跟踪视觉目标后,所述方法还包括:利用对视频中物体进行精彩程度评分的神经网络模型对追踪到所述跟踪视觉目标的图像帧提取不同视觉目标对应像素点RGB特征;当任意视觉目标的精彩程度评分大于所述跟踪视觉目标的精彩程度评分,在所述全景视频的每帧图像追踪该任意视觉目标。
本发明一种示例提出全景视频导出方法的一种实现方式,获取全景视频的第一帧全景图像作为关键帧,标记第一帧全景图像的视觉目标,将携带标记的第一帧全景图像输入对视频中物体进行精彩程度评分的神经网络模型,对视频中物体进行精彩程度评分的神经网络模型检测出的精彩程度评分最高的两个跟踪视觉目标:动物A和人类B,在全景视频的第二帧全景图像追踪到动物A和人类B,标记第二帧全景图像的视觉目标,将携带标记的第二帧全景图像输入对视频中物体进行精彩程度评分的神经网络模型,对视频中物体进行精彩程度评分的神经网络模型检测第二帧全景图像,输出精彩程度评分最高的两个跟踪视觉目标为:动物A和动物C,在全景视频追踪动物A、人类B以及动物C。
图10是本发明实施例提出的运动视频生成装置的功能模块图,上述运动视频生成装置设置在终端设备中,如图10所示,所述装置包括:
标记模块10,用于采用目标框标记全景视频中关键帧的至少一个视觉目标;所述关键帧为所述全景视频中的任意图像帧;
评估模块11,用于利用对视频中物体进行精彩程度评分的神经网络模型,基于统一大小后的目标框提取每个视觉目标对应像素点的RGB特征,并根据对应每个视觉目标的RGB特征对每个视觉目标进行精彩程度评估;
选择模块12,用于根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标;
轨迹生成模块13,用于在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列;
投影模块14,用于根据所述运动轨迹序列,将所述跟踪视觉目标对象对应的目标框在所述全景视频的每帧画面占据的图像区域投影成平面图像,获得所述跟踪视觉目标的运动视频。
图10所示实施例提供的运动视频生成装置可用于执行本说明书图1至图9所示方法实施例的技术方案,其实现原理和技术效果可以进一步参考方法实施例中的相关描述。
可选地,所述标记模块具体用于对所述至少一个视觉目标标注物体的位置坐标;
所述轨迹生成模块具体用于根据所述位置坐标,在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列。
可选地,所述装置还包括神经网络训练模块,所述神经网络训练模块具体用于:
获得全景图像;
根据多个维度对精彩程度的评价标准,对所述全景图像中每个物体标注综合得分;所述多个维度包括:目标类别、运动状态、人物属性、显著性;
利用携带标注的全景图像多次训练多层神经网络,直至所述多层神经网络针对物体输出的精彩程度评分与对应标注综合得分相差程度小于预设阈值,将经过多次训练多层神经网络作为所述对视频中物体进行精彩程度评分的神经网络模型。
可选地,所述装置还包括:
响应模块,用于响应用户指定的剪辑指令,获得待显示物体和视频时间长度;
获得模块,用于获得与待显示物体匹配的多个跟踪视觉目标;
选取模块,用于按照所述多个跟踪视觉目标的运动视频各自对应的精彩程度评分大小,顺序选取对应目标运动视频作为待剪辑视频;
截取模块,用于从所述待剪辑视频截取符合所述视频时间长度的片段,获得用户指定的显示物体的运动视频。
可选地,所述评估模块具体用于将所述关键帧的所有视觉目标中精彩程度评分最高的视觉目标确定为跟踪视觉目标。
可选地,所述评估模块具体用于按照精彩程度评分从大到小顺序选取对应视觉目标作为所述跟踪视觉目标,直至所述跟踪视觉目标的数量满足预设数量。
可选地,所述标记模块具体用于对所述至少一个视觉目标标注物体类型;
所述评估模块包括:
评分子模块,用于利用所述预设对视频中物体进行精彩程度评分的神经网络模型,对所述至少一个视觉目标进行精彩程度评分;
输出子模块,用于根据所述至少一个视觉目标的精彩程度评分和所述至少一个视觉目标的类型,输出满足预设条件的跟踪视觉目标。
可选地,所述装置还包括:
提取模块,用于利用对视频中物体进行精彩程度评分的神经网络模型对追踪到所述跟踪视觉目标的图像帧提取不同视觉目标对应像素点RGB特征;
追踪模块,用于当任意视觉目标的精彩程度评分大于所述跟踪视觉目标的精彩程度评分,在所述全景视频的每帧图像追踪该任意视觉目标。
上述所示实施例提供的装置用于执行上述所示方法实施例的技术方案,其实现原理和技术效果可以进一步参考方法实施例中的相关描述,在此不再赘述。
上述所示实施例提供的装置例如可以是:芯片或者芯片模组。上述所示实施例提供的装置用于执行上述所示方法实施例的技术方案,其实现原理和技术效果可以进一步参考方法实施例中的相关描述,在此不再赘述。
关于上述实施例中描述的各个装置包含的各个模块/单元,其可以是软件模块/单元,也可以是硬件模块/单元,或者也可以部分是软件模块/单元,部分是硬件模块/单元。例如,对于应用于或集成于芯片的各个装置,其包含的各个模块/单元可以都采用电路等硬件的方式实现,或者,至少部分模块/单元可以采用软件程序的方式实现,该软件程序运行于芯片内部集成的处理器,剩余的部分模块/单元可以采用电路等硬件方式实现;对于应用于或集成于芯片模组的各个装置,其包含的各个模块/单元可以都采用电路等硬件的方式实现,不同的模块/单元可以位于芯片模组的同一组件(例如芯片、电路模块等)或者不同组件中,或者,至少部分模块/单元可以采用软件程序的方式实现,该软件程序运行于芯片模组内部集成的处理器,剩余的部分模块/单元可以采用电路等硬件方式实现;对于应用于或集成于电子终端设备的各个装置,其包含的各个模块/单元可以都采用电路等硬件的方式实现,不同的模块/单元可以位于电子终端设备内同一组件(例如,芯片、电路模块等)或者不同组件中,或者,至少部分模块/单元可以采用软件程序的方式实现,该软件程序运行于电子终端设备内部集成的处理器,剩余的(如果有)部分模块/单元可以采用电路等硬件方式实现。
图11为本发明实施例提供的一种电子终端设备的结构示意图,该电子终端设备1100包括处理器1110,存储器1111,存储在存储器1111上并可在所述处理器1110上运行的计算机程序,所述处理器1110执行所述程序时实现前述方法实施例中的步骤,实施例提供的电子终端设备可用于执行本上述所示方法实施例的技术方案,其实现原理和技术效果可以进一步参考方法实施例中的相关描述,在此不再赘述。
图12为本说明书一个实施例提供的终端设备的结构示意图,如图12所示,上述终端设备可以包括至少一个处理器;以及与上述处理器通信连接的至少一个存储器,其中:存储器存储有可被处理器执行的程序指令,上述处理器调用上述程序指令能够执行本说明书图1~图9所示实施例提供的运动视频生成方法。
可以理解的是,本发明实施例示意的结构并不构成对终端设备100的具体限定。在本发明另一些实施例中,终端设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
如图12所示,终端设备100可以包括处理器110,外部存储器接口120,内部存储器121,移动通信模块150,无线通信模块160,指示器192,摄像头193,显示屏194等。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
处理器110通过运行存储在内部存储器121中的程序,从而执行各种功能应用以及数据处理,例如实现本发明图1~图9所示实施例提供的运动视频生成方法。
终端设备100的无线通信功能可以通过天线1,天线2,移动通信模块150,无线通信模块160,调制解调处理器以及基带处理器等实现。
天线1和天线2用于发射和接收电磁波信号。终端设备100中的每个天线可用于覆盖单个或多个通信频带。不同的天线还可以复用,以提高天线的利用率。例如:可以将天线1复用为无线局域网的分集天线。在另外一些实施例中,天线可以和调谐开关结合使用。
终端设备100通过GPU,显示屏194,以及应用处理器等实现显示功能。GPU为图像处理的微处理器,连接显示屏194和应用处理器。GPU用于执行数学和几何计算,用于图形渲染。处理器110可包括一个或多个GPU,其执行程序指令以生成或改变显示信息。
显示屏194用于显示图像,视频等。显示屏194包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emittingdiode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrixorganic light emitting diode的,AMOLED),柔性发光二极管(flex light-emittingdiode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot lightemitting diodes,QLED)等。在一些实施例中,终端设备100可以包括1个或N个显示屏194,N为大于1的正整数。
终端设备100可以通过ISP,摄像头193,视频编解码器,GPU,显示屏194以及应用处理器等实现拍摄功能。
ISP用于处理摄像头193反馈的数据。例如,拍照时,打开快门,光线通过镜头被传递到摄像头感光元件上,光信号转换为电信号,摄像头感光元件将所述电信号传递给ISP处理,转化为肉眼可见的图像。ISP还可以对图像的噪点,亮度,肤色进行算法优化。ISP还可以对拍摄场景的曝光,色温等参数优化。在一些实施例中,ISP可以设置在摄像头193中。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。感光元件把光信号转换成电信号,之后将电信号传递给ISP转换成数字图像信号。ISP将数字图像信号输出到DSP加工处理。DSP将数字图像信号转换成标准的RGB,YUV等格式的图像信号。在一些实施例中,终端设备100可以包括1个或N个摄像头193,N为大于1的正整数。
数字信号处理器用于处理数字信号,除了可以处理数字图像信号,还可以处理其他数字信号。例如,当终端设备100在频点选择时,数字信号处理器用于对频点能量进行傅里叶变换等。
视频编解码器用于对数字视频压缩或解压缩。终端设备100可以支持一种或多种视频编解码器。这样,终端设备100可以播放或录制多种编码格式的视频,例如:动态图像专家组(moving picture experts group,MPEG)1,MPEG2,MPEG3,MPEG4等。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。存储数据区可存储终端设备100使用过程中所创建的数据(比如音频数据,电话本等)等。此外,内部存储器121可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件,闪存器件,通用闪存存储器(universal flash storage,UFS)等。处理器110通过运行存储在内部存储器121的指令,和/或存储在设置于处理器中的存储器的指令,执行终端设备100的各种功能应用以及数据处理。
本发明实施例提供一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,所述计算机指令使所述计算机执行本说明书图1~图9所示实施例提供的运动视频生成方法。非暂态计算机可读存储介质可以指非易失性计算机存储介质。
上述非暂态计算机可读存储介质可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(read only memory,ROM)、可擦式可编程只读存储器(erasable programmable read onlymemory,EPROM)或闪存、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括——但不限于——电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于——无线、电线、光缆、射频(radio frequency,RF)等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本说明书操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(localarea network,LAN)或广域网(wide area network,WAN)连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
在本发明实施例的描述中,参考术语“一个实施例”、“一些实施例”、“示例”、“具体示例”、或“一些示例”等的描述意指结合该实施例或示例描述的具体特征、结构、材料或者特点包含于本说明书的至少一个实施例或示例中。在本说明书中,对上述术语的示意性表述不必须针对的是相同的实施例或示例。而且,描述的具体特征、结构、材料或者特点可以在任一个或多个实施例或示例中以合适的方式结合。此外,在不相互矛盾的情况下,本领域的技术人员可以将本说明书中描述的不同实施例或示例以及不同实施例或示例的特征进行结合和组合。
此外,术语“第一”、“第二”仅用于描述目的,而不能理解为指示或暗示相对重要性或者隐含指明所指示的技术特征的数量。由此,限定有“第一”、“第二”的特征可以明示或者隐含地包括至少一个该特征。在本说明书的描述中,“多个”的含义是至少两个,例如两个,三个等,除非另有明确具体的限定。
流程图中或在此以其他方式描述的任何过程或方法描述可以被理解为,表示包括一个或更多个用于实现定制逻辑功能或过程的步骤的可执行指令的代码的模块、片段或部分,并且本说明书的优选实施方式的范围包括另外的实现,其中可以不按所示出或讨论的顺序,包括根据所涉及的功能按基本同时的方式或按相反的顺序,来执行功能,这应被本说明书的实施例所属技术领域的技术人员所理解。
取决于语境,如在此所使用的词语“如果”可以被解释成为“在……时”或“当……时”或“响应于确定”或“响应于检测”。类似地,取决于语境,短语“如果确定”或“如果检测(陈述的条件或事件)”可以被解释成为“当确定时”或“响应于确定”或“当检测(陈述的条件或事件)时”或“响应于检测(陈述的条件或事件)”。
需要说明的是,本发明实施例中所涉及的终端可以包括但不限于个人计算机(personal computer,PC)、个人数字助理(personal digital assistant,PDA)、无线手持设备、平板电脑(tablet computer)、手机、MP3播放器、MP4播放器等。
在本说明书所提供的几个实施例中,应该理解到,所揭露的系统、装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如,多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
另外,在本说明书各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
上述以软件功能单元的形式实现的集成的单元,可以存储在一个计算机可读取存储介质中。上述软件功能单元存储在一个存储介质中,包括若干指令用以使得一台计算机装置(可以是个人计算机,服务器,或者网络装置等)或处理器(processor)执行本说明书各个实施例所述方法的部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM)、随机存取存储器(RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上所述仅为本说明书的较佳实施例而已,并不用以限制本说明书,凡在本说明书的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本说明书保护的范围之内。
Claims (18)
1.一种运动视频生成方法,其特征在于,所述方法包括:
采用目标框标记全景视频中关键帧的至少一个视觉目标;所述关键帧为所述全景视频中的任意图像帧;
利用对视频中物体进行精彩程度评分的神经网络模型,基于统一大小后的目标框提取每个视觉目标对应像素点的RGB特征,并根据对应每个视觉目标的RGB特征对每个视觉目标进行精彩程度评估;
根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标;
在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列;
根据所述运动轨迹序列,将所述跟踪视觉目标对象对应的目标框在所述全景视频的每帧画面占据的图像区域投影成平面图像,获得所述跟踪视觉目标的运动视频。
2.根据权利要求1所述的方法,其特征在于,采用目标框标记全景视频中关键帧的至少一个视觉目标,包括:
对所述至少一个视觉目标标注物体的位置坐标;
在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列,包括:
根据所述位置坐标,在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列。
3.根据权利要求1所述的方法,其特征在于,所述对视频中物体进行精彩程度评分的神经网络模型通过以下方式设定:
获得全景图像;
根据多个维度对精彩程度的评价标准,对所述全景图像中每个物体标注综合得分;所述多个维度包括:目标类别、运动状态、人物属性、显著性;
利用携带标注的全景图像多次训练多层神经网络,直至所述多层神经网络针对物体输出的精彩程度评分与对应标注综合得分相差程度小于预设阈值,将经过多次训练多层神经网络作为所述对视频中物体进行精彩程度评分的神经网络模型。
4.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应用户指定的剪辑指令,获得待显示物体和视频时间长度;
获得与待显示物体匹配的多个跟踪视觉目标;
按照所述多个跟踪视觉目标的运动视频各自对应的精彩程度评分大小,顺序选取对应目标运动视频作为待剪辑视频;
从所述待剪辑视频截取符合所述视频时间长度的片段,获得用户指定的显示物体的运动视频。
5.根据权利要求1所述的方法,其特征在于,根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标,包括:
将所述关键帧的所有视觉目标中精彩程度评分最高的视觉目标确定为跟踪视觉目标。
6.根据权利要求1所述的方法,其特征在于,根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标,包括:
按照精彩程度评分从大到小顺序选取对应视觉目标作为所述跟踪视觉目标,直至所述跟踪视觉目标的数量满足预设数量。
7.根据权利要求1所述的方法,其特征在于,采用目标框标记全景视频中关键帧的至少一个视觉目标,包括:
对所述至少一个视觉目标标注物体类型;
利用对视频中物体进行精彩程度评分的神经网络模型,基于统一大小后的目标框提取每个视觉目标对应像素点的RGB特征,并根据对应每个视觉目标的RGB特征对每个视觉目标进行精彩程度评估,包括:
利用所述对视频中物体进行精彩程度评分的神经网络模型,对所述至少一个视觉目标进行精彩程度评分;
根据所述至少一个视觉目标的精彩程度评分和所述至少一个视觉目标的类型,输出满足预设条件的跟踪视觉目标。
8.根据权利要求1所述的方法,其特征在于,在所述全景视频的每帧图像追踪到所述跟踪视觉目标后,所述方法还包括:
利用所述对视频中物体进行精彩程度评分的神经网络模型对追踪到所述跟踪视觉目标的图像帧提取与所述跟踪视觉目标不同的视觉目标对应像素点RGB特征;
当任意视觉目标的精彩程度评分大于所述跟踪视觉目标的精彩程度评分,在所述全景视频的每帧图像追踪该任意视觉目标。
9.一种运动视频生成装置,其特征在于,所述装置包括:
标记模块,用于采用目标框标记全景视频中关键帧的至少一个视觉目标;所述关键帧为所述全景视频中的任意图像帧;
评估模块,用于利用对视频中物体进行精彩程度评分的神经网络模型,基于统一大小后的目标框提取每个视觉目标对应像素点的RGB特征,并根据对应每个视觉目标的RGB特征对每个视觉目标进行精彩程度评估;
选择模块,用于根据精彩程度评估结果选择至少一个视觉目标作为跟踪视觉目标;
轨迹生成模块,用于在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列;
投影模块,用于根据所述运动轨迹序列,将所述跟踪视觉目标对象对应的目标框在所述全景视频的每帧画面占据的图像区域投影成平面图像,获得所述跟踪视觉目标的运动视频。
10.根据权利要求9所述的装置,其特征在于,所述标记模块具体用于对所述至少一个视觉目标标注物体的位置坐标;
所述轨迹生成模块具体用于根据所述位置坐标,在所述全景视频的每帧图像追踪所述跟踪视觉目标,生成所述跟踪视觉目标在所述全景视频的运动轨迹序列。
11.根据权利要求9所述的装置,其特征在于,所述装置还包括神经网络训练模块,所述神经网络训练模块具体用于:
获得全景图像;
根据多个维度对精彩程度的评价标准,对所述全景图像中每个物体标注综合得分;所述多个维度包括:目标类别、运动状态、人物属性、显著性;
利用携带标注的全景图像多次训练多层神经网络,直至所述多层神经网络针对物体输出的精彩程度评分与对应标注综合得分相差程度小于预设阈值,将经过多次训练多层神经网络作为所述对视频中物体进行精彩程度评分的神经网络模型。
12.根据权利要求9所述的装置,其特征在于,所述装置还包括:
响应模块,用于响应用户指定的剪辑指令,获得待显示物体和视频时间长度;
获得模块,用于获得与待显示物体匹配的多个跟踪视觉目标;
选取模块,用于按照所述多个跟踪视觉目标的运动视频各自对应的精彩程度评分大小,顺序选取对应目标运动视频作为待剪辑视频;
截取模块,用于从所述待剪辑视频截取符合所述视频时间长度的片段,获得用户指定的显示物体的运动视频。
13.根据权利要求9所述的装置,其特征在于,所述评估模块具体用于将所述关键帧的所有视觉目标中精彩程度评分最高的视觉目标确定为跟踪视觉目标。
14.根据权利要求9所述的装置,其特征在于,所述评估模块具体用于按照精彩程度评分从大到小顺序选取对应视觉目标作为所述跟踪视觉目标,直至所述跟踪视觉目标的数量满足预设数量。
15.根据权利要求9所述的装置,其特征在于,所述标记模块具体用于对所述至少一个视觉目标标注物体类型;
所述评估模块包括:
评分子模块,用于利用所述对视频中物体进行精彩程度评分的神经网络模型,对所述至少一个视觉目标进行精彩程度评分;
输出子模块,用于根据所述至少一个视觉目标的精彩程度评分和所述至少一个视觉目标的类型,输出满足预设条件的跟踪视觉目标。
16.根据权利要求9所述的装置,其特征在于,所述装置还包括:
提取模块,用于利用对视频中物体进行精彩程度评分的神经网络模型对追踪到所述跟踪视觉目标的图像帧提取不同视觉目标对应像素点RGB特征;
追踪模块,用于当任意视觉目标的精彩程度评分大于所述跟踪视觉目标的精彩程度评分,在所述全景视频的每帧图像追踪该任意视觉目标。
17.一种终端设备,包括:
至少一个处理器;以及
与所述处理器通信连接的至少一个存储器,其特征在于,
所述存储器存储有可被所述处理器执行的程序指令,所述处理器调用所述程序指令能够执行如权利要求1至8任一所述的方法。
18.一种非暂态计算机可读存储介质,所述非暂态计算机可读存储介质存储计算机指令,其特征在于,所述计算机指令使所述计算机执行如权利要求1至8任一所述的方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210305584.8A CN116862946A (zh) | 2022-03-25 | 2022-03-25 | 运动视频生成方法、装置、终端设备以及存储介质 |
PCT/CN2023/083187 WO2023179692A1 (zh) | 2022-03-25 | 2023-03-22 | 运动视频生成方法、装置、终端设备以及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210305584.8A CN116862946A (zh) | 2022-03-25 | 2022-03-25 | 运动视频生成方法、装置、终端设备以及存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116862946A true CN116862946A (zh) | 2023-10-10 |
Family
ID=88100097
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210305584.8A Pending CN116862946A (zh) | 2022-03-25 | 2022-03-25 | 运动视频生成方法、装置、终端设备以及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN116862946A (zh) |
WO (1) | WO2023179692A1 (zh) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109886998A (zh) * | 2019-01-23 | 2019-06-14 | 平安科技(深圳)有限公司 | 多目标跟踪方法、装置、计算机装置及计算机存储介质 |
CN112241982A (zh) * | 2019-07-18 | 2021-01-19 | 杭州海康威视数字技术股份有限公司 | 一种图像处理方法、装置及机器可读存储介质 |
CN111182218A (zh) * | 2020-01-07 | 2020-05-19 | 影石创新科技股份有限公司 | 全景视频处理方法、装置、设备及存储介质 |
TWI764240B (zh) * | 2020-08-19 | 2022-05-11 | 威聯通科技股份有限公司 | 智慧型影片編輯方法及系統 |
-
2022
- 2022-03-25 CN CN202210305584.8A patent/CN116862946A/zh active Pending
-
2023
- 2023-03-22 WO PCT/CN2023/083187 patent/WO2023179692A1/zh unknown
Also Published As
Publication number | Publication date |
---|---|
WO2023179692A1 (zh) | 2023-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109635621B (zh) | 用于第一人称视角中基于深度学习识别手势的系统和方法 | |
Betancourt et al. | The evolution of first person vision methods: A survey | |
US9959644B2 (en) | Computerized method and device for annotating at least one feature of an image of a view | |
CN109063123B (zh) | 全景视频的标注添加方法及系统 | |
CN113395542B (zh) | 基于人工智能的视频生成方法、装置、计算机设备及介质 | |
CN111754541A (zh) | 目标跟踪方法、装置、设备及可读存储介质 | |
US8457407B2 (en) | Electronic apparatus and image display method | |
CN113010703B (zh) | 一种信息推荐方法、装置、电子设备和存储介质 | |
CN111491187B (zh) | 视频的推荐方法、装置、设备及存储介质 | |
US20210281744A1 (en) | Action recognition method and device for target object, and electronic apparatus | |
CN111209897B (zh) | 视频处理的方法、装置和存储介质 | |
WO2019219083A1 (zh) | 视频检索方法及视频检索映射关系生成方法、装置 | |
CN112381118B (zh) | 一种大学舞蹈考试测评方法及装置 | |
CN113792174B (zh) | 图片显示方法、装置、终端设备以及存储介质 | |
CN116895032A (zh) | 目标追踪方法、装置、终端设备以及存储介质 | |
CN116862946A (zh) | 运动视频生成方法、装置、终端设备以及存储介质 | |
WO2023272495A1 (zh) | 徽标标注方法及装置、徽标检测模型更新方法及系统、存储介质 | |
CN111818364B (zh) | 视频融合方法、系统、设备及介质 | |
CN116862945A (zh) | 全景视频导出方法、装置、终端设备以及存储介质 | |
CN111914850B (zh) | 图片特征提取方法、装置、服务器和介质 | |
KR20140033667A (ko) | 객체 기반 동영상 편집 장치 및 방법 | |
CN114691853A (zh) | 句子推荐方法、装置、设备及计算机可读存储介质 | |
CN111507421A (zh) | 一种基于视频的情感识别方法及装置 | |
CN111079472A (zh) | 图像对比方法和装置 | |
CN112634773B (zh) | 增强现实的呈现方法、装置、展示设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |