CN113709562B - 基于婴儿动作视频自动剪辑方法、装置、设备及存储介质 - Google Patents

基于婴儿动作视频自动剪辑方法、装置、设备及存储介质 Download PDF

Info

Publication number
CN113709562B
CN113709562B CN202111013913.3A CN202111013913A CN113709562B CN 113709562 B CN113709562 B CN 113709562B CN 202111013913 A CN202111013913 A CN 202111013913A CN 113709562 B CN113709562 B CN 113709562B
Authority
CN
China
Prior art keywords
image
video
key frame
entropy
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202111013913.3A
Other languages
English (en)
Other versions
CN113709562A (zh
Inventor
陈辉
熊章
杜沛力
张智
雷奇文
艾伟
胡国湖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan Xingxun Intelligent Technology Co ltd
Original Assignee
Wuhan Xingxun Intelligent Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan Xingxun Intelligent Technology Co ltd filed Critical Wuhan Xingxun Intelligent Technology Co ltd
Priority to CN202111013913.3A priority Critical patent/CN113709562B/zh
Publication of CN113709562A publication Critical patent/CN113709562A/zh
Application granted granted Critical
Publication of CN113709562B publication Critical patent/CN113709562B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/44016Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving splicing one content stream with another content stream, e.g. for substituting a video clip
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Image Analysis (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

本发明属于视频剪辑技术领域,解决了采用常规视频剪辑技术剪辑的婴儿视频,存在流畅性、图像质量差所导致剪辑后的视频质量低的技术问题,提供了基于婴儿动作视频自动剪辑方法、装置、设备及存储介质。该方法包括:获取婴儿视频中各动作的关键帧,通过动作位置筛选出各动作的目标关键帧,根据各目标关键帧进行剪辑,得到各动作类别的剪辑视频。本发明还包括用于执行上述方法的装置、设备及存储介质。本发明利用目标关键帧自动剪辑视频,按动作类别生成剪辑视频,可以提高剪辑效率和剪辑质量,同时为婴儿看护提供参考。

Description

基于婴儿动作视频自动剪辑方法、装置、设备及存储介质
本申请是2021年4月27日提交、发明名称为“婴儿视频自动剪辑的方法、装置、设备及存储介质”申请号为202110461615.4的发明专利申请的分案申请。
技术领域
本发明涉及视频剪辑技术领域,尤其涉及基于婴儿动作视频自动剪辑方法、装置、设备及存储介质。
背景技术
随着计算机和网络技术的发展,电子设备的功能越来越多样化。通过视频剪辑手段将感兴趣的视频段拼接成新的视频越来越受用户喜爱。
现有技术中,用户通过拍摄一段视频,通过手动方式进行截取感兴趣的视频段,然后将各段视频进行拼接,得到感兴趣的视频。在视频中有婴儿的婴儿视频剪辑过程中,由于婴儿完成一个动作常常需要经过多次尝试,且会随着尝试次数增加,而不断提高动作的完成度;若采用常规的视频剪辑方式,剪辑的各帧图像常常存在流畅性差、图像质量差等问题,造成剪辑后的视频质量低,影响用户体验。
发明内容
有鉴于此,本发明实施例提供了一种基于婴儿动作视频自动剪辑方法、装置及设备,用以解决采用常规视频剪辑技术剪辑的婴儿视频,存在流畅性、图像质量差所导致剪辑后的视频质量低的技术问题。
本发明采用的技术方案是:
本发明提供了一种基于婴儿动作视频自动剪辑方法,所述方法包括:
获取待剪辑的婴儿视频中的各图像帧,通过图像帧的合熵筛选出符合要求的各图像帧组成关键帧集合;
将所述关键帧集合送入婴儿动作检测模型中,输出各所述关键帧中婴儿的动作类型标记和动作位置标记;
根据各所述动作类型标记和各所述动作位置标记,确定各关键帧中各动作的居中度,将符合居中度要求的所述关键帧作为目标关键帧;
根据各所述目标关键帧对所述婴儿视频进行裁剪,输出与各动作类别对应的目标视频。
优选地,所述获取待剪辑的婴儿视频中的各图像帧,通过图像帧的合熵筛选出符合要求的各图像帧组成关键帧集合包括:
对各图像帧的合熵大小进行排序,得到合熵序列;
根据所述合熵序列,将在所述合熵序列中的奇数位置或偶数位置的前Q个合熵对应的图像帧作为基准图像组;
将所述基准图像组中符合要求的图像帧作为关键帧,得到所述关键帧集合。
优选地,所述获取待剪辑的婴儿视频中的各图像帧,通过图像帧的合熵筛选出符合要求的各图像帧组成关键帧集合包括:
对各图像帧的合熵按图像帧的时间顺序进行排序,得到合熵序列;
将所述合熵序列分为等时长的Q段子序列;
从各所述子序列分别筛选出一符合要求的合熵对应的图像帧,将Q张符合合熵要求的图像帧作为基准图像组;
将所述基准图像组中符合要求的图像帧作为关键帧,得到所述关键帧集合。
优选地,所述将所述基准图像组中符合要求的图像帧作为关键帧,得到所述关键帧集合包括:
对比所述基准图像组中各所述图像帧的合熵,输出最大合熵值对应的所述图像帧作为参考图像;
计算其余(Q-1)张各所述图像帧与所述参考图像的EMD值,得到与其余(Q-1)张各所述图像帧一一对应的各EMD值;
对各所述EMD值进行排序,输出EMD序列;
根据所述EMD序列以间隔(Q-1)/m进行一次EMD取值,将得到的m个EMD值对应的图像帧组成所述关键帧集合;
其中,m为大于等于1的正整数,且(Q-1)能被m整除,EMD(Earth Mover'sDistance)值为图像帧与参考图像的向量相似度度量。
优选地,所述根据各所述动作类型标记和各所述动作位置标记,确定各关键帧中各动作的居中度,将符合居中度要求的所述关键帧作为目标关键帧包括:
根据各关键帧的所述动作位置标记和所述动作类型标记,按所述动作类型标记给各关键帧分配动作位置坐标;
根据各所述关键帧的所述动作位置坐标,由公式Pi=min(dis(R,k,center(j)))计算各视频段中各关键帧的居中度;
将各视频段中各动作类型的所有关键帧的居中度与居中度阈值对比,将各视频段中各动作类型符合要求的居中度对应的关键帧作为所述目标关键帧;
其中,a、b、c为常数,E表示图像帧的合熵,E(f(iH))表示图像帧的通道H的图像熵,E(f(iS))表示图像帧的通道S的图像熵,E(f(iV))表示图像帧的通道V的图像熵,H为色调、S为饱和度、V为明度,R表示动作位置坐标,Pi中的i表示视频流中第i段视频,k表示第i段视频中包括k个关键帧,Center(j)表示k张关键帧中的第j张关键帧的图像中心点,Pi表示第i段视频的居中度最小值的关键帧,dis表示动作位置坐标到中心点的距离。
优选地,所述根据各关键帧的所述动作位置标记和所述动作类型标记,按所述动作类型标记给各关键帧分配动作位置坐标包括:
获取各关键帧中对应的人体所有骨骼关键点;
将各关键帧中对应的所有骨骼关键点围成一封闭的几何图形;
以各所述几个图像的中点和顶点的连线方式对几何图像进行迭代,得到各所述几何图形的中心坐标;
将各所述几何图形的中心坐标作为对应的各关键帧的所述动作位置坐标。
优选地,所述根据各所述目标关键帧对所述婴儿视频进行裁剪,输出与各动作类别对应的目标视频包括:
获取各动作类别对应的目标视频的预先设置时长和各动作类别对应的目标关键帧的关键帧信息;
根据所述预先设置时长和所述关键帧信息,以小于等于二分之一所述预先设置时长对应的图像帧数量进行视频剪辑,得到各动作类别对应的各视频段;
按时间先后顺序分别对各动作类别对应的视频段进行拼接,得到各动作类别对应的所述目标视频;
其中,关键帧信息包括目标关键帧的位置信息和目标关键帧数量。
本发明还提供了一种基于婴儿动作视频自动剪辑装置,包括:
关键帧提取模块:用于获取待剪辑的婴儿视频中的各图像帧,通过图像帧的合熵筛选出符合要求的各图像帧组成关键帧集合;
关键帧检测模块:用于将所述关键帧集合送入婴儿动作检测模型中,输出各所述关键帧中婴儿的动作类型标记和动作位置标记;
目标关键帧筛选块:用于根据各所述动作类型标记和各所述动作位置标记,确定各关键帧中各动作的居中度,将符合居中度要求的所述关键帧作为目标关键帧;
视频截取模块:用于根据各所述目标关键帧对所述婴儿视频进行裁剪,输出与各动作类别对应的目标视频。
本发明还提供了一种电子设备,包括:至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令,当所述计算机程序指令被所述处理器执行时实现上述任一项所述的方法。
本发明还提供了一种介质,其上存储有计算机程序指令,当所述计算机程序指令被处理器执行时实现上述任一项所述的方法。
综上所述,本发明的有益效果如下:
本发明提供的一种基于婴儿动作视频自动剪辑方法、装置、设备及存储介质,通过婴儿视频中各图像帧的合熵确定的各关键帧;利用婴儿动作检测模型对各关键帧进行检测,得到各关键帧的动作类型和动作位置;根据各关键帧的动作的居中度筛选出各动作类别的目标关键帧,根据目标关键帧对婴儿视频进行裁剪,得到各类别的视频段,然后对各类别的视频段进行独立拼接,得到剪辑的各类别的目标视频;通过目标关键帧自动截取婴儿视频,既能保证各图像帧的图像质量,又能提高剪辑效率;同时,对各视频段分类拼接,可以直观体现婴儿动作的熟练程度,为婴儿看护提供依据。
附图说明
为了更清楚地说明本发明实施例的技术方案,下面将对本发明实施例中所需要使用的附图作简单地介绍,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,这些均在本发明的保护范围内。
图1为本发明实施例1中婴儿视频自动剪辑的方法的流程示意图;
图2为本发明实施例1中获取关键帧集合的流程示意图;
图3为本发明实施例1中通过基准图像帧筛选关键帧集合的流程示意图;
图4为本发明实施例1中通过EMD值获取关键帧集合的流程示意图;
图5为本发明实施例1中通过居中度获取目标关键帧的流程示意图;
图6为本发明实施例1中获取各类别的目标视频的流程示意图;
图7为本发明实施例2中婴儿视频自动剪辑的装置的结构示意图;
图8为本发明实施例3中的电子设备的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述。需要说明的是,在本文中,诸如第一和第二等之类的关系术语仅仅用来将一个实体或者操作与另一个实体或操作区分开来,而不一定要求或者暗示这些实体或操作之间存在任何这种实际的关系或者顺序。在本发明的描述中,需要理解的是,术语“中心”、“上”、“下”、“前”、“后”、“左”、“右”、“竖直”、“水平”、“顶”、“底”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本申请和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。而且,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括……”限定的要素,并不排除在包括所述要素的过程、方法、物品或者设备中还存在另外的相同要素。如果不冲突,本发明实施例中的各个特征可以相互结合,均在本发明的保护范围之内。
实施方式一
实施例1
请参见图1,图1为本发明实施例1中婴儿视频自动剪辑的方法的流程示意图;所述方法包括:
S1:提取待剪辑的婴儿视频中各关键帧,输出关键帧集合;
具体的,利用婴儿的看护相机获取被看护婴儿的婴儿视频,对婴儿视频的各帧进行处理,得到多个关键帧组成的关键帧卷集合;在一应用实施例中,利用熵值法提取婴儿的关键帧。
在一实施例中,请参见图2,所述S1包括:
S11:获取待剪辑的婴儿视频在HSV颜色空间的各图像帧;
具体的,对待剪辑的婴儿视频进行分解,得到各图像帧,然后各图像帧的颜色空间转换为HSV颜色空间,H为色调、S为饱和度、V为明度;利用熵值法进行合熵计算。
S12:根据公式
Figure BDA0003239193020000071
计算各图像帧的各通道的图像熵;
S13:根据各所述图像帧的各通道的图像熵,由公式:E=a*E(f(iH))+b*E(f(is))+c*E(f(iv))得到各所述图像帧的合熵;
S14:根据各所述图像帧的合熵,从所有所述图像帧中筛选出多个所述图像帧组成所述关键帧集合;
其中,a、b、c为常数,Dk表示整幅图像中像素值为k的像素所占的比例,i表示颜色通道,E表示图像帧的合熵,E(f(iH))表示图像帧的通道H的图像熵,E(f(iS))表示图像帧的通道S的图像熵,E(f(iV))表示图像帧的通道V的图像熵,n的取值范围为0到256的整数,H为色调、S为饱和度、V为明度。
具体的,在获得各图像帧后,将图像帧的色彩空间转换为HSV色彩空间,然后计算各通道的图像熵,根据各图像帧对应的色调通道的图像熵E(f(ih))、饱和度通道的图像熵E(f(is))和明度通道的图像熵E(f(iv))得到各图像帧的合熵E;根据各图像帧的合熵E,然后从所有图像帧中筛选出组成关键帧集合的多个图像帧。
在一实施例中,请参见图3,所述S14包括:
S141:获取用于筛选关键帧的图像帧数量Q;
具体的,设置用于选择关键帧的图像帧数量的大小为Q,也就是说,从Q张图像帧中选出用于组成关键帧集合的所有关键帧,其中,Q为正整数。
S142:对各所述图像帧的合熵进行排序,输出合熵序列;
具体的,根据各图像帧的合熵值的大小对各合熵从大到小进行排序,得到合熵序列。
S143:根据所述图像帧数量Q和所述合熵序列,筛选出Q个所述图像帧组成的基准图像组;
S144:对所述基准图像组的各所述图像帧进行筛选,输出所述关键帧集合。
具体的,从合熵序列中筛选出Q个合熵值,将该Q个合熵值对应的图像帧组成基准图像集合。
在一实施例中,从合熵序列中选择合熵值最大的Q个合熵对应的图像帧,该Q张图像帧组成基准图像集合;Q张图像帧的选择方式还可以是:选择前Q个偶数或奇数位置的合熵值对应的图像帧;可以保证筛选出来的图像帧的质量。
在另一应用实施例中,根据各图像帧的时间先后顺序对各合熵进行排序,输出合熵序列,将合熵序列按时间顺序分为相等Q段,从各段分别筛选出一合熵值,从而得到与Q个合熵值对应的Q张关键帧;保证各关键帧之间的连续性,有利于截取视频的流畅性,提高视频的观赏性。
在一实施例中,请参见图4,所述S144包括:
S1441:对比所述基准图像组中各所述图像帧的合熵,输出最大合熵值对应的所述图像帧作为参考图像;
具体的,对比基准图像组中Q张图像帧的各合熵,将合熵值最大的图像帧作为参考图像。
S1442:计算其余(Q-1)张各所述图像帧与所述参考图像的EMD值,得到与其余(Q-1)张各所述图像帧一一对应的各EMD值;
具体的,将其余(Q-1)张图像帧与参考图像进行对比,获得各图像帧与参考图像的EMD值(Earth Mover's Distance,向量相似度度量),EMD值越大,则对应的图像帧与参考图像的相似度越高。
S1443:对各所述EMD值进行排序,输出EMD序列;
S1444:根据所述EMD序列以间隔(Q-1)/m进行一次EMD取值,将得到的m个EMD值对应的图像帧组成所述关键帧集合。
具体的,在EMD序列上每间隔(Q-1)/m取一个EMD值,最终得到m个EMD值,然后由该m个EMD值对应的图像帧构成该关键帧集合,以等时间隔选取关键帧,保持各图像帧的动作位置的自然演变,保证视频的流畅性;其中,m为大于等于1的正整数,且(Q-1)能被m整除。
S2:将所述关键帧集合送入婴儿动作检测模型中,输出各所述关键帧中婴儿的动作类型标记和动作位置标记;
具体的,获取包括婴儿多种动作的样本图像集,动作类型至少包括以下之一:爬、跳、举手、站立、吮吸、挥舞、蹲下和进食等;将该样本图像集输入深度学习分类模型中进行训练,得到可以用于检测婴儿动作类别的动作检测模型;将各关键帧输入动作检测模型中,动作检测模型输出各关键帧对应的动作位置标记和动作类型标记。其中,该动作检测模型采用的是基于MobileNetV2分类模型进行训练得到的一个轻量级分类模型。
需要说明的是:将轻量级模型MobileNetV2作为基础模型,为了能在移动端进行实时的人脸关键点检测,本实验采用最新的轻量化模型——MobileNetV2作为基础模型,在CelebA数据上,进行两级的级联MobileNetV2实现人脸关键点检测,其中,CelebA数据表示:采用的实验数据为公开数据及(CelebFaces Attributes Dataset(CelebA))。
首先,将CelebA数据作为第一级MobileNetV2的输入,经第一级MobileNetV2得到粗略的关键点位置;然后,依据第一级MobileNetV2的输出,将人脸区域从原始数据上裁剪出来作为第二级MobileNetV2的输入;最后,经第二级MobileNetV2输出最终人脸关键点定位信息。经初步训练,得到最终的网络单模型,该网络单模型小于1M,仅956KB,单张图片inference耗时6ms(采用GTX1080在未优化的Caffe)。实验结果表明,将该网络单模型部署到移动终端上作为动作检测模型,利用该动作检测模型可以采用较少的参数获得较好的性能。
需要说明的是:生成目标检测模型不仅限于本实施例提供的MobileNetV2,还可以是MobileNetV1、MobileNetV3、ShuffleNetV1、ShuffleNetV2、SNet等轻量级检测模型,此处不做具体限定。
S3:根据各所述动作类型标记和各所述动作位置标记,输出各动作类型对应的目标关键帧;
具体的,在各段视频中,根据动作类型标记,得到各动作类型对应的各关键帧图像;对比各关键帧中动作位置标记,输出各关键帧的居中度;将居中度最高的关键帧作为该段视频对应动作类型的目标关键帧。
在一实施例中,请参见图5,所述S3包括:
S31:根据各关键帧的所述动作位置标记和所述动作类型标记,按所述动作类型标记给各关键帧分配动作位置坐标;
具体的,将各动作的关键帧进行动作类型和动作位置标记,给各关键帧分配表征关键帧的动作位置坐标,并按动作类型对这个坐标分类,从而将各关键帧转化为多个动作位置坐标,用于计算居中度。
在一实施例中,所述S31包括:
S311:获取各关键帧中对应的人体所有骨骼关键点;
具体的,采集各类动作的所有关键帧对应的人体的骨骼关键点。
S312:将各关键帧中对应的所有骨骼关键点围成一封闭的几何图形;
将每一个关键帧的所有骨骼关键点进行连线,构成与各关键帧一一对应的封闭的几何图形。
S313:将与各关键帧一一对应的所述几何图形中心的坐标作为所述动作位置坐标;
在一实施例中,将几何图像的各顶点与对应的对边中点进行连线;将最终的唯一的交点作为几何图形的中心,将该中心的坐标作为动作位置坐标。
具体的,关键帧的人体的所有骨骼关键点围成的是一个不规则的几何图形;通过顶点与对边中点的连线会得到新的几何图形,且新的几何图形的边数少于前一几何图形的边数,经过多次该操作,最终得到一个交点,该交点作为几何图形的中心,来表征该关键帧。
S32:根据各所述关键帧的所述动作位置坐标,由公式Pi=min(dis(R,k,center(j)))输出所述婴儿视频中各视频段的居中度最小值的关键帧作为所述目标关键帧;
其中,R表示动作位置坐标,Pi中的i表示视频流中第i段视频,k表示第i段视频中包括k个关键帧,Center(j)表示k张关键帧中的第j张关键帧的图像中心点,Pi表示第i段视频的居中度最小值的关键帧,dis表示动作位置坐标到中心点的距离。
具体的,根据关键帧的动作位置标记和关键帧的图像中心点,得到各关键帧居中度,按动作类别对各关键帧进行分类,也就是说,根据动作类别将婴儿视频分为多个视频段,对比各视频段中各关键帧的居中度,将居中度值最小的关键帧作为目标关键帧;通过居中度筛选关键帧,使得目标关键帧的动作最正;使得以目标关键帧截取的视频段显示效果最佳,提高用户体验度。
在一实施例中,所述S3包括:
获取关键帧居中度的居中度阈值;
根据各所述动作位置标记计算各所述关键帧的居中度;
根据各所述关键帧的居中度,由公式Pi=dis(R,k,center(j))计算各视频段中各关键帧的居中度;
将各段视频中各动作类型的所有关键帧的居中度与所述居中度阈值比较,将符合要求的居中度对应的关键帧作为所述目标关键帧;
其中,R表示动作位置坐标,i表示视频流中第i段视频,k表示第i段视频中包括k个关键帧,Center(j)表示k张关键帧中的第j张关键帧的图像中心点,Pi表示第i段视频中各关键帧的居中度,dis表示动作位置标记到中心点的距离。
S4:根据各所述目标关键帧对所述婴儿视频进行裁剪,输出与各动作类别对应的目标视频。
在一实施例中,请参见图6,所述S4包括:
S41:获取各所述目标关键帧的在所述婴儿视频的时间信息和视频流被截取的各视频段的图像帧数;
具体的,对婴儿视频中的各图像帧按时间先后顺序进行排序,根据目标关键帧的时间信息确定在其对应的视频流中的位置,包括:目标关键帧在视频流的开始位置、中间位置或结束位置;同时,获取以目标关键帧对视频流截取视频段对应的图像帧数,也就是说,从视频流截取的视频段中包括的图像帧数量。
在一实施例中,在一所述目标视频中,任一视频段的图像帧数小于等于所述目标视频的总图像帧数的1/2。
具体的,根据各目标关键帧的动作类别标记将截取得到各视频段进行分类;每一类视频段单独拼接成一目标视频;该目标视频需预先设置时长,最后由各视频段拼接出的目标视频的时长要符合预先设置的时长,因此需要设置各视频段的图像帧数,最长的视频段的图像帧数小于等于目标视频的总帧数的1/2;如:一目标视频的时长为T秒,视频帧率为20FPS/秒;总帧数的最大值为MaxF=T×20;各视频段的帧数小于等于MaxF/2;设置各视频段的最大图像帧数,使得各段视频的图像帧数处于相对平衡,保证目标视频的流畅性,提高剪辑效果。
S42:根据各所述目标关键帧对应的所述时间信息,输出各所述目标关键帧对应的视频流的截取方式;
具体的,截取方式包括:截取目标关键帧之前的图像帧和/或截取目标关键帧之后的图像帧。若目标关键帧在带截取视频流的开始位置,则截取目标关键帧之后的图像帧作为视频段;若目标关键帧在带截取视频流的中间位置,则同时截取目标关键帧之前和之后的图像帧作为视频段;若目标关键帧在带截取视频流的结束位置,则同时截取目标关键帧之前的图像帧作为视频段。
S43:根据各所述截取方式和对应的各所述图像帧数,对各所述视频流进行截取,得到与各所述目标关键帧对应的各所述视频段;
S44:根据各所述动作类别标记对各所述视频段进行分类,然后按时间先后顺序对各动作类别的各所述视频段分别进行拼接,输出各动作类别对应的所述目标视频。
具体的,获取各视频段中的目标关键帧,依据各目标关键帧的动作类别标记对各视频段进行分类;然后对各动作类别对应的视频段以时间先后顺序进行拼接,得到各动作类别对应的目标视频;各动作类别单独拼接,可以体现婴儿完成相同动作的差异,掌握婴儿对每一动作的熟练程度,有利于父母对婴儿的看护。如:截取的视频段为婴儿“跳”的动作,通过对比相邻视频段婴儿完成动作的熟练程度,父母可以调整婴儿在进行“跳”时的保护措施,既能保证婴儿安全,又能提高婴儿自主学习能力。
采用本实施例的婴儿视频自动剪辑的方法,提取婴儿视频中的各关键帧;利用婴儿动作检测模型对各关键帧进行检测,得到各关键帧的动作类型和动作位置;根据各关键帧的动作位置筛选出各动作类别的目标关键帧,根据目标关键帧对婴儿视频进行裁剪,得到各类别的视频段,然后对各类别的视频段进行独立拼接,得到剪辑的各类别的目标视频;通过目标关键帧自动截取婴儿视频,既能保证各图像帧的图像质量,又能提高剪辑效率;同时,对各视频段分类拼接,可以直观体现婴儿动作的熟练程度,为婴儿看护提供依据。
实施例2
本发明还提供了一种婴儿视频自动剪辑的装置,请参见图7,包括:
关键帧提取模块:用于提取待剪辑的婴儿视频中各关键帧,输出关键帧集合;
关键帧检测模块:用于将所述关键帧集合送入婴儿动作检测模型中,输出各所述关键帧的动作类型标记和动作位置标记;
目标关键帧筛选模块:用于根据各所述动作类型标记和各所述动作位置标记,输出各动作类型对应的目标关键帧;
视频截取模块:用于根据各所述目标关键帧对所述婴儿视频进行裁剪,输出与各动作类别对应的目标视频。
采用本实施例的通过婴儿视频自动剪辑的装置,提取婴儿视频中的各关键帧;利用婴儿动作检测模型对各关键帧进行检测,得到各关键帧的动作类型和动作位置;根据各关键帧的动作位置筛选出各动作类别的目标关键帧,根据目标关键帧对婴儿视频进行裁剪,得到各类别的视频段,然后对各类别的视频段进行独立拼接,得到剪辑的各类别的目标视频;通过目标关键帧自动截取婴儿视频,既能保证各图像帧的图像质量,又能提高剪辑效率;同时,对各视频段分类拼接,可以直观体现婴儿动作的熟练程度,为婴儿看护提供依据。
在一实施例中,关键帧提取包括:
颜色空间转换单元:获取待剪辑的婴儿视频在HSV颜色空间的各图像帧;
通道的图像熵单元:根据公式
Figure BDA0003239193020000151
计算各图像帧的各通道的图像熵;
图像的合熵单元:根据各所述图像帧的各通道的图像熵,由公式:E=a*E(f(iH))+b*E(f(is))+c*E(f(iv))得到各所述图像帧的合熵;
关键帧集合单元:根据各所述图像帧的合熵,从所有所述图像帧中筛选出多个所述图像帧组成所述关键帧集合;
其中,a、b、c为常数,Dk表示整幅图像中像素值为k的像素所占的比例,i表示颜色通道,Ei表示图像帧的通道i的图像熵,E(f(iS))表示图像帧的通道S的图像熵,E(f(iV))表示图像帧的通道V的图像熵,n的取值范围为0到256的整数,H为色调、S为饱和度、V为明度。
优选地,关键帧集合单元包括:
图像帧数量单元:获取用于筛选关键帧的图像帧数量Q;
合熵序列单元:对各所述图像帧的合熵进行排序,输出合熵序列;
基准图像单元:根据所述图像帧数量Q和所述合熵序列,筛选出Q个所述图像帧组成的基准图像组;
图像帧筛选单元:对所述基准图像组的各所述图像帧进行筛选,输出所述关键帧集合;
其中,Q为正整数。
在一实施例中,图像帧筛选单元包括:
参考图像单元:对比所述基准图像组中各所述图像帧的合熵,输出最大合熵值对应的所述图像帧作为参考图像;
EMD值计算单元:计算其余(Q-1)张各所述图像帧与所述参考图像的EMD值,得到与其余(Q-1)张各所述图像帧一一对应的各EMD值;
EMD值序列单元:对各所述EMD值进行排序,输出EMD序列;
EMD值取点单元:根据所述EMD序列以间隔(Q-1)/m进行一次EMD取值,将得到的m个EMD值对应的图像帧组成所述关键帧集合;
其中,m为大于等于1的正整数,且(Q-1)能被m整除,EMD(Earth Mover'sDistance)值为图像帧与参考图像的向量相似度度量。
在一实施例中,所述目标关键帧筛选模块包括:
居中度参数单元:根据各关键帧的所述动作位置标记和所述动作类型标记,按所述动作类型标记给各关键帧分配动作位置坐标;
居中度计算单元:根据各所述关键帧的居中度,由公式Pi=min(dis(R,k,center(j)))输出所述婴儿视频中各视频段的居中度最小值的关键帧作为所述目标关键帧;
其中,R表示动作位置坐标,Pi中的i表示视频流中第i段视频,k表示第i段视频中包括k个关键帧,Center(j)表示k张关键帧中的第j张关键帧的图像中心点,Pi表示第i段视频的居中度最小值的关键帧,dis表示动作位置标记到中心点的距离。
在一实施例中,所述视频截取模块包括:
图像帧数量单元:获取各所述目标关键帧的在所述婴儿视频的时间信息和视频流被截取的各视频段的图像帧数;
截取方式单元:根据各所述目标关键帧对应的所述时间信息,输出各所述目标关键帧对应的视频流的截取方式;
截取单元:根据各所述截取方式和对应的各所述图像帧数,对各所述视频流进行截取,得到与各所述目标关键帧对应的各所述视频段;
视频拼接单元:根据各所述动作类别标记对各所述视频段进行分类,然后按时间先后顺序对各动作类别的各所述视频段分别进行拼接,输出各动作类别对应的所述目标视频。
在一实施例中,在一所述目标视频中,任一视频段的图像帧数小于等于所述目标视频的总图像帧数的1/2。
采用本实施例的通过婴儿视频自动剪辑的装置,提取婴儿视频中的各关键帧;利用婴儿动作检测模型对各关键帧进行检测,得到各关键帧的动作类型和动作位置;根据各关键帧的动作位置筛选出各动作类别的目标关键帧,根据目标关键帧对婴儿视频进行裁剪,得到各类别的视频段,然后对各类别的视频段进行独立拼接,得到剪辑的各类别的目标视频;通过目标关键帧自动截取婴儿视频,既能保证各图像帧的图像质量,又能提高剪辑效率;同时,对各视频段分类拼接,可以直观体现婴儿动作的熟练程度,为婴儿看护提供依据。
实施例3
本发明提供了一种电子设备,如图8所示,包括至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令。
具体地,上述处理器可以包括中央处理器(CPU),或者特定集成电路(ApplicationSpecific Integrated Circuit,ASIC),或者可以被配置成实施本发明实施例的一个或多个集成电路,电子设备至少包括以下之一:摄像头、具有摄像头的移动设备、具有摄像头的穿戴设备。
存储器可以包括用于数据或指令的大容量存储器。举例来说而非限制,存储器可包括硬盘驱动器(Hard Disk Drive,HDD)、软盘驱动器、闪存、光盘、磁光盘、磁带或通用串行总线(Universal Serial Bus,USB)驱动器或者两个或更多个以上这些的组合。在合适的情况下,存储器可包括可移除或不可移除(或固定)的介质。在合适的情况下,存储器可在数据处理装置的内部或外部。在特定实施例中,存储器是非易失性固态存储器。在特定实施例中,存储器包括只读存储器(ROM)。在合适的情况下,该ROM可以是掩模编程的ROM、可编程ROM(PROM)、可擦除PROM(EPROM)、电可擦除PROM(EEPROM)、电可改写ROM(EAROM)或闪存或者两个或更多个以上这些的组合。
处理器通过读取并执行存储器中存储的计算机程序指令,以实现上述实施例方式一中任意一种婴儿视频自动剪辑的方法。
在一个示例中,电子设备还可包括通信接口和总线。其中,处理器、存储器、通信接口通过总线连接并完成相互间的通信。
通信接口,主要用于实现本发明实施例中各模块、装置、单元和/或设备之间的通信。
总线包括硬件、软件或两者,将电子设备的部件彼此耦接在一起。举例来说而非限制,总线可包括加速图形端口(AGP)或其他图形总线、增强工业标准架构(EISA)总线、前端总线(FSB)、超传输(HT)互连、工业标准架构(ISA)总线、无限带宽互连、低引脚数(LPC)总线、存储器总线、微信道架构(MCA)总线、外围组件互连(PCI)总线、PCI-Express(PCI-X)总线、串行高级技术附件(SATA)总线、视频电子标准协会局部(VLB)总线或其他合适的总线或者两个或更多个以上这些的组合。在合适的情况下,总线可包括一个或多个总线。尽管本发明实施例描述和示出了特定的总线,但本发明考虑任何合适的总线或互连。
综上所述,本发明实施例提供了一种婴儿视频自动剪辑的方法、装置、设备及存储介质,提取婴儿视频中的各关键帧;利用婴儿动作检测模型对各关键帧进行检测,得到各关键帧的动作类型和动作位置;根据各关键帧的动作位置筛选出各动作类别的目标关键帧,根据目标关键帧对婴儿视频进行裁剪,得到各类别的视频段,然后对各类别的视频段进行独立拼接,得到剪辑的各类别的目标视频;通过目标关键帧自动截取婴儿视频,既能保证各图像帧的图像质量,又能提高剪辑效率;同时,对各视频段分类拼接,可以直观体现婴儿动作的熟练程度,为婴儿看护提供依据。
需要明确的是,本发明并不局限于上文所描述并在图中示出的特定配置和处理。为了简明起见,这里省略了对已知方法的详细描述。在上述实施例中,描述和示出了若干具体的步骤作为示例。但是,本发明的方法过程并不限于所描述和示出的具体步骤,本领域的技术人员可以在领会本发明的精神后,作出各种改变、修改和添加,或者改变步骤之间的顺序。
以上所述的结构框图中所示的功能块可以实现为硬件、软件、固件或者它们的组合。当以硬件方式实现时,其可以例如是电子电路、专用集成电路(ASIC)、适当的固件、插件、功能卡等等。当以软件方式实现时,本发明的元素是被用于执行所需任务的程序或者代码段。程序或者代码段可以存储在机器可读介质中,或者通过载波中携带的数据信号在传输介质或者通信链路上传送。“机器可读介质”可以包括能够存储或传输信息的任何介质。机器可读介质的例子包括电子电路、半导体存储器设备、ROM、闪存、可擦除ROM(EROM)、软盘、CD-ROM、光盘、硬盘、光纤介质、射频(RF)链路,等等。代码段可以经由诸如因特网、内联网等的计算机网络被下载。
最后应说明的是:以上各实施例仅用以说明本发明的技术方案,而非对其限制;尽管参照前述各实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:其依然可以对前述各实施例所记载的技术方案进行修改,或者对其中部分或者全部技术特征进行等同替换;而这些修改或者替换,并不使相应技术方案的本质脱离本发明各实施例技术方案的范围。

Claims (10)

1.一种基于婴儿动作视频自动剪辑方法,其特征在于,所述方法包括:
获取待剪辑的婴儿视频中的各图像帧,根据各所述图像帧的各通道的图像熵,由公式:E=a*E(f(iH))+b*E(f(is))+c*E(f(iv))得到各所述图像帧的合熵;通过图像帧的合熵筛选出符合要求的各图像帧组成关键帧集合;
其中,a、b、c为常数,i表示颜色通道,E表示图像帧的合熵,E(f(iH))表示图像帧的通道H的图像熵,E(f(iS))表示图像帧的通道S的图像熵,E(f(iV))表示图像帧的通道V的图像熵,H为色调、S为饱和度、V为明度;
将所述关键帧集合送入婴儿动作检测模型中,输出各所述关键帧中婴儿的动作类型标记和动作位置标记;
根据各所述动作类型标记和各所述动作位置标记,确定各关键帧中各动作的居中度,将符合居中度要求的所述关键帧作为目标关键帧;
根据各所述目标关键帧对所述婴儿视频进行裁剪,输出与各动作类别对应的目标视频。
2.根据权利要求1所述基于婴儿动作视频自动剪辑方法,其特征在于,所述获取待剪辑的婴儿视频中的各图像帧,通过图像帧的合熵筛选出符合要求的各图像帧组成关键帧集合包括:
对各图像帧的合熵大小进行排序,得到合熵序列;
根据所述合熵序列,将在所述合熵序列中的奇数位置或偶数位置的前Q个合熵对应的图像帧作为基准图像组;
将所述基准图像组中符合要求的图像帧作为关键帧,得到所述关键帧集合。
3.根据权利要求1所述基于婴儿动作视频自动剪辑方法,其特征在于,所述获取待剪辑的婴儿视频中的各图像帧,通过图像帧的合熵筛选出符合要求的各图像帧组成关键帧集合包括:
对各图像帧的合熵按图像帧的时间顺序进行排序,得到合熵序列;
将所述合熵序列分为等时长的Q段子序列;
从各所述子序列分别筛选出一符合要求的合熵对应的图像帧,将Q张符合合熵要求的图像帧作为基准图像组;
将所述基准图像组中符合要求的图像帧作为关键帧,得到所述关键帧集合。
4.根据权利要求2或3所述基于婴儿动作视频自动剪辑方法,其特征在于,所述将所述基准图像组中符合要求的图像帧作为关键帧,得到所述关键帧集合包括:
对比所述基准图像组中各所述图像帧的合熵,输出最大合熵值对应的所述图像帧作为参考图像;
计算其余(Q-1)张各所述图像帧与所述参考图像的EMD值,得到与其余(Q-1)张各所述图像帧一一对应的各EMD值;
对各所述EMD值进行排序,输出EMD序列;
根据所述EMD序列以间隔(Q-1)/m进行一次EMD取值,将得到的m个EMD值对应的图像帧组成所述关键帧集合;
其中,m为大于等于1的正整数,且(Q-1)能被m整除,EMD(Earth Mover's Distance)值为图像帧与参考图像的向量相似度度量。
5.根据权利要求1所述基于婴儿动作视频自动剪辑方法,其特征在于,所述根据各所述动作类型标记和各所述动作位置标记,确定各关键帧中各动作的居中度,将符合居中度要求的所述关键帧作为目标关键帧包括:
根据各关键帧的所述动作位置标记和所述动作类型标记,按所述动作类型标记给各关键帧分配动作位置坐标;
根据各所述关键帧的所述动作位置坐标,由公式计算各视频段中各关键帧的居中度;
将各视频段中各动作类型的所有关键帧的居中度与居中度阈值对比,将各视频段中各动作类型符合要求的居中度对应的关键帧作为所述目标关键帧。
6.根据权利要求5所述基于婴儿动作视频自动剪辑方法,其特征在于,所述根据各关键帧的所述动作位置标记和所述动作类型标记,按所述动作类型标记给各关键帧分配动作位置坐标包括:
获取各关键帧中对应的人体所有骨骼关键点;
将各关键帧中对应的所有骨骼关键点围成一封闭的几何图形;
以各所述几何图形的中点和顶点的连线方式对几何图形进行迭代,得到各所述几何图形的中心坐标;
将各所述几何图形的中心坐标作为对应的各关键帧的所述动作位置坐标。
7.根据权利要求1所述的基于婴儿动作视频自动剪辑方法,其特征在于,所述根据各所述目标关键帧对所述婴儿视频进行裁剪,输出与各动作类别对应的目标视频包括:
获取各动作类别对应的目标视频的预先设置时长和各动作类别对应的目标关键帧的关键帧信息;
根据所述预先设置时长和所述关键帧信息,以小于等于二分之一所述预先设置时长对应的图像帧数量进行视频剪辑,得到各动作类别对应的各视频段;
按时间先后顺序分别对各动作类别对应的视频段进行拼接,得到各动作类别对应的所述目标视频;
其中,关键帧信息包括目标关键帧的位置信息和目标关键帧数量。
8.一种基于婴儿动作视频自动剪辑装置,其特征在于,包括:
关键帧提取模块:用于获取待剪辑的婴儿视频中的各图像帧,根据各所述图像帧的各通道的图像熵,由公式:E=a*E(f(iH))+b*E(f(is))+c*E(f(iv))得到各所述图像帧的合熵;通过图像帧的合熵筛选出符合要求的各图像帧组成关键帧集合;
其中,a、b、c为常数,i表示颜色通道,E表示图像帧的合熵,E(f(iH))表示图像帧的通道H的图像熵,E(f(iS))表示图像帧的通道S的图像熵,E(f(iV))表示图像帧的通道V的图像熵,H为色调、S为饱和度、V为明度;
关键帧检测模块:用于将所述关键帧集合送入婴儿动作检测模型中,输出各所述关键帧中婴儿的动作类型标记和动作位置标记;
目标关键帧筛选块:用于根据各所述动作类型标记和各所述动作位置标记,确定各关键帧中各动作的居中度,将符合居中度要求的所述关键帧作为目标关键帧;
视频截取模块:用于根据各所述目标关键帧对所述婴儿视频进行裁剪,输出与各动作类别对应的目标视频。
9.一种电子设备,其特征在于,包括:至少一个处理器、至少一个存储器以及存储在所述存储器中的计算机程序指令,当所述计算机程序指令被所述处理器执行时实现如权利要求1-7中任一项所述的方法。
10.一种介质,其上存储有计算机程序指令,其特征在于,当所述计算机程序指令被处理器执行时实现如权利要求1-7中任一项所述的方法。
CN202111013913.3A 2021-04-27 2021-04-27 基于婴儿动作视频自动剪辑方法、装置、设备及存储介质 Active CN113709562B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111013913.3A CN113709562B (zh) 2021-04-27 2021-04-27 基于婴儿动作视频自动剪辑方法、装置、设备及存储介质

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202110461615.4A CN113038272B (zh) 2021-04-27 2021-04-27 婴儿视频自动剪辑的方法、装置、设备及存储介质
CN202111013913.3A CN113709562B (zh) 2021-04-27 2021-04-27 基于婴儿动作视频自动剪辑方法、装置、设备及存储介质

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
CN202110461615.4A Division CN113038272B (zh) 2021-04-27 2021-04-27 婴儿视频自动剪辑的方法、装置、设备及存储介质

Publications (2)

Publication Number Publication Date
CN113709562A CN113709562A (zh) 2021-11-26
CN113709562B true CN113709562B (zh) 2023-05-16

Family

ID=76454700

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202111013913.3A Active CN113709562B (zh) 2021-04-27 2021-04-27 基于婴儿动作视频自动剪辑方法、装置、设备及存储介质
CN202110461615.4A Active CN113038272B (zh) 2021-04-27 2021-04-27 婴儿视频自动剪辑的方法、装置、设备及存储介质

Family Applications After (1)

Application Number Title Priority Date Filing Date
CN202110461615.4A Active CN113038272B (zh) 2021-04-27 2021-04-27 婴儿视频自动剪辑的方法、装置、设备及存储介质

Country Status (1)

Country Link
CN (2) CN113709562B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113362324B (zh) * 2021-07-21 2023-02-24 上海脊合医疗科技有限公司 一种基于视频图像的骨骼健康检测方法及系统
CN116761035B (zh) * 2023-05-26 2024-05-07 武汉星巡智能科技有限公司 基于母婴喂食行为识别的视频智能剪辑方法、装置及设备
CN117011179A (zh) * 2023-08-09 2023-11-07 北京精英路通科技有限公司 一种图像转换方法、装置、电子设备及存储介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012037715A1 (en) * 2010-09-20 2012-03-29 Nokia Corporation Identifying a key frame from a video sequence
CN107358141A (zh) * 2016-05-10 2017-11-17 阿里巴巴集团控股有限公司 数据识别的方法及装置
CN111523510A (zh) * 2020-05-08 2020-08-11 国家邮政局邮政业安全中心 行为识别方法、装置、系统、电子设备及存储介质
CN111654719A (zh) * 2020-06-11 2020-09-11 三峡大学 基于排列熵算法的视频微小运动检测方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3513566A4 (en) * 2016-09-16 2019-09-11 Second Spectrum, Inc. METHODS AND SYSTEMS FOR SPATIOTEMPOREL PATTERN RECOGNITION FOR VIDEO CONTENT DEVELOPMENT
CN108734095B (zh) * 2018-04-10 2022-05-20 南京航空航天大学 一种基于3d卷积神经网络的动作检测方法
CN208227194U (zh) * 2018-04-16 2018-12-11 苏州竺星信息科技有限公司 一种运动视频集锦自动生成系统
CN110263650B (zh) * 2019-05-22 2022-02-22 北京奇艺世纪科技有限公司 行为类别检测方法、装置、电子设备和计算机可读介质
CN112883817A (zh) * 2021-01-26 2021-06-01 咪咕文化科技有限公司 动作定位方法、装置、电子设备和存储介质

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012037715A1 (en) * 2010-09-20 2012-03-29 Nokia Corporation Identifying a key frame from a video sequence
CN107358141A (zh) * 2016-05-10 2017-11-17 阿里巴巴集团控股有限公司 数据识别的方法及装置
CN111523510A (zh) * 2020-05-08 2020-08-11 国家邮政局邮政业安全中心 行为识别方法、装置、系统、电子设备及存储介质
CN111654719A (zh) * 2020-06-11 2020-09-11 三峡大学 基于排列熵算法的视频微小运动检测方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
王疏华等.基于图像熵的全局和局部混合方法的关键帧提取.软件导刊.2018,第17卷(第2期),213-215+218. *

Also Published As

Publication number Publication date
CN113709562A (zh) 2021-11-26
CN113038272B (zh) 2021-09-28
CN113038272A (zh) 2021-06-25

Similar Documents

Publication Publication Date Title
CN113709562B (zh) 基于婴儿动作视频自动剪辑方法、装置、设备及存储介质
CN110430443B (zh) 视频镜头剪切的方法、装置、计算机设备及存储介质
US8593523B2 (en) Method and apparatus for capturing facial expressions
US9495754B2 (en) Person clothing feature extraction device, person search device, and processing method thereof
US8280165B2 (en) System and method for segmenting foreground and background in a video
CN112446342B (zh) 关键帧识别模型训练方法、识别方法及装置
CN110889334A (zh) 人员闯入识别方法及装置
CN113194359B (zh) 自动抓取婴儿精彩视频集锦的方法、装置、设备及介质
CN104156715A (zh) 一种终端设备、信息采集方法及装置
CN110460838B (zh) 一种镜头切换的检测方法、装置及计算机设备
CN113011403B (zh) 手势识别方法、系统、介质及设备
CN110795975B (zh) 人脸误检优化方法及装置
CN112132797B (zh) 一种短视频质量筛选方法
CN116682176A (zh) 智能生成婴幼儿视频标签的方法、装置、设备及存储介质
CN112257628A (zh) 一种户外比赛运动员的身份识别方法、装置及设备
CN116095363A (zh) 基于关键行为识别的移动端短视频高光时刻剪辑方法
CN114727093B (zh) 数据分析方法、装置、电子设备及计算机存储介质
CN111160279B (zh) 利用小样本生成目标识别模型的方法、装置、设备及介质
CN106446820A (zh) 动态视频编辑中的背景特征点识别方法及装置
CN116761035B (zh) 基于母婴喂食行为识别的视频智能剪辑方法、装置及设备
CN111144363B (zh) 一种基于场景和物体信息的第一视角下的行为识别方法
CN108804981A (zh) 基于长时间视频序列背景建模框架的运动目标检测方法
CN113920153B (zh) 基于编码-解码网络的深度运动分离方法
CN117425043A (zh) 婴幼儿精彩视频智能剪辑方法、装置、设备及存储介质
CN114266997A (zh) 视频动作识别模型的训练方法、装置、计算设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant