CN111583304A - 一种优化视频关键人物运动轨迹的特征提取方法 - Google Patents
一种优化视频关键人物运动轨迹的特征提取方法 Download PDFInfo
- Publication number
- CN111583304A CN111583304A CN202010385348.2A CN202010385348A CN111583304A CN 111583304 A CN111583304 A CN 111583304A CN 202010385348 A CN202010385348 A CN 202010385348A CN 111583304 A CN111583304 A CN 111583304A
- Authority
- CN
- China
- Prior art keywords
- track
- tracks
- video
- frame
- motion
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种优化视频关键人物运动轨迹的特征提取方法。该方法首先对输入的视频进行切分得到多个视频片段,在每个视频片段构成由不同帧上的特征点组成的多条轨迹;接着对视频片段中的每帧图像进行关键人物运动框构建,并判断各条轨迹中的特征点在人物检测框中的个数是否大于阈值,删除与关键人物运动无关的轨迹;最后计算经过初优化后的轨迹之间的余弦度并删除小于阈值的轨迹,完成对视频中关键人物的轨迹优化。本发明方法解决了冗余轨迹较多的问题,又避免了在复杂背景的变化对关键人物运动轨迹的影响,能够有效地提取出运动人物的运动特征,具有较好的实用性和鲁棒性。
Description
技术领域
本发明涉及一种优化视频关键人物运动轨迹的特征提取方法,属于计算机视觉、行为识别和人工智能交叉技术应用领域。
背景技术
近年来,视频人物行为识别是计算机视觉和人工智能的一个重要研究课题,尤其是视频人物动作的特征提取对视频人物的识别起着重要的作用,决定了识别的精度的高低,往往具有重要的理论意义和实际应用价值。
在视频人物行为识别中,最重要的步骤是对于视频人物动作的特征提取,现在主流的特征提取方式之一是通过计算特征点运动的光流场从而跟踪特征点运动从而形成轨迹。轨迹特征在一定程度上可以很好的表示人物的运动,但是通过传统的iDT算法生成的轨迹存在冗余轨迹过多的问题,通过删除iDT算法中的部分冗余轨迹可以在很大程度上减少计算的复杂度,同时减少与人物运动无关的轨迹可以提高识别精度。
对于iDT算法的优化视频关键人物运动轨迹的特征提取涉及以下三种方法:
(1)iDT算法:计算整个视频序列的光流场,同时对每个视频片段的首帧进行特征点的采样,通过光流场可以计算得到该兴趣点在下一帧的位置,通过跟踪该兴趣点在每一帧中的位置可以形成描述人物运动的轨迹。
(2)Faster R-CNN网络:Faster R-CNN是由区域建议网络(Region ProposalNetwork,RPN)和Fast R-CNN组成的目标检测算法,主要是通过RPN来找寻可能是目标的一个区域,然后通过Fast R-CNN对RPN的结构进一步优化。
(3)余弦相似度:通过计算两个向量的夹角的余弦值来评估两者的相似度。
发明内容
本发明的目是提供一种一种优化视频关键人物运动轨迹的特征提取方法,以解决密集轨迹算法中冗余轨迹较多的问题。通过删除和减少iDT算法中与人物动作无关的背景轨迹和人物运动的相似轨迹,获取通过Faster R-CNN检测框的人物轨迹对iDT算法中产生的所有轨迹进行初优化,再计算经过初优化后所有轨迹之间的余弦测量度来得到描述人物动作的特征轨迹从而完成人物运动的特征提取。
一种优化视频关键人物运动轨迹的特征提取方法,包括以下步骤:
步骤1,对输入的视频进行切分得到多个视频片段,在每个视频片段构成由不同帧上的特征点组成的多条轨迹;
步骤2,接着对视频片段中的每帧图像进行关键人物运动框构建,并判断各条轨迹中的特征点在人物检测框中的个数是否大于阈值,从而删除与关键人物运动无关的轨迹;
步骤3,最后计算经过初优化后的轨迹之间的余弦度并删除小于阈值的轨迹,从而完成对于视频中关键人物的轨迹优化。
所述步骤1具体为:将输入的视频分解为包含L帧的多个视频片段,采用步长为5*5的采样框对各个视频片段的不同帧进行特征点采样,设置第s个视频片段中第t帧的第m个特征点坐标为ps,t,m=(xs,t,m,ys,t,m),其中xs,t,m和ys,t,m分别表示第s个视频片段第t帧中第m个特征点的横坐标和纵坐标,则在第t+1帧中第m个特征点通过密集光流场的得到,计算如下:
其中,M表示中值滤波器,尺寸大小为3×3,ωs,t,m=(μs,t,m,υs,t,m),表示第s个视频片段第t帧中的第m个特征点密集光流场,μs,t,m和υs,t,m分别表示光流的水平分量和垂直分量,则第s个视频片段中一条由特征点m构成的轨迹为Ps,m=(ps,0,m,ps,1,m,...,ps,k,m,...,ps,L-1,m),其中,0≤k≤L-1且k为整数。
所述步骤2中,使用Faster R-CNN对第s个视频片段中每一帧进行人体运动框检测,判断视频片段的各帧中特征点是否在人体运动检测框内,统计轨迹中特征点在检测框内的个数,通过判断特征点在人体检测框的个数来对轨迹进行删除和保留,所述Faster R-CNN是通过构建区域建议网络和Fast R-CNN对视频中的目标人物进行检测和判定。
所述步骤2包括如下步骤:
步骤21,使用基于VGG16的Faster R-CNN网络生成每个视频片段中每帧进行关键人物运动的人物检测框,第s个视频片段所有帧的人体运动检测框检测组成的集合表示为Hs,具体表示如下:
Hs=[hs,0,hs,1,...,hs,k,...,hs,L-1]
其中,hs,k=(as,k,bs,k,rs,k,cs,k)表示第s个视频片段中第k帧的人体运动检测框,as,k,bs,k分别表示第s个视频片段中第k帧人体运动检测框左上角的横坐标和纵坐标,rs,k,cs,k分别表示检测框的高度和长度;
步骤22,判断步骤1得到的轨迹Ps,m上的特征点是否在步骤21中各帧中的人体运动检测框Hs之内,计算过程如下:
对Ps,m中第k帧上第m个轨迹点ps,k,m,设置num=0,如果as,k≤xs,k,m≤as,k+cs,k且bs,k≥ys,k,m≥bs,k+rs,k,则num=num+1;否则,num不变;其中,num表示轨迹Ps,m上的所有特征点在人体检测框内的和;设置res=0,阈值β,并进行以下判断:
如果num≥β,则保留该轨迹,res=res+1;
如果num<β,则删除该轨迹,res不变;
其中,res表示经过初优化轨迹的个数,经过对视频片段s中所有轨迹的判断,得到初优化的轨迹的集合为Ts,Ts=(Ps,1,Ps,2,...,Ps,n,...,Ps,res),其中,1≤n≤res且n为整数。
所述步骤3中,计算步骤2中经过初优化后的轨迹之间的余弦相似度,首先将第一条轨迹保留,然后计算其余轨迹与第一条轨迹之间的余弦相似度,从而将剩余轨迹分入保留轨迹的集合和删除轨迹的集合,然后遍历保留轨迹集合中的所有轨迹,计算所述保留轨迹与删除轨迹集合中的所有轨迹之间的余弦相似度,进一步更新保留轨迹集合和删除轨迹集合,最终得到的保留轨迹的集合即可作为视频人物运动特征提取的结果。
所述步骤3包括如下步骤:
步骤31,设置Tsave和Tdel分别为保留轨迹的集合和删除轨迹集合,保留步骤22得到的Ts中的第一条轨迹Ps,1到集合Tsave中;
步骤32,计算Ts中其他轨迹和Ps,1间的余弦相似度,设置阈值来判定该轨迹是否删除,假设Ps,e是Ts中的任意轨迹,其中1≤e≤res且e为整数,利用ΔPs,n表示轨迹在各帧之间关键点的偏移,具体计算公式如下:
ΔPs,n=(Δps,0,n,Δps,1,n,...,Δps,k,n,...,Δps,L-2,n)
其中,n表示第n段轨迹,Δps,k,n表示关键点在第k帧和第k+1帧的位移,具体计算公式如下:
Ps,1和Ps,e两条轨迹在各帧之间关键点的偏移为:
ΔPs,1=(Δps,0,1,Δps,1,1,...,Δps,k,1,...,Δps,L-2,1)
ΔPs,e=(Δps,0,e,Δps,1,e,...,Δps,k,e,...,Δps,L-2,e)
则轨迹Ps,1和Ps,e之间的余弦测量度λ表示为:
步骤33,从步骤32中得到了删除轨迹集合Tdel和保留轨迹集合Tsave,遍历保留轨迹集合Tsave中的所有轨迹,并与删除轨迹集合Tdel中所有轨迹进行步骤32,每次遍历都及时更新删除轨迹集合Tdel和保留轨迹集合Tsave,最终,在保留轨迹集合Tsave中的所有轨迹可以作为描述视频人物运动的轨迹特征信息进行特征提取。
有益效果:本发明提出的一种优化视频关键人物运动轨迹的特征提取方法,具体有益效果如下:
(1)本发明通过获取人体检测框的轨迹,减少了背景运动轨迹的干扰,具有良好的实用性和鲁棒性,能够有效提取与人物运动相关的轨迹。
(2)本发明将初优化后的轨迹进行相似度检测,减少了重复描述人物运动的轨迹,更能表示视频中人物的运动特征。
(3)本发明通过大大减少与人物无关的背景变化轨迹和重复描述人物运动的轨迹,降低了计算的成本。
附图说明
图1是一种优化视频关键人物运动轨迹的特征提取方法流程。
图2是基于Faster R-CNN的网络结构图。
图3是轨迹经过初优化后通过余弦相似度筛选的流程图。
具体实施方式
下面对本发明附图的某些实施例作更加详细的描述。
在具体实施中,图1是基于iDT算法的优化视频关键人物运动轨迹的特征提取方法流程。首先对输入视频进行分割,将输入视频分割为多个视频片段,每个视频片段包含L帧,视频片段之间的间隔为5帧,L按照经验取15。通过对每个视频片段的首帧进行特征点采样,可以得到多个特征点,其中,设置第s个视频片段中首帧的第m个特征点坐标为ps,1,m=(xs,1,m,ys,1,m),xs,t,m和ys,t,m分别表示第s个视频片段第t帧中第m个特征点的横坐标和纵坐标,则该兴趣点在第t+1帧中的位置根据光流场可以计算得出,其中,M表示中值滤波器,尺寸大小为3×3,ωs,t,m=(μs,t,m,υs,t,m),表示第s个视频片段第t帧中的第m个特征点密集光流场,μs,t,m和υs,t,m分别表示光流的水平分量和垂直分量。则第s个视频片段中一条由特征点m构成的轨迹为Ps,m=(ps,0,m,ps,1,m,...,ps,k,m,...,ps,L-1,m),其中,0≤k≤L-1且k为整数。
然后,通过Faster R-CNN对视频片段每帧进行人体特征框检测,图2是基于FasterR-CNN的网络结构图,通过记录每条轨迹在每帧人体检测框框中个数的和来判断该轨迹是否为人物运动轨迹。具体过程为首先记录Faster R-CNN生成的人物运动轨迹框的信息,第s个视频片段中第k帧的人体运动检测框表示为hs,k=(as,k,bs,k,rs,k,cs,k),其中,as,k,bs,k分别表示第s个视频片段中第k帧人体运动检测框左上角的横坐标和纵坐标,rs,k,cs,k分别表示检测框的高度和长度,对第s个视频片段第k帧上第m个轨迹点ps,k,m进行是否在人体检测框内的判断,首先设置num=0,num表示每条轨迹中轨迹点在检测框内的个数,设置阈值β,β按照经验取3。如果num≥β,则说明该轨迹为人物运动相关轨迹,并保留该轨迹,如果num<β则表示该轨迹属于背景移动产生的轨迹,并删除改轨迹,重复所述操作,记录轨迹条数为res,保留下的轨迹为初优化后的轨迹。
最后,计算初优化后所有轨迹间余弦相似度,图3是轨迹经过初优化后通过余弦相似度筛选的流程图,可以得到最终描述人物运动的轨迹特征从而完成特征提取。具体步骤为首先设置保留轨迹集合Tsave和删除轨迹集合Tdel,并将轨迹初优化后轨迹集和中第一条轨迹放入保留轨迹集合Tsave中,设置阈值按照经验取0.9。计算初优化轨迹集合中其他轨迹和第一条轨迹之间的余弦相似度λ。如果则将该轨迹放入删除轨迹集合中,如果则将该轨迹放入保留轨迹集合中。轨迹间余弦相似度的计算过程为首先计算轨迹在各个帧之间的偏移,对于轨迹Ps,n,轨迹的偏移为ΔPs,n=(Δps,0,n,Δps,1,n,...,Δps,k,n,...,Δps,L-2,n),其中轨迹Ps,1和Ps,e之间的余弦测量度λ可以表示为经过所述计算第一条轨迹和其余轨迹之间余弦相似度,则更新保留轨迹集合和删除轨迹集合,然后依次遍历保留轨迹集合中的其余轨迹,并计算删除轨迹集合中所有轨迹的余弦相似度,若不是重复轨迹,则继续保留在保留轨迹集合中,若是重复轨迹,则将该轨迹放入删除轨迹集合中,及时更新保留轨迹和删除轨迹集合,最终在保留轨迹集合中的轨迹可以作为视频人物运动特征进行特征提取。
Claims (9)
1.一种优化视频关键人物运动轨迹的特征提取方法,其特征在于:包括以下步骤:
步骤1,对输入的视频进行切分得到多个视频片段,在每个视频片段构成由不同帧上的特征点组成的多条轨迹;
步骤2,接着对视频片段中的每帧图像进行关键人物运动框构建,并判断各条轨迹中的特征点在人物检测框中的个数是否大于阈值,从而删除与关键人物运动无关的轨迹;
步骤3,最后计算经过初优化后的轨迹之间的余弦度并删除小于阈值的轨迹,从而完成对于视频中关键人物的轨迹优化。
2.根据权利要求1所述的优化视频关键人物运动轨迹的特征提取方法,其特征在于:所述步骤1具体为:将输入的视频分解为包含L帧的多个视频片段,采用步长为5*5的采样框对各个视频片段的不同帧进行特征点采样,设置第s个视频片段中第t帧的第m个特征点坐标为ps,t,m=(xs,t,m,ys,t,m),其中xs,t,m和ys,t,m分别表示第s个视频片段第t帧中第m个特征点的横坐标和纵坐标,则在第t+1帧中第m个特征点通过密集光流场的得到,计算如下:
其中,M表示中值滤波器,尺寸大小为3×3,ωs,t,m=(μs,t,m,υs,t,m),表示第s个视频片段第t帧中的第m个特征点密集光流场,μs,t,m和υs,t,m分别表示光流的水平分量和垂直分量,则第s个视频片段中一条由特征点m构成的轨迹为Ps,m=(ps,0,m,ps,1,m,...,ps,k,m,...,ps,L-1,m),其中,0≤k≤L-1且k为整数。
3.根据权利要求2所述的优化视频关键人物运动轨迹的特征提取方法,其特征在于:所述步骤1中,L的取值为15。
4.根据权利要求1所述的优化视频关键人物运动轨迹的特征提取方法,其特征在于:所述步骤2中,使用Faster R-CNN对第s个视频片段中每一帧进行人体运动框检测,判断视频片段的各帧中特征点是否在人体运动检测框内,统计轨迹中特征点在检测框内的个数,通过判断特征点在人体检测框的个数来对轨迹进行删除和保留,所述Faster R-CNN是通过构建区域建议网络和Fast R-CNN对视频中的目标人物进行检测和判定。
5.根据权利要求4所述的优化视频关键人物运动轨迹的特征提取方法,其特征在于:所述步骤2包括如下步骤:
步骤21,使用基于VGG16的Faster R-CNN网络生成每个视频片段中每帧进行关键人物运动的人物检测框,第s个视频片段所有帧的人体运动检测框检测组成的集合表示为Hs,具体表示如下:
Hs=[hs,0,hs,1,...,hs,k,...,hs,L-1]
其中,hs,k=(as,k,bs,k,rs,k,cs,k)表示第s个视频片段中第k帧的人体运动检测框,as,k,bs,k分别表示第s个视频片段中第k帧人体运动检测框左上角的横坐标和纵坐标,rs,k,cs,k分别表示检测框的高度和长度;
步骤22,判断步骤1得到的轨迹Ps,m上的特征点是否在步骤21中各帧中的人体运动检测框Hs之内,计算过程如下:
对Ps,m中第k帧上第m个轨迹点ps,k,m,设置num=0,如果as,k≤xs,k,m≤as,k+cs,k且bs,k≥ys,k,m≥bs,k+rs,k,则num=num+1;否则,num不变;其中,num表示轨迹Ps,m上的所有特征点在人体检测框内的和;设置res=0,阈值β,并进行以下判断:
如果num≥β,则保留该轨迹,res=res+1;
如果num<β,则删除该轨迹,res不变;
其中,res表示经过初优化轨迹的个数,经过对视频片段s中所有轨迹的判断,得到初优化的轨迹的集合为Ts,Ts=(Ps,1,Ps,2,...,Ps,n,...,Ps,res),其中,1≤n≤res且n为整数。
6.根据权利要求5所述的优化视频关键人物运动轨迹的特征提取方法,其特征在于:所述步骤22中,β的取值为3。
7.根据权利要求1所述的优化视频关键人物运动轨迹的特征提取方法,其特征在于:所述步骤3中,计算步骤2中经过初优化后的轨迹之间的余弦相似度,首先将第一条轨迹保留,然后计算其余轨迹与第一条轨迹之间的余弦相似度,从而将剩余轨迹分入保留轨迹的集合和删除轨迹的集合,然后遍历保留轨迹集合中的所有轨迹,计算所述保留轨迹与删除轨迹集合中的所有轨迹之间的余弦相似度,进一步更新保留轨迹集合和删除轨迹集合,最终得到的保留轨迹的集合即可作为视频人物运动特征提取的结果。
8.根据权利要求7所述的优化视频关键人物运动轨迹的特征提取方法,其特征在于:所述步骤3包括如下步骤:
步骤31,设置Tsave和Tdel分别为保留轨迹的集合和删除轨迹集合,保留步骤22得到的Ts中的第一条轨迹Ps,1到集合Tsave中;
步骤32,计算Ts中其他轨迹和Ps,1间的余弦相似度,设置阈值来判定该轨迹是否删除,假设Ps,e是Ts中的任意轨迹,其中1≤e≤res且e为整数,利用ΔPs,n表示轨迹在各帧之间关键点的偏移,具体计算公式如下:
ΔPs,n=(Δps,0,n,Δps,1,n,...,Δps,k,n,...,Δps,L-2,n)
其中,n表示第n段轨迹,Δps,k,n表示关键点在第k帧和第k+1帧的位移,具体计算公式如下:
Ps,1和Ps,e两条轨迹在各帧之间关键点的偏移为:
ΔPs,1=(Δps,0,1,Δps,1,1,...,Δps,k,1,...,Δps,L-2,1)
ΔPs,e=(Δps,0,e,Δps,1,e,...,Δps,k,e,...,Δps,L-2,e)
则轨迹Ps,1和Ps,e之间的余弦测量度λ表示为:
步骤33,从步骤32中得到了删除轨迹集合Tdel和保留轨迹集合Tsave,遍历保留轨迹集合Tsave中的所有轨迹,并与删除轨迹集合Tdel中所有轨迹进行步骤32,每次遍历都及时更新删除轨迹集合Tdel和保留轨迹集合Tsave,最终,在保留轨迹集合Tsave中的所有轨迹可以作为描述视频人物运动的轨迹特征信息进行特征提取。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010385348.2A CN111583304B (zh) | 2020-05-09 | 2020-05-09 | 一种优化视频关键人物运动轨迹的特征提取方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010385348.2A CN111583304B (zh) | 2020-05-09 | 2020-05-09 | 一种优化视频关键人物运动轨迹的特征提取方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111583304A true CN111583304A (zh) | 2020-08-25 |
CN111583304B CN111583304B (zh) | 2023-06-09 |
Family
ID=72112611
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010385348.2A Withdrawn - After Issue CN111583304B (zh) | 2020-05-09 | 2020-05-09 | 一种优化视频关键人物运动轨迹的特征提取方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111583304B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114612818A (zh) * | 2022-02-18 | 2022-06-10 | 蚂蚁区块链科技(上海)有限公司 | 评价指标的确定方法、装置以及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900864A (zh) * | 2018-07-23 | 2018-11-27 | 西安电子科技大学 | 基于运动轨迹的全参考视频质量评价方法 |
CN110009659A (zh) * | 2019-04-12 | 2019-07-12 | 武汉大学 | 基于多目标运动跟踪的人物视频片段提取方法 |
-
2020
- 2020-05-09 CN CN202010385348.2A patent/CN111583304B/zh not_active Withdrawn - After Issue
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108900864A (zh) * | 2018-07-23 | 2018-11-27 | 西安电子科技大学 | 基于运动轨迹的全参考视频质量评价方法 |
CN110009659A (zh) * | 2019-04-12 | 2019-07-12 | 武汉大学 | 基于多目标运动跟踪的人物视频片段提取方法 |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114612818A (zh) * | 2022-02-18 | 2022-06-10 | 蚂蚁区块链科技(上海)有限公司 | 评价指标的确定方法、装置以及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN111583304B (zh) | 2023-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109816689B (zh) | 一种多层卷积特征自适应融合的运动目标跟踪方法 | |
CN113034548B (zh) | 一种适用于嵌入式终端的多目标跟踪方法及其系统 | |
CN109146921B (zh) | 一种基于深度学习的行人目标跟踪方法 | |
CN112541483B (zh) | Yolo和分块-融合策略结合的稠密人脸检测方法 | |
CN107943837A (zh) | 一种前景目标关键帧化的视频摘要生成方法 | |
CN108288282B (zh) | 一种基于卷积神经网络的自适应特征选择目标跟踪方法 | |
CN111340881B (zh) | 一种动态场景下基于语义分割的直接法视觉定位方法 | |
US6160914A (en) | Handwritten character verification method and apparatus therefor | |
CN108665485A (zh) | 一种基于相关滤波与孪生卷积网络融合的目标跟踪方法 | |
CN111340842B (zh) | 一种基于联合模型的相关滤波目标跟踪方法 | |
CN107633226A (zh) | 一种人体动作跟踪识别方法及系统 | |
CN110688940A (zh) | 一种快速的基于人脸检测的人脸追踪方法 | |
JP7136500B2 (ja) | ノイズチャネルに基づくランダム遮蔽回復の歩行者再識別方法 | |
CN112541441B (zh) | 一种融合相关滤波的gm-phd视频多目标跟踪方法 | |
CN113763424B (zh) | 基于嵌入式平台的实时智能目标检测方法及系统 | |
CN110956141B (zh) | 一种基于局部识别的人体连续动作快速分析方法 | |
CN111986225A (zh) | 一种基于角点检测和孪生网络的多目标跟踪方法及装置 | |
CN104408741A (zh) | 一种时序一致性约束的视频全局运动估计方法 | |
CN108830170A (zh) | 一种基于分层特征表示的端到端目标跟踪方法 | |
CN107609509A (zh) | 一种基于运动显著性区域检测的动作识别方法 | |
CN114897025A (zh) | 一种人体姿态识别模型建立方法和人体姿态识别方法 | |
CN111583304A (zh) | 一种优化视频关键人物运动轨迹的特征提取方法 | |
CN115512152A (zh) | 一种cnn和lstm神经网络组合的船舶轨迹分类方法及系统 | |
CN110132276B (zh) | 一种基于行人运动状态的自适应步长估计方法 | |
CN113591726B (zh) | 一种太极拳训练动作的交叉模态评估方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200825 |
|
GR01 | Patent grant | ||
GR01 | Patent grant |