CN113343795B - 一种目标关联视频追踪处理方法 - Google Patents

一种目标关联视频追踪处理方法 Download PDF

Info

Publication number
CN113343795B
CN113343795B CN202110567222.1A CN202110567222A CN113343795B CN 113343795 B CN113343795 B CN 113343795B CN 202110567222 A CN202110567222 A CN 202110567222A CN 113343795 B CN113343795 B CN 113343795B
Authority
CN
China
Prior art keywords
targets
target
probability
video
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110567222.1A
Other languages
English (en)
Other versions
CN113343795A (zh
Inventor
秦军瑞
吴劲
李启文
段志奎
邝伟锋
许剑锋
邓锐
李洋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Development Research Institute Of Guangzhou Smart City
Original Assignee
Development Research Institute Of Guangzhou Smart City
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Development Research Institute Of Guangzhou Smart City filed Critical Development Research Institute Of Guangzhou Smart City
Priority to CN202110567222.1A priority Critical patent/CN113343795B/zh
Publication of CN113343795A publication Critical patent/CN113343795A/zh
Priority to PCT/CN2022/093647 priority patent/WO2022247711A1/zh
Application granted granted Critical
Publication of CN113343795B publication Critical patent/CN113343795B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

本公开提供了一种目标关联视频追踪处理方法和装置,以多区域设置的不同监控摄像头采集多组视频,通过计算视频图像帧序列中目标的图像和时间、地点特征,从而实现实时监测有行动关联性合作行动的概率值的功能。计算标注为同一目标的概率偏差距D,并获取其空间连接性C,根据D和C对比集合T中各目标的移动时间和移动路线,计算出集合T中各目标之间有行动关联性的概率值。相比现有的目标追踪技术,有如下优点:(1)充分利用了视频监测目标的时间地点特征,进行目标追踪;(2)有效监测目标之间行动关联性概率,实现概率阈值监控;(3)达到有针对性大幅度视频压缩的效果。

Description

一种目标关联视频追踪处理方法
技术领域
本公开涉及目标追踪技术领域,具体涉及一种目标关联视频追踪处理方法。
背景技术
计算机视觉算法是目前广泛有效的目标识别技术,在公共场合的目标识别和目标追踪有广泛的应用,但单纯使用计算机视觉算法不足以进行公共场所的目标关联视频追踪。在已有的目标关联视频追踪方法技术中,绝大多数方法仅仅着眼于视频中目标的识别,大程度忽略了对目标的地点和时间的特征计算,难以计算目标移动的行动趋势。
发明内容
本公开提供一种目标关联视频追踪处理方法,以多区域设置的不同监控摄像头采集多组视频,通过计算视频图像帧序列中目标的图像和时间、地点特征,从而实现实时监测有行动关联性合作行动的概率值的功能。
为了实现上述目的,根据本公开的一方面,提供一种目标关联视频追踪处理方法,所述方法包括以下步骤:
步骤1,通过多个区域设置的不同位置的监控摄像头采集多个视频,通过目标检测算法对各个视频进行目标检测得到的多个目标作为集合T;
步骤2,将每一段视频处理为标记有采集时间地点的图像帧序列S;
步骤3,通过计算不同图像帧序列S的各个目标的时间地点特征,求出标注为同一目标的概率偏差距D;
步骤4,根据计算所得同一目标在当前采集地点li到下一采集地点定位li+1的特征值,来获取其空间连接性C;
步骤5,以同一目标的移动时间和移动路线,根据D和C对比集合T中各目标的移动时间和移动路线,计算出集合T中各目标之间有行动关联性的概率值。
进一步地,在步骤1中,通过多个区域设置的不同位置的监控摄像头采集多个视频,通过目标检测算法对各个视频进行目标检测得到的多个目标作为集合T的方法为:在多个区域的公共场所或人行道放置多个不同位置的摄像头,全天候采集行人视频信息,提取视频段V的视频帧P={Pt,…,Pt-n}(t为视频段V的总帧数,n为(0,t)的正整数),利用Spatial-Temporal Graph Transformer即简称为STGT算法(参考文献为:Chu P,Wang J,You Q,et al.Spatial-Temporal Graph Transformer for Multiple Object Tracking[J].2021.)或利用SiamFC++算法(参考文献为:Xu Y,Wang Z,Li Z,et al.SiamFC++:Towards Robust and Accurate Visual Tracking with Target Estimation Guidelines[J].2019.),对视频帧P进行筛选预处理,输出多个目标作为集合T以及含有检测目标的视频帧集P`。
进一步地,在步骤2中,将每一段视频处理为标记有采集时间地点的图像帧序列S:用记录摄像头采集时间和采集地点,标注视频帧集P`中各图像帧记录的采集时间和采集地点,由此将每一视频帧集处理为标记有采集时间地点的图像帧序列S,序列S中每个数据项s由图像帧、其对应的采集时间、其对应的采集地点组成。
进一步地,在步骤2中,还包括以下步骤:将图像帧序列S,通过各摄像头的无线网络连接输送到服务器后端数据库进行数据长期存储,或者直接在服务器上储存S的实时数据集。
进一步地,在步骤3中,通过计算不同图像帧序列S的各个目标的时间地点特征,求出标注为同一目标的概率偏差距D,具体为:
步骤3.1,取序列S中每个数据项s中的图像帧,将其图像帧转化为512×512的图像帧数组f,令f(m,n)为数组f的第m行第n列取值(m,n皆为小于等于512的正整数);
步骤3.2,令序列S的长度为q,设数据项s的序号i取值范围属于[1,q],则S中第i个数据项si中的图像帧的图像帧矩阵为fi,该第i个数据项中对应的读取时间取年、月、日、时、分、秒为一个6维数组表示为di,该第i个数据项中对应的读取位置定位取经度oi、纬度ai为一个2维数组表示为li=[oi,ai],则有S中第i个数据项si数学表示为si=[fi,di,li];
步骤3.3,设函数K(f,d,l)以提取数据项s的特征值ki 其中R(d,l)为di,li的处理过程,令d(m,n),l(m,n)为数组di,li的第m行第n列取值,具体计算为R(d,l)=[exp(d(1,1)*l(1,1))+exp(d(1,1)*l(1,2)]+[exp(d(1,2)*l(1,1))+exp(d(1,2)*l(1,2)]+[exp(d(1,3)*l(1,1))+exp(d(1,3)*l(1,2)]+[exp(d(1,4)*l(1,1))+exp(d(1,4)*l(1,2)]+[exp(d(1,5)*l(1,1))+exp(d(1,5)*l(1,2)]+[exp(d(1,6)*l(1,1))+exp(d(1,6)*l(1,2)],即si=[fi,di,li]通过函数K(si)=K(fi,di,li)可以得到ki=K(si),则有序列S可表示为K(S)={k1,k2,…,ki-1,ki};
步骤3.4,设集合T中不同目标a和b,将对应含有a和b的任意两个视频处理为标记有采集时间地点的图像帧序列Sa和Sb,计算两段不同序列Sa和Sb的概率偏差距,判断两段视频中的目标的概率偏差距Da-b,具体计算为:K(Sa)={ka,1,ka,2,…,ka,i-1,ka,i},K(Sb)={kb,1,kb,2,…,kb,i-1,kb,i}, ka,i和kb,i分别为Sa和Sb中数据项的通过步骤3.3得到的特征值。
进一步地,在步骤4中,根据计算所得同一目标在当前采集地点li到下一采集地点定位li+1的特征值,来获取其空间连接性C的方法为:用步骤3所得的序列S中第i个数据项中对应的采集地点定位取经度、维度为一个2维数组li,根据目标的移动轨迹{l1,l2,…,li-1,li}相连形成路线Li,取该目标的下一采集地点定位li+1,计算li和li+1两者定位空间的连接性为以衡量两者定位空间的连接概率。
进一步地,在步骤5中,以同一目标的移动时间和移动路线,根据D和C对比集合T中各目标的移动时间和移动路线,计算出集合T中各目标之间有行动关联性的概率值,具体方法为:将集合T中两目标a和b的任意不同序列Sa和Sb通过两序列的概率偏差距Da-b,同时在各条路线Li中各采集地点定位li和定位li+1的连接性Ci,i+1计算得到{C1,2,C2,3,…,Ci-1,i,Ci ,i+1},设目标a和b有行动关联性的概率值为β,则 表示,在目标a和b于路线Li中均有从定位li移动到定位li+1的位移行动时,两目标被视为有行动关联性的概率值算作/>由此检测到目标之间有行动关联性的概率值,实时进行监测,输出概率值,当概率值大于概率阈值时则判断目标a和b有关联性否则无关联性,概率阈值取值为[0.8,1]或概率阈值设为集合T中所有目标两两之间进行有行动关联性合作行动的概率值的算术平均值。
进一步地,在步骤5中,还包括:设目标人物为a,通过与a有关联性的判断,筛选出存储所有视频中包含与a有关联性目标所在的对应视频并存储到数据库中,然后删除掉与目标人物a无关联性的其他目标的视频,无需存储与a无关联性的所有目标的所在视频,达到有针对性大幅度视频压缩的效果。
本公开的有益效果为:本公开提供了一种目标关联视频追踪处理方法,以多区域设置的不同监控摄像头采集多组视频,通过计算视频图像帧序列中目标的图像和时间、地点特征,从而实现实时监测有行动关联性合作行动的概率值的功能。相比现有的目标追踪技术,有如下优点:(1)充分利用了视频监测目标的时间地点特征,进行目标追踪;(2)有效监测目标之间行动关联性概率,实现概率阈值监控;(3)达到有针对性大幅度视频压缩的效果。
附图说明
通过对结合附图所示出的实施方式进行详细说明,本公开的上述以及其他特征将更加明显,本公开附图中相同的参考标号表示相同或相似的元素,显而易见地,下面描述中的附图仅仅是本公开的一些实施例,对于本领域普通技术目标来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图,在附图中:
图1所示为一种目标关联视频追踪处理方法的流程图;
图2所示为概率偏差距D的计算流程图;
图3所示为行动关联性的概率值的计算流程图。
具体实施方式
以下将结合实施例和附图对本公开的构思、具体结构及产生的技术效果进行清楚、完整的描述,以充分地理解本公开的目的、方案和效果。需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。
如图1所示为根据本公开的一种目标关联视频追踪处理方法的流程图,下面结合图1来阐述根据本公开的实施方式的一种目标关联视频追踪处理方法。
本公开提出一种目标关联视频追踪处理方法,具体包括以下步骤:
步骤1,通过多个区域设置的不同位置的监控摄像头采集多个视频,通过目标检测算法对各个视频进行目标检测得到的多个目标作为集合T;
步骤2,将每一段视频处理为标记有采集时间地点的图像帧序列S;
步骤3,通过计算不同图像帧序列S的各个目标的时间地点特征,求出标注为同一目标的概率偏差距D;
步骤4,根据计算所得同一目标在当前采集地点li到下一采集地点定位li+1的特征值,来获取其空间连接性C;
步骤5,以同一目标的移动时间和移动路线,根据D和C对比集合T中各目标的移动时间和移动路线,计算出集合T中各目标之间有行动关联性的概率值。
进一步地,在步骤1中,通过多个区域设置的不同位置的监控摄像头采集多个视频,通过目标检测算法对各个视频进行目标检测得到的多个目标作为集合T的方法为:在多个区域的公共场所或人行道放置多个不同位置的摄像头,全天候采集行人视频信息,提取视频段V的视频帧P={Pt,…,Pt-n}(t为视频段V的总帧数,n为(0,t)的正整数,例如V的总帧数为100帧),利用Spatial-Temporal Graph Transformer即简称为STGT算法(参考文献为:Chu P,Wang J,You Q,et al.Spatial-Temporal Graph Transformer for MultipleObject Tracking[J].2021.)或利用SiamFC++算法(参考文献为:Xu Y,Wang Z,Li Z,etal.SiamFC++:Towards Robust and Accurate Visual Tracking with TargetEstimation Guidelines[J].2019.),对视频帧P进行筛选预处理,输出多个目标作为集合T以及含有检测目标的视频帧集P`。
进一步地,在步骤2中,将每一段视频处理为标记有采集时间地点的图像帧序列S:用记录摄像头采集时间和采集地点,标注视频帧集P`中各图像帧记录的采集时间和采集地点,由此将每一视频帧集处理为标记有采集时间地点的图像帧序列S,序列S中每个数据项s由图像帧、其对应的采集时间、其对应的采集地点组成。
进一步地,在步骤2中,还包括以下步骤:将图像帧序列S,通过各摄像头的无线网络连接输送到服务器后端数据库进行数据长期存储,或者直接在服务器上储存S的实时数据集。
进一步地,在步骤3中,通过计算不同图像帧序列S的各个目标的时间地点特征,求出标注为同一目标的概率偏差距D,具体为:
步骤3.1,取序列S中每个数据项s中的图像帧,将其图像帧转化为512×512的图像帧数组f,令f(m,n)为数组f的第m行第n列取值(m,n皆为小于等于512的正整数);
步骤3.2,令序列S的长度为q,设数据项s的序号i取值范围属于[1,q],则S中第i个数据项si中的图像帧的图像帧矩阵为fi,该第i个数据项中对应的读取时间取年、月、日、时、分、秒为一个6维数组表示为di,该第i个数据项中对应的读取位置定位取经度oi、纬度ai为一个2维数组表示为li=[oi,ai],则有S中第i个数据项si数学表示为si=[fi,di,li];
步骤3.3,设函数K(f,d,l)以提取数据项s的特征值ki 其中R(d,l)为di,li的处理过程,令d(m,n),l(m,n)为数组di,li的第m行第n列取值,具体计算为R(d,l)=[exp(d(1,1)*l(1,1))+exp(d(1,1)*l(1,2)]+[exp(d(1,2)*l(1,1))+exp(d(1,2)*l(1,2)]+[exp(d(1,3)*l(1,1))+exp(d(1,3)*l(1,2)]+[exp(d(1,4)*l(1,1))+exp(d(1,4)*l(1,2)]+[exp(d(1,5)*l(1,1))+exp(d(1,5)*l(1,2)]+[exp(d(1,6)*l(1,1))+exp(d(1,6)*l(1,2)],即si=[fi,di,li]通过函数K(si)=K(fi,di,li)可以得到ki=K(si),则有序列S可表示为K(S)={k1,k2,…,ki-1,ki};
步骤3.4,设集合T中不同目标a和b,将对应含有a和b的任意两个视频处理为标记有采集时间地点的图像帧序列Sa和Sb,计算两段不同序列Sa和Sb的概率偏差距,判断两段视频中的目标的概率偏差距Da-b,具体计算为:K(Sa)={ka,1,ka,2,…,ka,i-1,ka,i},K(Sb)={kb,1,kb,2,…,kb,i-1,kb,i}, ka,i和kb,i分别为Sa和Sb中数据项的通过步骤3.3得到的特征值。
进一步地,在步骤4中,根据计算所得同一目标在当前采集地点li到下一采集地点定位li+1的特征值,来获取其空间连接性C的方法为:用步骤3所得的序列S中第i个数据项中对应的采集地点定位取经度、维度为一个2维数组li,根据目标的移动轨迹{l1,l2,…,li-1,li}相连形成路线Li,取该目标的下一采集地点定位li+1,计算li和li+1两者定位空间的连接性为以衡量两者定位空间的连接概率。
进一步地,在步骤5中,以同一目标的移动时间和移动路线,根据D和C对比集合T中各目标的移动时间和移动路线,计算出集合T中各目标之间有行动关联性的概率值,具体方法为:将集合T中两目标a和b的任意不同序列Sa和Sb通过两序列的概率偏差距Da-b,同时在各条路线Li中各采集地点定位li和定位li+1的连接性Ci,i+1计算得到{C1,2,C2,3,…,Ci-1,i,Ci ,i+1},设目标a和b有行动关联性的概率值为β,则 表示,在目标a和b于路线Li中均有从定位li移动到定位li+1的位移行动时,两目标被视为有行动关联性的概率值算作/>由此检测到目标之间有行动关联性的概率值,实时进行监测,输出概率值,当概率值大于概率阈值时则判断目标a和b有关联性否则无关联性,概率阈值取值为[0.8,1]或概率阈值设为集合T中所有目标两两之间进行有行动关联性合作行动的概率值的算术平均值。
本公开的实施例提供的一种目标关联视频追踪处理方法,以多区域设置的不同监控摄像头采集多组视频,通过计算视频图像帧序列中目标的图像和时间、地点特征,从而实现实时监测有行动关联性合作行动的概率值的功能。相比现有的目标追踪技术,本公开所述方法充分利用了视频监测目标的时间地点特征,进行目标追踪,并能有效监测目标之间行动关联性概率,实现了概率阈值监控,并且达到有针对性大幅度视频压缩的效果。
尽管本公开的描述已经相当详尽且特别对几个所述实施例进行了描述,但其并非旨在局限于任何这些细节或实施例或任何特殊实施例,从而有效地涵盖本公开的预定范围。此外,上文以发明人可预见的实施例对本公开进行描述,其目的是为了提供有用的描述,而那些目前尚未预见的对本公开的非实质性改动仍可代表本公开的等效改动。

Claims (7)

1.一种目标关联视频追踪处理方法,其特征在于,所述方法包括以下步骤:
步骤1,通过多个区域设置的不同位置的监控摄像头采集多个视频,通过目标检测算法对各个视频进行目标检测得到的多个目标作为集合T;
步骤2,将每一段视频处理为标记有采集时间地点的图像帧序列S;
步骤3,通过计算不同图像帧序列S的各个目标的时间地点特征,求出标注为同一目标的概率偏差距D;
步骤4,根据计算所得同一目标在当前采集地点li到下一采集地点定位li+1的特征值,来获取其空间连接性C;
步骤5,以同一目标的移动时间和移动路线,根据D和C对比集合T中各目标的移动时间和移动路线,计算出集合T中各目标之间有行动关联性的概率值;
具体的,在步骤3中,通过计算不同图像帧序列S的各个目标的时间地点特征,求出标注为同一目标的概率偏差距D,具体为:
步骤3.1,取序列S中每个数据项s中的图像帧,将其图像帧转化为512×512的图像帧数组f,令f(m,n)为数组f的第m行第n列取值,m,n皆为小于等于512的正整数;
步骤3.2,令序列S的长度为q,设数据项s的序号i取值范围属于[1,q],则S中第i个数据项si中的图像帧的图像帧矩阵为fi,该第i个数据项中对应的读取时间取年、月、日、时、分、秒为一个6维数组表示为di,该第i个数据项中对应的读取位置定位取经度oi、纬度ai为一个2维数组表示为li=[oi,ai],则有S中第i个数据项si数学表示为si=[fi,di,li];
步骤3.3,设函数K(f,d,l)以提取数据项s的特征值ki 其中R(d,l)为di,li的处理过程,令d(m,n),l(m,n)为数组di,li的第m行第n列取值,具体计算为R(d,l)=[exp(d(1,1)*l(1,1))+exp(d(1,1)*l(1,2)]+[exp(d(1,2)*l(1,1))+exp(d(1,2)*l(1,2)]+[exp(d(1,3)*l(1,1))+exp(d(1,3)*l(1,2)]+[exp(d(1,4)*l(1,1))+exp(d(1,4)*l(1,2)]+[exp(d(1,5)*l(1,1))+exp(d(1,5)*l(1,2)]+[exp(d(1,6)*l(1,1))+exp(d(1,6)*l(1,2)],即si=[fi,di,li]通过函数K(si)=K(fi,di,li)可以得到ki=K(si),则有序列S可表示为K(S)={k1,k2,…,ki-1,ki};
步骤3.4,设集合T中不同目标a和b,将对应含有a和b的任意两个视频处理为标记有采集时间地点的图像帧序列Sa和Sb,计算两段不同序列Sa和Sb的概率偏差距,判断两段视频中的目标的概率偏差距Da-b,具体计算为:K(Sa)={ka,1,ka,2,…,ka,i-1,ka,i},K(Sb)={kb,1,kb,2,…,kb,i-1,kb,i}, ka,i和kb,i分别为Sa和Sb中数据项的通过步骤3.3得到的特征值。
2.根据权利要求1所述的一种目标关联视频追踪处理方法,其特征在于,在步骤1中,通过多个区域设置的不同位置的监控摄像头采集多个视频,通过目标检测算法对各个视频进行目标检测得到的多个目标作为集合T的方法为:在多个区域的公共场所或人行道放置多个不同位置的摄像头,全天候采集行人视频信息,提取视频段V的视频帧P={Pt,…,Pt-n},其中t为视频段V的总帧数,n为(0,t)的正整数,利用Spatial-Temporal GraphTransformer即简称为STGT算法或利用SiamFC++算法,对视频帧P进行筛选预处理,输出多个目标作为集合T以及含有检测目标的视频帧集P`。
3.根据权利要求1所述的一种目标关联视频追踪处理方法,其特征在于,在步骤2中,将每一段视频处理为标记有采集时间地点的图像帧序列S:用记录摄像头采集时间和采集地点,标注视频帧集P`中各图像帧记录的采集时间和采集地点,由此将每一视频帧集处理为标记有采集时间地点的图像帧序列S,序列S中每个数据项s由图像帧、其对应的采集时间、其对应的采集地点组成。
4.根据权利要求1所述的一种目标关联视频追踪处理方法,其特征在于,在步骤2中,还包括以下步骤:将图像帧序列S,通过各摄像头的无线网络连接输送到服务器后端数据库进行数据长期存储,或者直接在服务器上储存S的实时数据集。
5.根据权利要求1所述的一种目标关联视频追踪处理方法,其特征在于,在步骤4中,根据计算所得同一目标在当前采集地点li到下一采集地点定位li+1的特征值,来获取其空间连接性C的方法为:用步骤3所得的序列S中第i个数据项中对应的采集地点定位取经度、维度为一个2维数组li,根据目标的移动轨迹{l1,l2,…,li-1,li}相连形成路线Li,取该目标的下一采集地点定位li+1,计算li和li+1两者定位空间的连接性为以衡量两者定位空间的连接概率。
6.根据权利要求1所述的一种目标关联视频追踪处理方法,其特征在于,在步骤5中,以同一目标的移动时间和移动路线,根据D和C对比集合T中各目标的移动时间和移动路线,计算出集合T中各目标之间有行动关联性的概率值,具体方法为:将集合T中两目标a和b的任意不同序列Sa和Sb通过两序列的概率偏差距Da-b,同时在各条路线Li中各采集地点定位li和定位li+1的连接性Ci,i+1计算得到{C1,2,C2,3,…,Ci-1,i,Ci,i+1},设目标a和b有行动关联性的概率值为β,则 表示,在目标a和b于路线Li中均有从定位li移动到定位li+1的位移行动时,两目标被视为有行动关联性的概率值算作/>由此检测到目标之间有行动关联性的概率值,实时进行监测,输出概率值,当概率值大于概率阈值时则判断目标a和b有关联性否则无关联性,概率阈值取值为[0.8,1]或概率阈值设为集合T中所有目标两两之间有行动关联性的概率值的算术平均值。
7.根据权利要求1所述的一种目标关联视频追踪处理方法,其特征在于,在步骤5中,还包括:设目标人物为a,通过权利要求6所述方法,筛选出所有视频中包含与a有关联性目标所在的对应视频并存储到数据库中。
CN202110567222.1A 2021-05-24 2021-05-24 一种目标关联视频追踪处理方法 Active CN113343795B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202110567222.1A CN113343795B (zh) 2021-05-24 2021-05-24 一种目标关联视频追踪处理方法
PCT/CN2022/093647 WO2022247711A1 (zh) 2021-05-24 2022-05-18 一种目标关联视频追踪处理方法和装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110567222.1A CN113343795B (zh) 2021-05-24 2021-05-24 一种目标关联视频追踪处理方法

Publications (2)

Publication Number Publication Date
CN113343795A CN113343795A (zh) 2021-09-03
CN113343795B true CN113343795B (zh) 2024-04-26

Family

ID=77471140

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110567222.1A Active CN113343795B (zh) 2021-05-24 2021-05-24 一种目标关联视频追踪处理方法

Country Status (2)

Country Link
CN (1) CN113343795B (zh)
WO (1) WO2022247711A1 (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113343795B (zh) * 2021-05-24 2024-04-26 广州智慧城市发展研究院 一种目标关联视频追踪处理方法
CN113850837B (zh) * 2021-11-25 2022-02-08 腾讯科技(深圳)有限公司 视频处理方法、装置、电子设备、存储介质及计算机产品
CN116109966B (zh) * 2022-12-19 2023-06-27 中国科学院空天信息创新研究院 一种面向遥感场景的视频大模型构建方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443320B1 (en) * 2015-05-18 2016-09-13 Xerox Corporation Multi-object tracking with generic object proposals
CN109241173A (zh) * 2017-07-10 2019-01-18 华为技术有限公司 查询追踪目标的方法及查询设备
CN110717414A (zh) * 2019-09-24 2020-01-21 青岛海信网络科技股份有限公司 一种目标检测追踪方法、装置及设备
CN111107319A (zh) * 2019-12-25 2020-05-05 眸芯科技(上海)有限公司 基于区域摄像头的目标追踪方法、装置及系统
CN111932582A (zh) * 2020-06-04 2020-11-13 广东技术师范大学 一种视频图像中的目标跟踪方法及装置

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111882581B (zh) * 2020-07-21 2022-10-28 青岛科技大学 一种深度特征关联的多目标跟踪方法
CN113343795B (zh) * 2021-05-24 2024-04-26 广州智慧城市发展研究院 一种目标关联视频追踪处理方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9443320B1 (en) * 2015-05-18 2016-09-13 Xerox Corporation Multi-object tracking with generic object proposals
CN109241173A (zh) * 2017-07-10 2019-01-18 华为技术有限公司 查询追踪目标的方法及查询设备
CN110717414A (zh) * 2019-09-24 2020-01-21 青岛海信网络科技股份有限公司 一种目标检测追踪方法、装置及设备
CN111107319A (zh) * 2019-12-25 2020-05-05 眸芯科技(上海)有限公司 基于区域摄像头的目标追踪方法、装置及系统
CN111932582A (zh) * 2020-06-04 2020-11-13 广东技术师范大学 一种视频图像中的目标跟踪方法及装置

Also Published As

Publication number Publication date
WO2022247711A1 (zh) 2022-12-01
CN113343795A (zh) 2021-09-03

Similar Documents

Publication Publication Date Title
CN113343795B (zh) 一种目标关联视频追踪处理方法
CN108346159B (zh) 一种基于跟踪-学习-检测的视觉目标跟踪方法
CN109635686B (zh) 结合人脸与外观的两阶段行人搜索方法
KR20200006167A (ko) 딥러닝 네트워크 및 평균 이동을 기반으로 하는 선박 자동추적 방법 및 시스템
CN110796074B (zh) 一种基于时空数据融合的行人再识别方法
CN111310728B (zh) 基于监控相机和无线定位的行人重识别系统
CN105389562A (zh) 一种时空约束的监控视频行人重识别结果的二次优化方法
CN111339975A (zh) 基于中心尺度预测与孪生神经网络的目标检测识别跟踪方法
Roy et al. Surveying apple orchards with a monocular vision system
CN115994137A (zh) 一种基于物联网应用服务系统的数据管理方法
CN113256690B (zh) 一种基于视频监控的行人多目标跟踪方法
CN112560617B (zh) 基于阵列相机的大场景行人轨迹跟踪方法
CN113256731A (zh) 基于单目视觉的目标检测方法及装置
Lin et al. Cross camera people counting with perspective estimation and occlusion handling
CN112580525A (zh) 一种基于行人再识别的病例活动轨迹监测方法
CN116403139A (zh) 一种基于目标检测的视觉跟踪定位方法
CN111967443A (zh) 基于图像处理与bim的档案馆内感兴趣区域分析方法
CN112132157A (zh) 一种基于树莓派的步态人脸融合识别方法
Heinrich et al. Yield prognosis for the agrarian management of vineyards using deep learning for object counting
CN113313055A (zh) 一种非重叠视域跨摄像头网络行人重识别方法
CN113627497B (zh) 一种基于时空约束的跨摄像头行人轨迹匹配方法
CN115830076A (zh) 一种人员轨迹视频智能分析系统
CN115131705A (zh) 目标检测方法、装置、电子设备及存储介质
CN113793362B (zh) 基于多镜头视频的行人轨迹提取方法和装置
CN115588149A (zh) 基于匹配优先级的跨相机多目标级联匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant