CN104094279A - 大范围优先的跨摄像机视觉目标再识别方法 - Google Patents

大范围优先的跨摄像机视觉目标再识别方法 Download PDF

Info

Publication number
CN104094279A
CN104094279A CN201480000159.1A CN201480000159A CN104094279A CN 104094279 A CN104094279 A CN 104094279A CN 201480000159 A CN201480000159 A CN 201480000159A CN 104094279 A CN104094279 A CN 104094279A
Authority
CN
China
Prior art keywords
track
tracks
similarity
target
probability
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480000159.1A
Other languages
English (en)
Other versions
CN104094279B (zh
Inventor
黄凯奇
曹黎俊
陈威华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Institute of Automation of Chinese Academy of Science
Original Assignee
Institute of Automation of Chinese Academy of Science
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Institute of Automation of Chinese Academy of Science filed Critical Institute of Automation of Chinese Academy of Science
Publication of CN104094279A publication Critical patent/CN104094279A/zh
Application granted granted Critical
Publication of CN104094279B publication Critical patent/CN104094279B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/277Analysis of motion involving stochastic approaches, e.g. using Kalman filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/761Proximity, similarity or dissimilarity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30241Trajectory

Abstract

本发明涉及一种大范围优先的跨摄像机视觉目标再识别方法,所述方法包括:步骤S1.获得单场景目标的初始轨迹;步骤S2.计算每条轨迹的分段主颜色谱直方图特征,得到轨迹特征表达;步骤S3.利用最小化不确定度的方法得到任意两条轨迹间匹配度的计算公式,从而得到任意两条轨迹间匹配度;步骤S4.对所有轨迹采用最大后验概率的方法进行全局数据融合得到跨场景的跟踪结果。本发明目标再试别方法,识别正确率高。

Description

大范围优先的跨摄像机视觉目标再识别方法
技术领域
本发明涉及视频监控与模式识别领域,尤其涉及一种大范围优先的跨摄像机视觉目标再识别方法。 
背景技术
随着社会现代化建设的快速发展,人们对社会安全的关注也越来越高,特别是对于一些公共场所,如学校,医院和政府机关等的监控。如今数以千计的摄像机被用于公共场所的日常监控,这些摄像机每天产生着大量的视频数据。但是,作为传统的视频监控系统由于需要人为的监视,因而存在着很多难以克服的问题。 
首先,现有的视频监控都需要有人在视频前实时监视,没法实现自动监控报警,很容易长时间监视而造成人员的过度疲劳。同时,由于监控范围的原因,通常需要监控人员同时进行多路监控,往往会应接不暇。这就需要智能化视频监控。 
而智能视频监控的核心技术,大范围监控场景下的视觉目标再识别技术也一直是计算机视觉领域的研究热点之一,基于多场景目标跟踪的视觉目标再识别也是吸引了很多学者的研究。多场景下的目标跟踪不仅能实现对公共场所行人的监控跟踪,同时,也为进一步的高级处理(如行为识别)提供了更有用的价值信息。传统的多场景目标跟踪算法主要分两步:第一步是先完成单场景下多目标的跟踪,得到每个单场景下各个目标的完整轨迹;第二步跨场景目标接力,通过场景间的时空信息实现场景间的轨迹连接,完成目标接力。从这两步可以看出,跨场景目标接力是以单场景的目标跟踪为基础的,其输入来源于单场景跟踪的结果。也就是说,当单场景跟踪结果达不到一定 标准时,跨场景接力效果直接会受到很大的影响。而现今的单场景目标跟踪算法在实际应用中都会长生大量的断裂的零碎轨迹和错误的干扰轨迹,都还没有达到可以用于跨场景接力的标准。这就使得跨场景接力算法的效果无法得到保证,最终导致实际场景中的多场景的目标跟踪难以实现。传统的跨场景接力算法都是假设单场景跟踪效果已经足够理想,以此作为算法输入,因而其在实际应用中接力效果相对较差。那么如何在单场景目标跟踪效果不好的情况下,提高跨场景接力准确率,从而完成基本的多场景目标跟踪以实现目标的再识别成为了一个急需解决的问题。 
发明内容
本发明的目的是针对现有技术的缺陷,提供一种大范围优先的跨摄像机视觉目标再识别方法,解决大范围监控场景下的目标再识别问题,识别正确率高。 
为实现上述目的,本发明提供了一种大范围优先的跨摄像机视觉目标再识别方法,所述方法包括: 
步骤S1,获得单场景目标的初始轨迹; 
步骤S2,计算每条轨迹的分段主颜色谱直方图特征,得到轨迹特征表达; 
步骤S3,利用最小化不确定度的方法得到任意两条轨迹间匹配度的计算公式,从而得到任意两条轨迹间匹配度; 
步骤S4,对所有轨迹采用最大后验概率的方法进行全局数据融合得到跨场景的跟踪结果。 
进一步的,所述步骤S1中,对每一轨迹,所有帧的置信度的平均值被用来表示该轨迹的轨迹准确度: 
c = Σ j = t s t e α j / ( t e - t s ) - - - ( 1 )
其中,置信度α表示对于每一帧的跟踪结果,α<0.2表示跟踪目标丢失, ts和te分别为该轨迹的起始帧和结束帧; 
最后形成的所有目标轨迹的集合为L={l1,l2,...,lN},N为轨迹综述,每一条轨迹li=[xi,ci,si,ti,ai],分别表示轨迹的位置,准确度,所属场景,时间和表观特征。 
进一步的,所述步骤S2具体包括: 
计算每帧中目标的颜色直方图,然后根据其H和S值,将颜色分为16*2个颜色,从中选取前n个颜色值作为该目标该帧的特征: 
h={C1,C2,..,Cn}                  (2) 
其中,Ci为前n种像素数之和占总像素数比例的90%以上的颜色,每一条轨迹的总特征为: 
H = &Sigma; i = 1 m k h i - - - ( 3 )
其中,mk为轨迹k的长度; 
对总特征H中的所有特征hi,利用计算相互间的相似度Λ=Sim(hi,hj),通过其轨迹中每帧间的相似度信息找到运动周期,利用周期对原来轨迹特征H进行重新分段,通过下式得到总特征H中可能存在的周期性信息p: 
p = arg max t 1 m k - t &Sigma; j = 1 m t - t &Lambda; j , j + t - - - ( 4 )
利用周期性信息p对将轨迹重新进行均匀分段,至此得到轨迹的分段主颜色谱直方图特征: 
H={H1,H2,...,Hd}                 (5) 
其中,表示轨迹分段的段数。 
进一步的,所述步骤S3具体包括: 
计算两条轨迹间相似度指导轨迹间的匹配,在最大化相似度的同时最小化不确定度,由此使得得到的相似度匹配值能反映两轨迹间的真实相似关系,匹配公式为: 
Dis ( H A , H B ) = 1 - max Sim ( H i A , H j B ) - min Sim ( H u A , H v B ) max Sim ( H i A , H j B ) + min Sim ( H u A , H v B ) - - - ( 6 )
其中,HA和HB为两段不同轨迹的分段主颜色谱直方图特征,分别为其中的某一段,i={1,2,...,dA},j={1,2,...,dB}。 
进一步的,所述步骤S4具体包括: 
步骤S4-1,每一条全局融合后的轨迹为那么总的融合后的轨迹集合为T={T1,T2,...,Tm},m为融合后的轨迹数目;在给定轨迹集合L和融合后轨迹间无重叠的条件下,集合T的最大后验概率为: 
T * arg max T &Pi; i P ( l i | T ) &Pi; T k &Element; T P ( T k ) - - - ( 7 )
T i &cap; T j = &phi; , &ForAll; i &NotEqual; j
其中,P(li|T)为轨迹li的相似度,P(Tk)为可能的融合后的轨迹的先验概率,它可以表示为一条包含转移概率的马尔科夫链; 
步骤S4-2,建立图结构,其中每个节点表示一个轨迹片段li,其值为ci,每条边表示先验概率P(li→lj),从整个图中最小的代价函数流得到使得T*最大的集合,对于每条流的代价能量eij用负对数函数表示: 
eij=-logP(L|li→lj)P(li→lj)            (8) 
=-log(Pm*Pt*Pa
其中,Pm和Pt分别表示轨迹间的运动信息和时间信息的匹配概率,Pa表示轨迹表观特征间的匹配概率,匹配相似度公式为: 
P a = Dis ( H A , H B ) if s i = s j &lambda;Dis ( H A , H B ) if s i &NotEqual; s j - - - ( 9 )
得到每条流的代价能量,遍历最终得到使后验概率最大的集合T即为多场景目标跟踪和再识别的结果。 
本发明跨摄像机的视觉目标再试别方法,识别正确率高。 
附图说明
图1为本发明大范围优先的跨摄像机视觉目标再识别方法的流程图。 
具体实施方式
下面通过附图和实施例,对本发明的技术方案做进一步的详细描述。 
跨场景的目标接力效果很大程度上依赖于单场景跟踪结果的好坏,本发明为一种基于全局轨迹融合的目标跟踪再识别方法,该方法能在单场景跟踪轨迹不是很好的情况下得到相对较好的跨场景接力结果。同时,本方法提出一个新的轨迹特征表达,使其能在非重叠场景下完成多场景的目标跟踪和再识别。 
本发明优先解决大范围监控场景下的目标再识别问题。该方法依靠对多摄像机所有轨迹的全局优化实现多场景下的视觉目标再识别,并形成完整的目标轨迹。采用具有周期性的分段主颜色谱直方图特征作为轨迹特征表达,利用最小化不确定度的方法实现轨迹的匹配,进一步提高目标再识别的准确率。 
图1为本发明大范围优先的跨摄像机视觉目标再识别方法的流程图,如图所示,本发明具体包括如下步骤: 
步骤101,获得单场景目标的初始轨迹; 
具体的,通过行人检测和单目标的行人跟踪,得到每个场景下每个行人的初始轨迹片段。行人检测方法采用基于行人头肩检测,单目标跟踪算法则利用自适应多特征融合的方法。用置信度α表示对于每一帧的跟踪结果,α<0.2表示跟踪目标丢失。对每一轨迹,其所有帧的α的平均值被用来表示该轨迹的轨迹准确度: 
c = &Sigma; j = t s t e &alpha; j / ( t e - t s ) - - - ( 1 )
其中,ts和te分别为该轨迹的起始帧和结束帧。 
则最后形成的所有目标轨迹的集合为L={l1,l2,...,lN},N为轨迹综述。每 一条轨迹li=[xi,ci,si,ti,ai],分别表示轨迹的位置,准确度,所属场景,时间和表观特征。 
步骤102,计算每条轨迹的分段主颜色谱直方图特征,得到轨迹特征表达; 
对MCSHR特征,首先计算每帧中目标的HSV颜色直方图,然后根据其H和S值,将颜色分为16*2个颜色,从中选取前n个颜色值作为该目标该帧的MCSHR特征表达: 
h={C1,C2,..,Cn}                    (2) 
其中,Ci为前n种像素数之和占总像素数比例的90%以上的颜色,这样,针对每条轨迹,得到所需的总得MCSHR特征: 
H = &Sigma; i = 1 m k h i - - - ( 3 )
其中,mk为轨迹k的长度。对H中的所有hi,利用其论文中的方法计算相互间的相似度Λ=Sim(hi,hj)。由于行人在运动过程中其步伐存在着明显的周期性,这里的想法是通过其轨迹中每帧间的相似度信息找到这种运动的周期。利用周期对原来轨迹特征H进行重新分段。即通过如下公式找到H中可能存在的周期性信息p: 
p = arg max t 1 m k - t &Sigma; j = 1 m t - t &Lambda; j , j + t - - - ( 4 )
利用p对将轨迹重新进行均匀分段,至此得到轨迹的分段主颜色谱直方图特征: 
H={H1,H2,...,Hd}               (5) 
其中,表示轨迹分段的段数。 
步骤103,利用最小化不确定度的方法得到任意两条轨迹间匹配度的计算公式,从而得到任意两条轨迹间匹配度; 
在轨迹匹配的过程中,两轨迹间相似度的不确定性在一定程度上也是很重要的;通过计算两轨迹间相似度的这种不确定性来指导轨迹间的匹配, 即在最大化相似度的同时最小化不确定度,这样使得得到的相似度匹配值更能反映两轨迹间的真实相似关系。具体的匹配公式为: 
Dis ( H A , H B ) = 1 - max Sim ( H i A , H j B ) - min Sim ( H u A , H v B ) max Sim ( H i A , H j B ) + min Sim ( H u A , H v B ) - - - ( 6 )
其中,HA和HB为两段不同轨迹的分段主颜色谱直方图特征。分别为其中的某一段,i={1,2,...,dA},j={1,2,...,dB}。 
步骤104,对所有轨迹采用最大后验概率的方法进行全局数据融合得到跨场景的跟踪结果。 
在得到所有轨迹的集合L={l1,l2,...,lN}以及其中每条轨迹的各项属性li=[xi,ci,si,ti,ai]之后。利用最大后验概率的方法来对所有的轨迹数据进行全局优化。 
首先,可以将每一条全局融合后的轨迹表示为那么总的融合后的轨迹集合为T={T1,T2,...,Tm},m为融合后的轨迹数目。目标就是在给定轨迹集合L和融合后轨迹间无重叠的条件下,求集合T的最大后验概率: 
T * arg max T &Pi; i P ( l i | T ) &Pi; T k &Element; T P ( T k ) - - - ( 7 )
T i &cap; T j = &phi; , &ForAll; i &NotEqual; j
这里P(li|T)为轨迹li的相似度,即之前的准确度ci;P(Tk)为可能的融合后的轨迹的先验概率,它可以表示为一条包含转移概率的马尔科夫链。 
建立一个图结构,其中每个节点表示一个轨迹片段li,其值为ci,每条边表示先验概率P(li→lj)。那么,通过求整个图中最小的代价函数流可以得到使得T*最大的集合,因此将(7)式转化为一个求最小代价函数的问题。对于每条流的代价能量eij,用负对数函数表示: 
其中,Pm和Pt分别表示轨迹间的运动信息和时间信息的匹配概率,具体计算过程可参考最小流方法(J.Liu,P.Carr,R.T.Collins,and Y.Liu,“Tracking sports players with context-conditioned motion models,”CVPR2013)。Pa表示轨迹表观特征间的匹配概率,利用之前求得的分段主颜色谱直方图特征作为轨迹的表观特征表达。同时,为了区分来自于不同场景的轨迹片段,引入了一个调整因子λ,这里取2.5。则具体的匹配相似度公式为: 
P a = Dis ( H A , H B ) if s i = s j &lambda;Dis ( H A , H B ) if s i &NotEqual; s j - - - ( 9 )
Dis(HA,HB)的计算方法如(6)式所示。则将(9)式代入到(8)式中,即可求得每条流的代价能量。通过遍历最终得到使后验概率最大的集合T即为所求的多场景目标跟踪和再识别的结果。 
本发明延用单场景轨迹数据融合的思想,将其扩展到多场景全局的轨迹数据融合,区分对待来自于同一场景或者不同场景的轨迹匹配。简化了传统的两步的多目标跟踪方法,将其统一在一个统一的数据融合过程中。采用分段的主颜色谱直方图特征,并利用最小化不确定度的方法提高了目标再识别的准确率。 
本发明跨摄像机的视觉目标再识别方法在单场景算法效果不理想的情况下,也能得到较好的接力效果,实现多场景下视觉目标再识别。适用于非重叠场景。利用新的特征表达及相似度计算方法进一步提高再识别的准确率。 
专业人员应该还可以进一步意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、计算机软件或者二者的结合来实现,为了清楚地说明硬件和软件的可互换性,在上述说明中已经按照功能一般性地描述了各示例的组成及步骤。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每 个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。 
结合本文中所公开的实施例描述的方法或算法的步骤可以用硬件、处理器执行的软件模块,或者二者的结合来实施。软件模块可以置于随机存储器(RAM)、内存、只读存储器(ROM)、电可编程ROM、电可擦除可编程ROM、寄存器、硬盘、可移动磁盘、CD-ROM、或技术领域内所公知的任意其它形式的存储介质中。 
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。 

Claims (5)

1.一种大范围优先的跨摄像机视觉目标再识别方法,其特征在于,所述方法包括:
步骤S1,获得单场景目标的初始轨迹;
步骤S2,计算每条轨迹的分段主颜色谱直方图特征,得到轨迹特征表达;
步骤S3,利用最小化不确定度的方法得到任意两条轨迹间匹配度的计算公式,从而得到任意两条轨迹间匹配度;
步骤S4,对所有轨迹采用最大后验概率的方法进行全局数据融合得到跨场景的跟踪结果。
2.根据权利要求1所述的方法,其特征在于,所述步骤S1中,对每一轨迹,所有帧的置信度的平均值被用来表示该轨迹的轨迹准确度:
c = &Sigma; j = t s t e &alpha; j / ( t e - t s ) - - - ( 1 )
其中,置信度α表示对于每一帧的跟踪结果,α<0.2表示跟踪目标丢失,ts和te分别为该轨迹的起始帧和结束帧;
最后形成的所有目标轨迹的集合为L={l1,l2,...,lN},N为轨迹综述,每一条轨迹li=[xi,ci,si,ti,ai],分别表示轨迹的位置,准确度,所属场景,时间和表观特征。
3.根据权利要求2所述的方法,其特征在于,所述步骤S2具体包括:
计算每帧中目标的颜色直方图,然后根据其H和S值,将颜色分为16*2个颜色,从中选取前n个颜色值作为该目标该帧的特征:
h={C1,C2,..,Cn}                     (2)
其中,Ci为前n种像素数之和占总像素数比例的90%以上的颜色,每一条轨迹的总特征为:
H = &Sigma; i = 1 m k h i - - - ( 3 )
其中,mk为轨迹k的长度;
对总特征H中的所有特征hi,利用计算相互间的相似度Λ=Sim(hi,hj),通过其轨迹中每帧间的相似度信息找到运动周期,利用周期对原来轨迹特征H进行重新分段,通过下式得到总特征H中可能存在的周期性信息p:
p = arg max t 1 m k - t &Sigma; j = 1 m t - t &Lambda; j , j + t - - - ( 4 )
利用周期性信息p对将轨迹重新进行均匀分段,至此得到轨迹的分段主颜色谱直方图特征:
H={H1,H2,...,Hd}                (5)
其中,表示轨迹分段的段数。
4.根据权利要求3所述的方法,其特征在于,所述步骤S3具体包括:
计算两条轨迹间相似度指导轨迹间的匹配,在最大化相似度的同时最小化不确定度,由此使得得到的相似度匹配值能反映两轨迹间的真实相似关系,匹配公式为:
Dis ( H A , H B ) = 1 - max Sim ( H i A , H j B ) - min Sim ( H u A , H v B ) max Sim ( H i A , H j B ) + min Sim ( H u A , H v B ) - - - ( 6 )
其中,HA和HB为两段不同轨迹的分段主颜色谱直方图特征,分别为其中的某一段,i={1,2,...,dA},j={1,2,...,dB}。
5.根据权利要求4所述的方法,其特征在于,所述步骤S4具体包括:
步骤S4-1,每一条全局融合后的轨迹为那么总的融合后的轨迹集合为T={T1,T2,...,Tm},m为融合后的轨迹数目;在给定轨迹集合L和融合后轨迹间无重叠的条件下,集合T的最大后验概率为:
T * arg max T &Pi; i P ( l i | T ) &Pi; T k &Element; T P ( T k ) - - - ( 7 )
T i &cap; T j = &phi; , &ForAll; i &NotEqual; j
其中,P(li|T)为轨迹li的相似度,P(Tk)为可能的融合后的轨迹的先验概率,它可以表示为一条包含转移概率的马尔科夫链;
步骤S4-2,建立图结构,其中每个节点表示一个轨迹片段li,其值为ci,每条边表示先验概率P(li→lj),从整个图中最小的代价函数流得到使得T*最大的集合,对于每条流的代价能量eij用负对数函数表示:
eij=-logP(L|li→lj)P(li→lj)           (8)
=-log(Pm*Pt*Pa)
其中,Pm和Pt分别表示轨迹间的运动信息和时间信息的匹配概率,Pa表示轨迹表观特征间的匹配概率,匹配相似度公式为:
P a = Dis ( H A , H B ) if s i = s j &lambda;Dis ( H A , H B ) if s i &NotEqual; s j - - - ( 9 )
得到每条流的代价能量,遍历最终得到使后验概率最大的集合T即为多场景目标跟踪和再识别的结果。
CN201480000159.1A 2014-04-30 2014-04-30 大范围优先的跨摄像机视觉目标再识别方法 Active CN104094279B (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/CN2014/076640 WO2015165092A1 (zh) 2014-04-30 2014-04-30 大范围优先的跨摄像机视觉目标再识别方法

Publications (2)

Publication Number Publication Date
CN104094279A true CN104094279A (zh) 2014-10-08
CN104094279B CN104094279B (zh) 2017-05-10

Family

ID=51640973

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480000159.1A Active CN104094279B (zh) 2014-04-30 2014-04-30 大范围优先的跨摄像机视觉目标再识别方法

Country Status (3)

Country Link
US (1) US9996939B2 (zh)
CN (1) CN104094279B (zh)
WO (1) WO2015165092A1 (zh)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704824A (zh) * 2017-09-30 2018-02-16 北京正安维视科技股份有限公司 基于空间约束的行人重识别方法及设备
CN108986143A (zh) * 2018-08-17 2018-12-11 浙江捷尚视觉科技股份有限公司 一种视频中目标检测跟踪方法
CN109522843A (zh) * 2018-11-16 2019-03-26 北京市商汤科技开发有限公司 一种多目标跟踪方法及装置、设备和存储介质
CN110223329A (zh) * 2019-05-10 2019-09-10 华中科技大学 一种多摄像机多目标跟踪方法
CN110675432A (zh) * 2019-10-11 2020-01-10 智慧视通(杭州)科技发展有限公司 一种基于多维特征融合的视频多目标跟踪方法
CN110728702A (zh) * 2019-08-30 2020-01-24 深圳大学 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统
CN112102371A (zh) * 2020-09-14 2020-12-18 湖州中科院应用技术研究与产业化中心 基于整体图平均化模型的群体目标轨迹分析模型
CN112529939A (zh) * 2020-12-15 2021-03-19 广州云从鼎望科技有限公司 一种目标轨迹匹配方法、装置、机器可读介质及设备
CN112541457A (zh) * 2020-12-21 2021-03-23 重庆紫光华山智安科技有限公司 一种监控节点的搜索方法及相关装置
CN113515982A (zh) * 2020-05-22 2021-10-19 阿里巴巴集团控股有限公司 轨迹还原方法及设备、设备管理方法及管理设备
CN117455958A (zh) * 2023-12-22 2024-01-26 武汉以彼古罗咨询服务有限公司 一种面向精子识别的轨迹追踪方法和装置

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110473232B (zh) * 2017-07-14 2024-02-09 腾讯科技(深圳)有限公司 图像识别方法、装置、存储介质及电子设备
CN110163041A (zh) * 2018-04-04 2019-08-23 腾讯科技(深圳)有限公司 视频行人再识别方法、装置及存储介质
CN108765459A (zh) * 2018-04-18 2018-11-06 中国人民解放军国防科技大学 基于小轨迹图关联模型的半在线视觉多目标跟踪方法
CN108875588B (zh) * 2018-05-25 2022-04-15 武汉大学 基于深度学习的跨摄像头行人检测跟踪方法
CN108876823B (zh) * 2018-07-02 2022-05-17 晋建志 基于时空连续性的单目跨相机多目标识别定位跟踪装置及方法
CN110750681B (zh) * 2018-07-05 2022-08-16 武汉斗鱼网络科技有限公司 一种账号相似度计算方法、存储介质、电子设备及系统
US10958854B2 (en) 2018-11-02 2021-03-23 BriefCam Ltd. Computer-implemented method for generating an output video from multiple video sources
US11527265B2 (en) 2018-11-02 2022-12-13 BriefCam Ltd. Method and system for automatic object-aware video or audio redaction
CN109521420B (zh) * 2018-12-20 2022-10-04 西安电子科技大学 基于多特征匹配的多目标跟踪方法
CN110706251B (zh) * 2019-09-03 2022-09-23 北京正安维视科技股份有限公司 一种行人跨镜头跟踪方法
CN112149740B (zh) * 2020-09-25 2021-12-28 上海商汤智能科技有限公司 目标重识别方法、装置、存储介质及设备
CN112200841B (zh) * 2020-09-30 2021-08-27 杭州海宴科技有限公司 一种基于行人体态的跨域多摄像头跟踪方法和装置
CN117495913B (zh) * 2023-12-28 2024-04-30 中电科新型智慧城市研究院有限公司 夜间目标轨迹的跨时空关联方法和装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080040179A1 (en) * 2006-08-14 2008-02-14 Deutsche Boerse Ag System and method for sharing information and causing an action based on that information
CN101277429A (zh) * 2007-03-27 2008-10-01 中国科学院自动化研究所 监控中多路视频信息融合处理与显示的方法和系统
CN101854516A (zh) * 2009-04-02 2010-10-06 北京中星微电子有限公司 视频监控系统、视频监控服务器及视频监控方法
CN102724773A (zh) * 2012-05-25 2012-10-10 西安电子科技大学 基于m2m通信的无线智能监控装置及方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
US20050146605A1 (en) * 2000-10-24 2005-07-07 Lipton Alan J. Video surveillance system employing video primitives
US7242421B2 (en) * 2000-11-10 2007-07-10 Perceptive Network Technologies, Inc. Methods of establishing a communications link using perceptual sensing of a user's presence
WO2003032143A2 (en) * 2001-10-12 2003-04-17 Hrl Laboratories, Llc Vision-based pointer tracking method and apparatus
US7558762B2 (en) * 2004-08-14 2009-07-07 Hrl Laboratories, Llc Multi-view cognitive swarm for object recognition and 3D tracking
US7623676B2 (en) * 2004-12-21 2009-11-24 Sarnoff Corporation Method and apparatus for tracking objects over a wide area using a network of stereo sensors
US20060170769A1 (en) * 2005-01-31 2006-08-03 Jianpeng Zhou Human and object recognition in digital video
WO2008031088A2 (en) * 2006-09-08 2008-03-13 Advanced Fuel Research, Inc. Image analysis by object addition and recovery
US8098891B2 (en) * 2007-11-29 2012-01-17 Nec Laboratories America, Inc. Efficient multi-hypothesis multi-human 3D tracking in crowded scenes
US9916538B2 (en) * 2012-09-15 2018-03-13 Z Advanced Computing, Inc. Method and system for feature detection
WO2013178725A1 (en) * 2012-05-31 2013-12-05 Thomson Licensing Segmentation of a foreground object in a 3d scene
US9489743B2 (en) * 2013-03-13 2016-11-08 Mecommerce, Inc. Determining dimension of target object in an image using reference object

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20080040179A1 (en) * 2006-08-14 2008-02-14 Deutsche Boerse Ag System and method for sharing information and causing an action based on that information
CN101277429A (zh) * 2007-03-27 2008-10-01 中国科学院自动化研究所 监控中多路视频信息融合处理与显示的方法和系统
CN101854516A (zh) * 2009-04-02 2010-10-06 北京中星微电子有限公司 视频监控系统、视频监控服务器及视频监控方法
CN102724773A (zh) * 2012-05-25 2012-10-10 西安电子科技大学 基于m2m通信的无线智能监控装置及方法

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107704824A (zh) * 2017-09-30 2018-02-16 北京正安维视科技股份有限公司 基于空间约束的行人重识别方法及设备
CN107704824B (zh) * 2017-09-30 2020-05-29 北京正安维视科技股份有限公司 基于空间约束的行人重识别方法及设备
CN108986143B (zh) * 2018-08-17 2022-05-03 浙江捷尚视觉科技股份有限公司 一种视频中目标检测跟踪方法
CN108986143A (zh) * 2018-08-17 2018-12-11 浙江捷尚视觉科技股份有限公司 一种视频中目标检测跟踪方法
CN109522843A (zh) * 2018-11-16 2019-03-26 北京市商汤科技开发有限公司 一种多目标跟踪方法及装置、设备和存储介质
CN110223329A (zh) * 2019-05-10 2019-09-10 华中科技大学 一种多摄像机多目标跟踪方法
CN110728702A (zh) * 2019-08-30 2020-01-24 深圳大学 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统
CN110728702B (zh) * 2019-08-30 2022-05-20 深圳大学 一种基于深度学习的高速跨摄像头单目标跟踪方法及系统
CN115311330A (zh) * 2019-10-11 2022-11-08 杭州云栖智慧视通科技有限公司 一种基于位置预测的视频多目标跟踪方法
CN115311330B (zh) * 2019-10-11 2023-04-07 杭州云栖智慧视通科技有限公司 一种基于位置预测的视频多目标跟踪方法
CN115311329B (zh) * 2019-10-11 2023-05-23 杭州云栖智慧视通科技有限公司 一种基于双环节约束的视频多目标跟踪方法
CN110675432B (zh) * 2019-10-11 2022-11-08 杭州云栖智慧视通科技有限公司 一种基于多维特征融合的视频多目标跟踪方法
CN115311329A (zh) * 2019-10-11 2022-11-08 杭州云栖智慧视通科技有限公司 一种基于双环节约束的视频多目标跟踪方法
CN110675432A (zh) * 2019-10-11 2020-01-10 智慧视通(杭州)科技发展有限公司 一种基于多维特征融合的视频多目标跟踪方法
CN113515982B (zh) * 2020-05-22 2022-06-14 阿里巴巴集团控股有限公司 轨迹还原方法及设备、设备管理方法及管理设备
CN113515982A (zh) * 2020-05-22 2021-10-19 阿里巴巴集团控股有限公司 轨迹还原方法及设备、设备管理方法及管理设备
CN112102371A (zh) * 2020-09-14 2020-12-18 湖州中科院应用技术研究与产业化中心 基于整体图平均化模型的群体目标轨迹分析模型
CN112529939A (zh) * 2020-12-15 2021-03-19 广州云从鼎望科技有限公司 一种目标轨迹匹配方法、装置、机器可读介质及设备
CN112541457B (zh) * 2020-12-21 2021-10-26 重庆紫光华山智安科技有限公司 一种监控节点的搜索方法及相关装置
CN112541457A (zh) * 2020-12-21 2021-03-23 重庆紫光华山智安科技有限公司 一种监控节点的搜索方法及相关装置
CN117455958A (zh) * 2023-12-22 2024-01-26 武汉以彼古罗咨询服务有限公司 一种面向精子识别的轨迹追踪方法和装置
CN117455958B (zh) * 2023-12-22 2024-03-08 武汉以彼古罗咨询服务有限公司 一种面向精子识别的轨迹追踪方法和装置

Also Published As

Publication number Publication date
US9996939B2 (en) 2018-06-12
WO2015165092A1 (zh) 2015-11-05
US20170116753A1 (en) 2017-04-27
CN104094279B (zh) 2017-05-10

Similar Documents

Publication Publication Date Title
CN104094279A (zh) 大范围优先的跨摄像机视觉目标再识别方法
CN110660082B (zh) 一种基于图卷积与轨迹卷积网络学习的目标跟踪方法
WO2020206861A1 (zh) 基于YOLO v3的针对交通枢纽关键物体的检测方法
CN107943837A (zh) 一种前景目标关键帧化的视频摘要生成方法
CN102708182B (zh) 一种快速视频浓缩摘要方法
CN103578119A (zh) 基于超像素的Codebook动态场景中目标检测方法
CN107368845A (zh) 一种基于优化候选区域的Faster R‑CNN目标检测方法
CN108803617A (zh) 轨迹预测方法及装置
CN106022237A (zh) 一种端到端的卷积神经网络的行人检测方法
CN106203513A (zh) 一种基于行人头肩多目标检测及跟踪的统计方法
CN103929685A (zh) 一种视频摘要生成及索引方法
CN113076809A (zh) 一种基于视觉Transformer的高空坠物检测方法
CN103208126A (zh) 一种自然环境下运动物体监测方法
CN106529477A (zh) 基于显著轨迹和时空演化信息的视频人体行为识别方法
CN103235944A (zh) 人群流分割及人群流异常行为识别方法
Li et al. Sign language recognition based on computer vision
CN111666823B (zh) 基于个体步行运动时空规律协同辨识的行人重识别方法
CN109389185A (zh) 使用三维卷积神经网络的视频烟雾识别方法
CN103646257A (zh) 一种基于视频监控图像的行人检测和计数方法
CN106846378A (zh) 一种结合时空拓扑估计的跨摄像机目标匹配与跟踪方法
Tomar et al. Crowd analysis in video surveillance: A review
JP2022082493A (ja) ノイズチャネルに基づくランダム遮蔽回復の歩行者再識別方法
CN107622507A (zh) 一种基于深度学习的空中目标跟踪方法
Zhang et al. A cross-modal fusion based approach with scale-aware deep representation for RGB-D crowd counting and density estimation
Liu et al. Centerness-aware network for temporal action proposal

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant