CN111627045B - 单镜头下的多行人在线跟踪方法、装置、设备及存储介质 - Google Patents
单镜头下的多行人在线跟踪方法、装置、设备及存储介质 Download PDFInfo
- Publication number
- CN111627045B CN111627045B CN202010374066.2A CN202010374066A CN111627045B CN 111627045 B CN111627045 B CN 111627045B CN 202010374066 A CN202010374066 A CN 202010374066A CN 111627045 B CN111627045 B CN 111627045B
- Authority
- CN
- China
- Prior art keywords
- frame
- target
- pedestrian
- tracking
- matching
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
- G06T7/248—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/277—Analysis of motion involving stochastic approaches, e.g. using Kalman filters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20088—Trinocular vision calculations; trifocal tensor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30232—Surveillance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
本申请实施例公开了一种单镜头下的多行人在线跟踪方法、装置、设备及存储介质。在单路视频流的每帧画面得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框;计算目标框对应的行人身份重定位特征向量;根据目标框的位置和行人身份重定位特征向量计算所述目标框与目标跟踪器的位置损失代价和行人重定位损失代价;根据位置损失代价和行人重定位损失代价计算综合损失代价;根据综合损失代价计算轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系;根据匹配关系、位置损失代价和身份重定位损失代价,基于行人检测框、卡尔曼跟踪框和单目标跟踪框生成轨迹跟踪框。在同一镜头下,对行人行走时的短时完全遮挡,能够形成有效的跟踪。
Description
技术领域
本发明涉及视频图像跟踪领域,尤其涉及一种单镜头下的多行人在线跟踪方法、装置、设备及存储介质。
背景技术
近些年,随着图像技术的不断发展,行人跟踪功能被逐渐应用于监控安防、智慧零售、智慧城市等领域。对于诸如道路卡口、商场、门店等区域,往往通过设置监控摄像头来对来往人群进行监视。可以利用行人跟踪技术对监控图像的所有来往行人进行持续检测,对同一行人持续跟踪。目前,通过行人检测技术逐帧抽取监控图像或抽取部分帧监控图像,并在抽取的监控图像中标识行人框。利用从各行人框提取的特征向量,对所有监控图像中的行人框进行匹配,以获得行人跟踪结果。
发明人在实现行人跟踪过程中发现,在进行行人跟踪时,由于检测模型性能不稳定、行人的非刚性属性以及外观相似容易导致跟踪目标的身份切换。
发明内容
本申请实施例提供一种单镜头下的多行人在线跟踪方法、装置、设备及存储介质,以消除各种异常场景下可能导致的跟踪目标身份切换问题。
第一方面,本申请实施例提供了一种单镜头下的多行人在线跟踪方法,包括:
在单路视频流的每帧画面进行行人检测、卡尔曼跟踪和单目标跟踪,分别得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框;
计算每帧画面中的目标框对应的行人身份重定位特征向量;
根据所述目标框的位置和所述行人身份重定位特征向量计算所述目标框与轨迹跟踪器的位置损失代价和行人重定位损失代价;
根据所述位置损失代价和行人重定位损失代价计算对应的综合损失代价;
根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系;
根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框。
其中,所述位置损失代价Llocation通过以下公式计算:
Llocation=1-flocation(A1,A2)
flocation(A1,A2)=fd(A1,A2)+fiou(A1,A2)
所述行人重定位损失代价Lappearance通过以下公式计算:
Lappearance=1-cos(xbox,i,xtrace,j)
xbox,i=F(IAi)
其中,xbox,i表示所述目标框对应的行人身份重定位特征向量,xtrace,j表示所述轨迹跟踪器记录的外观特征,F()表示行人身份重定位特征向量提取器,IAi表示目标框对应的图像。
其中,所述综合损失代价L通过以下公式计算:
L=αLlocation+(1-α)Lappearance
其中,α表示位置损失代价的权重,1-α表示行人重定位损失代价的权重。
其中,所述轨迹跟踪器对应于所述行人检测框、卡尔曼跟踪框和单目标跟踪框的综合损失代价分别通过三个综合损失代价矩阵Qd、Qk和Qs表示,Qi是一个m x ni的矩阵,其中,m表示目标跟踪框的数量,ni表示目标框的数量,d、k和s分别表示行人检测框、卡尔曼跟踪框和单目标跟踪框,i∈{d,k,s};
对应的,所述根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系,包括:
将所述综合损失代价矩阵中大于设定阈值的第一矩阵元素值修改为预设的第一标准值;
对所述综合损失代价矩阵Qi求解最小关联成本得到对应的单一匹配关系Pi;
根据所述单一匹配关系计算初次匹配关系P;
对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配得到二次匹配关系P';
将所述初次匹配关系P和二次匹配关系P'的并集作为最终的匹配关系。
其中,所述初次匹配关系P通过以下公式计算:
P=fr(xt,At,<Pi>,<Ai>,<xi>),i∈(d,k,s)
其中,<Ti>表示<Td,Tk,Ts>的输入集合,fr表示匹配关系计算函数,ξt表示所述轨迹跟踪器记录的外观特征,At表示所述目标跟踪框,Ai表示所述目标框,ξi表示所述目标框对应的行人身份重定位特征向量。
其中,所述二次匹配代价函数L2表述如下:
L2=γ×fiou(TL1,AL1)+(1-γ)×fmotion
其中,TL1和AL1分别表示P中没有匹配的目标跟踪框和没有匹配的目标框,分别表示目标跟踪框的运动矢量和目标跟踪框与目标框之间的运动矢量,函数fv()表示之间的相似度,γ表示fiou(TL1,AL1)的权重,1-γ表示fmotion的权重;
对应的,所述对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配,具体为:
将所述二次匹配代价函数计算得到的二次损失代价矩阵中大于设定阈值的第二矩阵元素值修改为预设的第二标准值;
对所述二次损失代价矩阵求解最小关联成本得到对应的二次匹配关系P'。
其中,所述根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的目标跟踪框,具体为:
通过TA=fbox(<Qi>,Q2,TP,<Ai>,At,<xi>,xt),i∈(d,k,s)计算当前帧的轨迹跟踪框;
其中TA表示当前帧的轨迹跟踪框,TP表示匹配关系,fbox()表示轨迹跟踪框的计算函数,Q2表示所述二次损失代价矩阵。
其中,所述方法还包括:
其中,表示更新后的外观特征,表示更新前的外观特征,表示TA对应的图像块的外观特征,λ表示更新系数,fkalmanUpdate表示卡尔曼跟踪器更新函数,fsingleUpdate表示单目标跟踪器更新函数。
其中,所述方法还包括:
其中,fupdateMotion表示目标跟踪框的运动矢量的更新函数,TBstaleness表示更新前的轨迹跟踪器的目标跟踪框,TA表示当前帧的轨迹跟踪框。
其中,所述方法还包括:
通过TBupdate=ftraceBoxUpdate(TA,TBstaleness)对所述目标跟踪框进行更新;
其中,ftraceBoxUpdate表示目标跟踪框更新函数,TA表示当前帧的轨迹跟踪框,TBstaleness表示更新前的轨迹跟踪器的目标跟踪框。
其中,所述方法还包括:
如果当前帧的行人检测框没有匹配到轨迹跟踪器,则用当前帧的行人检测框以及对应的行人身份重定位特征向量新建候选轨迹跟踪器;
当所述候选轨迹跟踪器在设定帧区间中跟所述目标框的匹配数量大于第一阈值,且连续匹配数量大于第二阈值,则将所述候选轨迹跟踪器确认为轨迹跟踪器。
其中,所述方法还包括:
对匹配结果为空的轨迹跟踪器,根据关联关系函数与候选轨迹跟踪器进行关联匹配;
对匹配结果为空的候选轨迹跟踪器,根据关联关系函数与轨迹跟踪器进行关联匹配;
当关联匹配的结果大于设定的合并阈值,则将对应的候选轨迹跟踪器和轨迹跟踪器合并。
其中,每个所述轨迹跟踪器记录有对应的目标标识;
所述方法还包括:
实时或连续显示所述目标跟踪框以及对应的目标标识。
第二方面,本申请实施例提供了一种单镜头下的多行人在线跟踪装置,包括:
检测单元,用于在单路视频流的每帧画面进行行人检测、卡尔曼跟踪和单目标跟踪,分别得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框;
特征计算单元,用于计算每帧画面中的目标框对应的行人身份重定位特征向量;
代价计算单元,用于根据所述目标框的位置和所述行人身份重定位特征向量计算所述目标框与轨迹跟踪器的位置损失代价和行人重定位损失代价;
代价综合单元,用于根据所述位置损失代价和行人重定位损失代价计算对应的综合损失代价;
关系匹配单元,用于根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系;
轨迹生成单元,用于根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框。
其中,所述位置损失代价Llocation通过以下公式计算:
Llocation=1-flocation(A1,A2)
flocation(A1,A2)=fd(A1,A2)+fiou(A1,A2)
所述行人重定位损失代价Lappearance通过以下公式计算:
Lappearance=1-cos(xbox,i,xtrace,j)
xbox,i=F(IAi)
其中,xbox,i表示所述目标框对应的行人身份重定位特征向量,xtrace,j表示所述轨迹跟踪器记录的外观特征,F()表示行人身份重定位特征向量提取器,IAi表示目标框对应的图像。
其中,所述综合损失代价L通过以下公式计算:
L=αLlocation+(1-α)Lappearance
其中,α表示位置损失代价的权重,1-α表示行人重定位损失代价的权重。
其中,所述轨迹跟踪器对应于所述行人检测框、卡尔曼跟踪框和单目标跟踪框的综合损失代价分别通过三个综合损失代价矩阵Qd、Qk和Qs表示,Qi是一个m x ni的矩阵,其中,m表示目标跟踪框的数量,ni表示目标框的数量,d、k和s分别表示行人检测框、卡尔曼跟踪框和单目标跟踪框,i∈{d,k,s};
对应的,所述根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系,包括:
将所述综合损失代价矩阵中大于设定阈值的第一矩阵元素值修改为预设的第一标准值;
对所述综合损失代价矩阵Qi求解最小关联成本得到对应的单一匹配关系Pi;
根据所述单一匹配关系计算初次匹配关系P;
对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配得到二次匹配关系P';
将所述初次匹配关系P和二次匹配关系P'的并集作为最终的匹配关系。
其中,所述初次匹配关系P通过以下公式计算:
P=fr(xt,At,<Pi>,<Ai>,<xi>),i∈(d,k,s)
其中,<Ti>表示<Td,Tk,Ts>的输入集合,fr表示匹配关系计算函数,ξt表示所述轨迹跟踪器记录的外观特征,At表示所述目标跟踪框,Ai表示所述目标框,ξi表示所述目标框对应的行人身份重定位特征向量。
其中,所述二次匹配代价函数L2表述如下:
L2=γ×fiou(TL1,AL1)+(1-γ)×fmotion
其中TL1和AL1分别表示P中没有匹配的目标跟踪框和没有匹配的目标框,分别表示目标跟踪框的运动矢量和目标跟踪框与目标框之间的运动矢量,函数fv()表示之间的相似度,γ表示fiou(TL1,AL1)的权重,1-γ表示fmotion的权重;
对应的,所述对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配,具体为:
将所述二次匹配代价函数计算得到的二次损失代价矩阵中大于设定阈值的第二矩阵元素值修改为预设的第二标准值;
对所述二次损失代价矩阵求解最小关联成本得到对应的二次匹配关系P'。
其中,所述根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框,具体为:
通过TA=fbox(<Qi>,Q2,TP,<Ai>,At,<xi>,xt),i∈(d,k,s)计算当前帧的轨迹跟踪框;
其中TA表示当前帧的轨迹跟踪框,TP表示匹配关系,fbox()表示轨迹跟踪框的计算函数,Q2表示所述二次损失代价矩阵。
其中,所述装置还包括:
其中,表示更新后的外观特征,表示更新前的外观特征,表示TA对应的图像块的外观特征,λ表示更新系数,fkalmanUpdate表示卡尔曼跟踪器更新函数,fsingleUpdate表示单目标跟踪器更新函数。
其中,所述装置还包括:
其中,fupdateMotion表示目标跟踪框的运动矢量的更新函数,TBstaleness表示更新前的轨迹跟踪器的目标跟踪框,TA表示当前帧的轨迹跟踪框。
其中,所述装置还包括:
目标跟踪框更新单元,用于通过TBupdate=ftraceBoxUpdate(TA,TBstaleness)对所述目标跟踪框进行更新;
其中,ftraceBoxUpdate表示目标跟踪框更新函数,TA表示当前帧的轨迹跟踪框,TBstaleness表示更新前的轨迹跟踪器的目标跟踪框。
其中,所述装置还包括:
候选新建单元,用于如果当前帧的行人检测框没有匹配到轨迹跟踪器,则用当前帧的行人检测框以及对应的行人身份重定位特征向量新建候选轨迹跟踪器;
候选确认单元,用于当所述候选轨迹跟踪器在设定帧区间中跟所述目标框的匹配数量大于第一阈值,且连续匹配数量大于第二阈值,则将所述候选轨迹跟踪器确认为轨迹跟踪器。
其中,所述装置还包括:
第一匹配单单元,用于对匹配结果为空的轨迹跟踪器,根据关联关系函数与候选轨迹跟踪器进行关联匹配;
第二匹配单元,用于对匹配结果为空的候选轨迹跟踪器,根据关联关系函数与轨迹跟踪器进行关联匹配;
合并单元,用于当关联匹配的结果大于设定的合并阈值,则将对应的候选轨迹跟踪器和轨迹跟踪器合并。
其中,每个所述轨迹跟踪器记录有对应的目标标识;
所述装置还包括:
轨迹显示单元,用于实时或连续显示所述目标跟踪框以及对应的目标标识。
第三方面,本申请实施例提供了一种计算机设备,包括:存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如第一方面所述的单镜头下的多行人在线跟踪方法。
在第四方面,本申请实施例提供了一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如第一方面所述的单镜头下的多行人在线跟踪方法。
本申请实施例通过在单路视频流的每帧画面进行行人检测、卡尔曼跟踪和单目标跟踪,分别得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框;计算每帧画面中的目标框对应的行人身份重定位特征向量;根据所述目标框的位置和所述行人身份重定位特征向量计算所述目标框与目标跟踪框的位置损失代价和行人重定位损失代价;根据所述位置损失代价和行人重定位损失代价计算对应的综合损失代价;根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系;根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框。在同一镜头下,对行人行走时的短时完全遮挡,能够形成有效的跟踪。
附图说明
图1是本申请实施例提供的一种单镜头下的多行人在线跟踪方法的流程图;
图2是本申请实施例提供的多行人在线跟踪方法的数据处理过程示意图;
图3是本申请实施例提供的一种单镜头下的多行人在线跟踪装置的结构示意图;
图4是本申请实施例提供的计算机设备的结构示意图。
具体实施方式
为了使本申请的目的、技术方案和优点更加清楚,下面结合附图对本申请具体实施例作进一步的详细描述。可以理解的是,此处所描述的具体实施例仅仅用于解释本申请,而非对本申请的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本申请相关的部分而非全部内容。在更加详细地讨论示例性实施例之前应当提到的是,一些示例性实施例被描述成作为流程图描绘的处理或方法。虽然流程图将各项操作(或步骤)描述成顺序的处理,但是其中的许多操作可以被并行地、并发地或者同时实施。此外,各项操作的顺序可以被重新安排。当其操作完成时所述处理可以被终止,但是还可以具有未包括在附图中的附加步骤。所述处理可以对应于方法、函数、规程、子例程、子程序等等。
图1给出了本申请实施例提供的一种单镜头下的多行人在线跟踪方法的流程图,本申请实施例提供的单镜头下的多行人在线跟踪方法可以由单镜头下的多行人在线跟踪装置来执行,该单镜头下的多行人在线跟踪装置可通过硬件和/或软件的方式实现,并集成在计算机设备中。
下述以单镜头下的多行人在线跟踪装置执行单镜头下的多行人在线跟踪方法为例进行描述。参考图1,该单镜头下的多行人在线跟踪方法包括:
S110:在单路视频流的每帧画面进行行人检测、卡尔曼跟踪和单目标跟踪,分别得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框。
在目标跟踪过程中,如果输入图像是第一帧具有目标的图像,那么,使用行人检测器对当前帧进行行人检测,利用检测得到的行人信息初始化轨迹跟踪器、卡尔曼跟踪器和单目标跟踪器。其中轨迹跟踪器是由行人检测器、卡尔曼跟踪器和单目标跟踪器通过设定的规则组合构成。
行人检测器通过行人检测算法,比如传统的Hog,LBP等特征结合SVM分类器构成的行人检测器,或者是通过训练一个深度神经网络得到一个行人检测器,比如Faster-RCNN,YOLO,SSD,retinanet等,对当前输入视频帧进行行人检测,得到当前帧的行人位置信息Rect(x,y,w,h),置信度score以及Rect(x,y,w,h)对应的图像块,即行人检测框。
单目标跟踪器,可以是由核相关滤波,staple,或者基于深度神经网络的跟踪器等等构成。
如果输入的不是第一帧含有目标的图像,那么,使用行人检测器对当前帧进行检测,并且由卡尔曼跟踪器,单目标跟踪器分别进行跟踪,获得对应的目标信息。
S120:计算每帧画面中的目标框对应的行人身份重定位特征向量。
行人身份重定位特征向量具有如下特点:行人身份重定位特征向量用于表述行人的特征,其获取方式很多,比如HOG特征,颜色特征,几何特征,基于深度学习网络学习得到的特征等等。本发明优先采用的是基于深度学习网络学习得到的特征。
S130:根据所述目标框的位置和所述行人身份重定位特征向量计算所述目标框与轨迹跟踪器的位置损失代价和行人重定位损失代价。
在具体实施过程中,所述位置损失代价Llocation通过以下公式计算:
Llocation=1-flocation(A1,A2)
flocation(A1,A2)=fd(A1,A2)+fiou(A1,A2)
所述行人重定位损失代价Lappearance通过以下公式计算:
Lappearance=1-cos(xbox,i,xtrace,j)
xbox,i=F(IAi)
其中,xbox,i表示所述目标框对应的行人身份重定位特征向量,xtrace,j表示所述轨迹跟踪器记录的外观特征,F()表示行人身份重定位特征向量提取器,IAi表示目标框对应的图像。
S140:根据所述位置损失代价和行人重定位损失代价计算对应的综合损失代价。
在以上位置损失代价和行人重定位损失代价的基础上,所述综合损失代价L通过以下公式计算:
L=αLlocation+(1-α)Lappearance
其中,α表示位置损失代价的权重,1-α表示行人重定位损失代价的权重。
S150:根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系。
在具体的数据处理过程中,所述轨迹跟踪器对应于所述行人检测框、卡尔曼跟踪框和单目标跟踪框的综合损失代价分别通过三个综合损失代价矩阵Qd、Qk和Qs表示,Qi是一个m x ni的矩阵,其中,m表示目标跟踪框的数量(也就是轨迹跟踪器的数量),ni表示目标框的数量,d、k和s分别表示行人检测框、卡尔曼跟踪框和单目标跟踪框,i∈{d,k,s}。
具体匹配关系可以进一步细化通过步骤S151-步骤S154实现:
步骤S151:将所述综合损失代价矩阵中大于设定阈值的第一矩阵元素值修改为预设的第一标准值。
步骤S152:对所述综合损失代价矩阵Qi求解最小关联成本得到对应的单一匹配关系Pi。
步骤S153:根据所述单一匹配关系计算初次匹配关系P。
所述初次匹配关系P通过以下公式计算:
P=fr(xt,At,<Pi>,<Ai>,<xi>),i∈(d,k,s)
其中,<Ti>表示<Td,Tk,Ts>的输入集合,fr表示匹配关系计算函数,ξt表示所述轨迹跟踪器记录的外观特征,At表示所述目标跟踪框,Ai表示所述目标框,ξi表示所述目标框对应的行人身份重定位特征向量。
步骤S154:对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配得到二次匹配关系P'。
所述二次匹配代价函数L2表述如下:
L2=γ×fiou(TL1,AL1)+(1-γ)×fmotion
其中TL1和AL1分别表示P中没有匹配的目标跟踪框和没有匹配的目标框,分别表示目标跟踪框的运动矢量和目标跟踪框与目标框之间的运动矢量,函数fv()表示之间的相似度,γ表示fiou(TL1,AL1)的权重,1-γ表示fmotion的权重;
在具体二次匹配过程中,将所述二次匹配代价函数计算得到的二次损失代价矩阵中大于设定阈值的第二矩阵元素值修改为预设的第二标准值;对所述二次损失代价矩阵求解最小关联成本得到对应的二次匹配关系P'。
步骤S155:将所述初次匹配关系P和二次匹配关系P'的并集作为最终的匹配关系。
S160:根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框。
具体来说,通过TA=fbox(<Qi>,Q2,TP,<Ai>,At,<xi>,xt),i∈(d,k,s)计算当前帧的轨迹跟踪框;
其中TA表示当前帧的轨迹跟踪框,TP表示匹配关系,fbox()表示轨迹跟踪框的计算函数,Q2表示所述二次损失代价矩阵。
在上述实施例的基础上,所述方法还包括:
其中,表示更新后的外观特征,表示更新前的外观特征,表示TA对应的图像块的外观特征,λ表示更新系数,fkalmanUpdate表示卡尔曼跟踪器更新函数,fsingleUpdate表示单目标跟踪器更新函数。
外观特征和行人身份重定位特征向量都用于进行目标的特征描述,轨迹跟踪器中的外观特征相当于轨迹跟踪器根据历史跟踪处理中得到的行人身份重定位特征向量综合的结果,用于进行跟踪目标的特征的数据表达,二者具有高度的关联性。外观特征一种具体的计算方式是,通过深度网络计算融合历史跟踪结果的行人身份重定位特征向量得到。对于单个图形框中的外观特征,实际就是对应的行人身份重定位特征向量,例如表示TA对应的图像块的外观特征,实际就是TA对应的图块的行人身份重定位特征向量。
在上述实施例的基础上,所述方法还包括:
其中,fupdateMotion表示目标跟踪框的运动矢量的更新函数,TBstaleness表示更新前的轨迹跟踪器的目标跟踪框,TA表示当前帧的轨迹跟踪框。
在上述实施例的基础上,所述方法还包括:
通过TBupdate=ftraceBoxUpdate(TA,TBstaleness)对所述目标跟踪框进行更新;
其中,ftraceBoxUpdate表示目标跟踪框更新函数,TA表示当前帧的轨迹跟踪框,TBstaleness表示更新前的轨迹跟踪器的目标跟踪框。
在上述实施例的基础上,所述方法还包括:
如果当前帧的行人检测框没有匹配到轨迹跟踪器,则用当前帧的行人检测框对应的行人身份重定位特征向量新建候选轨迹跟踪器;
当所述候选轨迹跟踪器在设定帧区间中跟所述目标框的匹配数量大于第一阈值,且连续匹配数量大于第二阈值,则将所述候选轨迹跟踪器确认为轨迹跟踪器。
如果当前的行人检测框没有与轨迹跟踪器匹配,那么,用当前的行人检测框和行人检测框对应的行人身份重定位特征向量建立一个候选轨迹跟踪器PTi,并添加到候选轨迹跟踪器集合PT中,当且仅当候选轨迹跟踪器PTi与目标的关联匹配视频帧数在视频区间[ht,ht+q]中大于设定的阈值H,且连续关联匹配视频帧数大于CH,才将候选轨迹跟踪器PTi加入到轨迹跟踪器集合NT中,并将候选轨迹跟踪器PTi从候选轨迹跟踪器集PT中删除,否则,如果,在视频区间[ht,ht+q]中,更新PTi,如果,视频帧超出了ht+q,则直接将PTi从候选轨迹跟踪器集合PT中删除。候选轨迹跟踪器的关联和更新方式与轨迹跟踪器的处理过程完全相同,区别仅在于确认是否为轨迹跟踪器。
在上述实施例的基础上,所述方法还包括:
对匹配结果为空的轨迹跟踪器,根据关联关系函数与候选轨迹跟踪器进行关联匹配;
对匹配结果为空的候选轨迹跟踪器,根据关联关系函数与轨迹跟踪器进行关联匹配;
当关联匹配的结果大于设定的合并阈值,则将对应的候选轨迹跟踪器和轨迹跟踪器合并。
轨迹跟踪器的合并主要是在正常的跟踪轨迹器集合NT和候选轨迹跟踪器集合PT之间进行,如果轨迹跟踪器NTj没有匹配目标,那么将NTj与PT进行关联匹配;如果PTi没有匹配目标,那么,将PTi与NT进行关联匹配。其匹配关联方式为:
其中,ftt表示两个轨迹的关联关系函数。一旦Ma大于设定的阈值MAH,就判定轨迹跟踪器匹配,举例说,匹配的跟踪器为PTi和NTj,那么,将PTi和NTj合并,并更新NTj。
在具体的数据处理过程中,每个所述轨迹跟踪器记录有对应的目标标识(即ID),跟踪器的合并和更新方式为:将PTi的ID修改为NTj的ID,并且从PT中删除PTi,并且采用以NT下方式更新:
NTj=fupdateMergeTrack(PTi,NTj)
其中,PTi,NTj表示匹配的跟踪器,fupdateMergeTrack表示合并跟踪器的更新函数。
最终,可以呈现出的跟踪信息为目标跟踪框以及对应的ID。目标跟踪框可以实时显示,即只维持当前帧的目标跟踪框在显示状态;也可以连续显示,即维持一定时间或帧数对应的目标跟踪框的显示,形成一定时间内的运动轨迹的显示。
本方案的整体设计可以参考图2,现有的跟踪一般采用单一维度的跟踪方式,有可能出现跟踪丢失或跳跃的情况。在本方案中,采用多个维度的跟踪以及融合,在一个目标刚出现时能够明确检测到的是行人检测器的行人检测结果,行人检测结果也作为卡尔曼跟踪器和单目标跟踪器的初始化状态。请参考图2,最左侧所示的目标行人10在刚出现时,只有行人检测器能明确检测到行人检测框101,在初始状态下目标跟踪的结果实际就是行人检测的结果,即初始得到的行人检测框101设置为卡尔曼跟踪器对应的卡尔曼跟踪框102和单目标跟踪器对应的单目标跟踪框103,同时,也设置为轨迹跟踪器对应的目标跟踪框100,也就是说,目标行人10在出现的初始帧,行人检测框101、卡尔曼跟踪框102、单目标跟踪框103和目标跟踪框100是四个相同的区域框。但是行人检测器、卡尔曼跟踪器和单目标跟踪器对图像数据处理细节的不同,会导致后续的目标检测出现各自不同的结果,例如图2中箭头最右端指示的检测状态,三种跟踪对于同一目标行人10的检测结果(即行人检测框101、卡尔曼跟踪框102和单目标跟踪框103)并不能完全重合,也可能是下方两种状态中的一种(以上仅为举例,可以有不限于这三种示意的复杂细节变化,主要是重叠位置的变化),在本方案中,将三种跟踪的检测结果进行融合,得到综合的跟踪结果,从而解决现有技术中跟踪丢失或跳跃的不足。
上述,通过在单路视频流的每帧画面进行行人检测、卡尔曼跟踪和单目标跟踪,分别得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框;计算每帧画面中的目标框对应的行人身份重定位特征向量;根据所述目标框的位置和所述行人身份重定位特征向量计算前一帧中对应目标跟踪框的位置损失代价和行人重定位损失代价;根据所述位置损失代价和行人重定位损失代价计算对应的综合损失代价;根据所述综合损失代价计算所述目标跟踪框与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系;根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的目标跟踪框。在同一镜头下,对行人行走时的短时完全遮挡,能够形成有效的跟踪。
在上述实施例的基础上,图3为本申请实施例提供的一种单镜头下的多行人在线跟踪装置的结构示意图。参考图3,本实施例提供的单镜头下的多行人在线跟踪装置包括检测单元310、特征计算单元320、代价计算单元330、代价综合单元340、关系匹配单元350和轨迹生成单元360,其中:
检测单元310,用于在单路视频流的每帧画面进行行人检测、卡尔曼跟踪和单目标跟踪,分别得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框;
特征计算单元320,用于计算每帧画面中的目标框对应的行人身份重定位特征向量;
代价计算单元330,用于根据所述目标框的位置和所述行人身份重定位特征向量计算所述目标框与轨迹跟踪器的位置损失代价和行人重定位损失代价;
代价综合单元340,用于根据所述位置损失代价和行人重定位损失代价计算对应的综合损失代价;
关系匹配单元350,用于根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系;
轨迹生成单元360,用于根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框。
其中,所述位置损失代价Llocation通过以下公式计算:
Llocation=1-flocation(A1,A2)
flocation(A1,A2)=fd(A1,A2)+fiou(A1,A2)
所述行人重定位损失代价Lappearance通过以下公式计算:
Lappearance=1-cos(xbox,i,xtrace,j)
xbox,i=F(IAi)
其中,xbox,i表示所述目标框对应的行人身份重定位特征向量,xtrace,j表示所述轨迹跟踪器记录的外观特征,F()表示行人身份重定位特征向量提取器,IAi表示目标框对应的图像。
其中,所述综合损失代价L通过以下公式计算:
L=αLlocation+(1-α)Lappearance
其中,α表示位置损失代价的权重,1-α表示行人重定位损失代价的权重。
其中,所述轨迹跟踪器对应于所述行人检测框、卡尔曼跟踪框和单目标跟踪框的综合损失代价分别通过三个综合损失代价矩阵Qd、Qk和Qs表示,Qi是一个m x ni的矩阵,其中,m表示目标跟踪框的数量(也就是轨迹跟踪器的数量),ni表示目标框的数量,d、k和s分别表示行人检测框、卡尔曼跟踪框和单目标跟踪框,i∈{d,k,s};
对应的,所述根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系,包括:
将所述综合损失代价矩阵中大于设定阈值的第一矩阵元素值修改为预设的第一标准值;
对所述综合损失代价矩阵Qi求解最小关联成本得到对应的单一匹配关系Pi;
根据所述单一匹配关系计算初次匹配关系P;
对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配得到二次匹配关系P';
将所述初次匹配关系P和二次匹配关系P'的并集作为最终的匹配关系。
其中,所述初次匹配关系P通过以下公式计算:
P=fr(xt,At,<Pi>,<Ai>,<xi>),i∈(d,k,s)
其中,<Ti>表示<Td,Tk,Ts>的输入集合,fr表示匹配关系计算函数,ξt表示所述轨迹跟踪器记录的外观特征,At表示所述目标跟踪框,Ai表示所述目标框,ξi表示所述目标框对应的行人身份重定位特征向量。
其中,所述二次匹配代价函数L2表述如下:
L2=γ×fiou(TL1,AL1)+(1-γ)×fmotion
其中TL1和AL1分别表示P中没有匹配的目标跟踪框和没有匹配的目标框,分别表示目标跟踪框的运动矢量和目标跟踪框与目标框之间的运动矢量,函数fv()表示之间的相似度,γ表示fiou(TL1,AL1)的权重,1-γ表示fmotion的权重;
对应的,所述对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配,具体为:
将所述二次匹配代价函数计算得到的二次损失代价矩阵中大于设定阈值的第二矩阵元素值修改为预设的第二标准值;
对所述二次损失代价矩阵求解最小关联成本得到对应的二次匹配关系P'。
其中,所述根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框,具体为:
通过TA=fbox(<Qi>,Q2,TP,<Ai>,At,<xi>,xt),i∈(d,k,s)计算当前帧的轨迹跟踪框;
其中TA表示当前帧的目标跟踪框,TP表示匹配关系,fbox()表示轨迹跟踪框的计算函数,Q2表示所述二次损失代价矩阵。
其中,所述装置还包括:
其中,表示更新后的外观特征,表示更新前的外观特征,表示TA对应的图像块的外观特征,λ表示更新系数,fkalmanUpdate表示卡尔曼跟踪器更新函数,fsingleUpdate表示单目标跟踪器更新函数。
其中,所述装置还包括:
其中,fupdateMotion表示目标跟踪框的运动矢量的更新函数,TBstaleness表示更新前的轨迹跟踪器的目标跟踪框,TA表示当前帧的轨迹跟踪框。
其中,所述装置还包括:
目标跟踪框更新单元,用于通过TBupdate=ftraceBoxUpdate(TA,TBstaleness)对所述目标跟踪框进行更新;
其中,ftraceBoxUpdate表示目标跟踪框更新函数,TA表示当前帧的轨迹跟踪框,TBstaleness表示更新前的轨迹跟踪器的目标跟踪框。
其中,所述装置还包括:
候选新建单元,用于如果当前帧的行人检测框没有匹配到轨迹跟踪器,则用当前帧的行人检测框以及对应的行人身份重定位特征向量新建候选轨迹跟踪器;
候选确认单元,用于当所述候选轨迹跟踪器在设定帧区间中跟所述目标框的匹配数量大于第一阈值,且连续匹配数量大于第二阈值,则将所述候选轨迹跟踪器确认为轨迹跟踪器。
其中,所述装置还包括:
第一匹配单元,用于对匹配结果为空的轨迹跟踪器,根据关联关系函数与候选轨迹跟踪器进行关联匹配;
第二匹配单元,用于对匹配结果为空的候选轨迹跟踪器,根据关联关系函数与轨迹跟踪器进行关联匹配;
合并单元,用于当关联匹配的结果大于设定的合并阈值,则将对应的候选轨迹跟踪器和轨迹跟踪器合并。
其中,每个所述轨迹跟踪器记录有对应的目标标识;
所述装置还包括:
轨迹显示单元,用于实时或连续显示所述目标跟踪框以及对应的目标标识。
本申请实施例还本申请实施例还提供了一种计算机设备,且该计算机设备可集成本申请实施例提供的单镜头下的多行人在线跟踪装置。图4是本申请实施例提供的计算机设备的结构示意图。参考图4,该计算机设备包括:输入装置430、输出装置440、存储器420以及一个或多个处理器410;所述存储器420,用于存储一个或多个程序;当所述一个或多个程序被所述一个或多个处理器410执行,使得所述一个或多个处理器410实现如上述实施例提供的单镜头下的多行人在线跟踪方法。其中输入装置430、输出装置440、存储器420和处理器410可以通过总线或者其他方式连接,图4中以通过总线连接为例。
存储器420作为一种计算设备可读存储介质,可用于存储软件程序、计算机可执行程序以及模块,如本申请任意实施例所述的单镜头下的多行人在线跟踪方法对应的程序指令/模块(例如,单镜头下的多行人在线跟踪装置中的检测单元310、特征计算单元320、代价计算单元330、代价综合单元340、关系匹配单元350和轨迹生成单元360)。存储器420可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据设备的使用所创建的数据等。此外,存储器420可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器420可进一步包括相对于处理器410远程设置的存储器,这些远程存储器可以通过网络连接至设备。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
输入装置430可用于接收输入的数字或字符信息,以及产生与设备的用户设置以及功能控制有关的键信号输入。输出装置440可包括显示屏等显示设备。
处理器410通过运行存储在存储器420中的软件程序、指令以及模块,从而执行设备的各种功能应用以及数据处理,即实现上述的单镜头下的多行人在线跟踪方法。
通信装置450用于接入远程接入的摄像头或其他终端,以获得必要的处理数据。
上述提供的单镜头下的多行人在线跟踪装置和计算机设备可用于执行上述实施例提供的单镜头下的多行人在线跟踪方法,具备相应的功能和有益效果。
本申请实施例还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行如上述实施例提供的单镜头下的多行人在线跟踪方法,该单镜头下的多行人在线跟踪方法包括:在单路视频流的每帧画面进行行人检测、卡尔曼跟踪和单目标跟踪,分别得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框;计算每帧画面中的目标框对应的行人身份重定位特征向量;根据所述目标框的位置和所述行人身份重定位特征向量计算所述目标框与轨迹跟踪器的位置损失代价和行人重定位损失代价;根据所述位置损失代价和行人重定位损失代价计算对应的综合损失代价;根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系;根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框。
存储介质——任何的各种类型的存储器设备或存储设备。术语“存储介质”旨在包括:安装介质,例如CD-ROM、软盘或磁带装置;计算机系统存储器或随机存取存储器,诸如DRAM、DDR RAM、SRAM、EDO RAM,兰巴斯(Rambus)RAM等;非易失性存储器,诸如闪存、磁介质(例如硬盘或光存储);寄存器或其它相似类型的存储器元件等。存储介质可以还包括其它类型的存储器或其组合。另外,存储介质可以位于程序在其中被执行的第一计算机系统中,或者可以位于不同的第二计算机系统中,第二计算机系统通过网络(诸如因特网)连接到第一计算机系统。第二计算机系统可以提供程序指令给第一计算机用于执行。术语“存储介质”可以包括可以驻留在不同位置中(例如在通过网络连接的不同计算机系统中)的两个或更多存储介质。存储介质可以存储可由一个或多个处理器执行的程序指令(例如具体实现为计算机程序)。
当然,本申请实施例所提供的一种包含计算机可执行指令的存储介质,其计算机可执行指令不限于如上所述的单镜头下的多行人在线跟踪方法,还可以执行本申请任意实施例所提供的单镜头下的多行人在线跟踪方法中的相关操作。
上述实施例中提供的单镜头下的多行人在线跟踪装置、设备及存储介质可执行本申请任意实施例所提供的单镜头下的多行人在线跟踪方法,未在上述实施例中详尽描述的技术细节,可参见本申请任意实施例所提供的单镜头下的多行人在线跟踪方法。
上述仅为本申请的较佳实施例及所运用的技术原理。本申请不限于这里所述的特定实施例,对本领域技术人员来说能够进行的各种明显变化、重新调整及替代均不会脱离本申请的保护范围。因此,虽然通过以上实施例对本申请进行了较为详细的说明,但是本申请不仅仅限于以上实施例,在不脱离本申请构思的情况下,还可以包括更多其他等效实施例,而本申请的范围由权利要求的范围决定。
Claims (15)
1.一种单镜头下的多行人在线跟踪方法,其特征在于,包括:
在单路视频流的每帧画面进行行人检测、卡尔曼跟踪和单目标跟踪,分别得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框;
计算每帧画面中的目标框对应的行人身份重定位特征向量;
根据所述目标框的位置和所述行人身份重定位特征向量计算所述目标框与轨迹跟踪器中记录的目标跟踪框的位置损失代价和行人重定位损失代价;
根据所述位置损失代价和行人重定位损失代价计算对应的综合损失代价;
根据所述综合损失代价计算所述轨迹跟踪器中记录的目标跟踪框与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系;
根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框;
其中,所述轨迹跟踪器中记录的目标跟踪框对应于所述行人检测框、卡尔曼跟踪框和单目标跟踪框的综合损失代价分别通过三个综合损失代价矩阵Qd、Qk和Qs表示,Qi是一个mx ni的矩阵,其中,m表示目标跟踪框的数量,ni表示目标框的数量,d、k和s分别表示行人检测框、卡尔曼跟踪框和单目标跟踪框,i∈{d,k,s};
对应的,所述根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系,包括:
将所述综合损失代价矩阵中大于设定阈值的第一矩阵元素值修改为预设的第一标准值;
对所述综合损失代价矩阵Qi求解最小关联成本得到对应的单一匹配关系Pi;
根据所述单一匹配关系计算初次匹配关系P;
对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配得到二次匹配关系P';
将所述初次匹配关系P和二次匹配关系P'的并集作为最终的匹配关系。
2.根据权利要求1所述的方法,其特征在于,所述位置损失代价Llocation通过以下公式计算:
Llocation=1-flocation(A1,A2)
flocation(A1,A2)=fd(A1,A2)+fiou(A1,A2)
所述行人重定位损失代价Lappearance通过以下公式计算:
Lappearance=1-cos(ξbox,i,ξtrace,j)
ξbox,i=F(IAi)
其中,ξbox,i表示所述目标框对应的行人身份重定位特征向量,ξtrace,j表示所述轨迹跟踪器记录的外观特征,F()表示行人身份重定位特征向量提取器,IAi表示目标框对应的图像。
3.根据权利要求2所述的方法,其特征在于,所述综合损失代价L通过以下公式计算:
L=αLlocation+(1-α)Lappearance
其中,α表示位置损失代价的权重,1-α表示行人重定位损失代价的权重。
4.根据权利要求1所述的方法,其特征在于,所述初次匹配关系P通过以下公式计算:
P=fr(ξt,At,<Pi>,<Ai>,<ξi>),i∈(d,k,s)
其中,<Ti>表示<Td,Tk,Ts>的输入集合,fr表示匹配关系计算函数,ξt表示所述轨迹跟踪器记录的外观特征,At表示所述目标跟踪框,Ai表示所述目标框,ξi表示所述目标框对应的行人身份重定位特征向量。
5.根据权利要求4所述的方法,其特征在于,所述二次匹配代价函数L2表述如下:
L2=γ×fiou(TL1,AL1)+(1-γ)×fmotion
其中,TL1和AL1分别表示P中没有匹配的目标跟踪框和没有匹配的目标框,分别表示目标跟踪框的运动矢量和目标跟踪框与目标框之间的运动矢量,函数fv()表示之间的相似度,γ表示fiou(TL1,AL1)的权重,1-γ表示fmotion的权重;
对应的,所述对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配,具体为:
将所述二次匹配代价函数计算得到的二次损失代价矩阵中大于设定阈值的第二矩阵元素值修改为预设的第二标准值;
对所述二次损失代价矩阵求解最小关联成本得到对应的二次匹配关系P'。
6.根据权利要求5所述的方法,其特征在于,所述根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框,具体为:
通过TA=fbox(<Qi>,Q2,TP,<Ai>,At,<ξi>,ξt),i∈(d,k,s)计算当前帧的轨迹跟踪框;
其中TA表示当前帧的轨迹跟踪框,TP表示匹配关系,fbox()表示轨迹跟踪框的计算函数,Q2表示所述二次损失代价矩阵。
9.根据权利要求5所述的方法,其特征在于,所述方法还包括:
通过TBupdate=ftraceBoxUpdate(TA,TBstaleness)对所述目标跟踪框进行更新;
其中,ftraceBoxUpdate表示目标跟踪框更新函数,TA表示当前帧的轨迹跟踪框,TBstaleness表示更新前的轨迹跟踪器的目标跟踪框。
10.根据权利要求1所述的方法,其特征在于,所述方法还包括:
如果当前帧的行人检测框没有匹配到轨迹跟踪器,则用当前帧的行人检测框以及对应的行人身份重定位特征向量新建候选轨迹跟踪器;
当所述候选轨迹跟踪器在设定帧区间中跟所述目标框的匹配数量大于第一阈值,且连续匹配数量大于第二阈值,则将所述候选轨迹跟踪器确认为轨迹跟踪器。
11.根据权利要求10所述的方法,其特征在于,所述方法还包括:
对匹配结果为空的轨迹跟踪器,根据关联关系函数与候选轨迹跟踪器进行关联匹配;
对匹配结果为空的候选轨迹跟踪器,根据关联关系函数与轨迹跟踪器进行关联匹配;
当关联匹配的结果大于设定的合并阈值,则将对应的候选轨迹跟踪器和轨迹跟踪器合并。
12.根据权利要求2所述的方法,其特征在于,每个所述轨迹跟踪器记录有对应的目标标识;
所述方法还包括:
实时或连续显示所述目标跟踪框以及对应的目标标识。
13.一种单镜头下的多行人在线跟踪装置,其特征在于,包括:
检测单元,用于在单路视频流的每帧画面进行行人检测、卡尔曼跟踪和单目标跟踪,分别得到行人检测框、卡尔曼跟踪框和单目标跟踪框作为目标框;
特征计算单元,用于计算每帧画面中的目标框对应的行人身份重定位特征向量;
代价计算单元,用于根据所述目标框的位置和所述行人身份重定位特征向量计算所述目标框与轨迹跟踪器中记录的目标跟踪框的位置损失代价和行人重定位损失代价;
代价综合单元,用于根据所述位置损失代价和行人重定位损失代价计算对应的综合损失代价;
关系匹配单元,用于根据所述综合损失代价计算所述轨迹跟踪器中记录的目标跟踪框与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系;
轨迹生成单元,用于根据匹配关系、位置损失代价和身份重定位损失代价,基于所述行人检测框、卡尔曼跟踪框和单目标跟踪框生成当前帧的轨迹跟踪框;
其中,所述轨迹跟踪器中记录的目标跟踪框对应于所述行人检测框、卡尔曼跟踪框和单目标跟踪框的综合损失代价分别通过三个综合损失代价矩阵Qd、Qk和Qs表示,Qi是一个mx ni的矩阵,其中,m表示目标跟踪框的数量,ni表示目标框的数量,d、k和s分别表示行人检测框、卡尔曼跟踪框和单目标跟踪框,i∈{d,k,s};
对应的,所述根据所述综合损失代价计算所述轨迹跟踪器与行人检测框、卡尔曼跟踪框和单目标跟踪框的匹配关系,包括:
将所述综合损失代价矩阵中大于设定阈值的第一矩阵元素值修改为预设的第一标准值;
对所述综合损失代价矩阵Qi求解最小关联成本得到对应的单一匹配关系Pi;
根据所述单一匹配关系计算初次匹配关系P;
对所述初次匹配关系P中没有关联关系的轨迹跟踪器和目标框通过二次匹配代价函数进行二次匹配得到二次匹配关系P';
将所述初次匹配关系P和二次匹配关系P'的并集作为最终的匹配关系。
14.一种计算机设备,其特征在于,包括:存储器以及一个或多个处理器;
所述存储器,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如权利要求1-12任一所述的单镜头下的多行人在线跟踪方法。
15.一种包含计算机可执行指令的存储介质,其特征在于,所述计算机可执行指令在由计算机处理器执行时用于执行如权利要求1-12任一所述的单镜头下的多行人在线跟踪方法。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010374066.2A CN111627045B (zh) | 2020-05-06 | 2020-05-06 | 单镜头下的多行人在线跟踪方法、装置、设备及存储介质 |
PCT/CN2020/121734 WO2021223367A1 (zh) | 2020-05-06 | 2020-10-18 | 单镜头下的多行人在线跟踪方法、装置、设备及存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010374066.2A CN111627045B (zh) | 2020-05-06 | 2020-05-06 | 单镜头下的多行人在线跟踪方法、装置、设备及存储介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111627045A CN111627045A (zh) | 2020-09-04 |
CN111627045B true CN111627045B (zh) | 2021-11-02 |
Family
ID=72258919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010374066.2A Active CN111627045B (zh) | 2020-05-06 | 2020-05-06 | 单镜头下的多行人在线跟踪方法、装置、设备及存储介质 |
Country Status (2)
Country | Link |
---|---|
CN (1) | CN111627045B (zh) |
WO (1) | WO2021223367A1 (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111627045B (zh) * | 2020-05-06 | 2021-11-02 | 佳都科技集团股份有限公司 | 单镜头下的多行人在线跟踪方法、装置、设备及存储介质 |
CN112561963A (zh) * | 2020-12-18 | 2021-03-26 | 北京百度网讯科技有限公司 | 目标跟踪的方法、装置、路侧设备以及存储介质 |
CN112767445B (zh) * | 2021-01-22 | 2024-04-12 | 东南大学 | 一种用于视频中船舶目标跟踪的方法 |
CN113223057A (zh) * | 2021-06-04 | 2021-08-06 | 北京奇艺世纪科技有限公司 | 一种人脸跟踪方法、装置、电子设备及存储介质 |
CN113674317B (zh) * | 2021-08-10 | 2024-04-26 | 深圳市捷顺科技实业股份有限公司 | 一种高位视频的车辆跟踪方法及装置 |
CN114299456B (zh) * | 2021-12-24 | 2024-05-31 | 北京航空航天大学 | 一种基于实时轨迹检测的交叉口行人过街风险评估方法 |
CN114419152B (zh) * | 2022-01-14 | 2024-04-26 | 中国农业大学 | 一种基于多维度点云特征的目标检测与跟踪方法及系统 |
CN115063454B (zh) * | 2022-08-16 | 2022-11-29 | 浙江所托瑞安科技集团有限公司 | 多目标跟踪匹配方法、装置、终端及存储介质 |
CN115174818B (zh) * | 2022-09-08 | 2023-02-03 | 深圳市维海德技术股份有限公司 | 基于声音定位的目标跟踪方法、电子设备及可读存储介质 |
CN115908506B (zh) * | 2022-09-09 | 2023-06-27 | 杭州云栖智慧视通科技有限公司 | 基于卡尔曼预测的多目标跟踪方法 |
CN115908498B (zh) * | 2022-12-27 | 2024-01-02 | 清华大学 | 一种基于类别最优匹配的多目标跟踪方法及装置 |
CN115830079B (zh) * | 2023-02-15 | 2023-05-26 | 天翼交通科技有限公司 | 交通参与者的轨迹追踪方法、装置及介质 |
CN116703983B (zh) * | 2023-06-14 | 2023-12-19 | 石家庄铁道大学 | 联合遮挡目标检测及目标跟踪方法 |
CN116453103B (zh) * | 2023-06-15 | 2023-08-18 | 松立控股集团股份有限公司 | 一种车辆跨镜跟踪车牌识别方法、系统及电子设备 |
CN116824467B (zh) * | 2023-08-30 | 2023-11-07 | 江西省水利科学院(江西省大坝安全管理中心、江西省水资源管理中心) | 一种排水管道流量智能测量方法 |
CN117437261B (zh) * | 2023-10-08 | 2024-05-31 | 南京威翔科技有限公司 | 一种适用于边缘端远距离目标的跟踪方法 |
CN117671296A (zh) * | 2023-12-19 | 2024-03-08 | 珠海市欧冶半导体有限公司 | 目标跟踪法、装置、计算机设备和存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2013273831A1 (en) * | 2013-12-23 | 2015-07-09 | Canon Kabushiki Kaisha | A method for improving tracking using dynamic background compensation with centroid compensation |
CN108053427A (zh) * | 2017-10-31 | 2018-05-18 | 深圳大学 | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
CN110766715A (zh) * | 2019-10-31 | 2020-02-07 | 智慧视通(杭州)科技发展有限公司 | 一种结合单目标轨迹的多目标跟踪方法 |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4241742B2 (ja) * | 2006-01-31 | 2009-03-18 | パナソニック株式会社 | 自動追尾装置及び自動追尾方法 |
CN102467655A (zh) * | 2010-11-05 | 2012-05-23 | 株式会社理光 | 多角度人脸检测方法和系统 |
CN108269269A (zh) * | 2016-12-30 | 2018-07-10 | 纳恩博(北京)科技有限公司 | 目标跟踪方法和装置 |
US20190130189A1 (en) * | 2017-10-30 | 2019-05-02 | Qualcomm Incorporated | Suppressing duplicated bounding boxes from object detection in a video analytics system |
CN109754409A (zh) * | 2017-11-06 | 2019-05-14 | 北京航天长峰科技工业集团有限公司 | 一种监控视频行人目标匹配跟踪系统与方法 |
CN108985162B (zh) * | 2018-06-11 | 2023-04-18 | 平安科技(深圳)有限公司 | 目标实时跟踪方法、装置、计算机设备及存储介质 |
CN109255802B (zh) * | 2018-08-21 | 2023-08-18 | 平安科技(深圳)有限公司 | 行人跟踪方法、装置、计算机设备及存储介质 |
CN111627045B (zh) * | 2020-05-06 | 2021-11-02 | 佳都科技集团股份有限公司 | 单镜头下的多行人在线跟踪方法、装置、设备及存储介质 |
-
2020
- 2020-05-06 CN CN202010374066.2A patent/CN111627045B/zh active Active
- 2020-10-18 WO PCT/CN2020/121734 patent/WO2021223367A1/zh active Application Filing
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2013273831A1 (en) * | 2013-12-23 | 2015-07-09 | Canon Kabushiki Kaisha | A method for improving tracking using dynamic background compensation with centroid compensation |
CN108053427A (zh) * | 2017-10-31 | 2018-05-18 | 深圳大学 | 一种基于KCF与Kalman的改进型多目标跟踪方法、系统及装置 |
CN109816690A (zh) * | 2018-12-25 | 2019-05-28 | 北京飞搜科技有限公司 | 基于深度特征的多目标追踪方法及系统 |
CN110766715A (zh) * | 2019-10-31 | 2020-02-07 | 智慧视通(杭州)科技发展有限公司 | 一种结合单目标轨迹的多目标跟踪方法 |
Non-Patent Citations (2)
Title |
---|
ADT: Object Tracking Algorithm Based on Adaptive Detection;Yue Ming等;《IEEE Access》;20200317;第8卷;56666-56679 * |
基于核相关滤波的多目标追踪;刘欢等;《激光与光电子学进展》;20190615;第56卷(第12期);121501-1-121501-8 * |
Also Published As
Publication number | Publication date |
---|---|
WO2021223367A1 (zh) | 2021-11-11 |
CN111627045A (zh) | 2020-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111627045B (zh) | 单镜头下的多行人在线跟踪方法、装置、设备及存储介质 | |
Li et al. | DP-SLAM: A visual SLAM with moving probability towards dynamic environments | |
Xiong et al. | Spatiotemporal modeling for crowd counting in videos | |
Lu et al. | Deep object tracking with shrinkage loss | |
Zhang et al. | Preserving structure in model-free tracking | |
CN113963445B (zh) | 一种基于姿态估计的行人摔倒动作识别方法及设备 | |
CN111161320A (zh) | 一种目标跟踪方法、目标跟踪装置及计算机可读介质 | |
CN107545256B (zh) | 一种结合时空和网络一致性的摄像机网络行人重识别方法 | |
CN110827320B (zh) | 基于时序预测的目标跟踪方法和装置 | |
Deng et al. | Long-term visual simultaneous localization and mapping: Using a bayesian persistence filter-based global map prediction | |
Kuai et al. | Masked and dynamic Siamese network for robust visual tracking | |
Sun et al. | Online multiple object tracking based on fusing global and partial features | |
Ding et al. | Simultaneous body part and motion identification for human-following robots | |
Liu | Moving object detection technology of line dancing based on machine vision | |
Hao et al. | Multiple person tracking based on slow feature analysis | |
CN114926859A (zh) | 一种结合头部跟踪的密集场景下行人多目标跟踪方法 | |
Ding et al. | Machine learning model for feature recognition of sports competition based on improved TLD algorithm | |
Feng | Mask RCNN-based single shot multibox detector for gesture recognition in physical education | |
Haggui et al. | Centroid human tracking via oriented detection in overhead fisheye sequences | |
Wang et al. | Real-time UAV tracking based on PSR stability | |
Wang et al. | Non-local attention association scheme for online multi-object tracking | |
CN114998814B (zh) | 目标视频生成方法、装置、计算机设备和存储介质 | |
CN115100565B (zh) | 一种基于空间相关性与光流配准的多目标跟踪方法 | |
Chen et al. | Surveillance video summarisation by jointly applying moving object detection and tracking | |
Hu et al. | Deep ensemble object tracking based on temporal and spatial networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Room 306, zone 2, building 1, Fanshan entrepreneurship center, Panyu energy saving technology park, No. 832 Yingbin Road, Donghuan street, Panyu District, Guangzhou City, Guangdong Province Applicant after: Jiadu Technology Group Co.,Ltd. Address before: Room 306, zone 2, building 1, Fanshan entrepreneurship center, Panyu energy saving technology park, No. 832 Yingbin Road, Donghuan street, Panyu District, Guangzhou City, Guangdong Province Applicant before: PCI-SUNTEKTECH Co.,Ltd. |
|
CB02 | Change of applicant information | ||
GR01 | Patent grant | ||
GR01 | Patent grant |