CN104778690A - 一种基于摄像机网络的多目标定位方法 - Google Patents
一种基于摄像机网络的多目标定位方法 Download PDFInfo
- Publication number
- CN104778690A CN104778690A CN201510155896.5A CN201510155896A CN104778690A CN 104778690 A CN104778690 A CN 104778690A CN 201510155896 A CN201510155896 A CN 201510155896A CN 104778690 A CN104778690 A CN 104778690A
- Authority
- CN
- China
- Prior art keywords
- target
- video camera
- camera
- video
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Image Analysis (AREA)
Abstract
本发明公开了一种基于摄像机网络的多目标定位方法,属于多媒体传感网技术领域,包括以下步骤:首先,在初始化阶段,通过构建重叠摄像机组、摄像机单应性转换计算、摄像机重叠视域计算、摄像机映射模型计算四个步骤,完成摄像机网络的初始化;其次,在目标定位阶段,完成单个摄像机中的目标检测和跟踪,并通过综合利用摄像机间的拓扑关系、几何约束和目标特征信息实现目标匹配;最后,利用摄像机模型计算目标物理位置实现多目标定位。本发明基于摄像机网络的多目标定位方法能实现多目标的稳定跟踪,具有实现成本低、定位精度高、运行稳定等特点。在战场侦查、安全监控、周界防护等领域具有广阔的应用前景。
Description
技术领域
本发明涉及的是一种目标定位技术领域的方法,特别是一种基于摄像机网络的多目标定位方法。
背景技术
基于传感器网络的目标定位技术在军事国防、城市管理、环境监测、抢险救灾、防恐反恐等诸多领域有着重要应用。然而,随着监测环境的日趋复杂多变,传统基于标量数据采集处理的传感器网络已不能满足环境全面感知和理解的应用需求,迫切需要将信息量丰富的图像、视频等媒体引入到以无线传感器网络为基础的环境监测活动中来,实现全面的环境监测和精准的目标定位。
目前,基于摄像机网络的目标定位技术研究日益得到重视,并取得了阶段性成果。根据场景中目标的数目不同,已有研究可分为单目标定位和多目标定位。相对于单目标定位,多目标定位研究更具挑战,同时也具有更广泛的应用价值。目前,多目标定位方法研究可以概括为三类:基于特征匹配、基于几何约束、基于拓扑关系。
(1)基于特征匹配的方法。该类方法利用多摄像机之间目标区域的颜色特征、外形特征、运动特征等进行一致性匹配。明安龙等以SIFT特征点表示目标,进行多摄像机目标匹配(文献1.明安龙,马华东,多摄像机之间基于区域SIFT描述子的目标匹配,计算机学报,2008,31(4):650-661.),但该方法对摄像机的观测角度有一定的限制,图像分辨率不高,或者非刚性目标都可能导致匹配的特征点难以寻找。另外,由于颜色特征、外形特征、运动特征等信息随着场景光照、位置、摄像机视角的不同而变化,使用这些特征信息进行目标一致性匹配并不是很稳定。
(2)基于几何约束的方法。该类方法利用摄像机的标定信息和三维环境坐标信息,建立多个摄像机监控场景之间的空间映射关系,实现跨摄像机的目标匹配。BlackJ.等人采用基于单应性约束提出了转换误差来实现不同视场中质心之间的对应(文献2.BlackJ.,EllisT.,Multi-cameraImageTracking.ImageandVision Computing,24(11),2006:1256-1267),但该方法适用于具有重叠区域的多摄像机之间的目标匹配。另外,由于摄像机标定复杂,特征点检测精度低,使得该类方法在大多数实际场景中难以满足。
(3)基于拓扑关系的方法。该类方法利用摄像机之间的目标出入位置、事件连接和转移时间等拓扑关系实现多目标的匹配和定位。Javed等人设计了一种基于Parzen窗和高斯核的混合概率密度估计器(文献3.Javed O,Shafique K,Rasheed Z,et al.Modeling Inter-camera Space-time andAppearance Relationships for Tracking AcrossNon-overlapping Views.Computer Vision and Image Understanding,109(2),2008:146-162.),来估计由时间间隔、速度和进出观测视域的位置等组成的概率密度函数,估计过程是通过有监督学习方法实现。拓扑关系估计方法难以适应摄像机网络的动态变化,且仅适用于摄像机无重叠视域情况下。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于摄像机网络的多目标定位方法,从而实现多目标的连续稳定定位。
为了解决上述技术问题,本发明公开了基于摄像机网络的多目标定位方法,包括以下步骤:
步骤1,构建摄像机临近关系表:对摄像机网络中的第i个摄像机Ci,采用SIFT特征匹配重叠视域检测方法,计算得到所有与摄像机Ci存在视域重叠的摄像机,构成摄像机Ci的视域重叠摄像机组Ni。其中,i=1,...,M,M为摄像机网络中摄像机的总数目;Ni={Cj,...,Ck},Cj,Ck分别表示与摄像机Ci存在视域重叠的摄像机j和摄像机k;
步骤2,摄像机转换关系计算:对于与Ci存在重叠视域的摄像机Cd,Cd∈Ni,利用地平面单应性约束,采用基于SIFT特征点的转换关系计算方法,建立Ci与Cd之间的单应性转换关系Ri→d;
步骤3,摄像机重叠视域计算:对于与Ci存在重叠视域的摄像机Cd,Cd∈Ni,根据单应性转换约束机制,计算摄像机Ci与摄像机Cd的重叠视域;
步骤4,摄像机映射模型计算:采用基于特征点识别的摄像机映射关系建模方法,建立摄像机Ci的映射关系模型;
步骤5,采集图像:对于摄像机Ci采集的视频Videoi,获取Videoi的首帧图像
步骤6,目标检测:采用混合高斯模型背景建模方法检测图像中的运动目标;
步骤7,目标跟踪:采用基于序列粒子群优化的目标跟踪方法实现视频中的目标跟踪;
步骤8,目标识别:判断摄像机中的目标是否为已匹配目标;如果是未匹配目标,执行步骤9;否则,执行步骤10;
步骤9,目标匹配:采用摄像机网络中的多目标匹配方法,实现目标匹配;
步骤10,目标定位:利用目标跟踪结果计算目标的图像坐标;利用摄像机映射关系模型,计算目标的物理坐标;
步骤11,轨迹拟合:采用卡尔曼滤波轨迹拟合方法对目标的物理坐标进行拟合,得到目标定位结果,并在二维物理平面图上完成目标轨迹标绘;
步骤12,读取视频的下一帧。
步骤4基于特征点识别的摄像机映射关系建模方法的步骤为:
(4-1)对于摄像机网络中的摄像机Ci,选择其采集的视频Videoi中的首帧图像采用SIFT算法(文献1.明安龙,马华东,多摄像机之间基于区域SIFT描述子的目标匹配,计算机学报,31(4),2008:651-661.)检测中的尺度空间极值点,并通过拟和三维二次函数精确定位极值点,获得每个极值点的图像坐标,其中,i=1,...,M;
(4-2)从以上极值点中选择不在一条直线上的4个点p1,p2,p3,p4作为图像特征点,其图像坐标分别为(x1,y1),(x2,y2),(x3,y3),(x4,y4);
(4-3)根据图像特征点坐标,在物理平面图中标定其对应的物理点P1,P2,P3,P4,其三维坐标为(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4),X,Y,Z分别为三维坐标系x轴、y轴、z轴上的坐标;
(4-4)利用图像坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4)和对应的物理坐标(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4),基于摄像机透视投影模型(文献4:唐丽玉,王熠中等,视频图像中监控目标的空间定位方法,福州大学学报,42(1),2014:55-61.),建立图像坐标到物理坐标的映射关系模型;
(4-5)对摄像机网络中的每个摄像机Ci都执行(4-1)~(4-4),得到映射关系模型,i=1,...,M,完成M个摄像机的映射关系建模;
步骤7中基于序列粒子群优化的目标跟踪方法的步骤为:
(7-1)跟踪初始化:对于摄像机Ci获取的视频Videoi,计算其首帧图像中运动目标的外接矩形其中,为外接矩形左上顶点的坐标,为外接矩形右下顶点的坐标,在区间[-Vmax,Vmax]范围内,随机初始化目标的运动速度表示x方向速度,表示y方向速度,其中,Vmax为目标最大运动速度,Vmax取值范围通常为5~20个像素点;
(7-2)生成粒子种群:对于视频Videoi的第t帧图像中运动目标的外接矩形预测生成粒子种群,包含以下步骤:
(7-2-1)以矩形的左上顶点为期望,以Σ为协方差,生成P个左上顶点位置满足正态分布面积与面积一样的矩形,构成初始种群 其中,N()为正态分布, 表示第p个矩形,p=1,2,...,P,P为矩形总数,Σ取值范围为0.01~0.03,P的取值范围为30~60;
(7-2-2)设置中每个矩形的初始速度 其中, 表示和服从[-Vmax,Vmax]上的均匀分布;
(7-3)粒子种群优化:采用粒子群优化算法对视频Videoi第t+1帧图像中的目标进行跟踪,计算步骤为:
(7-3-1)以作为粒子群优化算法的初始种群,采用目标外接矩形内图像的直方图作为图像特征,以直方图的欧氏距离作为适应度函数,采用粒子群优化算法对初始种群进行H次迭代优化,得到收敛种群其中, 为经H次优化后的矩形, H为最大迭代次数,其中,为折衷计算开销和算法收敛性,H的取值范围为30~100;
(7-3-2)第t+1帧图像中的目标的外接矩形为收敛种群中适应度最高的矩形,计算公式为:
式中,Fitness()为基于直方图的目标适应度计算函数。
(7-3-1)中采用粒子群优化算法对初始种群进行H次迭代优化的步骤为:
(7-3-1-1)初始状态的种群为 每个矩形的速度为
(7-3-1-2)计算种群极值gbest(h)和个体极值pbest(h),h为当前迭代次数,gbest(h)和pbest(h)的计算方法为:
表示gbest(h)的值为中适应度最大的值,p=1,2,...,P,Max()函数为取最大值函数,
(7-3-1-3)根据第h次迭代结果,计算第h+1次迭代时矩形的速度和位置,计算方法为:
式中,w为惯性权重,取值范围为2~4;分别为加速系数,其中c1和c2为常数,取值范围为1~3,rand1()和rand2()表示为[0,1]间的随机数;
(7-3-1-4)当h<H时,重复(7-3-1-1)到(7-3-1-3);否则迭代终止。
步骤9中采用摄像机网络的多目标匹配方法包括以下步骤:
(9-1)对所有已匹配目标添加标号,组成历史目标队列;
(9-2)对摄像机Ci获取的视频Videoi的第t帧图像中检测到的未匹配目标,判断目标的特征点坐标是否位于临近摄像机组Ni中摄像机的重叠区域,如果位于重叠区域执行(9-3),否则执行(9-5),其中,目标特征点坐标的计算方法是:
(9-3)采用基于图像分割加权的空间直方图的目标相似度计算函数,计算摄像机Ci中的目标与摄像机Cd中目标的相似度,Cd∈Ni,如果相似度大于阈值DF,即则执行(9-4);否则执行(9-6);DF为匹配误差;
(9-4)计算目标的特征点坐标与目标的特征点坐标之间的对应性是否满足 其中,Rd→i,Ri→d表示像机机Ci与摄像机Cd之间的单应性映射关系,DT为映射误差;如果满足该条件,则目标匹配成功,执行(9-6),否则执行(9-7);
(9-5)将摄像机Ci中的目标与历史目标队列中的目标进行匹配,如果发现匹配目标,执行(9-6),否则执行(9-7);
(9-6)将新出现的目标赋予与被匹配目标相同的标号;
(9-7)给该目标分配新的目标标号进行跟踪,并将该目标添加到历史目标队列中。
步骤10中利用目标跟踪结果计算目标的图像坐标以及利用摄像机映射关系模型计算目标的物理坐标包括以下步骤:
(10-1)特征点计算,具体方法为:根据跟踪的结果,计算目标的图像坐标计算公式为: 其中,为目标外接矩形左上顶点的坐标,为目标外接矩形右下顶点的坐标;
(10-2)物理坐标计算,具体方法为:利用目标的图像坐标基于摄像机映射关系模型,计算目标的物理坐标。
本发明与现有技术相比,其显著优点:(1)对摄像机是否存在重叠视域无限制,提高多目标定位方法的适用范围,具有更好的工程应用性;(2)综合利用摄像机间的拓扑关系、几何约束和目标特征信息实现目标匹配,提高了目标匹配的准确性;(3)在运动目标跟踪过程中,采用基于序列粒子群优化的目标跟踪方法进行目标跟踪,相对于传统粒子滤波方法,有效防止了粒子退化现象,具有更好的鲁棒性。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是本发明基于摄像机网络的多目标定位方法的流程图。
图2是摄像机网络部署图。
图3是序列粒子群优化目标定位方法流程图。
图4是单摄像机多目标跟踪结果图。
图5是摄像机网络中的多目标匹配方法流程图。
图6是摄像机网络中多目标定位结果图。
具体实施方式
本发明公开了一种基于摄像机网络的多目标定位方法,其处理流程如图1所示。包括以下步骤:首先,在初始化阶段,通过构建重叠摄像机、摄像机单应性转换计算、摄像机重叠视域计算、摄像机映射模型计算四个步骤,完成摄像机网络的初始化;其次,在目标定位阶段,完成单个摄像机中的目标检测和跟踪,并通过综合利用摄像机间的拓扑关系、几何约束和目标特征信息实现目标匹配,最终利用摄像机模型计算目标物理位置实现多目标定位。
本实施例中,选择室内某楼层作为实施环境,构建了包括12个摄像机(Cam)的摄像机网络,其部署如图2所示,下面分别介绍各实施例部分的主要流程。
步骤1,构建重叠摄像机临组:对摄像机网络中的第i个摄像机Ci,采用SIFT特征匹配重叠视域检测方法,计算得到所有与摄像机Ci存在视域重叠的摄像机,构成摄像机Ci的视域重叠摄像机组Ni,其中,i=1,...,M,M为摄像机网络中摄像机的总数目;Ni={Cj,...,Ck},Cj,Ck分别表示与摄像机Ci存在视域重叠的摄像机j和摄像机k;本实施例中取M=12,如图2所示;
步骤2,摄像机单应性转换计算:对于与Ci存在重叠视域的摄像机Cd,Cd∈Ni,利用地平面单应性约束,采用基于SIFT特征点的转换关系计算方法(文献4:杨俊,战荫伟,基于SIFT及射影变换的多摄像机目标交接,中国体视学与图像分析,1(16),2011:44-49),建立Ci与Cd之间的单应性转换关系Ri→d;
步骤3,摄像机重叠视域计算:对于与Ci存在重叠视域的摄像机Cd,Cd∈Ni,根据单应性转换约束机制,计算摄像机Ci与摄像机Cd的重叠视域,
重叠视域计算方法为:利用摄像机Ci与摄像机Cd的单应性映射关系Ri→d,计算摄像机Ci获取的背景图像映射后的像素位置,根据单应性转换约束机制,即像素位置只能在0至分辨率之间,得到的范围限制来计算重叠区域。本实施例中视频的分辨率为320*240;
步骤4,摄像机映射模型计算:采用基于特征点识别的摄像机映射关系建模方法,建立摄像机Ci的映射关系模型,i=1,...,12,其中,基于特征点识别的摄像机映射关系建模方法的步骤为:
(4-1)对于摄像机网络中的摄像机Ci,选择其采集的视频Videoi中的首帧图像采用SIFT算法(文献1.明安龙,马华东,多摄像机之间基于区域SIFT描述子的目标匹配,计算机学报,31(4),2008:651-661.)检测中的尺度空间极值点,并通过拟和三维二次函数精确定位极值点,获得每个极值点的图像坐标,其中,i=1,2,...,12;
(4-2)从以上极值点中选择不在一条直线上的4个点p1,p2,p3,p4作为图像特征点,其图像坐标分别为(x1,y1),(x2,y2),(x3,y3),(x4,y4);
(4-3)根据图像特征点坐标,在物理平面图中标定其对应的物理点P1,P2,P3,P4,其三维坐标为(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4);
(4-4)利用图像坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4)和对应的物理坐标(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4),基于摄像机透视投影模型(文献4:唐丽玉,王熠中等,视频图像中监控目标的空间定位方法,福州大学学报,42(1),2014:55-61.),建立图像坐标到物理坐标的映射关系模型;
(4-5)对摄像机网络中的每个摄像机Ci都执行(4-1)~(4-4),得到映射关系模型,i=1,2,...,12,完成12个摄像机的映射关系建模;
步骤5,采集图像:获取视频的一帧图像;
步骤6,目标检测:采用混合高斯模型背景建模方法(文献5.Stauffer C,Grimson WE L.Adaptive background mixture models for real-time tracking.In:Proceedings of IEEEConference on Computer Vision and Pattern Recognition.Colorado,USA,1999:246-252.)检测图像中的运动目标;
步骤7,目标跟踪:采用基于序列粒子群优化的目标跟踪方法实现视频中的目标跟踪,如图3所示,包括以下步骤:
(7-1)跟踪初始化:对于摄像机Ci获取的视频Videoi,计算其首帧图像中运动目标的外接矩形其中,为外接矩形左上顶点的坐标,为外接矩形右下顶点的坐标;在区间[-Vmax,Vmax]范围内,随机初始化目标的运动速度本实施例中,取Vmax=10;
(7-2)生成粒子种群:对于视频Videoi的第t帧图像中运动目标的外接矩形预测生成粒子种群,包含以下步骤:
(7-2-1)以矩形的左上顶点为期望,以Σ为协方差,生成P个左上顶点位置满足正态分布面积与面积一样的矩形,构成初始种群 其中,N()为正态分布, 表示第p个矩形,p=1,2,...,P。本实施例中,区Σ=0.02,P=50;
(7-2-2)设置中每个矩形的初始速度 其中 表示和服从[-Vmax,Vmax]上的均匀分布;
步骤7-3,粒子种群优化:采用粒子群优化算法对视频Videoi第t+1帧图像中的目标进行跟踪,计算步骤为:
(7-3-1)以作为粒子群优化算法的初始种群,采用目标外接矩形内图像的直方图作为图像特征,以直方图的欧氏距离作为相似度函数,采用粒子群优化算法对初始种群进行H次迭代优化,得到收敛种群其中, 为经H次优化后的矩形, H为最大迭代次数,为折衷计算代价和算法收敛性,本实施例中取H=40;
其中,采用粒子群优化算法对初始种群进行H次迭代优化的步骤为:
(7-3-1-1)初始状态的种群为 每个矩形的速度为
(7-3-1-2)计算种群极值gbest(h)和个体极值pbest(h),h为当前迭代次数,gbest(h)和pbest(h)的计算方法为:
表示gbest(h)的值为中相似度最大的值,p=1,2,...,P,Fitness()为基于图像分割加权的空间直方图目标相似度计算函数(文献6.Hanzi Wang,David Suter,Konrad Schindler,Adaptive object tracking based on aneffective appearance filter,IEEE Transactions on Pattern Analysis and Machine Intelligence,29(9),2007:1661-1667.),本实施例中,将目标分为上半身和下半身两部分,分别统计直方图,
(7-3-1-3)根据第h次迭代结果,计算第h+1次迭代时矩形的速度和位置,计算方法为:
式中,w为惯性权重,取值范围为2~4,;分别为加速系数,其中c1和c2为常数,取值范围为1~3,rand1()和rand2()表示为[0,1]间的随机数。本实施例中,取w=3,c1=c2=2;
(7-3-1-4)当h<H时,重复(7-3-1-1)~(7-3-1-3),否则迭代终止;
(7-3-2)第t+1帧图像中的目标的外接矩形为收敛种群中相似度最高的矩形,计算公式为:
步骤8,目标识别:判断摄像机中的目标是否为已匹配目标;如果是未匹配目标,执行步骤9;否则,执行步骤10;
步骤9,目标匹配:采用摄像机网络中的多目标匹配方法,实现目标匹配,如图5所示,包括以下步骤:
(9-1)对所有已匹配目标添加标号,组成历史目标队列;
(9-2)对摄像机Ci获取的视频Videoi的第t帧图像中检测到的未匹配目标,判断目标的特征点坐标是否位于临近摄像机组Ni中摄像机的重叠区域;如果位于重叠区域执行(9-3),否则执行(9-5);
其中,目标特征点坐标的计算方法是:
(9-3)采用基于图像分割加权的空间直方图的目标相似度计算函数,计算摄像机Ci中的目标与摄像机Cd中目标的相似度,Cd∈Ni。如果相似度大于阈值DF,即则执行(9-4);否则执行(9-6);DF为匹配误差,本实施例中DF=0.8;
(9-4)计算目标的特征点坐标与目标的特征点坐标之间的对应性是否满足 其中,Rd→i,Ri→d表示像机机Ci与摄像机Cd之间的单应性映射关系,DT为映射误差,本实施例中取DT=10。
如果满足该条件,则目标匹配成功,执行(9-6);否则执行(9-7)。
(9-5)将摄像机Ci中的目标与历史目标队列中的目标进行匹配;如果发现匹配目标,执行(9-6);否则执行(9-7);
(9-6)将新出现的目标赋予与被匹配目标相同的标号;
(9-7)给该目标分配新的目标标号进行跟踪,并将该目标添加到历史目标队列中;
步骤10,目标定位:利用目标跟踪结果计算目标的图像坐标;利用摄像机映射关系模型,计算目标的物理坐标,步骤如下:
(10-1)特征点计算,具体方法为:根据跟踪的结果,计算目标的图像坐标计算公式为: 其中,为目标外接矩形左上顶点的坐标,为目标外接矩形右下顶点的坐标;
(10-2)物理坐标计算,具体方法为:利用目标的图像坐标基于摄像机映射关系模型,计算目标的物理坐标;
步骤11,轨迹拟合:采用卡尔曼滤波轨迹拟合方法(文献7.朱明强,侯建军,刘颖,苏军峰,一种基于卡尔曼数据平滑的分段曲线拟合室内定位算法,北京交通大学学报,36(5),2012:95-99.)对目标的物理坐标进行拟合,得到目标定位结果,并在二维物理平面图上完成目标轨迹标绘;
步骤12,读取视频的下一帧。
基于以上步骤可以实现基于摄像机网络的多目标定位,结果如图6所示,在图6的左下角定位了两个目标。
本发明提供了一种基于摄像机网络的多目标定位方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。
Claims (5)
1.一种基于摄像机网络的多目标定位方法,其特征在于,包括以下步骤:
步骤1,构建重叠摄像机组:对摄像机网络中的第i个摄像机Ci,采用SIFT特征匹配重叠视域检测方法,计算得到所有与摄像机Ci存在视域重叠的摄像机,构成摄像机Ci的视域重叠摄像机组Ni,其中,i=1,...,M,M为摄像机网络中摄像机的总数目,Ni={Cj,...,Ck},Cj和Ck分别表示与摄像机Ci存在视域重叠的第j个摄像机Cj和第k个摄像机Ck;
步骤2,摄像机单应性转换计算:对于与摄像机Ci存在重叠视域的摄像机Cd,Cd∈Ni,利用地平面单应性约束,采用基于SIFT特征点的转换关系计算方法,建立Ci与Cd之间的单应性转换关系Ri→d;
步骤3,摄像机重叠视域计算:对于摄像机Cd,根据单应性转换约束机制,计算摄像机Ci与摄像机Cd的重叠视域;
步骤4,摄像机映射模型计算:采用基于特征点识别的摄像机映射关系建模方法,建立摄像机Ci的映射关系模型;
步骤5,采集图像:对于摄像机Ci采集的视频Videoi,获取Videoi的首帧图像
步骤6,目标检测:采用混合高斯模型背景建模方法检测图像中的运动目标;
步骤7,目标跟踪:采用基于序列粒子群优化的目标跟踪方法实现视频中的目标跟踪;
步骤8,目标识别:判断摄像机中的目标是否为已匹配目标,如果是未匹配目标,执行步骤9,否则,执行步骤10;
步骤9,目标匹配:采用摄像机网络中的多目标匹配方法,实现目标匹配;
步骤10,目标定位:利用目标跟踪结果计算目标的图像坐标,利用摄像机映射关系模型计算目标的物理坐标;
步骤11,轨迹拟合:采用卡尔曼滤波轨迹拟合方法对目标的物理坐标进行拟合,得到目标定位结果,并在二维物理平面图上完成目标轨迹标绘;
步骤12,读取视频的下一帧。
2.根据权利要求1所述的一种基于摄像机网络的多目标定位方法,其特征在于,步骤4基于特征点识别的摄像机映射关系建模方法的步骤为:
(4-1)对于摄像机网络中的摄像机Ci,选择其采集的视频Videoi中的首帧图像采用SIFT算法检测首帧图像中的尺度空间极值点,并通过拟和三维二次函数定位极值点,获得每个极值点的图像坐标,其中,i=1,...,M;
(4-2)从以上极值点中任意选择不在一条直线上的4个点p1,p2,p3,p4作为图像特征点,其图像坐标分别为(x1,y1),(x2,y2),(x3,y3),(x4,y4);
(4-3)根据图像特征点坐标,在物理平面图中标定其对应的物理点P1,P2,P3,P4,其三维坐标为(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4);X,Y,Z分别为三维坐标系x轴、y轴、z轴上的坐标;
(4-4)利用图像坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4)和对应的物理坐标(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4),基于摄像机透视投影模型建立图像坐标到物理坐标的映射关系模型;
(4-5)对摄像机网络中的每个摄像机Ci都执行(4-1)~(4-4),得到映射关系模型,完成M个摄像机的映射关系建模。
3.根据权利要求2所述的一种基于摄像机网络的多目标定位方法,其特征在于,步骤7中基于序列粒子群优化的目标跟踪方法的步骤为:
(7-1)跟踪初始化:对于摄像机Ci获取的视频Videoi,计算其首帧图像中运动目标的外接矩形其中,为外接矩形左上顶点的坐标,为外接矩形右下顶点的坐标,在区间[-Vmax,Vmax]范围内,随机初始化目标的运动速度 表示x方向速度,表示y方向速度,其中,Vmax为目标最大运动速度,Vmax取值范围为5~20个像素点;
(7-2)生成粒子种群:对于视频Videoi的第t帧图像 中运动目标的外接矩形预测生成粒子种群,包含以下步骤:
(7-2-1)以矩形的左上顶点为期望,以Σ为协方差,生成P个左上顶点位置满足正态分布面积与面积一样的矩形,构成初始种群 其中,N()为正态分布, 表示第p个矩形,p=1,2,...,P,P为矩形总数,Σ取值范围为0.01~0.03,P的取值范围为30~60;
(7-2-2)设置初始种群中每个矩形的初始速度 表示x方向速度,表示y方向速度,其中,表示和服从[-Vmax,Vmax]上的均匀分布;
(7-3)粒子种群优化:采用粒子群优化算法对视频Videoi第t+1帧图像中的目标进行跟踪,计算步骤为:
(7-3-1)以初始种群作为粒子群优化算法的初始种群,采用目标外接矩形内图像的直方图作为图像特征,以直方图的欧氏距离作为适应度函数,采用粒子群优化算法对初始种群进行H次迭代优化,得到收敛种群其中, 为经H次优化后的矩形, 为外接矩形左上顶点坐标优化H次后的值,为外接矩形右下顶点坐标优化H次后的值,其中,p=1,2,...,P,H为最大迭代次数,H的取值范围为30~100;
(7-3-2)第t+1帧图像中的目标的外接矩形为收敛种群中适应度最高的矩形,计算公式为:
4.根据权利要求3所述的一种基于摄像机网络的多目标定位方法,其特征在于,(7-3-1)中采用粒子群优化算法对初始种群进行H次迭代优化的步骤为:
(7-3-1-1)初始状态的种群为 每个矩形的速度为p=1,2,...,P;
(7-3-1-2)计算种群极值gbest(h)和个体极值pbest(h),h为当前迭代次数,gbest(h)和pbest(h)的计算方法为:
(7-3-1-3)根据第h次迭代结果,计算第h+1次迭代时矩形的速度和位置,计算方法为:
式中,w为惯性权重,取值范围为2~4;分别为加速系数,其中c1和c2为常数,取值范围为1~3,rand1()和rand2()表示为[0,1]间的随机数;
(7-3-1-4)当h<H时,重复(7-3-1-1)~(7-3-1-3),否则迭代终止。
5.根据权利要求4所述的一种基于摄像机网络的多目标定位方法,其特征在于,步骤9中采用摄像机网络的多目标匹配方法包括以下步骤:
(9-1)对所有已匹配目标添加标号,组成历史目标队列;
(9-2)对摄像机Ci获取的视频Videoi的第t帧图像中检测到的未匹配目标,判断目标的特征点坐标是否位于临近视域重叠摄像机组Ni中摄像机的重叠区域,如果位于重叠区域执行(9-3),否则执行(9-5),其中,目标特征点坐标的计算方法是: 为目标外接矩形左上顶点的坐标,为目标外接矩形右下顶点的坐标;
(9-3)采用基于图像分割加权的空间直方图的目标相似度计算函数,计算摄像机Ci中的目标与摄像机Cd中目标的相似度,Cd∈Ni,如果相似度大于阈值DF,即则执行(9-4);否则执行(9-6);DF为匹配误差;
(9-4)计算目标的特征点坐标与目标的特征点坐标之间的对应性是否满足公式:
其中,Rd→i、Ri→d表示摄像机Ci与摄像机Cd相互之间的单应性映射关系,DT为映射误差;如果满足该条件,则目标匹配成功,执行(9-6),否则执行(9-7);
(9-5)将摄像机Ci中的目标与历史目标队列中的目标进行匹配,如果发现匹配目标,执行(9-6),否则执行(9-7);
(9-6)将新出现的目标赋予与被匹配目标相同的标号;
(9-7)给该目标分配新的目标标号进行跟踪,并将该目标添加到历史目标队列中。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510155896.5A CN104778690B (zh) | 2015-04-02 | 2015-04-02 | 一种基于摄像机网络的多目标定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201510155896.5A CN104778690B (zh) | 2015-04-02 | 2015-04-02 | 一种基于摄像机网络的多目标定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104778690A true CN104778690A (zh) | 2015-07-15 |
CN104778690B CN104778690B (zh) | 2017-06-06 |
Family
ID=53620136
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510155896.5A Active CN104778690B (zh) | 2015-04-02 | 2015-04-02 | 一种基于摄像机网络的多目标定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104778690B (zh) |
Cited By (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105741325A (zh) * | 2016-03-15 | 2016-07-06 | 上海电气集团股份有限公司 | 一种跟踪移动目标的方法及移动目标跟踪设备 |
CN105828291A (zh) * | 2016-05-03 | 2016-08-03 | 山东省计算中心(国家超级计算济南中心) | 一种无线传感网络高精度定位方法 |
CN105848284A (zh) * | 2016-05-03 | 2016-08-10 | 山东省计算中心(国家超级计算济南中心) | 一种无线传感网络高精度定位系统 |
CN105894505A (zh) * | 2016-03-30 | 2016-08-24 | 南京邮电大学 | 一种基于多摄像机几何约束的快速行人定位方法 |
CN106027959A (zh) * | 2016-05-13 | 2016-10-12 | 深圳先进技术研究院 | 基于位置线状拟合的视频识别追踪定位系统 |
CN106027957A (zh) * | 2016-05-13 | 2016-10-12 | 深圳先进技术研究院 | 一种视频定位发布系统 |
CN107046623A (zh) * | 2017-03-02 | 2017-08-15 | 上海斐讯数据通信技术有限公司 | 一种实时摄像方法及系统 |
CN107689054A (zh) * | 2017-08-24 | 2018-02-13 | 北京航空航天大学 | 一种多相机拓扑连通图建立与跨相机目标跟踪方法 |
WO2018209934A1 (zh) * | 2017-05-19 | 2018-11-22 | 清华大学 | 基于时空约束的跨镜头多目标跟踪方法及装置 |
US10445694B2 (en) | 2017-08-07 | 2019-10-15 | Standard Cognition, Corp. | Realtime inventory tracking using deep learning |
US10474988B2 (en) | 2017-08-07 | 2019-11-12 | Standard Cognition, Corp. | Predicting inventory events using foreground/background processing |
US10474991B2 (en) | 2017-08-07 | 2019-11-12 | Standard Cognition, Corp. | Deep learning-based store realograms |
US10650545B2 (en) | 2017-08-07 | 2020-05-12 | Standard Cognition, Corp. | Systems and methods to check-in shoppers in a cashier-less store |
CN111372040A (zh) * | 2019-06-13 | 2020-07-03 | 杭州海康威视系统技术有限公司 | 一种多视频监控确定坐标转换参数的方法及装置 |
CN111866468A (zh) * | 2020-07-29 | 2020-10-30 | 浙江大华技术股份有限公司 | 对象跟踪分配方法、装置、存储介质及电子装置 |
US10853965B2 (en) | 2017-08-07 | 2020-12-01 | Standard Cognition, Corp | Directional impression analysis using deep learning |
US11023850B2 (en) | 2017-08-07 | 2021-06-01 | Standard Cognition, Corp. | Realtime inventory location management using deep learning |
US11030442B1 (en) | 2017-12-13 | 2021-06-08 | Amazon Technologies, Inc. | Associating events with actors based on digital imagery |
US11200692B2 (en) | 2017-08-07 | 2021-12-14 | Standard Cognition, Corp | Systems and methods to check-in shoppers in a cashier-less store |
US11232294B1 (en) | 2017-09-27 | 2022-01-25 | Amazon Technologies, Inc. | Generating tracklets from digital imagery |
US11232687B2 (en) | 2017-08-07 | 2022-01-25 | Standard Cognition, Corp | Deep learning-based shopper statuses in a cashier-less store |
US11232575B2 (en) | 2019-04-18 | 2022-01-25 | Standard Cognition, Corp | Systems and methods for deep learning-based subject persistence |
US11250376B2 (en) | 2017-08-07 | 2022-02-15 | Standard Cognition, Corp | Product correlation analysis using deep learning |
US11284041B1 (en) | 2017-12-13 | 2022-03-22 | Amazon Technologies, Inc. | Associating items with actors based on digital imagery |
CN114299120A (zh) * | 2021-12-31 | 2022-04-08 | 北京银河方圆科技有限公司 | 基于多摄像机模组的补偿方法、注册方法和可读存储介质 |
US11303853B2 (en) | 2020-06-26 | 2022-04-12 | Standard Cognition, Corp. | Systems and methods for automated design of camera placement and cameras arrangements for autonomous checkout |
US11315262B1 (en) | 2017-03-29 | 2022-04-26 | Amazon Technologies, Inc. | Tracking objects in three-dimensional space using calibrated visual cameras and depth cameras |
US11361468B2 (en) | 2020-06-26 | 2022-06-14 | Standard Cognition, Corp. | Systems and methods for automated recalibration of sensors for autonomous checkout |
US11398094B1 (en) | 2020-04-06 | 2022-07-26 | Amazon Technologies, Inc. | Locally and globally locating actors by digital cameras and machine learning |
US11443516B1 (en) | 2020-04-06 | 2022-09-13 | Amazon Technologies, Inc. | Locally and globally locating actors by digital cameras and machine learning |
US11468681B1 (en) | 2018-06-28 | 2022-10-11 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
US11468698B1 (en) | 2018-06-28 | 2022-10-11 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
US11482045B1 (en) | 2018-06-28 | 2022-10-25 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
US11551079B2 (en) | 2017-03-01 | 2023-01-10 | Standard Cognition, Corp. | Generating labeled training images for use in training a computational neural network for object or action recognition |
CN115731287A (zh) * | 2022-09-07 | 2023-03-03 | 滁州学院 | 基于集合与拓扑空间的运动目标检索方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10839203B1 (en) | 2016-12-27 | 2020-11-17 | Amazon Technologies, Inc. | Recognizing and tracking poses using digital imagery captured from multiple fields of view |
GB2560387B (en) | 2017-03-10 | 2022-03-09 | Standard Cognition Corp | Action identification using neural networks |
US10055853B1 (en) | 2017-08-07 | 2018-08-21 | Standard Cognition, Corp | Subject identification and tracking using image recognition |
US10133933B1 (en) | 2017-08-07 | 2018-11-20 | Standard Cognition, Corp | Item put and take detection using image recognition |
US10127438B1 (en) | 2017-08-07 | 2018-11-13 | Standard Cognition, Corp | Predicting inventory events using semantic diffing |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509309A (zh) * | 2011-11-04 | 2012-06-20 | 大连海事大学 | 一种基于图像匹配的目标点定位系统 |
CN103714553A (zh) * | 2012-10-09 | 2014-04-09 | 杭州海康威视数字技术股份有限公司 | 一种多目标跟踪方法和装置 |
CN103927763A (zh) * | 2014-03-24 | 2014-07-16 | 河海大学 | 一种图像序列多目标跟踪轨迹识别处理方法 |
US20140320633A1 (en) * | 2013-04-29 | 2014-10-30 | Cyberoptics Corporation | Enhanced illumination control for three-dimensional imaging |
CN104376577A (zh) * | 2014-10-21 | 2015-02-25 | 南京邮电大学 | 基于粒子滤波的多摄像头多目标跟踪算法 |
-
2015
- 2015-04-02 CN CN201510155896.5A patent/CN104778690B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102509309A (zh) * | 2011-11-04 | 2012-06-20 | 大连海事大学 | 一种基于图像匹配的目标点定位系统 |
CN103714553A (zh) * | 2012-10-09 | 2014-04-09 | 杭州海康威视数字技术股份有限公司 | 一种多目标跟踪方法和装置 |
US20140320633A1 (en) * | 2013-04-29 | 2014-10-30 | Cyberoptics Corporation | Enhanced illumination control for three-dimensional imaging |
CN103927763A (zh) * | 2014-03-24 | 2014-07-16 | 河海大学 | 一种图像序列多目标跟踪轨迹识别处理方法 |
CN104376577A (zh) * | 2014-10-21 | 2015-02-25 | 南京邮电大学 | 基于粒子滤波的多摄像头多目标跟踪算法 |
Non-Patent Citations (2)
Title |
---|
叶思: "视频监控中多摄像头下的行人跟踪", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
曹正洁: "粒子滤波及相关算法在目标跟踪中的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105741325A (zh) * | 2016-03-15 | 2016-07-06 | 上海电气集团股份有限公司 | 一种跟踪移动目标的方法及移动目标跟踪设备 |
CN105741325B (zh) * | 2016-03-15 | 2019-09-03 | 上海电气集团股份有限公司 | 一种跟踪移动目标的方法及移动目标跟踪设备 |
CN105894505A (zh) * | 2016-03-30 | 2016-08-24 | 南京邮电大学 | 一种基于多摄像机几何约束的快速行人定位方法 |
CN105828291B (zh) * | 2016-05-03 | 2019-04-19 | 山东省计算中心(国家超级计算济南中心) | 一种无线传感网络高精度定位方法 |
CN105848284B (zh) * | 2016-05-03 | 2019-05-07 | 山东省计算中心(国家超级计算济南中心) | 一种无线传感网络高精度定位系统 |
CN105848284A (zh) * | 2016-05-03 | 2016-08-10 | 山东省计算中心(国家超级计算济南中心) | 一种无线传感网络高精度定位系统 |
CN105828291A (zh) * | 2016-05-03 | 2016-08-03 | 山东省计算中心(国家超级计算济南中心) | 一种无线传感网络高精度定位方法 |
CN106027959A (zh) * | 2016-05-13 | 2016-10-12 | 深圳先进技术研究院 | 基于位置线状拟合的视频识别追踪定位系统 |
CN106027957A (zh) * | 2016-05-13 | 2016-10-12 | 深圳先进技术研究院 | 一种视频定位发布系统 |
US11551079B2 (en) | 2017-03-01 | 2023-01-10 | Standard Cognition, Corp. | Generating labeled training images for use in training a computational neural network for object or action recognition |
CN107046623A (zh) * | 2017-03-02 | 2017-08-15 | 上海斐讯数据通信技术有限公司 | 一种实时摄像方法及系统 |
CN107046623B (zh) * | 2017-03-02 | 2019-11-26 | 上海斐讯数据通信技术有限公司 | 一种实时摄像方法及系统 |
US11315262B1 (en) | 2017-03-29 | 2022-04-26 | Amazon Technologies, Inc. | Tracking objects in three-dimensional space using calibrated visual cameras and depth cameras |
WO2018209934A1 (zh) * | 2017-05-19 | 2018-11-22 | 清华大学 | 基于时空约束的跨镜头多目标跟踪方法及装置 |
US10474993B2 (en) | 2017-08-07 | 2019-11-12 | Standard Cognition, Corp. | Systems and methods for deep learning-based notifications |
US10445694B2 (en) | 2017-08-07 | 2019-10-15 | Standard Cognition, Corp. | Realtime inventory tracking using deep learning |
US11295270B2 (en) | 2017-08-07 | 2022-04-05 | Standard Cognition, Corp. | Deep learning-based store realograms |
US10474991B2 (en) | 2017-08-07 | 2019-11-12 | Standard Cognition, Corp. | Deep learning-based store realograms |
US10650545B2 (en) | 2017-08-07 | 2020-05-12 | Standard Cognition, Corp. | Systems and methods to check-in shoppers in a cashier-less store |
US10474988B2 (en) | 2017-08-07 | 2019-11-12 | Standard Cognition, Corp. | Predicting inventory events using foreground/background processing |
US11544866B2 (en) | 2017-08-07 | 2023-01-03 | Standard Cognition, Corp | Directional impression analysis using deep learning |
US10853965B2 (en) | 2017-08-07 | 2020-12-01 | Standard Cognition, Corp | Directional impression analysis using deep learning |
US11023850B2 (en) | 2017-08-07 | 2021-06-01 | Standard Cognition, Corp. | Realtime inventory location management using deep learning |
US10474992B2 (en) | 2017-08-07 | 2019-11-12 | Standard Cognition, Corp. | Machine learning-based subject tracking |
US11538186B2 (en) | 2017-08-07 | 2022-12-27 | Standard Cognition, Corp. | Systems and methods to check-in shoppers in a cashier-less store |
US11195146B2 (en) | 2017-08-07 | 2021-12-07 | Standard Cognition, Corp. | Systems and methods for deep learning-based shopper tracking |
US11200692B2 (en) | 2017-08-07 | 2021-12-14 | Standard Cognition, Corp | Systems and methods to check-in shoppers in a cashier-less store |
US11270260B2 (en) | 2017-08-07 | 2022-03-08 | Standard Cognition Corp. | Systems and methods for deep learning-based shopper tracking |
US11232687B2 (en) | 2017-08-07 | 2022-01-25 | Standard Cognition, Corp | Deep learning-based shopper statuses in a cashier-less store |
US11250376B2 (en) | 2017-08-07 | 2022-02-15 | Standard Cognition, Corp | Product correlation analysis using deep learning |
CN107689054A (zh) * | 2017-08-24 | 2018-02-13 | 北京航空航天大学 | 一种多相机拓扑连通图建立与跨相机目标跟踪方法 |
US11232294B1 (en) | 2017-09-27 | 2022-01-25 | Amazon Technologies, Inc. | Generating tracklets from digital imagery |
US11030442B1 (en) | 2017-12-13 | 2021-06-08 | Amazon Technologies, Inc. | Associating events with actors based on digital imagery |
US11284041B1 (en) | 2017-12-13 | 2022-03-22 | Amazon Technologies, Inc. | Associating items with actors based on digital imagery |
US11922728B1 (en) | 2018-06-28 | 2024-03-05 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
US11468681B1 (en) | 2018-06-28 | 2022-10-11 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
US11468698B1 (en) | 2018-06-28 | 2022-10-11 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
US11482045B1 (en) | 2018-06-28 | 2022-10-25 | Amazon Technologies, Inc. | Associating events with actors using digital imagery and machine learning |
US11948313B2 (en) | 2019-04-18 | 2024-04-02 | Standard Cognition, Corp | Systems and methods of implementing multiple trained inference engines to identify and track subjects over multiple identification intervals |
US11232575B2 (en) | 2019-04-18 | 2022-01-25 | Standard Cognition, Corp | Systems and methods for deep learning-based subject persistence |
CN111372040B (zh) * | 2019-06-13 | 2021-09-24 | 杭州海康威视系统技术有限公司 | 一种多视频监控确定坐标转换参数的方法及装置 |
CN111372040A (zh) * | 2019-06-13 | 2020-07-03 | 杭州海康威视系统技术有限公司 | 一种多视频监控确定坐标转换参数的方法及装置 |
US11398094B1 (en) | 2020-04-06 | 2022-07-26 | Amazon Technologies, Inc. | Locally and globally locating actors by digital cameras and machine learning |
US11443516B1 (en) | 2020-04-06 | 2022-09-13 | Amazon Technologies, Inc. | Locally and globally locating actors by digital cameras and machine learning |
US11361468B2 (en) | 2020-06-26 | 2022-06-14 | Standard Cognition, Corp. | Systems and methods for automated recalibration of sensors for autonomous checkout |
US11303853B2 (en) | 2020-06-26 | 2022-04-12 | Standard Cognition, Corp. | Systems and methods for automated design of camera placement and cameras arrangements for autonomous checkout |
CN111866468A (zh) * | 2020-07-29 | 2020-10-30 | 浙江大华技术股份有限公司 | 对象跟踪分配方法、装置、存储介质及电子装置 |
CN111866468B (zh) * | 2020-07-29 | 2022-06-24 | 浙江大华技术股份有限公司 | 对象跟踪分配方法、装置、存储介质及电子装置 |
CN114299120B (zh) * | 2021-12-31 | 2023-08-04 | 北京银河方圆科技有限公司 | 补偿方法、注册方法和可读存储介质 |
CN114299120A (zh) * | 2021-12-31 | 2022-04-08 | 北京银河方圆科技有限公司 | 基于多摄像机模组的补偿方法、注册方法和可读存储介质 |
CN115731287A (zh) * | 2022-09-07 | 2023-03-03 | 滁州学院 | 基于集合与拓扑空间的运动目标检索方法 |
Also Published As
Publication number | Publication date |
---|---|
CN104778690B (zh) | 2017-06-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104778690A (zh) | 一种基于摄像机网络的多目标定位方法 | |
CN103268616B (zh) | 多特征多传感器的移动机器人运动人体跟踪方法 | |
CN104299244B (zh) | 基于单目相机的障碍物检测方法及装置 | |
CN106548173B (zh) | 一种基于分级匹配策略的改进无人机三维信息获取方法 | |
CN103514441B (zh) | 基于移动平台的人脸特征点定位跟踪方法 | |
CN103440667B (zh) | 一种遮挡状态下运动目标稳定追踪的自动装置 | |
CN103871079A (zh) | 基于机器学习和光流的车辆跟踪方法 | |
CN103530599A (zh) | 一种真实人脸和图片人脸的区别方法和系统 | |
CN104517289A (zh) | 一种基于混合摄像机的室内场景定位方法 | |
CN105160649A (zh) | 基于核函数非监督聚类的多目标跟踪方法及系统 | |
CN110136202A (zh) | 一种基于ssd与双摄像头的多目标识别与定位方法 | |
CN103020989A (zh) | 一种基于在线场景特征聚类的多视角目标跟踪方法 | |
CN104915969A (zh) | 一种基于粒子群优化的模版匹配跟踪方法 | |
CN106709938B (zh) | 基于改进tld的多目标追踪方法 | |
CN109685827B (zh) | 一种基于dsp的目标检测与跟踪方法 | |
CN106683118A (zh) | 一种基于分层模型的无人机目标跟踪方法 | |
CN105279769A (zh) | 一种联合多特征的层次粒子滤波跟踪方法 | |
CN111612823A (zh) | 一种基于视觉的机器人自主跟踪方法 | |
CN104715251A (zh) | 一种基于直方图线性拟合的显著目标检测方法 | |
CN102289822A (zh) | 一种多摄像机协同跟踪运动目标的方法 | |
CN103559725B (zh) | 一种面向视觉跟踪的无线传感器节点优化选择方法 | |
Pareek et al. | Re-projected SURF features based mean-shift algorithm for visual tracking | |
Zou et al. | Microarray camera image segmentation with Faster-RCNN | |
CN105243354B (zh) | 一种基于目标特征点的车辆检测方法 | |
Li et al. | Visual slam in dynamic scenes based on object tracking and static points detection |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
EXSB | Decision made by sipo to initiate substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |