CN104700408B - 一种基于摄像机网络的室内单目标定位方法 - Google Patents

一种基于摄像机网络的室内单目标定位方法 Download PDF

Info

Publication number
CN104700408B
CN104700408B CN201510107438.4A CN201510107438A CN104700408B CN 104700408 B CN104700408 B CN 104700408B CN 201510107438 A CN201510107438 A CN 201510107438A CN 104700408 B CN104700408 B CN 104700408B
Authority
CN
China
Prior art keywords
target
video
image
camera
rectangle
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201510107438.4A
Other languages
English (en)
Other versions
CN104700408A (zh
Inventor
李毅
吴振锋
刘兴川
姜晓涛
贲伟
冯程
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
CETC 28 Research Institute
Original Assignee
CETC 28 Research Institute
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by CETC 28 Research Institute filed Critical CETC 28 Research Institute
Priority to CN201510107438.4A priority Critical patent/CN104700408B/zh
Publication of CN104700408A publication Critical patent/CN104700408A/zh
Application granted granted Critical
Publication of CN104700408B publication Critical patent/CN104700408B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于摄像机网络的室内单目标定位方法,属于室内目标定位技术领域,包括以下步骤:首先,采用基于特征点识别的方法完成摄像机映射关系建模;其次,采用基于图像块相关性的方法判断视频中是否存在运动目标;第三,采用基于序列遗传算法的目标跟踪方法实现视频中的目标跟踪;最后,根据目标跟踪结果计算目标的图像坐标,并利用摄像机映射关系计算目标的物理坐标,完成目标定位。本发明基于摄像机网络的室内单目标定位方法具有实现成本低、定位精度高、运行稳定等特点。在室内导航、安全监控、基于位置的服务等领域具有广阔的应用前景。

Description

一种基于摄像机网络的室内单目标定位方法
技术领域
本发明涉及的是一种室内定位技术领域的方法,特别是一种基于摄像机网络的室内单目标定位方法。
背景技术
室内定位是指定在建筑物和封闭的环境内定位和跟踪目标的技术,其在室内导航、安全监控、基于位置的服务、医疗监护等领域具有重要应用。近年来,随着移动互联网迅速发展,数据和多媒体业务快速增加,人们对于室内定位的需求日益增加。实现低成本且高精度的室内定位,具有非常重要的现实意义。
根据使用的无线通信技术不同,目前室内定位技术主要包括超声波、红外线、超宽带、射频识别等四类。超声波定位技术可以实现全方位定位,但超声波容易受到空气密度、温度等因素影响,产生较大的误差;红外线技术具有相对较高的室内定位精度,但红外线只适合短距离传播,且容易被荧光灯或房间内的灯光干扰,在精确定位上有局限性;超宽带技术具有对信道衰落不敏感、安全性高、测距精度高等优点,但实现超宽带通信需要特制的射频器件,成本昂贵;射频识别技术的优点是标签的体积小、成本低,但该技术的定位精度不高,不适用于需要精确位置信息的应用场景。实现成本低、可靠性高的室内定位成为需要迫切解决的问题。
随着摄像机硬件技术和计算机视觉技术的发展,基于摄像机的室内定位技术研究取得进展。相对于无线通信技术方法,基于摄像机的目标定位方法具备立体图像信息量大、判断精度较高、成本较低等特点。目前基于摄像机的室内目标定位方法主要包括基于单摄像机的目标定位和基于多摄像机的目标定位两类。
(1)基于单摄像机的目标定位通过目标检测识别的方法寻找目标在图像平面中的位置和尺寸大小,目标位置可以用目标的中心位置表示。Hakan和Kemal借助目标的高度信息,基于单目视觉成像模型,利用单摄像机实现对目标的定位(文献1.HakanOztarak,KemalAkkaya,Adnan Yazici.Lightweight object localization with a single camera inwireless multimedia sensor networks.IEEE Global TelecommunicationsConference.Honolulu,Hl,USA,2009:649-654.)。该类方法定位精度低,难以准确获取目标的实际物理位置,且无法实现目标位置的连续定位,无法满足实际应用需求。
(2)基于多摄像机的目标定位方法根据目标与摄像机之间的角度关系、摄像机之间的标定关系和相对位置,通过融合多个摄像机之间的定位结果得到目标在公共平面的位置信息。Sharif和Jeoti提出利用3个以上的节点通过成像模型对目标进行测距,然后通过三边或多变进行定位(文献2.Sharif S A M,Jeoti V.Video wireless sensor network:co-operative vision based localization method.Proceedings of the Second AsiaInternational Conference on Modeling&Simulation.Lumpur,Malaysia,2008:570-573)得到目标位置。Liu和Ma利用多个节点之间的互信息对目标实现定位(文献3.Liu Liang,MaHuadong,Zhang Xi.Collaborative target localization in camera sensornetworks.IEEE Wireless Communications and Networking Conference.Las Vegas,USA,2008:2403-2407)。但该类方法需要准确的摄像机标定,常由于标定误差导致几何计算无解,系统稳定性差。
发明内容
发明目的:本发明所要解决的技术问题是针对现有技术的不足,提供一种基于摄像机网络的室内单目标定位方法,从而实现单目标室内连续稳定跟踪。
为了解决上述技术问题,本发明公开了基于摄像机网络的室内单目标定位方法,包括以下步骤:
步骤1,摄像机映射关系建模:采用基于特征点识别的摄像机映射关系建模方法,建立摄像机网络中C个摄像机的映射关系模型,C取值为自然数;
步骤2,视频采集:采集摄像机网络中C个摄像机的视频Vc,c=1,2,...,C;
步骤3,目标发现:采用基于图像块相关性的目标检测方法,对采集得到的C个视频进行目标检测,如果有目标则执行步骤4,否则返回步骤2;
步骤4,摄像机选择:在发现目标的视频中,选择目标面积最大的视频VT作为目标定位使用的视频,1≤T≤C;
步骤5,目标跟踪:采用基于序列遗传算法的目标跟踪方法实现视频VT中的目标跟踪;
步骤6,特征点计算:根据目标跟踪的结果,计算目标的图像坐标;
步骤7,目标定位:根据目标的图像坐标,利用摄像机映射关系模型计算目标的物理坐标,并在物理平面图上完成目标标绘;
步骤8,摄像机切换:执行摄像机切换判断,当不需要切换摄像机时执行步骤9,否则返回步骤2;
步骤9,读取视频的下一帧。
步骤1中基于特征点识别的摄像机映射关系建模方法的步骤为:
步骤1-1,对于摄像机网络中的摄像机c,选择其采集的视频Vc中的初始帧图像采用SIFT算法检测中的尺度空间极值点,并通过拟和三维二次函数定位极值点,获得每个极值点的图像坐标;
步骤1-2,从以上极值点中选择地平面上不处于一条直线的4个点p1,p2,p3,p4作为图像特征点,其图像坐标分别为(x1,y1),(x2,y2),(x3,y3),(x4,y4);
步骤1-3,根据图像特征点坐标,在物理平面图中标定其对应的点P1,P2,P3,P4,其物理坐标分别为(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4);
步骤1-4,利用图像坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4)和对应的物理坐标(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4),基于摄像机透视投影模型,建立图像坐标到物理坐标的映射关系模型Lc
步骤1-5,对摄像机网络中的每个摄像机c都执行步骤1-1至步骤1-4,得到映射关系模型Lc,c=1,2,...,C,完成C个摄像机的映射关系建模。
步骤3中基于图像块相关性的目标检测方法的步骤为:
步骤3-1,对视频Vc的连续两帧图像计算像素点(x,y)所在的图像块的相关性:
式中(x,y)表示图像中像素的坐标,分别表示第t-1帧和第t帧图像中坐标(x,y)处像素的灰度值;表示像素(x,y)在图像中所在的像素块的宽度,W为像素块的宽度,取值范围为4~10;m[]表示表示对像素块中的所有像素的灰度值求均值;v[]表示对像素块中的所有像素的灰度值求方差;
步骤3-2,如果则判定像素点(x,y)是静态的点,否则判定像素点(x,y)是运动的点,其中,σ0为相关性阈值,取值范围为0.8~0.95;
步骤3-3,统计运动的像素点的个数NS,如果NS>N0,则认为图像中存在目标;否则认为图像中不存在目标,其中,N0为目标临界阈值,取值为|A*B|为图像的像素点个数,A*B为图像分辨率。
步骤5中基于序列遗传算法的目标跟踪方法的步骤为:
步骤5-1,初始化:根据目标检测结果,计算视频VT初始帧图像中运动像素点的外接矩形,记为((xa,0,ya,0),(xb,0,yb,0)),其中,(xa,0,ya,0)为外接矩形左上角坐标,(xb,0,yb,0)为外接矩形右下角坐标;a,b用来区分左上角和右下角的参数。
步骤5-2,预测:对于视频VT的第t帧图像 中的目标的外接矩形为((xa,t,ya,t),(xb,t,yb,t)),其中,(xa,t,ya,t)(xa,0,ya,0)图像中的目标的为外接矩形左上角坐标,(xb,t,yb,t)(xb,0,yb,0)图像中的目标的为外接矩形右下角坐标;以中目标的外接矩形的重心为中心,以Σ为协方差,生成M个重心满足高斯分布面积与((xa,t,ya,t),(xb,t,yb,t))面积一样的矩形构成了遗传算法的初始种群;其中,N()表示高斯分布,表示第i个矩形,i=1,2,...,M,Σ取值范围为0.01~0.03,M的取值范围为20~100;
步骤5-3,优化:采用遗传算法对视频第t+1帧图像中的目标进行定位,计算步骤为:
步骤5-3-1:采用目标外接矩形内图像的直方图作为图像特征,以直方图的欧氏距离作为相似度函数,采用遗传算法对初始种群进行优化,得到收敛种群其中,表示对矩形优化后的矩形;
步骤5-3-2,第t+1帧图像中的目标的外接矩形((xa,t+1,ya,t+1),(xb,t+1,yb,t+1))为收敛种群中相似度最高的矩形,计算公式为:
式中,Fitness()为基于直方图的目标相似度计算函数。
步骤6中目标的图像坐标的计算公式为:
其中,(xd,t,yd,t)为第t帧图像中目标的图像坐标,xa,t和xb,t分别为目标外接矩形左上角和右下角坐标的横坐标,yb,t为目标外接矩形右下角坐标的纵坐标。
步骤8中摄像机切换判断的步骤为:
步骤8-1,计算视频VT第t帧图像中目标的外接矩形((xa,t,ya,t),(xb,t,yb,t))的面积S(((xa,t,ya,t),(xb,t,yb,t))),计算方法为:
S(((xa,t,ya,t),(xb,t,yb,t)))=|(xa,t-xb,t)*(ya,t-yb,t)|;
步骤8-2,如果S(((xa,t,ya,t),(xb,t,yb,t)))<S0,则进行摄像机切换;否则不进行摄像机切换;其中,S0为目标面积阈值,取值为|A*B|为图像的像素点个数,A*B为图像分辨率。
本发明与现有技术相比,其显著优点:(1)通过运动目标检测,自动发现目标并启动目标定位;通过摄像机切换机制,选择图像质量最高的摄像机,提高目标定位的精度。(2)通过识别图像中的特征点,配合楼层平面图,可自动实现图像坐标与物理坐标的映射关系计算。(3)在运动目标检测过程中,利用像素点所在像素块的相关性,提高了运动检测方法对光照变化的鲁棒性。(4)在运动目标跟踪过程中,采用序列免疫遗传方法进行目标跟踪,相对于传统粒子滤波方法,有效防止了粒子退化现象,具有更好的鲁棒性。
附图说明
下面结合附图和具体实施方式对本发明做更进一步的具体说明,本发明的上述和/或其他方面的优点将会变得更加清楚。
图1是本发明基于摄像机网络的室内单目标定位方法的流程图。
图2摄像机网络部署图。
图3是基于图像块相关性的目标检测方法示意图。
图4是摄像机采集到的视频图像。
图5是目标检测的结果。
图6是基于序列遗传算法的目标跟踪方法的流程图。
图7是运动目标跟踪的结果。
图8是图像特征点计算方法示意图。
图9是目标定位结果标绘图。
具体实施方式
本发明公开了一种基于摄像机网络的室内单目标定位方法,其处理流程如图1所示。该方法首先采用基于特征点识别的方法完成摄像机映射关系建模,其次采用基于图像块相关性的方法判断视频中是否存在运动目标,进而采用基于序列遗传算法的目标跟踪方法实现视频中的目标跟踪,最终根据目标跟踪结果计算目标的图像坐标,并利用摄像机映射关系计算目标的物理坐标。
本发明实现中,选择室内某楼层作为实施环境,构建了包括12个摄像机的摄像机网络,其部署如图2所示。下面分别介绍各实施例部分的主要流程。
步骤1,摄像机映射关系建模:采用基于特征点识别的摄像机映射关系建模方法,建立摄像机网络中C个摄像机的映射关系模型。本发明实现中,摄像机数目C=12。其中,基于特征点识别的摄像机映射关系建模方法的步骤为:
(1-1)对于摄像机网络中的摄像机c,选择其采集的视频Vc中的初始帧图像采用SIFT算法(文献4.明安龙,马华东.多摄像机之间基于区域SIFT描述子的目标匹配.计算机学报,31(4),2008:651-661.)检测中的尺度空间极值点,并通过拟和三维二次函数精确定位极值点,获得每个极值点的图像坐标。其中,c=1,2,...,12。
(1-2)从以上极值点中选择不在一条直线上的4个点p1,p2,p3,p4作为图像特征点,其图像坐标分别为(x1,y1),(x2,y2),(x3,y3),(x4,y4);
(1-3)根据图像特征点坐标,在物理平面图中标定其对应的物理点P1,P2,P3,P4,其物理坐标为(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4);
(1-4)利用图像坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4)和对应的物理坐标(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4),基于摄像机透视投影模型(文献5:唐丽玉,王熠中等.视频图像中监控目标的空间定位方法.福州大学学报,42(1),2014:55-61),建立图像坐标到物理坐标的映射关系模型Lc
(1-5)对摄像机网络中的每个摄像机c都执行(1-1)~(1-4),得到映射关系模型Lc,c=1,2,...,12,完成12个摄像机的映射关系建模。
步骤2,利用摄像机网络中的12个摄像机采集视频,得到12个摄像机的视频Vc,c=1,2,...,12;
步骤3,采用基于图像块相关性的目标检测方法,检测每个视频中是否有目标存在。对采集得到的12个视频进行目标检测,如果有目标则执行步骤4,否则返回步骤2。
其中基于图像块相关性的目标检测方法流程图3所示,具体步骤为:
(3.1)对视频Vc的连续两帧图像计算像素点(x,y)所在的图像块的相关性:
式中(x,y)表示图像中像素的坐标,分别表示第t-1帧和第t帧图像中坐标(x,y)处像素的灰度值;表示像素(x,y)在图像中所在的像素块,W为像素块的宽度;m[]表示表示对像素块中的所有像素的灰度值求均值;v[]表示对像素块中的所有像素的灰度值求方差。其中,W的取值范围一般在4-10个像素。W取值小,邻域信息利用不充分;W取值大,计算量增加。本发明实现中取W值为5。
(3.2)如果则认为像素点(x,y)是静态的点,否则是运动的点。其中,σ0为相关性阈值,取值范围在0.8<σ0<0.95,本发明实现中取σ0=0.9。
(3.3)统计运动的像素点的个数NS,如果NS>N0,则认为图像中存在目标;否则认为图像中不存在目标。其中,N0为目标临界阈值。N0的取值范围与视频图像的分辨率相关,对于分辨率为A*B的视频图像,取其中A和B分别表示图像的长和宽的像素点个数,|A*B|表示图像的总像素点个数。本发明实现中,视频的分辨率为480*320,故N0取值为1536。
图4是摄像机采集到的视频,图5是基于图像块相关性的目标检测结果。
步骤4,从检测到目标的视频中,选择用于目标定位的视频。选择的方法是:在发现目标的视频中,选择目标面积最大的视频VT作为目标定位使用的视频。本发明实现中,选择的摄像机为4号机。
步骤5,目标跟踪:采用基于序列遗传算法的目标跟踪方法实现视频VT中的目标跟踪。基于序列遗传算法的目标跟踪方法的流程如图6所示,包括初始化、预测、优化三个主要步骤:
(5.1)初始化:根据目标检测结果,计算视频VT初始帧图像I0 T中运动像素点的外接矩形,记为((xa,0,ya,0),(xb,0,yb,0))。其中(xa,0,ya,0)为外接矩形左上角坐标,(xb,0,yb,0)为外接矩形右下角坐标;
(5.2)预测:对于视频VT的第t帧图像 中的目标的外接矩形为((xa,t,ya,t),(xb,t,yb,t))。以中目标的外接矩形的重心为中心,以Σ为协方差,生成M个重心满足高斯分布面积与((xa,t,ya,t),(xb,t,yb,t))面积一样的矩形其中N()表示高斯分布,表示第i个矩形,i=1,2,...,M。
其中,Σ的取值与目标的运动速度及离摄像机的距离有关,取值范围为0.01<Σ<0.03,本发明实现中取Σ=0.02;M的取值影响到计算的准确性和计算的时间代价,随着M取值的增大,计算准确性提高但时间代价也随之增加,通常M的取值范围为20<M<100。本发明实现中,为折衷计算准确性和时间代价取M=50。
(5.3)优化:采用遗传算法对视频第t+1帧图像中的目标进行定位,计算步骤为:
(5.3.1)以作为遗传算法的初始种群,采用目标外接矩形内图像的直方图作为图像特征,以直方图的欧氏距离作为相似度函数,采用遗传算法对初始种群进行优化,得到收敛种群其中,表示对矩形优化后的矩形。遗传算法中采用的是高斯交叉变异算子(文献6.Ge JK,Qiu YH,Wu CM,et al.Summary of genetic algorithmsresearch.Application Research of Computers,2008,25(010):2911-2916),种群收敛的条件是迭代20次。
(5.3.2)第t+1帧图像中的目标的外接矩形((xa,t+1,ya,t+1),(xb,t+1,yb,t+1))为收敛种群中相似度最高的矩形,计算公式为:
式中,表示矩形的相似度,计算方法为:采用目标外接矩形内图像的直方图作为图像特征,以直方图的欧氏距离作为相似度函数(文献7:Krumm J et a1.Multi-camera multi-person tracking foreasy1iving.In:Proceedings of the IEEE International Workshop VisualSurveillance.Dublin,Ireland,2000:3-10)。
图7为基于序列遗传算法的目标跟踪方法的目标跟踪结果。
步骤6,特征点计算,具体方法为:根据跟踪的结果,计算目标的图像坐标,计算公式为:其中,(xd,t,yd,t)为视频VT的第t帧图像中目标的图像坐标,xa,t和xb,t分别为目标外接矩形左上角和右下角坐标的横坐标,yb,t为目标外接矩形右下角坐标的纵坐标。特征点计算过程如图8所示。
步骤7,目标定位:利用视频VT的第t帧图像中目标的图像坐标(xd,t,yd,t),基于摄像机映射关系LT,计算目标的物理坐标,并在楼层平面图上完成目标标绘。
目标定位结果标绘图如图9所示。
步骤8,摄像机切换:执行摄像机切换判断,当不需要切换摄像机时执行步骤9,否则返回步骤2。其中摄像机切换判断的方法为:
(8.1)计算第t帧图像中目标的外接矩形((xa,t,ya,t),(xb,t,yb,t))的面积S(((xa,t,ya,t),(xb,t,yb,t))),计算方法为:
S(((xa,t,ya,t),(xb,t,yb,t)))=|(xa,t-xb,t)*(ya,t-yb,t)|
(8.2)如果S(((xa,ya),(xb,yb)))<S0,则进行摄像机切换;否则不进行摄像机切换。其中,S0为目标面积阈值,取值为|A*B|为图像的像素点个数,A*B为图像分辨率。本发明实现中,视频的分辨率为480*320,故S0取值为1920。
步骤9,读取视频的下一帧。
基于以上步骤可以实现基于摄像机网络的室内单目标定位。
本发明提供了一种基于摄像机网络的室内单目标定位方法,具体实现该技术方案的方法和途径很多,以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理的前提下,还可以做出若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。本实施例中未明确的各组成部分均可用现有技术加以实现。

Claims (4)

1.一种基于摄像机网络的室内单目标定位方法,其特征在于,包括以下步骤:
步骤1,摄像机映射关系建模:采用基于特征点识别的摄像机映射关系建模方法,建立摄像机网络中C个摄像机的映射关系模型,C取值为自然数;
步骤2,视频采集:采集摄像机网络中C个摄像机的视频Vc,c=1,2,...,C;
步骤3,目标发现:采用基于图像块相关性的目标检测方法,对采集得到的C个视频进行目标检测,如果有目标则执行步骤4,否则返回步骤2;
步骤4,摄像机选择:在发现目标的视频中,选择目标面积最大的视频VT作为目标定位使用的视频,1≤T≤C;
步骤5,目标跟踪:采用基于序列遗传算法的目标跟踪方法实现视频VT中的目标跟踪;
步骤6,特征点计算:根据目标跟踪的结果,计算目标的图像坐标;
步骤7,目标定位:根据目标的图像坐标,利用摄像机映射关系模型计算目标的物理坐标,并在物理平面图上完成目标标绘;
步骤8,摄像机切换:执行摄像机切换判断,当不需要切换摄像机时执行步骤9,否则返回步骤2;
步骤9,读取视频的下一帧;
步骤1中基于特征点识别的摄像机映射关系建模方法的步骤为:
步骤1-1,对于摄像机网络中的摄像机c,选择其采集的视频Vc中的初始帧图像采用SIFT算法检测中的尺度空间极值点,并通过拟和三维二次函数定位极值点,获得每个极值点的图像坐标;
步骤1-2,从以上极值点中选择地平面上不处于一条直线的4个点p1,p2,p3,p4作为图像特征点,其图像坐标分别为(x1,y1),(x2,y2),(x3,y3),(x4,y4);
步骤1-3,根据图像特征点坐标,在物理平面图中标定其对应的点P1,P2,P3,P4,其物理坐标分别为(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4);
步骤1-4,利用图像坐标(x1,y1),(x2,y2),(x3,y3),(x4,y4)和对应的物理坐标(X1,Y1,Z1),(X2,Y2,Z2),(X3,Y3,Z3),(X4,Y4,Z4),基于摄像机透视投影模型,建立图 像坐标到物理坐标的映射关系模型Lc
步骤1-5,对摄像机网络中的每个摄像机c都执行步骤1-1至步骤1-4,得到映射关系模型Lc,完成C个摄像机的映射关系建模;
步骤3中基于图像块相关性的目标检测方法的步骤为:
步骤3-1,对视频Vc的连续两帧图像计算像素点(x,y)所在的图像块的相关性
式中(x,y)表示图像中像素的坐标,分别表示第t-1帧和第t帧图像中坐标(x,y)处像素的灰度值;表示像素(x,y)在图像中所在的像素块的宽度;m[]表示对像素块中的所有像素的灰度值求均值;v[]表示对像素块中的所有像素的灰度值求方差;
步骤3-2,如果则判定像素点(x,y)是静态的点,否则判定像素点(x,y)是运动的点,其中,σ0为相关性阈值,取值范围为0.8~0.95;
步骤3-3,统计运动的像素点的个数NS,如果NS>N0,则认为图像中存在目标;否则认为图像中不存在目标,其中,N0为目标临界阈值,取值为|A*B|为图像的像素点个数,A*B为图像分辨率。
2.根据权利要求1所述的基于摄像机网络的室内单目标定位方法,其特征在于,步骤5中基于序列遗传算法的目标跟踪方法的步骤为:
步骤5-1,初始化:根据目标检测结果,计算视频VT初始帧图像中运动像素点的外接矩形,记为((xa,0,ya,0),(xb,0,yb,0)),其中,(xa,0,ya,0)为外接矩形左上角坐标,(xb,0,yb,0)为外接矩形右下角坐标;下标a,b分别代表矩形的左上角和右下角;其中, 视频VT是C个摄像机中目标面积最大的视频,即VT∈Vc
步骤5-2,预测:对于视频VT的第t帧图像 中的目标的外接矩形为((xa,t,ya,t),(xb,t,yb,t)),其中,(xa,t,ya,t)为图像中目标外接矩形的左上角坐标,(xb,t,yb,t)为图像中目标外接矩形的右下角坐标;下标a,b分别代表矩形的左上角和右下角;以中目标的外接矩形的重心为中心,以Σ为协方差,生成M个重心满足高斯分布面积与((xa,t,ya,t),(xb,t,yb,t))面积一样的矩形构成了遗传算法的初始种群;其中,N()表示高斯分布,表示第i个矩形,i=1,2,...,M,Σ取值范围为0.01~0.03,M的取值范围为20~100;
步骤5-3,优化:采用遗传算法对视频第t+1帧图像中的目标进行定位,计算步骤为:
步骤5-3-1:采用目标外接矩形内图像的直方图作为图像特征,以直方图的欧氏距离作为相似度函数,采用遗传算法对初始种群进行优化,得到收敛种群其中,表示对矩形 优化后的矩形;
步骤5-3-2,第t+1帧图像中的目标的外接矩形((xa,t+1,ya,t+1),(xb,t+1,yb,t+1))为收敛种群中相似度最高的矩形,计算公式为:
式中,Fitness()为基于直方图的目标相似度计算函数。
3.根据权利要求2所述的基于摄像机网络的室内单目标定位方法,其特征在于,步骤6中目标的图像坐标的计算公式为:
其中,(xd,t,yd,t)为第t帧图像中目标的图像坐标,xa,t和xb,t分别为目标外接矩形左上角和右下角坐标的横坐标,yb,t为目标外接矩形右下角坐标的纵坐标。
4.根据权利要求3所述的基于摄像机网络的室内单目标定位方法,其特征在于,步骤8中摄像机切换判断的步骤为:
步骤8-1,计算视频VT第t帧图像中目标的外接矩形((xa,t,ya,t),(xb,t,yb,t))的面积S(((xa,t,ya,t),(xb,t,yb,t))),计算方法为:
S(((xa,t,ya,t),(xb,t,yb,t)))=|(xa,t-xb,t)*(ya,t-yb,t)|;
步骤8-2,如果S(((xa,t,ya,t),(xb,t,yb,t)))<S0,则进行摄像机切换;否则不进行摄像机切换;其中,S0为目标面积阈值,取值为|A*B|为图像的像素点个数,A*B为图像分辨率。
CN201510107438.4A 2015-03-11 2015-03-11 一种基于摄像机网络的室内单目标定位方法 Active CN104700408B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201510107438.4A CN104700408B (zh) 2015-03-11 2015-03-11 一种基于摄像机网络的室内单目标定位方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201510107438.4A CN104700408B (zh) 2015-03-11 2015-03-11 一种基于摄像机网络的室内单目标定位方法

Publications (2)

Publication Number Publication Date
CN104700408A CN104700408A (zh) 2015-06-10
CN104700408B true CN104700408B (zh) 2017-10-17

Family

ID=53347490

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201510107438.4A Active CN104700408B (zh) 2015-03-11 2015-03-11 一种基于摄像机网络的室内单目标定位方法

Country Status (1)

Country Link
CN (1) CN104700408B (zh)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105184768B (zh) * 2015-07-23 2018-08-21 中国科学技术大学 室内多摄像头同步高精度定位方法
CN105975967B (zh) * 2016-04-29 2019-04-23 殳南 一种目标定位方法和系统
CN107087016B (zh) * 2017-03-06 2020-06-12 清华大学 基于视频监控网络的楼宇内移动物体的导航方法及系统
CN107995526A (zh) * 2017-12-29 2018-05-04 上海与德科技有限公司 一种基于智能电视的控制方法及控制系统
CN110636248B (zh) * 2018-06-22 2021-08-27 华为技术有限公司 目标跟踪方法与装置
CN109489678B (zh) * 2018-10-29 2022-11-15 温州大学 用于监控导航的定位方法及系统
CN109443345B (zh) * 2018-10-29 2023-12-26 温州大学 用于监控导航的定位方法及系统
CN109324638A (zh) * 2018-12-05 2019-02-12 中国计量大学 基于机器视觉的四旋翼无人机目标跟踪系统
CN109615665B (zh) * 2018-12-27 2021-02-26 浙江大华技术股份有限公司 一种坐标校准系统、方法、装置及存储介质
CN110059591B (zh) * 2019-04-01 2021-04-16 北京中科晶上超媒体信息技术有限公司 运动目标区域的识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101950426A (zh) * 2010-09-29 2011-01-19 北京航空航天大学 一种多摄像机场景下车辆接力跟踪方法
CN102194234A (zh) * 2010-03-03 2011-09-21 中国科学院自动化研究所 一种基于序列粒子群优化的图像跟踪方法
CN104038729A (zh) * 2014-05-05 2014-09-10 重庆大学 级联式多摄像机接力跟踪方法及系统
CN104036525A (zh) * 2014-06-18 2014-09-10 上海交通大学 一种自适应粒子群优化粒子滤波跟踪方法
CN104318588A (zh) * 2014-11-04 2015-01-28 北京邮电大学 一种基于位置感知判别外观模型的多摄像机目标跟踪方法
CN104346833A (zh) * 2014-10-28 2015-02-11 燕山大学 一种基于单目视觉的车辆重构算法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102194234A (zh) * 2010-03-03 2011-09-21 中国科学院自动化研究所 一种基于序列粒子群优化的图像跟踪方法
CN101950426A (zh) * 2010-09-29 2011-01-19 北京航空航天大学 一种多摄像机场景下车辆接力跟踪方法
CN104038729A (zh) * 2014-05-05 2014-09-10 重庆大学 级联式多摄像机接力跟踪方法及系统
CN104036525A (zh) * 2014-06-18 2014-09-10 上海交通大学 一种自适应粒子群优化粒子滤波跟踪方法
CN104346833A (zh) * 2014-10-28 2015-02-11 燕山大学 一种基于单目视觉的车辆重构算法
CN104318588A (zh) * 2014-11-04 2015-01-28 北京邮电大学 一种基于位置感知判别外观模型的多摄像机目标跟踪方法

Also Published As

Publication number Publication date
CN104700408A (zh) 2015-06-10

Similar Documents

Publication Publication Date Title
CN104700408B (zh) 一种基于摄像机网络的室内单目标定位方法
CN111462200B (zh) 一种跨视频行人定位追踪方法、系统及设备
CN106845357B (zh) 一种基于多通道网络的视频人脸检测和识别方法
US9286678B2 (en) Camera calibration using feature identification
CN107256377B (zh) 用于检测视频中的对象的方法、设备和系统
CN109671119A (zh) 一种基于slam的室内定位方法及装置
CN107369183A (zh) 面向mar的基于图优化slam的跟踪注册方法及系统
Zhang et al. Ev-loc: integrating electronic and visual signals for accurate localization
CN109190508A (zh) 一种基于空间坐标系的多摄像头数据融合方法
Wu et al. Hybrid motion model for multiple object tracking in mobile devices
CN109345568A (zh) 基于计算机视觉算法的运动场智能化实现方法及系统
US8615107B2 (en) Method and apparatus for multiple object tracking with K-shortest paths
WO2022096353A1 (en) Three-dimensional object tracking using unverified detections registered by one or more sensors
CN103824070A (zh) 一种基于计算机视觉的快速行人检测方法
CN105160649A (zh) 基于核函数非监督聚类的多目标跟踪方法及系统
CN106504274A (zh) 一种基于红外摄像头下的视觉跟踪方法及系统
Feng et al. Visual Map Construction Using RGB‐D Sensors for Image‐Based Localization in Indoor Environments
TW202109357A (zh) 視覺定位方法、電子設備及電腦可讀儲存介質
Feng et al. Three-dimensional robot localization using cameras in wireless multimedia sensor networks
CN115880643B (zh) 一种基于目标检测算法的社交距离监测方法和装置
CN114782496A (zh) 一种对象的跟踪方法、装置、存储介质及电子装置
Lin et al. Collaborative pedestrian tracking with multiple cameras: Data fusion and visualization
Xiao et al. Positioning in large indoor spaces using smartphone camera based on static objects
Guanqi et al. An improved Indoor Navigation Method based on Monocular Vision Measuring and Region Based Convolutional Network
WO2024083010A1 (zh) 一种视觉定位方法及相关装置

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant