CN103105858A - 在固定相机和云台相机间进行目标放大、主从跟踪的方法 - Google Patents

在固定相机和云台相机间进行目标放大、主从跟踪的方法 Download PDF

Info

Publication number
CN103105858A
CN103105858A CN2012105886734A CN201210588673A CN103105858A CN 103105858 A CN103105858 A CN 103105858A CN 2012105886734 A CN2012105886734 A CN 2012105886734A CN 201210588673 A CN201210588673 A CN 201210588673A CN 103105858 A CN103105858 A CN 103105858A
Authority
CN
China
Prior art keywords
camera
cloud terrace
target
image
zoom
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012105886734A
Other languages
English (en)
Inventor
范柘
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SHANGHAI AWARE INFORMATION TECHNOLOGY Co Ltd
Original Assignee
SHANGHAI AWARE INFORMATION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SHANGHAI AWARE INFORMATION TECHNOLOGY Co Ltd filed Critical SHANGHAI AWARE INFORMATION TECHNOLOGY Co Ltd
Priority to CN2012105886734A priority Critical patent/CN103105858A/zh
Publication of CN103105858A publication Critical patent/CN103105858A/zh
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

一种在固定相机和云台相机间进行目标放大、主从跟踪的方法,本发明针对视频监控领域,实现迅速放大、主从跟踪图像中的目标,通过在广角固定相机和云台相机视野之间建立匹配关系,从而将固定相机内发现的目标图像坐标转换成相应的云台控制命令,控制云台自动瞄准目标,适度缩放,用固定相机的跟踪结果驱动云台相机以保持对目标的跟踪。本发明从宽视角的固定相机直接点击选择目标,做到“所见即所得”,用户响应速度快,简单方便、用户体验好,采用成熟的静态相机目标跟踪技术,配合可靠性很高的固定云台相机坐标映射步骤,从而回避了动态跟踪中的难点,形成可靠的解决方案。

Description

在固定相机和云台相机间进行目标放大、主从跟踪的方法
技术领域
本发明涉及安防监控领域,尤其涉及一种在固定相机和云台相机间进行目标放大、主从跟踪的方法。
背景技术
广角固定相机是用于形成一个固定的全貌,以便用户对监控区域的整体状况保持掌握。广角相机通常视角在60度以上,甚至最高达到360度全景。广角固定相机简称为固定相机。
云台相机用于对目标放大跟踪显示。云台相机可以通过控制水平、俯仰运动以及缩放来实现对目标瞄准放大。云台相机又称为PTZ(pan,tilt,zoom全方位(上下、左右)移动及镜头变倍、变焦)相机,或者高速球等,云台坐标有三个PTZ控制量,分别是P(Pan,水平旋转),T (Tilt,俯仰),Z(Zoom,缩放)。
目前,用户要通过 “回忆相机通道号”,“切换相机”,“控制相机瞄准,缩放”等过程来选择目标,用户相应速度慢,体验感觉差。
动态跟踪技术仍处于早期发展时期。它主要通过对目标建立并更新模板,或者通过模式识别等手段,将背景和前景(运动物体)分开,从而实现跟踪。由于云台相机随着目标在运动,所以无法通过固定背景模型的方法将前景和背景区分。也无法实现对目标周围环境监控的同时,保持对目标细节的观察。例如可以保持对人的相貌,服饰进行观察。也不利于用户识别当前目标的具体位置,判别目标行进方向的情况,是否有人尾随等周边情况。
因此,需要解决给定固定相机目标大小,位置,如何计算相应的云台控制量的问题。
发明内容
本发明提供一种在固定相机和云台相机间进行目标放大、主从跟踪的方法,简单方便,用户响应速度快,体验好,可靠性高。
为了达到上述目的,本发明提供一种在固定相机和云台相机间进行目标放大、主从跟踪的方法,该方法包含以下步骤:
步骤1、系统初始化,固定相机和云台相机配准;
每一个固定相机图像坐标                                               都对应一个云台控制坐标
Figure 2012105886734100002DEST_PATH_IMAGE004
和缩放系数 
Figure 2012105886734100002DEST_PATH_IMAGE006
;通过采集到的特征点进行分片拟合,使用线性方法拟合图像坐标到云台坐标的映射关系;
步骤2、计算云台相机的p、t、r值;
利用三个顶点估算映射矩阵
Figure 2012105886734100002DEST_PATH_IMAGE008
,对目标点计算所需的
Figure 2012105886734100002DEST_PATH_IMAGE010
值;
Figure 2012105886734100002DEST_PATH_IMAGE012
步骤3、控制云台相机的缩放量Z,实现目标放大;
通过缩放系数
Figure 2012105886734100002DEST_PATH_IMAGE014
换算得到缩放量Z;
步骤4、云台相机自主跟踪。
步骤1只需在系统初始化的时候做一次。
所述的步骤1包含以下步骤:
步骤1.1、采集特征点,获得n个固定相机特征点
Figure 731228DEST_PATH_IMAGE002
及其对应的云台相机的PTZ参数
Figure 2012105886734100002DEST_PATH_IMAGE016
步骤1.2、对获得的特征点进行区域划分;
对固定相机的图像空间按照采集的特征点进行划分,采用第劳内Delauney三角剖分方法;
步骤1.3、建立映射关系,计算线性映射矩阵;
对于任意固定图像坐标, 选择包含它的三角形的三个顶点拟合三角形区域内对应的p、t、r参数,通过矩阵运算得到线性映射矩阵
Figure 774008DEST_PATH_IMAGE008
Figure 2012105886734100002DEST_PATH_IMAGE018
Figure 2012105886734100002DEST_PATH_IMAGE020
Figure 2012105886734100002DEST_PATH_IMAGE022
所述的步骤1.1包含以下步骤:
步骤1.1.1、选择采集方法,若选择手动采集,则执行步骤1.1.2,若选择自动采集,则执行步骤1.1.3; 
步骤1.1.2、手动采集特征点;
步骤1.1.3、自动采集特征点。
所述的步骤1.1.2包含以下步骤:
步骤1.1.2.1、在固定相机图像中选取一点,记录下其图像坐标
Figure 829689DEST_PATH_IMAGE002
步骤1.1.2.2、手动驱动云台相机将图像中心点和选取的固定相机中的特征点对齐,录下其云台控制坐标
Figure 584019DEST_PATH_IMAGE004
和缩放系数
步骤1.1.2.3、重复步骤1.1.2.1和步骤1.1.2.2,直至在可能出现运动物体的区域基本上被特征点覆盖。
所述的步骤1.1.3包含以下步骤:
步骤1.1.3.1、在固定相机中标出基本上在一个平面的区域;
步骤1.1.3.2、在此区域内自动选择特征点,通过最大值抑制保证特征点之间保持一定的距离;
步骤1.1.3.3、通过特征点匹配得到步骤1.1.3.2中的特征点在云台相机中的坐标;
步骤1.1.3.4、引导云台相机将中心依次瞄准步骤1.1.3.3中的特征点,并记录下相应的PTZ控制参数
Figure 694932DEST_PATH_IMAGE004
和缩放系数
Figure 2012105886734100002DEST_PATH_IMAGE026
所述的步骤1.1.3.4包含以下步骤:
步骤1.1.3.4.1、假设云台控制增量和图像位置增量在局部满足线性关系如下:
Figure DEST_PATH_IMAGE028
其中,
Figure DEST_PATH_IMAGE030
是云台控制变化量,
Figure DEST_PATH_IMAGE032
是相应的目标图像坐标变化量,
Figure DEST_PATH_IMAGE034
是待计算的局部线性映射矩阵;
步骤1.1.3.4.2、初始化映射矩阵:
步骤1.1.3.4.3、收敛迭代过程。
所述的步骤1.1.3.4.2包含以下步骤:
步骤1.1.3.4.2.1、云台先进行两次任意小增量运动, P和T分别运动一个预先设定的小量
Figure DEST_PATH_IMAGE036
,保证目标在运动后仍在图像中即可;
步骤1.1.3.4.2.2、分别计算相应的目标位置变化量
Figure DEST_PATH_IMAGE038
Figure DEST_PATH_IMAGE040
,由得到:
Figure 909662DEST_PATH_IMAGE034
=
Figure DEST_PATH_IMAGE044
所述的步骤1.1.3.4.3包含以下步骤:
步骤1.1.3.4.3.1、计算当前目标距离图像中心的距离,利用
Figure DEST_PATH_IMAGE046
计算所需的云台控制变化量,并执行该变化量;
步骤1.1.3.4.3.2、采集图像;
如果目标距离图像中心仍较远,重复步骤1.1.3.4.3.1,同时利用最新的云台控制变化量和图像坐标变化量对应关系替代最老的一组,用最新的两组数据重新计算映射矩阵。
所述的步骤3包含以下步骤:
步骤3.1、计算当前目标位置的缩放系数r;
步骤3.2、固定相机映射到云台基准图像;
给定固定相机中目标的大小、位置,求出在云台基准图像中相应目标的大小;
步骤3.3、云台相机基准图像映射到最终位置;
根据给定的云台变倍曲线以及基准图像中目标大小,计算将目标缩放成理想大小所需的Z值;
如果在云台相机基准图像中的物体宽度为w,理想宽度为基准图像宽度的一半,即
Figure DEST_PATH_IMAGE048
,则云台相机的最终缩放倍数为
Figure DEST_PATH_IMAGE050
,通过变倍曲线查得对应的缩放量Z。
所述的步骤3.1包含以下步骤:
步骤3.1.1、固定相机和云台相机对应的每一幅图中每两个特征点之间计算一个距离; 
步骤3.1.2、每两对匹配的特征点之间计算一个距离比,如果有N个特征点,则有
Figure DEST_PATH_IMAGE052
个距离比;
步骤3.1.3、取所有距离比的中值作为两幅图像的缩放系数
Figure DEST_PATH_IMAGE054
所述的步骤3.2包含以下步骤:
步骤3.2.1、确定固定相机内目标的大小;
目标在固定相机内的大小由以下两个方法确定:
指哪打哪:通过用户选择框的大小; 
主从跟踪:固定相机运动检测得到的目标矩形框的大小;
步骤3.2.2、计算云台基准图像中该目标的大小;
已知目标位置的缩放系数r,如果固定相机中一个目标宽度为n 像素,则在云台基准图像中,此目标的宽度为 
Figure DEST_PATH_IMAGE056
目标图像中的宽度、高度分别为
Figure DEST_PATH_IMAGE058
,云台相机基准图像的整个图像的宽度、高度分别为
Figure DEST_PATH_IMAGE060
,如果
Figure DEST_PATH_IMAGE062
 ,选择宽度进行控制,否则选择高度进行控制。
所述的步骤3.3中的变倍曲线自动校准方法包含以下步骤:
步骤3.3.1、将云台相机瞄准一个纹理丰富的区域;
步骤3.3.2、将云台相机的缩放量Z调到最小,采集特征点;
步骤3.3.3、逐级回调缩放量Z的值,采集特征点;
步骤3.3.4、相邻图像对之间进行特征点匹配;
步骤3.3.5、在匹配的特征点之间计算对应距离比;
步骤3.3.6、遍历所有可能的特征点距离,计算相应的距离比;
步骤3.3.7、计算所有距离比的中值,作为两个图像间的缩放系数
Figure DEST_PATH_IMAGE063
步骤3.3.8、重复步骤3.3.3到3.3.7直至调整到缩放量Z的值达到基准
Figure DEST_PATH_IMAGE065
步骤3.3.9、整理每个缩放量Z档位相对于基准缩放量
Figure 478789DEST_PATH_IMAGE065
档位的缩放比
Figure DEST_PATH_IMAGE067
,就是当前档位到基准档位之间所有相邻图像缩放比的连乘;
步骤3.3.10、根据获得数值整理放大倍数表
Figure DEST_PATH_IMAGE069
,获得变倍曲线表。
所述的步骤4包含以下步骤:
步骤4.1、固定相机跟踪目标,获得目标的位置和大小;
方法参见步骤3.2.1;
步骤4.2、估算云台相机中目标的尺寸,获得PTZ控制量,然后同时进行步骤4.3和步骤4.4;
方法参见步骤2和步骤3;
步骤4.3、修正云台相机中目标的大小、位置和颜色直方图,进行步骤4.3;
步骤4.4、判断目标是否走出固定相机的视野,若是,进行步骤4.5,若否,返回步骤4.1;
步骤4.5、利用最新的云台相机中的目标大小,位置,颜色直方图信息,云台相机对目标进行自主动态跟踪。
本发明针对视频监控领域,实现迅速放大、主从跟踪图像中的目标,通过在广角(最高至360度全景相机)固定相机和云台相机视野之间建立匹配关系,从而将固定相机内发现的目标图像坐标转换成相应的云台控制命令,控制云台自动瞄准目标,适度缩放,同时保持对目标的跟踪。
本发明由于从宽视角的固定相机直接点击选择目标,做到“所见即所得”,用户响应速度快,简单方便、用户体验好。
本发明针对同一目标同时提供宽窄两个画面,用户可以在保持对目标周围环境监控的同时,保持对目标细节的观察,例如可以保持对人的相貌,服饰进行观察的同时,提供大场景图像也有利于用户识别当前目标的具体位置,判别目标行进方向的情况,是否有人尾随等周边情况。
本发明提供一种更可靠的跟踪方法。通过在固定相机和云台相机之间建立匹配关系,用固定相机的跟踪结果驱动云台相机以保持对目标的跟踪,采用成熟的静态相机目标跟踪技术,配合可靠性很高的固定云台相机坐标映射步骤,从而回避了动态跟踪中的难点,形成可靠的解决方案。
附图说明
图1是对特征点进行三角剖分的示意图;
图2是缩放系数的计算示意图;
图3是缩放量Z的控制示意图;
图4是变倍曲线表示意图;
图5是云台相机自主跟踪的流程图。
具体实施方式
以下根据图1~图5具体说明本发明的较佳实施例。
本发明提供一种在固定相机和云台相机间进行目标放大、主从跟踪的方法,该方法包含以下步骤:
步骤1、系统初始化,固定相机和云台相机配准(只需在系统初始化的时候做一次);
每一个固定相机图像坐标
Figure 533464DEST_PATH_IMAGE002
都对应一个云台控制坐标
Figure 244805DEST_PATH_IMAGE004
和缩放系数 
通过采集到的特征点进行分片拟合,使用线性方法拟合图像坐标到云台坐标的映射关系;
步骤1.1、采集特征点,获得n个固定相机特征点
Figure 98809DEST_PATH_IMAGE002
及其对应的云台相机的PTZ参数
Figure DEST_PATH_IMAGE016A
步骤1.1.1、选择采集方法,若选择手动采集,则执行步骤1.1.2,若选择自动采集,则执行步骤1.1.3; 
步骤1.1.2、手动采集特征点;
步骤1.1.2.1、在固定相机图像中选取一点,记录下其图像坐标
Figure 207491DEST_PATH_IMAGE002
最好是便于辨识的特征点,例如地面斑马线端点,路沿转弯处等;
步骤1.1.2.2、手动驱动云台相机将图像中心点和选取的固定相机中的特征点对齐,录下其云台控制坐标
Figure 223989DEST_PATH_IMAGE004
和缩放系数
Figure 659649DEST_PATH_IMAGE024
步骤1.1.2.3、重复步骤1.1.2.1和步骤1.1.2.2,直至在可能出现运动物体的区域基本上被特征点覆盖;
这些特征点数据用来插值计算任意点
Figure DEST_PATH_IMAGE071
所需的PTZ控制参数;
步骤1.1.3、自动采集特征点;
步骤1.1.3.1、在固定相机中标出基本上在一个平面的区域;
例如地面,道路等,可以采用在图片上涂抹的方式;
步骤1.1.3.2、在此区域内自动选择特征点,通过最大值抑制保证特征点之间保持一定的距离;
使用Harris角(哈瑞斯角点)或者Fast Corner(快速角点)方法,在此区域内选择角点作为候选特征点;
步骤1.1.3.3、通过特征点匹配得到步骤1.1.3.2中的特征点在云台相机中的坐标;
所述的步骤1.1.3.3中,选择对缩放、旋转、光照变化不敏感的特征来描述此特征点及其周边区域,并和另一张图片中的特征点的特征进行匹配,得到利用局部特征信息匹配的最佳点对集合,常用的特征点描述方法有SIFT(Scale-invariant feature transform尺度不变特征变化), SURF(speeded-up robust features 加速鲁棒特征), FERN(蕨类特征), ORB(Orientated fast and Rotated BRIEF)等,利用所有匹配的特征点整体上要满足单映或者仿射变化模型对匹配的特征点集合进行“提纯”,剔除误匹配,常用的方法有RANSAC(RANdom Sample Concensus,随机采样共识),PROSAC(PROgressive Sample Concesus 递增采样共识)等;
步骤1.1.3.4、引导云台相机将中心依次瞄准步骤1.1.3.3中的特征点,并记录下相应的PTZ控制参数
Figure 805198DEST_PATH_IMAGE004
和缩放系数
步骤1.1.3.4.1、假设云台控制增量和图像位置增量在局部满足线性关系如下:
Figure DEST_PATH_IMAGE028A
其中,是云台控制变化量,
Figure 240093DEST_PATH_IMAGE032
是相应的目标图像坐标变化量,
Figure 120324DEST_PATH_IMAGE034
是待计算的局部线性映射矩阵;
步骤1.1.3.4.2、初始化映射矩阵:
步骤1.1.3.4.2.1、云台先进行两次任意小增量运动,例如P(Pan, 水平旋转)和T(Tilt,俯仰)分别运动一个预先设定的小量,保证目标在运动后仍在图像中即可;
步骤1.1.3.4.2.2、分别计算相应的目标位置变化量
Figure DEST_PATH_IMAGE038A
Figure DEST_PATH_IMAGE040A
,由
Figure DEST_PATH_IMAGE042A
得到:
Figure 988618DEST_PATH_IMAGE034
=
Figure DEST_PATH_IMAGE044A
步骤1.1.3.4.3、收敛迭代过程:
步骤1.1.3.4.3.1、计算当前目标距离图像中心的距离,利用
Figure 658502DEST_PATH_IMAGE046
计算所需的云台控制变化量,并执行该变化量;
步骤1.1.3.4.3.2、采集图像;
如果目标距离图像中心仍较远,重复步骤1.1.3.4.3.1,同时利用最新的云台控制变化量和图像坐标变化量对应关系替代最老的一组,用最新的两组数据重新计算映射矩阵;
如果云台动一下,有一组云台控制变化量ΔP , ΔT, 也有一组对应的目标图像坐标变化量ΔX, ΔY。如果有两组,就可以按照步骤1.1.3.4.2.2里面的公式求解D矩阵
Figure DEST_PATH_IMAGE073
。D矩阵用来控制给定图像中目标距离中心距离(DX,DY),求解云台该如何动(DP,DT)来消除此距离。 始终用最新的云台动作产生的一组数据替换最老的一组数据,就可以达到更新D矩阵的目标。 从而保证D矩阵使用最接近当前云台位置情况的数据进行计算,克服用固定D矩阵带来的难以用一套参数对于整个云台范围进行控制的难题;
在自动采集特征点时,要求特征点选择区域是在一个平面上,这是特征点鲁棒匹配的需要,鲁棒特征点匹配要求对应特征点满足一个全局映射约束条件,当特征点来自一个平面时,这些特征点在两个相机(固定,云台)中的坐标满足单映关系,所以可以要求特征点在满足局部相似条件的同时,也要满足全局单映约束条件,提高匹配的可靠性;
在特征点周围区域,云台相机控制的精度较高,离特征点越远,控制精度越低,所以在目标最可能出现的区域,特征点要多布置,如果发现控制精度不足,可以适当在该区域手动补充一些特征点;
手动、自动采集的最终结果一样,都是一组特征点的固定相机位置以及对应的云台控制参数;
步骤1.2、对获得的特征点进行区域划分;
对固定相机的图像空间按照采集的特征点进行划分,可以采用第劳内Delauney三角剖分方法;
Delauney三角剖分的基本思想就是保证剖分三角形中最小的角度最大化,也就是避免非常窄的三角形出现,非常窄的三角形三个点接近共线。在进行插值估值的时候容易造成病态(ill-conditioned)解;
如图1所示,在所有特征点集合中增加图像的四角,然后进行Delaunay三角剖分,全部由用户选择的特征点组成的三角形用实线表示,包含图像角的三角形用虚线表示;
选择距离特征点最近的一个实线三角形作为拟合三角形,如果一个点落在一个实线三角形的内部,就用三个顶角插值估算相应的p、t、r值,例如图1中的A点;如果一个点落在虚线三角形内, 如图1中的B点和C点,选择包含特征点的实线三角形,如果有多个选择,选择其它特征点距离目标点距离和最近的一个实线三角形;
步骤1.3、建立映射关系,计算线性映射矩阵;
对于任意固定图像坐标,使用线性方法拟合图像坐标到云台坐标的映射关系如下:
Figure DEST_PATH_IMAGE012A
选择包含它的三角形的三个顶点拟合三角形区域内对应的p、t、r参数,如果已知3个点的数据,可以通过矩阵运算得到线性映射矩阵
Figure 318023DEST_PATH_IMAGE008
Figure DEST_PATH_IMAGE018A
Figure DEST_PATH_IMAGE022A
根据以上方法,对于任何指定固定相机坐标,可以选择距离其最近的3个数据点就局部映射关系进行拟合;
每个三角形的映射矩阵
Figure 60501DEST_PATH_IMAGE008
可以在系统初始化的时候一次性计算好;
由于真实映射关系非线性非常严重,同时地形地貌,现场建筑等不可能存在一个统一的映射模型,所以映射只能针对局部区域进行,如果数据点选取的足够密,云台控制准确性就能达到要求,对于运动物体经常出现的场合, 可以适当增加数据点的密度;
步骤2、计算云台相机的p、t、r值;
利用三个顶点估算映射矩阵
Figure 923414DEST_PATH_IMAGE008
,对目标点计算所需的值;
Figure DEST_PATH_IMAGE012AA
步骤3、控制云台相机的缩放量Z,实现目标放大;
通过缩放系数
Figure 520804DEST_PATH_IMAGE014
换算得到缩放量Z;
对于Z的控制是通过缩放系数
Figure DEST_PATH_IMAGE054A
来实现的,固定相机的每个点对应一个缩放系数 
Figure DEST_PATH_IMAGE054AA
,缩放系数
Figure DEST_PATH_IMAGE054AAA
反映了固定相机像素和在基准ZOOM情况下的云台相机图像中心之间的尺度比例关系,具体定义为,如果固定相机坐标为
Figure 929788DEST_PATH_IMAGE002
,则云台相机要满足以下关系:云台采用基准ZOOM值
Figure 778533DEST_PATH_IMAGE065
,并且云台中心对准相应的固定相机像素
Figure 744215DEST_PATH_IMAGE002
对应的目标;
步骤3.1、计算当前目标位置的缩放系数
Figure DEST_PATH_IMAGE075
如图2所示,任一固定相机像素
Figure 801164DEST_PATH_IMAGE002
的缩放系数
Figure DEST_PATH_IMAGE077
是通过其附近的特征点的缩放系数插值得到的;缩放系数r代表固定相机中一个像素对应于云台相机中几个像素;
步骤3.1.1、固定相机和云台相机对应的每一幅图中每两个特征点之间计算一个距离;例如图2中的距离AB,距离AC和距离BC,距离A’B’,距离A’C’和距离B’C’;
步骤3.1.2、每两对匹配的特征点之间计算一个距离比,如果有N个特征点,则有
Figure 382316DEST_PATH_IMAGE052
个距离比;例如图2中的A’B’ / AB,A’C’/AC,B’C’ /BC;
如图2所示,有3对特征点,则有3个距离比,在实际计算中, 匹配特征点数目远大于3;
步骤3.1.3、取所有距离比的中值作为两幅图像的缩放系数r;
选择中值的目的是为了增强算法的鲁棒性,同时增加匹配特征点的数量也有助于提升算法的鲁棒性;
步骤3.2、固定相机映射到云台基准图像;
给定固定相机中目标的大小、位置,求出在云台基准图像中相应目标的大小;
云台基准图像就是将云台的中心对准某个目标,同时将缩放量Z控制在一个基准值
Figure 219822DEST_PATH_IMAGE065
时获得的图像;
缩放量基准值
Figure 785933DEST_PATH_IMAGE065
建议选择为将云台图像的像素分辨力和固定相机的像素分辨力保持基本一致的值;像素分辨力是指一个像素对应于现实世界中物体的尺寸;保持一致可以理解为固定相机和云台相机看到的相同物体的图像尺寸基本一致;在这种关系下,固定和云台相机的特征点匹配的可靠性最高;由于云台相机的作用是放大局部细节,所以常用的缩放量Z值通常比缩放量基准值
Figure 25284DEST_PATH_IMAGE065
小;
步骤3.2.1、确定固定相机内目标的大小;
目标在固定相机内的大小由以下两个方法确定:
指哪打哪:通过用户选择框的大小; 
主从跟踪:固定相机运动检测得到的目标矩形框的大小;
步骤3.2.2、计算云台基准图像中该目标的大小;
已知目标位置的缩放系数r,如果固定相机中一个目标宽度为n 像素,则在云台基准图像中,此目标的宽度为 
Figure 822077DEST_PATH_IMAGE056
目标图像中的宽度、高度分别为
Figure 146879DEST_PATH_IMAGE058
,云台相机基准图像的整个图像的宽度、高度分别为
Figure 454364DEST_PATH_IMAGE060
,如果
Figure 282642DEST_PATH_IMAGE062
 ,选择宽度进行控制,否则选择高度进行控制;
此步骤的目的是选择目标长宽中相对于图像大小比较“突出”的一个维度进行控制。如果细高目标,就选高度, 如果扁平目标,就选宽度;
不失一般性,下文中仅选择宽度进行示例;
步骤3.3、云台相机基准图像映射到最终位置;
根据给定的云台变倍曲线以及基准图像中目标大小,计算将目标缩放成理想大小所需的Z值;
如果在云台相机基准图像中的物体宽度为w,理想宽度为基准图像宽度的一半,即
Figure 79697DEST_PATH_IMAGE048
,则云台相机的最终缩放倍数为
Figure 124751DEST_PATH_IMAGE050
,通过变倍曲线查得对应的缩放量Z;
变倍曲线是描述缩放量Z和相对于基准图像的缩放比的函数关系;
变倍曲线自动校准方法包含以下步骤:
步骤3.3.1、将云台相机瞄准一个纹理丰富的区域,例如建筑物等,避免水面,天空,水泥平面等缺乏细节的区域;
步骤3.3.2、将云台相机的缩放量Z调到最小(视角最小,物体放大倍数最高),采集特征点(自动选择特征点,可采用Harris角或者Fast Corner方法,选择角点作为候选特征点);
特征点尽量选择靠近图像中心的位置,例如只选择图像中心1/2区域的特征点;
步骤3.3.3、逐级回调缩放量Z的值,例如增加固定
Figure DEST_PATH_IMAGE079
,采集特征点(自动选择特征点,可采用Harris角或者Fast Corner方法,选择角点作为候选特征点);
特征点尽量选择靠近图像中心的位置,例如只选择图像中心1/2区域的特征点;
步骤3.3.4、相邻图像对之间进行特征点匹配;
选择对缩放、旋转、光照变化不敏感的特征来描述此特征点及其周边区域,并和另一张图片中的特征点的特征进行匹配,得到利用局部特征信息匹配的最佳点对集合,常用的特征点描述方法有SIFT, SURF, FERN, ORB等,利用所有匹配的特征点整体上要满足单映或者仿射变化模型对匹配的特征点集合进行“提纯”,剔除误匹配,常用的方法有RANSAC,PROSAC等;
步骤3.3.5、在匹配的特征点之间计算对应距离比。例如在图像
Figure DEST_PATH_IMAGE081
中A,B两点距离是
Figure DEST_PATH_IMAGE083
,在图像
Figure DEST_PATH_IMAGE085
中对应的
Figure DEST_PATH_IMAGE087
的距离是
Figure DEST_PATH_IMAGE089
,则距离比是
Figure 422877DEST_PATH_IMAGE083
/
步骤3.3.6、遍历所有可能的特征点距离,如果点数很多,可以随机采样足够数量(例如100个以上),计算相应的距离比;
步骤3.3.7、计算所有距离比的中值,作为两个图像间的缩放系数
Figure DEST_PATH_IMAGE063A
步骤3.3.8、重复步骤3.3.3到3.3.7直至调整到缩放量Z的值达到基准
Figure 718958DEST_PATH_IMAGE065
步骤3.3.9、整理每个缩放量Z档位相对于基准缩放量
Figure 752774DEST_PATH_IMAGE065
档位的缩放比
Figure 402061DEST_PATH_IMAGE067
,就是当前档位到基准档位之间所有相邻图像缩放比的连乘;
只有所有的缩放是相对于基准档位的,才可以在Z值和相对于基准档位的缩放倍数之间建立简单的直接映射;
步骤3.3.10、根据获得数值整理放大倍数表
Figure DEST_PATH_IMAGE069A
,获得如图4所示的变倍曲线表;
变倍曲线可以通过分段插值来实现,简单的线性插值即可;
使用变倍曲线可以精确调整缩放量Z以使当前已知大小的目标缩放到预定的图像大小,对于主从跟踪、接力跟踪中的缩放量Z的调整都是必要的;
步骤4、云台相机自主跟踪;(如图5所示)
步骤4.1、固定相机跟踪目标,获得目标的位置和大小;
方法参见步骤3.2.1;
步骤4.2、估算云台相机中目标的尺寸,获得PTZ控制量,然后同时进行步骤4.3和步骤4.4;
方法参见步骤2和步骤3;
步骤4.3、修正云台相机中目标的大小、位置和颜色直方图,进行步骤4.3;
已知图像的目标区域(大小,位置),就可以在此区域内提取颜色直方图(颜色直方图是一个行业内普通概念),这个颜色直方图被用作定义目标信息,以便将来目标走出固定相机监控区域以后, 云台相机依赖此目标信息自主进行跟踪,此时没有固定相机为云台相机提供目标在云台相机中位置,大小等信息的支持;
可以利用固定相机中的目标颜色直方图近似代表云台相机中目标的颜色直方图,在固定相机的“帮助下”,云台相机可以启动自发的目标跟踪过程,即利用固定相机目标颜色直方图,在云台中心部位,用meanshift(均值漂移)或者camshift(Continously Adaptive mean shift. 连续自适应均值漂移)等方法搜索指定尺寸的目标,当搜索收敛时,用云台图像的目标直方图更新固定相机提供的颜色直方图,不断维持此过程;
步骤4.4、判断目标是否走出固定相机的视野,若是,进行步骤4.5,若否,返回步骤4.1;
步骤4.5、利用最新的云台相机中的目标大小,位置,颜色直方图信息,云台相机对目标进行自主动态跟踪。
利用固定相机背景模型进行目标跟踪是相对成熟的技术,通过在固定相机和云台相机之间建立匹配关系,用固定相机的跟踪结果驱动云台相机以保持对目标的跟踪;
而本发明采用成熟的静态相机目标跟踪技术,配合可靠性很高的固定云台相机坐标映射步骤,从而回避了动态跟踪中的难点,形成可靠的解决方案;
本发明主要是针对固定云台之间的配合, 仅依靠云台自身跟踪是另外一套技术;
因为固定云台配合期间,可以为云台自动跟踪提供目标定义信息, 以便云台启动自主跟踪过程,实现两套跟踪技术的平滑对接。
尽管本发明的内容已经通过上述优选实施例作了详细介绍,但应当认识到上述的描述不应被认为是对本发明的限制。在本领域技术人员阅读了上述内容后,对于本发明的多种修改和替代都将是显而易见的。因此,本发明的保护范围应由所附的权利要求来限定。

Claims (10)

1.一种在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,该方法包含以下步骤:
步骤1、系统初始化,固定相机和云台相机配准;步骤1只需在系统初始化的时候做一次;
每一个固定相机图像坐标                                                都对应一个云台控制坐标
Figure 911977DEST_PATH_IMAGE002
和缩放系数 
Figure 475813DEST_PATH_IMAGE003
;通过采集到的特征点进行分片拟合,使用线性方法拟合图像坐标到云台坐标的映射关系;
步骤2、计算云台相机的p、t、r值;
利用三个顶点估算映射矩阵
Figure 862932DEST_PATH_IMAGE004
,对目标点计算所需的值;
步骤3、控制云台相机的缩放量Z,实现目标放大;
通过缩放系数
Figure 362461DEST_PATH_IMAGE007
换算得到缩放量Z;
步骤4、云台相机自主跟踪。
2.如权利要求1所述的在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,所述的步骤1包含以下步骤:
步骤1.1、采集特征点,获得n个固定相机特征点
Figure 971297DEST_PATH_IMAGE001
及其对应的云台相机的PTZ参数
Figure 17226DEST_PATH_IMAGE008
所述的步骤1.1包含以下步骤:
步骤1.1.1、选择采集方法,若选择手动采集,则执行步骤1.1.2,若选择自动采集,则执行步骤1.1.3; 
步骤1.1.2、手动采集特征点;
步骤1.1.3、自动采集特征点;
步骤1.2、对获得的特征点进行区域划分;
对固定相机的图像空间按照采集的特征点进行划分,采用第劳内Delauney三角剖分方法;
步骤1.3、建立映射关系,计算线性映射矩阵;
对于任意固定图像坐标, 选择包含它的三角形的三个顶点拟合三角形区域内对应的p、t、r参数,通过矩阵运算得到线性映射矩阵
Figure 654006DEST_PATH_IMAGE004
Figure 559645DEST_PATH_IMAGE009
Figure 929500DEST_PATH_IMAGE011
3.如权利要求2所述的在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,所述的步骤1.1.2包含以下步骤:
步骤1.1.2.1、在固定相机图像中选取一点,记录下其图像坐标
Figure 997950DEST_PATH_IMAGE001
步骤1.1.2.2、手动驱动云台相机将图像中心点和选取的固定相机中的特征点对齐,录下其云台控制坐标
Figure 261441DEST_PATH_IMAGE002
和缩放系数
Figure 533285DEST_PATH_IMAGE012
步骤1.1.2.3、重复步骤1.1.2.1和步骤1.1.2.2,直至在可能出现运动物体的区域基本上被特征点覆盖。
4.如权利要求2所述的在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,所述的步骤1.1.3包含以下步骤:
步骤1.1.3.1、在固定相机中标出基本上在一个平面的区域;
步骤1.1.3.2、在此区域内自动选择特征点,通过最大值抑制保证特征点之间保持一定的距离;
步骤1.1.3.3、通过特征点匹配得到步骤1.1.3.2中的特征点在云台相机中的坐标;
步骤1.1.3.4、引导云台相机将中心依次瞄准步骤1.1.3.3中的特征点,并记录下相应的PTZ控制参数
Figure 907634DEST_PATH_IMAGE002
和缩放系数
所述的步骤1.1.3.4包含以下步骤:
步骤1.1.3.4.1、假设云台控制增量和图像位置增量在局部满足线性关系如下:
Figure 825835DEST_PATH_IMAGE014
其中,
Figure 834243DEST_PATH_IMAGE015
是云台控制变化量,
Figure 12283DEST_PATH_IMAGE016
是相应的目标图像坐标变化量,
Figure 540479DEST_PATH_IMAGE017
是待计算的局部线性映射矩阵;
步骤1.1.3.4.2、初始化映射矩阵;
所述的步骤1.1.3.4.2包含以下步骤:
步骤1.1.3.4.2.1、云台先进行两次任意小增量运动, P和T分别运动一个预先设定的小量,保证目标在运动后仍在图像中即可;
步骤1.1.3.4.2.2、分别计算相应的目标位置变化量
Figure 438213DEST_PATH_IMAGE019
Figure 232994DEST_PATH_IMAGE020
,由
Figure 927281DEST_PATH_IMAGE021
得到:
Figure 578842DEST_PATH_IMAGE017
=
Figure 315503DEST_PATH_IMAGE022
步骤1.1.3.4.3、收敛迭代过程。
5.如权利要求4所述的在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,所述的步骤1.1.3.4.3包含以下步骤:
步骤1.1.3.4.3.1、计算当前目标距离图像中心的距离,利用
Figure 710713DEST_PATH_IMAGE023
计算所需的云台控制变化量,并执行该变化量;
步骤1.1.3.4.3.2、采集图像;
如果目标距离图像中心仍较远,重复步骤1.1.3.4.3.1,同时利用最新的云台控制变化量和图像坐标变化量对应关系替代最老的一组,用最新的两组数据重新计算映射矩阵。
6.如权利要求1所述的在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,所述的步骤3包含以下步骤:
步骤3.1、计算当前目标位置的缩放系数
Figure 197189DEST_PATH_IMAGE024
步骤3.2、固定相机映射到云台基准图像;
给定固定相机中目标的大小、位置,求出在云台基准图像中相应目标的大小;
步骤3.3、云台相机基准图像映射到最终位置;
根据给定的云台变倍曲线以及基准图像中目标大小,计算将目标缩放成理想大小所需的Z值;
如果在云台相机基准图像中的物体宽度为w,理想宽度为基准图像宽度的一半,即
Figure 285231DEST_PATH_IMAGE025
,则云台相机的最终缩放倍数为
Figure 552264DEST_PATH_IMAGE026
,通过变倍曲线查得对应的缩放量Z。
7.如权利要求6所述的在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,所述的步骤3.1包含以下步骤:
步骤3.1.1、固定相机和云台相机对应的每一幅图中每两个特征点之间计算一个距离; 
步骤3.1.2、每两对匹配的特征点之间计算一个距离比,如果有N个特征点,则有
Figure 672535DEST_PATH_IMAGE027
个距离比;
步骤3.1.3、取所有距离比的中值作为两幅图像的缩放系数
Figure 341414DEST_PATH_IMAGE028
8.如权利要求6所述的在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,所述的步骤3.2包含以下步骤:
步骤3.2.1、确定固定相机内目标的大小;
目标在固定相机内的大小由以下两个方法确定:
指哪打哪:通过用户选择框的大小; 
主从跟踪:固定相机运动检测得到的目标矩形框的大小;
步骤3.2.2、计算云台基准图像中该目标的大小;
已知目标位置的缩放系数r,如果固定相机中一个目标宽度为n 像素,则在云台基准图像中,此目标的宽度为 
目标图像中的宽度、高度分别为
Figure 26790DEST_PATH_IMAGE030
,云台相机基准图像的整个图像的宽度、高度分别为
Figure 717797DEST_PATH_IMAGE031
,如果w/W > h/H,选择宽度进行控制,否则选择高度进行控制。
9.如权利要求6所述的在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,所述的步骤3.3中的变倍曲线自动校准方法包含以下步骤:
步骤3.3.1、将云台相机瞄准一个纹理丰富的区域;
步骤3.3.2、将云台相机的缩放量Z调到最小,采集特征点;
步骤3.3.3、逐级回调缩放量Z的值,采集特征点;
步骤3.3.4、相邻图像对之间进行特征点匹配;
步骤3.3.5、在匹配的特征点之间计算对应距离比;
步骤3.3.6、遍历所有可能的特征点距离,计算相应的距离比;
步骤3.3.7、计算所有距离比的中值,作为两个图像间的缩放系数
Figure 241182DEST_PATH_IMAGE032
步骤3.3.8、重复步骤3.3.3到3.3.7直至调整到缩放量Z的值达到基准
Figure 343130DEST_PATH_IMAGE033
步骤3.3.9、整理每个缩放量Z档位相对于基准缩放量
Figure 584756DEST_PATH_IMAGE033
档位的缩放比
Figure 312409DEST_PATH_IMAGE034
,就是当前档位到基准档位之间所有相邻图像缩放比的连乘;
步骤3.3.10、根据获得数值整理放大倍数表
Figure 690301DEST_PATH_IMAGE035
,获得变倍曲线表。
10.如权利要求1或6或7或8或9所述的在固定相机和云台相机间进行目标放大、主从跟踪的方法,其特征在于,所述的步骤4包含以下步骤:
步骤4.1、固定相机跟踪目标,获得目标的位置和大小;
方法参见步骤3.2.1;
步骤4.2、估算云台相机中目标的尺寸,获得PTZ控制量,然后同时进行步骤4.3和步骤4.4;
方法参见步骤2和步骤3;
步骤4.3、修正云台相机中目标的大小、位置和颜色直方图,进行步骤4.3;
步骤4.4、判断目标是否走出固定相机的视野,若是,进行步骤4.5,若否,返回步骤4.1;
步骤4.5、利用最新的云台相机中的目标大小,位置,颜色直方图信息,云台相机对目标进行自主动态跟踪。
CN2012105886734A 2012-12-29 2012-12-29 在固定相机和云台相机间进行目标放大、主从跟踪的方法 Pending CN103105858A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN2012105886734A CN103105858A (zh) 2012-12-29 2012-12-29 在固定相机和云台相机间进行目标放大、主从跟踪的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN2012105886734A CN103105858A (zh) 2012-12-29 2012-12-29 在固定相机和云台相机间进行目标放大、主从跟踪的方法

Publications (1)

Publication Number Publication Date
CN103105858A true CN103105858A (zh) 2013-05-15

Family

ID=48313794

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012105886734A Pending CN103105858A (zh) 2012-12-29 2012-12-29 在固定相机和云台相机间进行目标放大、主从跟踪的方法

Country Status (1)

Country Link
CN (1) CN103105858A (zh)

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103716594A (zh) * 2014-01-08 2014-04-09 深圳英飞拓科技股份有限公司 基于运动目标检测的全景拼接联动方法及装置
CN105335977A (zh) * 2015-10-28 2016-02-17 苏州科达科技股份有限公司 摄像系统及目标对象的定位方法
CN106791715A (zh) * 2017-02-24 2017-05-31 深圳英飞拓科技股份有限公司 分级联控智能监控方法及系统
CN107223220A (zh) * 2016-12-30 2017-09-29 深圳市大疆灵眸科技有限公司 云台控制方法、装置及云台
CN107438152A (zh) * 2016-05-25 2017-12-05 中国民用航空总局第二研究所 一种运动摄像机对全景目标快速定位捕捉方法及系统
CN107507231A (zh) * 2017-09-29 2017-12-22 智造未来(北京)机器人系统技术有限公司 三目视觉识别追踪装置及方法
WO2018050128A1 (zh) * 2016-09-13 2018-03-22 纳恩博(北京)科技有限公司 目标跟踪方法、电子设备及存储介质
CN108171735A (zh) * 2017-12-27 2018-06-15 清华大学 基于深度学习的十亿像素视频对齐方法及系统
CN108257110A (zh) * 2017-11-21 2018-07-06 北京工业大学 一种红外全景监控中目标的跟踪显示方法
WO2018228410A1 (zh) * 2017-06-16 2018-12-20 杭州海康威视数字技术股份有限公司 一种目标对象抓拍方法、装置及视频监控设备
CN109215055A (zh) * 2017-06-30 2019-01-15 杭州海康威视数字技术股份有限公司 一种目标特征提取方法、装置及应用系统
CN109873987A (zh) * 2019-03-04 2019-06-11 深圳市梦网百科信息技术有限公司 一种基于监控视频的目标搜索方法和系统
CN109947273A (zh) * 2019-03-25 2019-06-28 广东小天才科技有限公司 一种点读定位方法及装置
CN109982030A (zh) * 2017-12-27 2019-07-05 杭州海康威视数字技术股份有限公司 一种目标对象抓拍方法、装置、视频监控设备及存储介质
CN110246175A (zh) * 2019-05-24 2019-09-17 国网安徽省电力有限公司检修分公司 全景相机与云台相机结合的变电站巡检机器人图像检测系统及方法
US10430972B2 (en) 2017-08-29 2019-10-01 Axis Ab Method of calibrating a direction of a pan, tilt, zoom, camera with respect to a fixed camera, and a system in which such a calibration is carried out
CN110415278A (zh) * 2019-07-30 2019-11-05 中国人民解放军火箭军工程大学 直线移动ptz相机辅助双目ptz视觉系统的主从跟踪方法
CN110933297A (zh) * 2019-11-12 2020-03-27 武汉联一合立技术有限公司 智能摄影系统的摄影控制方法、装置、存储介质及系统
CN111667404A (zh) * 2019-03-05 2020-09-15 杭州海康威视数字技术股份有限公司 目标信息采集方法、装置、系统、电子设备及存储介质
CN112000135A (zh) * 2020-08-24 2020-11-27 广东工业大学 基于人脸最高温点特征反馈的三轴云台视觉伺服控制方法
CN113168191A (zh) * 2020-06-01 2021-07-23 深圳市大疆创新科技有限公司 云台控制方法、手持云台及计算机可读存储介质
CN115546318A (zh) * 2022-11-23 2022-12-30 中科星图测控技术(合肥)有限公司 一种自动高速弹道标定方法
CN116758119A (zh) * 2023-06-27 2023-09-15 重庆比特数图科技有限公司 基于运动补偿、联动的多目标循环检测跟踪方法及系统

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1619897A1 (en) * 2004-07-22 2006-01-25 Matsushita Electric Industrial Co., Ltd. Camera link system, camera device and camera link control method
CN1960479A (zh) * 2005-11-03 2007-05-09 中国科学院自动化研究所 利用单个摄像机进行主从视频跟踪的方法
CN101794448A (zh) * 2010-04-07 2010-08-04 上海交通大学 主从摄像机系统的全自动标定方法
CN101969548A (zh) * 2010-10-15 2011-02-09 中国人民解放军国防科学技术大学 基于双目摄像的主动视频获取方法及装置
US20110157317A1 (en) * 2009-12-24 2011-06-30 Koji Kamiya Camera system and camera control method
WO2012151777A1 (zh) * 2011-05-09 2012-11-15 上海芯启电子科技有限公司 多目标跟踪特写拍摄视频监控系统
CN102799191A (zh) * 2012-08-07 2012-11-28 北京国铁华晨通信信息技术有限公司 基于动作识别技术的云台控制方法及系统

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1619897A1 (en) * 2004-07-22 2006-01-25 Matsushita Electric Industrial Co., Ltd. Camera link system, camera device and camera link control method
CN1960479A (zh) * 2005-11-03 2007-05-09 中国科学院自动化研究所 利用单个摄像机进行主从视频跟踪的方法
US20110157317A1 (en) * 2009-12-24 2011-06-30 Koji Kamiya Camera system and camera control method
CN101794448A (zh) * 2010-04-07 2010-08-04 上海交通大学 主从摄像机系统的全自动标定方法
CN101969548A (zh) * 2010-10-15 2011-02-09 中国人民解放军国防科学技术大学 基于双目摄像的主动视频获取方法及装置
WO2012151777A1 (zh) * 2011-05-09 2012-11-15 上海芯启电子科技有限公司 多目标跟踪特写拍摄视频监控系统
CN102799191A (zh) * 2012-08-07 2012-11-28 北京国铁华晨通信信息技术有限公司 基于动作识别技术的云台控制方法及系统

Cited By (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103716594B (zh) * 2014-01-08 2017-02-22 深圳英飞拓科技股份有限公司 基于运动目标检测的全景拼接联动方法及装置
CN103716594A (zh) * 2014-01-08 2014-04-09 深圳英飞拓科技股份有限公司 基于运动目标检测的全景拼接联动方法及装置
CN105335977A (zh) * 2015-10-28 2016-02-17 苏州科达科技股份有限公司 摄像系统及目标对象的定位方法
CN105335977B (zh) * 2015-10-28 2018-05-25 苏州科达科技股份有限公司 摄像系统及目标对象的定位方法
CN107438152B (zh) * 2016-05-25 2023-04-07 中国民用航空总局第二研究所 一种运动摄像机对全景目标快速定位捕捉方法及系统
CN107438152A (zh) * 2016-05-25 2017-12-05 中国民用航空总局第二研究所 一种运动摄像机对全景目标快速定位捕捉方法及系统
WO2018050128A1 (zh) * 2016-09-13 2018-03-22 纳恩博(北京)科技有限公司 目标跟踪方法、电子设备及存储介质
US11852958B2 (en) 2016-12-30 2023-12-26 Sz Dji Osmo Technology Co., Ltd. Gimbal control method, device, and gimbal
CN107223220B (zh) * 2016-12-30 2019-04-16 深圳市大疆灵眸科技有限公司 云台控制方法、装置及云台
CN107223220A (zh) * 2016-12-30 2017-09-29 深圳市大疆灵眸科技有限公司 云台控制方法、装置及云台
WO2018120012A1 (zh) * 2016-12-30 2018-07-05 深圳市大疆灵眸科技有限公司 云台控制方法、装置及云台
US11086202B2 (en) 2016-12-30 2021-08-10 Sz Dji Osmo Technology Co., Ltd. Gimbal control method, device, and gimbal
CN106791715A (zh) * 2017-02-24 2017-05-31 深圳英飞拓科技股份有限公司 分级联控智能监控方法及系统
US11102417B2 (en) 2017-06-16 2021-08-24 Hangzhou Hikvision Digital Technology Co., Ltd. Target object capturing method and device, and video monitoring device
WO2018228410A1 (zh) * 2017-06-16 2018-12-20 杭州海康威视数字技术股份有限公司 一种目标对象抓拍方法、装置及视频监控设备
CN109215055A (zh) * 2017-06-30 2019-01-15 杭州海康威视数字技术股份有限公司 一种目标特征提取方法、装置及应用系统
US11398084B2 (en) 2017-06-30 2022-07-26 Hangzhou Hikvision Digital Technology Co., Ltd. Method, apparatus and application system for extracting a target feature
US10430972B2 (en) 2017-08-29 2019-10-01 Axis Ab Method of calibrating a direction of a pan, tilt, zoom, camera with respect to a fixed camera, and a system in which such a calibration is carried out
CN107507231A (zh) * 2017-09-29 2017-12-22 智造未来(北京)机器人系统技术有限公司 三目视觉识别追踪装置及方法
CN108257110B (zh) * 2017-11-21 2021-03-23 北京工业大学 一种红外全景监控中目标的跟踪显示方法
CN108257110A (zh) * 2017-11-21 2018-07-06 北京工业大学 一种红外全景监控中目标的跟踪显示方法
CN109982030A (zh) * 2017-12-27 2019-07-05 杭州海康威视数字技术股份有限公司 一种目标对象抓拍方法、装置、视频监控设备及存储介质
CN109982030B (zh) * 2017-12-27 2021-01-08 杭州海康威视数字技术股份有限公司 一种目标对象抓拍方法、装置、视频监控设备及存储介质
CN108171735B (zh) * 2017-12-27 2021-01-22 清华大学 基于深度学习的十亿像素视频对齐方法及系统
CN108171735A (zh) * 2017-12-27 2018-06-15 清华大学 基于深度学习的十亿像素视频对齐方法及系统
CN109873987A (zh) * 2019-03-04 2019-06-11 深圳市梦网百科信息技术有限公司 一种基于监控视频的目标搜索方法和系统
CN111667404A (zh) * 2019-03-05 2020-09-15 杭州海康威视数字技术股份有限公司 目标信息采集方法、装置、系统、电子设备及存储介质
CN109947273B (zh) * 2019-03-25 2022-04-05 广东小天才科技有限公司 一种点读定位方法及装置
CN109947273A (zh) * 2019-03-25 2019-06-28 广东小天才科技有限公司 一种点读定位方法及装置
CN110246175A (zh) * 2019-05-24 2019-09-17 国网安徽省电力有限公司检修分公司 全景相机与云台相机结合的变电站巡检机器人图像检测系统及方法
CN110415278B (zh) * 2019-07-30 2020-04-17 中国人民解放军火箭军工程大学 直线移动ptz相机辅助双目ptz视觉系统的主从跟踪方法
CN110415278A (zh) * 2019-07-30 2019-11-05 中国人民解放军火箭军工程大学 直线移动ptz相机辅助双目ptz视觉系统的主从跟踪方法
CN110933297A (zh) * 2019-11-12 2020-03-27 武汉联一合立技术有限公司 智能摄影系统的摄影控制方法、装置、存储介质及系统
US11297246B2 (en) 2019-11-12 2022-04-05 Wuhan Lianyi Heli Technology Co., Ltd Photography control method, device, non-transitory storage medium and system of intelligent photography system
CN110933297B (zh) * 2019-11-12 2021-11-23 武汉联一合立技术有限公司 智能摄影系统的摄影控制方法、装置、存储介质及系统
WO2021243527A1 (zh) * 2020-06-01 2021-12-09 深圳市大疆创新科技有限公司 云台控制方法、手持云台及计算机可读存储介质
CN113168191A (zh) * 2020-06-01 2021-07-23 深圳市大疆创新科技有限公司 云台控制方法、手持云台及计算机可读存储介质
CN112000135A (zh) * 2020-08-24 2020-11-27 广东工业大学 基于人脸最高温点特征反馈的三轴云台视觉伺服控制方法
CN115546318A (zh) * 2022-11-23 2022-12-30 中科星图测控技术(合肥)有限公司 一种自动高速弹道标定方法
CN115546318B (zh) * 2022-11-23 2023-04-07 中科星图测控技术股份有限公司 一种自动高速弹道标定方法
CN116758119A (zh) * 2023-06-27 2023-09-15 重庆比特数图科技有限公司 基于运动补偿、联动的多目标循环检测跟踪方法及系统
CN116758119B (zh) * 2023-06-27 2024-04-19 重庆比特数图科技有限公司 基于运动补偿、联动的多目标循环检测跟踪方法及系统

Similar Documents

Publication Publication Date Title
CN103105858A (zh) 在固定相机和云台相机间进行目标放大、主从跟踪的方法
CN105371847B (zh) 一种室内实景导航方法及系统
CN107016367B (zh) 一种跟踪控制方法及跟踪控制系统
CN104796612B (zh) 高清雷达联动跟踪控制摄像系统及联动跟踪方法
KR101590530B1 (ko) 자동 장면 교정
CN111750820B (zh) 影像定位方法及其系统
CN103607569B (zh) 视频监控中的监控目标跟踪方法和系统
CN106529587B (zh) 基于目标点识别的视觉航向识别方法
CN102937816A (zh) 摄像机预置位偏差校准方法及装置
CN109074083A (zh) 移动控制方法、移动机器人及计算机存储介质
CN103198488A (zh) Ptz监控摄像机实时姿态快速估算方法
WO2013096120A1 (en) Transformation between image and map coordinates
CN103941748A (zh) 自主导航方法及系统和地图建模方法及系统
CN106774296A (zh) 一种基于激光雷达和ccd摄像机信息融合的障碍检测方法
KR101347450B1 (ko) 듀얼 카메라를 이용한 화상 감지 방법 및 장치
CN110113560B (zh) 视频智能联动的方法及服务器
WO2019075948A1 (zh) 移动机器人的位姿估计方法
CN103886107A (zh) 基于天花板图像信息的机器人定位与地图构建系统
CN104299236A (zh) 一种基于场景标定结合插值的目标定位方法
CN112714287A (zh) 一种云台目标转换控制方法、装置、设备及存储介质
CN108362205B (zh) 基于条纹投影的空间测距方法
CN104457758B (zh) 基于视频采集的Visual Map数据库建立方法及利用该数据库的室内视觉定位方法
CN107509055A (zh) 一种旋转式全景焦点识别光电跟踪仪及其实施方法
CN101636748A (zh) 模型生成的图形图像到照相机帧的基于帧和象素的匹配
CN104881029A (zh) 基于一点ransac和fast算法的移动机器人导航方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C02 Deemed withdrawal of patent application after publication (patent law 2001)
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130515