CN103247032B - 一种基于姿态补偿的微弱扩展目标定位方法 - Google Patents
一种基于姿态补偿的微弱扩展目标定位方法 Download PDFInfo
- Publication number
- CN103247032B CN103247032B CN201310149464.4A CN201310149464A CN103247032B CN 103247032 B CN103247032 B CN 103247032B CN 201310149464 A CN201310149464 A CN 201310149464A CN 103247032 B CN103247032 B CN 103247032B
- Authority
- CN
- China
- Prior art keywords
- target
- inertia
- ellipse
- major
- point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 36
- 238000013519 translation Methods 0.000 claims abstract description 15
- 238000001914 filtration Methods 0.000 claims abstract description 5
- 230000004807 localization Effects 0.000 claims description 15
- 230000008859 change Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 6
- 239000000284 extract Substances 0.000 claims description 4
- 238000009499 grossing Methods 0.000 claims description 3
- 238000004422 calculation algorithm Methods 0.000 abstract description 5
- 238000005070 sampling Methods 0.000 abstract 1
- 238000005516 engineering process Methods 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000005352 clarification Methods 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000003708 edge detection Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000005622 photoelectricity Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Landscapes
- Image Analysis (AREA)
Abstract
本发明是一种基于姿态补偿的微弱扩展目标定位方法,首先采样高斯平滑滤波对待处理图像进行预处理以去除噪声对后续算法的影响,然后采用边界跟踪法得到单像素的二值边缘,对目标的轮廓边缘点进行滤波,剔除干扰点;其次利用目标轮廓边缘点计算目标的惯量椭圆及其参数,确定目标的姿态,再利用基于姿态补偿的定位方法求得目标的平移参数和旋转参数,从而实现对目标旋转、平移、缩放等情况的定位。
Description
技术领域
本发明属于光电捕获跟踪瞄准系统中目标探测跟踪技术领域,涉及一种姿态补偿的微弱扩展目标定位的方法,用于图像处理、计算机视觉和目标检测跟踪定位。
背景技术
在光电捕获瞄准系统中,为了提高跟踪精度,精探测器的视场都比较小,目标尺寸又偏大。因此在精探测器中,目标呈现扩展的形态。远距离空间目标成像,由于大气湍流、系统抖动和光学系统的像差等降质因素导致目标在系统的成像非常模糊,表现为一团目标外观轮廓形状的光斑;此外,目标无纹理信息,形状各异,无表征和识别目标的特征信息。目标还存在姿态变化明显的特点,随着目标姿态的变化,跟踪点也会随之发生漂移。选取稳定的特征点进行锁定跟踪,是扩展目标定位面临的一大难题。
目前,常用的针对扩展目标的算法是匹配,包括灰度、特征等方面的匹配。由于目标的运动,目标可能出现大小、形状、姿态等变化,加上背景、光照等各种干扰,以及图像处理最小计量单位的精度问题,匹配跟踪得不到绝对最佳的匹配位置,这会带来跟踪点的漂移。本系统中,目标无表征和识别目标的特征信息,普通的目标跟踪定位技术尤其是依靠灰度相关特征为基础的跟踪定位技术已经不再适应(其将产生极大的跟踪漂移),因此迫切需要研究新的方法以兼并适应跟踪与定位的工程应用需求。
发明内容
本发明的目的在于针对现有技术的不足,提出一种基于姿态补偿的微弱扩展目标定位方法,定位精度达到亚像素级。基于姿态补偿的定位方法能对微弱扩展目标上的任意点进行跟踪定位,因为目标的运动可以分解为目标的平动以及绕质心的转动,通过计算目标的平动及转动,对原跟踪点分别进行平移和姿态的补偿,得到跟踪点在当前帧的位置。
为实现这样的目的,本发明的技术方案包含以下步骤:一种基于姿态补偿的微弱扩展目标定位方法,所述定位方法包括如下步骤:
步骤S1:采用高斯平滑滤波对图像进行去噪处理,去除噪声对后续图像处理的影响,得到平滑后的图像;采用边界跟踪法提取平滑后的图像中目标的轮廓边缘;
步骤S2:对目标的轮廓边缘点进行滤波,剔除干扰点;
步骤S3:将目标的轮廓边缘所有像素点等效为惯量椭圆,利用目标轮廓边缘点计算目标的惯量椭圆,提取惯量椭圆的主轴确定目标中轴线方向,确定目标姿态。
步骤S4:利用姿态补偿的方法求得目标的平移参数、旋转参数和尺度因子,从而实现对目标旋转、平移、缩放进行定位。
本发明与现有技术相比的有益效果在于:
(1)本发明对提取目标后的图像采用边界跟踪的方法提取目标的轮廓边缘,得到目标轮廓的单像素边缘,与传统的边缘检测算法如Sobel、Canny、LOG相比,本发明方法得到的单像素边缘不易出现断裂和中空现象,更加接近于真实边缘;
(2)本发明通过目标的边缘轮廓计算目标的惯量椭圆,获得目标的姿态,与传统基于局部特征的方法相比,本发明方法以目标整体特征为基础,具有更强的鲁棒性,对尺度、旋转和平移具有不变性。
附图说明
图1为本发明姿态补偿的基于微弱扩展目标定位的整体流程图。
图2为本发明对实际采集图像的第22、52、82、122帧图像进行跟踪定位的结果(跟踪点选择目标尾部)。
图3为本发明对实际采集图像的第22、52、82、122帧图像进行跟踪定位的结果(跟踪点选择目标中间)。
图4为本发明对模拟图像进行精度验证(将一幅图像按固定轨迹移动或者转动)得到的误差曲线图。
具体实施方式
下面结合附图对本发明的实施例作详细说明。本实施例在以本发明技术方案为前提下进行实施,给出了详细的实施方式和具体的操作过程,但本发明的保护范围不限于以下的实施例。
本实施例基于目标定位的实现,输入图像为实际采集的天空背景下的微弱扩展目标图像。
如图1所示,本实例提供了一种利用姿态补偿进行扩展目标跟踪定位的方法,包括如下步骤:
步骤S1:图像预处理。由于光照或成像系统的缺陷,获取的待处理图像会受到噪声的影响,从而影响后续的处理。因此,在执行后续的处理算法之前,对待处理图像进行预处理。本发明方法采用高斯平滑滤波进行去噪处理,去除噪声对后续图像处理的影响,得到平滑后的图像。采用边界跟踪法提取平滑后的图像中目标的轮廓边缘,得到单像素的二值边缘;
轮廓边缘提取。分析原图像序列发现图像的对比度较差、灰度层次单一、信息量少。而边缘轮廓是图像的重要特征,其能够体现目标的形状信息,从而大大减少所要处理的信息量。一般情况下,扩展目标在空间结构上具有刚性目标的先验紧致特性,轮廓复杂且面积较大,但内部可能有小块的均匀区域,直接采用经典的边缘检测算法如Sobel、Canny、LOG算子等可能会受到局部细节的干扰而无法提取出体现结构特征的轮廓信息,且易出现边缘断裂和中空现象,不利于后续的处理。
本发明采用边界跟踪的方法:①首先对图像进行自适应阈值分割,消除孤立点和孤立团块,而后进行二值化设定(目标为1,背景为0);②按照从左到右、从下到上的顺序搜索,找到第一个目标像素点,其一定为目标最左下方的边界点;③从第一个边界点开始,定义初始的搜索方向为左上方,如果左上方的点为1,则为边界点,否则右旋45度继续搜索直到找到下一个边界点;④以找到的边界点作为新的起点,在当前搜索方向的基础上逆时针旋转90度,继续用同样的方法搜索下一个边界点,直到返回初始边界点为止。如果为非闭合线,则搜索完毕后需从起始点开始向相反的方向跟踪到另一尾点。一条边界搜索完毕后,接着扫描下一个未跟踪点,直到图像内所有轮廓边缘都跟踪完毕,由此得到目标轮廓的单像素连续边缘。
步骤S2:对目标的轮廓边缘点进行滤波,剔除干扰点;
步骤S3:将目标的轮廓边缘所有像素点等效为惯量椭圆,利用目标轮廓边缘点计算目标的惯量椭圆并获得目标的姿态。将上述步骤得到的目标的轮廓边缘所有像素点等效为惯量椭圆,通过提取惯量椭圆的主轴确定目标中轴线方向,最终确定目标姿态。所述目标姿态是目标的旋转角和尺度因子。目标的惯量椭圆计算步骤如下:
(1)统计目标边缘点的个数N(即图像中1的个数);
(2)计算目标质心坐标(p,q),p为目标质心横坐标点、q为目标质心纵坐标点。
质心横坐标p表示如下:
质心纵坐标q表示如下:
式中N为目标的轮廓边缘点的个数,xi,yi分别为第i个坐标点的横坐标和纵坐标,(xi,yi)为目标的轮廓边缘上第i个点的坐标,f(xi,yi)为第i个点的灰度值,i为坐标点个数。
(3)计算惯量椭圆的朝向角θ。这里的朝向角定义为惯量椭圆的主轴与X轴正向的夹角。图像沿Y方向的转动惯量A表示如下:
图像沿X方向的转动惯量B表示如下:
图像沿X、Y方向的惯量积H表示如下:
式中N为目标的轮廓边缘点的个数,xi,yi分别为第i个坐标点的横坐标和纵坐标,(xi,yi)为目标的轮廓边缘上第i个点的坐标,得到惯量椭圆两个主轴方向的斜率k、l表示如下:
则椭圆的朝向角θ表示如下:
(4)计算惯量椭圆的长半轴和短半轴的长度a,b,如式(8)和(9)所示:
(5)根据(3)求得的椭圆朝向角以及(2)求得的质心坐标,计算通过质心的长短轴方程分别表示如下:
y1=k(x1-p)+q(10)
y2=k(x2-p)+q(11)
x1,y1,x2,y2分别为通过长短轴直线上点的横坐标、纵坐标。
步骤S4:利用姿态补偿的方法求得目标的平移参数和旋转参数,从而实现对目标旋转、平移、缩放进行定位。姿态补偿的是通过比较相邻两帧间的目标质心变化(即惯量椭圆的中心变化)来确定目标的平动,根据步骤S3的计算得到的惯量椭圆的朝向角确定目标的旋转角度,以及根据相邻两帧间目标的惯量椭圆的长短轴长度的变化来确定目标的尺度变化。确定了目标的尺度、旋转和平移变化后,在初始跟踪点(第一帧目标上的跟踪点)确定后(鼠标引导)计算该跟踪点与长短轴的垂线,及计算该跟踪点与长短轴的距离,分别得到在长短轴上的交点,确定了在长短轴上的投影位置。在下一帧图像里,首先计算出目标的惯量椭圆的长短轴直线位置,然后根据初始帧的投影比例关系得到在长短轴上的交点,然后计算通过这两个交点的垂线,它们的交点就是当前帧目标上的跟踪点。
对实际采集的图像进行跟踪定位,截取序列中第22、52、82以及122帧图像,仿真结果如图2和图3所示。图中白色十字为定位点,目标中灰色直线为通过计算目标的惯量椭圆得到的主轴。图2选取目标的尾部作为定位点,图3选取目标的中间作为定位点,由此来验证本发明方法对任意定位点均能实现稳定的跟踪。从图中可以看出,当目标出现旋转时,不论定位点在目标尾部边缘还是在中间,均能实现对任意定位点的精确稳定跟踪。通过模拟图像进行精度验证,得到的误差曲线图如图4右所示,图4左为要定位的目标图像,白色矩形框为跟踪框,矩形框中心黑点为定位点。实验结果表明,实际定位与理论轨迹误差绝对值均值为0.3个像素,最大误差小于0.78个像素。
本发明未详细阐述部分属于本领域技术人员的公知技术。
本技术领域中的普通技术人员应当认识到,以上的实施例仅是用来说明本发明,而并非用作为对本发明的限定,只要在本发明的实质精神范围内,对以上所述实施例变化,变型都将落在本发明权利要求书的范围内。
Claims (2)
1.一种基于姿态补偿的微弱扩展目标定位方法,其特征在于,所述的定位方法包括如下步骤:
步骤S1:采用高斯平滑滤波对图像进行去噪处理,去除噪声对后续图像处理的影响,得到平滑后的图像;采用边界跟踪法提取平滑后的图像中目标的轮廓边缘;
步骤S2:对目标的轮廓边缘点进行滤波,剔除干扰点;
步骤S3:将目标的轮廓边缘所有像素点等效为惯量椭圆,利用目标轮廓边缘点计算目标的惯量椭圆,提取惯量椭圆的主轴确定目标中轴线方向,确定目标姿态;
步骤S4:利用姿态补偿的方法求得目标的平移参数、旋转参数和尺度因子,从而实现对目标旋转、平移、缩放进行定位;
所述姿态补偿是通过比较相邻两帧间的目标质心变化即惯量椭圆的中心变化来确定目标的平动,根据步骤S3的惯量椭圆的朝向角确定目标的旋转角度,以及根据相邻两帧间目标的惯量椭圆的长短轴长度的变化来确定目标的尺度变化;确定了目标的平移、旋转和尺度变化后,在初始跟踪点即为第一帧目标上的跟踪点确定后,计算该跟踪点与惯量椭圆的长短轴的垂线,计算该跟踪点分别到惯量椭圆的长短轴的距离,分别得到在惯量椭圆的长短轴上的交点,确定在惯量椭圆的长短轴上的投影位置;在下一帧图像里,首先计算出目标的惯量椭圆的长短轴直线位置,然后根据初始帧的投影比例关系得到在惯量椭圆的长短轴上的交点,然后通过长轴上的交点作长轴的垂线,通过短轴上的交点作短轴的垂线,它们上述两条垂线的交点就是当前帧目标上的跟踪点。
2.如权利要求1所述基于姿态补偿的微弱扩展目标定位方法,其特征在于,所述目标姿态是目标的旋转角和尺度因子。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310149464.4A CN103247032B (zh) | 2013-04-26 | 2013-04-26 | 一种基于姿态补偿的微弱扩展目标定位方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201310149464.4A CN103247032B (zh) | 2013-04-26 | 2013-04-26 | 一种基于姿态补偿的微弱扩展目标定位方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103247032A CN103247032A (zh) | 2013-08-14 |
CN103247032B true CN103247032B (zh) | 2015-12-02 |
Family
ID=48926537
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201310149464.4A Active CN103247032B (zh) | 2013-04-26 | 2013-04-26 | 一种基于姿态补偿的微弱扩展目标定位方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103247032B (zh) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103530891B (zh) * | 2013-10-12 | 2016-03-30 | 中国科学院光电技术研究所 | 一种基于头部最小内切圆的扩展目标稳定跟踪点提取方法 |
CN103839274B (zh) * | 2014-03-25 | 2016-09-21 | 中国科学院光电技术研究所 | 一种基于几何比例关系的扩展目标跟踪方法 |
CN106569204B (zh) * | 2016-10-21 | 2019-03-01 | 西安电子科技大学 | 子椭圆个数可变的非椭圆扩展目标跟踪方法 |
CN107907109B (zh) * | 2017-11-03 | 2020-06-16 | 福建工程学院 | 一种基于改进型图像处理的角度识别方法和小型无人机 |
CN110264511B (zh) * | 2019-06-24 | 2020-02-07 | 北京市水产科学研究所(国家淡水渔业工程技术研究中心) | 一种参数测量的方法及其系统 |
CN110443822B (zh) * | 2019-07-16 | 2021-02-02 | 浙江工业大学 | 一种语义边缘辅助的高分遥感目标精细提取方法 |
CN111707413B (zh) * | 2020-05-15 | 2021-11-26 | 中国科学院合肥物质科学研究院 | 一种基于单像素探测器的质心探测方法 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081733A (zh) * | 2011-01-13 | 2011-06-01 | 西北工业大学 | 多模态信息结合的多姿态三维人脸面部五官标志点定位方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7254257B2 (en) * | 2002-03-04 | 2007-08-07 | Samsung Electronics Co., Ltd. | Method and apparatus of recognizing face using component-based 2nd-order principal component analysis (PCA)/independent component analysis (ICA) |
-
2013
- 2013-04-26 CN CN201310149464.4A patent/CN103247032B/zh active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102081733A (zh) * | 2011-01-13 | 2011-06-01 | 西北工业大学 | 多模态信息结合的多姿态三维人脸面部五官标志点定位方法 |
Non-Patent Citations (4)
Title |
---|
Visual Registration of Industrial Metallic Object from Local Contour Descriptors;Steve Bourgeois et al.;《2006 International Conference on Computer Graphics, Imaging and Visualisation》;20060726;第273-280页 * |
一种新的边界跟踪算法;石爽 等;《工程图学学报》;20110630(第3期);第52-56页 * |
基于Hough变换的人眼检测方法研究;吴冰 等;《河南理工大学学报(自然科学版)》;20081031;第27卷(第5期);第556-559页,第564页 * |
惯量椭圆法在单站光测目标三维姿态测量中的应用;彭晓东 等;《光子学报》;20070331;第36卷(第3期);第568-573页 * |
Also Published As
Publication number | Publication date |
---|---|
CN103247032A (zh) | 2013-08-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN103247032B (zh) | 一种基于姿态补偿的微弱扩展目标定位方法 | |
Wang et al. | Automatic laser profile recognition and fast tracking for structured light measurement using deep learning and template matching | |
CN109684921B (zh) | 一种基于三维激光雷达的道路边界检测与跟踪方法 | |
Chen et al. | The Comparison and Application of Corner Detection Algorithms. | |
CN103714541B (zh) | 一种利用山体轮廓区域约束识别定位建筑物的方法 | |
CN107014294B (zh) | 一种基于红外图像的接触网几何参数检测方法及系统 | |
Romero-Ramire et al. | Fractal markers: A new approach for long-range marker pose estimation under occlusion | |
US9990726B2 (en) | Method of determining a position and orientation of a device associated with a capturing device for capturing at least one image | |
CN103136525B (zh) | 一种利用广义Hough变换的异型扩展目标高精度定位方法 | |
CN104115192A (zh) | 三维近距离交互的改进或与其有关的改进 | |
CN103063159A (zh) | 一种基于ccd的零件尺寸测量方法 | |
CN104036524A (zh) | 一种改进sift算法的快速目标跟踪方法 | |
KR102296520B1 (ko) | 단안 카메라를 이용한 경로추정에 의한 곡선차선 검출 방법 | |
US9569850B2 (en) | System and method for automatically determining pose of a shape | |
Sun et al. | Robust monocular pose tracking of less-distinct objects based on contour-part model | |
Chen et al. | A stereo visual-inertial SLAM approach for indoor mobile robots in unknown environments without occlusions | |
Cvišić et al. | Enhanced calibration of camera setups for high-performance visual odometry | |
Songhui et al. | Objects detection and location based on mask RCNN and stereo vision | |
Wang et al. | Hand posture recognition from disparity cost map | |
Zhao et al. | Lane detection and tracking based on annealed particle filter | |
Bai et al. | Analysis and comparison of feature detection and matching algorithms for rovers vision navigation | |
CN113177969A (zh) | 一种基于运动方向变化的候选种子的点云单目标跟踪方法 | |
Chen et al. | Object recognition and localization based on kinect camera in complex environment | |
Shimizu et al. | Robust and accurate detection of object orientation and id without color segmentation | |
KR20160097513A (ko) | 깊이 영상에서 가장자리 쌍 기반의 손 추적 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |