CN101976342A - 一种基于时空协同判定的“猫眼”效应目标识别方法 - Google Patents

一种基于时空协同判定的“猫眼”效应目标识别方法 Download PDF

Info

Publication number
CN101976342A
CN101976342A CN2010102714309A CN201010271430A CN101976342A CN 101976342 A CN101976342 A CN 101976342A CN 2010102714309 A CN2010102714309 A CN 2010102714309A CN 201010271430 A CN201010271430 A CN 201010271430A CN 101976342 A CN101976342 A CN 101976342A
Authority
CN
China
Prior art keywords
image
gray
sigma
cut zone
prime
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2010102714309A
Other languages
English (en)
Other versions
CN101976342B (zh
Inventor
李丽
任熙明
刘丽
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beihang University
Original Assignee
Beihang University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beihang University filed Critical Beihang University
Priority to CN201010271430.9A priority Critical patent/CN101976342B/zh
Publication of CN101976342A publication Critical patent/CN101976342A/zh
Application granted granted Critical
Publication of CN101976342B publication Critical patent/CN101976342B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明一种基于时空协同判定的“猫眼”效应目标识别方法,它适用于具有“猫眼”效应特性的光学目标的识别探测。本方法的步骤包括:步骤一、获取主被动图像;步骤二、主被动图像差分运算;步骤三、阈值分割;步骤四、二值化图像逻辑与运算;步骤五、标记连通域并记录其形心坐标;步骤六、记录灰度值集合;步骤七、分析灰度值集合;步骤八、锁定目标区域。本发明实现了背景分离,降低了处理数据量,而且基于目标的空间特性和时间特性作为判据进行目标识别具有高可靠性。它在激光成像及数字图像处理技术领域里具有较好的实用价值和广阔地应用前景。

Description

一种基于时空协同判定的“猫眼”效应目标识别方法
(一)技术领域
本发明涉及一种图像识别方法,特别是涉及一种基于时空协同判定的“猫眼”效应目标识别方法。它是利用激光成像探测系统获取图像序列并识别“猫眼”效应目标,属于激光成像及数字图像处理技术领域。
(二)背景技术
一般地,成像光学系统可以近似看成是一个透镜与一个探测器焦平面的组合,当一束入射的平行激光束聚焦到焦平面上时,由于焦平面是一个反射面,按光的可逆原理,激光束会沿原路返回,从而产生方向性好、能量集中的平行反射光,其光强大大超过普通漫反射光强,这就是成像光学系统的“猫眼”效应。
针对光学系统的“猫眼”效应,目前国内外的许多研究已证实了它的应用价值。其中,基于“猫眼效应”的激光主动探测系统,因其具有早期预警的优势,得到了广泛的应用。目前国内有关于通过激光成像及图像处理实现“猫眼”效应目标探测的文献报道,其采用了基于目标灰度和形状特征的识别方法,然而该方法在复杂背景中识别目标效果不佳,缺乏可靠性。
(三)发明内容
1、目的:本发明针对已有识别方法的不足,提供了一种基于时空协同判定的“猫眼”效应目标识别方法。该方法处理的图像源是利用脉冲激光作为照明光源以及高速工业相机作为探测器采集的图像序列。
2、技术方案:见图1、图2,本发明一种基于时空协同判定的“猫眼”效应目标识别方法,该方法具体步骤如下:
步骤一:获取主被动图像;
步骤二:主被动图像差分运算;
步骤三:阈值分割;
步骤四:二值化图像逻辑与运算;
步骤五:标记连通域并记录其形心坐标;
步骤六:记录灰度值集合;
步骤七:分析灰度值集合;
步骤八:锁定目标区域。
本发明通过高速工业相机对脉冲激光照明的目标场景进行成像,在激光脉冲高电平和低电平持续时间内分别获得主动图像(主动图像即依靠自主光源出射光辐射经待测目标反射的光信号所形成的像)和被动图像(被动图像即依靠目标本身辐射光或者反射光形成的像);选取多对主被动图像分别进行相减运算,得到多幅差分图像,再通过自适应阈值分割出相应的二值化图像;相邻的二值化图像进行逻辑与运算和形态学闭运算(闭运算即先膨胀再腐蚀的形态学变换,膨胀即采用向量加法对两个集合进行合并,腐蚀即采用向量减法对两个集合进行合并)得到一系列分割区域,再通过形心公式求出每个分割区域的形心坐标,并分析这些形心坐标点在图像序列中的灰度值分布频率,与激光脉冲频率进行比对。若通过频率比对后得到多个频率匹配分割区域,则再通过圆形度和偏心率对相应分割区域作进一步判别,最后锁定目标所在区域。
3、优点及功效:本发明的优点是实现了背景分离,降低了图像处理的数据量,并且采用目标空间特性和时间特性作为判据识别目标,具有高可靠性。
(四)附图说明
图1为本发明的流程框图;
图2是对步骤七分析灰度值集合和步骤八锁定目标所在区域内容的具体说明图。
图中符号说明如下:
S101-S108是表示步骤一至步骤八的步骤代号;S201-S206是步骤七和步骤八内容解释的步骤代号。
(五)具体实施方式
本发明采用脉冲激光作为主动光源,能实现全天候目标识别;接收设备使用高速工业相机;能在数字信号处理器平台上实现实时高速的目标识别。
见图1、图2,本发明是一种基于时空协同判定的“猫眼”效应目标识别方法,该方法具体步骤如下:
步骤一:获取主被动图像。在T秒内,基于频率为fL的脉冲激光和快门开关频率为fC的高速工业相机采集到的图像序列标记为:
{I(xi,yi,t0),I(xi,yi,t1),……,I(xi,yi,tn-1),i∈(0,1,……,N-1),j∈(0,1,……,M-1)}
其中,T≥1S。fC=KfL,K□2(根据奈奎斯特采样定理,要使采样信号能可靠地恢复出原始信号,则相机快门开关频率至少应满足脉冲激光频率的2倍,而实际应用时选择的相机快门开关频率远大于脉冲激光频率的2倍),n=fCT是图像序列的总帧数,N,M分别是图像长度方向和宽度方向的最大像素点数,I(xi,yi,t)表示t时刻采集到的灰度图像,(xi,yi)代表不同像素的坐标。完成了图1中S101获取主被动图像的任务。
步骤二:主被动图像差分运算。图1中S102主被动图像差分运算是在图1中S101获取主被动图像后,选取第m帧图像和第
Figure BSA00000255816000031
帧图像进行差分运算,得到结果标记为D1;再选取第m帧图像和第
Figure BSA00000255816000032
帧图像进行差分运算,得到结果标记为D2,其中m,u为正整数,K为偶数。
步骤三:阈值分割。对于图1中S103阈值分割,关键是找到合理的分割阈值。设图像各像素水平、垂直方向梯度分别为ex和ey,定义该点的梯度值为exy=max(ex,ey),设I(x,y)为该点灰度值.则初始阈值为
t = Σ x = 1 N Σ y = 1 M e xy * I ( x , y ) Σ x = 1 N Σ y = 1 M e xy .
利用初始阈值t分割差分图像,定义灰度值高于初始阈值t的分割区域的灰度均值为
TH = Σ x = 1 N Σ y = 1 M I t ( x , y ) N t
其中It(x,y)为图像中高于初始阈值t的灰度值,Nt为It(x,y)的个数。
将求得的TH作为整个差分图像的自适应分割阈值。
步骤四:二值化图像逻辑与运算。将步骤二里求得的差分图像D1和D2通过图1中S103阈值分割求出其各自的自适应分割阈值,并二值化为图像D1 *和D2 *,连通域个数分别为
Figure BSA00000255816000041
Figure BSA00000255816000042
。进入图1中S104二值化图像逻辑与运算阶段,将二值化图像D1 *和D2 *采用逻辑与运算得到D*,采用形态学闭运算对D*处理最后得到图像D,连通域个数为E,且
Figure BSA00000255816000043
步骤五:标记连通域并记录其形心坐标。其具体步骤为:
利用形心公式:
x c = Σ x = 1 N ′ Σ y = 1 M ′ x N ′ M ′ , y c = Σ x = 1 N ′ Σ y = 1 M ′ y N ′ M ′
(其中N′,M分别是分割区域长度方向和宽度方向的最大像素点数)求出不同分割区域的形心坐标,并标记成:
Figure BSA00000255816000047
完成图1中S105标记连通域并记录形心坐标步骤。
步骤六:记录灰度值集合。图1中S106记录灰度值集合,是在步骤一采集的图像序列后,按照步骤五标记的形心坐标点分别取出每帧对应坐标点的灰度值,得到不同的灰度集合,并记录为:
A 1 = { I i ( x c 1 , y c 1 ) , i ∈ f C T } , A 2 = { I i ( x c 2 , y c 2 ) , i ∈ f C T } , . . . . . . , A E = { I i ( x c E , y c E ) , i ∈ f C T }
步骤七:分析灰度值集合。图1中S107分析灰度值集合,是将步骤六的各灰度集合分别在时间轴上展开,得到灰度值变化分布规律。运用图2中S201频率判别准则,将灰度值变化频率与脉冲激光频率比较,两者一致的分割区域则是“猫眼”效应目标可能出现的区域。进入图2中S203多区域判别阶段,若存在多个频率匹配的分割区域,则再经过图2中S204综合判别准则,即通过综合判据:
Metric=|1-Metricr|+|1-Metrice|
进一步确定目标所在区域。其中
Figure BSA00000255816000049
代表分割区域的圆形度,
Figure BSA000002558160000410
代表分割区域的偏心率,A是分割区域的面积,P是分割区域的周长,a是分割区域的长轴,b是分割区域的短轴。
步骤八:锁定目标区域。综合以上步骤,最后实现图1中S108锁定目标出现的区域。
通过上述方法,突破了仅基于目标空间特性作为判据的方法的局限性,添加了目标时间特性作为判据,能够准确的识别复杂背景中具有“猫眼”效应的目标。
本发明的优点是实现了背景分离,降低了处理数据量,而且基于目标的空间特性和时间特性作为判据进行目标识别具有高可靠性。

Claims (1)

1.一种基于时空协同判定的“猫眼”效应目标识别方法,其特征在于:该方法具体步骤如下:
步骤一:获取主被动图像  在T秒内,基于频率为fL的脉冲激光和快门开关频率为fC的高速工业相机采集到的图像序列标记为:
{I(xi,yi,t0),I(xi,yi,t1),……,I(xi,yi,tn-1),i∈(0,1,……,N-1),j∈(0,1,……,M-1)}
其中,T≥1S,fC=KfL,K□2,n=fCT是图像序列的总帧数,N,M分别是图像长度方向和宽度方向的最大像素点数,I(xi,yi,t)表示t时刻采集到的灰度图像,(xi,yi)代表不同像素的坐标;
步骤二:主被动图像差分运算  主被动图像差分运算是在获取主被动图像后,选取第m帧图像和第
Figure FSA00000255815900011
帧图像进行差分运算,得到结果标记为D1;再选取第m帧图像和第
Figure FSA00000255815900012
帧图像进行差分运算,得到结果标记为D2,其中m,u为正整数,K为偶数;
步骤三:阈值分割  其关键是找到合理的分割阈值;设图像各像素水平、垂直方向梯度分别为ex和ey,定义该点的梯度值为exy=max(ex,ey),设I(x,y)为该点灰度值.则初始阈值为
t = Σ x = 1 N Σ y = 1 M e xy * I ( x , y ) Σ x = 1 N Σ y = 1 M e xy
利用初始阈值t分割差分图像,定义灰度值高于初始阈值t的分割区域的灰度均值为
TH = Σ x = 1 N Σ y = 1 M I t ( x , y ) N t
其中It(x,y)为图像中高于初始阈值t的灰度值,Nt为It(x,y)的个数,
将求得的TH作为整个差分图像的自适应分割阈值;
步骤四:二值化图像逻辑与运算  将步骤二里求得的差分图像D1和D2通过阈值分割求出其各自的自适应分割阈值,并二值化为图像D1 *和D2 *,连通域个数分别为
Figure FSA00000255815900021
Figure FSA00000255815900022
;再通过逻辑与运算,将二值化图像D1 *和D2 *采用逻辑与运算得到D*,采用形态学闭运算对D*处理最后得到图像D,连通域个数为E,且
步骤五:标记连通域并记录其形心坐标  其具体步骤为:
利用形心公式:
x c = Σ x = 1 N ′ Σ y = 1 M ′ x N ′ M ′ , y c = Σ x = 1 N ′ Σ y = 1 M ′ y N ′ M ′ ,
求出不同分割区域的形心坐标,并标记成:
( x c 1 , y c 1 ) , ( x c 2 , y c 2 ) , . . . . . . , ( x c E , y c E )
其中N′,M分别是分割区域长度方向和宽度方向的最大像素点数;
步骤六:记录灰度值集合  在步骤一采集的图像序列后,按照步骤五标记的形心坐标点分别取出每帧对应坐标点的灰度值,得到不同的灰度集合,并记录为:
A 1 = { I i ( x c 1 , y c 1 ) , i ∈ f C T } , A 2 = { I i ( x c 2 , y c 2 ) , i ∈ f C T } , . . . . . . , A E = { I i ( x c E , y c E ) , i ∈ f C T }
步骤七:分析灰度值集合  将步骤六的各灰度集合分别在时间轴上展开,得到灰度值变化分布规律;运用频率判别准则,将灰度值变化频率与脉冲激光频率比较,两者一致的分割区域则是“猫眼”效应目标可能出现的区域;进入多区域判别,若存在多个频率匹配的分割区域,则再经过综合判别准则,即通过综合判据:
Metric=|1-Metricr|+|1-Metrice|
进一步确定目标所在区域;其中
Figure FSA00000255815900028
代表分割区域的圆形度,
Figure FSA00000255815900029
代表分割区域的偏心率,A是分割区域的面积,P是分割区域的周长,a是分割区域的长轴,b是分割区域的短轴;
步骤八:锁定目标区域  综合以上步骤,最后实现锁定目标出现的区域。
CN201010271430.9A 2010-09-02 2010-09-02 一种基于时空协同判定的“猫眼”效应目标识别方法 Expired - Fee Related CN101976342B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201010271430.9A CN101976342B (zh) 2010-09-02 2010-09-02 一种基于时空协同判定的“猫眼”效应目标识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201010271430.9A CN101976342B (zh) 2010-09-02 2010-09-02 一种基于时空协同判定的“猫眼”效应目标识别方法

Publications (2)

Publication Number Publication Date
CN101976342A true CN101976342A (zh) 2011-02-16
CN101976342B CN101976342B (zh) 2014-06-25

Family

ID=43576226

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201010271430.9A Expired - Fee Related CN101976342B (zh) 2010-09-02 2010-09-02 一种基于时空协同判定的“猫眼”效应目标识别方法

Country Status (1)

Country Link
CN (1) CN101976342B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102201058A (zh) * 2011-05-13 2011-09-28 北京航空航天大学 共孔径主被动成像系统的“猫眼”效应目标识别算法
CN102298710A (zh) * 2011-05-13 2011-12-28 北京航空航天大学 一种基于压缩感知理论的“猫眼”效应目标识别方法
CN103308029A (zh) * 2013-05-17 2013-09-18 北京航空航天大学 一种猫眼效应目标自动测距方法
CN103488970A (zh) * 2013-08-29 2014-01-01 北京理工大学 一种猫眼目标识别算法
CN110705632A (zh) * 2019-09-27 2020-01-17 北京工业大学 一种抗核抗体荧光核型自动标注方法
CN112950479A (zh) * 2021-04-01 2021-06-11 中国空空导弹研究院 一种图像灰度区域拉伸算法

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102201058A (zh) * 2011-05-13 2011-09-28 北京航空航天大学 共孔径主被动成像系统的“猫眼”效应目标识别算法
CN102298710A (zh) * 2011-05-13 2011-12-28 北京航空航天大学 一种基于压缩感知理论的“猫眼”效应目标识别方法
CN103308029A (zh) * 2013-05-17 2013-09-18 北京航空航天大学 一种猫眼效应目标自动测距方法
CN103488970A (zh) * 2013-08-29 2014-01-01 北京理工大学 一种猫眼目标识别算法
CN110705632A (zh) * 2019-09-27 2020-01-17 北京工业大学 一种抗核抗体荧光核型自动标注方法
CN110705632B (zh) * 2019-09-27 2022-03-22 北京工业大学 一种抗核抗体荧光核型自动标注方法
CN112950479A (zh) * 2021-04-01 2021-06-11 中国空空导弹研究院 一种图像灰度区域拉伸算法
CN112950479B (zh) * 2021-04-01 2023-03-14 中国空空导弹研究院 一种图像灰度区域拉伸算法

Also Published As

Publication number Publication date
CN101976342B (zh) 2014-06-25

Similar Documents

Publication Publication Date Title
Heinzler et al. Cnn-based lidar point cloud de-noising in adverse weather
Zhang et al. Concrete crack detection using context‐aware deep semantic segmentation network
Chadwick et al. Distant vehicle detection using radar and vision
Yu et al. Pavement pothole detection and severity measurement using laser imaging
Xu et al. Multiple-entity based classification of airborne laser scanning data in urban areas
Siriborvornratanakul An automatic road distress visual inspection system using an onboard in‐car camera
CN104978567B (zh) 基于场景分类的车辆检测方法
CN101976342B (zh) 一种基于时空协同判定的“猫眼”效应目标识别方法
CN102676633A (zh) 一种菌落自动计数方法
CN106296670B (zh) 一种基于Retinex-分水岭-Canny算子的红外图像边缘检测方法
Gauci et al. Automating the characterisation of beach microplastics through the application of image analyses
CN111898627B (zh) 一种基于pca的svm云微粒子优化分类识别方法
Tourani et al. Motion-based vehicle speed measurement for intelligent transportation systems
CN105512622A (zh) 一种基于图分割和监督学习的可见光遥感图像海陆分割方法
Yousef et al. Shoreline extraction from light detection and ranging digital elevation model data and aerial images
Kirkland et al. Imaging from temporal data via spiking convolutional neural networks
Liu et al. Design of an active laser mini-camera detection system using cnn
Zhao et al. High-resolution infrastructure defect detection dataset sourced by unmanned systems and validated with deep learning
Yan et al. A review of video‐based rainfall measurement methods
CN117036259A (zh) 一种基于深度学习的金属板材表面缺陷检测方法
Luo et al. Soft-change detection in optical satellite images
Chen et al. 2d tree detection in large urban landscapes using aerial lidar data
Iwaszczuk et al. Detection of windows in IR building textures using masked correlation
CN115620063A (zh) 复杂背景下基于熵和距离加权特征的红外目标检测方法
Khryashchev et al. Evaluation of face image quality metrics in person identification problem

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140625

Termination date: 20190902