CN114037650B - 变化检测及目标检测的地面目标可见光毁伤图像处理方法 - Google Patents
变化检测及目标检测的地面目标可见光毁伤图像处理方法 Download PDFInfo
- Publication number
- CN114037650B CN114037650B CN202110531577.5A CN202110531577A CN114037650B CN 114037650 B CN114037650 B CN 114037650B CN 202110531577 A CN202110531577 A CN 202110531577A CN 114037650 B CN114037650 B CN 114037650B
- Authority
- CN
- China
- Prior art keywords
- image
- target
- change
- detection
- visible light
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 82
- 230000008832 photodamage Effects 0.000 title claims abstract description 15
- 238000003672 processing method Methods 0.000 title claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 25
- 230000006378 damage Effects 0.000 claims abstract description 17
- 238000013135 deep learning Methods 0.000 claims abstract description 6
- 239000013598 vector Substances 0.000 claims description 44
- 238000000034 method Methods 0.000 claims description 26
- 238000012549 training Methods 0.000 claims description 22
- 238000004422 calculation algorithm Methods 0.000 claims description 18
- 238000003064 k means clustering Methods 0.000 claims description 11
- 238000001914 filtration Methods 0.000 claims description 5
- 238000004458 analytical method Methods 0.000 claims description 4
- 238000011835 investigation Methods 0.000 claims description 4
- 238000002372 labelling Methods 0.000 claims description 4
- 238000010276 construction Methods 0.000 claims description 3
- 238000010586 diagram Methods 0.000 claims description 3
- 230000003902 lesion Effects 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 238000006243 chemical reaction Methods 0.000 claims description 2
- 238000000605 extraction Methods 0.000 claims description 2
- 238000012795 verification Methods 0.000 claims description 2
- 230000000694 effects Effects 0.000 abstract description 10
- 238000011156 evaluation Methods 0.000 abstract description 10
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000007781 pre-processing Methods 0.000 abstract description 3
- 238000010191 image analysis Methods 0.000 abstract description 2
- 238000013527 convolutional neural network Methods 0.000 description 15
- 230000001133 acceleration Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 238000010200 validation analysis Methods 0.000 description 2
- NAWXUBYGYWOOIX-SFHVURJKSA-N (2s)-2-[[4-[2-(2,4-diaminoquinazolin-6-yl)ethyl]benzoyl]amino]-4-methylidenepentanedioic acid Chemical compound C1=CC2=NC(N)=NC(N)=C2C=C1CCC1=CC=C(C(=O)N[C@@H](CC(=C)C(O)=O)C(O)=O)C=C1 NAWXUBYGYWOOIX-SFHVURJKSA-N 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/60—Analysis of geometric attributes
- G06T7/62—Analysis of geometric attributes of area, perimeter, diameter or volume
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20024—Filtering details
- G06T2207/20032—Median filtering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Probability & Statistics with Applications (AREA)
- Quality & Reliability (AREA)
- Geometry (AREA)
- Image Analysis (AREA)
Abstract
本发明提供了一种变化检测及目标检测的地面目标可见光毁伤图像处理方法,通过图像增强、图像配准和图像黑边处理进行图像预处理,然后通过差异图生成和差异图分析实现图像变化检测,同时将深度学习中的两阶段检测法应用到复杂战场环境中的目标检测中,精确检测战场地面目标,为目标毁伤效果评估提供必要的输入图像。本发明有效的对获取的打击图像进行预处理,提高了变化检测和目标检测的效率,进而提高了面积变化率的计算准确度,为军事打击效果评估提供了准确数据,辅助军事决策,推动作战进程。
Description
技术领域
本发明涉及图像处理领域,尤其是一种可见光毁伤图像处理方法。
背景技术
打击效果评估(Battle Damage Assessment,BDA),又称目标毁伤效果评估,是指对某一军事目标或区域进行火力攻击后,通过一定的侦查手段,获取敌方的毁伤信息,通过比较目标被打击前、后的信息,对打击对象的毁伤情况进行评估,以判断是否达到打击目的,是否还需组织下一波打击的过程。基于图像处理的目标毁伤效果评估属于目标被打击后评估,利用图像处理技术对获取的图像信息进行分析,然后判定目标的毁伤情况。该方法的战场实效性较高,被广泛运用于实战,但是战场环境复杂,侦查手段获取的图像受光照、晃动、角度等因素的影响,导致图像质量下降,影响毁伤评估结果,从而对图像处理算法提出了更高要求。
在现有的基于变化检测及目标检测的地面目标可见光毁伤图像处理方法中,存在如下问题:图像预处理过程中,待配准图像经过配准后会产生黑色边框,现有研究忽略了对黑色边框的处理,影响后续的变化检测效果;图像变化检测过程中,需要根据获取的图像质量和特征,选择合适的变化检测算法,实现地面目标毁伤图像的变化检测;地面目标检测过程中,现有方法主要是通过人工手段或构建待检测目标的先验知识库进行检测,而战场目标的先验信息往往无法精准获取,该类方法检测精度、效率都有待提高,尚未引入智能化的语义分割算法;毁伤信息提取过程中,目标面积计算精度和效率有待提高。
开展基于变化检测及目标检测的地面目标可见光毁伤图像处理方法研究,能够为战场目标毁伤效果评估提供可靠的毁伤信息,有助于优化火力打击方案,是信息化战争中的一个重要环节,有着十分重要的军事应用作用和意义。
发明内容
为了克服现有技术的不足,本发明提供一种变化检测及目标检测的地面目标可见光毁伤图像处理方法。首先通过图像增强、图像配准和图像黑边处理进行图像预处理,然后通过差异图生成和差异图分析实现图像变化检测,同时将深度学习中的两阶段检测法应用到复杂战场环境中的目标检测中,精确检测战场地面目标,为目标毁伤效果评估提供必要的输入图像。
本发明解决其技术问题所采用的技术方案包括以下步骤:
步骤一:图像增强
通过战场侦查手段获得地面目标被打击前和打击后的可见光图像,打击前可见光图像记为Ibf,打击后的可见光图像记为Iaf,分别对Ibf、Iaf使用中值滤波进行图像增强,对应得到经过中值滤波后的图像Ibf_1和Iaf_1;
步骤二:图像配准
将图像Ibf_1作为参考图像,将图像Iaf_1配准,输出配准后的打击后图像,记为Iaf_2;
步骤三:图像黑边处理
3.1、将图像Iaf_2转换到HSV(Hue Saturation Value)颜色空间,为了提取Iaf_2中的黑色像素点,并划分颜色低值区间(C1,C2,C3)和高值区间(D1,D2,D3),将高值、低值范围内的像素点灰度值赋值为1,区间外的像素点灰度值赋值为0,得到图像记为Iaf_3;
3.2、将图像Iaf_3反色,记为Iaf_4,然后用图像Ibf_1减去Iaf_4,输出叠加黑边的打击前图像Ibf_2:
Ibf_2=Ibf_1-Iaf_4 (1)
步骤四:图像变化检测
4.1、差异图生成
用图像Ibf_2减去Iaf_2,获得差异图Ichange,差异图的尺寸为Mlength×Fwidth:
Ichange=Ibf_2-Iaf_2 (2)
4.2、差异图分析
(1)构建差异图特征向量
①重新调整Ichange的尺寸大小为M×F,使得图像的长和宽都是t的倍数,然后从Ichange中依次获取大小为t×t的不重叠的图像块,并将图像块中各像素点灰度值组合为一个行向量,将获得的行向量组成向量集X:
X=(x1,x2,L,xr,L,xf)T (3)
式(3)中:xr表示第r个图像块灰度值构成的行向量;f表示X的行数,
②计算X的均值向量β:
③对X进行零均值处理,得到向量Tzero:
Tzero=(x1-β,x2-β,L,xf-β) (5)
④计算Tzero的协方差矩阵,然后计算该协方差矩阵的特征值λ和特征向量,将特征向量按照特征值从大到小的顺序排列,最后将特征向量归一化,得特征向量Ginput:
Ginput=(u1,u2,L,ut×t) (6)
⑤除边界t-1个像素外,依次以Ichange中各像素点为中心选取t×t大小的图像块,并将灰度值组合为一个行向量,该向量表示该中心像素点的特征向量,将获得的行向量组成向量集Vorigin,计算特征向量Hfeature:
Hfeature=VoriginGinput (7)
⑥对Hfeature进行零均值处理,得到图像Ichange的特征向量Hout:
Hout=Hfeature-β (8)
(2)使用k均值聚类算法(k-means clustering algorithm,k-means)进行聚类;
完成聚类后,各像素点被重新划分为变化和不变化两类,由于战场中的地面目标尺度小,发生变化的像素点数量较少,因此像素点数最少的类属于毁伤区域,将该类的像素点灰度值赋值为1,其它类的像素点灰度值赋值为0,得到二值图像Ichange_1;
步骤五:目标检测
Mask R-CNN(Mask Region-based Convolutional Neural Network,Mask R-CNN)属于基于深度学习的目标检测方法中的两阶段检测方法,两阶段检测法适合于复杂环境中的多尺度及小目标检测问题,如复杂战场环境中的海面舰船目标检测和地面建筑目标检测等;
5.1:设置Mask R-CNN训练参数,训练网络;
收集待检测目标数据集,用labelme标注数据标签,然后设置Mask R-CNN训练参数,训练参数包括学习率、全部样本训练轮数、批次大小、训练集和验证集比例;
5.2:Mask R-CNN实现目标检测;
针对步骤三输出的Ibf_2,使用步骤5.1训练好的网络进行检测,输出打击前图像目标掩膜,记为Iout_1,以及打击前图像中目标检测框坐标;然后根据打击前图像中目标检测框坐标,裁剪Iout_1和步骤四中输出的Ichange_1,对应获得目标区域掩膜图像和目标变化区域图像,分别对应记为Iout_2和Iout_3;
步骤六:计算面积变化率:
式中:CHANGE为目标面积变化率;Smask为目标的总面积,即图像Iout_2的白色像素数点个数;Schange为目标毁伤区域的面积,即图像Iout_3的白色像素点个数;
根据面积变化率,作战指挥部门即可判断目标的毁伤情况,从而对后续的作战起到辅助决策的作用。
所述中值滤波窗口尺寸设为a×a,式中,a表示像素点个数。
所述步骤二中,使用基于加速稳健特征算法(Speeded Up Robust Features,SURF) 将图像Iaf_1配准。
所述SURF特征点匹配阈值设为b,b取值为0.7。
所述低值区间(C1,C2,C3)取值为(0,0,1),高值区间(D1,D2,D3)取值为(255,255,255)。
所述使用k均值聚类算法(k-means clustering algorithm,k-means)进行聚类的步骤为:
①将公式(8)中Hout作为k均值聚类算法输入数据集,各元素记为yp,因此 Hout={y1,y2,…,yp};其中,p∈[1,(M×N-2×(t-1))×t2],聚类目标是将数据对象划分为 k类,记为C={cj,j=1,2,…k};
②随机选取k个数据点作为初始聚类中心,每个数据点代表一个类别的中心ui;
③计算各数据点到聚类中心的欧氏距离平方和D(C):
④计算各个类别中所有数据点的均值作为该类的新的聚类中心uk;
通过迭代步骤②③④,直到聚类中心和D(C)值不再变化,即完成聚类。
本发明的有益效果在于针对地面固定建筑物目标的战场打击图像,首先通过图像增强、图像配准和图像黑色边框处理,对图像进行图像预处理;然后通过差异图生成和差异图分析,进行了图像变化检测;再基于深度学习算法Mask R-CNN进行目标检测;最后计算面积变化率,评估目标的毁伤情况。通过本发明,有效的对获取的打击图像进行预处理,提高了变化检测和目标检测的效率,进而提高了面积变化率的计算准确度,为军事打击效果评估提供了准确数据,辅助军事决策,推动作战进程。
附图说明
图1是基于变化检测及目标检测的地面目标可见光毁伤图像处理方法流程图。
图2是侦查手段获得图像:科索沃普里什蒂纳军事机场的设施被打击前后毁伤图像,图2(a)是打击前图像,图2(b)为打击后图像。
图3是图像增强结果,图3(a)是打击前图像,图3(b)是打击后图像。
图4是打击后图像配准结果。
图5是打击前图像黑边处理结果。
图6是图像变化检测结果,图6(a)为差异图,图6(b)为变化区域二值图像。
图7是目标检测结果,其中图7(a)为目标区域掩膜图像,图7(b)为打击前图像中目标检测图,图7(c)为打击后图像中目标检测图,图7(d)为目标变化区域二值图像。
具体实施方式
下面结合附图和实施例对本发明进一步说明。
基于变化检测及目标检测的地面目标可见光毁伤图像处理方法如图1所示。针对地面建筑物目标,通过战场侦查手段获得目标被打击前和打击后的可见光图像,如图 2所示,使用上述方法实现目标毁伤图像处理,下面结合附图和实例对本发明作进一步说明。具体实施步骤如下:
步骤一:图像增强
地面目标被打击前和打击后的可见光图像分别记为Ibf、Iaf,然后对Ibf、Iaf分别使用中值滤波进行图像增强,输出图像Ibf_1、Iaf_1。其中,中值滤波窗口尺寸设为 a×a=3×3,图像增强结果如图3所示。
步骤二:图像配准
将图像Ibf_1作为参考图像,使用基于加速稳健特征算法(Speeded Up RobustFeatures,SURF)将图像Iaf_1配准,输出配准后的打击后图像Iaf_2。其中,SURF特征点匹配阈值设为b=0.7,打击后图像配准结果如图4所示。
步骤三:图像黑边处理
3.1、将图像Iaf_2转换到HSV(Hue Saturation Value)颜色空间,颜色低值为(0,0,1),高值为(255,255,255),将两个取值范围内的像素点的灰度值赋值为1,区间外的像素点的灰度值赋值为0,得到图像记为Iaf_3;
3.2、将图像Iaf_3反色,记为Iaf_4,然后用图像Ibf_1减去Iaf_4,输出叠加黑边的打击前图像Ibf_2,如图5所示:
Ibf_2=Ibf_1-Iaf_4 (1)
步骤四:图像变化检测
4.1、差异图生成
用图像Ibf_2减去Iaf_2,获得差异图Ichange,如图6(a)所示,获得的差异图尺寸大小为Mlength×Fwidth=369×368:
Ichange=Ibf_2-Iaf_2 (2)
4.2、差异图分析
(1)构建差异图特征向量
①重新调整Ichange的尺寸大小为M×F=365×365,从Ichange中依次获取大小为 t×t=5×5的不重叠的图像块,并将图像块中各像素点灰度值组合为一个行向量,将获得的行向量组成向量集X:
X=(x1,x2,L,xr,L,xf)T (3)
式中:xr表示第r个图像块灰度值构成的行向量;f表示X的行数,
②计算X的均值向量β:
③对X进行零均值处理,得到向量Tzero:
Tzero=(x1-β,x2-β,L,xf-β) (5)
④计算Tzero的协方差矩阵,然后计算该协方差矩阵的特征值λ和特征向量,将特征向量按照特征值从大到小的顺序排列,最后将特征向量归一化,得特征向量Ginput:
Ginput=(u1,u2,L,ut×t) (6)
根据式(3)-式(6),计算特征向量Ginput:
⑤除边界t-1=5-1=4个像素外,依次以Ichange中各像素为中心选取t×t=5×5大小的图像块,并将灰度值组合为一个行向量,该向量表示该中心像素点的特征向量,将获得的行向量组成向量集Vorigin,计算特征向量Hfeature:
Hfeature=VoriginGinput (7)
⑥对Hfeature进行零均值处理,得到Ichange特征向量Hout:
Hout=Hfeature-β (8)
根据式(7)-式(8)计算差异图特征向量Hout:
(2)使用k均值聚类算法(k-means clustering algorithm,k-means)进行聚类
①将公式(8)中Hout作为k均值聚类算法输入数据集,各元素记为yp,因此 Hout={y1,y2,...,yp}。其中,p∈[1,(M×N-2×(t-1))×t2]。聚类目标是将数据对象划分为k类,记为C={cj,j=1,2,...k};
②随机选取k个数据点作为初始聚类中心,每个数据点代表一个类别的中心ui;
③计算各数据点到聚类中心的欧氏距离平方和D(C):
④计算各个类别中所有数据点的均值作为该类的新的聚类中心uk;
取k=2,通过迭代步骤②③④,直到聚类中心和D(C)值不再变化。完成聚类后,战场中的地面目标尺度小,发生变化的像素点数量最少,因此像素点数最少的簇属于变化区域,将该簇的像素点灰度值赋值为1,其他簇的像素点赋值为0。通过仿真计算, k=1时,该簇像素点数最少,包含像素点8670个,k=0时,该簇包含像素点121651 个,将k=1簇的像素点灰度值赋值为1,其它簇的像素点赋值为0,得到二值图像Ichange_1。如图6(b)所示。
步骤五:目标检测
Mask R-CNN(Mask Region-based Convolutional Neural Network,Mask R-CNN)属于基于深度学习的目标检测方法中的两阶段检测方法,两阶段检测法适合于复杂环境中的多尺度及小目标检测问题,如战场环境中的海面舰船目标检测和地面建筑目标检测等。
5.1:设置Mask R-CNN训练参数,训练网络;
收集待检测目标数据集,用labelme标注数据标签,然后设置Mask R-CNN训练参数。训练参数包括:学习率、全部样本训练轮数、批次大小、训练集和验证集比例。目标为建筑物类,通过国家地理信息公共服务平台(天地图)收集待建筑物类数据集,用labelme标注数据标签,标签命名为“building”,然后设置Mask R-CNN训练参数:
表1 Mask R-CNN训练参数
learning_rate | 全部样本训练轮数 | 批次大小 | 训练集和验证集比例 |
0.0001 | 250 | 100 | 11:1 |
5.2:Mask R-CNN实现目标检测;
针对步骤三输出的Ibf_2,使用步骤5.1训练好的网络进行检测,输出打击前图像目标掩膜,记为Iout_1,以及打击前图像中目标检测框坐标。然后根据打击前图像中目标检测框坐标,裁剪Iout_1和步骤四中输出的Ichange_1,对应获得目标区域掩膜图像和目标变化区域图像,分别对应记为Iout_2和Iout_3。如图7(a)和图7(b)所示;
步骤六:计算面积变化率
式中:CHANGE为目标面积变化率;Smask为目标的总面积,即图像Iout_2的白色像素数点个数;Schange为目标毁伤区域的面积,即图像Iout_3的白色像素点个数。仿真得: Smask=9380,Schange=6405,根据式(10),CHANGE=68.28%
根据面积变化率,作战指挥部门即可判断目标的毁伤情况,从而对后续的作战起到辅助决策的作用。
Claims (6)
1.一种变化检测及目标检测的地面目标可见光毁伤图像处理方法,其特征在于包括下述步骤:
步骤一:图像增强
通过战场侦查手段获得地面目标被打击前和打击后的可见光图像,打击前可见光图像记为Ibf,打击后的可见光图像记为Iaf,分别对Ibf、Iaf使用中值滤波进行图像增强,对应得到经过中值滤波后的图像Ibf_1和Iaf_1;
步骤二:图像配准
将图像Ibf_1作为参考图像,将图像Iaf_1配准,输出配准后的打击后图像,记为Iaf_2;
步骤三:图像黑边处理
3.1、将图像Iaf_2转换到HSV颜色空间,为了提取Iaf_2中的黑色像素点,并划分颜色低值区间(C1,C2,C3)和高值区间(D1,D2,D3),将高值、低值范围内的像素点灰度值赋值为1,区间外的像素点灰度值赋值为0,得到图像记为Iaf_3;
3.2、将图像Iaf_3反色,记为Iaf_4,然后用图像Ibf_1减去Iaf_4,输出叠加黑边的打击前图像Ibf_2:
Ibf_2=Ibf_1-Iaf_4 (1)
步骤四:图像变化检测
4.1、差异图生成
用图像Ibf_2减去Iaf_2,获得差异图Ichange,差异图的尺寸为Mlength×Fwidth:
Ichange=Ibf_2-Iaf_2 (2)
4.2、差异图分析
(1)构建差异图特征向量
①重新调整Ichange的尺寸大小为M×F,使得图像的长和宽都是t的倍数,然后从Ichange中依次获取大小为t×t的不重叠的图像块,并将图像块中各像素点灰度值组合为一个行向量,将获得的行向量组成向量集X:
X=(x1,x2,…,xr,…,xf)T (3)
式(3)中:xr表示第r个图像块灰度值构成的行向量;f表示X的行数,
②计算X的均值向量β:
③对X进行零均值处理,得到向量Tzero:
Tzero=(x1-β,x2-β,…,xf-β) (5)
④计算Tzero的协方差矩阵,然后计算该协方差矩阵的特征值λ和特征向量,将特征向量按照特征值从大到小的顺序排列,最后将特征向量归一化,得特征向量Ginput:
Ginput=(u1,u2,…,ut×t) (6)
⑤除边界t-1个像素外,依次以Ichange中各像素点为中心选取t×t大小的图像块,并将灰度值组合为一个行向量,该向量表示该中心像素点的特征向量,将获得的行向量组成向量集Vorigin,计算特征向量Hfeature:
Hfeature=VoriginGinput (7)
⑥对Hfeature进行零均值处理,得到图像Ichange的特征向量Hout:
Hout=Hfeature-β (8)
(2)使用k均值聚类算法进行聚类;
完成聚类后,各像素点被重新划分为变化和不变化两类,由于战场中的地面目标尺度小,发生变化的像素点数量较少,因此像素点数最少的类属于毁伤区域,将该类的像素点灰度值赋值为1,其它类的像素点灰度值赋值为0,得到二值图像Ichange_1;
步骤五:目标检测
Mask R-CNN属于基于深度学习的目标检测方法中的两阶段检测方法;
5.1:设置Mask R-CNN训练参数,训练网络;
收集待检测目标数据集,用labelme标注数据标签,然后设置Mask R-CNN训练参数,训练参数包括学习率、全部样本训练轮数、批次大小、训练集和验证集比例;
5.2:Mask R-CNN实现目标检测;
针对步骤三输出的Ibf_2,使用步骤5.1训练好的网络进行检测,输出打击前图像目标掩膜,记为Iout_1,以及打击前图像中目标检测框坐标;然后根据打击前图像中目标检测框坐标,裁剪Iout_1和步骤四中输出的Ichange_1,对应获得目标区域掩膜图像和目标变化区域图像,分别对应记为Iout_2和Iout_3;
步骤六:计算面积变化率:
式中:CHANGE为目标面积变化率;Smask为目标的总面积,即图像Iout_2的白色像素数点个数;Schange为目标毁伤区域的面积,即图像Iout_3的白色像素点个数;
根据面积变化率,作战指挥部门即可判断目标的毁伤情况,从而对后续的作战起到辅助决策的作用。
2.根据权利要求1所述的变化检测及目标检测的地面目标可见光毁伤图像处理方法,其特征在于:
所述中值滤波窗口尺寸设为a×a,式中,a表示像素点个数。
3.根据权利要求1所述的变化检测及目标检测的地面目标可见光毁伤图像处理方法,其特征在于:
所述步骤二中,使用基于加速稳健特征算法将图像Iaf_1配准。
4.根据权利要求1所述的变化检测及目标检测的地面目标可见光毁伤图像处理方法,其特征在于:
所述SURF特征点匹配阈值设为b,b取值为0.7。
5.根据权利要求1所述的变化检测及目标检测的地面目标可见光毁伤图像处理方法,其特征在于:
所述低值区间(C1,C2,C3)取值为(0,0,1),高值区间(D1,D2,D3)取值为(255,255,255)。
6.根据权利要求1所述的变化检测及目标检测的地面目标可见光毁伤图像处理方法,其特征在于:
所述使用k均值聚类算法进行聚类的步骤为:
①将公式(8)中Hout作为k均值聚类算法输入数据集,各元素记为yp,因此Hout={y1,y2,...,yp};其中,p∈[1,(M×N-2×(t-1))×t2],聚类目标是将数据对象划分为k类,记为C={cj,j=1,2,...k};
②随机选取k个数据点作为初始聚类中心,每个数据点代表一个类别的中心ui;
③计算各数据点到聚类中心的欧氏距离平方和D(C):
④计算各个类别中所有数据点的均值作为该类的新的聚类中心uk;
通过迭代步骤②③④,直到聚类中心和D(C)值不再变化,即完成聚类。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110531577.5A CN114037650B (zh) | 2021-05-17 | 2021-05-17 | 变化检测及目标检测的地面目标可见光毁伤图像处理方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110531577.5A CN114037650B (zh) | 2021-05-17 | 2021-05-17 | 变化检测及目标检测的地面目标可见光毁伤图像处理方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN114037650A CN114037650A (zh) | 2022-02-11 |
CN114037650B true CN114037650B (zh) | 2024-03-19 |
Family
ID=80134205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110531577.5A Active CN114037650B (zh) | 2021-05-17 | 2021-05-17 | 变化检测及目标检测的地面目标可见光毁伤图像处理方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114037650B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115035355B (zh) * | 2022-08-12 | 2022-10-25 | 南京理工大学 | 一种五度搜索二值靶图非连通区像素分类方法 |
CN117372791B (zh) * | 2023-12-08 | 2024-03-22 | 齐鲁空天信息研究院 | 细粒度定向能毁伤区域检测方法、装置及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019000653A1 (zh) * | 2017-06-30 | 2019-01-03 | 清华大学深圳研究生院 | 一种图像目标识别方法及装置 |
AU2020102091A4 (en) * | 2019-10-17 | 2020-10-08 | Wuhan University Of Science And Technology | Intelligent steel slag detection method and system based on convolutional neural network |
CN112446874A (zh) * | 2020-12-11 | 2021-03-05 | 中国人民解放军国防科技大学 | 一种人机协作自主等级毁伤评估方法 |
-
2021
- 2021-05-17 CN CN202110531577.5A patent/CN114037650B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2019000653A1 (zh) * | 2017-06-30 | 2019-01-03 | 清华大学深圳研究生院 | 一种图像目标识别方法及装置 |
AU2020102091A4 (en) * | 2019-10-17 | 2020-10-08 | Wuhan University Of Science And Technology | Intelligent steel slag detection method and system based on convolutional neural network |
CN112446874A (zh) * | 2020-12-11 | 2021-03-05 | 中国人民解放军国防科技大学 | 一种人机协作自主等级毁伤评估方法 |
Non-Patent Citations (2)
Title |
---|
苏娟 ; 鲜勇 ; 刘代志 ; .基于图像变化检测的打击效果自动评估算法.火力与指挥控制.2008,(第04期),全文 . * |
陈和彬 ; 梁瑶臻 ; .基于图像变化检测的舰船毁伤信息提取问题研究.舰船电子工程.2010,(第04期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN114037650A (zh) | 2022-02-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113160192B (zh) | 复杂背景下基于视觉的压雪车外观缺陷检测方法及装置 | |
WO2018137612A1 (zh) | 一种道路标牌识别方法及系统 | |
CN104408707B (zh) | 一种快速数字成像模糊鉴别与复原图像质量评估方法 | |
CN106650731B (zh) | 一种鲁棒的车牌、车标识别方法 | |
CN109740460B (zh) | 基于深度残差密集网络的光学遥感图像舰船检测方法 | |
CN101551851B (zh) | 一种红外图像目标识别方法 | |
CN114037650B (zh) | 变化检测及目标检测的地面目标可见光毁伤图像处理方法 | |
CN104715251B (zh) | 一种基于直方图线性拟合的显著目标检测方法 | |
CN105389799B (zh) | 基于素描图与低秩分解的sar图像目标检测方法 | |
CN114067444A (zh) | 基于元伪标签和光照不变特征的人脸欺骗检测方法和系统 | |
CN103246894B (zh) | 一种解决光照不敏感问题的地基云图识别方法 | |
CN112818905B (zh) | 一种基于注意力和时空信息的有限像素车辆目标检测方法 | |
CN112308883A (zh) | 一种基于可见光和红外图像的多船舶融合跟踪方法 | |
CN116758081B (zh) | 一种无人机道路桥梁巡检图像处理方法 | |
CN103729462B (zh) | 一种基于稀疏表示处理遮挡的行人检索方法 | |
CN111274964B (zh) | 一种基于无人机视觉显著性分析水面污染物的检测方法 | |
CN105447488B (zh) | 基于素描线段拓扑结构的sar图像目标检测方法 | |
CN111291818B (zh) | 一种面向云掩膜的非均匀类别的样本均衡化方法 | |
CN107292268A (zh) | 快速脊波反卷积结构学习模型的sar图像语义分割方法 | |
CN105469099B (zh) | 基于稀疏表示分类的路面裂缝检测和识别方法 | |
CN114373079A (zh) | 一种快速准确的探地雷达目标检测方法 | |
CN114720425B (zh) | 一种基于图像识别的能见度监测系统及方法 | |
CN113034454B (zh) | 一种基于人类视觉感官的水下图像质量评价方法 | |
CN105574880A (zh) | 基于指数矩像素分类的彩色图像分割方法 | |
CN112364844B (zh) | 一种基于计算机视觉技术的数据采集方法及系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |