CN111667498A - 一种面向光学卫星视频的运动舰船目标自动检测方法 - Google Patents
一种面向光学卫星视频的运动舰船目标自动检测方法 Download PDFInfo
- Publication number
- CN111667498A CN111667498A CN202010406004.5A CN202010406004A CN111667498A CN 111667498 A CN111667498 A CN 111667498A CN 202010406004 A CN202010406004 A CN 202010406004A CN 111667498 A CN111667498 A CN 111667498A
- Authority
- CN
- China
- Prior art keywords
- image
- gray
- background
- pixel
- frame
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 82
- 230000003287 optical effect Effects 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 claims abstract description 42
- 238000005070 sampling Methods 0.000 claims abstract description 29
- 238000012545 processing Methods 0.000 claims abstract description 16
- 238000001914 filtration Methods 0.000 claims abstract description 15
- 230000009466 transformation Effects 0.000 claims abstract description 15
- 230000011218 segmentation Effects 0.000 claims abstract description 14
- 230000000877 morphologic effect Effects 0.000 claims abstract description 11
- 230000003068 static effect Effects 0.000 claims abstract description 11
- 238000011423 initialization method Methods 0.000 claims abstract description 7
- 238000007781 pre-processing Methods 0.000 claims description 9
- 230000007246 mechanism Effects 0.000 claims description 5
- 230000003247 decreasing effect Effects 0.000 claims description 3
- 230000000873 masking effect Effects 0.000 claims description 3
- 238000009825 accumulation Methods 0.000 claims description 2
- 230000010339 dilation Effects 0.000 claims description 2
- 238000010586 diagram Methods 0.000 description 18
- 238000000605 extraction Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 4
- 230000002829 reductive effect Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000011410 subtraction method Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000001629 suppression Effects 0.000 description 2
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001186 cumulative effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 230000000670 limiting effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- 230000001052 transient effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/251—Fusion techniques of input or preprocessed data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/20—Image enhancement or restoration using local operators
- G06T5/30—Erosion or dilatation, e.g. thinning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/215—Motion-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02A—TECHNOLOGIES FOR ADAPTATION TO CLIMATE CHANGE
- Y02A90/00—Technologies having an indirect contribution to adaptation to climate change
- Y02A90/10—Information and communication technologies [ICT] supporting adaptation to climate change, e.g. for weather forecasting or climate simulation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明属于图像处理技术领域,公开了一种面向光学卫星视频的运动舰船目标自动检测方法,基于最大类间方差的海陆分割,对光学卫星视频检测场景中的陆地部分进行掩膜处理;采用融合帧差判断和均值滤波的背景模型初始化方法,对光学卫星视频的运动区域和静止区域分别进行背景建模;采用自适应方法,对灰度差阈值和背景模型更新的时间采样因子进行调整,并利用顶帽变换对初始检测结果进行形态学约束。本发明解决了现有技术中将VIBE算法直接应用到卫星视频时检测精度较低的问题,能够提高舰船目标检测精度、具有较强的抗干扰能力。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种面向光学卫星视频的运动舰船目标自动检测方法。
背景技术
我国海域辽阔,海洋地理环境复杂,开展舰船运动目标检测方法研究对于海洋的监测和管理至关重要。近年来随着遥感技术的快速发展,高分辨率对地观测卫星为海洋监测提供了海量可靠的数据源。其中,高分辨率光学卫星视频能够获取同一地区某段时间内连续不间断的观测图像,且拥有清晰直观、细节丰富、易于解译等光学遥感图像的优势,兼具高空间、高时间、多光谱和经济性等优点,因此特别适合用于观测广阔海面上的运动舰船目标和分析其瞬时特性。
由于人工目视解译判断存在效率低、成本高、主观性强、实时性差等诸多弊端,自动化成为遥感图像解译技术的发展趋势。经典的运动目标检测方法主要有帧间差分法、背景减除法和光流法三种,相比之下,帧间差分法计算量小但准确度低,光流法准确度高但实时性差,而背景减除法则在准确性和实时性之间取得平衡。视觉背景提取器(VisualBackground Extractor,VIBE)作为背景减除法的代表,具有计算简单、全自动化、实时性好等优点,能相对完整准确地提取出运动目标信息,适用于凝视成像、背景稳定的卫星视频中运动目标信息的高效提取,在海面运动舰船目标检测上表现出潜力。
然而,经典的VIBE算法不能直接套用到光学卫星视频上进行舰船运动目标的检测。这是因为光学卫星视频相对于普通视频(如地面监控录像)来说,在成像模式上仍存在一些区别,包括观测范围较大、图像信噪比较低、目标像元稀少且缺失纹理信息等,导致检测难度的提高。并且,光学卫星视频的舰船检测场景可能会存在近岸陆地运动目标、海面背景动态要素(如海面波纹、浮动光斑等)和云雾干扰等噪声,从而降低了直接检测的精度。另外,VIBE算法自身基于单帧影像的背景模型初始化方法,也容易因为初始帧影像包含运动目标的情况,造成鬼影误检的问题。
发明内容
本申请实施例通过提供一种面向光学卫星视频的运动舰船目标自动检测方法,解决了现有技术中将VIBE算法直接应用到卫星视频时检测精度较低的问题。
本申请实施例提供一种面向光学卫星视频的运动舰船目标自动检测方法,包括:
基于最大类间方差的海陆分割,对光学卫星视频检测场景中的陆地部分进行掩膜处理;
采用融合帧差判断和均值滤波的背景模型初始化方法,对光学卫星视频的运动区域和静止区域分别进行背景建模;
采用自适应方法,对灰度差阈值和背景模型更新的时间采样因子进行调整,并利用顶帽变换对初始检测结果进行形态学约束。
优选的,包括以下步骤:
步骤1、读取每一帧光学卫星视频图像,并对其进行预处理;
步骤2、提取预处理后的第1帧影像的陆地掩膜;
步骤3、对预处理后的前N帧影像进行背景模型初始化;所述背景模型初始化包括基于帧差判断的时间填充阶段、基于均值滤波的空间填充阶段、基于邻域采样的背景建模阶段;
步骤4、从第N+1帧开始,对预处理后的每一帧影像进行自适应的海面运动舰船目标分割,得到二值化的初步检测结果图像;
步骤5、从第N+1帧开始,对预处理后的每一帧影像作顶帽变换,并将所得到的变换结果与步骤4中得到的所述初步检测结果图像作交运算,得到该帧的最终检测结果图像;
步骤6、从第N+1帧开始,对背景模型进行基于空间一致性审查机制的更新维护。
优选的,所述步骤1包括以下子步骤:
步骤1a、按顺序读取光学卫星视频中的每一帧彩色影像FRGB;
步骤1b、将彩色影像FRGB按如下公式进行波段运算,得到原始灰度图像FGray;
FGray=R*0.299+G*0.587+B*0.114
式中,R、G、B分别为彩色影像FRGB的可见光红、绿、蓝三波段,原始灰度图像FGray的灰度级为0-255;
步骤1c、对原始灰度图像FGray按如下公式进行波段运算,得到线性变换后的灰度图像FE-Gray;
FE-Gray=α*FGray+β
式中,增益参数α和偏置参数β分别用于调整原始灰度图像FGray的对比度和亮度。
优选的,所述步骤2包括以下子步骤:
步骤2a、读取光学卫星视频预处理后的第1帧影像FE-Gray(1);
步骤2b、设置灰度门限值k;
步骤2c、将影像FE-Gray(1)中灰度值大于k的像素视为陆地,并设为255;将影像FE-Gray(1)中灰度值小于k的像素视为海洋,并设为0;得到最大类间方差法分割的二值图像FOTSU(1);
步骤2d、对二值图像FOTSU(1)进行连通域提取,得到陆地连通域L={L1,…,Ln}和海洋连通域O={O1,…,Om};
步骤2e、对陆地连通域面积进行阈值操作,设定陆地连通域面积S(Oi)需要大于阈值STh1,不符合条件的判定为海洋区域;
步骤2f、对海洋连通域面积进行阈值操作,设定海洋连通域面积S(Li)需要大于阈值STh2,不符合条件的判定为陆地区域;
步骤2g、对经步骤2e和步骤2f处理后得到的二值图像FOTSU(1)做形态学膨胀处理;
步骤2h、对经步骤2g处理后得到的二值图像FOTSU(1)进行灰度翻转,得到陆地掩膜图像FLand(1)。
优选的,所述步骤3包括以下子步骤:
步骤3a、设t为当前帧数,FE-Gray(t)为当前帧的图像,FE-Gray(t-1)为前一帧的图像,Iback(t)为当前帧的背景图像,Ibackmask(t)为当前帧的背景掩膜图像,其中,Iback(t)和Ibackmask(t)初始化时全为0;
步骤3b、从第2帧起,将当前帧图像FE-Gray(t)与前一帧图像FE-Gray(t-1)作差后取绝对值,得到前后相邻两帧的差分图像Idiff(t),遍历整幅图像,对于Idiff(t)中像素值为0且Ibackmask(t)对应位置像素值也为0的点x,将Ibackmask(t)中该点x像素值赋值为1;
步骤3c、再次遍历整幅图像,对于满足Ibackmask(t)为1且Iback(t)为0的点x,将当前帧FE-Gray(t)的对应位置像素值赋给背景图像Iback(t);对于仅仅满足Ibackmask(t)为0的点x,进行累加计数得到count1;
步骤3d、如果Ibackmask(t)为0的像素点总数count1小于剩余阈值Thread,则表示场景中静态区域建立起背景,转到步骤3e;否则,跳转到步骤3b;
步骤3e、对背景图像Iback(t)像素值为0的点进行8邻域均值滤波,得到新的背景图像Iback(t),对新背景像素值为0的点进行累加计数得到count2;
步骤3f、如果新背景像素值为0的点总数count2等于0,则表示场景中运动区域建立起背景,结合步骤3d中建立的静态背景,整个背景已初步建成;否则,跳转到步骤3e。
优选的,所述面向光学卫星视频的运动舰船目标自动检测方法还包括:
步骤3g、在初步建成的背景图像Iback(t)上为每个像素x随机采集8邻域范围内的样本容量为N的像素值vi(x)(i=1,2,...,8),得到最终建成的背景模型M(x)。
优选的,所述步骤4包括以下子步骤:
步骤4a、根据下式得到各背景像素与模型采样值的最小欧氏距离dmin(x);
dmin(x)=min{dist(v(x),vi(x))]C(x)=0,vi(x)∈M(x)}
式中,v(x)表示像素x的像素值,vi(x)表示像素x在8邻域范围内的像素采样值;i表示像素x的邻域采样值的编号,i∈[1,8];C(x)表示像素x的分类编号,0表示x为背景像素,1为前景像素;M(x)表示像素x的背景模型;
将所有dmin(x)>0的背景像素视为动态背景像素x,并将其纳入到集合D;计算出集合D中所有元素的平均值Dmean,Dmean作为当前帧图像FE-Gray(t)的局部背景动态度;
步骤4b、依据局部背景动态度Dmean按以下公式迭代计算当前帧的灰度差阈值R(t);
式中,参数αdec和αinc分别为增加和减少方向的学习率,参数ξ为尺度因子,R(t)表示当前帧t的灰度差阈值,R(t-1)表示前一帧t-1的灰度差阈值;
步骤4c、统计第t-1帧的模型M(t-1,x)采样值vi落在以第t帧每个像素值v(x)为中心、以R(t)为半径的区间SR(v(x))范围内的个数sum(x);当个数sum(x)大于数量的最小阈值min时,则将该像素x分类为背景,Iclass1(x)=0;否则分类为前景,Iclass1(x)=1;得到并输出当前帧的二值化初步检测结果图像Iclass1。
优选的,所述步骤5包括以下子步骤:
步骤5a、设t为当前帧数,FE-Gray(t)为当前帧的图像,对FE-Gray(t)进行形态学开运算,得到图像开运算结果图FOpen(t);
步骤5b、将预处理后图像FE-Gray(t)与开运算结果图像FOpen(t)做减法,得到顶帽变换后结果图FTop-hat(t);
步骤5c、将顶帽变换后结果图FTop-hat(t)和步骤4c得到的二值化初步检测结果图像Iclass1(t)做交集运算,并利用步骤2h得到的陆地掩膜图像FLand(1)对交集运算的结果进行掩膜,得到第t帧最终的检测结果图像Iclass2(t)。
优选的,所述步骤6包括以下子步骤:
步骤6a、当某个像素x在前景检测中被判定为背景时,计算该背景像素x的可靠性因子REL(x);
式中,N(x)是某个背景像素x的25邻域像素集合,Ω(x)是某个背景像素x的25邻域像素集合中属于背景的像素集合;#(Ω(x))表示集合Ω(x)中元素的个数,#(N(x))表示集合N(x)中元素的个数;
步骤6c、生成一个范围在的随机整数r,若r=0,则判定该像素x的背景模型及其8邻域像素的背景模型需要更新,采用该像素值v(x)随机替换背景模型中的一个采样值vi;陆地掩膜图像FLand(1)范围内的像素的为0,不对其背景模型进行更新。
本申请实施例中提供的一个或多个技术方案,至少具有如下技术效果或优点:
在本申请实施例中,基于最大类间方差的海陆分割,对光学卫星视频检测场景中的陆地部分进行掩膜处理,能够减少陆地运动目标对于海面运动舰船目标提取的干扰,提高了舰船目标检测精度;采用融合帧差判断和均值滤波的背景模型初始化方法,对光学卫星视频的运动区域和静止区域分别进行背景建模,相对于采用单帧影像进行背景建模的VIBE算法,本发明能够有效抑制背景初始化过程中所产生的鬼影现象,提高检测精度;采用自适应方法,对灰度差阈值和背景模型更新的时间采样因子进行灵活调整,并利用顶帽变换对初始检测结果进行形态学约束,能够实现海面高动态背景(水面波纹、过长尾迹、云雾干扰等)下舰船运动目标较为准确的分割,具有较强的抗干扰能力。
附图说明
为了更清楚地说明本实施例中的技术方案,下面将对实施例描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一个实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种面向光学卫星视频的运动舰船目标自动检测方法的流程图;
图2为本发明实施例提供的一种面向光学卫星视频的运动舰船目标自动检测方法中进行海陆分割的示意图;其中,2a表示进行海陆分割的原始图,2b表示进行海陆分割的真值图,2c表示进行海陆分割的结果图;
图3为背景初始化建模的示意图;其中,3a表示背景初始化对应的实际场景图,3b表示背景初始化真值图,3c表示采用现有VIBE算法得到的背景初始化结果图,3d表示采用本发明方法得到的背景初始化结果图;
图4为运动舰船鬼影抑制结果对比图,包括多舰船目标检测场景、多舰船目标检测真值图、现有VIBE算法对应的检测图、本发明对应的检测图,图中的标注框表示VIBE鬼影误检出现的位置;
图5为高动态海面运动舰船检测结果对比图,包括高动态海面检测场景图、高动态海面检测真值图、现有VIBE算法对应的检测图、本发明对应的检测图。
具体实施方式
本发明提供一种面向光学卫星视频的运动舰船目标自动检测方法,主要包括:基于最大类间方差的海陆分割,对光学卫星视频检测场景中的陆地部分进行掩膜处理;采用融合帧差判断和均值滤波的背景模型初始化方法,对光学卫星视频的运动区域和静止区域分别进行背景建模;采用自适应方法,对灰度差阈值和背景模型更新的时间采样因子进行调整,并利用顶帽变换对初始检测结果进行形态学约束。
本发明提供一种面向光学卫星视频的运动舰船目标自动检测方法,主要包括以下步骤:
步骤1、读取每一帧光学卫星视频图像,并对其进行预处理;
步骤2、提取预处理后的第1帧影像的陆地掩膜;
步骤3、对预处理后的前N帧影像进行背景模型初始化;所述背景模型初始化包括基于帧差判断的时间填充阶段、基于均值滤波的空间填充阶段、基于邻域采样的背景建模阶段;
步骤4、从第N+1帧开始,对预处理后的每一帧影像进行自适应的海面运动舰船目标分割,得到二值化的初步检测结果图像;
步骤5、从第N+1帧开始,对预处理后的每一帧影像作顶帽变换,并将所得到的变换结果与步骤4中得到的所述初步检测结果图像作交运算,得到该帧的最终检测结果图像;
步骤6、从第N+1帧开始,对背景模型进行基于空间一致性审查机制的更新维护。
综上,本发明在VIBE原有的算法框架上提出的多项有针对性的改进措施包括:
1)为了消除近岸陆地运动目标噪声,本发明加入基于最大类间方差法(OTSU)的海陆分割模块,对视频检测场景中的陆地部分进行掩膜处理;
2)为了减少背景模型初始化造成的鬼影误检像素,本发明融合帧差判断和均值滤波对VIBE背景建模方法进行改进;
3)为了实现海面背景动态噪声的自适应消除,本发明通过自适应方法使VIBE前景目标分割阈值依据海面动态程度进行自动调整;
4)为了背景模型更新时纳入可靠准确的背景像素,本发明在VIBE模型更新模块引入空间一致性审查机制;
5)为了减少云雾噪声的影响,保留海面舰船目标的有用信息,本发明对初始检测结果加入顶帽变换约束。
本发明在VIBE原有的算法框架上提出了多项有针对性的改进措施,从整体上提高海面运动舰船目标的检测精度,解决了现有技术将VIBE算法直接应用到卫星视频时检测精度较低的问题。
为了更好的理解上述技术方案,下面将结合说明书附图以及具体的实施方式对上述技术方案进行详细的说明。
本实施例提供了一种面向光学卫星视频的运动舰船目标自动检测方法,参照图1,包括以下步骤:
步骤1、读取每一帧光学卫星视频影像,并对其进行预处理。
(1a)按顺序读取光学卫星视频中的每一帧彩色影像FRGB;
(1b)将彩色影像FRGB按如下公式进行波段运算得到原始灰度图像FGray,原始灰度图像FGray的灰度级为0-255;
FGray=R*0.299+G*0.587+B*0.114 (1-1)
式中,R、G、B分别为彩色影像FRGB的可见光红、绿、蓝三波段。
(1c)对原始灰度图像FGray按如下公式进行波段运算得到线性变换后的灰度图像FE-Gray;
FE-Gray=a*FGray+β (1-2)
式中,增益参数α和偏置参数β分别用于调整原始灰度图像FGray的对比度和亮度。
步骤2、提取预处理后的第1帧影像的陆地掩膜。
(2a)读取光学卫星视频预处理后的第1帧影像FE-Gray(1);
(2b)设灰度门限值为k,令k在图像灰度级0-255变化,使如下公式中σ2(k)最大的k即为所求的最佳门限值;
σ2(k)=ω0ω1(u0-u1)2 (2-1)
式中,σ2(k)为影像FE-Gray(1)按照灰度门限值k分类得到的两部分像素值的类间方差;ω0和ω1为两部分像素个数所占比例,u0和u1为均值处理后的两部分平均灰度级,如下公式所示;
ω1=1-ω0 (2-6)
式中,Pi为影像FE-Gray(1)中第i级灰度出现的概率,ni为第i级像素个数,N为总像素个数;u为影像FE-Gray(1)在0-255的平均灰度级;u(k)为影像FE-Gray(1)在0-k的平均灰度级;
(2c)将影像FE-Gray(1)中灰度值大于k的像素视为陆地,设为255;灰度值小于k的像素视为海洋,设为0;得到最大类间方差法(OTSU)分割的二值图像FOTSU(1);
(2d)对OTSU法分割的二值图像FOTSU(1)进行连通域提取,得到陆地连通域L={L1,…,Ln}和海洋连通域O={O1,…,Om};
(2e)为了减少舰船、波浪和云雾等亮度较高的海洋区域对于海洋背景完整提取的干扰,对陆地连通域面积进行阈值操作,即陆地连通域面积S(Oi)需要大于阈值STh1,不符合条件的判定为海洋区域;
(2f)为了减少植被等亮度较暗的陆地区域对于陆地背景完整提取的干扰,对海洋连通域面积进行阈值操作,即海洋连通域面积S(Li)需要大于阈值STh2,不符合条件的判定为陆地区域;
(2g)为了使陆地背景能包含沿岸港口区域,对经(2e)和(2f)处理得到的二值图像FOTSU(1)做d次3×3像素(或者5×5像素,滤波的窗口大小可以调整)的形态学膨胀处理;其中,d可调整,d的经验值为2-3次,陆地区域进行适当的膨胀处理可覆盖近岸港口设施区域;
(2h)对经(2g)处理得到的二值图像FOTSU(1)进行灰度翻转,即海洋背景像素设为255,陆地背景像素设为0,得到该区域的陆地掩膜图像FLand(1)。
如图2所示的海陆分割的示意图,其中,图2a表示进行海陆分割的原始图,图2b和图2c分别表示海陆分割的真值图和结果图。
步骤3、对预处理后的前N帧影像进行背景模型初始化,流程可分为三个阶段:基于帧差判断的时间填充阶段(步骤3a、3b、3c和3d)、基于均值滤波的空间填充阶段(步骤3e和3f)和基于邻域采样的背景建模阶段(步骤3g)。
(3a)设t为当前帧数,FE-Gray(t)为当前帧的图像,FE-Gray(t-1)为前一帧的图像,Iback(t)为当前帧的背景图像,Ibackmask(t)为当前帧的背景掩膜图像,其中Iback(t)和Ibackmask(t)初始化时全为0;
(3b)从第2帧起,将当前帧图像FE-Gray(t)与前一帧图像FE-Gray(t-1)作差后取绝对值得到前后相邻两帧的差分图像Idiff(t),遍历整幅图像,对于Idiff(t)中像素值为0(即前后两帧同一位置的像素值不变)且Ibackmask(t)对应位置像素值也为0(即从未进行背景采样的像素点)的点x,将Ibackmask(t)中该点x像素值赋值为1,见以下公式;
Idiff(t,x)=|FE-Gray(t-1,x)-FE-Gray(t,x)| (3-1)
(3c)再次遍历整幅图像,对于满足Ibackmask(t)为1且Iback(t)为0的点x,将当前帧FE-Gray(t)的对应位置像素值赋给背景图像Iback(t);而对于仅仅满足Ibackmask(t)为0的点x,进行累加计数得到count1,见以下公式;
count1=#{Ibackmask(t,x)|Ibackmask(t,x)=0} (3-4)
(3d)如果Ibackmask(t)为0的像素点总数count1小于剩余阈值Thread,则表示已对场景中静态部分建立起背景,转到步骤(3e);否则将跳转到步骤(3b),继续进行;
(3e)对背景图像Iback(t)像素值为0的点(即场景中运动区域)进行8邻域均值滤波得到新的背景图像Iback(t),对新背景像素值为0的点进行累加计数得到count2,见以下公式;
count2=#{Iback(t,x)|Iback(t,x)=0} (3-5)
(3f)如果新背景像素值为0的点总数count2等于0,则表示场景中运动区域也建立起背景,整个背景已初步建成,转到步骤(3g);否则将跳转到步骤(3e),继续执行;
(3g)在初步建成的背景图像Iback(t)上为每个像素x随机采集8邻域范围内的样本容量为N的像素值vi(x)(i=1,2,...,8),得到最终建成的背景模型M(x)。
如图3所示的背景初始化建模示意图,图3a表示背景初始化对应的实际场景图,图3b表示背景初始化真值图,图3c和图3d表示分别采用现有VIBE算法和本发明方法得到的背景初始化结果图,可见本发明方法能有效恢复被舰船运动目标所遮挡的海面背景。而且,从图4所示的运动舰船鬼影抑制结果对比图可见,本发明方法相比现有VIBE算法能够有效减少背景建模过程中产生的鬼影误检像素(图中标注框所示区域)的问题。
步骤4、从第N+1帧开始,对预处理后的每一帧影像进行自适应的海面运动舰船目标分割,得到二值化的初步检测结果图像。
(4a)dmin(x)为各背景像素与模型采样值的最小欧氏距离,将所有dmin(x)>0的背景像素视为动态背景像素x,并将其dmin(x)纳入到集合D,计算出集合D中所有元素的平均值Dmean,即为当前帧图像FE-Gray(t)的局部背景动态度Dmean,见以下公式;
dmin(x)=min{dist(v(x),vi(x))|C(x)=0,vi(x)∈M(x)} (4-1)
D={dmin(x)|dmin(x)>0} (4-2)
式中,v(x)表示像素x的像素值;vi(x)表示像素x在8邻域范围内的像素采样值;i表示像素x的邻域采样值的编号,8邻域即i∈[1,8];C(x)表示像素x的分类编号,0表示x为背景像素,1为前景像素;M(x)表示像素x的背景模型,即邻域采样值vi(x)的集合;L表示动态背景像素集合D的元素个数。
(4b)依据局部背景动态度Dmean按以下公式迭代计算当前帧的灰度差阈值R(t)(其中,R(1)即R的初始值可设定为30,或根据应用需要进行调整);
式中,参数αdec和αinc分别为增加和减少方向的学习率,参数ξ为尺度因子,R(t)表示当前帧t的灰度差阈值,R(t-1)表示前一帧t-1的灰度差阈值。
(4c)统计第t-1帧的模型M(t-1,x)采样值vi落在以第t帧每个像素值v(x)为中心、以R(t)为半径的区间SR(v(x))范围内的个数sum(x),当个数sum(x)大于数量的最小阈值min时,则将该像素x分类为背景,Iclass1(x)=0;否则分类为前景,Iclass1(x)=1;由此得到并输出当前帧的二值化初步检测结果图像Iclass1,见以下公式。
sum(x)=#{SR(v(x))∩vi(x)} (4-6)
从图5所示的高动态海面运动舰船检测结果对比图可见,本发明方法相比VIBE算法能够有效减少高动态海面场景所产生的误检问题,提高运动舰船检测的精度。
步骤5、从第N+1帧开始,对预处理后的每一帧影像作顶帽变换,并将所得到的变换结果与步骤(4)的初步检测结果图像作交运算,得到该帧的最终检测结果图像。
(5a)设t为当前帧数,FE-Gray(t)为当前帧的图像,对FE-Gray(t)进行例如5*5窗口大小(滤波的窗口大小可以适当调整)的形态学开运算,得到图像开运算结果图FOpen(t);
(5b)将预处理后图像FE-Gray(t)与开运算结果图像FOpen(t)做减法,得到顶帽变换后结果图FTop-hat(t);
(5c)将顶帽变换后结果图FTop-hat(t)和步骤4c得到的二值化初步检测结果图像Iclass1(t)做交集运算,并利用步骤2h得到的陆地掩膜图像FLand(1)对交集运算的结果进行掩膜,得到第t帧最终的检测结果图像Iclass2(t)。
步骤6、从第N+1帧开始,对背景模型进行基于空间一致性审查机制的更新维护。
(6a)当某个像素x在前景检测中被判定为背景时(即Iclass1(x)=0),计算该背景像素x的可靠性因子REL(x);
式中,N(x)是某个背景像素x的25邻域像素集合,Ω(x)是某个背景像素x的25邻域像素集合中属于背景的像素集合。#(Ω(x))表示集合Ω(x)中元素的个数,#(N(x))表示集合N(x)中元素的个数;
(6c)生成一个范围在的随机整数r,若r=0则判定该像素x的背景模型及其8邻域像素的背景模型需要更新,采用该像素值v(x)随机替换背景模型中的一个采样值vi;陆地掩膜图像FLand(1)范围内的像素的为0,即不对其背景模型进行更新。
本发明实施例提供的一种面向光学卫星视频的运动舰船目标自动检测方法至少包括如下技术效果:
第一、目前尚未有面向光学卫星视频的运动舰船目标的完整自动检测方法,本发明针对海面运动舰船目标场景任务的特点,将海陆分割、VIBE算法和自适应方法集成为一套完整流程,弥补了这一空白,并提高了舰船目标检测精度。
第二、由于本发明加入了海陆分割模块,在目标检测之前对陆地进行掩膜,减少了陆地运动目标对于海面运动舰船目标提取的干扰,提高了舰船目标检测精度。
第三、由于本发明采用融合帧差判断和均值滤波的背景模型初始化方法,对视频的运动区域和静止区域进行有差别背景建模,因此相对于采用单帧影像进行背景建模的VIBE算法,本发明能够有效抑制背景初始化过程中所产生的鬼影现象,提高检测精度。
第四、由于本发明采用自适应方法对灰度差阈值R和模型更新的时间采样因子进行灵活调整,且利用顶帽变换对初始检测结果进行形态学约束,实现了海面高动态背景(水面波纹、过长尾迹、云雾干扰等)下舰船运动目标较为准确的分割,具有较强的抗干扰能力。
第五、由于本发明仅依靠光学卫星视频自身信息,减少现有技术对先验模型的依赖,使得本发明具有较高的可行性和适用性。
最后所应说明的是,以上具体实施方式仅用以说明本发明的技术方案而非限制,尽管参照实例对本发明进行了详细说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (9)
1.一种面向光学卫星视频的运动舰船目标自动检测方法,其特征在于,包括:
基于最大类间方差的海陆分割,对光学卫星视频检测场景中的陆地部分进行掩膜处理;
采用融合帧差判断和均值滤波的背景模型初始化方法,对光学卫星视频的运动区域和静止区域分别进行背景建模;
采用自适应方法,对灰度差阈值和背景模型更新的时间采样因子进行调整,并利用顶帽变换对初始检测结果进行形态学约束。
2.根据权利要求1所述的面向光学卫星视频的运动舰船目标自动检测方法,其特征在于,包括以下步骤:
步骤1、读取每一帧光学卫星视频图像,并对其进行预处理;
步骤2、提取预处理后的第1帧影像的陆地掩膜;
步骤3、对预处理后的前N帧影像进行背景模型初始化;所述背景模型初始化包括基于帧差判断的时间填充阶段、基于均值滤波的空间填充阶段、基于邻域采样的背景建模阶段;
步骤4、从第N+1帧开始,对预处理后的每一帧影像进行自适应的海面运动舰船目标分割,得到二值化的初步检测结果图像;
步骤5、从第N+1帧开始,对预处理后的每一帧影像作顶帽变换,并将所得到的变换结果与步骤4中得到的所述初步检测结果图像作交运算,得到该帧的最终检测结果图像;
步骤6、从第N+1帧开始,对背景模型进行基于空间一致性审查机制的更新维护。
3.根据权利要求2所述的面向光学卫星视频的运动舰船目标自动检测方法,其特征在于,所述步骤1包括以下子步骤:
步骤1a、按顺序读取光学卫星视频中的每一帧彩色影像FRGB;
步骤1b、将彩色影像FRGB按如下公式进行波段运算,得到原始灰度图像FGray;
FGray=R*0.299+G*0.587+B*0.114
式中,R、G、B分别为彩色影像FRGB的可见光红、绿、蓝三波段,原始灰度图像FGray的灰度级为0-255;
步骤1c、对原始灰度图像FGray按如下公式进行波段运算,得到线性变换后的灰度图像FE-Gray;
FE-Gray=α*FGray+β
式中,增益参数α和偏置参数β分别用于调整原始灰度图像FGray的对比度和亮度。
4.根据权利要求3所述的面向光学卫星视频的运动舰船目标自动检测方法,其特征在于,所述步骤2包括以下子步骤:
步骤2a、读取光学卫星视频预处理后的第1帧影像FE-Gray(1);
步骤2b、设置灰度门限值k;
步骤2c、将影像FE-Gray(1)中灰度值大于k的像素视为陆地,并设为255;将影像FE-Gray(1)中灰度值小于k的像素视为海洋,并设为0;得到最大类间方差法分割的二值图像FOTSU(1);
步骤2d、对二值图像FOTSU(1)进行连通域提取,得到陆地连通域L={L1,…,Ln}和海洋连通域O={O1,…,Om};
步骤2e、对陆地连通域面积进行阈值操作,设定陆地连通域面积S(Oi)需要大于阈值STh1,不符合条件的判定为海洋区域;
步骤2f、对海洋连通域面积进行阈值操作,设定海洋连通域面积S(Li)需要大于阈值STh2,不符合条件的判定为陆地区域;
步骤2g、对经步骤2e和步骤2f处理后得到的二值图像FOTSU(1)做形态学膨胀处理;
步骤2h、对经步骤2g处理后得到的二值图像FOTSU(1)进行灰度翻转,得到陆地掩膜图像FLand(1)。
5.根据权利要求4所述的面向光学卫星视频的运动舰船目标自动检测方法,其特征在于,所述步骤3包括以下子步骤:
步骤3a、设t为当前帧数,FE-Gray(t)为当前帧的图像,FE-Gray(t-1)为前一帧的图像,Iback(t)为当前帧的背景图像,Ibackmask(t)为当前帧的背景掩膜图像,其中,Iback(t)和Ibackmask(t)初始化时全为0;
步骤3b、从第2帧起,将当前帧图像FE-Gray(t)与前一帧图像FE-Gray(t-1)作差后取绝对值,得到前后相邻两帧的差分图像Idiff(t),遍历整幅图像,对于Idiff(t)中像素值为0且Ibackmask(t)对应位置像素值也为0的点x,将Ibackmask(t)中该点x像素值赋值为1;
步骤3c、再次遍历整幅图像,对于满足Ibackmask(t)为1且Iback(t)为0的点x,将当前帧FE-Gray(t)的对应位置像素值赋给背景图像Iback(t);对于仅仅满足Ibackmask(t)为0的点x,进行累加计数得到count1;
步骤3d、如果Ibackmask(t)为0的像素点总数count1小于剩余阈值Thread,则表示场景中静态区域建立起背景,转到步骤3e;否则,跳转到步骤3b;
步骤3e、对背景图像Iback(t)像素值为0的点进行8邻域均值滤波,得到新的背景图像Iback(t),对新背景像素值为0的点进行累加计数得到count2;
步骤3f、如果新背景像素值为0的点总数count2等于0,则表示场景中运动区域建立起背景,结合步骤3d中建立的静态背景,整个背景已初步建成;否则,跳转到步骤3e。
6.根据权利要求5所述的面向光学卫星视频的运动舰船目标自动检测方法,其特征在于,还包括:
步骤3g、在初步建成的背景图像Iback(t)上为每个像素x随机采集8邻域范围内的样本容量为N的像素值vi(x)(i=1,2,...,8),得到最终建成的背景模型M(x)。
7.根据权利要求6所述的面向光学卫星视频的运动舰船目标自动检测方法,其特征在于,所述步骤4包括以下子步骤:
步骤4a、根据下式得到各背景像素与模型采样值的最小欧氏距离dmin(x);
dmin(x)=min{dist(v(x),vi(x))|C(x)=0,vi(x)∈M(x)}
式中,v(x)表示像素x的像素值,vi(x)表示像素x在8邻域范围内的像素采样值;i表示像素x的邻域采样值的编号,i∈[1,8];C(x)表示像素x的分类编号,0表示x为背景像素,1为前景像素;M(x)表示像素x的背景模型;
将所有dmin(x)>0的背景像素视为动态背景像素x,并将其纳入到集合D;计算出集合D中所有元素的平均值Dmean,Dmean作为当前帧图像FE-Gray(t)的局部背景动态度;
步骤4b、依据局部背景动态度Dmean按以下公式迭代计算当前帧的灰度差阈值R(t);
式中,参数αdec和αinc分别为增加和减少方向的学习率,参数ξ为尺度因子,R(t)表示当前帧t的灰度差阈值,R(t-1)表示前一帧t-1的灰度差阈值;
步骤4c、统计第t-1帧的模型M(t-1,x)采样值vi落在以第t帧每个像素值v(x)为中心、以R(t)为半径的区间SR(v(x))范围内的个数sum(x);当个数sum(x)大于数量的最小阈值min时,则将该像素x分类为背景,Iclass1(x)=0;否则分类为前景,Iclass1(x)=1;得到并输出当前帧的二值化初步检测结果图像Iclass1。
8.根据权利要求7所述的面向光学卫星视频的运动舰船目标自动检测方法,其特征在于,所述步骤5包括以下子步骤:
步骤5a、设t为当前帧数,FE-Gray(t)为当前帧的图像,对FE-Gray(t)进行形态学开运算,得到图像开运算结果图FOpen(t);
步骤5b、将预处理后图像FE-Gray(t)与开运算结果图像FOpen(t)做减法,得到顶帽变换后结果图FTop-hat(t);
步骤5c、将顶帽变换后结果图FTop-hat(t)和步骤4c得到的二值化初步检测结果图像Iclass1(t)做交集运算,并利用步骤2h得到的陆地掩膜图像FLand(1)对交集运算的结果进行掩膜,得到第t帧最终的检测结果图像Iclass2(t)。
9.根据权利要求8所述的面向光学卫星视频的运动舰船目标自动检测方法,其特征在于,所述步骤6包括以下子步骤:
步骤6a、当某个像素x在前景检测中被判定为背景时,计算该背景像素x的可靠性因子REL(x);
式中,N(x)是某个背景像素x的25邻域像素集合,Ω(x)是某个背景像素x的25邻域像素集合中属于背景的像素集合;#(Ω(x))表示集合Ω(x)中元素的个数,#(N(x))表示集合N(x)中元素的个数;
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010406004.5A CN111667498B (zh) | 2020-05-14 | 2020-05-14 | 一种面向光学卫星视频的运动舰船目标自动检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010406004.5A CN111667498B (zh) | 2020-05-14 | 2020-05-14 | 一种面向光学卫星视频的运动舰船目标自动检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111667498A true CN111667498A (zh) | 2020-09-15 |
CN111667498B CN111667498B (zh) | 2023-07-18 |
Family
ID=72383609
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010406004.5A Active CN111667498B (zh) | 2020-05-14 | 2020-05-14 | 一种面向光学卫星视频的运动舰船目标自动检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111667498B (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418105A (zh) * | 2020-11-25 | 2021-02-26 | 湖北工业大学 | 基于差分方法的高机动卫星时间序列遥感影像运动舰船目标检测方法 |
CN113537099A (zh) * | 2021-07-21 | 2021-10-22 | 招商局重庆交通科研设计院有限公司 | 一种公路隧道火灾烟雾动态检测方法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971386A (zh) * | 2014-05-30 | 2014-08-06 | 南京大学 | 一种动态背景场景下的前景检测方法 |
CN104835179A (zh) * | 2015-03-30 | 2015-08-12 | 复旦大学 | 基于动态背景自适应的改进ViBe背景建模算法 |
CN106485722A (zh) * | 2016-09-21 | 2017-03-08 | 北京航天宏图信息技术股份有限公司 | 一种遥感影像中靠港舰船检测方法 |
CN106548488A (zh) * | 2016-10-25 | 2017-03-29 | 电子科技大学 | 一种基于背景模型及帧间差分的前景检测方法 |
US20180096451A1 (en) * | 2016-09-30 | 2018-04-05 | Oracle International Corporation | System and method providing automatic alignment of aerial/satellite imagery to known ground features |
CN108765443A (zh) * | 2018-05-22 | 2018-11-06 | 杭州电子科技大学 | 一种自适应颜色阈值分割的标志增强处理方法 |
CN108765491A (zh) * | 2018-05-31 | 2018-11-06 | 成都信息工程大学 | 一种sar图像舰船目标检测方法 |
CN109101924A (zh) * | 2018-08-14 | 2018-12-28 | 武汉大学 | 一种基于机器学习的路面交通标志识别方法 |
CN110599523A (zh) * | 2019-09-10 | 2019-12-20 | 江南大学 | 一种融合帧间差分法的ViBe鬼影抑制方法 |
-
2020
- 2020-05-14 CN CN202010406004.5A patent/CN111667498B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103971386A (zh) * | 2014-05-30 | 2014-08-06 | 南京大学 | 一种动态背景场景下的前景检测方法 |
CN104835179A (zh) * | 2015-03-30 | 2015-08-12 | 复旦大学 | 基于动态背景自适应的改进ViBe背景建模算法 |
CN106485722A (zh) * | 2016-09-21 | 2017-03-08 | 北京航天宏图信息技术股份有限公司 | 一种遥感影像中靠港舰船检测方法 |
US20180096451A1 (en) * | 2016-09-30 | 2018-04-05 | Oracle International Corporation | System and method providing automatic alignment of aerial/satellite imagery to known ground features |
CN106548488A (zh) * | 2016-10-25 | 2017-03-29 | 电子科技大学 | 一种基于背景模型及帧间差分的前景检测方法 |
CN108765443A (zh) * | 2018-05-22 | 2018-11-06 | 杭州电子科技大学 | 一种自适应颜色阈值分割的标志增强处理方法 |
CN108765491A (zh) * | 2018-05-31 | 2018-11-06 | 成都信息工程大学 | 一种sar图像舰船目标检测方法 |
CN109101924A (zh) * | 2018-08-14 | 2018-12-28 | 武汉大学 | 一种基于机器学习的路面交通标志识别方法 |
CN110599523A (zh) * | 2019-09-10 | 2019-12-20 | 江南大学 | 一种融合帧间差分法的ViBe鬼影抑制方法 |
Non-Patent Citations (7)
Title |
---|
JIANFANG DOU等: "Moving object detection based on improved VIBE and graph cut optimization", OPTIK * |
李亚超: "采用自适应背景窗的舰船目标检测算法", 《西安交通大学学报》 * |
李亚超: "采用自适应背景窗的舰船目标检测算法", 《西安交通大学学报》, 18 March 2013 (2013-03-18) * |
许军毅: "光学卫星遥感图像舰船目标检测技术研究", 《中国优秀硕士学位论文全文数据库信息科技辑》 * |
赵光明: "视频监控中运动目标检测算法研究", 《中国优秀硕士学位论文全文数据库信息科技辑》, pages 3177 - 3178 * |
黄结龙: "动态场景下运动目标检测与识别算法的研究", 中国优秀硕士学位论文全文数据库信息科技辑, no. 01 * |
黄鑫 等: "改进的车流量估计ViBe算法", 《计算机应用研究》, vol. 35, no. 10 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112418105A (zh) * | 2020-11-25 | 2021-02-26 | 湖北工业大学 | 基于差分方法的高机动卫星时间序列遥感影像运动舰船目标检测方法 |
CN113537099A (zh) * | 2021-07-21 | 2021-10-22 | 招商局重庆交通科研设计院有限公司 | 一种公路隧道火灾烟雾动态检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111667498B (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Tripathi et al. | Single image fog removal using bilateral filter | |
Crabb et al. | Real-time foreground segmentation via range and color imaging | |
US8280165B2 (en) | System and method for segmenting foreground and background in a video | |
CN111368771A (zh) | 一种基于图像处理的隧道火灾预警方法、装置、计算机设备以及计算机可读存储介质 | |
CN109389569B (zh) | 基于改进DehazeNet的监控视频实时去雾方法 | |
CN111460964A (zh) | 一种广电传输机房低照度条件下运动目标检测方法 | |
CN111667498A (zh) | 一种面向光学卫星视频的运动舰船目标自动检测方法 | |
CN115661669A (zh) | 一种基于视频监控的耕地违法占用监测方法及系统 | |
CN115063331B (zh) | 基于多尺度块lbp算子无鬼影多曝光图像融合方法 | |
CN114881869A (zh) | 一种巡检视频图像预处理方法 | |
Sahu et al. | Image dehazing based on luminance stretching | |
Liu et al. | Scene background estimation based on temporal median filter with Gaussian filtering | |
Liu et al. | A shadow imaging bilinear model and three-branch residual network for shadow removal | |
Wu et al. | Video surveillance object recognition based on shape and color features | |
Zhang et al. | Dehazing with improved heterogeneous atmosphere light estimation and a nonlinear color attenuation prior model | |
Hong et al. | Single image dehazing based on pixel-wise transmission estimation with estimated radiance patches | |
Park et al. | Image enhancement for extremely low light conditions | |
CN115170420A (zh) | 一种图像对比度的处理方法及系统 | |
CN112532938B (zh) | 一种基于大数据技术的视频监控系统 | |
Jia et al. | A two-step approach to see-through bad weather for surveillance video quality enhancement | |
Mishra et al. | Modified hue over intensity ratio based method for shadow detection and removal in arial images | |
Yun et al. | An image enhancement Method for extracting multi-license plate region | |
Wang et al. | Shadow Detection and Reconstruction of High-Resolution Remote Sensing Images in Mountainous and Hilly Environments | |
Ganguly et al. | Fusion of Mathematical Morphology with Adaptive Gamma Correction for Dehazing and Visibility Enhancement of Images | |
Park et al. | Classification of daytime and night based on intensity and chromaticity in RGB color image |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |