CN110992381B - 一种基于改进Vibe+算法的运动目标背景分割方法 - Google Patents
一种基于改进Vibe+算法的运动目标背景分割方法 Download PDFInfo
- Publication number
- CN110992381B CN110992381B CN201911298423.5A CN201911298423A CN110992381B CN 110992381 B CN110992381 B CN 110992381B CN 201911298423 A CN201911298423 A CN 201911298423A CN 110992381 B CN110992381 B CN 110992381B
- Authority
- CN
- China
- Prior art keywords
- image
- smear
- block
- area
- video
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000004422 calculation algorithm Methods 0.000 title claims abstract description 102
- 230000011218 segmentation Effects 0.000 title claims abstract description 84
- 238000000034 method Methods 0.000 title claims abstract description 67
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 45
- 238000012544 monitoring process Methods 0.000 claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 37
- 238000012216 screening Methods 0.000 claims abstract description 20
- 239000013598 vector Substances 0.000 claims description 25
- 238000012549 training Methods 0.000 claims description 18
- 238000004891 communication Methods 0.000 claims description 16
- 230000004927 fusion Effects 0.000 claims description 16
- 238000009826 distribution Methods 0.000 claims description 13
- 238000004364 calculation method Methods 0.000 claims description 7
- 238000011176 pooling Methods 0.000 claims description 4
- 238000012706 support-vector machine Methods 0.000 claims description 4
- 238000003709 image segmentation Methods 0.000 claims description 3
- 238000002372 labelling Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 10
- 230000000694 effects Effects 0.000 abstract description 10
- 230000006870 function Effects 0.000 description 23
- 230000033001 locomotion Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 7
- 238000000605 extraction Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 238000001914 filtration Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000002474 experimental method Methods 0.000 description 2
- 230000003068 static effect Effects 0.000 description 2
- 238000012360 testing method Methods 0.000 description 2
- 241000422846 Sequoiadendron giganteum Species 0.000 description 1
- 230000006978 adaptation Effects 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000013210 evaluation model Methods 0.000 description 1
- 238000002073 fluorescence micrograph Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000011056 performance test Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 238000007670 refining Methods 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于改进Vibe+算法的运动目标背景分割方法,涉及视频图像处理领域。本发明提供的方法,通过对目标监控视频采用传统Vibe+算法获取原始二值化图像,采用基于区域生长的连通域标记法对分割图像中各连通区域进行标记,依据边界面积块差异特征设定面积筛选阈值,将二值化图像中低于面积筛选阈值的连通区域进行删除;并对MeanShift聚类算法改进后,与碎片化卷积神经网络融合对分割后的二值化图像中拖影区块、非拖影区块和拖影边缘区块分类识别,标记拖影区块在二值化图像中位置坐标,基于拖影检测结果对二值化图像中各个拖影区域进行快速删除,获取最终的分割结果,达到提高对目标监控视频运动目标的分割准确度和分割效率的技术效果。
Description
技术领域
本发明涉及视频图像处理技术领域,特别涉及一种基于改进Vibe+算法的运动目标背景分割方法。
背景技术
近年来,随着智慧平安城市建设进程不断加快,越来越多的城市道路配置有监控摄像头。交通管理部门、公安部门等机构工作人员可以根据各城市道路布控的监控摄像头获取的视频数据为基础,对城市道路中可能出现的异常情况进行实时的判别与预警,以更好地保障市民们的安全出行。
由于现有城市道路分布较为复杂,各路段监控摄像头获取的视频数据数量较为庞大,再加上视频监控作业的实时性要求较高,工作人员仅凭肉眼很难对大量视频数据进行及时监控处理。为了辅助工作人员对视频数据进行高效实时监控,现有技术对视频数据中的图像进行背景分割处理,从而筛去视频数据中的各种干扰图像数据,进而提高工作人员对实时监控视频数据的监控处理效率。比如,中国专利CN201710168104.7公开了一种基于运动显著图和光流矢量分析的动态背景目标分割方法,首先基于运动显著图提取运动目标的大致区域,然后借助邻近帧之间的光流场获得运动目标和背景区域的运动边界,并利用运动边界对运动显著图进行分析,从而得到运动目标内部精确的像素点,最后通过过分割技术获取图像超像素,并通过引入置信度的概念和建立包含多种信息的表观模型实现最终像素一级的目标分割;中国专利CN201310426015.X公开了一种基于对称差分法和联合双边滤波相结合的背景静止的运动目标分割方法,该方法首先对连续三帧图像进行差分得到运动区域即对称差分图,然后采用不同滤波模板以当前帧为引导图对对称差分图进行联合双边滤波,并将滤波后的结果进行线性相加,得到运动目标图最后,利用此边缘对运动目标图细化即进行扫描搜索赋值,从而分割出完整并精确的运动目标;中国专利CN201310032167.1公开了一种基于分水岭分割的静态背景下运动目标检测方法,包括对采集到的视频数据进行预处理,然后使用极小值点的分水岭算法对视频图像进行分割,通过对相邻帧之间的特征点映射关系得到连续帧内的特征点运动轨迹,最后利用综合评价模型,综合考虑特征点轨迹信息的七个主要影响因素,计算出每个特征点的综合评价分数,将低于设定阈值的特征点判定为运动目标,从而将视频数据中的运动目标图像数据进行提取。
在实现本发明的过程中,发明人发现相关技术至少存在以下问题:
相关技术提供的动态背景目标分割方法,虽然针对给定的视频数据集可以取得一定的效果,但是当遇到较为复杂的运动场景时,例如监控视频中会出现运动的行人、机动车辆、非机动车辆等,静止目标有建筑物、大树、交通路口红绿灯、河流、高山等,当采用以上传统算法进行前景提取时,很容易因为树叶随风摆动或者河流流动的运动梯度模式与目标运动模式一致而导致前景目标提取失败;此外,在自然场景下,天气有晴天、阴天、雨天、雪天,不同的天气条件会导致分割异常,例如,当太阳光直射在目标表面产生高光区时,常常会因为高光区域的图像信息失真问题导致目标提取不完全,从而导致分割失败,而且阳光下运动目标的拖影较明显,拖影会随着目标运动而运动,会使得拖影部分附着在前景目标中一起被分割出来,从而导致对运动目标的分割失败。
发明内容
为了解决现有运动目标分割方法在复杂运动场景下存在的目标误分割问题,本发明公开了一种基于改进Vibe+算法的运动目标背景分割方法,该方法可确保在复杂场景下,可实现较高的目标分割精度,同时降低目标识别时间,在一定程度上给现有背景分割的理论算法予以补充和完善。本发明方法综合应用了人工智能、图像处理、计算机软件技术、视频跟踪理论等交叉学科在运动场景下对物体进行前提提取与背景分割,结果精确且处理速度快,达到提高对目标监控视频运动目标的分割准确度和分割效率的技术效果,且具有较高的实时性。
根据本发明实施例的一个方面,提供一种基于改进Vibe+算法的运动目标背景分割方法,其特征在于,所述方法包括:
(1)获取目标监控视频;
(2)对于所述目标监控视频中的每帧视频图像,采用Vibe+运动目标分割算法对所述视频图像进行图像分割得到所述视频图像的二值化图像,再采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,根据各个连通区域的面积数值大小确定面积筛选阈值,对于所述二值化图像中经区域标记处理的每个连通区域,将所述二值化图像中像素值为1的区块面积低于所述面积筛选阈值的连通区域进行删除,得到去噪点分割处理后的二值化图像;
(3)对于所述目标监控视频中的每帧视频图像,根据改进MeanShift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,并获取各个拖影区块在所述视频图像所对应去噪点分割处理后二值化图像的拖影位置坐标,将所述二值化图像中各个拖影位置坐标所对应像素点的像素值确定为0,得到去拖影分割后的二值化图像;
(4)对于去拖影分割后的每个二值化图像,计算所述二值化图像上下左右四个极值点坐标,在所述二值化图像所对应视频图像中根据所述四个极值点坐标确定运动目标图像,实现对所述目标监控视频中运动目标背景的分割。
在一个优选的实施例中,步骤(2)中所述采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,包括:
对于所述二值化图像中的每个像素点,遍历所述像素点周围八邻域内的面积子区块;
当检测到存在相邻像素点周围八邻域内的面积子区块与所述像素点周围八邻域内的面积子区块相连通时,将所述像素点周围八邻域内的面积子区块与各个相邻像素点周围八邻域内的面积子区块共同确定为连通区域;
按照连通区域的确定先后顺序,对各个连通区域依次进行区域标记。
在一个优选的实施例中,步骤(2)中所述根据各个连通区域的面积数值大小确定面积筛选阈值,包括:
计算各个连通区域的面积数值;
将各个连通区域的面积数值存入向量Vec1中;
将向量Vec1中的各个面积数值按照从大到小的顺序依次排列,依次计算各相邻面积数值之间的面积差值,并将各个面积差值存入向量Vec2中;
确定向量Vec2中最大的面积差值所对应的二个面积数值,将所述二个面积数值的平均值确定为面积筛选阈值。
在一个优选的实施例中,所述改进MeanShift聚类算法包括:
在MeanShift聚类算法中引入线性核函数、多项式核函数、高斯核函数、多元二次核函数和Sigmoid核函数的均值组合模式共同对视频图像进行聚类计算,得到所述视频图像对应的各个区域块图像。
在一个优选的实施例中,所述对于所述目标监控视频中的每帧视频图像,根据改进MeanShift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,包括:
对于所述目标监控视频中的每帧视频图像,采用改进Meanshift聚类算法对所述视频图像进行聚类,得到各个区域块图像;
提取所述视频图像所对应各个区域块图像在L*a*b颜色空间的颜色直方图,以及纹理特征Texton特征直方图,根据各个区域块图像对应的颜色直方图和纹理特征Texton特征直方图训练支持向量机分类器,生成得到所述视频图像所对应的阴影先验分布图;
采用碎片化卷积神经网络对所述视频图像所对应阴影先验分布图中各个区域块图像进行计算,分别得到所述视频图像所对应各个区域块图像的拖影概率预测值,所述碎片化卷积神经网络包括六个卷积层、两个池化层和一个全连接类别输出层,所述碎片化卷积神经网络的输入数据为32×32 区块的区域块图像,输出数据为区域块图像为拖影的拖影概率预测值;
将所述视频图像中拖影概率预测值大于预设概率预测值的区域块图像识别为拖影区块。。
在一个优选的实施例中,所述方法还包括:
对于每帧视频图像,采用约束函数获取所述视频图像所对应各个区域块图像中的拖影边缘区块,所述约束函数的表达式为:
其中,m为分割区块的数量,α为固定常数项,R(S)表示所包含的区块之间的边界像素集合;
采用所述碎片化卷积神经网络对所述视频图像所对应各个拖影边缘区块进行计算,分别得到各个拖影边缘区块的拖影概率预测值;
将所述视频图像中拖影概率预测值大于预设概率预测值的拖影边缘区块识别为拖影区块。
在一个优选的实施例中,所述方法还包括:
构建碎片化卷积神经网络,以各个训练样本图像所对应原始RGB图像和阴影先验分布图作为训练数据获取源,采用拖影区块、非拖影区块、拖影边缘区块作为三种训练图像类型,对所述碎片化卷积神经网络进行训练,得到训练后的碎片化卷积神经网络。
通过执行上述步骤,在使用本发明提供的一种基于改进Vibe+算法的运动目标背景分割方法对目标监控视频进行运动目标分割处理时可具备以下有益效果:
(1)通过首次基于卷积神经网络模型从二值图像中运动目标拖影识别的角度阐述视频中拖影的快速分割方法,并通过实验证实该方法确实可以达到一定的分割精度;
(2)基于监控摄像头获取数据形式,在复杂场景为对运动目标的前景提取提供了一种全新的算法创新视角;
(3)该方法可在保证较高识别率的基础上,提高程序运行效率,降低运动目标分割时间,在一定程度上给现有理论方法予以补充和完善。
综上所述,本发明提供的一种基于改进Vibe+算法的运动目标背景分割方法可以包括以下有益效果:
本发明提供的一种基于改进Vibe+算法的运动目标背景分割方法,通过对目标监控视频采用Vibe+算法获取二值化图像,采用基于区域生长的连通域标记法对分割图像中各连通区域进行标记,依据边界面积块差异特征设定面积筛选阈值,将二值化图像中低于面积筛选阈值的连通区域进行删除;并对MeanShift聚类算法改进后,与碎片化卷积神经网络算法融合对分割后的二值化图像中拖影区块、非拖影区块和拖影边缘区块分类识别,标记拖影区块在二值化图像中位置坐标,基于拖影检测结果对二值化图像中各个拖影区域进行快速删除,获取最终的分割结果,达到提高对目标监控视频运动目标的分割准确度和分割效率的技术效果。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本发明的实施例,并于说明书一起用于解释本发明的原理。
图1是本发明一个实施例提供的一种基于改进Vibe+算法的运动目标背景分割方法的流程示意图。
图2是本发明一个实施例提供的一种改进Meanshift聚类算法与碎片化卷积神经网络融合算法消除拖影步骤示意图。
图3是本发明一个实施例提供的对目标监控视频中各帧视频图像的处理流程示意图。
图4是本发明一个实施例提供的各分割算法对示例视频图像A的处理效果图。
图5是本发明一个实施例提供的各分割算法对示例视频图像B的处理效果图。
具体实施方式
为了使本发明的目的、 技术方案和优点更加清楚,以下结合具体实施例(但不限于所举实施例)与附图详细描述本发明,显然,所描述的实施例仅仅是本发明一部份实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
请参考图1,其示出了本发明一个实施例提供的一种基于改进Vibe+算法的运动目标背景分割方法的流程示意图,如图1所示,所述方法包括:
步骤(1):获取目标监控视频。
目标监控视频的获取来源可以是城市各道路监控中心提供的监控视频。
步骤(2):对于所述目标监控视频中的每帧视频图像,采用Vibe+运动目标分割算法对所述视频图像进行图像分割得到所述视频图像的二值化图像,再采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,根据各个连通区域的面积数值大小确定面积筛选阈值,对于所述二值化图像中经区域标记处理的每个连通区域,将所述二值化图像中像素值为1的区块面积低于所述面积筛选阈值的连通区域进行删除,得到去噪点分割处理后的二值化图像。
需要说明的是,对目标监控视频采用成熟的Vibe+算法获取目标监控视频中每帧视频图像的二值化图像后,各个二值化图像中存在较为明显的噪声干扰和运动拖影,因此需要针对目标监控视频中每一帧中由非目标引起的噪声扰动干扰点进行处理,由于这些干扰点具有断断续续且相互联接不紧密的特点,而且噪声的大小是随机的,即无法对噪声进行建模处理,因此,本发明采用基于区域生长的连通域标记法对分割图像中所有的连通区域进行标记。
在一个优选的实施例中,步骤(2)中所述采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,包括:
对于所述二值化图像中的每个像素点,遍历所述像素点周围八邻域内的面积子区块;
当检测到存在相邻像素点周围八邻域内的面积子区块与所述像素点周围八邻域内的面积子区块相连通时,将所述像素点周围八邻域内的面积子区块与各个相邻像素点周围八邻域内的面积子区块共同确定为连通区域;
按照连通区域的确定先后顺序,对各个连通区域依次进行区域标记。
在一种可能的实施方式中,基于区域生长的连通域标记法的算法流程可以如下:
(A)输入二值化图像,初始化一个与该二值化图像相同尺寸的标记矩阵LM、一个队列以及标记计数LN;
(B)按从左至右、从上至下顺序扫描该二值化图像,当扫描到一个未被标记的像素点P时,LN 自增1 并在LM 中标记P点(对应点的值赋为LN),同时扫描p点周围八邻域范围内的像素点,若存在未被标记的像素点,则在LM中进行标记,并放入队列中作为区域生长的生长种子点;
(C)当队列中数值不为空时,从队列中取出一个生长种子点,扫描该生长种子点附近八邻域内的像素点,若存在未被标记过的像素点,则在LM 中进行标记,并放入队列中;
(D)遍历每个像素点周围八邻域内面积子区块,若遍历到当前像素点周围八邻域内的面积子区块与相邻像素点周围八邻域内的面积子区块连通,则将这两个像素点周围八邻域内的面积子区块连接起来;
(E)重复步骤C和E,直至队列为空,一个连通区域标记完毕;
(F)转到步骤B,直至整幅图像被扫描完毕,得到所有区域标记的连通区域LM和连通区域的个数LN。
需要说明的是,为了避免算法过多标记出多个较小的连通域使得连通域标记法算法执行缓慢,优选的,本发明实施例在标记连通区域前还采用区域填充算法对各个二值化图像中的封闭区域进行像素值为1的像素点填充,从而加快算法程序执行速度,获取较少大块的连通区域。
在获取连通区域个数及其面积数值之后,本发明实施例依次对连通区域的面积数值进行由大至小排序,并对相邻两个面积数值的面积差值进行统计,确定面积差值最大值对应的二个面积数值,将所述二个面积数值的平均值确定为面积筛选阈值,由于同一个视角拍摄的视频中运动目标大小相差较小,较小的点可认为是噪声所引起的干扰因素,因此把所有小于面积筛选阈值所对应的连通区域全部删除,即可得去噪点分割处理后的各个二值化图像,在一个优选的实施例中,步骤(2)中所述根据各个连通区域的面积数值大小确定面积筛选阈值,包括:
计算各个连通区域的面积数值;
将各个连通区域的面积数值存入向量Vec1中;
将向量Vec1中的各个面积数值按照从大到小的顺序依次排列,依次计算各相邻面积数值之间的面积差值,并将各个面积差值存入向量Vec2中;
确定向量Vec2中最大的面积差值所对应的二个面积数值,将所述二个面积数值的平均值确定为面积筛选阈值。
需要说明的是,向量Vec1中的各个面积数值也可以按照从小到大的顺序依次排列。
通过步骤(2)的分割处理,Vibe+算法处理后目标监控视频中的每帧视频图像所对应二值化图像的噪点干扰问题能够有效解决,但其依然存在拖影干扰问题。为了进一步解决二值化图像的拖影干扰问题,本发明采用改进MeanShift聚类算法与碎片化卷积神经网络的融合算法,对去噪点分割处理后的各个二值化图像作进一步的去拖影分割处理,具体如步骤(3)所示。
步骤(3):对于所述目标监控视频中的每帧视频图像,根据改进MeanShift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,并获取各个拖影区块在所述视频图像所对应去噪点分割处理后二值化图像的拖影位置坐标,将所述二值化图像中各个拖影位置坐标所对应像素点的像素值确定为0,得到去拖影分割后的二值化图像。
需要说明的是,传统Meanshift聚类算法在计算图像像素点的漂移向量过程中容易产生误差的情况,本发明使用Meanshift聚类算法计算漂移向量时,为了减小误差引入了不同核函数的均值组合模式,即从感兴趣区域中心点出发寻找目标像素点的过程不是单一的数据密度变化为导向,而是加入了以数据密度为基础计算漂移向量的综合均值核函数,构建得到改进Meanshift聚类算法来降低图像像素点的漂移向量计算误差,在一个优选的实施例中,所述改进MeanShift聚类算法包括:在MeanShift聚类算法中引入线性核函数、多项式核函数、高斯核函数、多元二次核函数和Sigmoid核函数的均值组合模式共同对视频图像进行聚类计算,得到所述视频图像对应的各个区域块图像。
其中,线性核函数的表达式为公式(1),多项式核函数的表达式为公式(2),高斯核函数的表达式为公式(3),多元二次核函数的表达式为公式(4),Sigmoid核函数的表达式为公式(5):
在一种可能的实施方式中,所述对于所述目标监控视频中的每帧视频图像,根据改进MeanShift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,包括:
对于所述目标监控视频中的每帧视频图像,采用改进Meanshift聚类算法对所述视频图像进行聚类,得到各个区域块图像;
提取所述视频图像所对应各个区域块图像在L*a*b颜色空间的颜色直方图,以及纹理特征Texton特征直方图,根据各个区域块图像对应的颜色直方图和纹理特征Texton特征直方图训练支持向量机分类器,生成得到所述视频图像所对应的阴影先验分布图;
采用碎片化卷积神经网络对所述视频图像所对应阴影先验分布图中各个区域块图像进行计算,分别得到所述视频图像所对应各个区域块图像的拖影概率预测值,所述碎片化卷积神经网络包括六个卷积层、两个池化层和一个全连接类别输出层,所述碎片化卷积神经网络的输入数据为32×32 区块的区域块图像,输出数据为区域块图像为拖影的拖影概率预测值;
将所述视频图像中拖影概率预测值大于预设概率预测值的区域块图像识别为拖影区块。
需要说明的是,本发明采用的碎片化卷积神经网络在构建后,以各个训练样本图像所对应原始RGB图像和阴影先验分布图作为训练数据获取源,采用拖影区块、非拖影区块、拖影边缘区块作为三种训练图像类型,对所述碎片化卷积神经网络进行训练,得到训练后的碎片化卷积神经网络以进行使用。
其中,改进MeanShift聚类算法的具体计算步骤如下:
a)对于去噪点分割处理后的每个二值化图像,在二值化图像中未被标记的图像像素点中随机选择一个点作为起始中心点Center;
b)将以Center为中心点,半径为Radius的区域范围内出现的所有像素点的类别确定为类别C,同时,在该聚类中记录数据点出现的次数自增1;
c)以Center为中心点,计算从Center开始到集合M中每个元素的向量,将这些向量采用公式(1)~(5)分别计算不同核函数进行低维空间到高位空间的映射结果,在映射后形成的高位空间中计算漂移向量Shift,取五种核函数计算结果的统计后形成的误差最小项作为最后的漂移向量Shift的取值;
e)重复执行步骤b、c、d,重复迭代直到Shift收敛,取该算法迭代到收敛时的Center作为最后的执行结果,此迭代过程中遇到的点都归类到当前簇C中;
f)如果收敛时,当前簇C的Center与其它已经存在的簇C2中心的距离小于阈值,那么把簇C2和簇C合并,数据点出现次数也对应合并,否则,把簇C作为新的聚类;
g)重复执行步骤a、b、c、d、e,直到二值化图像中所有图像像素点都被标记为已访问;
h)分类:根据每个类,对每个点的访问频率,取访问频率最大的那个类,作为当前点集的所属类。
为了便于理解,示出改进Meanshift聚类算法与碎片化卷积神经网络融合算法消除拖影步骤示意图,如图2所示。
通过以上改进Meanshift聚类算法执行后,可形成图2中a所示的聚类结果,即对目标监控视频的每一帧视频图像处理获取分割后的区域块图像a,以每个区域块图像为基础在L*a*b颜色空间提取颜色直方图,然后再提取每一视频帧的纹理特征Texton 直方图,训练支持向量机分类器(SVM),生成分类结果图,即阴影先验分布图,该阴影先验分布图的构建过程如图2中的b所示,结果如图2中c所示。接下来,考虑基于深度卷积神经网络(CNN)结合阴影先验分布图获取精确的拖影识别结果。然而,由于训练CNN 的准确率极大地依赖于大批量的带拖影标注的图像或视频数据样本,现今公开的数据集中并没有大量拖影标注图像,因此考虑采用碎片化卷积神经网络(PCNN)获取批量训练图像。
本发明所采用的拖影特征区域提取方法选用三种类型的训练图像类型:拖影区块、非拖影区块、拖影边缘区块,训练数据获取源是从原始RGB 图像和阴影先验分布图融合结果中获取的,所述碎片化卷积神经网络包括六个卷积层、两个池化层和一个全连接类别输出层,所述碎片化卷积神经网络的输入数据为32×32 区块的区域块图像,输出数据为区域块图像为拖影的拖影概率预测值。然而,PCNN 预测的是局部拖影值,在拖影边界附近区块的预测值较差(如图2中f所示),对于这种情况,本发明在基于各区块区域面积的拖影检测算法基础上,还对PCNN进行了超参数的改进和微调,提出基于各区块边缘像素的拖影检测算法。
在一种可能的实施方式中,基于各区块边缘像素的拖影检测算法的算法步骤可以如下:
第一步,对于目标监控视频中的每帧视频图像,在根据改进MeanShift聚类算法与第一次碎片化卷积神经网络的融合算法识别出该视频图像中的拖影区块,并获取各个拖影区块在视频图像所对应去噪点分割处理后二值化图像的拖影位置坐标,将二值化图像中各个拖影位置坐标所对应像素点的像素值确定为0,得到第一次去拖影分割后的二值化图像(如图2中f所示)后,根据第一次碎片化卷积神经网络计算得到的各个区域块图像为拖影的拖影概率预测值,计算得到视频图像中的各个拖影边缘区块,(这些拖影边缘区块由自然场景下的目标与拖影共同组成且具有离散性,散落在如图2中f所示的图像空间中,在一种可能的实现方式中,将拖影概率预测值大于等于第一预设概率预测值且小于等于预设概率预测值的区域块图像确定为拖影边缘区块)然后将确定出的各个拖影边缘区块再一次导入碎片化卷积神经网络进行计算,采用超参数自适应调整策略对其中的超参数,例如学习率learning rate、样本批次batch-size、卷积核尺寸convolutional kernel size、卷积核数量convolutional kernel numbers和卷积步长convolutional strides,然后选择其中最优的参数,输入碎片化卷积神经网络,并向碎片化卷积神经网络输入大批量无标签的拖影边缘区块进行无监督学习,由碎片化卷积神经网络输出对不同拖影边缘区块的拖影预测值。
第二步:采用聚类分析对不同拖影边缘区块的拖影预测值进行统计分析,将拖影预测值相同的各个拖影边缘区块聚拢为一类,即最小化同类拖影边缘区块之间的距离,最大化不同类拖影边缘区块之间的距离,以此为基础从中寻找最大化的拖影边缘区块分类边界,求出明显的边缘分界曲线。
第三步,采用融合约束函数R(S)对同类拖影边缘区块的图像进行边缘融合,所述融合约束函数的表达式为公式(6):
其中,m为分割区块的数量,α为固定常数项,R(S)表示所包含的区块之间的边界像素集合。
经过最后一步的区块间的边缘融合,即可完整的提取单帧视频图像中的拖影区域部分,从而在第一次去拖影分割后的二值化图像基础(如图2中f所示)上实现进一步的去拖影处理(结果如图2中h所示)。
通过上述步骤可以获取关于视频帧中的所有运动目标的拖影区域的坐标向量,记录并保存这些向量。本发明通过Vibe+运动目标分割算法可以提取完整的运动目标前景图像,其中可能包含有噪点和拖影,经过步骤(2)的处理,可以剔除其中的噪点部分,记此步产生的二值图像为image1;然后,通过步骤(3)的处理,可检测出原始图像中是否包含拖影部分,检测后生成的拖影二值图像记为image2(图像尺寸与image1 相同);最后,提取image2中所有像素值为“1”的像素点坐标向量,把所有出现在image1 中的坐标点所对应的像素值全部置零,即可获取最终的分割结果。
为了便于理解本发明实施例对目标监控视频中各帧视频图像的处理流程,示出如图3所示的处理流程图。
步骤(4):对于去拖影分割后的每个二值化图像,计算所述二值化图像上下左右四个极值点坐标,在所述二值化图像所对应视频图像中根据所述四个极值点坐标确定运动目标图像,实现对所述目标监控视频中运动目标背景的分割。
为了更好地说明本发明实施例所带来的技术效果,取示例视频图像A和示例视频图像B进行测试分析。 需要说明的是,示例视频图像A示出的图像中包括大量高光区域的图像信息,示例视频图像B示出的图像中包括大量运动状态的背景目标信息。
对于示例视频图像A,分别采用Vibe算法、Vibe+算法以及本发明提供的基于改进Vibe+算法的运动目标背景分割方法进行运动目标背景分割处理,得到的处理效果图分别为图4中的A1、A2、A3。显然,经过Vibe算法处理后, A1依然存在较多的噪点,且分割出的前景目标中包括了高光区影响的背景目标;经过Vibe+算法处理后得到的A2虽然噪点现象略微减轻,但噪点现象和前景目标的错误分割现象依然严重,而经本发明提供的基于改进Vibe+算法的运动目标背景分割方法处理分割后得到的A3则能够准确清晰地提取到前景运动目标图像。
对于示例视频图像B,分别采用Vibe算法、Vibe+算法以及本发明提供的基于改进Vibe+算法的运动目标背景分割方法进行运动目标背景分割处理,得到的处理效果图分别为图5中的B1、B2、B3。显然,经过Vibe算法处理后,B1依然存在较多的噪点,且分割出的前景目标中包括了大量拖影;经过Vibe+算法处理后得到的B2虽然噪点现象略微减轻,但噪点现象和拖影现象依然严重,而经本发明提供的基于改进Vibe+算法的运动目标背景分割方法处理分割后得到的B3则能依然够准确清晰地提取到前景运动目标图像,且不存在噪点和拖影问题。
显然,本发明提供的基于改进Vibe+算法的运动目标背景分割方法相较现有Vibe算法、Vibe+算法,其对前景运动目标的分割准确率较高,且受视频图像内容干扰的程度小。因而具备较强的适用性。
进一步地,将本发明提供的基于改进Vibe+算法的运动目标背景分割方法与传统运动目标背景分割算法作性能测试评估,得到的性能评估对比表如表一所示。
表一
通过表一示出的各项算法性能评价数据可以明确得知,本发明提供的基于改进Vibe+算法的运动目标背景分割方法的分割准确率为98.58%,其分割准确率明显高于传统运动目标分割算法的分割准确率。
综上所述,本发明提供的一种基于改进Vibe+算法的运动目标背景分割方法,通过对目标监控视频采用Vibe+算法获取二值化图像,采用基于区域生长的连通域标记法对分割图像中各连通区域进行标记,依据边界面积块差异特征设定面积筛选阈值,将二值化图像中低于面积筛选阈值的连通区域进行删除;并对MeanShift聚类算法改进后,与碎片化卷积神经网络算法融合对分割后的二值化图像中拖影区块、非拖影区块和拖影边缘区块分类识别,标记拖影区块在二值化图像中位置坐标,基于拖影检测结果对二值化图像中各个拖影区域进行快速删除,获取最终的分割结果,达到提高对目标监控视频运动目标的分割准确度和分割效率的技术效果。
需要说明的是,本发明表一中测试用的各传统运动目标背景分割算法所参照文献分别为:
光流法算法参考文献:张艳国,李擎,于飞,刘恒志. 基于多特征融合的空对地目标检测和追踪方法[J]. 电光与控制,2019,26(6) : 7-11.
分水岭算法参考文献: Gamarra, M., Zurek, E., Escalante, H. J.,Hurtado, L., & San-Juan-Vergara, H. (2019). Split and merge watershed: A two-step method for cell segmentation in fluorescence microscopy images.Biomedical Signal Processing and Control, 53(4): 23-29.
背景差分法参考文献:Zhang, Q. Y., Lu, J. C., Wei, H. Y., Zhang, M. Y.,& Duan, H. X. (2015). Dynamic Hand Gesture Segmentation Method Based onUnequal-Probabilities Background Difference and Improved Fcm Algorithm.International Journal of Innovative Computing Information and Control, 11(5),1823-1834.
帧差法参考文献:Kim, D., & Choi, J. (2019). Indirect Time-of-FlightDepth Sensor with Two-Step Comparison Scheme for Depth Frame DifferenceDetection. Sensors, 19(17): 455-462.
水平集法参考文献:
Alarifi, A., & Alwadain, A. (2019). Computer-aided cancerclassification system using a hybrid level-set image segmentation.Measurement, 148.
Chen, Y. J., & Wu, M. L. (2019). A level set method for brain MRimage segmentation under asymmetric distributions. Signal Image and VideoProcessing, 13(7), 1421-1429.
背景更新恢复法参考文献:Chen, T. Y., Chen, T. H., Wang, D. J., &Chiou, Y. C. (2009). Real-Time Video Object Segmentation Algorithm Based onChange Detection and Background Updating. International Journal of InnovativeComputing Information and Control, 5(7), 1797-1810.
Vibe算法参考文献: Barnich, O., & Van Droogenbroeck, M. (2011). ViBe:A Universal Background Subtraction Algorithm for Video Sequences. IEEETransactions on Image Processing, 20(6), 1709-1724.
Vibe+算法参考文献:
Dou, J. F., & Li, J. X. (2013). Moving object detection based onimproved VIBE and graph cut optimization. Optik, 124(23), 6081-6088.
Kryjak, T., Komorkiewicz, M., & Gorgon, M. (2014). Real-timeImplementation of Foreground Object Detection From a Moving Camera Using theViBE Algorithm. Computer Science and Information Systems, 11(4), 1617-1637.
虽然,前文已经用一般性说明、具体实施方式及试验,对本发明做了详尽的描述,但在本发明基础上,可以对之进行修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
本领域技术人员在考虑说明书及实践这里的发明的后,将容易想到本发明的其它实施方案。本发明旨在涵盖本发明的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本发明的一般性原理并包括本发明未公开的本技术领域中的公知常识或惯用技术手段。应当理解的是,本发明并不局限于上面已经描述并在附图中示出的精确结构,并且可以在不脱离其范围进行各种修改和改变。
Claims (5)
1.一种基于改进Vibe+算法的运动目标背景分割方法,其特征在于,所述方法包括:
(1)获取目标监控视频;
(2)对于所述目标监控视频中的每帧视频图像,采用Vibe+运动目标分割算法对所述视频图像进行图像分割得到所述视频图像的二值化图像,再采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,根据各个连通区域的面积数值大小确定面积筛选阈值,对于所述二值化图像中经区域标记处理的每个连通区域,将所述二值化图像中像素值为1的区块面积低于所述面积筛选阈值的连通区域进行删除,得到去噪点分割处理后的二值化图像;
(3)对于所述目标监控视频中的每帧视频图像,根据改进MeanShift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,并获取各个拖影区块在所述视频图像所对应去噪点分割处理后二值化图像的拖影位置坐标,将所述二值化图像中各个拖影位置坐标所对应像素点的像素值确定为0,得到去拖影分割后的二值化图像;
所述改进MeanShift聚类算法包括:在MeanShift聚类算法中引入线性核函数、多项式核函数、高斯核函数、多元二次核函数和Sigmoid核函数的均值组合模式共同对视频图像进行聚类计算,得到所述视频图像对应的各个区域块图像;
所述对于所述目标监控视频中的每帧视频图像,根据改进MeanShift聚类算法与碎片化卷积神经网络的融合算法,对所述视频图像中的拖影区块、非拖影区块和拖影边缘区块进行分类识别,包括:对于所述目标监控视频中的每帧视频图像,采用改进Meanshift聚类算法对所述视频图像进行聚类,得到各个区域块图像;提取所述视频图像所对应各个区域块图像在L*a*b颜色空间的颜色直方图,以及纹理特征Texton特征直方图,根据各个区域块图像对应的颜色直方图和纹理特征Texton特征直方图训练支持向量机分类器,生成得到所述视频图像所对应的阴影先验分布图;采用碎片化卷积神经网络对所述视频图像所对应阴影先验分布图中各个区域块图像进行计算,分别得到所述视频图像所对应各个区域块图像的拖影概率预测值,所述碎片化卷积神经网络包括六个卷积层、两个池化层和一个全连接类别输出层,所述碎片化卷积神经网络的输入数据为32×32 区块的区域块图像,输出数据为区域块图像为拖影的拖影概率预测值;将所述视频图像中拖影概率预测值大于预设概率预测值的区域块图像识别为拖影区块;
(4)对于去拖影分割后的每个二值化图像,计算所述二值化图像上下左右四个极值点坐标,在所述二值化图像所对应视频图像中根据所述四个极值点坐标确定运动目标图像,实现对所述目标监控视频中运动目标背景的分割。
2.根据权利要求1所述的方法,其特征在于,步骤(2)中所述采用基于区域生长的连通域标记法对所述二值化图像中各个连通区域依次进行区域标记,包括:
对于所述二值化图像中的每个像素点,遍历所述像素点周围八邻域内的面积子区块;
当检测到存在相邻像素点周围八邻域内的面积子区块与所述像素点周围八邻域内的面积子区块相连通时,将所述像素点周围八邻域内的面积子区块与各个相邻像素点周围八邻域内的面积子区块共同确定为连通区域;
按照连通区域的确定先后顺序,对各个连通区域依次进行区域标记。
3.根据权利要求1所述的方法,其特征在于,步骤(2)中所述根据各个连通区域的面积数值大小确定面积筛选阈值,包括:
计算各个连通区域的面积数值;
将各个连通区域的面积数值存入向量Vec1中;
将向量Vec1中的各个面积数值按照从大到小的顺序依次排列,依次计算各相邻面积数值之间的面积差值,并将各个面积差值存入向量Vec2中;
确定向量Vec2中最大的面积差值所对应的二个面积数值,将所述二个面积数值的平均值确定为面积筛选阈值。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
构建碎片化卷积神经网络,以各个训练样本图像所对应原始RGB图像和阴影先验分布图作为训练数据获取源,采用拖影区块、非拖影区块、拖影边缘区块作为三种训练图像类型,对所述碎片化卷积神经网络进行训练,得到训练后的碎片化卷积神经网络。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911298423.5A CN110992381B (zh) | 2019-12-17 | 2019-12-17 | 一种基于改进Vibe+算法的运动目标背景分割方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201911298423.5A CN110992381B (zh) | 2019-12-17 | 2019-12-17 | 一种基于改进Vibe+算法的运动目标背景分割方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110992381A CN110992381A (zh) | 2020-04-10 |
CN110992381B true CN110992381B (zh) | 2023-06-23 |
Family
ID=70094618
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201911298423.5A Active CN110992381B (zh) | 2019-12-17 | 2019-12-17 | 一种基于改进Vibe+算法的运动目标背景分割方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110992381B (zh) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111539879B (zh) * | 2020-04-15 | 2023-04-14 | 清华大学深圳国际研究生院 | 基于深度学习的视频盲去噪方法及装置 |
CN111767939B (zh) * | 2020-05-11 | 2023-03-10 | 浙江大学 | 一种水下声呐系统目标提取方法 |
CN111783524B (zh) * | 2020-05-19 | 2023-10-17 | 普联国际有限公司 | 一种场景变换检测方法、装置、存储介质及终端设备 |
CN112419329A (zh) * | 2020-06-03 | 2021-02-26 | 中煤华晋集团有限公司王家岭矿 | 一种基于matlab的散体相似模拟顶煤运移监测方法 |
CN112102353B (zh) * | 2020-08-27 | 2024-06-07 | 普联国际有限公司 | 运动目标的分类方法、装置、设备及存储介质 |
CN112508989B (zh) * | 2020-11-20 | 2024-03-01 | 腾讯科技(深圳)有限公司 | 一种图像处理方法、装置、服务器以及介质 |
CN112508968B (zh) * | 2020-12-10 | 2022-02-15 | 马鞍山市瀚海云星科技有限责任公司 | 图像分割方法、装置、系统及存储介质 |
CN112529918B (zh) * | 2020-12-23 | 2024-02-27 | 沈阳东软智能医疗科技研究院有限公司 | 一种脑部ct图像中脑室区域分割的方法、装置及设备 |
CN114136274A (zh) * | 2021-10-29 | 2022-03-04 | 杭州中科睿鉴科技有限公司 | 基于计算机视觉的站台限界测量方法 |
CN114862894A (zh) * | 2022-03-25 | 2022-08-05 | 哈尔滨工程大学 | 一种基于多线索融合的手部分割方法 |
CN116188719B (zh) * | 2023-04-27 | 2023-11-17 | 中地云智慧科技有限公司 | 一种实景三维数据的碎片去除方法 |
CN117115097B (zh) * | 2023-08-14 | 2024-05-28 | 哈尔滨市科佳通用机电股份有限公司 | 基于异常检测的teds检测方法及系统 |
CN117252903B (zh) * | 2023-11-10 | 2024-04-05 | 山东通广电子股份有限公司 | 基于图像处理的运动区域提取方法及系统 |
CN117372967B (zh) * | 2023-12-06 | 2024-03-26 | 广东申创光电科技有限公司 | 基于物联网智慧路灯的远程监控方法、装置、设备及介质 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106096531A (zh) * | 2016-05-31 | 2016-11-09 | 安徽省云力信息技术有限公司 | 一种基于深度学习的交通图像多类型车辆检测方法 |
CN108198207A (zh) * | 2017-12-22 | 2018-06-22 | 湖南源信光电科技股份有限公司 | 基于改进的Vibe模型和BP神经网络的多运动目标跟踪方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8195598B2 (en) * | 2007-11-16 | 2012-06-05 | Agilence, Inc. | Method of and system for hierarchical human/crowd behavior detection |
-
2019
- 2019-12-17 CN CN201911298423.5A patent/CN110992381B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106096531A (zh) * | 2016-05-31 | 2016-11-09 | 安徽省云力信息技术有限公司 | 一种基于深度学习的交通图像多类型车辆检测方法 |
CN108198207A (zh) * | 2017-12-22 | 2018-06-22 | 湖南源信光电科技股份有限公司 | 基于改进的Vibe模型和BP神经网络的多运动目标跟踪方法 |
Non-Patent Citations (1)
Title |
---|
彭宁嵩,等.Mean-Shift跟踪算法中核函数窗宽的自动选取.《软件学报》.2005,全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN110992381A (zh) | 2020-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110992381B (zh) | 一种基于改进Vibe+算法的运动目标背景分割方法 | |
Zhao et al. | Cloud shape classification system based on multi-channel cnn and improved fdm | |
CN113780259B (zh) | 一种路面缺陷检测方法、装置、电子设备和可读存储介质 | |
CN112418117B (zh) | 一种基于无人机图像的小目标检测方法 | |
CN108304873B (zh) | 基于高分辨率光学卫星遥感影像的目标检测方法及其系统 | |
CN109859171B (zh) | 一种基于计算机视觉和深度学习的楼面缺陷自动检测方法 | |
CN108304798B (zh) | 基于深度学习及运动一致性的街面秩序事件视频检测方法 | |
CN110009665B (zh) | 一种遮挡环境下的目标检测跟踪方法 | |
CN105513066B (zh) | 一种基于种子点选取与超像素融合的通用物体检测方法 | |
CN112036231B (zh) | 一种基于车载视频的车道线和路面指示标志检测与识别方法 | |
CN112069985B (zh) | 基于深度学习的高分辨率大田图像稻穗检测与计数方法 | |
CN110717896A (zh) | 基于显著性标签信息传播模型的板带钢表面缺陷检测方法 | |
CN103886619A (zh) | 一种融合多尺度超像素的目标跟踪方法 | |
CN113112498B (zh) | 一种基于细粒度对抗生成网络的葡萄叶片病斑识别方法 | |
CN108509950B (zh) | 基于概率特征加权融合的铁路接触网支柱号牌检测识别法 | |
CN110782487A (zh) | 一种基于改进的粒子滤波算法的目标跟踪方法 | |
Tareef et al. | Automated three-stage nucleus and cytoplasm segmentation of overlapping cells | |
CN106157330A (zh) | 一种基于目标联合外观模型的视觉跟踪方法 | |
CN109886271A (zh) | 融合深度学习网络和改进边缘检测的图像精确分割方法 | |
CN113177927A (zh) | 基于多特征和多分类器的骨髓细胞分类识别方法及系统 | |
CN111868783B (zh) | 基于边界提取的区域合并图像分割算法 | |
Ding et al. | Classification of chromosome karyotype based on faster-rcnn with the segmatation and enhancement preprocessing model | |
Ju et al. | A novel fully convolutional network based on marker-controlled watershed segmentation algorithm for industrial soot robot target segmentation | |
CN117636268A (zh) | 一种面向冰雪环境的无人机航拍自然驾驶数据集构建方法 | |
CN112330706A (zh) | 矿井人员安全帽分割方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |