CN111882543A - 一种基于AA R2Unet和HMM的香烟滤棒计数方法 - Google Patents
一种基于AA R2Unet和HMM的香烟滤棒计数方法 Download PDFInfo
- Publication number
- CN111882543A CN111882543A CN202010741400.3A CN202010741400A CN111882543A CN 111882543 A CN111882543 A CN 111882543A CN 202010741400 A CN202010741400 A CN 202010741400A CN 111882543 A CN111882543 A CN 111882543A
- Authority
- CN
- China
- Prior art keywords
- matrix
- filter stick
- hmm
- matching
- filter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 31
- 235000019504 cigarettes Nutrition 0.000 title claims abstract description 17
- 238000001514 detection method Methods 0.000 claims abstract description 9
- 238000004422 calculation algorithm Methods 0.000 claims abstract description 6
- 238000012549 training Methods 0.000 claims abstract description 6
- 239000011159 matrix material Substances 0.000 claims description 52
- 238000004364 calculation method Methods 0.000 claims description 24
- 230000006870 function Effects 0.000 claims description 9
- 230000007704 transition Effects 0.000 claims description 9
- 238000010586 diagram Methods 0.000 claims description 8
- 230000003416 augmentation Effects 0.000 claims description 7
- 238000002474 experimental method Methods 0.000 claims description 6
- 230000007246 mechanism Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 4
- 238000010845 search algorithm Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000012512 characterization method Methods 0.000 claims description 3
- 238000013461 design Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 claims description 3
- 238000007619 statistical method Methods 0.000 claims description 3
- 230000009466 transformation Effects 0.000 claims description 3
- 230000008602 contraction Effects 0.000 claims description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/143—Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30242—Counting objects in image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Probability & Statistics with Applications (AREA)
- Quality & Reliability (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于AA R2Unet和HMM的香烟滤棒计数方法,本发明利用U‑net网络模型进行训练,准确识别滤棒目标和背景。因此,根据识别出的二值化图像,提出了滤棒分布特征的结构单元填充和圆切线搜索策略,实验结果表明,该算法在检测精度和检测范围上都取得了很大的进步。
Description
技术领域
本发明涉及香烟滤棒计数技术领域,具体为一种基于AA R2Unet和HMM的香烟滤棒计数方法。
背景技术
工业现场常常需要对复杂环境下密集小目标进行精确识别。实际生产中对于批量识别还是采用精度较低的随机抽样人工识别保证质量规格一致。批量密集目标识别,常常会遇到目标间粘连、目标与背景对比度低、目标遭到阴影遮挡、相机视场畸变等问题。这些问题严重影响图像识别精度,且现在主流识别方法都不能很好的解决。
发明内容
本发明的目的在于提供一种基于AA R2Unet和HMM的香烟滤棒计数方法,以解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:一种基于AA R2Unet和HMM的香烟滤棒计数方法,包括以下步骤:
A、建立AA R2Unet网络对采集的滤棒图片进行目标分割,获取仅包含滤棒目标的图像;
B、基于HMM的优化搜索算法;
C、采用结构元填充的方法对滤棒目标进行计数。
优选的,所述步骤A中,在Unet中加入了R2模块与Attention Augment模块;其中,Unet结构总体呈对称的U型结构,在设计时共包含12个单元(F1-F12),其中左侧F1-F6为收缩路径,主要用于特征的提取;右侧F6-F12为扩张路径,用于细节的恢复实现精准预测;R2模块主要包括了残差学习单元(Residual learning unit)和递归卷积(Recurrentconvolution)。图3中的递归卷积表示在t=0,t=1,t=2时刻以前一层的输出作为输入进行卷积并将结果相加。
优选的,所述Attention Augment本质为通过查询得到一系列键-值对的映射;首先,通过对输入大小为(w,h,cin)的特征图进行1×1卷积输出QKV矩阵,其大小为(w,h,2*dk+dv),其中w、h、2*dk+dV分别表示了矩阵的宽、长与深度;再从深度通道上对QKV矩阵进行分割,得到Q(Query)、K(Key)、V(Value)三个矩阵其深度通道大小分别为dk、dk、dv。接着,采用了多头注意力机制(Multi-Head Attention)的结构,将Q、K、V三个矩阵分别从深度通道上分割为N个相等的矩阵进行后续的计算,这种多头注意力机制将原本单一的attention计算,扩展为较小且并行独立的多个计算,使得模型可以在不同的子空间内学习特征信息。
优选的,对于分割好的Q、K、V矩阵在进行扁平化处理生成Flat_Q、Flat_K、Flat_V三个矩阵,即对Q、K、V保持深度通道不变,从长宽方向对其进行压缩到1维,其中前两个矩阵的大小为(w*h,dk),后一个矩阵大小为(w*h,dv);接着,Attention Augment保存了原先Self-Attention的做法使用Flat_Q、Flat_K两矩阵进行矩阵乘法运算,计算出权重矩阵,且在此基础上添加了相对位置嵌入的计算,通过对Q矩阵进行长宽两方向的权重计算得到特征图上每个点的相对位置信息,防止特征位置的变换而降低模型的最终效果;长宽两方向的相关位置信息分别通过Q矩阵与权重矩阵H和W内积得到,记为Sh和Sw,其中权重矩阵H和W通过模型的训练得出,大小为(wh,wh,1)。然后,将得到的三个矩阵相加并乘以尺度系数以防止计算结果过大;随后用softmax函数进行处理,即得到了最终的特征权重矩阵;最后,将该权重矩阵与V矩阵相乘并将结果reshape到原始长宽大小,再进行1×1的卷积操作,即可得到最终的注意力特征矩阵O;将注意力特征矩阵O和正常的卷积过程按深度方向进行拼接(concat)即可得到Attention Augment的结果;注意力特征矩阵O的计算公式如下:
优选的,所述步骤B中,对已找到的圆心作为基准圆心,以d为半径拟合一个圆;再以半径2/3d拟合一个同心圆,记为圆B,对圆A与圆B组成的圆环区域所有像素进行分析;根据滤棒之间位置几何关系,对基准圆心0°±15°、60°±15°、120°±15°、180°±15°、240°±15°、300°±15°方向上的圆环区域像素点进行结构元检测;将检测到的6个方向上符合结构元准则的第一个像素点作为下一个滤棒目标的初始结构元位置。
优选的,在面对不同区域内所设置的半径d不同,使用高斯函数来评价滤棒之间距离差异,即有:
其中为常数2.3,▽gn表示当前滤棒目标的半径值即:
其中(x,y)为当前滤棒目标的中心位置坐标,(x0,y0)为当前滤棒匹配初始点坐标;通过循环计算d的值,在6个方向上优先从d距离开始搜索匹配。
优选的,为了优化匹配效率,采用隐式马尔科夫链对6个方向进行提前预测;由于方向作为待预测值,故将其设为HMM的隐藏链,而x值的数据可以通过不断计算进行收集,记为HMM的观测链,其预测结构滤棒匹配方向状态表示为:
S={S1,S2,...,Sm},m=6
历史滤棒匹配方向序列X与之对应的方向距离序列Y,利用极大然司法计算模型参数;滤棒各个方向状态初始概率的数学表达式记为:
π={π1,π2,...,πm},m=6
其中表示滤棒匹配方向在状态的初始概率。
经过统计分析可以得出任意的状态出现的次数为,经过一步转移的匹配的方向状态到另一方向状态,则状态转移概率为:
将所有滤棒匹配方向状态的一步转移概率以矩阵的形式列出,则会得到一个的一步转移概率矩阵:
由于计算x属于随机变量,选用CHMM进行滤棒匹配方向预测;通过大量实验发现,滤棒匹配方向状态对应的距离x服从高斯分布;状态所对应的距离x数据点个数记为
因为历史匹配方向状态序列X与对应的Y存在一一对应的关系,所以给定距离x,则滤棒匹配方向状态对应的距离x的高斯密度函数的均值和方差为:
由于不同方向状态xk对应的距离x计算得到的均值μi和方差σi 2不同,所以在同一距离对应不同方向状态发生概率也不同,给定距离xk,其发生概率为:
根据Viterbi算法,只需要使
概率最大,实现对下一步滤棒匹配方向的概率预测;同时,选择概率最大的方向优先进行匹配操作。
优选的,所述步骤C中,通过大量实验对比15-45像素大小的结构元,对二值化结果计数精度影响;发现采用5x5的矩形结构元计数有最加效果;通过每个结构元中心构建出一个几何图形,此几何图形的中心即为滤棒目标中心;通过精确定位滤棒中心,能够准确对滤棒数量进行计算;通过观察大量采集到的图像发现,一个滤棒目标周围最多存在6个相邻滤棒。
与现有技术相比,本发明的有益效果是:本发明利用U-net网络模型进行训练,准确识别滤棒目标和背景。因此,根据识别出的二值化图像,提出了滤棒分布特征的结构单元填充和圆切线搜索策略,实验结果表明,该算法在检测精度和检测范围上都取得了很大的进步。
附图说明
图1是本发明实施例提供的一种AA R2Unet和HMM的烟滤棒分割方法的示意性流程图;
图2是本发明实施例提供的一种AA R2Unet结构示意图;
图3是本发明实施例提供的一种R2模块结构示意图;
图4是本发明实施例提供的一种Attention Augment结构示意图;
图5是本发明实施例提供的一种HMM优化搜索算法示意图;
图6是本发明实施例提供的一种结构元匹配策略示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
请参阅图1-6,本发明提供一种技术方案:本发明提供如下技术方案:一种基于AAR2Unet和HMM的香烟滤棒计数方法,包括以下步骤:
A、建立AA R2Unet网络对采集的滤棒图片进行目标分割,获取仅包含滤棒目标的图像;
B、基于HMM的优化搜索算法;
C、采用结构元填充的方法对滤棒目标进行计数。
本发明中,步骤A中,在Unet中加入了R2模块与Attention Augment模块;其中,Unet结构总体呈对称的U型结构,在设计时共包含12个单元(F1-F12),其中左侧F1-F6为收缩路径,主要用于特征的提取;右侧F6-F12为扩张路径,用于细节的恢复实现精准预测;R2模块主要包括了残差学习单元(Residual learning unit)和递归卷积(Recurrentconvolution)。图3中的递归卷积表示在t=0,t=1,t=2时刻以前一层的输出作为输入进行卷积并将结果相加;所述Attention Augment本质为通过查询得到一系列键-值对的映射;首先,通过对输入大小为(w,h,cin)的特征图进行1×1卷积输出QKV矩阵,其大小为(w,h,2*dk+dv),其中w、h、2*dk+dV分别表示了矩阵的宽、长与深度;再从深度通道上对QKV矩阵进行分割,得到Q(Query)、K(Key)、V(Value)三个矩阵其深度通道大小分别为dk、dk、dv。接着,采用了多头注意力机制(Multi-Head Attention)的结构,将Q、K、V三个矩阵分别从深度通道上分割为N个相等的矩阵进行后续的计算,这种多头注意力机制将原本单一的attention计算,扩展为较小且并行独立的多个计算,使得模型可以在不同的子空间内学习特征信息;对于分割好的Q、K、V矩阵在进行扁平化处理生成Flat_Q、Flat_K、Flat_V三个矩阵,即对Q、K、V保持深度通道不变,从长宽方向对其进行压缩到1维,其中前两个矩阵的大小为(w*h,dk),后一个矩阵大小为(w*h,dv);接着,Attention Augment保存了原先Self-Attention的做法使用Flat_Q、Flat_K两矩阵进行矩阵乘法运算,计算出权重矩阵,且在此基础上添加了相对位置嵌入的计算,通过对Q矩阵进行长宽两方向的权重计算得到特征图上每个点的相对位置信息,防止特征位置的变换而降低模型的最终效果;长宽两方向的相关位置信息分别通过Q矩阵与权重矩阵H和W内积得到,记为Sh和Sw,其中权重矩阵H和W通过模型的训练得出,大小为(wh,wh,1)。然后,将得到的三个矩阵相加并乘以尺度系数以防止计算结果过大;随后用softmax函数进行处理,即得到了最终的特征权重矩阵;最后,将该权重矩阵与V矩阵相乘并将结果reshape到原始长宽大小,再进行1×1的卷积操作,即可得到最终的注意力特征矩阵O;将注意力特征矩阵O和正常的卷积过程按深度方向进行拼接(concat)即可得到Attention Augment的结果;注意力特征矩阵O的计算公式如下:
优选的,所述步骤B中,对已找到的圆心作为基准圆心,以d为半径拟合一个圆;再以半径2/3d拟合一个同心圆,记为圆B,对圆A与圆B组成的圆环区域所有像素进行分析;根据滤棒之间位置几何关系,对基准圆心0°±15°、60°±15°、120°±15°、180°±15°、240°±15°、300°±15°方向上的圆环区域像素点进行结构元检测;将检测到的6个方向上符合结构元准则的第一个像素点作为下一个滤棒目标的初始结构元位置。
本发明中,在面对不同区域内所设置的半径d不同,使用高斯函数来评价滤棒之间距离差异,即有:
其中为常数2.3,▽gn表示当前滤棒目标的半径值即:
其中(x,y)为当前滤棒目标的中心位置坐标,(x0,y0)为当前滤棒匹配初始点坐标;通过循环计算d的值,在6个方向上优先从d距离开始搜索匹配;为了优化匹配效率,采用隐式马尔科夫链对6个方向进行提前预测;由于方向作为待预测值,故将其设为HMM的隐藏链,而x值的数据可以通过不断计算进行收集,记为HMM的观测链,其预测结构滤棒匹配方向状态表示为:
S={S1,S2,...,Sm},m=6
历史滤棒匹配方向序列X与之对应的方向距离序列Y,利用极大然司法计算模型参数;滤棒各个方向状态初始概率的数学表达式记为:
π={π1,π2,...,πm},m=6
其中表示滤棒匹配方向在状态的初始概率。
经过统计分析可以得出任意的状态出现的次数为,经过一步转移的匹配的方向状态到另一方向状态,则状态转移概率为:
将所有滤棒匹配方向状态的一步转移概率以矩阵的形式列出,则会得到一个的一步转移概率矩阵:
由于计算x属于随机变量,选用CHMM进行滤棒匹配方向预测;通过大量实验发现,滤棒匹配方向状态对应的距离x服从高斯分布;状态所对应的距离x数据点个数记为
因为历史匹配方向状态序列X与对应的Y存在一一对应的关系,所以给定距离x,则滤棒匹配方向状态对应的距离x的高斯密度函数的均值和方差为:
由于不同方向状态xk对应的距离x计算得到的均值μi和方差σi 2不同,所以在同一距离对应不同方向状态发生概率也不同,给定距离xk,其发生概率为:
根据Viterbi算法,只需要使
概率最大,实现对下一步滤棒匹配方向的概率预测;同时,选择概率最大的方向优先进行匹配操作。
本发明中,步骤C中,通过大量实验对比15-45像素大小的结构元,对二值化结果计数精度影响;发现采用5x5的矩形结构元计数有最加效果;通过每个结构元中心构建出一个几何图形,此几何图形的中心即为滤棒目标中心;通过精确定位滤棒中心,能够准确对滤棒数量进行计算;通过观察大量采集到的图像发现,一个滤棒目标周围最多存在6个相邻滤棒。
本发明对感兴趣区域按照遍历像素点的方式初始匹配寻找第一个结构元位置;对已检测到的结构元本文按照竖直方向与水平方向,小范围搜索以确定单个滤棒目标的边缘位置。本文在确定单个滤棒目标时,以纵向移动为首要定位移动方向。即在已找到的结构元基础上首先进行上下移动,当移动位置超限时开始次要移动方向即水平方向;当在纵方向上有最大取值的同时水平方向取最大值时,此时结构元一定位于滤棒目标最下端。同理可知,单个滤棒目标最上端、最左端、最右端分别对应竖直方向最小值、水平方向最小、水平方向最大。
综上所述,本发明利用U-net网络模型进行训练,准确识别滤棒目标和背景。因此,根据识别出的二值化图像,提出了滤棒分布特征的结构单元填充和圆切线搜索策略,实验结果表明,该算法在检测精度和检测范围上都取得了很大的进步。
本发明未详述之处,均为本领域技术人员的公知技术。
对于本领域技术人员而言,显然本发明不限于上述示范性实施例的细节,而且在不背离本发明的精神或基本特征的情况下,能够以其他的具体形式实现本发明。因此,无论从哪一点来看,均应将实施例看作是示范性的,而且是非限制性的,本发明的范围由所附权利要求而不是上述说明限定,因此旨在将落在权利要求的等同要件的含义和范围内的所有变化囊括在本发明内。不应将权利要求中的任何附图标记视为限制所涉及的权利要求。
Claims (8)
1.一种基于AA R2Unet和HMM的香烟滤棒计数方法,其特征在于:包括以下步骤:
A、建立AA R2Unet网络对采集的滤棒图片进行目标分割,获取仅包含滤棒目标的图像;
B、基于HMM的优化搜索算法;
C、采用结构元填充的方法对滤棒目标进行计数。
2.根据权利要求1所述的一种基于AA R2Unet和HMM的香烟滤棒计数方法,其特征在于:所述步骤A中,在Unet中加入了R2模块与Attention Augment模块;其中,Unet结构总体呈对称的U型结构,在设计时共包含12个单元(F1-F12),其中左侧F1-F6为收缩路径,主要用于特征的提取;右侧F6-F12为扩张路径,用于细节的恢复实现精准预测;R2模块主要包括了残差学习单元(Residual learning unit)和递归卷积(Recurrent convolution)。图3中的递归卷积表示在t=0,t=1,t=2时刻以前一层的输出作为输入进行卷积并将结果相加。
3.根据权利要求2所述的一种基于AA R2Unet和HMM的香烟滤棒计数方法,其特征在于:所述Attention Augment本质为通过查询得到一系列键-值对的映射;首先,通过对输入大小为(w,h,cin)的特征图进行1×1卷积输出QKV矩阵,其大小为(w,h,2*dk+dv),其中w、h、2*dk+dV分别表示了矩阵的宽、长与深度;再从深度通道上对QKV矩阵进行分割,得到Q(Query)、K(Key)、V(Value)三个矩阵其深度通道大小分别为dk、dk、dv。接着,采用了多头注意力机制(Multi-Head Attention)的结构,将Q、K、V三个矩阵分别从深度通道上分割为N个相等的矩阵进行后续的计算,这种多头注意力机制将原本单一的attention计算,扩展为较小且并行独立的多个计算,使得模型可以在不同的子空间内学习特征信息。
4.根据权利要求3所述的一种基于AA R2Unet和HMM的香烟滤棒计数方法,其特征在于:对于分割好的Q、K、V矩阵在进行扁平化处理生成Flat_Q、Flat_K、Flat_V三个矩阵,即对Q、K、V保持深度通道不变,从长宽方向对其进行压缩到1维,其中前两个矩阵的大小为(w*h,dk),后一个矩阵大小为(w*h,dv);接着,Attention Augment保存了原先Self-Attention的做法使用Flat_Q、Flat_K两矩阵进行矩阵乘法运算,计算出权重矩阵,且在此基础上添加了相对位置嵌入的计算,通过对Q矩阵进行长宽两方向的权重计算得到特征图上每个点的相对位置信息,防止特征位置的变换而降低模型的最终效果;长宽两方向的相关位置信息分别通过Q矩阵与权重矩阵H和W内积得到,记为Sh和Sw,其中权重矩阵H和W通过模型的训练得出,大小为(wh,wh,1)。然后,将得到的三个矩阵相加并乘以尺度系数以防止计算结果过大;随后用softmax函数进行处理,即得到了最终的特征权重矩阵;最后,将该权重矩阵与V矩阵相乘并将结果reshape到原始长宽大小,再进行1×1的卷积操作,即可得到最终的注意力特征矩阵O;将注意力特征矩阵O和正常的卷积过程按深度方向进行拼接(concat)即可得到Attention Augment的结果;注意力特征矩阵O的计算公式如下:
5.根据权利要求1所述的一种基于AA R2Unet和HMM的香烟滤棒计数方法,其特征在于:所述步骤B中,对已找到的圆心作为基准圆心,以d为半径拟合一个圆;再以半径2/3d拟合一个同心圆,记为圆B,对圆A与圆B组成的圆环区域所有像素进行分析;根据滤棒之间位置几何关系,对基准圆心0°±15°、60°±15°、120°±15°、180°±15°、240°±15°、300°±15°方向上的圆环区域像素点进行结构元检测;将检测到的6个方向上符合结构元准则的第一个像素点作为下一个滤棒目标的初始结构元位置。
7.根据权利要求6所述的一种基于AA R2Unet和HMM的香烟滤棒计数方法,其特征在于:为了优化匹配效率,采用隐式马尔科夫链对6个方向进行提前预测;由于方向作为待预测值,故将其设为HMM的隐藏链,而x值的数据可以通过不断计算进行收集,记为HMM的观测链,其预测结构滤棒匹配方向状态表示为:
S={S1,S2,...,Sm},m=6
历史滤棒匹配方向序列X与之对应的方向距离序列Y,利用极大然司法计算模型参数;滤棒各个方向状态初始概率的数学表达式记为:
π={π1,π2,...,πm},m=6
其中表示滤棒匹配方向在状态的初始概率。
经过统计分析可以得出任意的状态出现的次数为,经过一步转移的匹配的方向状态到另一方向状态,则状态转移概率为:
将所有滤棒匹配方向状态的一步转移概率以矩阵的形式列出,则会得到一个的一步转移概率矩阵:
由于计算x属于随机变量,选用CHMM进行滤棒匹配方向预测;通过大量实验发现,滤棒匹配方向状态对应的距离x服从高斯分布;状态所对应的距离x数据点个数记为
因为历史匹配方向状态序列X与对应的Y存在一一对应的关系,所以给定距离x,则滤棒匹配方向状态对应的距离x的高斯密度函数的均值和方差为:
根据Viterbi算法,只需要使
概率最大,实现对下一步滤棒匹配方向的概率预测;同时,选择概率最大的方向优先进行匹配操作。
8.根据权利要求1所述的一种基于AA R2Unet和HMM的香烟滤棒计数方法,其特征在于:所述步骤C中,通过大量实验对比15-45像素大小的结构元,对二值化结果计数精度影响;发现采用5x5的矩形结构元计数有最加效果;通过每个结构元中心构建出一个几何图形,此几何图形的中心即为滤棒目标中心;通过精确定位滤棒中心,能够准确对滤棒数量进行计算;通过观察大量采集到的图像发现,一个滤棒目标周围最多存在6个相邻滤棒。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010741400.3A CN111882543B (zh) | 2020-07-29 | 2020-07-29 | 一种基于AA R2Unet和HMM的香烟滤棒计数方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010741400.3A CN111882543B (zh) | 2020-07-29 | 2020-07-29 | 一种基于AA R2Unet和HMM的香烟滤棒计数方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111882543A true CN111882543A (zh) | 2020-11-03 |
CN111882543B CN111882543B (zh) | 2023-12-26 |
Family
ID=73201947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010741400.3A Active CN111882543B (zh) | 2020-07-29 | 2020-07-29 | 一种基于AA R2Unet和HMM的香烟滤棒计数方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111882543B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113805151A (zh) * | 2021-08-17 | 2021-12-17 | 青岛本原微电子有限公司 | 基于注意力机制的中重频雷达目标检测方法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11224339A (ja) * | 1998-02-06 | 1999-08-17 | Fuji Xerox Co Ltd | 画像領域分割方法および画像領域分割装置 |
CN101840571A (zh) * | 2010-03-30 | 2010-09-22 | 杭州电子科技大学 | 一种基于视频图像的火焰检测方法 |
CN102087744A (zh) * | 2010-02-25 | 2011-06-08 | 上海海事大学 | 海洋动态背景下视频小目标快速检测的结构张量方法 |
CN103761748A (zh) * | 2013-12-31 | 2014-04-30 | 北京邮电大学 | 异常行为检测方法和装置 |
CN107221333A (zh) * | 2016-03-21 | 2017-09-29 | 中兴通讯股份有限公司 | 一种身份认证的方法和装置 |
CN107578416A (zh) * | 2017-09-11 | 2018-01-12 | 武汉大学 | 一种由粗到精级联深度网络的心脏左心室全自动分割方法 |
CN108564590A (zh) * | 2018-04-20 | 2018-09-21 | 上海理工大学 | 一种基于心脏磁共振电影短轴图像的右心室多图谱分割方法 |
CN108765296A (zh) * | 2018-06-12 | 2018-11-06 | 桂林电子科技大学 | 一种基于递归残差注意力网络的图像超分辨率重建方法 |
CN110221346A (zh) * | 2019-07-08 | 2019-09-10 | 西南石油大学 | 一种基于残差块全卷积神经网络的数据噪声压制方法 |
CN110546655A (zh) * | 2017-05-04 | 2019-12-06 | 牛津楠路珀尔科技有限公司 | 纳米孔测量结果的机器学习分析 |
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
KR20200079748A (ko) * | 2018-12-26 | 2020-07-06 | (주)소프트젠 | 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법 |
-
2020
- 2020-07-29 CN CN202010741400.3A patent/CN111882543B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11224339A (ja) * | 1998-02-06 | 1999-08-17 | Fuji Xerox Co Ltd | 画像領域分割方法および画像領域分割装置 |
CN102087744A (zh) * | 2010-02-25 | 2011-06-08 | 上海海事大学 | 海洋动态背景下视频小目标快速检测的结构张量方法 |
CN101840571A (zh) * | 2010-03-30 | 2010-09-22 | 杭州电子科技大学 | 一种基于视频图像的火焰检测方法 |
CN103761748A (zh) * | 2013-12-31 | 2014-04-30 | 北京邮电大学 | 异常行为检测方法和装置 |
CN107221333A (zh) * | 2016-03-21 | 2017-09-29 | 中兴通讯股份有限公司 | 一种身份认证的方法和装置 |
CN110546655A (zh) * | 2017-05-04 | 2019-12-06 | 牛津楠路珀尔科技有限公司 | 纳米孔测量结果的机器学习分析 |
CN107578416A (zh) * | 2017-09-11 | 2018-01-12 | 武汉大学 | 一种由粗到精级联深度网络的心脏左心室全自动分割方法 |
CN108564590A (zh) * | 2018-04-20 | 2018-09-21 | 上海理工大学 | 一种基于心脏磁共振电影短轴图像的右心室多图谱分割方法 |
CN108765296A (zh) * | 2018-06-12 | 2018-11-06 | 桂林电子科技大学 | 一种基于递归残差注意力网络的图像超分辨率重建方法 |
KR20200079748A (ko) * | 2018-12-26 | 2020-07-06 | (주)소프트젠 | 발달장애인의 언어 훈련을 위한 가상현실 교육 시스템 및 방법 |
CN110221346A (zh) * | 2019-07-08 | 2019-09-10 | 西南石油大学 | 一种基于残差块全卷积神经网络的数据噪声压制方法 |
CN111192200A (zh) * | 2020-01-02 | 2020-05-22 | 南京邮电大学 | 基于融合注意力机制残差网络的图像超分辨率重建方法 |
Non-Patent Citations (7)
Title |
---|
JIANXIN ZHANG 等: "Attention Gate ResU-Net for Automatic MRI Brain Tumor Segmentation", 《IEEE ACCESS》, pages 58533 - 58545 * |
张堃 等: "大视场大规模目标精确检测算法应用研究", 《仪器仪表学报》, pages 191 - 199 * |
张筱;张巍;王文浩;万永菁;: "基于多谱特征生成对抗网络的语音转换算法", 计算机工程与科学, no. 05 * |
杜丽娟;路晓亚;: "低重合度图像多视点纹理特征自动配准仿真", 计算机仿真, no. 05 * |
田启川;孟颖;: "卷积神经网络图像语义分割技术", 小型微型计算机系统, no. 06 * |
罗仁泽;李阳阳;: "一种基于RUnet卷积神经网络的地震资料随机噪声压制方法", 石油物探, no. 01 * |
高华;: "关于古建筑图像中破损点优化提取仿真", 计算机仿真, no. 11 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113805151A (zh) * | 2021-08-17 | 2021-12-17 | 青岛本原微电子有限公司 | 基于注意力机制的中重频雷达目标检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN111882543B (zh) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110232350B (zh) | 一种基于在线学习的实时水面多运动目标检测跟踪方法 | |
CN108647577B (zh) | 一种自适应难例挖掘的行人重识别方法与系统 | |
CN107633226B (zh) | 一种人体动作跟踪特征处理方法 | |
CN106228185B (zh) | 一种基于神经网络的通用图像分类识别系统及方法 | |
CN113516012B (zh) | 一种基于多层级特征融合的行人重识别方法及系统 | |
CN110120064B (zh) | 一种基于互强化与多注意机制学习的深度相关目标跟踪算法 | |
CN107368845A (zh) | 一种基于优化候选区域的Faster R‑CNN目标检测方法 | |
CN112884742B (zh) | 一种基于多算法融合的多目标实时检测、识别及跟踪方法 | |
CN113449594A (zh) | 一种多层网络组合的遥感影像地类语义分割与面积计算方法 | |
CN111242026B (zh) | 一种基于空间层次感知模块和度量学习的遥感图像目标检测方法 | |
CN109242019B (zh) | 一种水面光学小目标快速检测与跟踪方法 | |
CN108734109B (zh) | 一种面向图像序列的视觉目标跟踪方法及系统 | |
CN115063786A (zh) | 一种高位远景模糊车牌检测方法 | |
CN112084895B (zh) | 一种基于深度学习的行人重识别方法 | |
CN113838058A (zh) | 一种基于小样本分割的医学图像自动标注方法及系统 | |
CN115471682A (zh) | 一种基于SIFT融合ResNet50的图像匹配方法 | |
CN115761888A (zh) | 基于nl-c3d模型的塔吊操作人员异常行为检测方法 | |
CN113657225B (zh) | 一种目标检测方法 | |
CN111882543B (zh) | 一种基于AA R2Unet和HMM的香烟滤棒计数方法 | |
CN117541652A (zh) | 一种基于深度lk光流法与d-prosac采样策略的动态slam方法 | |
Firouznia et al. | Adaptive chaotic sampling particle filter to handle occlusion and fast motion in visual object tracking | |
CN116258877A (zh) | 土地利用场景相似度变化检测方法、装置、介质及设备 | |
CN116071331A (zh) | 一种基于改进ssd算法的工件表面缺陷检测方法 | |
CN111145221A (zh) | 一种基于多层深度特征提取的目标跟踪算法 | |
CN113673313B (zh) | 一种基于分层卷积神经网络的手势姿态识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |