CN112906813A - 一种基于密度聚类和胶囊神经网络的浮选工况识别方法 - Google Patents
一种基于密度聚类和胶囊神经网络的浮选工况识别方法 Download PDFInfo
- Publication number
- CN112906813A CN112906813A CN202110257189.2A CN202110257189A CN112906813A CN 112906813 A CN112906813 A CN 112906813A CN 202110257189 A CN202110257189 A CN 202110257189A CN 112906813 A CN112906813 A CN 112906813A
- Authority
- CN
- China
- Prior art keywords
- working condition
- sample
- capsule
- flotation
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及泡沫浮选技术领域,具体涉及一种基于密度聚类和胶囊神经网络的浮选工况识别方法。具体包括:获取浮选工况的视频数据,将所述视频数据进行预处理获得图像样本集;将图像样本集采用预设的密度聚类方法进行去噪优化获得多个工况类别的训练样本和测试样本;构建胶囊神经网络,输入所述训练样本并采用动态路由算法和梯度下降算法进行训练优化获得浮选工况识别模型;将待测工况图像样本输入浮选工况识别模型进行工况识别获得待测工况图像样本的工况类别。该方法可以实现批量、准确快速标签,且训练数据量少,响应时间快,工况识别准确率高。
Description
技术领域
本发明涉及泡沫浮选技术领域,具体涉及一种基于密度聚类和胶囊神经网络的浮选工况识别方法。
背景技术
泡沫浮选是金属冶炼中最主要的选矿方法之一,主要是依据不同矿物颗粒表面润湿性的不同来分离不同矿物。矿石在经过磨矿分离后,得到入选粒度和浓度较为适合的矿浆,再送入搅拌槽并添加药剂,不断地搅拌和充气形成大量气泡,使有用矿物颗粒黏附在气泡表面,其他矿物颗粒停留在矿浆底部中,从而实现矿物分离。浮选工况好坏反映最终的浮选性能指标,而在浮选过程中,浮选泡沫层中泡沫的颜色、尺寸、形状、稳定度、纹理,流速等表面视觉特征可密切反映浮选工况。由于泡沫浮选存在自身工艺流程长、内部机理不明确、影响因素多、涉及变量多且非线性强等问题,导致工艺指标不能在线检测;另外现场操作工人的轮换性和实际操作的主观性和随意性较大,对泡沫结构好与坏的判断没有统一的标准,这也导致了浮选工况识别的复杂性。虽然选矿厂通过离线化验分析能够得到精矿品位和尾矿品位,但是化验结果滞后生产数个小时,造成调节滞后的现象,影响了化验分析的及时性。因此,在线识别浮选槽的工况水平,对生产操作和过程的优化运行具有重要的意义。
随着机器视觉和深度学习技术的迅速发展,基于机器视觉和深度学习技术的浮选监控系统逐渐被应用到浮选过程中,以辅助现场工人判断工况信息。机器视觉技术利用各种数字图像处理技术,首先提取浮选泡沫尺寸、泡沫颜色信息、纹理特征以及表面泡沫层运动速度特征等,然后采用支持向量机、决策树、谱聚类等方法进行工况识别。在深度学习技术应用方面,卷积神经网络以其出色的深度特征提取能力和图像分类能力获得众多研究者关注,其深度特征的提取往往是高维,包括了不局限于泡沫尺寸、形状、颜色、纹理等人眼所能觉察的特征,目前许多研究者逐渐将卷积神经网络应用到浮选工况识别中。这些方法都取得了一定效果,但是,当前工况识别方法中有以下局限性:
传统机器视觉技术方面。1、泡沫特征的提取实际上是针对泡沫灰度图像的降维计算过程,在提取过程中难免存在信息丢失,难以获取本质的图像信息;2、人为自主选定的特征不一定是最好的工况表征,降低了工况识别模型的分类鲁棒性。
深度学习技术方面。1、数据集容量的问题。像卷积神经网络这类的深度学习模型,往往需要数十上百万的训练样本才能保证训练后的模型具有良好的泛化能力。但是在浮选现场,浮选工况一般比较良好且稳定,获得的中等、较差工况的数据一般较少,因此难以制作出大容量、类别分布均匀的训练样本;2、训练样本的标签准确性问题。训练样本一般是预处理后的视频帧,通常是将一段已判断为某一工况状态的视频,其每一帧都标签为对应工况等级。但是由于摄像机抖动、泡沫表面与摄像头的相对运动往往会产生有运动模糊的帧,而且因为泡沫层的不断运动,一段已判断为某一工况状态的视频经常会包含有品位落差、翻矿浆等帧图像。若以上情况下的帧图像得不到有效处理,将会使标签标记错误,难以有效提高深度模型预测准确率;3、信息丢失和可解释性问题。尽管深度卷积网络在泡沫分类方面表现出色,但训练数据需求大,可解释性不强,而且每个卷积核仅对一定区域进行逐步特征提取,丢失了位置和方向等空间特征分布信息。
发明内容
基于此,本发明针对现有工况识别方法的不足之处,通过充分利用现场采集到的泡沫视频,并对视频帧数据进行去噪优化,得到标签和真实工况准确对应的数据集,并设计了胶囊神经网络模型,胶囊神经网络具有参数少,数据集需求小,保留了卷积神经网络优点的情况下,还保留了位置和方向等空间特征分布信息,使得在较小样本规模的情况下,训练得到泡沫工况在线识别模型,训练得到泡沫工况在线识别模型,具有相应时间快,识别准确率高等优点。
本发明提供了基于密度聚类和胶囊神经网络的浮选工况识别方法,具体包括:
获取浮选工况的视频数据,将所述视频数据进行预处理获得图像样本集;
将所述图像样本集采用预设的密度聚类方法进行去噪优化获得多个工况类别的训练样本和测试样本;
构建胶囊神经网络,输入所述训练样本并采用动态路由算法和梯度下降算法进行训练优化获得浮选工况识别模型;
将待测工况图像样本输入所述浮选工况识别模型进行工况识别获得待测工况图像样本的工况类别。
进一步的,所述将所述视频数据进行预处理获得图像样本集步骤具体包括:
将所述视频数据的所有帧随机打乱,并随机选取多个视频帧组成图像样本集,获得多个图像样本集。
进一步的,所述将所述图像样本集采用预设的密度聚类方法进行去噪优化获得多个工况类别的训练样本和测试样本步骤具体包括:
获取图像样本集、邻域距离阈值和邻域样本数量阈值;
计算所述图像样本集中第一样本与其他样本之间的欧氏距离,并获得第一样本邻域数,当所述第一样本邻域数大于等于邻域样本数量阈值,则将所述第一样本置于核心对象集合中;并处理所述图像样本集中的其他图像样本,获得核心对象集合;
随机选取核心对象集合中的一个核心对象为第一核心对象,并计算第一核心对象邻域数,当所述第一核心对象邻域数大于等于邻域样本数量阈值,取第一核心对象邻域样本和核心样本对象的交集获取交集样本,将第一核心对象和交集样本组成队列;根据所述队列更新未访问核心样本集合,根据当前未访问过的核心样本集合和所述未访问核心样本集合生成聚类簇;
根据所述聚类簇获得样本集中的无噪声样本和噪声样本,即为多个工况类别的训练样本和测试样本。
所述图像间欧氏距离的计算公式为:
式中,(xi1,xi2)表示两个对象,N是像素总数。
进一步的,所述胶囊神经网络包括编码器和解码器;所述编码器包括输入层、卷积层、主胶囊层和数字胶囊层。
进一步的,所述卷积层包括CONV1 ReLU层,CONV2 ReLU层,CONV3ReLU层,在卷积过程采用ReLU激活函数进行激活。
进一步的,所述解码器将所述数字胶囊层处理后的图片采用三个全连接层进行重构,并以重构图片和原始图片的像素平方差的和作为重构损失函数。
进一步的,所述动态路由算法具体包括:
有益效果:
本发明所述的基于密度聚类和胶囊神经网络的浮选工况识别方法通过基于欧氏距离的密度聚类方法对泡沫样本进行去噪样本处理,与人工标签的主观性强、错误标记较多相比,该方法可以实现批量、准确快速标签,通过减少错误标签,以提高模型工况识别准确率;并构建胶囊申请网络,采用动态路由算法进行训练工况识别模型,与传统卷积网络模型相比,所需训练数据量少,响应时间快,工况识别准确率也进一步提高。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基基于密度聚类和胶囊神经网络的浮选工况识别方法的流程图;
图2为本发明实施例提供的6类工况样本实例;
图3为本发明实施例提供的工况识别胶囊神经网络结构示意图;
图4为本发明实施例提供的解码器结构示意图;
图5为本发明实施例提供的神经胶囊工作原理图;
图6为本发明实施例提供的神经胶囊训练过程参数变化图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
在本发明实施例中,采集浮选过程的图像样本时,浮选泡沫受叶轮搅拌处于旋转运动状态,另外刮板在刮泡时对泡沫运动也会有影响,使得泡沫处于一种非匀速和非定向的运动状态中,导致泡沫层与摄像机之间距离发生变化,同时各种机器设备产生的振动也会影响摄像机本身,因此浮选现场监控系统获得的图像不可避免地存在一部分模糊度较高的图像,模糊图像直接影响到泡沫形态参数测量的准确性,产生大量的异常数据,进而影响到后续预测模型的准确性,另外就是泡沫表面局部品位落差。比如在一段低等品位泡沫视频中出现中等品位的情况,或者低等工况突然出现一张中等工况图像,将使得品位标注错误,造成深度模型训练过程中收敛困难,预测效果差。
如图1所示,在本发明实施例中,提出了基于密度聚类和胶囊神经网络的浮选工况识别方法的流程图,具体包括以下步骤:
步骤S101,获取浮选工况的视频数据,将所述视频数据进行预处理获得图像样本集。
在本发明实施例中,对于浮选工况的视频数据进行预处理,首先随机打乱所有帧图片,因为所有帧图像都是连续动态变化的,相邻两帧之间相关性极高,容易导致几乎所有样本密度相连;然后进行分批聚类:每批次50帧随机视频帧组成图像样本集,获得多个图像样本集,以尽可能是的每帧图像间高度独立。
步骤S102,将所述图像样本集采用预设的密度聚类方法进行去噪优化获得多个工况类别的训练样本。获取图像样本集、邻域距离阈值和邻域样本数量阈值;计算所述图像样本集中第一样本与其他样本之间的欧氏距离,并获得第一样本邻域数,当所述第一样本邻域数大于等于邻域样本数量阈值,则将所述第一样本置于核心对象集合中;并处理所述图像样本集中的其他图像样本,获得核心对象集合;随机选取核心对象集合中的一个核心对象为第一核心对象,并计算第一核心对象邻域数,当所述第一核心对象邻域数大于等于邻域样本数量阈值,取第一核心对象邻域样本和核心样本对象的交集获取交集样本,将第一核心对象和交集样本组成队列;根据所述队列更新未访问核心样本集合,根据当前未访问过的核心样本集合和所述未访问核心样本集合生成聚类簇;根据所述聚类簇获得样本集中的无噪声样本和噪声样本,即为多个工况类别的训练样本。
在本发明实施例中,所述密度聚类是按照一定的规则划分成若干个簇,把相似的样本聚在同一簇中,把不相似的样本分为不同的簇,并利用密度思想,将样本中的高密度区域(即泡沫品位相似分布稠密的区域)划分为簇,将簇看做是样本空间中被稀疏区域(噪声)分割开的稠密区域。通过剔除处于稀疏区域的样本,即运动模糊样本和异常品位落差样本。
在本发明实施例中,针对浮选泡沫样本进行去噪处理,将密度聚类算法只能够的边界对象视为落差样本(噪声),对于样本集Db={x1,x2,...,xn},定义以下概念:
1)ε邻域:对于xn∈Db,其ε邻域包含数据集Db中与xn距离不大于ε的样本,即:Nε(xn)={xn∈Db|dist(xn,xm)≤ε};
2)核心对象:若xn的ε邻域至少包含MinPts个样本,即|Nε(xi)|≥MinPts,则xn是一个核心对象;
3)噪声对象:若xn的ε邻域内样本个数少于MinPts则视为噪声对象;
4)密度直达:若xm位于xn的ε邻域中,且xn是核心对象,则称xm由xn密度直达;
5)密度可达:对xn,xm,若存在样本序列P1,P2......Pn,其中P1=x1,Pn=xn且Pi+1由Pi密度直达,则称xm由xn密度可达
6)密度相连:对xn,xm,若存在xk使得xn与xm均由xk密度可达,则称xn,xm密度相连。
在本发明实施例中,将步骤S101中获得的图样样本集作为输入样本集Db={x1,x2,...,xn},其中b=1,2,...m,m=total(样本数量)/n,n取50。并输入邻域参数邻域距离阈值和邻域样本数量阈值,分别为(ε,MinPts),初始化b=1。
在本发明实施例中,聚类簇生成的具体过程包括:1)取出n个样本,初始化核心对象集合:2)计算样本xi与其他样本的欧氏距离;3)计算样本xi的ε邻域N∈(xi);4)若|Nε(xi)|≥MinPts,将样本xi放到核心对象集合,即H=H∪{xi};5)重复1到4步骤n次;6)生成非核心样本簇(注:);7)初始化聚类簇数:j=1;8)初始化未访问核心样本集合:W=H;9)记录当前未访问过的核心样本集合Wun=W;10)随机选择一个核心对象o∈H,初始化队列Q=<o>;11)更新W,W=W\{o};12)取出队列Q的队首样本q;13)若|Nε(q)|≥MinPts,令Ω=Ne(q)∩W;14)将Ω中的样本加入队列Q;15)更新W,W=W\Ω;16)若跳转至第12步;17)j=j+1,生成聚类簇Cbj=Wun\W;18)更新H,H=H\Cbj;19)若跳转至9步;20)生成聚类簇Cb={Cb1,Cb2,...,Cbj};21)b=b+1,若b≤m,则跳转至第1步;22)最终获得样本集Samples=SUM(MaxLen(Cb)),噪声集Noise=Db\Samples。在每一个样本子集得到的聚类簇Cb中,由于其中噪声样本属少数,MaxLen(Cb)表示该轮聚类结果中,样本数最多的簇,即无噪声准确样本。
图像间欧氏距离计算公式为:
式中,(xi1,xi2)表示两个对象,N是像素总数。
在本发明实施例中,本次训练样本类别为6类,如图2所示。A、B、C、D、E、F分别代表低等品位、中低品位、中等品位、中高品位、高等品位和异常工况(翻矿浆工况)样本各200张,其中A、B、C、D、E类工况可通过以上算法获得准确样本,F类工况的样本则从聚类算法中剔除的样本中获得。
步骤S103,构建胶囊神经网络,输入所述训练样本本并采用动态路由算法和梯度下降算法进行训练优化获得浮选工况识别模型。
在本发明实施例中,所述胶囊神经网络由编码器和解码器构成,本次设计的胶囊网络编码器结构部分如图3所示。所述编码器包括输入层、卷积层、主胶囊层和数字胶囊层。
在本发明实施例中,输入层即图像样本,采用224×224的RGB三通道图像,由于每个像素都带有有意义的信息,缩小图像可能导致信息丢失,因此采用尺寸较大图像是为了尽可能保留图像中的所有信息。在光照稳定的场景下,同一工况下,由工业摄像机拍摄的工况视频后打乱帧序列,每一训练样本均经以上密度聚类算法处理获得,并准确标签。
在本发明实施例中,卷积层包括CONV1 ReLU层,CONV2 ReLU层,CONV3 ReLU层,每层卷积核个数分别为64、128、256,填充大小均为[0,0,0,0],采用ReLU激活函数,三次卷积后得到28×28×256的特征图。经过三次卷积,中间并无池化操作,避免了信息丢失的同时减少训练参数的量。
在本发明实施例中,对于主胶囊(Primary Caps)层,输入大小为28×28×256,卷积核大小为5×5,卷积步幅为1×1,通道数为32,填充大小[0,0,0,0],采用Squash激活函数。该层也称主胶囊层,将卷积之后的特征进行重塑,得到28×28×32的8D向量,即神经胶囊。
在本发明实施例中,对于数字胶囊层(FrothCaps)层,输入大小为28×28×32×8,输出为4×16D的向量。该层是胶囊神经网络的全连接层,在该层中,由于要识别6类工况,所以该层有6个胶囊。由于是全连接层,每个胶囊都会接受前一层(即Primary Caps层)所有胶囊的输出,所以每两个胶囊之间的连接权重W为8×16的矩阵。FrothCaps层中每个胶囊的输出向量的范数表示该胶囊实体出现的概率,所以分类的时候计算输出向量L2范数,哪一类工况的向量大,则说明表征该类工况的概率大。由于不同胶囊的L2范数输出独立,因此胶囊网络同时具备识别多个分类的能力。
在本发明实施例中,胶囊神经网络的解码器结构如图4所示,该部分为图片重构环节,根据前面完成的实例化参数,重新构建输入的图片,由三个全连接层构成。重构图片部分使用损失函数利用L2范数度量,即用重构图片和原始图片的平方差的和作为重构损失函数,得到总的损失函数TotalLoss如式2。
TotalLoss=Encoderloss+αDecoderloss (2)
其中Encoderloss和Decoderloss分别为编码器和解码器的损失,在公式中选择α=0.0001,目的是为了避免重构损失值主导编码器损失值,从而保持正则化效应。
在本发明实施例中,胶囊网络训练时采用动态路由算法,胶囊是一组神经元的集合,它的输出是一个多维向量,因此它可以用来表示实体的一些属性信息,其模长可以用来表示实体出现概率,模长属性信息,模长值越大,表示该实体存在可能性越大。若实体的特征位置发生变化,胶囊输出的向量对应的模长不会变化,只改变其方向,实现同变性。
胶囊网络允许多个分类同时存在,因此不能再使用传统交叉熵损失函数,而是采用了边缘损失的方式作为损失函数,间隔损失如公式(3)所示。式中:Lk为经过计算得到的间隔损失;Tk为第k分类的存在值,若存在则取1,否则取0;m+、m-和λ分别取0.9、0.1、0.5。
Lk=Tkmax(0,m+-||vk||)2+λ(1-Tk)max(0,||vk||-m-)2 (3)
在本发明实施例中,神经胶囊的工作原理如图5所示,可以简单概括为4个步骤,即矩阵转化、输人加权、加权求和、以及非线性变换。
图5中ni为输人向量,第一步即将此向量与矩阵Wij相乘得到向量Nj,做矩阵转化。ni为输人层图片的低层特征,而Wij包含低层特征和高层特征的空间关系以及其它重要关系,通过矩阵转化操作得到向量Nm,即高级特征。
式中表示由低层特征i推出的高层特征j;Wij表示转化矩阵;ni表示输人向量。第一步如公式(4)所示,其中使用表示图4中的Nj,高层特征有很多种,故向量Nj采用的形式表示由低级特征i推出的高层特征j,又称“预测胶囊”。
式中cij表示胶囊i连接至胶囊j的连接概率;bij表示胶囊i连接至胶囊j的先验概率。cij是由softmax函数计算获得的,softmax函数的结果是非负数,且每个独立的cij相加总和为1,因此c表示概率,softmax函数计算方法如公式(5)所示。
式中sj表示l层胶囊的总输入。第二步对进行输人加权,第三步进行加权求和,两步操作如公式(6)所示,即将乘上耦合系数cij,再进行求和得到sj,其中耦合系数cij通过动态路由方式更新,它决定了某一个低层胶囊送往哪个高级胶囊。
式中vj表示l+1层的胶囊输出。第四步就是对sj进行非线性变换得到vj,采用激活函数如公式(7)所示,其中公式中第一部分的作用是压缩,如果sj很长,第一项约等于1,反之如果sj很短,第一项约等于0。第二部分的作用是将向量sj单位化,因此第二项的长度为1。此步骤的主要功能就是控制vj的长度不超过1,同时保持vj和sj同方向。经过此步骤,输出向量vj的长度在0-1之间,因此可通过vj的长度确定具有某个特征的概率。
在动态路由第一次迭代过程中,因bij都被初始化为0,耦合系数cij此时都相等,所以l层的胶囊i要传递给l+1层中的哪个高级胶囊j的概率是平等的。经过这四个工作步骤,最终以的结果来更新bij。经过r次迭代后,输出vj。
在本发明实施例中,所述动态路由算法过程具体包括:
1)对所有l层的胶囊i及所有(l+1)层的胶囊j,有bij=0;
2)对所有l层的胶囊i,有cij=softmax(bij);
4)对所有l+1层的胶囊j,有vj=Squash(sj);
6)迭代步骤2至步骤5共r次,输出vj。
通过上述路由动态算法更新两个胶囊直接的连接权重(权重和为1),并采用梯度下降法优化更新胶囊之间的连接权值,经训练样本训练优化后获得浮选工况识别模型。
步骤S104,将待测工况图像样本输入所述浮选工况识别模型进行工况识别获得待测工况图像样本的工况类别。
本发明采用了基于密度聚类的浮选泡沫训练样本去噪方法,可以实现批量、准确快速标签,通过减少错误标签,以提高模型工况识别准确率;并构建了新的胶囊网络进行浮选泡沫工况识别模型的建立,采用动态路由算法和梯度下降算法进行模型训练和优化,其所需训练数据量少,响应时间快,工况识别准确率也进一步提高。
实施例
本发明的实验软件平台为Python3平台和谷歌开源平台TensorFlow,硬件平台为NVIDA GeForce RTX 2080Ti GPU和Intel酷睿i99700k CPU,数据集总数为1200,每个类别样本数均为200。训练时使用“k折交叉验证”,k取10,对模型进行训练时,其中1080张图像中用于训练,其余120张用于验证,采用Adam算法进行优化,然后在每个epoch,对训练集和验证集进行洗牌,避免训练数据被过度拟合,以产生一个稳定的的架构。
训练胶囊网络模型过程中,模型的总损失TotalLoss、训练准确率Train Accuracy和验证准确率ValidationAccuracy变化情况如图5,其中TotalLoss降至0.35左右,ValidationAccuracy达到97.33%。
本发明使用CNN经典轻型框架InceptionV3与该CapsNet结构在训练结果、训练样本量、样本尺寸、模型参数和相同CPU下的响应速度方面,Inception V3与Froth-CapsNet结构相比较见表1:
表1 InceptionV3与CapsNet相关性能比较
Inception V3模型是目前经典CNN框架中参数较少的,从表1可知,CapsNet与卷积网络模型相比,所需训练数据量少,响应时间快,工况类别识别准确率也有进一步提高。
以上所述实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对本发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
本领域技术人员在考虑说明书及实践这里公开的发明后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由权利要求指出。
应该理解的是,虽然本发明各实施例的流程图中的各个步骤按照箭头的指示依次显示,但是这些步骤并不是必然按照箭头指示的顺序依次执行。除非本文中有明确的说明,这些步骤的执行并没有严格的顺序限制,这些步骤可以以其它的顺序执行。而且,各实施例中的至少一部分步骤可以包括多个子步骤或者多个阶段,这些子步骤或者阶段并不必然是在同一时刻执行完成,而是可以在不同的时刻执行,这些子步骤或者阶段的执行顺序也不必然是依次进行,而是可以与其它步骤或者其它步骤的子步骤或者阶段的至少一部分轮流或者交替地执行。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一非易失性计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,本申请所提供的各实施例中所使用的对存储器、存储、数据库或其它介质的任何引用,均可包括非易失性和/或易失性存储器。非易失性存储器可包括只读存储器(ROM)、可编程ROM(PROM)、电可编程ROM(EPROM)、电可擦除可编程ROM(EEPROM)或闪存。易失性存储器可包括随机存取存储器(RAM)或者外部高速缓冲存储器。作为说明而非局限,RAM以多种形式可得,诸如静态RAM(SRAM)、动态RAM(DRAM)、同步DRAM(SDRAM)、双数据率SDRAM(DDRSDRAM)、增强型SDRAM(ESDRAM)、同步链路(Synchlink)DRAM(SLDRAM)、存储器总线(Rambus)直接RAM(RDRAM)、直接存储器总线动态RAM(DRDRAM)、以及存储器总线动态RAM(RDRAM)等。
以上所述实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
Claims (8)
1.一种基于密度聚类和胶囊神经网络的浮选工况识别方法,其特征在于,具体包括:
获取浮选工况的视频数据,将所述视频数据进行预处理获得图像样本集;
将所述图像样本集采用预设的密度聚类方法进行去噪优化获得多个工况类别的训练样本和测试样本;
构建胶囊神经网络,输入所述训练样本并采用动态路由算法和梯度下降算法进行训练优化获得浮选工况识别模型;
将待测工况图像样本输入所述浮选工况识别模型进行工况识别获得待测工况图像样本的工况类别。
2.根据权利要求1所述的基于密度聚类和胶囊神经网络的浮选工况识别方法,其特征在于,所述将所述视频数据进行预处理获得图像样本集步骤具体包括:
将所述视频数据的所有帧随机打乱,并随机选取多个视频帧组成图像样本集,获得多个图像样本集。
3.根据权利要求1所述的基于密度聚类和胶囊神经网络的浮选工况识别方法,其特征在于,所述将所述图像样本集采用预设的密度聚类方法进行去噪优化获得多个工况类别的训练样本和测试样本步骤具体包括:
获取图像样本集、邻域距离阈值和邻域样本数量阈值;
计算所述图像样本集中第一样本与其他样本之间的欧氏距离,并获得第一样本邻域数,当所述第一样本邻域数大于等于邻域样本数量阈值,则将所述第一样本置于核心对象集合中;并处理所述图像样本集中的其他图像样本,获得核心对象集合;
随机选取核心对象集合中的一个核心对象为第一核心对象,并计算第一核心对象邻域数,当所述第一核心对象邻域数大于等于邻域样本数量阈值,取第一核心对象邻域样本和核心样本对象的交集获取交集样本,将第一核心对象和交集样本组成队列;根据所述队列更新未访问核心样本集合,根据当前未访问过的核心样本集合和所述未访问核心样本集合生成聚类簇;
根据所述聚类簇获得样本集中的无噪声样本和噪声样本,即为多个工况类别的训练样本和测试样本。
5.根据权利要求1所述的基于密度聚类和胶囊神经网络的浮选工况识别方法,其特征在于,所述胶囊神经网络包括编码器和解码器;所述编码器包括输入层、卷积层、主胶囊层和数字胶囊层。
6.根据权利要求5所述的基于密度聚类和胶囊神经网络的浮选工况识别方法,其特征在于,所述卷积层包括CONV1 ReLU层,CONV2 ReLU层,CONV3 ReLU层,在卷积过程采用ReLU激活函数进行激活。
7.根据权利要求5所述的基于密度聚类和胶囊神经网络的浮选工况识别方法,其特征在于,所述解码器将所述数字胶囊层处理后的图片采用三个全连接层进行重构,并以重构图片和原始图片的像素平方差的和作为重构损失函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110257189.2A CN112906813A (zh) | 2021-03-09 | 2021-03-09 | 一种基于密度聚类和胶囊神经网络的浮选工况识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110257189.2A CN112906813A (zh) | 2021-03-09 | 2021-03-09 | 一种基于密度聚类和胶囊神经网络的浮选工况识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112906813A true CN112906813A (zh) | 2021-06-04 |
Family
ID=76108041
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110257189.2A Pending CN112906813A (zh) | 2021-03-09 | 2021-03-09 | 一种基于密度聚类和胶囊神经网络的浮选工况识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112906813A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113591654A (zh) * | 2021-07-22 | 2021-11-02 | 中南大学 | 一种基于长时程深度特征的锌浮选工况识别方法 |
CN113610108A (zh) * | 2021-07-06 | 2021-11-05 | 中南民族大学 | 一种基于改进残差网络的水稻害虫识别方法 |
CN113780412A (zh) * | 2021-09-10 | 2021-12-10 | 齐齐哈尔大学 | 故障诊断模型训练方法、系统及其诊断方法、系统 |
CN113837193A (zh) * | 2021-09-23 | 2021-12-24 | 中南大学 | 一种基于改进U-Net网络的锌浮选泡沫图像分割算法 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107276805A (zh) * | 2017-06-19 | 2017-10-20 | 北京邮电大学 | 一种基于入侵检测模型的样本预测方法、装置及电子设备 |
CN109738910A (zh) * | 2019-01-28 | 2019-05-10 | 重庆邮电大学 | 一种基于三维激光雷达的路沿检测方法 |
CN110059741A (zh) * | 2019-04-15 | 2019-07-26 | 西安电子科技大学 | 基于语义胶囊融合网络的图像识别方法 |
CN110490107A (zh) * | 2019-08-06 | 2019-11-22 | 北京工商大学 | 一种基于胶囊神经网络的指纹识别技术 |
WO2020019738A1 (zh) * | 2018-07-24 | 2020-01-30 | 深圳先进技术研究院 | 磁共振血管壁成像的斑块处理方法、装置和计算设备 |
US20200184314A1 (en) * | 2018-12-05 | 2020-06-11 | Bank Of America Corporation | Generation of capsule neural networks for enhancing image processing platforms |
CN111428556A (zh) * | 2020-02-17 | 2020-07-17 | 浙江树人学院(浙江树人大学) | 一种基于胶囊神经网络的交通标志识别方法 |
WO2020244774A1 (en) * | 2019-06-07 | 2020-12-10 | Leica Microsystems Cms Gmbh | A system and method for training machine-learning algorithms for processing biology-related data, a microscope and a trained machine learning algorithm |
CN112270285A (zh) * | 2020-11-09 | 2021-01-26 | 天津工业大学 | 一种基于稀疏表示和胶囊网络的sar图像变化检测方法 |
-
2021
- 2021-03-09 CN CN202110257189.2A patent/CN112906813A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107276805A (zh) * | 2017-06-19 | 2017-10-20 | 北京邮电大学 | 一种基于入侵检测模型的样本预测方法、装置及电子设备 |
WO2020019738A1 (zh) * | 2018-07-24 | 2020-01-30 | 深圳先进技术研究院 | 磁共振血管壁成像的斑块处理方法、装置和计算设备 |
US20200184314A1 (en) * | 2018-12-05 | 2020-06-11 | Bank Of America Corporation | Generation of capsule neural networks for enhancing image processing platforms |
CN109738910A (zh) * | 2019-01-28 | 2019-05-10 | 重庆邮电大学 | 一种基于三维激光雷达的路沿检测方法 |
CN110059741A (zh) * | 2019-04-15 | 2019-07-26 | 西安电子科技大学 | 基于语义胶囊融合网络的图像识别方法 |
WO2020244774A1 (en) * | 2019-06-07 | 2020-12-10 | Leica Microsystems Cms Gmbh | A system and method for training machine-learning algorithms for processing biology-related data, a microscope and a trained machine learning algorithm |
CN110490107A (zh) * | 2019-08-06 | 2019-11-22 | 北京工商大学 | 一种基于胶囊神经网络的指纹识别技术 |
CN111428556A (zh) * | 2020-02-17 | 2020-07-17 | 浙江树人学院(浙江树人大学) | 一种基于胶囊神经网络的交通标志识别方法 |
CN112270285A (zh) * | 2020-11-09 | 2021-01-26 | 天津工业大学 | 一种基于稀疏表示和胶囊网络的sar图像变化检测方法 |
Non-Patent Citations (1)
Title |
---|
陈寿宏等: "基于优化DBSCAN 聚类算法的晶圆图预处理研究", 《控制与决策》, pages 1 - 10 * |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113610108A (zh) * | 2021-07-06 | 2021-11-05 | 中南民族大学 | 一种基于改进残差网络的水稻害虫识别方法 |
CN113610108B (zh) * | 2021-07-06 | 2022-05-20 | 中南民族大学 | 一种基于改进残差网络的水稻害虫识别方法 |
CN113591654A (zh) * | 2021-07-22 | 2021-11-02 | 中南大学 | 一种基于长时程深度特征的锌浮选工况识别方法 |
CN113591654B (zh) * | 2021-07-22 | 2023-09-01 | 中南大学 | 一种基于长时程深度特征的锌浮选工况识别方法 |
CN113780412A (zh) * | 2021-09-10 | 2021-12-10 | 齐齐哈尔大学 | 故障诊断模型训练方法、系统及其诊断方法、系统 |
CN113780412B (zh) * | 2021-09-10 | 2024-01-30 | 齐齐哈尔大学 | 故障诊断模型训练方法、系统及其诊断方法、系统 |
CN113837193A (zh) * | 2021-09-23 | 2021-12-24 | 中南大学 | 一种基于改进U-Net网络的锌浮选泡沫图像分割算法 |
CN113837193B (zh) * | 2021-09-23 | 2023-09-01 | 中南大学 | 一种基于改进U-Net网络的锌浮选泡沫图像分割方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111368662B (zh) | 一种人脸图像属性编辑方法、装置、存储介质及设备 | |
CN112906813A (zh) | 一种基于密度聚类和胶囊神经网络的浮选工况识别方法 | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN112784736B (zh) | 一种多模态特征融合的人物交互行为识别方法 | |
CN109741268B (zh) | 一种针对壁画的破损图像补全方法 | |
CN113762138B (zh) | 伪造人脸图片的识别方法、装置、计算机设备及存储介质 | |
CN110458192B (zh) | 基于视觉显著性的高光谱遥感图像分类方法及系统 | |
CN107784288A (zh) | 一种基于深度神经网络的迭代定位式人脸检测方法 | |
CN111639719A (zh) | 基于时空运动和特征融合的足迹图像检索方法 | |
CN108595558B (zh) | 一种数据均衡策略和多特征融合的图像标注方法 | |
CN113706564A (zh) | 基于多种监督方式的睑板腺分割网络的训练方法及装置 | |
CN112651998A (zh) | 基于注意力机制和双流多域卷积神经网络的人体跟踪算法 | |
CN112598031A (zh) | 一种蔬菜病害检测方法及系统 | |
CN111145145A (zh) | 一种基于MobileNets的图像表面缺陷检测方法 | |
CN114565594A (zh) | 基于软掩膜对比损失的图像异常检测方法 | |
CN115810149A (zh) | 基于超像素与图卷积的高分辨率遥感图像建筑物提取方法 | |
Zhou et al. | Attention transfer network for nature image matting | |
Qi et al. | Multiview spatial–spectral two-stream network for hyperspectral image unmixing | |
CN114612709A (zh) | 图像金字塔特征指导的多尺度目标检测方法 | |
CN113297936B (zh) | 一种基于局部图卷积网络的排球群体行为识别方法 | |
CN112529025A (zh) | 一种数据处理方法及装置 | |
CN112528058B (zh) | 基于图像属性主动学习的细粒度图像分类方法 | |
Mokhtar et al. | Pedestrian wind factor estimation in complex urban environments | |
Yu et al. | MagConv: Mask-guided convolution for image inpainting | |
CN108765384B (zh) | 一种联合流形排序和改进凸包的显著性检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |