CN104103033A - 图像实时处理方法 - Google Patents

图像实时处理方法 Download PDF

Info

Publication number
CN104103033A
CN104103033A CN201410381568.2A CN201410381568A CN104103033A CN 104103033 A CN104103033 A CN 104103033A CN 201410381568 A CN201410381568 A CN 201410381568A CN 104103033 A CN104103033 A CN 104103033A
Authority
CN
China
Prior art keywords
characteristic pattern
layer
characteristic
network
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201410381568.2A
Other languages
English (en)
Other versions
CN104103033B (zh
Inventor
毛力
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou inter Technology Co., Ltd.
Original Assignee
SICHUAN JIUCHENG INFORMATION TECHNOLOGY Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SICHUAN JIUCHENG INFORMATION TECHNOLOGY Co Ltd filed Critical SICHUAN JIUCHENG INFORMATION TECHNOLOGY Co Ltd
Priority to CN201410381568.2A priority Critical patent/CN104103033B/zh
Publication of CN104103033A publication Critical patent/CN104103033A/zh
Application granted granted Critical
Publication of CN104103033B publication Critical patent/CN104103033B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明提供了一种图像实时处理方法,用于识别图像中的特征,包括视觉扫描、中心外围差运算、灰度显著图获取、注视点搜索、重点区域确定;采取递进式训练将重点区域的像素灰度信号直接通过已训练的网络层次模型,获取重点特征区域的本质特征直接进行识别。本发明按照视觉显著性强弱顺序串行选择和识别图像目标,提高了图像分析与识别的效率和准确性、适应性强、通用性好。

Description

图像实时处理方法
技术领域
本发明涉及图像处理,特别涉及一种用于环境检测的图像实时特征识别方法和装置。
背景技术
随着计算机技术、自动控制技术以及信息和软件技术迅速地引入环境保护领域,自动化、智能化已经成为遥感环境监测技术发展的重要方向。计算机视觉技术以其信息量大、精度高、检测范围大等特点,在基于遥感水质的检测领域得到了广泛的应用。而遥感图像检测的结果将作为水质分析和污染物评定的重要依据。评定遥感图像检测结果有两种方法:人工评定和计算机图像识别评定。
传统的特征检测方法主要由监测人员手工完成。目前实际生产中,主要采取的方式是人工分析遥感图像,凭经验确定有无污染及污染的类型、位置等,由此评定水质,例如海洋溢油事故。人工评定方式受人为因素及外界条件的影响,效率低、不可靠、一致性差。采用计算机图像处理技术,对遥感图像特征进行分析、检测和识别,可以较好的解决人工评定的上述问题,使水域质量评定更科学、客观。
遥感图像检测识别中仍然存在较多还未解决的问题,主要有:(1)复杂大背景下微小及微弱目标的识别问题,对此采用何种更具针对性的图像处理算法;(2)如何解决遥感图像灰度对比度低、不均匀、存在较大的起伏及图像背景复杂、噪声多等不利因素,进一步提高识别准确率及可靠性问题;(3)特征描述的有效性问题。如何对类型多样、形状各异的特征进行有效描述,以能准确识别的问题;(4)方法的适应性和通用性问题。遥感图像千变万化,如何提高特征识别方法的适应性和通用性问题等;(5)特征分类识别方法问题,目前采用的神经网络和支持向量机等方法还存在不少问题,目前所有方法中实验中正确识别率通常为85%左右,如果是针对具有噪声较强和对比度较低的图片(如海洋遥感图像),且特征面积较小,及实验环境和实际生产环境的差异,识别正确率更低。以海洋环境为例,复杂的情况会对油膜的光谱特征造成影响,降低油膜识别精度。目前,对油膜波谱响应特征的识别主要基于海上试验获取的光谱数据(点数据),利用地物光谱仪获得油在可见光近红外波段的光谱特征,分析油膜的光谱特征变化及油水反差规律。基于点的光谱数据无法提供油膜分布信息,影响海上油膜应急水平的实质性提高。
因此,针对相关技术中所存在的上述问题,目前尚未提出有效的解决方案。
发明内容
为解决上述现有技术所存在的问题,本发明提出了一种遥感图像特征识别的有效方法。
本发明采用如下技术方案:一种图像实时处理方法,用于对图像中的特征进行识别,包括:
步骤一:对灰度遥感图像进行视觉扫描,搜索各扫描线的中央点,通过中心外围差运算,获得遥感图像的显著图和注视点;根据自适应梯度门限值计算方法,利用自适应中心外围差门限值和各注视点的显著性级别确定重点特征区域;
步骤二:基于卷积神经网络构造递进式训练网络,从初始网络开始,利用预设网络生长规则进行生长;基于上述递进式训练网络,将重点区域的像素灰度信号输入已训练的卷积神经网络层次模型,获取重点特征区域的递进式训练本质特征,从而得到遥感图像特征。
优选地,在步骤一的确定重点特征区域中,基于对各注视点的显著性级别的排序来顺序处理显著区域,如注视点的显著性级别S(xi,yj)>T,则该注视点为重点特征区域,其中T为预设判定门限值。
优选地,所输入的图像为获得的感兴趣区域,大小按比例规范为32×32;
所述卷积网络的结构共有7层,每层都包含可训练参数,分别为:
卷积层C1,由两个5×5卷积核卷积输入图像获得,由2个特征图构成,特征图中每个神经元与输入中5×5的邻域相连;特征图的大小为28×28,包括52个可训练参数,连接数为52×(28×28)个;
下采样层S2,对图像进行子抽样获得,具有2个14×14的特征图,特征图中的每个单元与C1中相对应特征图的2×2邻域相连接,每个单元的4个输入相加,乘以一个可训练参数,再加上一个可训练偏置,结果通过高斯函数计算,每个特征图的大小是C1中特征图大小的1/4,有4个可训练参数和4×(14×14)个连接;
卷积层C3,通过3种不同的5×5卷积核去卷积层S2,由3张10×10特征图组成,每张含10×10个神经元,每个特征图连接到S2中的1个或者2个特征图;
下采样层S4,由16个5×5大小的特征图构成,每个单元与C3中相应特征图的2×2邻域相连接,具有4个可训练参数;
卷积层C5,有100个特征图,每个单元与S4层的全部单元的5×5邻域相连,特征图的大小为1×1,构成了S4和C5之间的全连接;
点积计算层F6,与C5全相连,计算输入向量和权重向量之间的点积,再加上一个偏置,然后将其传递给高斯函数产生单元的一个状态;
其中所述卷积网络连接输出层,其由欧氏径向基函数单元组成,计算输入向量和参数向量之间的欧氏距离,该向量在F6高斯的范围内,防止高斯函数饱和。
优选地,所述步骤二的生长规则进一步定义为:
所述C1、S2、C3、S4层同步匹配生长,各层特征图数量为NC1、NS2、NC3、NS4,C1特征图每次生长数量为2;S2的特征图数量与C1层相同;C3的前M1个特征图以S2中NS2/2个相邻的特征图子集为输入;接下来的M2个特征图以S2中NS2/2+1个相邻特征图子集为输入,然后M3个以不相邻的(NS2/2)+1个特征图子集为输入,最后一个将S2中所有特征图为输入,C3的特征图数量为M1+M2+M3+1;S4的特征图数量与C3相同;其中M1表示以S2中NS2/2个相邻的特征图子集为输入的特征图数量、M2表示以S2中NS2/2+1个相邻特征图子集为输入的特征图数量、M3表示以S2中NS2/2+1个不相邻特征图子集为输入的特征图数量;
设定样本训练时网络的平均误差指标和误差收敛速度门限值,训练初始网络,当平均误差没有达到所述指标时,则生长网络结构,如果平均误差达到所述指标,则考察样本误差收敛速度,如收敛速度没有超过设定门限值,则继续生长网络结构,直到收敛速度达到门限值。
相比于现有技术,本发明的技术方案的具有以下优点:
(1)利用关注机制快速聚焦于遥感图像重点特征区域,使图像数据处理量大大减少,保证了算法有较高的效率,减少无关数据干扰同时提高算法准确性;
(2)采取递进式训练,应用于图像识别,提升了准确性,而且避免了人工特征抽取的时间消耗,从而提高了计算效率,可为视觉特征检测领域研究提供新的思路。
附图说明
图1a是根据本发明实施例的遥感图像特征自动识别的方法流程图。
图1b是根据本发明实施例的遥感图像扫描线的灰度分布曲线图。
图2是根据本发明实施例的初始网络CN1结构的层次示意图。
图3是根据本发明实施例的卷积和子采样过程的示意图。
图4是根据本发明实施例的C3层与S2层神经元连接方式表。
图5是根据本发明实施例的层次网络CN1的训练过程示意图。
图6是根据本发明实施例的层次网络CN2的训练过程示意图。
图7是根据本发明实施例的层次网络CN3的训练过程示意图。
图8是根据本发明实施例的层次网络CN4的训练过程示意图。
图9是根据本发明实施例的层次网络CN3的结构层次示意图。
图10是根据本发明实施例的C3层与S2层神经元的连接方式表。
图11是根据本发明实施例的层次网络CN3的实验结果示意图。
具体实施方式
多种方式可以用于(包括实施为过程;装置;系统;物质组成;在计算机可读存储介质上包括的计算机程序产品;和/或处理器(诸如如下处理器,该处理器被配置成执行在耦合到处理器的存储器上存储的和/或由该存储器提供的指令))实施本发明。在本说明书中,这些实施或者本发明可以采用的任何其他形式可以称为技术。一般而言,可以在本发明的范围内变更公开的过程的步骤顺序。除非另有明示,描述为被配置成执行任务的部件(诸如处理器或者存储器)可以实施为被临时配置成在给定时间执行该任务的一般部件或者被制造成执行该任务的具体部件。
下文与图示本发明原理的附图一起提供对本发明一个或者多个实施例的详细描述。结合这样的实施例描述本发明,但是本发明不限于任何实施例。本发明的范围仅由权利要求书限定,并且本发明涵盖诸多替代、修改和等同物。在下文描述中阐述诸多具体细节以便提供对本发明的透彻理解。出于示例的目的而提供这些细节,并且无这些具体细节中的一些或者所有细节也可以根据权利要求书实现本发明。
本发明的目的在于针对现有遥感图像检测存在的难点及现有技术的不足,将关注机制引入遥感图像分析中,提出一种遥感图像特征的有效方法,克服现有技术中存在的问题。
传统方法需对所有遥感图像区域同等看待、进行同等的检测与分析,但实际上所关心的重点特征区域通常仅占遥感图像整体图像中非常小的一部分,可能不到1%的比例,甚至更少。这不但造成了特征检测识别系统的计算资源与计算时间的浪费,而且加重检测识别的分析难度、降低准确性。本发明将人眼选择性关注机制引入到遥感图像特征目标的检测中,通过模拟人眼视觉的扫描来进行自适应中心外围差计算来直接获得显著图的方法,以迅速有效地减少图像处理的数据量,提高检测速度;更重要的是有效地消除无效数据对特征检测区域的干扰,有助于提高检测精度和准确度。并且,采取递进式训练将重点区域的像素灰度信号直接通过已训练的网络层次模型,获取重点特征区域的本质特征直接进行识别。
图1是根据本发明实施例的遥感图像特征自动识别的方法流程图。如图1所示,实施本发明的具体步骤如下:
步骤一:获取遥感图像的显著图。通过直接对灰度遥感图像进行视觉扫描,搜索各扫描线的中央点,通过中心外围差运算,获得遥感图像的显著图和注视点。
人类视觉神经元对位于其感受野中央小区域的刺激最敏感,而中央区周围的更广、更弱区域内的刺激将抑制该神经元的响应。这种对局部空间具有不连续性的敏感结构特别适用于检测局部显著性较强的区域,这即是生物感受野的线性中心外围操作。本发明对强度特征的计算,是通过线扫描及计算自适应中心外围差门限值的方式来获得视点中央与周围部分的差值,从而实现与生物感受野类似的线性中心外围操作。
步骤二:判定遥感图像重点区域。根据自适应梯度门限值计算方法,利用自适应中心外围差门限值和各注视点的显著性级别,确定重点特征区域,从而对这些重点特征区域进行优先、细致的处理,提高遥感图像特征检测的效率和准确性;
具体地,根据各注视点的显著性级别排序标记,级别高的显著区域优先处理。
步骤三:基于卷积神经网络的递进式训练网络构造,利用卷积网络的生长方法,从初始网络开始,根据生长规则,自动生长到识别能力和检测效率都达到期望门限值。
类似于生物视觉神经网络,卷积神经网络具有层次化和局部感知区域抽取特征的特点,适当增加各层感知器的数量,能够提高网络中各层所能抽取的特征数量,提高网络的识别能力,相对于与噪音、平移和扰动的鲁棒性也会更好,但前提是在样本数量满足的情况下。如样本数量相对不足,可能造成复杂卷积网络训练不充分,而使识别能力降低;且即使样本数量充足,卷积网络规模增大,运算量也会成倍增加,可能造成识别能力提高少许,而检测效率降低很多。合适的卷积神经网络应该同时兼顾识别能力和检测速度。
有鉴于此,本发明改进了卷积网络的生长方法,从初始网络开始,根据生长规则,自动生长到识别能力和检测效率都达到期望门限值为止。初始网络结构如图2所示。
该卷积神经网络基本结构共有7层,不包含输入,每层都包含可训练参数(连接权重)。输入图像为获得的感兴趣区域,大小按比例规范为32×32。潜在的明显特征如溢油等能够出现在最高层特征监测子感受野的中心。
C1层是一个卷积层,是两个5×5卷积核卷积输入图像获得,由2个特征图构成。特征图中每个神经元与输入中5×5的邻域相连。特征图的大小为28×28。C1有52个可训练参数(每个滤波器5×5=25个unit参数和一个bias参数,一共2个滤波器,共(5×5+1)×2=52个参数),共52×(28×28)个连接。
S2层是一个下采样层,是利用图像局部相关性的原理,对图像进行子抽样获得,有2个14×14的特征图。特征图中的每个单元与C1中相对应特征图的2×2邻域相连接。S2层每个单元的4个输入相加,乘以一个可训练参数,再加上一个可训练偏置。结果通过高斯函数计算。可训练系数和偏置控制着高斯函数的非线性程度。如果系数比较小,那么运算近似于线性运算,亚采样相当于模糊图像。如果系数比较大,根据偏置的大小亚采样可以被看成是有噪声的“或”运算或者有噪声的“与”运算。每个单元的2×2感受野并不重叠,因此S2中每个特征图的大小是C1中特征图大小的1/4(行和列各1/2)。S2层有4个可训练参数和共4×(14×14)个连接。
如图3所示,卷积过程包括:用一个可训练的滤波器fx去卷积一个输入的图像(第一阶段是输入的图像,后面的阶段就是卷积特征map了),然后加一个偏置bx,得到卷积层Cx。子采样过程包括:每邻域四个像素求和变为一个像素,然后通过标量Wx+1加权,再增加偏置bx+1,然后通过一个高斯激活函数,产生一个大概缩小四倍的特征映射图Sx+1
所以从一个平面到下一个平面的映射可以看作是作卷积运算,S-层可看作是模糊滤波器,起到二次特征提取的作用。隐层与隐层之间空间分辨率递减,而每层所含的平面数递增,这样可用于检测更多的特征信息。
C3层也是一个卷积层,通过3种不同的5×5卷积核去卷积层S2,由3张10×10特征图组成,即每张含10×10个神经元。C3中的每个特征图连接到S2中的所有1个或者2个特征图,表示本层的特征图是上一层提取到的特征图的不同组合,如图4所示。由于不同的特征图有不同的输入,所以能抽取不同的特征。正如人的视觉系统一样,底层的结构构成上层更抽象的结构,例如边缘构成形状或者目标的部分。
S4层是一个下采样层,由16个5×5大小的特征图构成。特征图中的每个单元与C3中相应特征图的2×2邻域相连接,跟C1和S2之间的连接一样。S4层有4个可训练参数(每个特征图1个因子和一个偏置)。
C5层是一个卷积层,有100个特征图(有输出层和F6层决定)。每个单元与S4层的全部单元的5×5邻域相连。由于S4层特征图的大小也为5×5(同卷积核一样),故C5特征图的大小为1×1:这构成了S4和C5之间的全连接。
F6层有个50单元(由输出层的设计决定),与C5层全相连。如同经典神经网络,F6层计算输入向量和权重向量之间的点积,再加上一个偏置。然后将其传递给高斯函数产生单元的一个状态。
输出层由欧氏径向基函数(Euclidean Radial Basis Function)单元即RBF单元组成,每类一个单元,每个有50个输入。即每个输出RBF单元计算输入向量和参数向量之间的欧氏距离。输入离参数向量越远,RBF输出的越大。RBF参数向量起着F6层目标向量的角色。这些向量的是+1或-1,这正好在F6高斯的范围内,因此可以防止高斯函数饱和。实际上,+1和-1是高斯函数的最大弯曲的点处。这使得F6单元运行在最大非线性范围内。必须避免高斯函数的饱和,因为这将会导致损失函数较慢的收敛和病态问题。
本发明优选的实施例采用以下网络生长规则:
1)为了确保存在主要的特征图组合,网络结构的C1层、S2层、C3层、S4层同步匹配生长,设各层特征图数量为NC1、NS2、NC3、NS4,匹配生长规则为:C1特征图每次生长数量为2;S2层的特征图数量与C1层相同;C3的前M1个特征图以S2中NS2/2个相邻的特征图子集为输入;接下来的M2个特征图以S2中NS2/2+1个相邻特征图子集为输入。然后M3个以不相邻的(NS2/2)+1个特征图子集为输入。最后一个将S2中所有特征图为输入,因此C3的特征图数量为M1+M2+M3+1;S4层的特征图数量与C3层相同。其中M1表示以S2中NS2/2个相邻的特征图子集为输入的特征图数量、M2表示以S2中NS2/2+1个相邻特征图子集为输入的特征图数量、M3表示以S2中NS2/2+1个不相邻特征图子集为输入的特征图数量。
2)设定样本训练时网络的平均误差指标和和误差收敛速度门限值。训练初始卷积神经网络,如平均误差没有达到指标,则生长网络结构,直到平均误差达到设定要求,这时的网络结构基本可用。
3)平均误差达到设定要求后,即考察样本误差收敛速度,如收敛速度没有超过设定门限值,说明平均误差还有进一步提高空间。则继续生长网络结构,直到收敛速度达到门限值。此时,网络结构成型,误差收敛速度符合要求,同时具有较低的平均误差。
步骤四:基于递进式训练网络的遥感图像特征识别,将重点区域的像素灰度信号直接通过已训练的卷积神经网络层次模型,获取重点特征区域的递进式训练本质特征直接进行识别。
把上述步骤二获得的依显著性级别排序标记的重点区域作为重点分析对象,重点区域按比例规范为32×32的灰度图像,保证潜在的明显特征如溢油痕迹等能够出现在最高层特征监测子感受野的中心,其作为卷积神经网络的输入图像。将32×32像素点的灰度信号作为网络的输入,直接通过已训练的卷积神经网络层次模型,获取重点特征区域的50个递进式训练本质特征,通过输出层径向基网络直接进行识别,输出为特征类型。
为进一步阐述本发明,以下将以图2的初始网络的实际训练情况为例,具体描述的本发明方法的实施例。
用600个样本对上述初始网络进行训练,训练过程中的误分类曲线如图所示,平均误差未达到要求,网络迭代36次后,训练收敛时误差率超过16%,如图5所示。
根据网络生长规则对初始网络进行一次生长得到层次网络CN2,C1、S2层特征图数量生长为4,C3、S4特征图数量匹配生长为9,生长后网络结构CN2如图6所示。训练过程中的误分类曲线如图所示,网络迭代36次后,训练收敛时误差率超11%。训练后平均误差仍未达到要求。
再次对网络进行生长获得层次网络CN3,C1、S2层特征图数量生长为6,C3、S4特征图数量匹配生长为16。训练后平均误差达到指标,且误差收敛速度小于设定门限值,训练过程如图7所示。继续对网络中各层进行生长形成层次网络CN4,其中C1层和S2层增加到8个,相对应的C3层和S4层为24个,生长后,网络需训练参数也大大增加,训练过程中的误分类曲线如图8所示,由于样本数量不充足的原因,训练已不能收敛。因此,决定最终的网络结构如图9所示。
C1卷积层,由6个特征图构成。特征图中每个神经元与输入中5×5的邻域相连。特征图的大小为28×28。C1有156个可训练参数(每个滤波器5×5=25个unit参数和一个bias参数,一共6个滤波器,共(5×5+1)×6=156个参数),共156×(28×28)=122,304个连接。
S2下采样层,有6个14×14的特征图。特征图中的每个单元与C1中相对应特征图的2×2邻域相连接。S2层每个单元的4个输入相加,乘以一个可训练参数,再加上一个可训练偏置。结果通过高斯函数计算。每个单元的2×2感受野并不重叠,因此S2中每个特征图的大小是C1中特征图大小的1/4(行和列各1/2)。S2层有12个可训练参数和5880个连接。
C3卷积层,通过16种不同的5×5的卷积核去卷积层S2得到的16个特征图,每个含10×10个神经元。C3的前6个特征图以S2中3个相邻的特征图子集为输入。接下来6个特征图以S2中4个相邻特征图子集为输入。然后的3个以不相邻的4个特征图子集为输入。最后一个将S2中所有特征图为输入。这样C3层有1516个可训练参数和151600个连接。如图10所示
S4下采样层,由16个5×5大小的特征图构成。特征图中的每个单元与C3中相应特征图的2×2邻域相连接,跟C1和S2之间的连接一样。S4层有32个可训练参数(每个特征图1个因子和一个偏置)和2000个连接。
C5层、F6层及输出层的结构和神经元数量与初始网络相同。
成型的层次卷积神经网络CN3在实验中的误分类率曲线如图11所示。从图中可知,在进行到42次迭代以后,训练的误分类率达到最低点的8.5%,继续训练误分类率有所降低,但测试的误分率在第46次迭代后上升,但随后保持基本稳定,因此,层次网络在第45次迭代完成后网络训练收敛,训练的误分类率5%,测试的误分类率为6.5%。
综上所述,本发明克服了传统缺陷,可以较好的解决人工因素造成效率低、不可靠、一致性差的问题。无需其他图像预处理,克服了传统遥感特征图像检测方法适应性不强,通用性不好,效率低、难以检测微弱特征的问题。
显然,本领域的技术人员应该理解,上述的本发明的各模块或各步骤可以用通用的计算系统来实现,它们可以集中在单个的计算系统上,或者分布在多个计算系统所组成的网络上,可选地,它们可以用计算系统可执行的程序代码来实现,从而,可以将它们存储在存储系统中由计算系统来执行。这样,本发明不限制于任何特定的硬件和软件结合。
应当理解的是,本发明的上述具体实施方式仅仅用于示例性说明或解释本发明的原理,而不构成对本发明的限制。因此,在不偏离本发明的精神和范围的情况下所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。此外,本发明所附权利要求旨在涵盖落入所附权利要求范围和边界、或者这种范围和边界的等同形式内的全部变化和修改例。

Claims (4)

1.一种图像实时处理方法,用于对图像中的特征进行识别,其特征在于,包括:
步骤一:对灰度遥感图像进行视觉扫描,搜索各扫描线的中央点,通过中心外围差运算,获得遥感图像的显著图和注视点;根据自适应梯度门限值计算方法,利用自适应中心外围差门限值和各注视点的显著性级别确定重点特征区域;
步骤二:基于卷积神经网络构造递进式训练网络,从初始网络开始,利用预设网络生长规则进行生长;基于上述递进式训练网络,将重点区域的像素灰度信号输入已训练的卷积神经网络层次模型,获取重点特征区域的递进式训练本质特征,从而得到遥感图像特征。
2.根据权利要求1所述的方法,其特征在于,在步骤一的确定重点特征区域中,基于对各注视点的显著性级别的排序来顺序处理显著区域,如注视点的显著性级别S(xi,yj)>T,则该注视点为重点特征区域,其中T为预设判定门限值。
3.根据权利要求2所述的方法,其特征在于,所输入的图像为获得的感兴趣区域,大小按比例规范为32×32;
所述卷积网络的结构共有7层,每层都包含可训练参数,分别为:
卷积层C1,由两个5×5卷积核卷积输入图像获得,由2个特征图构成,特征图中每个神经元与输入中5×5的邻域相连;特征图的大小为28×28,包括52个可训练参数,连接数为52×(28×28)个;
下采样层S2,对图像进行子抽样获得,具有2个14×14的特征图,特征图中的每个单元与C1中相对应特征图的2×2邻域相连接,每个单元的4个输入相加,乘以一个可训练参数,再加上一个可训练偏置,结果通过高斯函数计算,每个特征图的大小是C1中特征图大小的1/4,有4个可训练参数和4×(14×14)个连接;
卷积层C3,通过3种不同的5×5卷积核去卷积层S2,由3张10×10特征图组成,每张含10×10个神经元,每个特征图连接到S2中的1个或者2个特征图;
下采样层S4,由16个5×5大小的特征图构成,每个单元与C3中相应特征图的2×2邻域相连接,具有4个可训练参数;
卷积层C5,有100个特征图,每个单元与S4层的全部单元的5×5邻域相连,特征图的大小为1×1,构成了S4和C5之间的全连接;
点积计算层F6,与C5全相连,计算输入向量和权重向量之间的点积,再加上一个偏置,然后将其传递给高斯函数产生单元的一个状态;
其中所述卷积网络连接输出层,其由欧氏径向基函数单元组成,计算输入向量和参数向量之间的欧氏距离,该向量在F6高斯的范围内,防止高斯函数饱和。
4.根据权利要求3所述的方法,其特征在于,所述步骤二的生长规则进一步定义为:
所述C1、S2、C3、S4层同步匹配生长,各层特征图数量为NC1、NS2、NC3、NS4,C1特征图每次生长数量为2;S2的特征图数量与C1层相同;C3的前M1个特征图以S2中NS2/2个相邻的特征图子集为输入;接下来的M2个特征图以S2中NS2/2+1个相邻特征图子集为输入,然后M3个以不相邻的(NS2/2)+1个特征图子集为输入,最后一个将S2中所有特征图为输入,C3的特征图数量为M1+M2+M3+1;S4的特征图数量与C3相同;其中M1表示以S2中NS2/2个相邻的特征图子集为输入的特征图数量、M2表示以S2中NS2/2+1个相邻特征图子集为输入的特征图数量、M3表示以S2中NS2/2+1个不相邻特征图子集为输入的特征图数量;
设定样本训练时网络的平均误差指标和误差收敛速度门限值,训练初始网络,当平均误差没有达到所述指标时,则生长网络结构,如果平均误差达到所述指标,则考察样本误差收敛速度,如收敛速度没有超过设定门限值,则继续生长网络结构,直到收敛速度达到门限值。
CN201410381568.2A 2014-08-05 2014-08-05 图像实时处理方法 Active CN104103033B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410381568.2A CN104103033B (zh) 2014-08-05 2014-08-05 图像实时处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410381568.2A CN104103033B (zh) 2014-08-05 2014-08-05 图像实时处理方法

Publications (2)

Publication Number Publication Date
CN104103033A true CN104103033A (zh) 2014-10-15
CN104103033B CN104103033B (zh) 2017-06-06

Family

ID=51671160

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410381568.2A Active CN104103033B (zh) 2014-08-05 2014-08-05 图像实时处理方法

Country Status (1)

Country Link
CN (1) CN104103033B (zh)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104504395A (zh) * 2014-12-16 2015-04-08 广州中国科学院先进技术研究所 基于神经网络实现人车分类的方法和系统
CN104537387A (zh) * 2014-12-16 2015-04-22 广州中国科学院先进技术研究所 利用神经网络实现车型分类的方法和系统
CN104751162A (zh) * 2015-04-03 2015-07-01 哈尔滨工业大学 基于卷积神经网络的高光谱遥感数据特征提取方法
CN105069779A (zh) * 2015-07-20 2015-11-18 童垸林 一种建筑陶瓷表面花纹图案质量检测方法
CN105139385A (zh) * 2015-08-12 2015-12-09 西安电子科技大学 基于深层自动编码器重构的图像视觉显著性区域检测方法
CN106156846A (zh) * 2015-03-30 2016-11-23 日本电气株式会社 卷积神经网络特征的处理方法和装置
CN106778687A (zh) * 2017-01-16 2017-05-31 大连理工大学 基于局部评估和全局优化的注视点检测方法
WO2017185391A1 (zh) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 一种用于执行卷积神经网络训练的装置和方法
WO2018023734A1 (zh) * 2016-08-05 2018-02-08 深圳大学 一种3d图像的显著性检测方法
CN107895359A (zh) * 2016-10-04 2018-04-10 安讯士有限公司 使用图像分析算法以给神经网络提供训练数据
CN108304873A (zh) * 2018-01-30 2018-07-20 深圳市国脉畅行科技股份有限公司 基于高分辨率光学卫星遥感影像的目标检测方法及其系统
CN110379232A (zh) * 2019-07-30 2019-10-25 赵良华 基于增强现实和人工智能的多人互动教学的展示方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130336540A1 (en) * 2012-06-14 2013-12-19 Hitachi, Ltd. Decomposition apparatus and method for refining composition of mixed pixels in remote sensing images
CN103473557A (zh) * 2013-09-02 2013-12-25 杭州电子科技大学 一种空谱一体化的高光谱遥感图像分类方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20130336540A1 (en) * 2012-06-14 2013-12-19 Hitachi, Ltd. Decomposition apparatus and method for refining composition of mixed pixels in remote sensing images
CN103473557A (zh) * 2013-09-02 2013-12-25 杭州电子科技大学 一种空谱一体化的高光谱遥感图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
许可: "卷积神经网络在图像识别上的应用的研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 *
韩现伟: "大幅面可见光遥感图像典型目标识别关键技术研究", 《中国博士学位论文全文数据库 信息科技辑》 *

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104537387A (zh) * 2014-12-16 2015-04-22 广州中国科学院先进技术研究所 利用神经网络实现车型分类的方法和系统
CN104504395A (zh) * 2014-12-16 2015-04-08 广州中国科学院先进技术研究所 基于神经网络实现人车分类的方法和系统
CN106156846A (zh) * 2015-03-30 2016-11-23 日本电气株式会社 卷积神经网络特征的处理方法和装置
CN106156846B (zh) * 2015-03-30 2018-12-25 日本电气株式会社 卷积神经网络特征的处理方法和装置
CN104751162A (zh) * 2015-04-03 2015-07-01 哈尔滨工业大学 基于卷积神经网络的高光谱遥感数据特征提取方法
CN105069779B (zh) * 2015-07-20 2017-12-26 童垸林 一种建筑陶瓷表面花纹图案质量检测方法
CN105069779A (zh) * 2015-07-20 2015-11-18 童垸林 一种建筑陶瓷表面花纹图案质量检测方法
CN105139385A (zh) * 2015-08-12 2015-12-09 西安电子科技大学 基于深层自动编码器重构的图像视觉显著性区域检测方法
CN105139385B (zh) * 2015-08-12 2018-04-17 西安电子科技大学 基于深层自动编码器重构的图像视觉显著性区域检测方法
WO2017185391A1 (zh) * 2016-04-29 2017-11-02 北京中科寒武纪科技有限公司 一种用于执行卷积神经网络训练的装置和方法
US10643129B2 (en) 2016-04-29 2020-05-05 Cambricon Technologies Corporation Limited Apparatus and methods for training in convolutional neural networks
WO2018023734A1 (zh) * 2016-08-05 2018-02-08 深圳大学 一种3d图像的显著性检测方法
CN107895359A (zh) * 2016-10-04 2018-04-10 安讯士有限公司 使用图像分析算法以给神经网络提供训练数据
CN106778687A (zh) * 2017-01-16 2017-05-31 大连理工大学 基于局部评估和全局优化的注视点检测方法
CN106778687B (zh) * 2017-01-16 2019-12-17 大连理工大学 基于局部评估和全局优化的注视点检测方法
CN108304873A (zh) * 2018-01-30 2018-07-20 深圳市国脉畅行科技股份有限公司 基于高分辨率光学卫星遥感影像的目标检测方法及其系统
CN108304873B (zh) * 2018-01-30 2020-09-11 深圳市国脉畅行科技股份有限公司 基于高分辨率光学卫星遥感影像的目标检测方法及其系统
CN110379232A (zh) * 2019-07-30 2019-10-25 赵良华 基于增强现实和人工智能的多人互动教学的展示方法
CN110379232B (zh) * 2019-07-30 2021-05-14 大连澜创科技有限公司 基于增强现实和人工智能的多人互动教学的展示方法

Also Published As

Publication number Publication date
CN104103033B (zh) 2017-06-06

Similar Documents

Publication Publication Date Title
CN104103033A (zh) 图像实时处理方法
CN104063719B (zh) 基于深度卷积网络的行人检测方法及装置
CN104299006B (zh) 一种基于深度神经网络的车牌识别方法
CN110033002B (zh) 基于多任务级联卷积神经网络的车牌检测方法
Yang et al. A dual attention network based on efficientNet-B2 for short-term fish school feeding behavior analysis in aquaculture
CN107133974B (zh) 高斯背景建模与循环神经网络相结合的车型分类方法
CN104143102A (zh) 在线图像数据处理方法
CN109902806A (zh) 基于卷积神经网络的噪声图像目标边界框确定方法
CN109784182A (zh) 行人重识别方法和装置
CN108830188A (zh) 基于深度学习的车辆检测方法
CN103177458B (zh) 一种基于频域分析的可见光遥感图像感兴趣区域检测方法
CN104915972A (zh) 图像处理装置、图像处理方法以及程序
CN104866810A (zh) 一种深度卷积神经网络的人脸识别方法
CN104657717B (zh) 一种基于分层核稀疏表示的行人检测方法
CN103824093B (zh) 一种基于kfda及svm的sar图像目标特征提取与识别方法
Wei et al. Seismic fault detection using convolutional neural networks with focal loss
CN106295124A (zh) 利用多种图像检测技术综合分析基因子图相似概率量的方法
CN106778687A (zh) 基于局部评估和全局优化的注视点检测方法
CN111259827B (zh) 一种面向城市河道监管的水面漂浮物自动检测方法及装置
CN101944174A (zh) 车牌字符的识别方法
Fei et al. A novel visual attention method for target detection from SAR images
Maryan et al. Machine learning applications in detecting rip channels from images
CN108257151A (zh) 基于显著性分析的PCANet图像变化检测方法
Nguyen et al. Hybrid deep learning-Gaussian process network for pedestrian lane detection in unstructured scenes
CN106778910A (zh) 基于本地训练的深度学习系统和方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information

Inventor after: Yu Jiehao

Inventor before: Mao Li

CB03 Change of inventor or designer information
TA01 Transfer of patent application right

Effective date of registration: 20170427

Address after: 510000 Tianhe District, Guangzhou, Tianhe North Road, No. 1704, room 908, No.

Applicant after: Guangzhou inter Technology Co., Ltd.

Address before: 610000 A, building, No. two, Science Park, high tech Zone, Sichuan, Chengdu, China 103B

Applicant before: Sichuan Jiucheng Information Technology Co., Ltd.

TA01 Transfer of patent application right
GR01 Patent grant
GR01 Patent grant