CN107169958B - 机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法 - Google Patents
机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法 Download PDFInfo
- Publication number
- CN107169958B CN107169958B CN201710331853.7A CN201710331853A CN107169958B CN 107169958 B CN107169958 B CN 107169958B CN 201710331853 A CN201710331853 A CN 201710331853A CN 107169958 B CN107169958 B CN 107169958B
- Authority
- CN
- China
- Prior art keywords
- area
- gazing
- pelm
- pixels
- background
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法。算法模拟人眼微跳视与感知衰退机制,提出一种算法框架。首先,图像被直接、粗略划分为注视区和非注视区;通过对这两个区域像素的多次随机采样,来模拟微跳视对注视区的重复扫描。采样后的多个样本集,经学习构建出多个PELM模型;多模型的分类结果叠加构成粗显著图。接着,粗显著图通过RBD算法抑制背景,并针对注视区构建基于PELM的正反馈迭代过程;若迭代中PELM分类结果稳定,则视觉感知饱和,结束循环。PELM分类结果可被看作一种视觉刺激,叠加刺激形成目标被强化的新显著图,可实现了一种完全数据驱动、逐步求精的显著性检测。
Description
技术领域
本发明涉及人类视觉模拟技术领域,具体地讲是利用机器学习实时在线建模,构建一种完全数据驱动的视觉显著性自动检测方法。
背景技术
视觉显著性是构成视觉注意的基础。视觉显著性检测是当今计算机视觉研究领域的热点问题。如何模拟人类脑-眼系统,实现仿真人类视觉的机器视觉,一直是研究者们的探索方向。自然图像是典型的非结构化数据,而机器学习适合对非结构化数据开展建模。近年来,由浅层和深层神经网络构造的机器学习算法、基于自底向上和自顶向下框架,已被应用于解决视觉显著性检测等问题。自底向上框架可采用数据驱动的方法来建模,然而算法通常受一些先验知识的限制约束,且由于训练样本常不准确,模型容易出偏差。自顶向下框架中,深度学习已成功地用于图像分割和显著性检测;到目前为止,深度学习为基础的算法在许多应用中都反映了最好性能,但其缺陷也明显:深度学习需要大量已标记的样本数据,深层网络往往需要手工设计,相比于浅层神经网络,其训练需要更高的硬件资源,目前无法实时在线进行。
显然,如果实践中没有合适的先验知识和足够的有效样本,现有方法可能会无法实施。此外,我们注意到目前大多数显著性检测方法中,信息往往是单向映射的,缺乏动态反馈过程,与人类视觉系统存在很大差别,这可能是当前机器视觉与人类视觉相去甚远的原因之一。
发明内容
有鉴于此,本发明要解决的技术问题是:借助机器学习手段,构建一种模拟人眼视觉过程的算法框架。通过在线学习自动应对实际场景变化,借助背景抑制技术减少学习过程中的样本误差,利用感知正反馈实现显著性检测。
本发明的技术解决方案是,提供以下步骤的显著性检测方法,包括:
1)输入图像。只需将图像边框区域一定宽度范围作为非注视区(负样本候选区),而居中的余下区域为注视区(正样本候选区)。
2)模拟人眼微跳视,通过集成的PELM(调和极限学习机)学习得到粗显著度图。
①对正样本候选区域内的高梯度值像素(大于该区域平均梯度的像素)随机抽样n个像素;对负样本区域内所有像素,进行等量的随机采样。采样过程可重复3-5次。
②利用样本像素及其8邻域像素的RGB特征(共27维),构成正负样本集;重复采样可形成多个样本集。分别利用这些样本集,进行PELM(调和极限学习机)学习建模。
③通过PELM模型对所有像素进行二值分类。每个PELM的二值图可被视为一种视觉刺激,将多个PELM的二值刺激图进行叠加可以形成粗显著图。
3)利用RBD(鲁棒的背景检测算法),通过检测背景区域,对其加以抑制,来减少粗显著图中的背景噪声,以降低噪声样本影响。
4)通过正反馈迭代循环来强化目标,生成细化的新显著图;
①阈值化优化后的粗显著图,得到新的二值化注视区域(BW_i);
②如果前一个注视区域BW_i-1已经存在,则判断BW_i-1是否足够接近BW_i。若为真,则表明视觉感知连续相同(已达到感知饱和),迭代中断;否则,BW_i-1=BW_i,继续下一步;
③通过集成PELM神经网络学习,进行显著性检测(与步骤2)类同)。每个PELM的二值分类结果进行叠加形成新的显著性图;
④返回步骤①,构成正反馈循环。
5)迭代结束。得到新显著图和二值分割结果BW_i。
本发明是一种仿真人眼微跳视机制的显著性检测方法,具有以下特点:首先,原图像的居中区域和边框区域被直接地、粗略划分为注视区和非注视区;通过对注视区高梯度像素的随机抽样,来模拟人眼微跳视对注视区的重复扫描。多个样本集经学习构建出多PELM模型,多个分类模型的二值分类结果叠加构成了粗显著图,用来模拟人脑并行处理视觉数据和产生初步感知。为了进一步降低背景噪声影响,粗显著图通过RBD算法抑制背景像素。针对注视区重复学习的正反馈循环过程,是借助人眼对重复的类同刺激很快形成感知衰退的机制构造的一种感知生成方法。综上,本发明中显著目标的检测是由粗到细、逐步求精的过程。与现有的算法相比,该算法完全是数据驱动的,不需要任何先验知识和事先标记的样本。
附图说明
图1为本发明基于机器学习、背景抑制与感知正反馈的显著性检测方法系统框图。
具体实施方式
下面就具体实施例对本发明作进一步说明,但本发明并不仅仅限于这些实施例。
本发明涵盖任何在本发明的精髓和范围上做的替代、修改、等效方法以及方案。为了使公众对本发明有彻底的了解,在以下本发明优选实施例中详细说明了具体的细节,而对本领域技术人员来说没有这些细节的描述也可以完全理解本发明。此外,本发明之附图中为了示意的需要,并没有完全精确地按照实际比例绘制,在此予以说明。
人类视觉系统可以检测到显著物体,并将注意力集中在当前视觉任务相关的区域。神经心理学实验显示,这些能力都归功于视觉注意机制,而视觉注意是通过眼动来实现的。人类眼动可分为两种:跳视和微跳视。(1)跳视阶段,人眼寻找场景中特征突出的候选目标,并使得视网膜中央凹朝向目标,从而形成注视。(2)当注视目标时,人眼会不自主颤动,称为微跳视。微跳视会维持视觉感知、导致感知衰退、使得注视切换到跳视阶段,寻找新目标。人眼跳视和微跳视有助于人类视觉感知的快速、高效。
为了模拟上述人类视觉,本发明构建了一个系统框架,使用调和极限学习机(PELM)算法构建的分类模型仿真人脑神经网络,利用其二值分类结果模拟人脑神经发放。通过学习算法先提取粗略注视区,随后用RBD算法抑制注视区噪声,再进行视觉感知正反馈过程,最终得到更精确显著图。如图1所示。本发明的机器学习、背景抑制与感知正反馈的显著性检测方法,包括以下各步骤:
1)将输入图像的边框区域一定宽度范围作为非注视区(负样本候选区),而余下的矩形区域为注视区(正样本候选区)。
2)利用集成的PELM(调和极限学习机)模拟人脑神经网络,“采样-学习”得到粗显著度图。
①对正样本候选区域内的高梯度值像素(大于该区域平均梯度的像素)随机抽样n个像素;对负样本区域内所有像素,进行等量的随机抽样。采样过程可重复3-5次,模拟人眼微跳视对注视区的重复微扫描。
②利用样本像素和其8邻域像素的RGB特征,构成正负样本集。重复采样可形成多个样本集。分别利用这些样本集,进行PELM(调和极限学习机)学习建模。
③通过PELM模型对所有像素进行二值分类。每个PELM的二值图被视为一种视觉刺激,多个视觉刺激图进行叠加,归一化后可以形成粗显著图。
3)用RBD算法(鲁棒的背景检测算法),先检测图像背景;然后对粗显著图中相应背景区域像素进行抑制,以降低噪声样本干扰。
4)通过正反馈迭代循环来强化感兴趣目标;
①阈值化RBD后的粗显著性图,得到新的二值化注视区域(BW_i);
②如果旧注视区域BW_i-1已经存在,判断BW_i-1是否足够接近BW_i。若为真,则表明视觉感知连续相同(表明已达到感知饱和),迭代中断;否则,BW_i-1=BW_i,继续下一步;
③通过集成PELM神经网络学习,进行显著性检测。PELM的每个二值分类结果叠加形成新的显著性图;
④返回步骤①,构成正反馈循环。
5)迭代结束。得到叠加形成的新显著图。
RBD(出现于CVPR’2014)是一种显著目标检测算法。其通过对背景的检测和抑制,来突出图像中的显著目标。本发明先将图像中心区域作为初始正样本候选区,而将图像边框区域作为负样本候选区,与人类观察一幅图像的习惯类似。然而,由于初始注视区域定位过于随意粗糙,像素抽样后,不可避免地在正负样本中存在很多噪声样本,因此学习得到的PELM模型也不精确。虽然采用集成策略,综合多个PELM模型能够减少分类误差,但为了进一步降低噪声样本影响,学习得到的粗显著图仍有必要通过抑制背景像素,来得到进一步优化。因此,本发明借助RBD算法来降低背景噪声对显著图的影响。具体做法是:
1)将原图像中的像素利用快速聚类策略超像素化;
2)利用RBD算法检测原图像的超像素背景区域;
3)将粗显著图中对应于超像素背景区域的所有像素位置,赋予很小的权值,实现粗显著图中背景像素的抑制处理。
图1中的分类器建模采用调和极限学习机(Polyharmonic Extreme LearningMachine,PELM)。这是一种单隐层前馈网络,在人脸识别等领域应用中效果良好。PELM的调和机制是一种有效的方式,适合用来拟合快速变化和缓慢变化两类数据。不同于传统基于梯度下降法的学习算法,PELM的内权随机赋值,无需迭代训练,小样本集时可实时在线训练,几乎不需要调整参数。
其中ai和bi是输入节点对隐藏节点的权值,βi是隐节点输出节点的权值。在这个模型中的内部权值随机分配。G(ai,bi,x)是i的隐层节点输出。P(x)是一个低阶多项式,称为调和项,用于应对具有缓慢变化的数据类型。输出权值β可以通过以下公式计算:
其中H+是隐层输出矩阵的Moore Penrose伪逆。T=[t1,t2,...tn]T。
为了克服PELM的随机性,可用集成方式提高其性能,见公式(3),称为EPELM(Ensemble of Poiyharmonic Extreme Leaming Machine,EPELM)。参数p表示其中PELM个数。(图1中p=3)
本发明中所述的视觉感知正反馈过程,是通过重复的机器学习构建针对注视区域的感知正反馈;借此叠加二值分类结果生成新的视觉感知图。循环迭代中的视觉刺激不断叠加,使得图中显著目标区域的显著度能够迅速提升并达到饱和。对新显著图二值化即可得到与人类感知类似的图像分割结果。
以上仅就本发明较佳的实施例作了说明,但不能理解为是对权利要求的限制。本发明不仅局限于以上实施例,其具体结构允许有变化。总之,凡在本发明独立权利要求的保护范围内所作的各种变化均在本发明的保护范围内。
Claims (3)
1.一种机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法,其特征在于:包括以下步骤:
1)输入图像:将图像边框区域一定宽度范围作为非注视区,即负样本候选区,而余下的矩形区域为注视区,即正样本候选区;
2)通过集成的PELM即调和极限学习机学习得到粗显著度图;
①对正样本候选区域内的高梯度值像素,所述高梯度值像素为大于该区域平均梯度的像素,随机采样n个像素;对负样本区域内所有像素,进行等量的随机采样;采样过程重复3-5次,模拟人眼微跳视对注视区的重复扫描;
②利用样本像素与其8邻域像素的RGB特征,构成正负样本集;重复采样形成多个样本集;分别利用这些样本集,进行多个PELM学习建模;
③用PELM模型对所有像素进行二值分类;每个PELM二值分类结果被视为一种视觉刺激,将多个二值刺激图进行叠加形成粗显著图;
3)利用背景检测技术减少粗显著图的背景噪声,以降低噪声样本影响;用RBD即鲁棒的背景检测算法先检测背景像素,然后抑制粗显著图中的背景像素来优化粗显著图;
4)通过正反馈迭代循环来强化目标;
①阈值化优化后的粗显著性图,得到新的二值化注视区域BW_i;
②如果前一个注视区域BW_i-1已存在,则判断BW_i-1是否足够接近BW_i;若为真,则表明视觉感知连续相同,达到感知饱和,迭代中断;否则,BW_i-1=BW_i,继续下一步;
③通过集成PELM神经网络对注视区和非注视区“采样-学习”,进行与步骤2)类同的显著性检测;PELM的每个二值分类结果进行叠加形成新的显著性图;
④返回步骤①,构成正反馈循环;
5)迭代结束:得到叠加后的新显著图和二值分割结果BW_i。
2.根据权利要求1所述的机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法,其特征在于:原图像先直接、粗略划分为注视区和非注视区;注视区是图像居中部分区域,而非注视区是除注视区外的图像边框部分区域;通过对注视区和非注视区像素的多次随机抽样,来模拟人眼微跳视对注视区的重复扫描。
3.根据权利要求1所述的机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法,其特征在于:利用RBD算法抑制粗显著图的背景;通过对原图超像素化,检测出背景超像素后,对粗显著图中对应背景超像素的区域赋予低权值,来优化粗显著图。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710331853.7A CN107169958B (zh) | 2017-05-08 | 2017-05-08 | 机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201710331853.7A CN107169958B (zh) | 2017-05-08 | 2017-05-08 | 机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN107169958A CN107169958A (zh) | 2017-09-15 |
CN107169958B true CN107169958B (zh) | 2022-01-25 |
Family
ID=59815850
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201710331853.7A Active CN107169958B (zh) | 2017-05-08 | 2017-05-08 | 机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN107169958B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108596832B (zh) * | 2018-04-18 | 2022-07-05 | 中国计量大学 | 视觉感知饱和策略的超像素参数自适应选择方法 |
CN109389609B (zh) * | 2018-10-24 | 2021-11-23 | 西安电子科技大学 | 基于fart神经网络的交互自反馈红外目标检测方法 |
CN109766942B (zh) * | 2019-01-07 | 2020-08-04 | 西南交通大学 | 一种基于注意力神经网络的小样本学习图像识别方法 |
CN110704292B (zh) * | 2019-10-15 | 2020-11-03 | 中国人民解放军海军大连舰艇学院 | 一种显控界面设计的评价方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104103082A (zh) * | 2014-06-06 | 2014-10-15 | 华南理工大学 | 一种基于区域描述和先验知识的图像显著性检测方法 |
CN104933435A (zh) * | 2015-06-25 | 2015-09-23 | 中国计量学院 | 基于模拟人类视觉的机器视觉构建方法 |
CN104933691A (zh) * | 2015-06-25 | 2015-09-23 | 中国计量学院 | 基于相位谱视觉显著性检测的图像融合方法 |
-
2017
- 2017-05-08 CN CN201710331853.7A patent/CN107169958B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104103082A (zh) * | 2014-06-06 | 2014-10-15 | 华南理工大学 | 一种基于区域描述和先验知识的图像显著性检测方法 |
CN104933435A (zh) * | 2015-06-25 | 2015-09-23 | 中国计量学院 | 基于模拟人类视觉的机器视觉构建方法 |
CN104933691A (zh) * | 2015-06-25 | 2015-09-23 | 中国计量学院 | 基于相位谱视觉显著性检测的图像融合方法 |
Non-Patent Citations (3)
Title |
---|
Color image segmentation by fixation-based active learning with ELM;Chen Pan 等;《Soft Comput (2012)》;20120207;第1569–1584页 * |
Saliency Optimization from Robust Background Detection;Wangjiang Zhu 等;《CVPR2014》;20141231;第2-4节 * |
快速在线主动学习的图像自动分割算法;严静 等;《模式识别与人工智能》;20160930;第816-824页 * |
Also Published As
Publication number | Publication date |
---|---|
CN107169958A (zh) | 2017-09-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107169958B (zh) | 机器学习、背景抑制与感知正反馈相结合的视觉显著性检测方法 | |
Kwasigroch et al. | Deep CNN based decision support system for detection and assessing the stage of diabetic retinopathy | |
WO2021253939A1 (zh) | 一种用于眼底视网膜血管图像分割的粗糙集神经网络方法 | |
CN107016406A (zh) | 基于生成式对抗网络的病虫害图像生成方法 | |
Hole et al. | Application of genetic algorithm for image enhancement and segmentation | |
CN106295501A (zh) | 基于唇部运动的深度学习身份识别方法 | |
CN109472193A (zh) | 人脸检测方法及装置 | |
CN108053398A (zh) | 一种半监督特征学习的黑色素瘤自动检测方法 | |
CN111429402B (zh) | 高级视觉感知特征与深度特征融合的图像质量评价方法 | |
CN111553462A (zh) | 一种类激活映射方法 | |
CN113221663A (zh) | 一种实时手语智能识别方法、装置及系统 | |
CN111882516B (zh) | 一种基于视觉显著性和深度神经网络的图像质量评价方法 | |
CN106780468B (zh) | 基于视觉感知正反馈的显著性检测方法 | |
Easom-McCaldin et al. | Efficient quantum image classification using single qubit encoding | |
Agrawal et al. | Enhanced optic disk and cup segmentation with glaucoma screening from fundus images using position encoded CNNs | |
CN110400307A (zh) | 一种基于区域差异的屏幕图像质量评估方法 | |
Gao et al. | Semi-supervised texture filtering with shallow to deep understanding | |
JP2023508641A (ja) | データ増強基盤事物分析モデル学習装置及び方法 | |
CN116844008A (zh) | 一种注意力机制引导的内容感知无参考图像质量评价方法 | |
CN109887023B (zh) | 一种基于加权梯度幅度的双目融合立体图像质量评价方法 | |
CN107315985A (zh) | 一种虹膜识别方法及终端 | |
Salvalaio et al. | Self-adaptive appearance-based eye-tracking with online transfer learning | |
Li et al. | Saliency consistency-based image re-colorization for color blindness | |
CN112785559B (zh) | 基于深度学习的多个异构模型相互组合的骨龄预测方法 | |
CN104933725B (zh) | 模拟人类视觉的图像分割方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |