CN108596243B - 基于分级注视图和条件随机场的眼动注视图预测方法 - Google Patents
基于分级注视图和条件随机场的眼动注视图预测方法 Download PDFInfo
- Publication number
- CN108596243B CN108596243B CN201810360076.3A CN201810360076A CN108596243B CN 108596243 B CN108596243 B CN 108596243B CN 201810360076 A CN201810360076 A CN 201810360076A CN 108596243 B CN108596243 B CN 108596243B
- Authority
- CN
- China
- Prior art keywords
- prediction
- image
- eye movement
- low
- value
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于多级眼动注视图和条件随机场的眼动注视图预测方法,主要解决了现有技术预测准确率不高的问题。其实现步骤为:1.采集眼动数据并将其分为训练集与测试集;2.构建并在训练集上训练三个全卷积神经网络;3.在测试集上生成三个全卷积神经网络的预测图;4.使用条件随机场融合三个全卷积神经网络的预测图,融合的结果做为最终预测图。本发明通过融合不同等级下的眼动注视图预测结果,更符合空间物理专家对极光图像的认知过程,提高了注视图预测的准确率,可用于语义分割与显著性分析。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及一种图像眼动注视图预测方法,可用于语义分割和显著性分析。
背景技术
人类的视觉选择注意力机制使得人类能够在观察静态或者动态场景时快速地将注视点锁定在感兴趣的区域。从而使得人脑能够在使用较少处理资源的情况下快速准确的理解场景信息。
对于广告设计、图像自动裁剪、图像检索和视频理解等应用领域,理解并预测人在观察场景时的注视位置至关重要。目前,眼动追踪技术已经在这些领域得到了应用。所谓眼动追踪技术就是通过采集人眼在图像上的注视点信息来获取眼动注视图。实际应用中,眼动追踪设备通常较为昂贵且眼动数据采集过程耗时耗力,并不适宜于长期的使用。因此人们提出了一些眼动注视图预测方法,学习已有的眼动注视图信息,并对未知注视图图像的眼动信息进行预测。
极光是由太阳风和磁层相互作用产生的电离层轨道,分析极光的形态和变化对空间天气活动的研究具有重要意义。如今,绝大多数极光分析都是由空间物理专家人为实施的,了解和预测空间物理专家的认知过程可以帮助实现自动分析极光图像。
目前的眼动注视图预测方法通常将眼动注视图预测视为一个二分类问题,图像区域被简单的标记为注视区域和非注视区域。实际上,在观察某一特定的场景时,人眼对不同区域有着不同的关注程度。因此,简单的将场景标记为注视区域和非注视区域不能准确的反映注视信息。
综上所述,目前的极光图像注视图预测方法并不能很好的模拟空间物理专家对极光图像的眼动注视图。
发明内容
本发明的目的在于针对上述现有技术存在的不足,提出了基于分级注视图和条件随机场的眼动注视图预测方法,即DeepAF,以提高注视图预测结果的准确率。
本发明的技术思路是:对极光图像采集眼动数据,生成高、中、低三个等级的眼动注视图。构建三个相同的全卷积神经网络训练数据,将三个输出结果用条件随机场进行融合,得到的结果即为最终预测结果。其实现步骤包括如下:
(1)采集眼动数据;
(2)生成高、中、低三个等级的二值注视图GThigh,GTmid,GTlow:
2a)对每一个被试者,根据每幅观测图像的眼动数据生成灰度值为0~255的连续注视图;
2b)将同一幅观测图像的所有连续注视图求和并进行归一化,得到该观测图像的最终连续注视图;
2c)对每幅观测图像,分别将最终连续注视图中灰度值最高的前5%、10%、15%区域置1,其余部分置0,生成高、中、低三个等级的二值注视图,即高阈值注视图GThigh、中阈值注视图GTmid、低阈值注视图GTlow;
(3)将3000幅原始图像随机分为训练集和测试集,其中训练集占全部数据的80%,测试集占全部数据的20%;
(4)对深度残差网络Res-50进行修改,生成三个结构相同的全卷积神经网络;
(5)对上述三个全卷积神经网络进行训练:
5a)将原始图像做五级平均量化,即取值为0~50的像素点为第一级,取值为51~100的像素点为第二级,取值为101~150的像素点为第三级,取值为151~200的像素点为第四级,取值为201~255的像素点为第五级,得到量化后的图像;
5b)以原始图像为输入,用量化后的图像作为目标输出,对全卷积神经网络的参数进行调整;
5c)在训练集上,以原图像为输入,以5b)调整后得到的参数为初始权重,并分别以高阈值注视图GThigh、中阈值注视图GTmid、低阈值注视图GTlow为目标输出,训练其对应的三个全卷积神经网络Nethigh,Netmid,Netlow;
(6)在测试集上,以原图像为输入,分别使用训练后的三个全卷积神经网络Nethigh,Netmid,Netlow进行预测,得到三种预测注视图Phigh,Pmid,Plow,并对这三种预测注视图进行条件随机场融合。
本发明与现有技术相比具有以下优点:
1.初始化参数合理。
现有技术对深层神经网络参数初始化时,一般采用随机初始化或从ImageNet学习到的参数初始化,但由于极光图像与自然图像有很大的不同,这种初始化方法并不适用于极光图像。本发明使用从待分类图像中学习到的特征对卷积神经网络进行初始化,保证了初始化参数的合理性,在训练集上更容易收敛至全局最优解。
2.提高预测准确率。
本发明通过融合不同等级下的注视图预测结果,提高了注视图预测的准确率。
附图说明
图1是本发明的实现流程图;
图2是本发明对极光图像做五级量化后的结果图;
图3是本发明中的全卷积神经网络结构图;
图4是将连续注视图中灰度值的前10%,前15%和20%标记为注视区域后的结果示意图;
图5是本发明通过条件随机场融合三类输出结果形成的最终眼动信息预测图。
具体实施方式
下面结合附图对本发明的技术方案和效果做进一步的详细描述。
参照图1,本发明的实现步骤如下。
步骤1,构建全卷积神经网络。
现有的深度残差网络ResNet是一种经典的CNN结构模型,具有分类效果好、训练速度快的优点,但ResNet用于图像级别的分类,并不能在像素级别分类,因此本发明使用网络层数最少的Res-50为基本网络结构,对Res-50进行修改得到全卷积神经网络。
参照图2,Res-50的结构如下:Res-50包含五个“网络块”,每个“网络块”包含几个不同的“网络单元”,每个“网络单元”都包含几组交替出现的卷积层、正则化层和非线性激活层。第五个“网络块”后为一个平均池化层、一个1000维的全连接层和一个Softmax分类器。本发明基于Res-50生成全卷积神经网络,其步骤如下。
1.1)去掉Res-50的第五个“网络块”以减轻计算复杂度,同时保持一个合适的特征图大小;
1.2)去掉网络中的平均池化层,并将1000维的全连接层转换为有着1*1卷积核的卷积层;
1.3)额外添加一个包含2个1*1卷积核的卷积层,这一卷积层的作用是分别为注视区域和非注视区域生成特征图;
1.4)在1.3)添加的卷积层后添加一个反卷积层和“裁剪层”,以生成和原图尺寸一致的特征图;
1.5)在最后添加一个像素级的Softmax分类器,用来计算预测结果和目标输出之间的差值。
步骤2,对全卷积神经网络参数进行调整。
2.1)本发明将极光注视图做五级量化处理:即取值为0~50的像素点为第一级,取值为51~100的像素点为第二级,取值为101~150的像素点为第三级,取值为151~200的像素点为第四级,取值为201~255的像素点为第五级,得到量化后的图像,结果如图3所示;
2.2)以原图像为输入,以量化后的图像为目标输出,得到调整后的全卷积神经网络参数。
步骤3,对全卷积神经网络进行训练。
3.1)将连续注视图中灰度值最高的前5%、10%、15%区域置1,其余部分置0,生成高、中、低三个等级的二值注视图,即高阈值注视图GThigh、中阈值注视图GTmid、低阈值注视图GTlow,结果如图4所示;
3.2)以原始图像为输入,以调整过的全卷积神经网络参数为初始权重,分别以GThigh、GTmid、GTlow为目标输出,经过10万次迭代后,得到训练好的三个全卷积神经网络Nethigh,Netmid,Netlow。
步骤4,对原图像进行注视图预测。
在测试集上,以原图像为输入,分别使用训练好的三个全卷积神经网络Nethigh,Netmid,Netlow进行预测,得到三种预测注视图Phigh,Pmid,Plow,即高阈值预测图Phigh、中阈值预测图Pmid和低阈值预测图Plow。
步骤5,用条件随机场融合三种预测图Phigh,Pmid,Plow。
5.1)以原图像中像素点为节点,构建4邻域邻接图;
y(i)=GThigh(i)+GTmid(i)+GTlow(i);
其中是条件随机场模型参数Θ的一个子集,yi是目标输出在像素i上的值,1(yi>yj)表示当yi>yj时函数取值为1,当yi<yj时函数取值为0;1(yi<yj)表示当yi<yj时函数取值为1,当yi>yj时函数取值为0;
5.4)在训练集上最小化代价函数p(Y|X;Θ),得到条件随机场的最优参数Θ;
5.5)在测试集上,使用训练后得到最优参数Θ的条件随机场,对三种预测注视图Phigh、Pmid和Plow进行融合,得到最终注视图预测结果P,结果如图5所示。
本发明的效果可通过以下实验进一步说明。
实验条件:实验所用计算机配置为:Intel(R)Core(TM)i8CPU@3.5GHz,128GB内存,和单块NVIDIA GTX TITAN GPU。实验所运行的软件环境为64位Ubuntu14.04操作系统下安装的MatlabR2014b软件、Caffe深度学习工具包以及UGM无向图模型工具包。所有的网络训练均采用反向传播算法计算各层残差,并使用带有动能项和权重衰减项的随机梯度下降算法更新网络参数。
评价指标:shuffled AUC,JuddAUC,BorjiAUC,相似度指标(SIM),和基于分布的距离Earth Mover’s Distance(EMD)。
实验1:不同网络初始化方法对比
实验步骤:
1.1)使用两种不同的初始化方法对三个全卷积神经网络模型进行初始化,第一种初始化方法对网络参数进行随机初始化,第二种初始化方法首先以原图像为输入,以量化后的图像为目标输出,得到调整后的全卷积神经网络参数,然后使用调整后的网络参数作为全卷积神经网络的初始化参数;
1.2)在测试集上,首先计算三个全卷积神经网络Netlow、Netmid、Nethigh的注视图预测结果,然后使用上面提到的评价方法对预测结果进行定量评价。
实验结果如表1所示。
表1三个全卷积网络在不同初始化方法下预测结果对比
从表1可以看出,使用基于量化输出的参数调整方法初始化,网络性能在不同的网络分支中都获得了一定的提升。这一结果验证了基于量化输出的参数调整方法的有效性。
实验二:各分支预测结果及融合预测结果对比。
在本实验中,对各分支预测结果Plow、Pmid、Phigh和使用条件随机场模型融合后的结果进行定性和定量的分析对比,结果如表2所示。
表2不同注视图预测结果定量对比
从表2可以看出,融合后的结果在各个性能评价指标上都有一定的提升,特别需要关注的是,融合后的结果在相似度指标SIM上较单分支网络有较大的提升。说明融合后的结果更加贴近根据眼动仪采集到的眼动数据所生成的专家眼动注视图。也就是说基于多级注视图的多分支预测网络更符合人类视觉注意机制。
实验三:不同注视图预测方法对比。
实验内容:本实验选择了近年来在自然图像眼动注视图预测中效果较好的11种方法iSEEL、MlNet、LDS、eDN、BMS、SS、SWD、SIM、FES、SER、SUN,与本发明所提方法DeepAF在极光专家眼动数据库上进行对比实验。其中iSEEL、MlNet、和eDN为基于深度网络的眼动注视图预测方法,其余方法为传统基于特征构建的预测方法。所用的训练集为随机选取的2400幅极光图像及其眼动数据,测试集为其余600幅极光图像及其眼动数据。
实验结果如表3。
表3不同方法预测结果对比
表3的结果表明:使用基于深度网络的眼动注视图预测方法性能优于传统基于特征的预测方法,这证明了深度神经网络不仅在自然图像的眼动注视图预测中有效,在极光图像的专家眼动注视图预测中也有着优异的性能;同时也可以看出本发明所提基于分级注视图和条件随机场的眼动注视图预测方法较其他方法在各项指标上都有一定的性能提升。
综上,使用本发明方法在极光专家眼动注视图预测上有着良好的性能;此外所提方法在相似性指标SIM上较其他方法的性能提升较大。
Claims (3)
1.一种基于分级注视图和条件随机场的眼动注视图预测方法,包括:
(1)采集眼动数据;
(2)生成高、中、低三个等级的二值注视图GThigh(i)、GTmid(i)、GTlow(i):
2a)对每一个被试者,根据每幅观测图像的眼动数据生成灰度值为0~255的连续注视图;
2b)将同一幅观测图像的所有连续注视图求和并进行归一化,得到该观测图像的最终连续注视图;
2c)对每幅观测图像,分别将最终连续注视图中灰度值最高的前5%、10%、15%区域置1,其余部分置0,生成高、中、低三个等级的二值注视图,即高阈值注视图GThigh、中阈值注视图GTmid、低阈值注视图GTlow;
(3)将3000幅原始图像随机分为训练集和测试集,其中训练集占全部数据的80%,测试集占全部数据的20%;
(4)对深度残差网络Res-50进行修改,生成三个结构相同的全卷积神经网络;
(5)对上述三个全卷积神经网络进行训练:
5a)将原始图像做五级平均量化,即取值为0~50的像素点为第一级,取值为51~100的像素点为第二级,取值为101~150的像素点为第三级,取值为151~200的像素点为第四级,取值为201~255的像素点为第五级,得到量化后的图像;
5b)以原始图像为输入,用量化后的图像作为目标输出,对全卷积神经网络的参数进行调整;
5c)在训练集上,以原图像为输入,以5b)调整后得到的参数为初始权重,并分别以高阈值注视图GThigh、中阈值注视图GTmid、低阈值注视图GTlow为目标输出,训练其对应的三个全卷积神经网络Nethigh,Netmid,Netlow;
(6)在测试集上,以原图像为输入,分别使用训练后的三个全卷积神经网络Nethigh,Netmid,Netlow进行预测,得到三种预测注视图Phigh,Pmid,Plow,并对这三种预测注视图进行条件随机场融合,按如下步骤进行:
6a)构建代价函数:
6a1)以原图像中像素点为节点,构建4邻域邻接图,即每个节点和它上下左右四个节点相连接;
yi=GThigh(i)+GTmid(i)+GTlow(i)yi,
其中Phigh(i)、Pmid(i)和Plow(i)为三个分支得到的预测结果;
其中是条件随机场模型参数Θ的一个子集,yi是目标输出在像素i上的值,1(yi>yj)表示当yi>yj时函数取值为1,当yi<yj时函数取值为0,1(yi<yj)表示当yi<yj时函数取值为1,当yi>yj时函数取值为0;
6b)在训练集上最小化代价函数p(Y|X;Θ),得到条件随机场的最优参数Θ;
6c)在测试集上,使用训练后得到最优参数Θ的条件随机场融合三种预测结果Phigh(i)、Pmid(i)和Plow(i),得到最终预测注视图。
2.根据权利要求1所述的方法,其中步骤(1)中采集眼动数据,按如下步骤进行:
1a)从图像数据库中随机选择3000幅图像作为待观测图像;
1b)将待观测图像平均分为60组,每组50幅图像;
1c)连接眼动仪和被试机,分组将待观测图像显示在被试机屏幕上,让被试者观察这些图片,收集不同被试者在观察原图像时的眼动信息。
3.根据权利要求1所述的方法,其中步骤(4)中对深度残差网络Res-50进行修改,生成三个结构相同的全卷积神经网络,按如下步骤进行:
4a)去掉深度残差网络Res-50的第五个“网络块”;
4b)去掉网络中的平均池化层,并将1000维的全连接层转换为有着1*1卷积核的卷积层;
4c)额外添加一个包含2个1*1卷积核的卷积层;
4d)在3b3)添加的卷积层后添加一个反卷积层和“裁剪层”(Crop Layer),以生成和原图尺寸一致的特征图;
4e)在最后添加一个像素级的Softmax分类器,用来计算预测结果和目标输出(GroundTruth)之间的差值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810360076.3A CN108596243B (zh) | 2018-04-20 | 2018-04-20 | 基于分级注视图和条件随机场的眼动注视图预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810360076.3A CN108596243B (zh) | 2018-04-20 | 2018-04-20 | 基于分级注视图和条件随机场的眼动注视图预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108596243A CN108596243A (zh) | 2018-09-28 |
CN108596243B true CN108596243B (zh) | 2021-09-10 |
Family
ID=63614330
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810360076.3A Active CN108596243B (zh) | 2018-04-20 | 2018-04-20 | 基于分级注视图和条件随机场的眼动注视图预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108596243B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109447021B (zh) * | 2018-11-08 | 2020-11-27 | 北京灵汐科技有限公司 | 一种属性检测方法及属性检测装置 |
CN109620259B (zh) * | 2018-12-04 | 2020-10-27 | 北京大学 | 基于眼动技术与机器学习对孤独症儿童自动识别的系统 |
CN110200598B (zh) * | 2019-06-12 | 2020-06-30 | 天津大学 | 一种大型养殖场体征异常禽类检测系统及检测方法 |
CN110633708A (zh) * | 2019-06-28 | 2019-12-31 | 中国人民解放军军事科学院国防科技创新研究院 | 一种基于全局模型和局部优化的深度网络显著性检测方法 |
CN113139553B (zh) * | 2020-01-16 | 2024-07-12 | 中国科学院国家空间科学中心 | 一种基于U-net的紫外极光图像极光卵形态提取方法及系统 |
WO2023004734A1 (en) * | 2021-07-30 | 2023-02-02 | Pricewaterhousecoopers Llp | Gaze predictor |
CN113805695B (zh) * | 2021-08-26 | 2024-04-05 | 深圳静美大健康科技有限公司 | 阅读理解水平的预测方法及装置、电子设备和存储介质 |
CN116524581B (zh) * | 2023-07-05 | 2023-09-12 | 南昌虚拟现实研究院股份有限公司 | 一种人眼图像光斑分类方法、系统、设备及存储介质 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102915443A (zh) * | 2011-08-01 | 2013-02-06 | 陈宏铭 | 具学习力的视觉注意预测系统及其方法 |
CN104573711A (zh) * | 2014-12-22 | 2015-04-29 | 上海交通大学 | 基于文本-物体-场景关系的物体和场景的图像理解方法 |
CN106355248A (zh) * | 2016-08-26 | 2017-01-25 | 深圳先进技术研究院 | 一种深度卷积神经网络训练方法及装置 |
CN106780430A (zh) * | 2016-11-17 | 2017-05-31 | 大连理工大学 | 一种基于被包围状态和马尔可夫模型的图像显著性检测方法 |
CN107204025A (zh) * | 2017-04-18 | 2017-09-26 | 华北电力大学 | 基于视觉感知的自适应服装动画建模方法 |
CN107256550A (zh) * | 2017-06-06 | 2017-10-17 | 电子科技大学 | 一种基于高效cnn‑crf网络的视网膜图像分割方法 |
CN107644254A (zh) * | 2017-09-09 | 2018-01-30 | 复旦大学 | 一种卷积神经网络权重参数量化训练方法及系统 |
CN108764244A (zh) * | 2018-04-02 | 2018-11-06 | 华南理工大学 | 基于卷积神经网络和条件随机场的潜在目标区域检测方法 |
-
2018
- 2018-04-20 CN CN201810360076.3A patent/CN108596243B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102915443A (zh) * | 2011-08-01 | 2013-02-06 | 陈宏铭 | 具学习力的视觉注意预测系统及其方法 |
CN104573711A (zh) * | 2014-12-22 | 2015-04-29 | 上海交通大学 | 基于文本-物体-场景关系的物体和场景的图像理解方法 |
CN106355248A (zh) * | 2016-08-26 | 2017-01-25 | 深圳先进技术研究院 | 一种深度卷积神经网络训练方法及装置 |
CN106780430A (zh) * | 2016-11-17 | 2017-05-31 | 大连理工大学 | 一种基于被包围状态和马尔可夫模型的图像显著性检测方法 |
CN107204025A (zh) * | 2017-04-18 | 2017-09-26 | 华北电力大学 | 基于视觉感知的自适应服装动画建模方法 |
CN107256550A (zh) * | 2017-06-06 | 2017-10-17 | 电子科技大学 | 一种基于高效cnn‑crf网络的视网膜图像分割方法 |
CN107644254A (zh) * | 2017-09-09 | 2018-01-30 | 复旦大学 | 一种卷积神经网络权重参数量化训练方法及系统 |
CN108764244A (zh) * | 2018-04-02 | 2018-11-06 | 华南理工大学 | 基于卷积神经网络和条件随机场的潜在目标区域检测方法 |
Non-Patent Citations (5)
Title |
---|
"DeepFix:A Fully Convolutional Neural Network for Predicting Human Eye Fixations";K Ayush等;《IEEE TRANSACTIONS ON IMAGE PROCESSING》;20171231;第26卷(第9期);第4446-4456页 * |
"Exploiting inter-image similarity and ensemble of extreme learners for fixation prediction using deep features";Borji A等;《Neurocomputing》;20171231;第244卷;第10-18页 * |
"Image Signature:Highlighting Sparse Salient Regions";Hou X等;《IEEE Transactions on Pattern Analysis & Machine Intelligence》;20121231;第34卷(第1期);第194页 * |
"基于全局和局部短期稀疏表示的显著性检测";樊强等;《计算机科学》;20141031;第41卷(第10期);第80-83页 * |
"融合相位一致性与二维主成分分析的视觉显著性预测";徐威等;《电子与信息学报》;20150930;第37卷(第9期);第2089-2096页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108596243A (zh) | 2018-09-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108596243B (zh) | 基于分级注视图和条件随机场的眼动注视图预测方法 | |
Cheng et al. | Cspn++: Learning context and resource aware convolutional spatial propagation networks for depth completion | |
CN111260594B (zh) | 一种无监督的多模态图像融合方法 | |
CN110689086B (zh) | 基于生成式对抗网络的半监督高分遥感图像场景分类方法 | |
CN112396027B (zh) | 基于图卷积神经网络的车辆重识别方法 | |
Reddy et al. | AdaCrowd: Unlabeled scene adaptation for crowd counting | |
CN111598842A (zh) | 一种绝缘子缺陷样本生成模型的方法、系统及存储介质 | |
Jia et al. | Effective meta-attention dehazing networks for vision-based outdoor industrial systems | |
Kyono et al. | Machine learning for quality assessment of ground-based optical images of satellites | |
CN114140469A (zh) | 一种基于多层注意力的深度分层图像语义分割方法 | |
CN111126155B (zh) | 一种基于语义约束生成对抗网络的行人再识别方法 | |
Sharma et al. | Potential of generative adversarial net algorithms in image and video processing applications–a survey | |
Jia et al. | Semi-supervised single-image dehazing network via disentangled meta-knowledge | |
CN111489373B (zh) | 一种基于深度学习的遮挡物体分割方法 | |
Obeso et al. | Introduction of explicit visual saliency in training of deep cnns: Application to architectural styles classification | |
CN115346091B (zh) | 一种Mura缺陷图像数据集的生成方法和生成装置 | |
CN114841887B (zh) | 一种基于多层次差异学习的图像恢复质量评价方法 | |
Li et al. | Unsupervised neural rendering for image hazing | |
Ghosh et al. | PB3C-CNN: An integrated PB3C and CNN based approach for plant leaf classification | |
Hussein et al. | Semantic segmentation of aerial images using u-net architecture | |
Ibrahim et al. | Re-designing cities with conditional adversarial networks | |
Xue et al. | Detail feature inpainting of art images in online educational videos based on double discrimination network | |
Prokop et al. | Image segmentation enhanced by heuristic assistance for retinal vessels case | |
CN117808650B (zh) | 一种基于Transform-Flownet和R-FPN的降水预测方法 | |
CN118379288B (zh) | 基于模糊剔除和多聚焦图像融合的胚胎原核目标计数方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |