CN110287802A - 基于优化图像前景和背景种子的人眼凝视点预测方法 - Google Patents
基于优化图像前景和背景种子的人眼凝视点预测方法 Download PDFInfo
- Publication number
- CN110287802A CN110287802A CN201910456761.0A CN201910456761A CN110287802A CN 110287802 A CN110287802 A CN 110287802A CN 201910456761 A CN201910456761 A CN 201910456761A CN 110287802 A CN110287802 A CN 110287802A
- Authority
- CN
- China
- Prior art keywords
- super
- pixel block
- indicate
- color
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/25—Determination of region of interest [ROI] or a volume of interest [VOI]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/19—Sensors therefor
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Ophthalmology & Optometry (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了图像处理中的人眼凝视点预测技术领域的一种基于优化图像前景和背景种子的人眼凝视点预测方法,旨在解决现有技术中前景种子或背景种子容易被误分类且对比度与相关性利用不合理的技术问题,本发明所述方法包括以下步骤:对输入图像进行超像素分割;对超像素块,计算空间位置加权的颜色对比度,得到以超像素块为单位的初步显著图;构建7维特征,并计算各类的显著度均值;进行流形排序得到基于优化前景的显著图和基于优化背景的显著图;进行非线性融合,并通过阈值化得到人眼凝视点位置。本发明利用优选的前景和背景种子得到显著图,并通过非线性融合得到最终显著图和人眼凝视点位置,得到的结果更加准确。
Description
技术领域
本发明属于图像处理中的人眼凝视点预测技术领域,具体涉及一种基于优化图像前景和背景种子的人眼凝视点预测方法。
背景技术
人眼凝视点预测在图像分析与计算机视觉等应用中具有越来越重要的作用,其目的是通过算法自动预测出图像中最引人关注的位置。根据利用的特征不同,人眼凝视点预测技术可分为基于高层语义特征的方法和基于低层特征对比度的方法。基于高层语义特征的方法通过检测高层语义信息(如人脸、肤色等特定目标)进行凝视点预测,这类方法对特定应用更为有效,但缺乏通用性。基于低层特征对比度的方法首先提取图像中不同位置的亮度、颜色或纹理特征,再根据不同位置之间对比度大小进行凝视点预测,这类方法常具有更好的通用性和更低的计算复杂度。
现有技术中存在人眼凝视点预测时前景或背景被误分类的情况,且对对比度或相关性的利用不够理想,影响了显著性预测结果。
发明内容
本发明的目的在于提供一种基于优化图像前景和背景种子的人眼凝视点预测方法,以解决现有技术中前景种子或背景种子容易被误分类且对比度与相关性利用不合理的技术问题。
为达到上述目的,本发明所采用的技术方案是:一种基于优化图像前景和背景种子的人眼凝视点预测方法,其特征是,包括以下步骤:
a、对输入图像,利用简单线性迭代聚类算法进行超像素分割,得到多个超像素块;
b、对超像素块,利用Lab颜色空间各通道的颜色均值和质心坐标作为颜色和位置特征,计算空间位置加权的颜色对比度,结合中心先验得到以超像素块为单位的初步显著图;
c、对超像素块,利用初步显著度值以及Lab颜色空间三个颜色通道的均值和方差构建7维特征,使用K均值聚类算法对超像素块进行聚类,并计算各类的显著度均值;
d、取显著度均值最大且其位置不在图像四个边界上的前两类超像素块作为前景种子点,基于前景种子点进行流形排序得到基于优化前景的显著图;
e、取显著度均值最小且其位置在图像四个边界上的前两类超像素块作为背景种子点,基于背景种子点进行流形排序得到基于优化背景的显著图;
f、对基于优化前景和背景的显著图进行非线性融合,并通过阈值化得到人眼凝视点位置。
所述步骤a中超像素块的数目N设置为200。
所述步骤b包括如下步骤:
ba、以超像素块为单位,在Lab颜色空间计算三个通道的颜色均值作为颜色特征,计算公式如下:
其中,表示第i个超像素块中的像素数,Lj表示超像素块中第j个像素的L通道颜色分量值,aj表示超像素块中第j个像素的a通道颜色分量值,bj表示超像素块中第j个像素的b通道颜色分量值,表示第i个超像素块的L通道颜色均值,表示第i个超像素块的a通道颜色均值,表示第i个超像素块的b通道颜色均值;
bb、计算超像素块的质心坐标作为空间位置特征,计算公式如下:
其中,xj表示超像素块中第j个像素的横坐标,yj表示超像素块中第j个像素的纵坐标,表示第i个超像素块的质心横坐标,表示第i个超像素块的质心纵坐标;
bc、计算空间位置加权的颜色对比度,公式如下:
其中,σ2表示平滑参数,表示第i个超像素块基于空间位置加权的颜色对比度,Ds(i,j)表示第i个与第j个超像素块之间的空间距离,Dc(i,j)表示第i个与第j个超像素块之间的颜色距离,Ds(i,j)和Dc(i,j)的计算公式如下:
其中,表示第j个超像素块的质心横坐标,表示第j个超像素块的质心纵坐标,表示第j个超像素块的L通道颜色均值,表示第j个超像素块的a通道颜色均值,表示第j个超像素块的b通道颜色均值;
bd、结合中心先验和空间位置加权的颜色对比度得到以超像素块为单位的初步显著图,计算公式如下:
其中,xc表示图像中心位置横坐标,yc表示图像中心位置纵坐标,表示x方向的空间平滑参数,表示y方向的空间平滑参数,是第i个超像素块的初步显著值,对所有超像素块的初步显著值进行归一化处理得到初步显著图
所述步骤c包括如下步骤:
ca、对超像素块利用初步显著度值以及Lab颜色空间三个颜色通道的均值和方差构建7维特征向量,表达式如下:
其中,表示第i个超像素块的特征向量,表示第i个超像素块Lab空间L通道的方差,表示第i个超像素块Lab空间a通道的方差,表示第i个超像素块Lab空间b通道的方差,颜色的紧凑性特征,计算公式如下:
cb、利用K均值聚类算法对所有超像素块根据步骤ca得到的7维特征向量进行聚类,聚类数目M设置为20;
cc、聚类完成后,计算各类以超像素块为单位的显著度均值其中m表示聚类后的第m类超像素,m={1,2,…,M}。
所述步骤d包括如下步骤:
da、取显著度均值最大的前两类超像素块作为初选的前景种子;
db、判断这些超像素块的空间位置是否落在图像四个边界上,若是,则从初选的前景种子中排除,若不是,则保留作为最终选择的前景种子,并对这些超像素块加上前景种子标签;
dc、基于优选的前景种子标签,利用流形排序算法得到以超像素块为单位的基于优化前景的显著图计算公式如下:
其中,W=[wi,j]∈RN×N是超像素块之间基于颜色的相似性矩阵,定义为wi,j=exp(-Dc(i,j)/σ2),D=diag{d11,...,dnn}为对角阵,dii=∑jwi,j,YF={Yi,i=1,...,N}表示前景标签向量,Yi是前景种子时元素值为1,否则为0,α是控制超像素块显著值之间的平滑性以及与种子标签一致性的平衡参数,α取值为0.99。
所述步骤e包括如下步骤:
ea、取显著度均值最小的前两类超像素块作为初选的背景种子;
eb、判断这些超像素块的空间位置是否落在图像四个边界上,若是,则保留作为最终选择的背景种子,若不是,则从初选的背景种子中排除,并对这些超像素块加上背景种子标签:
ec、基于优选的背景种子标签,利用流形排序算法得到以超像素块为单位的基于优化背景的显著图计算公式如下:
其中,YB={Yi,i=1,...,N}表示背景标签向量,Yi是背景种子时元素值为1,否则为0。
所述步骤f包括如下步骤:
fa、对以超像素块为单位的基于优化前景和背景的显著图进行非线性融合和归一化处理得到最终显著图Sfinal,计算公式如下:
fb、对最终显著图Sfinal进行阈值化处理,得到人眼凝视点位置图Sfixation,计算公式如下
其中,T表示人眼凝视点阈值,T设置为0.9。
与现有技术相比,本发明所达到的有益效果:
(1)本发明利用优选的前景和背景种子进行基于图的流形排序得到基于前景与背景的显著图,并通过非线性融合得到最终显著图和人眼凝视点位置,得到的结果更加准确;
(2)本发明对分割后的超像素块使用初步显著性、Lab颜色空间三个通道的颜色均值和方差构造7维特征向量,有效表达了超像素块的颜色和显著特征;
(3)本发明充分利用超像素块聚类后的初步显著性和空间位置特征来选择前景和背景种子,更好地利用了前景与背景的先验知识,选取的前景与背景种子更加准确。
附图说明
图1是本发明实施例提供的一种基于优化图像前景和背景种子的人眼凝视点预测方法的流程示意图。
具体实施方式
下面结合附图对本发明作进一步描述。以下实施例仅用于更加清楚地说明本发明的技术方案,而不能以此来限制本发明的保护范围。
如图1所示,一种基于优化图像前景和背景种子的人眼凝视点预测方法,本实施例在附图1的基础上具体阐述本发明所述方法的预测过程。
a、对输入图像利用简单线性迭代聚类(SLIC)算法进行超像素分割,超像素块的数目设置的过多会导致计算量增加,而设置的过少会导致分割精度降低,因此本实施例中对图像分割后得到的超像素块的数目N依经验设置为200以平衡计算复杂度与分割精度。
b、对超像素块利用Lab颜色空间各通道的颜色均值和质心坐标作为颜色和位置特征,具体为:
以超像素块为单位,在Lab颜色空间计算三个通道的颜色均值作为颜色特征,计算公式如下:
其中,表示第i个超像素块中的像素数,Lj表示超像素块中第j个像素的L通道颜色分量值,aj表示超像素块中第j个像素的a通道颜色分量值,bj表示超像素块中第j个像素的b通道颜色分量值,表示第i个超像素块的L通道颜色均值,表示第i个超像素块的a通道颜色均值,表示第i个超像素块的b通道颜色均值;
计算超像素块的质心坐标作为空间位置特征,计算公式如下:
其中,xj表示超像素块中第j个像素的横坐标,yj表示超像素块中第j个像素的纵坐标,表示第i个超像素块的质心横坐标,表示第i个超像素块的质心纵坐标;
计算空间位置加权的颜色对比度,公式如下:
其中,σ2表示平滑参数,表示第i个超像素块基于空间位置加权的颜色对比度,Ds(i,j)表示第i个与第j个超像素块之间的空间距离,Dc(i,j)表示第i个与第j个超像素块之间的颜色距离,Ds(i,j)和Dc(i,j)的计算公式如下:
其中,表示第j个超像素块的质心横坐标,表示第j个超像素块的质心纵坐标,表示第j个超像素块的L通道颜色均值,表示第j个超像素块的a通道颜色均值,表示第j个超像素块的b通道颜色均值;
结合中心先验和空间位置加权的颜色对比度得到以超像素块为单位的初步显著图,计算公式如下:
其中,xc表示图像中心位置横坐标,yc表示图像中心位置纵坐标,表示x方向的空间平滑参数,表示y方向的空间平滑参数,是第i个超像素块的初步显著值,对所有超像素块的初步显著值进行归一化处理得到初步显著图
c、对超像素块利用初步显著度值以及Lab空间三个颜色通道的均值和方差构建7维特征,具体为:
对超像素块利用初步显著度值以及Lab空间三个颜色通道的均值和方差构建7维特征向量,表达式如下:
其中,Fi sp表示第i个超像素块的特征向量,表示第i个超像素块Lab空间L通道的方差,表示第i个超像素块Lab空间a通道的方差,表示第i个超像素块Lab空间b通道的方差,来表达颜色的紧凑性特征,计算公式如下:
对分割后的超像素块使用初步显著性、Lab颜色空间三个通道的颜色均值和方差构造7维特征向量,可以有效表达超像素块的颜色和显著特征;
利用K均值聚类算法对所有超像素块根据上述步骤得到的7维特征向量进行聚类,聚类数目考虑聚类的准确性和鲁棒性,在本实施例中聚类数目M设置为20;
聚类完成后,计算各类以超像素块为单位的显著度均值S1 m,其中m表示聚类后的第m类超像素,m={1,2,…,20}。
d、取显著度均值最大的前两类超像素块且其位置不在图像四个边界上的超像素块作为前景种子点,基于前景种子点进行流形排序得到基于优化前景的显著图,具体为:
根据前述步骤中得到的各类以超像素块为单位的显著度均值取显著度均值最大的前两类超像素块作为初选的前景种子;
判断这些超像素块的空间位置是否落在图像四个边界上,若是,则从初选的前景种子中排除,若不是,则保留作为最终选择的前景种子,并对这些超像素块加上前景种子标签;
基于优选的前景种子标签,利用流形排序算法得到基于前景以超像素块为单位的显著图计算公式如下:
其中,W=[wi,j]∈RN×N是超像素块之间基于颜色的相似性矩阵,定义为wi,j=exp(-Dc(i,j)/σ2),D=diag{d11,...,dnn}为对角阵,dii=∑jwi,j,YF={Yi,i=1,...,N}表示前景标签向量,Yi是前景种子时元素值为1,否则为0,α是控制超像素块显著值之间的平滑性以及与种子标签一致性的平衡参数,依经验取值为0.99。
e、取显著度均值最小的前两类超像素块且其位置在图像四个边界上的超像素块作为背景种子点,基于背景种子点进行流形排序得到基于优化背景的显著图,具体为:
根据前述步骤中得到的各类以超像素块为单位的显著度均值取显著度均值最小的前两类超像素块作为初选的背景种子;
判断这些超像素块的空间位置是否落在图像四个边界上,若是,则保留作为最终选择的背景种子,若不是,则从初选的背景种子中排除,并对这些超像素块加上背景种子标签;
基于优选的背景种子标签,利用流形排序算法得到基于背景以超像素块为单位的显著图计算公式如下:
其中,YB={Yi,i=1,...,N}表示背景标签向量,Yi是背景种子时元素值为1,否则为0。
充分利用超像素块聚类后的初步显著性和空间位置特征来选择前景和背景种子,更好地利用了前景与背景的先验知识,选取的前景与背景种子也更加准确。
f、对基于前景和背景的显著图进行非线性融合,并通过阈值化得到人眼凝视点位置;具体为:
对基于优选前景和背景的以超像素为单位的显著图进行非线性融合和归一化处理得到最终显著图Sfinal,计算公式如下:
对最终显著图Sfinal进行阈值化处理,得到人眼凝视点位置图Sfixation,计算公式如下:
其中,T表示人眼凝视点阈值,根据图像中人眼凝视点统计数目的大小在本实施例中阈值T设置为0.9。
上述方案通过优化选择图像的前景和背景种子,基于流形排序方法得到了准确的人眼凝视点位置。
目前基于低层特征对比度和流形排序的显著性算法对前景和背景先验信息的利用不够充分,因此选择的前景和背景种子不够准确,从而影响流形排序方法的显著性检测效果。本发明充分利用初步显著特征和位置先验知识,选择的前景与背景种子更加准确,利用优选的前景和背景种子进行基于图的流形排序得到基于前景与背景的显著图,并通过非线性融合得到最终显著图和人眼凝视点位置,得到了更准确的人眼凝视点预测位置。
以上所述仅是本发明的优选实施方式,应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明技术原理的前提下,还可以做出若干改进和变形,这些改进和变形也应视为本发明的保护范围。
Claims (7)
1.一种基于优化图像前景和背景种子的人眼凝视点预测方法,其特征是,包括以下步骤:
a、对输入图像,利用简单线性迭代聚类算法进行超像素分割,得到多个超像素块;
b、对超像素块,利用Lab颜色空间各通道的颜色均值和质心坐标作为颜色和位置特征,计算空间位置加权的颜色对比度,结合中心先验得到以超像素块为单位的初步显著图;
c、对超像素块,利用初步显著度值以及Lab颜色空间三个颜色通道的均值和方差构建7维特征,使用K均值聚类算法对超像素块进行聚类,并计算各类的显著度均值;
d、取显著度均值最大且其位置不在图像四个边界上的前两类超像素块作为前景种子点,基于前景种子点进行流形排序得到基于优化前景的显著图;
e、取显著度均值最小且其位置在图像四个边界上的前两类超像素块作为背景种子点,基于背景种子点进行流形排序得到基于优化背景的显著图;
f、对基于优化前景和背景的显著图进行非线性融合,并通过阈值化得到人眼凝视点位置。
2.根据权利要求1所述的基于优化图像前景和背景种子的人眼凝视点预测方法,其特征是,所述步骤a中超像素块的数目N设置为200。
3.根据权利要求1所述的基于优化图像前景和背景种子的人眼凝视点预测方法,其特征是,所述步骤b包括如下步骤:
ba、以超像素块为单位,在Lab颜色空间计算三个通道的颜色均值作为颜色特征,计算公式如下:
其中,表示第i个超像素块中的像素数,Lj表示超像素块中第j个像素的L通道颜色分量值,aj表示超像素块中第j个像素的a通道颜色分量值,bj表示超像素块中第j个像素的b通道颜色分量值,表示第i个超像素块的L通道颜色均值,表示第i个超像素块的a通道颜色均值,表示第i个超像素块的b通道颜色均值;
bb、计算超像素块的质心坐标作为空间位置特征,计算公式如下:
其中,xj表示超像素块中第j个像素的横坐标,yj表示超像素块中第j个像素的纵坐标,表示第i个超像素块的质心横坐标,表示第i个超像素块的质心纵坐标;
bc、计算空间位置加权的颜色对比度,公式如下:
其中,σ2表示平滑参数,表示第i个超像素块基于空间位置加权的颜色对比度,Ds(i,j)表示第i个与第j个超像素块之间的空间距离,Dc(i,j)表示第i个与第j个超像素块之间的颜色距离,Ds(i,j)和Dc(i,j)的计算公式如下:
其中,表示第j个超像素块的质心横坐标,表示第j个超像素块的质心纵坐标,表示第j个超像素块的L通道颜色均值,表示第j个超像素块的a通道颜色均值,表示第j个超像素块的b通道颜色均值;
bd、结合中心先验和空间位置加权的颜色对比度得到以超像素块为单位的初步显著图,计算公式如下:
其中,xc表示图像中心位置横坐标,yc表示图像中心位置纵坐标,表示x方向的空间平滑参数,表示y方向的空间平滑参数,是第i个超像素块的初步显著值,对所有超像素块的初步显著值进行归一化处理得到初步显著图
4.根据权利要求1所述的基于优化图像前景和背景种子的人眼凝视点预测方法,其特征是,所述步骤c包括如下步骤:
ca、对超像素块利用初步显著度值以及Lab颜色空间三个颜色通道的均值和方差构建7维特征向量,表达式如下:
其中,表示第i个超像素块的特征向量,表示第i个超像素块Lab空间L通道的方差,表示第i个超像素块Lab空间a通道的方差,表示第i个超像素块Lab空间b通道的方差,颜色的紧凑性特征,计算公式如下:
cb、利用K均值聚类算法对所有超像素块根据步骤ca得到的7维特征向量进行聚类,聚类数目M设置为20;
cc、聚类完成后,计算各类以超像素块为单位的显著度均值其中m表示聚类后的第m类超像素,m={1,2,…,M}。
5.根据权利要求1所述的基于优化图像前景和背景种子的人眼凝视点预测方法,其特征是,所述步骤d包括如下步骤:
da、取显著度均值最大的前两类超像素块作为初选的前景种子;
db、判断这些超像素块的空间位置是否落在图像四个边界上,若是,则从初选的前景种子中排除,若不是,则保留作为最终选择的前景种子,并对这些超像素块加上前景种子标签;
dc、基于优选的前景种子标签,利用流形排序算法得到以超像素块为单位的基于优化前景的显著图计算公式如下:
其中,W=[wi,j]∈RN×N是超像素块之间基于颜色的相似性矩阵,定义为wi,j=exp(-Dc(i,j)/σ2),D=diag{d11,...,dnn}为对角阵,dii=∑jwi,j,YF={Yi,i=1,...,N}表示前景标签向量,Yi是前景种子时元素值为1,否则为0,α是控制超像素块显著值之间的平滑性以及与种子标签一致性的平衡参数,α取值为0.99。
6.根据权利要求1所述的基于优化图像前景和背景种子的人眼凝视点预测方法,其特征是,所述步骤e包括如下步骤:
ea、取显著度均值最小的前两类超像素块作为初选的背景种子;
eb、判断这些超像素块的空间位置是否落在图像四个边界上,若是,则保留作为最终选择的背景种子,若不是,则从初选的背景种子中排除,并对这些超像素块加上背景种子标签;
ec、基于优选的背景种子标签,利用流形排序算法得到以超像素块为单位的基于优化背景的显著图计算公式如下:
其中,YB={Yi,i=1,...,N}表示背景标签向量,Yi是背景种子时元素值为1,否则为0。
7.根据权利要求1所述的基于优化图像前景和背景种子的人眼凝视点预测方法,其特征是,所述步骤f包括如下步骤:
fa、对以超像素块为单位的基于优化前景和背景的显著图进行非线性融合和归一化处理得到最终显著图Sfinal,计算公式如下:
fb、对最终显著图Sfinal进行阈值化处理,得到人眼凝视点位置图Sfixation,计算公式如下
其中,T表示人眼凝视点阈值,T设置为0.9。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910456761.0A CN110287802B (zh) | 2019-05-29 | 2019-05-29 | 基于优化图像前景和背景种子的人眼凝视点预测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910456761.0A CN110287802B (zh) | 2019-05-29 | 2019-05-29 | 基于优化图像前景和背景种子的人眼凝视点预测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110287802A true CN110287802A (zh) | 2019-09-27 |
CN110287802B CN110287802B (zh) | 2022-08-12 |
Family
ID=68002816
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910456761.0A Active CN110287802B (zh) | 2019-05-29 | 2019-05-29 | 基于优化图像前景和背景种子的人眼凝视点预测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110287802B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203430A (zh) * | 2016-07-07 | 2016-12-07 | 北京航空航天大学 | 一种基于前景聚集度和背景先验的显著性物体检测方法 |
CN107977660A (zh) * | 2017-10-13 | 2018-05-01 | 天津工业大学 | 基于背景先验和前景节点的感兴趣区域检测方法 |
CN108846404A (zh) * | 2018-06-25 | 2018-11-20 | 安徽大学 | 一种基于相关约束图排序的图像显著性检测方法及装置 |
CN108898136A (zh) * | 2018-07-04 | 2018-11-27 | 安徽大学 | 一种跨模态图像显著性检测方法 |
-
2019
- 2019-05-29 CN CN201910456761.0A patent/CN110287802B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203430A (zh) * | 2016-07-07 | 2016-12-07 | 北京航空航天大学 | 一种基于前景聚集度和背景先验的显著性物体检测方法 |
CN107977660A (zh) * | 2017-10-13 | 2018-05-01 | 天津工业大学 | 基于背景先验和前景节点的感兴趣区域检测方法 |
CN108846404A (zh) * | 2018-06-25 | 2018-11-20 | 安徽大学 | 一种基于相关约束图排序的图像显著性检测方法及装置 |
CN108898136A (zh) * | 2018-07-04 | 2018-11-27 | 安徽大学 | 一种跨模态图像显著性检测方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110287802B (zh) | 2022-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN104867161B (zh) | 一种视频处理方法及装置 | |
CN109410168B (zh) | 用于确定图像中的子图块类别的卷积神经网络的建模方法 | |
CN110163239B (zh) | 一种基于超像素和条件随机场的弱监督图像语义分割方法 | |
CN108921051A (zh) | 基于循环神经网络注意力模型的行人属性识别网络及技术 | |
CN110059586B (zh) | 一种基于空洞残差注意力结构的虹膜定位分割系统 | |
CN110633604B (zh) | 信息处理方法和信息处理装置 | |
CN109815864B (zh) | 一种基于迁移学习的人脸图像年龄识别方法 | |
CN109858389A (zh) | 基于深度学习的直梯人数统计方法及系统 | |
CN112215795B (zh) | 一种基于深度学习的服务器部件智能检测方法 | |
CN104202547A (zh) | 投影画面中提取目标物体的方法、投影互动方法及其系统 | |
CN109903339B (zh) | 一种基于多维融合特征的视频群体人物定位检测方法 | |
CN106504264A (zh) | 视频前景图像提取方法和装置 | |
CN106874862B (zh) | 基于子模技术和半监督学习的人群计数方法 | |
CN109241816B (zh) | 一种基于标签优化的图像再识别系统及损失函数确定方法 | |
CN109033978A (zh) | 一种基于纠错策略的cnn-svm混合模型手势识别方法 | |
CN112862792A (zh) | 一种用于小样本图像数据集的小麦白粉病孢子分割方法 | |
CN110728216A (zh) | 一种基于行人属性自适应学习的无监督行人再识别方法 | |
CN109919246A (zh) | 基于自适应特征聚类和多重损失融合的行人重识别方法 | |
Mumtaz et al. | Joint motion segmentation and background estimation in dynamic scenes | |
CN111310768B (zh) | 基于鲁棒性背景先验和全局信息的显著性目标检测方法 | |
CN113449658A (zh) | 基于空域、频域、时域的夜间视频序列显著性检测方法 | |
CN115100709B (zh) | 一种特征分离的图像人脸识别与年龄估计方法 | |
CN110334584A (zh) | 一种基于区域全卷积网络的手势识别方法 | |
CN108734145A (zh) | 一种基于密度自适应人脸表征模型的人脸识别方法 | |
CN110490306A (zh) | 一种神经网络训练和对象识别方法、装置和电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |