CN109711417B - 一种基于低水平显著性融合和测地线的视频显著性检测方法 - Google Patents

一种基于低水平显著性融合和测地线的视频显著性检测方法 Download PDF

Info

Publication number
CN109711417B
CN109711417B CN201811488005.8A CN201811488005A CN109711417B CN 109711417 B CN109711417 B CN 109711417B CN 201811488005 A CN201811488005 A CN 201811488005A CN 109711417 B CN109711417 B CN 109711417B
Authority
CN
China
Prior art keywords
saliency
color
frame
map
video
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811488005.8A
Other languages
English (en)
Other versions
CN109711417A (zh
Inventor
李伟生
冯思琴
贾玲慧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Chongqing University of Post and Telecommunications
Original Assignee
Chongqing University of Post and Telecommunications
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Chongqing University of Post and Telecommunications filed Critical Chongqing University of Post and Telecommunications
Priority to CN201811488005.8A priority Critical patent/CN109711417B/zh
Publication of CN109711417A publication Critical patent/CN109711417A/zh
Application granted granted Critical
Publication of CN109711417B publication Critical patent/CN109711417B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于低水平显著性融合和测地线的视频显著性检测方法,包括步骤:S1通过显著性估计分别求得空间边缘显著图,空间颜色显著图和运动边界图;S2平滑处理,并集成三个特征显著图得到低水平的时空显著图;S3对每一帧构造无向加权图,然后根据到图像边界的最短测地线距离,计算前景概率;S4对每对相邻视频帧,构造无向加权图,将帧Lk分解为背景区域Dk和对象区域Ok,最后在无向加权图的基础上,计算得到最后的显著图。本发明的空间颜色特征,增强或锐化突出对象的微小细节来表示高显著度。本发明的低层次显著性融合策略,保证互补地使用平滑的颜色显著性、空间边缘和时间运动边界线索产生高精度低水平显著性。

Description

一种基于低水平显著性融合和测地线的视频显著性检测方法
技术领域
本发明属于视频处理技术领域,特别涉及低水平显著性融合方法和测地线方法以及两种方法的结合。
背景技术
目前,国内外诸多著名学者都致力于显著性检测方法的研究,显著性检测方法主要有以下四种:图像显著性检测,协同显著性检测和视频显著性检测。
基于图像显著性检测经过几十年的研究已经有了很大的研究进展。主要分为两类:一类是自顶向下的检测方法,这类方法需要有训练过程和特定的先验知识;另一类方法是自底向上的检测方法,该类方法主要利用底层线索(边缘,形状,方向,颜色,深度)构建图像显著性检测模型,L.Itti和C.Koch等人提出以一种将底层特征融合的视觉显著性检测模型,首次通过定量计算对视觉显著性进行研究。近些年来,学者更是利用深度学习在人类感知系统的作用机理,将深度学习与传统的图像显著性检测方法结合进行更深一步的研究。但是图像显著性检测只对静止的图像产生好的效果,当存在动态背景或运动的目标时,忽视了运动因素,不能产生理想的显著图。协同显著性检测目的是检测在多张图像中重复出现的同一或近似的目标对象,但是该类方法受到目标类别,目标内部特性和目标位置等因素的制约,所以在研究这类方法时,要充分考虑协同显著性目标是否具备这两个条件:1)在单张图片中协同显著性目标应该是显著的;2)在同组图像之间协同显著性目标应该具有较高的相似性。相对于静止图像,视频显著目标检测模型需要考虑更多的信息量,不仅要包含目标空间域的边缘,形状,方向,颜色等底层特征,还要考虑时域内目标的运动信息,因此其算法要在静态图像显著性检测的基础上进行扩展,并且运动线索在整个显著性检测中占据重要位置,L.Itti等人在原始图像显著性检测Itti的基础上,增加了时间轴上的运动信息,其中运动特征是将相邻两帧图像通过高斯金字塔进行多尺度分解,通过“中心-环绕”算子计算差异得到的。
虽然视频显著性检测方法众多,但是却各有弊端,即使基于边缘检测的方法在视频显著性检测领域上已经得到了较好的结果,由于仅仅检测高对比度边缘导致难以均匀地突出整个对象,而提出的空间颜色显著性将色彩自然特征中的颜色边缘连通性、颜色稀有性和颜色紧凑性有效的综合在一起,完成对基于边缘检测方法的补充,另外这些方法所采用的融合过程在时间上是局部的(以逐帧的方式),不能实现鲁棒的低显著性,并且当运动线索与颜色线索起到相反的作用时,也不能巧妙的对它们进行处理。因此我们提出的基于低水平显著性融合和测地线的视频显著性检测方法,在视频显著性检测领域具有广泛的应用前景。
发明内容
本发明旨在解决以上现有技术的问题。提出了一种有效提取对象底层特征、并很好的将这些底层特征进行融合的一种基于低水平显著性融合和测地线的视频显著性检测方法。
本发明采用的技术方案如下:一种基于低水平显著性融合和测地线的视频显著性检测方法,包括以下步骤:
S1、首先,输入原始视频帧,并求取原始视频帧的超像素图像,根据每一个超像素图像分别求取空间边缘图ESk,运动边界图MSk,空间颜色显著图CSk
S2、其次,对得到的空间颜色显著图CSk进行平滑处理,然后集成平滑之后的颜色显著图CSk,运动边界图MSk和空间边缘图ESk得到低水平的时空显著图Hk
S3、再次,对任一幅图像,构造一个无向加权图
Figure BDA0001895009210000021
Vk表示超像素节点,εk表示节点对之间的链路计算权重
Figure BDA0001895009210000022
根据到图像边界的最短测地线距离,计算前景概率为
Figure BDA0001895009210000023
S4、最后,对于每对相邻视频帧,构造一个无向加权图
Figure BDA0001895009210000024
对于每一帧,通过具有自适应阈值的前景概率
Figure BDA0001895009210000025
将帧Lk分解为背景区域Dk和对象区域Ok,最后在无向加权图
Figure BDA0001895009210000026
的基础上,计算得到最后的显著图。
所述步骤S1中求取的空间颜色显著图CSk是通过集成颜色边缘连通性Bdc(i)、颜色稀有性Comp(i)和颜色紧凑性
Figure BDA0001895009210000027
得到的,
Figure BDA0001895009210000028
所述步骤S2中平滑处理的过程如下:
Figure BDA0001895009210000029
式中,ct,i表示第t个视频帧中第i个超像素的平均RGB颜色值,
Figure BDA00018950092100000210
表示满足||pt,i,pk,j||≤θ的空间局部邻域,σ控制平滑强度。ck,j表示第k个视频帧中第j个超像素的平均RGB颜色值,
Figure BDA00018950092100000211
表示第k帧中第j个超像素的颜色显著性,
Figure BDA00018950092100000212
表示第t帧中第i个超像素平滑之后的颜色显著性,pt,i表示第t帧中第i个超像素的中心位置,pk,j分别表示第k帧中第j个超像素的中心位置。
所述步骤S3中对每个超像素,根据到图像边界的最短测地线距离,计算前景概率
Figure BDA00018950092100000213
Figure BDA00018950092100000214
式中,沿着帧Lk四条边界的超像素表示为G,在图
Figure BDA00018950092100000215
中,
Figure BDA00018950092100000216
表示第n帧中的第k个超像素,任意两个超像素之间的测地线距离定义为图
Figure BDA00018950092100000217
上沿其最短路径的累积边权:
Figure BDA00018950092100000218
式中,Cv1,v2(p)表示连接节点V1,V2的路径,Wk表示图
Figure BDA00018950092100000219
的权重矩阵,每一帧的前景概率
Figure BDA00018950092100000220
归一化为[0,1]。
Figure BDA00018950092100000221
表示超像素
Figure BDA00018950092100000222
Figure BDA00018950092100000223
之间的测地线距离。
所述步骤S4中计算最后的时空显著图
Figure BDA0001895009210000031
如下:
Figure BDA0001895009210000032
本发明的优点及有益效果如下:
本发明提出了一种新的无监督视频显著性检测方法。使用一组更完整的显著性线索,利用空间边缘来构造外观信息,时间运动边界来构造运动信息。特别地,为了充分考虑颜色的固有特性,集成从超像素图像中提取的颜色边缘连通性、颜色稀疏性和颜色紧凑性得到空间颜色显著信息,以补偿仅检测高对比度边缘造成的底层特征缺乏。其次采用的平滑策略进一步提高了检测精度。随后,采用一种新的基于策略的低水平显著性融合方法,保证互补地利用平滑的颜色显著性、空间边缘和运动边界线索来产生高精度的低水平时空显著图。
附图说明
图1是本发明提供优选实施例方法的流程图;
图2为集成的空间颜色显著图示例;
图3为平滑的颜色显著图示例;
图4为集成的低水平时空显著图;
图5为SegTrack v2中的实验原图和各方法的实验结果图示例;
图6为ViSal中的实验原图和各方法的实验结果图示例;
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、详细地描述。所描述的实施例仅仅是本发明的一部分实施例。
本发明解决上述技术问题的技术方案是:
本发明的方法流程如图1所示。
本发明涉及了集成的空间颜色显著图示例如图2、平滑的颜色显著图示例如图3、集成的低水平时空显著图示例如图4。
具体步骤:
步骤S1:输入一组视频帧,采用SLIC算法将视频帧分解为超像素图像,根据每一个超像素图像求取空间边缘图ESk,采用大位移运动估计算法获得后续帧对之间的光流νk,随后根据
Figure BDA0001895009210000033
计算梯度值,其中νk表示帧对间光流,
Figure BDA0001895009210000034
表示梯度值,并最终得到超像素光流梯度图MSk。计算空间颜色显著图时要分别计算颜色边缘连通性Bdc(i)、颜色稀有性Comp(i)和颜色紧凑性
Figure BDA0001895009210000035
Figure BDA0001895009210000036
式(1)中,len(i)表示图像中近似目标区域边缘上的像素数目,area(i)表示近似目标区域面积。
Figure BDA0001895009210000037
式(2)中,
Figure BDA0001895009210000041
表示超像素
Figure BDA0001895009210000042
中所有像素的平均值。mpos(i)代表了目标区域中所有像素的平均值,K表示近似目标区域i中的超像素数目
Figure BDA0001895009210000043
Figure BDA0001895009210000044
Figure BDA0001895009210000045
式(3)中,N表示图像中的超像素数目,式(4)中
Figure BDA0001895009210000046
表示距离加权系数,
Figure BDA0001895009210000047
表示两个超像素之间的距离,σspa设为0.25,式(5)中
Figure BDA0001895009210000048
表示两个超像素之间的距离,
Figure BDA0001895009210000049
表示超像素
Figure BDA00018950092100000410
中所有像素在Lab颜色空间的平均值,
Figure BDA00018950092100000411
表示超像素
Figure BDA00018950092100000412
中所有像素在Lab颜色空间的平均值。最后我们通过下面的公式来集成Bdc(i),Comp(i)和
Figure BDA00018950092100000413
得到空间颜色显著图CSk
Figure BDA00018950092100000414
步骤S2:得到空间颜色显著图之后,我们对它进行平滑,进一步的提高检测精度,平滑过程如下:
Figure BDA00018950092100000415
式(7)中,ct,i表示第t个视频帧中第i个超像素的平均RGB颜色值,
Figure BDA00018950092100000416
表示满足||pt,i,pk,j||≤θ的空间局部邻域,ck,j表示第k个视频帧中第j个超像素的平均RGB颜色值,
Figure BDA00018950092100000417
表示第k帧中第j个超像素的颜色显著性,
Figure BDA00018950092100000418
表示第t帧中第i个超像素平滑之后的颜色显著性,pt,i表示第t帧中第i个超像素的中心位置,pk,j分别表示第k帧中第j个超像素的中心位置,σ控制平滑强度其中θ的定义为:
Figure BDA00018950092100000419
Figure BDA00018950092100000420
式(8)中m和n分别表示当前帧中的帧号和超像素号。式(9)中E(·)表示指示函数,ξ经验性的设置为10来控制过滤强度,第i个超像素的平均中心坐标表示为Ii,同时为了确保在每一帧中显著性的一致性,第q帧的的平滑范围θq可以被动态的更新如下所示:
θq←αθq+(1-α)θq-1 (10)
式(10)中,α表示学习权重,我们将它设为0.2。最后我们按照如下的方式集成空间信息和运动信息,得到融合的低水平时空显著图:
Hk=CSkοMSkοESk (11)
步骤S3:对一幅图像,构造一个无向加权图
Figure BDA00018950092100000421
使用超像素作为节点Vk,使用节点对之间的链路作为边εk,计算权重
Figure BDA0001895009210000051
对每个超像素,根据到图像边界的最短测地线距离,我们计算前景概率
Figure BDA0001895009210000052
Figure BDA0001895009210000053
式(12)中,沿着帧Lk四条边界的超像素表示为G,在图
Figure BDA0001895009210000054
中,任意两个超像素之间的测地线距离定义为图
Figure BDA0001895009210000055
上沿其最短路径的累积边权:
Figure BDA0001895009210000056
式(13)中,Cv1,v2(p)表示连接节点V1,V2(分别对于p=0和p=1)的路径。每一帧的前景目标概率
Figure BDA0001895009210000057
归一化为[0,1];随后,Ik表示帧Lk的目标概率图。
步骤S4:对于每对相邻视频帧,构造一个无向加权图
Figure BDA0001895009210000058
对于每一帧,我们通过具有自适应阈值的对象概率
Figure BDA0001895009210000059
将帧Lk分解为背景区域Dk和对象区域Ok,最后在无向加权图
Figure BDA00018950092100000510
的基础上,计算得到最后的显著图:
Figure BDA00018950092100000511
式中,
Figure BDA00018950092100000512
表示第n帧中的第k个超像素,D表示相邻两帧的背景区域,
Figure BDA00018950092100000513
表示构造的帧间图。基于图
Figure BDA00018950092100000514
计算了显著性,
Figure BDA00018950092100000515
表示到相邻两帧背景的最短测地线距离。
为了评估本算法的性能,本发明采用SegTrackv1,SegTrack v2,and ViSal三个公开视频数据集作为实验数据集,并且与六种图像显著性模型:BSCA,MIPS,SP-MS,MST,LPS,RCRR和五种视频显著性模型:SAG,GF,SGSP,SGAF,and STBP进行实验对比。
本实验选择了S-measure,MAE,NSS,and s-AUC四个评价指标对实验结果进行定性定量评价,图5为SegTrack v2中的实验原图和各方法的结果图。图6为ViSal中的实验原图和各方法的实验结果图,表1为采用S-measure,MAE,NSS,and s-AUC评价指标定量分析实验结果。实验结果对比表如表1所示,在SegTrack v1中,我们的方法在NSS和s-AUC指标上表现出最好的结果,并且在MAE和S-measure这两项指标上略低于SAG方法。在SegTrack v2中,我们的方法在NSS、s-AUC和S-measure指标上展示了最好的结果,但是在MAE指标上略低于STBP方法。在Visal数据集中,我们的方法在NSS、MAE和S-measure这三个评价指标中取得了最好的结果,但是在s-AUC评价指标中略低于MIPS方法。
表1实验结果对比表
Figure BDA0001895009210000061
以上这些实施例应理解为仅用于说明本发明而不用于限制本发明的保护范围。在阅读了本发明的记载的内容之后,技术人员可以对本发明作各种改动或修改,这些等效变化和修饰同样落入本发明权利要求所限定的范围。

Claims (8)

1.一种基于低水平显著性融合和测地线的视频显著性检测方法,其特征在于,包括以下步骤:
S1、首先,输入原始视频帧,并求取原始视频帧的超像素图像,根据每一个超像素图像分别求取空间边缘图ESk,运动边界图MSk,空间颜色显著图CSk
S2、其次,对得到的空间颜色显著图CSk进行平滑处理,然后集成平滑之后的颜色显著图CSk,运动边界图MSk和空间边缘图ESk得到低水平的时空显著图Hk
S3、再次,对任一幅图像,构造一个无向加权图
Figure FDA0003914998820000011
Vk表示超像素节点,εk表示节点对之间的链路,根据到图像边界的最短测地线距离,计算前景概率为
Figure FDA0003914998820000012
S4、最后,对于每对相邻视频帧,构造一个无向加权图
Figure FDA0003914998820000013
对于每一帧,通过具有自适应阈值的前景概率
Figure FDA0003914998820000014
将帧Lk分解为背景区域Dk和对象区域Ok,最后在无向加权图
Figure FDA0003914998820000015
的基础上,计算得到最后的显著图。
2.根据权利要求1所述一种基于低水平显著性融合和测地线的视频显著性检测方法,其特征在于:所述步骤S1中求取的空间颜色显著图CSk是通过集成颜色边缘连通性Bdc(i)、颜色稀有性Comp(i)和颜色紧凑性
Figure FDA0003914998820000016
得到的,
Figure FDA0003914998820000017
Figure FDA0003914998820000018
表示第i帧图像中的第k个超像素,i表示近似目标区域。
3.根据权利要求2所述一种基于低水平显著性融合和测地线的视频显著性检测方法,其特征在于:所述颜色边缘连通性Bdc(i)通过以下公式计算,
Figure FDA0003914998820000019
式中,len(i)表示图像中近似目标区域边缘上的像素数目,area(i)表示近似目标区域面积。
4.根据权利要求2所述一种基于低水平显著性融合和测地线的视频显著性检测方法,其特征在于:所述颜色稀有性Comp(i)通过以下公式计算,
Figure FDA00039149988200000110
式中,
Figure FDA00039149988200000111
表示超像素
Figure FDA00039149988200000112
中所有像素的平均值;mpos(i)代表了近似目标区域中所有像素的平均值;K表示近似目标区域i中的超像素数目。
5.根据权利要求2所述一种基于低水平显著性融合和测地线的视频显著性检测方法,其特征在于:所述颜色紧凑性
Figure FDA00039149988200000113
通过以下公式计算,
Figure FDA0003914998820000021
式中,N表示图像中的超像素数目,式中
Figure FDA0003914998820000022
表示距离加权系数,
Figure FDA0003914998820000023
表示两个超像素之间的距离。
6.根据权利要求1所述一种基于低水平显著性融合和测地线的视频显著性检测方法,其特征在于:所述步骤S2中平滑处理的过程如下:
Figure FDA0003914998820000024
式中,ct,i表示第t个视频帧中第i个超像素的平均RGB颜色值,
Figure FDA0003914998820000025
表示空间局部邻域,σ控制平滑强度,ck,j表示第k个视频帧中第j个超像素的平均RGB颜色值,
Figure FDA0003914998820000026
表示第k帧中第j个超像素的颜色显著性,
Figure FDA0003914998820000027
表示第t帧中第i个超像素平滑之后的颜色显著性,pt,i表示第t帧中第i个超像素的中心位置,pk,j表示第k帧中第j个超像素的中心位置。
7.根据权利要求1所述一种基于低水平显著性融合和测地线的视频显著性检测方法,其特征在于:所述步骤S3中对每个超像素,根据到图像边界的最短测地线距离,计算前景概率
Figure FDA0003914998820000028
Figure FDA0003914998820000029
式中,沿着帧Lk四条边界的超像素表示为G,在图
Figure FDA00039149988200000210
中,
Figure FDA00039149988200000211
表示第n帧图像中的第k个超像素,任意两个超像素之间的测地线距离定义为图
Figure FDA00039149988200000212
上沿其最短路径的累积边权:
Figure FDA00039149988200000213
式中,Cv1,v2(p)表示连接节点V1,V2的路径,Wk表示图
Figure FDA00039149988200000214
的权重矩阵,每一帧的前景概率
Figure FDA00039149988200000215
归一化为[0,1],
Figure FDA00039149988200000216
表示超像素
Figure FDA00039149988200000217
Figure FDA00039149988200000218
之间的测地线距离。
8.根据权利要求1所述一种基于低水平显著性融合和测地线的视频显著性检测方法,其特征在于:所述步骤S4中计算最后的时空显著图
Figure FDA00039149988200000219
如下:
Figure FDA00039149988200000220
式中,
Figure FDA00039149988200000221
表示第n帧中的第k个超像素,D表示相邻两帧的背景区域,
Figure FDA00039149988200000222
表示构造的帧间图。
CN201811488005.8A 2018-12-06 2018-12-06 一种基于低水平显著性融合和测地线的视频显著性检测方法 Active CN109711417B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811488005.8A CN109711417B (zh) 2018-12-06 2018-12-06 一种基于低水平显著性融合和测地线的视频显著性检测方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811488005.8A CN109711417B (zh) 2018-12-06 2018-12-06 一种基于低水平显著性融合和测地线的视频显著性检测方法

Publications (2)

Publication Number Publication Date
CN109711417A CN109711417A (zh) 2019-05-03
CN109711417B true CN109711417B (zh) 2022-12-27

Family

ID=66254016

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811488005.8A Active CN109711417B (zh) 2018-12-06 2018-12-06 一种基于低水平显著性融合和测地线的视频显著性检测方法

Country Status (1)

Country Link
CN (1) CN109711417B (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113128344B (zh) * 2021-03-19 2024-02-02 杭州电子科技大学 一种多信息融合的立体视频显著性检测方法
CN115953419A (zh) * 2023-03-09 2023-04-11 天津艾思科尔科技有限公司 一种基于超像素分析的动态视频检测预处理方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105488812A (zh) * 2015-11-24 2016-04-13 江南大学 一种融合运动特征的时空显著性检测方法
CN105556568A (zh) * 2013-07-31 2016-05-04 微软技术许可有限责任公司 使用背景先验的测地线显著性
CN106373131A (zh) * 2016-08-25 2017-02-01 上海交通大学 基于边缘的图像显著性区域检测方法
CN106611427A (zh) * 2015-10-21 2017-05-03 中国人民解放军理工大学 基于候选区域融合的视频显著性检测方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106296740B (zh) * 2016-08-11 2019-05-14 电子科技大学 一种基于低秩稀疏表达的目标精细轮廓跟踪方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105556568A (zh) * 2013-07-31 2016-05-04 微软技术许可有限责任公司 使用背景先验的测地线显著性
CN106611427A (zh) * 2015-10-21 2017-05-03 中国人民解放军理工大学 基于候选区域融合的视频显著性检测方法
CN105488812A (zh) * 2015-11-24 2016-04-13 江南大学 一种融合运动特征的时空显著性检测方法
CN106373131A (zh) * 2016-08-25 2017-02-01 上海交通大学 基于边缘的图像显著性区域检测方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
"一种结合显著性检测与词袋模型的目标识别方法";李伟生,陈曦;《计算机工程与科学》;20170930;第39卷(第9期);第1706-1713页 *
"基于自适应背景模板与空间先验的显著性物体检测方法";林华锋,李静,刘国栋等;《自动化学报》;20171031;第43卷(第10期);第1736-1748页 *
"基于颜色和运动空间分布的时空显著性区域检测算法";郑云飞,张雄伟,曹铁勇等;《计算机应用研究》;20170731;第34卷(第4期);第2189-2195页 *
"多分辨率最小障碍与梯度融合显著性检测算法";邵元,夏士雄,姚睿等;《计算机工程与应用》;20180215;第17-24页 *

Also Published As

Publication number Publication date
CN109711417A (zh) 2019-05-03

Similar Documents

Publication Publication Date Title
CN107423698B (zh) 一种基于并联卷积神经网络的手势估计方法
CN109671023B (zh) 一种人脸图像超分辨率二次重建方法
CN110503680B (zh) 一种基于非监督的卷积神经网络单目场景深度估计方法
CN108875935B (zh) 基于生成对抗网络的自然图像目标材质视觉特征映射方法
WO2018000752A1 (zh) 一种基于多尺度cnn和连续crf的单目图像深度估计方法
CN108090919A (zh) 一种基于超像素光流和自适应学习因子改进的核相关滤波跟踪方法
CN110378844A (zh) 基于循环多尺度生成对抗网络的图像盲去运动模糊方法
CN107066916B (zh) 基于反卷积神经网络的场景语义分割方法
CN109410247A (zh) 一种多模板和自适应特征选择的视频跟踪算法
CN102034247B (zh) 一种基于背景建模对双目视觉图像的运动捕捉方法
CN108932536A (zh) 基于深度神经网络的人脸姿态重建方法
CN108280804B (zh) 一种多帧图像超分辨率重建方法
CN112926552B (zh) 基于深度神经网络的遥感影像车辆目标识别模型及方法
CN109711417B (zh) 一种基于低水平显著性融合和测地线的视频显著性检测方法
CN116030498A (zh) 面向虚拟服装走秀的三维人体姿态估计方法
Xu et al. AutoSegNet: An automated neural network for image segmentation
CN113763417A (zh) 一种基于孪生网络和残差结构的目标跟踪方法
CN115713469A (zh) 基于通道注意力和形变生成对抗网络的水下图像增强方法
CN114830168A (zh) 图像重建方法、电子设备和计算机可读存储介质
CN116152926A (zh) 基于视觉和骨架信息融合的手语识别方法、装置及系统
CN111539985A (zh) 一种融合多特征的自适应运动目标跟踪方法
CN114708615A (zh) 基于图像增强的低照度环境下人体检测方法、电子设备及储存介质
WO2020001046A1 (zh) 一种基于自适应层次化运动建模的视频预测方法
CN113421210A (zh) 一种基于双目立体视觉的表面点云重建方法
CN117689876A (zh) 一种鸟类视觉启发的复杂背景下运动目标显著性检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant