CN103793925B - 融合时空特征的视频图像视觉显著程度检测方法 - Google Patents

融合时空特征的视频图像视觉显著程度检测方法 Download PDF

Info

Publication number
CN103793925B
CN103793925B CN201410061301.5A CN201410061301A CN103793925B CN 103793925 B CN103793925 B CN 103793925B CN 201410061301 A CN201410061301 A CN 201410061301A CN 103793925 B CN103793925 B CN 103793925B
Authority
CN
China
Prior art keywords
image
map
block
image block
saliency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201410061301.5A
Other languages
English (en)
Other versions
CN103793925A (zh
Inventor
段立娟
席涛
吴春鹏
马伟
苗军
齐洪钢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201410061301.5A priority Critical patent/CN103793925B/zh
Publication of CN103793925A publication Critical patent/CN103793925A/zh
Priority to US14/601,254 priority patent/US9466006B2/en
Application granted granted Critical
Publication of CN103793925B publication Critical patent/CN103793925B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/46Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

本发明涉及一种融合时空特征的视频图像视觉显著程度检测方法,包括:将输入图像切分成图像块,并进行向量化;对所有向量通过主成分分析进行降维;计算每个图像块与其它所有图像块的不相似度,再结合图像块之间的距离计算得到每个图像块的视觉显著性程度,得到空间特征显著图;对空间特征显著图施加中央偏置;计算每个图像块的运动矢量,并结合前两帧的运动矢量提取当前图像块的运动特征,得到时间特征显著图;融合空间和时间特征显著图得到时空特征显著图,进行平滑后得到最终反映图像上各个区域显著程度的结果图像。本发明采用融合时空特征的显著图,能够更准确地预测视频中不同区域的显著程度。

Description

融合时空特征的视频图像视觉显著程度检测方法
技术领域
本发明涉及视频图像处理中的局部区域分析,特别涉及一种融合时空特征的视觉显著程度检测方法。
背景技术
现代高速计算机的计算能力已达到惊人的程度,但计算机视觉系统却无法指导诸如过马路之类对人来说非常简单的视觉任务。这主要是因为同样面对海量的视觉信息输入,人眼可以在短时间内有选择地关注视觉场景中的显著变化区域,并进行分析判断,从而适应环境的变化。而计算机视觉系统只会不加选择地平等对待视觉场景中的各个区域,在无法理解场景变化的同时还会造成计算瓶颈。如果我们把人类视觉视觉系统的选择性注意功能引入到计算机视觉系统中,势必会提升现有计算机图像分析效率。
视频的视觉显著性区域检测有着广泛的应用,如视频压缩。当我们需要对一部视频进行压缩时,总希望保持视频中有意义的内容有较低的压缩率,而只是对那些不重要的背景区域进行较高的压缩率。如果使用某一个设备自动实现上述功能,就需要首先对视频中每一帧的各个区域的视觉显著程度进行判断从而确定视频中有意义的内容。
在有关视觉显著性程度检测的文献中,视觉显著区域通常被定义为那些在一幅图像或视频中某一帧中具有全局稀有性的局部图像块。这种定义的一种常见实现方法是:把图像或视频帧切分成若干个图像块,然后计算每个图像块相对其它所有图像块的不相似度,最后那些具有较高不相似度的图像块被认为是比较显著的区域。其中不相似度的比较方法可以是比较两个图像块在颜色、朝向、纹理、运动等特征上的对比度。还有一种定义认为与邻域对比比较大的区域是比较显著的区域。这种定义的实现方式和上述全局稀有性定义的主要区别在于每个图像块和它周围的图像块比较不相似度,而不是和当前图像中的所有图像块。
总体来说,上述两种方法主要考察的是图像块之间的不相似程度,但实际上图像块之间的距离也和视觉显著性程度有直接的关系。对人类知觉组织原则的相关研究表明,一幅图像中的显著区域会以比较紧凑的方式出现在图像中。也就是说,在一幅图像中,如果一个局部图像块和距离它比较近的那些图像块比较相似,那么这个图像块就越可能是显著的。如果两个图像块之间的距离比较大,那么即使它们比较相似,这两个图像块对于对方显著性程度的贡献也要下降。因此在一幅图像中,一个图像块对于另一个图像块在视觉显著性上的贡献随它们之间的不相似度增大而增大,随它们之间的距离增大而下降。
同时,对人类视觉系统的相关研究表明,在观察视觉场景时,人眼具有中央偏置特性。利用视点跟踪仪记录的人眼观察大量图像的视点分布统计结果也显示,即使个别图像在该图像的边缘区域具有比较显著的内容,但总体上来看,人眼对图像中一个区域的平均关注程度随该区域与图像中央区域的距离增大而下降。
申请号为201010522415.7的专利公开了一种图像中不同区域视觉显著程度的检测方法,它使用外观、位置和与中心的距离作为特征来衡量每个图像块的显著程度,但该检测方法仅仅考虑了每两个图像块间的空间特征差异,忽视了它们之间的运动特征差异。事实上,当人们观看视频时,运动特征也是吸引人眼注意的一个关键的因素,人类视觉系统分配大量资源用于运动感知,同时,人眼也能持续跟踪目标物体。因此,当衡量视频中图像块的显著性时,运动特征差异也是必须要考虑的。
发明内容
针对现有技术存在的上述问题,本发明提出了一种基于运动特征差异的图像不同区域视觉显著性的检测方法,在获得空间特征显著图的基础上,通过提取图像块间的运动特征得到时间特征显著图,融合空间特征显著图和时间特征显著图得到时空特征显著图,能够更准确地预测视频中不同区域的显著程度。
一种融合时空特征的视频图像视觉显著程度检测方法,包括以下步骤:
步骤1,将输入视频帧切分成不重叠的图像块,并将每个图像块向量化,每个图像块对应一个向量。
步骤2,对步骤1所得到的向量通过主成分分析(PCA)方法进行降维,降低当前帧中的噪声和冗余信息。
步骤3,利用步骤2得到的降维后的向量,计算每个图像块与其它所有图像块的不相似度,再结合图像块之间的距离计算得到每个图像块的视觉显著性程度,得到空间特征显著图。
步骤4,对于步骤3所得到的空间特征显著图施加中央偏置,得到施加中央偏置后的空间特征特征显著图。
步骤5,根据“块匹配”法计算每个图像块的运动矢量,并结合前两帧的运动矢量提取当前图像块的运动特征,从而得到时间特征显著图。
步骤6,融合步骤4和步骤5所得到的两个显著图,得到时空特征显著图。通过二维高斯平滑算子进行平滑,得到最终反映图像上各个区域显著程度的结果图像。
本发明的方法具有以下优点:
1.本发明在获得空间特征显著图的基础上,通过提取图像块间的运动特征得到时间特征显著图,融合空间特征显著图和时间特征显著图得到时空特征显著图,能够更准确地预测视频中不同区域的显著程度。
2.与传统方法相比,本发明不必提取颜色、朝向、纹理等视觉特征,省去了特征选择的步骤。
附图说明
图1为本发明所涉及方法的流程图;
图2为本发明实施例得到的的时间特征显著图,(a)为原始图像,(b)为原始图像的时间特征显著图。
具体实施方式
下面结合具体实施方式对本发明做进一步的说明。
本发明所述方法的流程图如图1所示,包括以下步骤:
步骤1,将输入图像切分成图像块,并进行向量化。
假设输入的视频帧是一幅3通道彩色图像I,其宽和高分别为W、H。
步骤1.1,将图像I按照从左至右从上至下的顺序切分成不重叠的L个图像块pi,i=1,2,...,L,每个图像块都是一个方块,宽和高都是k,k<W,k<H,每个图像块中的像素个数是k2,图像I可以切分出的图像块总数L=(W/k)·(H/k)。当图像的宽和高不是k的整数倍时,先对图像进行缩放,保证图像的宽和高是k的整数倍。
步骤1.2,将每个图像块pi向量化为列向量fi,对于3通道彩色图像I,每个图像块所对应的列向量fi的长度是3k2
步骤2,对步骤1所得到的所有向量通过主成分分析进行降维。
步骤2.1,计算步骤1所得到的所有向量的均值向量
f - = &Sigma; i = 1 L f i - - - ( 1 )
步骤2.2,构成样本矩阵A:
A = [ ( f 1 - f - ) , ( f 2 - f - ) , . . . , ( f N - f - ) ] - - - ( 2 )
步骤2.3,计算样本矩阵A的散度矩阵:
G = 1 L 2 &CenterDot; ( A T A ) - - - ( 3 )
式中,G为L×L散度矩阵。
步骤2.4,计算散度矩阵G的特征值和特征向量,挑选最大的d个特征值所对应的特征向量X1,X2,...,Xd构成矩阵U:
U=[X1X2…Xd]T(4)
式中,U为d×L矩阵。
步骤3,利用步骤2得到的降维后的向量,计算每个图像块与其它所有图像块的不相似度,再结合图像块之间的距离计算得到每个图像块的视觉显著性程度,得到空间特征显著图。
步骤3.1,计算每个图像块pi的视觉显著性程度:
Mi=maxjij}(j=1,...,L)(6)
D=max{W,H}(7)
&omega; ij = ( x pi - x pj ) 2 + ( y pi - y pj ) 2 - - - ( 9 )
其中,表示图像块pi和pj之间的不相似度,ωij表示图像块pi和pj之间的距离,umn表示矩阵U第m行第n列的元素,(xpi,ypi)、(xpj,ypj)分别代表图块pi和pj在原图像I上的中心点坐标。
步骤3.2,将所有图像块的视觉显著性程度取值按照原图像I上各图像块之间的位置关系组织成二维形式,构成空间特征显著图SalMap。
空间特征显著图SalMap是一个J行N列的灰度图,J=H/k,N=W/k。SalMap上第i行第j列的元素对应原图像I上切分出的图像块p(i-1)·N+j的显著程度取值为:
SalMap(i,j)=Sal(i-1)·N+j(i=1,..,J,j=1,...,N)(10)
步骤4,对于步骤3所得到的空间特征显著图施加中央偏置,得到施加中央偏置后的空间特征显著图。
步骤4.1,生成距离图DistMap和人眼平均关注程度权值图AttWeiMap。
距离图DistMap的计算公式为:
DistMap ( i , j ) = ( i - ( J + 1 ) / 2 ) 2 + ( j - ( N + 1 ) / 2 ) 2 ( i = 1 , . . . , J , j = 1 , . . . , N ) - - - ( 11 )
人眼平均关注程度权值图AttWeiMap的计算公式为:
AttWeiMap ( i , j ) = 1 - DistMap ( i , j ) - min { DistMap } max { DistMap } - min { DistMap } ( i = 1 , . . , J , j = 1 , . . . , N ) - - - ( 12 )
式中,max{DistMap}、min{DistMap}分别表示距离图上的最大值和最小值。
距离图DistMap和人眼平均关注程度权值图AttWeiMap与空间特征显著图SalMap的大小相同。
步骤4.2,将空间特征显著图与人眼平均关注程度权值图进行点对点乘法,得到施加中央偏置后的空间特征显著图SalMap',计算方法为:
SalMap'(i,j)=SalMap(i,j)·AttWeiMap(i,j)(i=1,..,J,j=1,...,N)(13)
步骤5,根据“块匹配”法计算每个图像块的运动矢量,并结合前两帧的运动矢量提取当前图像块的运动特征,从而得到时间特征显著图。
步骤5.1,根据“块匹配”法计算当前块的运动矢量。
根据“三步搜索法”在上一帧中搜索具有最小匹配误差的图像块,最小匹配误差为:
MSE=Σ|ft-1(x+Vx(t),y+Vy(t))-ft(x,y)|(14)
式中,MSE为最小匹配误差,ft-1、ft表示前一帧和当前帧,t为帧的序号,x、y是当前块水平和垂直方向的位置,ft(x,y)是当前帧在位置(x,y)处的图像块所对应的三通道RGB矩阵,Vx(t)、Vy(t)是上一帧中具有最小匹配误差的图像块的水平和垂直方向偏移量,组成当前块的运动矢量(Vx(t),Vy(t))。
步骤5.2,生成时间特征显著图。
(1)将当前块的运动矢量的水平和垂直位移量合并成一个分量V(t):
V ( t ) = V x ( t ) 2 + V y ( t ) 2 - - - ( 15 )
(2)从当前块的分量V(t)中减去前三帧中对应位置的三个图像块的分量的平均值,得到当前块的运动特征;对于视频前三帧中的图像块,从当前块的分量V(t)减去前面所有帧中对应位置的图像块的分量的平均值,得到时间特征显著图,计算公式为:
SV ( i , j , t ) = V ij ( t ) - ( &Sigma; k = 0 t - 1 V ij ( k ) ) / 3 , if 0 < t &le; 3 V ij ( t ) - ( &Sigma; k = t - 3 t - 1 V ij ( k ) ) / 3 , ift > 3 - - - ( 16 )
如图2所示,(a)为原始图像,(b)为原始图像的时间特征显著图。
步骤6,融合步骤4和步骤5得到的两个显著图,得到时空特征显著图。通过二维高斯平滑算子进行平滑,得到最终反映图像上各个区域显著程度的结果图像。时空特征显著图的计算公式为:
Saliency(i,j,t)=NOR[SalMap'(i,j)]+α·NOR[(SalMap'(i,j))·SV(i,j,t)β](17)
式中,NOR(·)是归一化操作运算符,α、β为常数,本发明中取α=0.2,β=3。
最终得到的结果图上数值越大的区域越显著。
到此为止已经实现了输入视频中每一帧上各区域视觉显著性程度计算。在此基础上还可以根据具体应用对所得到的结果图做进一步处理,如将最终得到的结果图扩大到与原始输入图像同样大小,或者通过设定阈值将结果图变换为二值图像。
为了测试本发明对于视频中各区域视觉显著性程度的检测效果,应用本发明及本领域常用的经典方法对Itti等人公开的视频库进行测试。该视频库中共有100个视频片段,根据有无运动目标和场景切换分为三个子测试库,分别为ORIG-M、ORIG-N和MTV。其中,子测试库ORIG-M中的视频是有运动目标的单一场景,共包含30个视频;子测试库ORIG-N中的视频是无运动目标的单一场景,共包含20个视频;子测试库MTV中的视频是多场景,共包含50个视频。该视频库涵盖的主题包括户外运动、电子游戏、体育比赛、电视新闻等。每段视频的平均长度大约15秒,所有视频片段的总长度是25分钟。每段视频都配有眼动仪记录的人眼真实视点,记录每名被试在每个视频帧上的一个视点。共有7名被试参与了视点采集实验,每个视频片段只由7人中的一部分人观看。
在测试视频库上分别运行本发明和其它显著性检测方法,得到视频库上每个视频的每一帧对应的反映图像上各区域显著程度的图像。应用Itti等人公开的视频显著性检测程序,根据度量人眼真实视点周围的显著值分布和随机选择区域的显著值分布的Kullback-Leibler距离(以下简称KL距离)评价各种方法的有效性,KL距离越大说明该注意选择算法越能有效区分视点和随机选择区域。
将本发明所述方法与本领域以下经典方法进行了对比:
1.美国Itti实验室成员Itti提出的基于特征整合理论的方法Itti’98;
2.美国Itti实验室成员Itti提出的基于贝叶斯惊奇的方法Itti’05;
3.美国加州理工学院HouXiaodi提出的基于幅度谱残差的方法SR;
4.中国复旦大学GuoChenlei提出的基于相位谱残差的方法PQFT;
5.北京工业大学申请号为201010522415.7的专利提出的检测方法SWD。
利用KL距离所得的测试结果表明,在子测试库ORIG-M和MTV中,本发明所述方法的测试结果比上述5种方法的测试结果都要好;在子测试库ORIG-N中,本发明所述方法的测试结果仅次于SWD方法,比其它4种方法的结果都要好;如表1所示。
表1在测试视频库上不同方法的KL值

Claims (2)

1.一种融合时空特征的视频图像视觉显著程度检测方法,其特征在于包括以下步骤:
步骤1,将输入图像切分成图像块,并进行向量化;
步骤1.1,将图像I按照从左至右从上至下的顺序切分成不重叠的L个图像块pi,i=1,2,...,L,每个图像块都是一个方块,宽和高都是k,k<W,k<H,W、H分别为图像I的宽和高,每个图像块中的像素个数是k2,图像I可以切分出的图像块总数L=(W/k)·(H/k);当图像的宽和高不是k的整数倍时,先对图像进行缩放,保证图像的宽和高是k的整数倍;
步骤1.2,将每个图像块pi向量化为列向量fi,对于3通道彩色图像I,每个图像块所对应的列向量fi的长度是3k2
步骤2,对步骤1所得到的所有向量通过主成分分析进行降维;
步骤2.1,计算步骤1所得到的所有向量的均值向量
f &OverBar; = &Sigma; i = 1 L f i
步骤2.2,构成样本矩阵A:
A = &lsqb; ( f 1 - f &OverBar; ) , ( f 2 - f &OverBar; ) , ... , ( f L - f &OverBar; ) &rsqb;
步骤2.3,计算样本矩阵A的散度矩阵:
G = 1 L 2 &CenterDot; ( A T A )
式中,G为L×L散度矩阵;
步骤2.4,计算散度矩阵G的特征值和特征向量,挑选最大的d个特征值所对应的特征向量X1,X2,...,Xd构成矩阵U:
U=[X1X2…Xd]T
式中,U为d×L矩阵;
步骤3,利用步骤2得到的降维后的向量,计算每个图像块与其它所有图像块的不相似度,再结合图像块之间的距离计算得到每个图像块的视觉显著性程度,得到空间特征显著图;
步骤3.1,计算每个图像块pi的视觉显著性程度,公式如下:
Mi=maxjij}(j=1,...,L)
D=max{W,H}
&omega; i j = ( x p i - x p j ) 2 + ( y p i - y p j ) 2
其中,表示图像块pi和pj之间的不相似度,ωij表示图像块pi和pj之间的距离,umn表示矩阵U第m行第n列的元素,(xpi,ypi)、(xpj,ypj)分别代表图块pi和pj在原图像I上的中心点坐标;
步骤3.2,将所有图像块的视觉显著性程度取值按照原图像I上各图像块之间的位置关系组织成二维形式,构成空间特征显著图SalMap;
空间特征显著图SalMap是一个J行N列的灰度图,J=H/k,N=W/k;SalMap上第i行第j列的元素对应原图像I上切分出的图像块p(i-1)·N+j的显著程度取值为:
SalMap(i,j)=Sal(i-1)·N+j(i=1,..,J,j=1,...,N)
步骤4,对于步骤3所得到的空间特征显著图施加中央偏置,得到施加中央偏置后的空间特征显著图;
步骤4.1,生成距离图DistMap和人眼平均关注程度权值图AttWeiMap;
距离图DistMap的计算公式为:
D i s t M a p ( i , j ) = ( i - ( J + 1 ) / 2 ) 2 + ( j - ( N + 1 ) / 2 ) 2 , ( i = 1 , .. , J , j = 1 , ... , N )
人眼平均关注程度权值图AttWeiMap的计算公式为:
A t t W e i M a p ( i , j ) = 1 - D i s t M a p ( i , j ) - min { D i s t M a p } m a x { D i s t M a p } - min { D i s t M a p } , ( i = 1 , .. , J , j = 1 , ... , N )
式中,max{DistMap}、min{DistMap}分别表示距离图上的最大值和最小值;
距离图DistMap和人眼平均关注程度权值图AttWeiMap与空间特征显著图SalMap的大小相同;
步骤4.2,将空间特征显著图与人眼平均关注程度权值图进行点对点乘法,得到施加中央偏置后的空间特征显著图SalMap',计算方法为:
SalMap'(i,j)=SalMap(i,j)·AttWeiMap(i,j)(ii=1,..,J,j=1,...,N)
步骤5,根据“块匹配”法计算每个图像块的运动矢量,并结合前三帧的运动矢量提取当前图像块的运动特征,得到时间特征显著图;
步骤6,融合步骤4和步骤5得到的两个显著图,得到时空特征显著图;通过二维高斯平滑算子进行平滑,得到最终反映图像上各个区域显著程度的结果图像;
所述步骤5生成时间特征显著图的方法还包括以下步骤:
步骤5.1,根据“块匹配”法计算当前块的运动矢量;
根据“三步搜索法”在上一帧中搜索具有最小匹配误差的图像块,最小匹配误差为:
MSE=Σ|ft-1(x+Vx(t),y+Vy(t))-ft(x,y)|
式中,MSE为最小匹配误差,ft-1、ft表示前一帧和当前帧,t为帧的序号,x、y是当前块水平和垂直方向的位置,ft(x,y)是当前帧在位置(x,y)处的图像块所对应的3通道RGB矩阵,Vx(t)、Vy(t)是上一帧中具有最小匹配误差的图像块的水平和垂直方向偏移量,组成当前块的运动矢量(Vx(t),Vy(t));
步骤5.2,生成时间特征显著图;
(1)将当前块的运动矢量的水平和垂直位移量合并成一个分量V(t):
V ( t ) = V x ( t ) 2 + V y ( t ) 2
(2)从当前块的分量V(t)中减去前三帧中对应位置的三个图像块的分量的平均值,得到当前块的运动特征;对于视频前三帧中的图像块,从当前块的分量V(t)减去前面所有帧中对应位置的图像块的分量的平均值,得到时间特征显著图,计算公式为:
S V ( i , j , t ) = V i j ( t ) - ( &Sigma; k = 0 t - 1 V i j ( k ) ) / 3 , i f 0 < t &le; 3 V i j ( t ) - ( &Sigma; k = t - 3 t - 1 V i j ( k ) ) / 3 , i f t > 3 .
2.根据权利要求1所述的一种融合时空特征的视频图像视觉显著程度检测方法,其特征在于,所述步骤6生成时空特征显著图的计算公式为:
Saliency(i,j,t)=NOR[SalMap'(i,j)]+αNOR[(SalMap'(i,j))·SV(i,j,t)β]
式中,NOR(·)是归一化操作运算符,α、β为常数,取α=0.2,β=3。
CN201410061301.5A 2014-02-24 2014-02-24 融合时空特征的视频图像视觉显著程度检测方法 Active CN103793925B (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN201410061301.5A CN103793925B (zh) 2014-02-24 2014-02-24 融合时空特征的视频图像视觉显著程度检测方法
US14/601,254 US9466006B2 (en) 2014-02-24 2015-01-21 Method for detecting visual saliencies of video image based on spatial and temporal features

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410061301.5A CN103793925B (zh) 2014-02-24 2014-02-24 融合时空特征的视频图像视觉显著程度检测方法

Publications (2)

Publication Number Publication Date
CN103793925A CN103793925A (zh) 2014-05-14
CN103793925B true CN103793925B (zh) 2016-05-18

Family

ID=50669548

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410061301.5A Active CN103793925B (zh) 2014-02-24 2014-02-24 融合时空特征的视频图像视觉显著程度检测方法

Country Status (2)

Country Link
US (1) US9466006B2 (zh)
CN (1) CN103793925B (zh)

Families Citing this family (96)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104463890B (zh) * 2014-12-19 2017-05-24 北京工业大学 一种立体图像显著性区域检测方法
CN106611427B (zh) * 2015-10-21 2019-11-15 中国人民解放军理工大学 基于候选区域融合的视频显著性检测方法
CN106951870B (zh) * 2017-02-15 2020-07-17 重庆警察学院 主动视觉注意的监控视频显著事件智能检测预警方法
US9953236B1 (en) 2017-03-10 2018-04-24 TuSimple System and method for semantic segmentation using dense upsampling convolution (DUC)
US10067509B1 (en) 2017-03-10 2018-09-04 TuSimple System and method for occluding contour detection
US10311312B2 (en) 2017-08-31 2019-06-04 TuSimple System and method for vehicle occlusion detection
US10671873B2 (en) 2017-03-10 2020-06-02 Tusimple, Inc. System and method for vehicle wheel detection
US10147193B2 (en) 2017-03-10 2018-12-04 TuSimple System and method for semantic segmentation using hybrid dilated convolution (HDC)
US11587304B2 (en) 2017-03-10 2023-02-21 Tusimple, Inc. System and method for occluding contour detection
US10471963B2 (en) 2017-04-07 2019-11-12 TuSimple System and method for transitioning between an autonomous and manual driving mode based on detection of a drivers capacity to control a vehicle
US10710592B2 (en) 2017-04-07 2020-07-14 Tusimple, Inc. System and method for path planning of autonomous vehicles based on gradient
US9952594B1 (en) 2017-04-07 2018-04-24 TuSimple System and method for traffic data collection using unmanned aerial vehicles (UAVs)
US10552691B2 (en) 2017-04-25 2020-02-04 TuSimple System and method for vehicle position and velocity estimation based on camera and lidar data
US10481044B2 (en) 2017-05-18 2019-11-19 TuSimple Perception simulation for improved autonomous vehicle control
US10558864B2 (en) 2017-05-18 2020-02-11 TuSimple System and method for image localization based on semantic segmentation
US10474790B2 (en) 2017-06-02 2019-11-12 TuSimple Large scale distributed simulation for realistic multiple-agent interactive environments
US10762635B2 (en) 2017-06-14 2020-09-01 Tusimple, Inc. System and method for actively selecting and labeling images for semantic segmentation
US10752246B2 (en) 2017-07-01 2020-08-25 Tusimple, Inc. System and method for adaptive cruise control with proximate vehicle detection
US10493988B2 (en) 2017-07-01 2019-12-03 TuSimple System and method for adaptive cruise control for defensive driving
US10737695B2 (en) 2017-07-01 2020-08-11 Tusimple, Inc. System and method for adaptive cruise control for low speed following
US10308242B2 (en) 2017-07-01 2019-06-04 TuSimple System and method for using human driving patterns to detect and correct abnormal driving behaviors of autonomous vehicles
US10303522B2 (en) 2017-07-01 2019-05-28 TuSimple System and method for distributed graphics processing unit (GPU) computation
US11029693B2 (en) 2017-08-08 2021-06-08 Tusimple, Inc. Neural network based vehicle dynamics model
US10360257B2 (en) 2017-08-08 2019-07-23 TuSimple System and method for image annotation
US10816354B2 (en) 2017-08-22 2020-10-27 Tusimple, Inc. Verification module system and method for motion-based lane detection with multiple sensors
US10565457B2 (en) 2017-08-23 2020-02-18 Tusimple, Inc. Feature matching and correspondence refinement and 3D submap position refinement system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10762673B2 (en) 2017-08-23 2020-09-01 Tusimple, Inc. 3D submap reconstruction system and method for centimeter precision localization using camera-based submap and LiDAR-based global map
US10303956B2 (en) 2017-08-23 2019-05-28 TuSimple System and method for using triplet loss for proposal free instance-wise semantic segmentation for lane detection
US10678234B2 (en) 2017-08-24 2020-06-09 Tusimple, Inc. System and method for autonomous vehicle control to minimize energy cost
US10783381B2 (en) 2017-08-31 2020-09-22 Tusimple, Inc. System and method for vehicle occlusion detection
US10782693B2 (en) 2017-09-07 2020-09-22 Tusimple, Inc. Prediction-based system and method for trajectory planning of autonomous vehicles
US10953880B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US10656644B2 (en) 2017-09-07 2020-05-19 Tusimple, Inc. System and method for using human driving patterns to manage speed control for autonomous vehicles
US10782694B2 (en) 2017-09-07 2020-09-22 Tusimple, Inc. Prediction-based system and method for trajectory planning of autonomous vehicles
US10953881B2 (en) 2017-09-07 2021-03-23 Tusimple, Inc. System and method for automated lane change control for autonomous vehicles
US10649458B2 (en) 2017-09-07 2020-05-12 Tusimple, Inc. Data-driven prediction-based system and method for trajectory planning of autonomous vehicles
US10552979B2 (en) 2017-09-13 2020-02-04 TuSimple Output of a neural network method for deep odometry assisted by static scene optical flow
US10671083B2 (en) 2017-09-13 2020-06-02 Tusimple, Inc. Neural network architecture system for deep odometry assisted by static scene optical flow
US10733465B2 (en) 2017-09-20 2020-08-04 Tusimple, Inc. System and method for vehicle taillight state recognition
US10387736B2 (en) 2017-09-20 2019-08-20 TuSimple System and method for detecting taillight signals of a vehicle
US10962979B2 (en) 2017-09-30 2021-03-30 Tusimple, Inc. System and method for multitask processing for autonomous vehicle computation and control
US10768626B2 (en) 2017-09-30 2020-09-08 Tusimple, Inc. System and method for providing multiple agents for decision making, trajectory planning, and control for autonomous vehicles
US10970564B2 (en) 2017-09-30 2021-04-06 Tusimple, Inc. System and method for instance-level lane detection for autonomous vehicle control
US10410055B2 (en) 2017-10-05 2019-09-10 TuSimple System and method for aerial video traffic analysis
US10666730B2 (en) 2017-10-28 2020-05-26 Tusimple, Inc. Storage architecture for heterogeneous multimedia data
US10812589B2 (en) 2017-10-28 2020-10-20 Tusimple, Inc. Storage architecture for heterogeneous multimedia data
US10739775B2 (en) * 2017-10-28 2020-08-11 Tusimple, Inc. System and method for real world autonomous vehicle trajectory simulation
US10528851B2 (en) 2017-11-27 2020-01-07 TuSimple System and method for drivable road surface representation generation using multimodal sensor data
US10528823B2 (en) 2017-11-27 2020-01-07 TuSimple System and method for large-scale lane marking detection using multimodal sensor data
US10657390B2 (en) 2017-11-27 2020-05-19 Tusimple, Inc. System and method for large-scale lane marking detection using multimodal sensor data
US10877476B2 (en) 2017-11-30 2020-12-29 Tusimple, Inc. Autonomous vehicle simulation system for analyzing motion planners
US10860018B2 (en) 2017-11-30 2020-12-08 Tusimple, Inc. System and method for generating simulated vehicles with configured behaviors for analyzing autonomous vehicle motion planners
CN108170791A (zh) * 2017-12-27 2018-06-15 四川理工学院 视频图像检索方法
WO2019136591A1 (zh) * 2018-01-09 2019-07-18 深圳大学 基于弱监督时空级联神经网络的显著目标检测方法及系统
AU2019206509A1 (en) 2018-01-09 2020-07-23 Tusimple, Inc. Real-time remote control of vehicles with high redundancy
WO2019140277A2 (en) 2018-01-11 2019-07-18 TuSimple Monitoring system for autonomous vehicle operation
US11009365B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization
US11009356B2 (en) 2018-02-14 2021-05-18 Tusimple, Inc. Lane marking localization and fusion
US10685244B2 (en) 2018-02-27 2020-06-16 Tusimple, Inc. System and method for online real-time multi-object tracking
US10685239B2 (en) 2018-03-18 2020-06-16 Tusimple, Inc. System and method for lateral vehicle detection
CN110378185A (zh) 2018-04-12 2019-10-25 北京图森未来科技有限公司 一种应用于自动驾驶车辆的图像处理方法、装置
CN108573241B (zh) * 2018-04-25 2022-07-15 江西理工大学 一种基于融合特征的视频行为识别方法
CN110458854B (zh) 2018-05-02 2022-11-15 北京图森未来科技有限公司 一种道路边缘检测方法和装置
US11104334B2 (en) 2018-05-31 2021-08-31 Tusimple, Inc. System and method for proximate vehicle intention prediction for autonomous vehicles
CN108965707B (zh) * 2018-07-23 2020-11-13 金展科技(佛山)有限公司 一种自动袪底拍摄系统
KR102051032B1 (ko) * 2018-08-01 2019-12-02 경북대학교 산학협력단 객체 탐지 장치 및 제어 방법
US10839234B2 (en) 2018-09-12 2020-11-17 Tusimple, Inc. System and method for three-dimensional (3D) object detection
WO2020056203A1 (en) 2018-09-13 2020-03-19 TuSimple Remote safe driving methods and systems
CN109359561B (zh) * 2018-09-28 2022-12-13 大连民族大学 时间信息差异的度量算法
US10796402B2 (en) 2018-10-19 2020-10-06 Tusimple, Inc. System and method for fisheye image processing
US10942271B2 (en) 2018-10-30 2021-03-09 Tusimple, Inc. Determining an angle between a tow vehicle and a trailer
CN109522909B (zh) * 2018-11-26 2022-03-11 东南大学 一种基于空间、颜色和中央偏置先验的概率超图构造方法
US11887005B2 (en) 2018-12-03 2024-01-30 Intel Corporation Content adaptive attention model for neural network-based image and video encoders
CN111319629B (zh) 2018-12-14 2021-07-16 北京图森智途科技有限公司 一种自动驾驶车队的组队方法、装置及系统
CN109993151A (zh) * 2019-04-15 2019-07-09 方玉明 一种基于多模块全卷积网络的三维视频视觉注意力检测方法
US11823460B2 (en) 2019-06-14 2023-11-21 Tusimple, Inc. Image fusion for autonomous vehicle operation
CN110415273B (zh) * 2019-07-29 2020-09-01 肇庆学院 一种基于视觉显著性的机器人高效运动跟踪方法及系统
CN110312124B (zh) * 2019-07-31 2020-09-08 中国矿业大学 一种基于显著性多特征融合的移动巡检视频质量修正方法
CN110689024A (zh) * 2019-09-10 2020-01-14 安徽三联学院 一种应用于雾天城市交通的目标检测方法
US11373407B2 (en) * 2019-10-25 2022-06-28 International Business Machines Corporation Attention generation
CN111461139B (zh) * 2020-03-27 2023-04-07 武汉工程大学 一种复杂场景下的多目标视觉显著性分层检测方法
EP3893150A1 (en) 2020-04-09 2021-10-13 Tusimple, Inc. Camera pose estimation techniques
AU2021203567A1 (en) 2020-06-18 2022-01-20 Tusimple, Inc. Angle and orientation measurements for vehicles with multiple drivable sections
CN112233065B (zh) * 2020-09-15 2023-02-24 西北大学 显著性调制下多维视觉特征协作的全盲图像质量评价方法
CN112101387A (zh) * 2020-09-24 2020-12-18 维沃移动通信有限公司 显著性元素识别方法及装置
CN112270657A (zh) * 2020-11-04 2021-01-26 成都寰蓉光电科技有限公司 一种基于天空背景的目标检测与跟踪算法
CN112381076B (zh) * 2021-01-18 2021-03-23 西南石油大学 一种视频显著性检测任务中图片预处理的方法
CN112861733B (zh) * 2021-02-08 2022-09-02 电子科技大学 一种基于时空双编码的夜间交通视频显著性检测方法
CN113115038B (zh) * 2021-04-16 2022-03-29 维沃移动通信有限公司 运动估计方法、装置、电子设备及可读存储介质
CN113256585B (zh) * 2021-05-24 2022-11-11 北京理工大学 基于时空张量分解的红外视频运动小目标实时检测方法
CN113284155B (zh) * 2021-06-08 2023-11-07 京东科技信息技术有限公司 视频目标分割方法、装置、存储介质及电子设备
CN113657408B (zh) * 2021-08-13 2022-11-18 北京百度网讯科技有限公司 确定图像特征的方法、装置、电子设备和存储介质
CN113947530B (zh) * 2021-10-21 2024-04-30 河北工业大学 一种基于相对显著性检测的图像重定向方法
CN114973057B (zh) * 2022-04-08 2024-07-05 平安国际智慧城市科技股份有限公司 基于人工智能的视频图像检测方法及相关设备
CN114782878B (zh) * 2022-05-26 2024-04-30 广东南方电信规划咨询设计院有限公司 一种视频显著性检测方法
CN115035378A (zh) * 2022-08-09 2022-09-09 中国空气动力研究与发展中心计算空气动力研究所 基于时空域特征融合的红外弱小目标的检测方法及装置

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101984464A (zh) * 2010-10-22 2011-03-09 北京工业大学 一种图像中不同区域视觉显著程度的检测方法

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101103378B (zh) * 2005-01-10 2011-12-07 汤姆森许可贸易公司 用于创建图像的显著图的设备和方法
US20210319253A1 (en) * 2006-10-10 2021-10-14 Xiaodong Gu Device adn method for generating saliency map of a picture
US8208552B2 (en) * 2008-01-25 2012-06-26 Mediatek Inc. Method, video encoder, and integrated circuit for detecting non-rigid body motion
WO2011152893A1 (en) * 2010-02-10 2011-12-08 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
US8891009B2 (en) * 2011-08-29 2014-11-18 Futurewei Technologies, Inc. System and method for retargeting video sequences
EP2582134A1 (en) * 2011-10-12 2013-04-17 Thomson Licensing Saliency value determination of predictively encoded video streams
EP2728513A1 (en) * 2012-10-31 2014-05-07 Nederlandse Organisatie voor toegepast -natuurwetenschappelijk onderzoek TNO Detection of human actions from video data

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101984464A (zh) * 2010-10-22 2011-03-09 北京工业大学 一种图像中不同区域视觉显著程度的检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
基于时空特征融合的视觉注意模型;郑雅羽;《吉林大学学报(工学版)》;20091130;第1625-1630页 *
融合运动和空间关系特性的显著性区域检测;刘晓辉等;《华中科技大学学报(自然科学版)》;20130630;第47页第一栏第9-第二栏第23行 *

Also Published As

Publication number Publication date
US9466006B2 (en) 2016-10-11
US20160210528A1 (en) 2016-07-21
CN103793925A (zh) 2014-05-14

Similar Documents

Publication Publication Date Title
CN103793925B (zh) 融合时空特征的视频图像视觉显著程度检测方法
WO2021098261A1 (zh) 一种目标检测方法与装置
CN107967451B (zh) 一种对静止图像进行人群计数的方法
Sharma et al. Performance analysis of moving object detection using BGS techniques in visual surveillance
Ma et al. Crossing the line: Crowd counting by integer programming with local features
US11048948B2 (en) System and method for counting objects
Lee et al. Motion influence map for unusual human activity detection and localization in crowded scenes
US11488320B2 (en) Pose estimation method, pose estimation apparatus, and training method for pose estimation
Wei et al. Motion detection based on optical flow and self-adaptive threshold segmentation
Singh et al. A deep learning based technique for anomaly detection in surveillance videos
Ahmad et al. Variable silhouette energy image representations for recognizing human actions
Chandrajit et al. Multiple objects tracking in surveillance video using color and hu moments
Kostavelis et al. Collision risk assessment for autonomous robots by offline traversability learning
Minoura et al. Crowd density forecasting by modeling patch-based dynamics
Nayan et al. Real time detection of small objects
Heo et al. Occlusion-aware spatial attention transformer for occluded object recognition
Savitha et al. Motion detection in video surviellance: A systematic survey
Liu et al. Analysis of contour motions
Almalki et al. Characterizing scattered occlusions for effective dense-mode crowd counting
Khan et al. Crowd counting and localization beyond density map
Mudjirahardjo et al. Abnormal motion detection in an occlusion environment
Liu et al. Pointernet: spatiotemporal modeling for crowd counting in videos
Zhuo et al. Vision-based Vehicle Detection in Real Traffic Environment Using Fast Wavelet Transform and Kalman Filter
Pahwa et al. Conditional RGB-T fusion for effective crowd counting
Mahmoudi Multi-GPU based framework for real-time motion analysis and tracking in multi-user scenarios

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
EE01 Entry into force of recordation of patent licensing contract

Application publication date: 20140514

Assignee: Luoyang Tiangang Trading Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000143

Denomination of invention: Visual saliency detection method for video images based on fusion of spatiotemporal features

Granted publication date: 20160518

License type: Common License

Record date: 20240104

Application publication date: 20140514

Assignee: Henan zhuodoo Information Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000138

Denomination of invention: Visual saliency detection method for video images based on fusion of spatiotemporal features

Granted publication date: 20160518

License type: Common License

Record date: 20240104

Application publication date: 20140514

Assignee: Luoyang Lexiang Network Technology Co.,Ltd.

Assignor: Beijing University of Technology

Contract record no.: X2024980000083

Denomination of invention: Visual saliency detection method for video images based on fusion of spatiotemporal features

Granted publication date: 20160518

License type: Common License

Record date: 20240104

EE01 Entry into force of recordation of patent licensing contract