CN101697593A - 一种基于时域预测的关注度提取方法 - Google Patents

一种基于时域预测的关注度提取方法 Download PDF

Info

Publication number
CN101697593A
CN101697593A CN200910063890A CN200910063890A CN101697593A CN 101697593 A CN101697593 A CN 101697593A CN 200910063890 A CN200910063890 A CN 200910063890A CN 200910063890 A CN200910063890 A CN 200910063890A CN 101697593 A CN101697593 A CN 101697593A
Authority
CN
China
Prior art keywords
attention rate
subgraph
saliency
frame
prediction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN200910063890A
Other languages
English (en)
Other versions
CN101697593B (zh
Inventor
胡瑞敏
夏洋
张岿
王中元
王啟军
陈皓
毛丹
钟睿
汪欢
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University WHU
Original Assignee
Wuhan University WHU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University WHU filed Critical Wuhan University WHU
Priority to CN 200910063890 priority Critical patent/CN101697593B/zh
Publication of CN101697593A publication Critical patent/CN101697593A/zh
Application granted granted Critical
Publication of CN101697593B publication Critical patent/CN101697593B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

本发明公开了一种基于时域预测的关注度提取方法,其方法利用关注度图存在的时域相关性,从当前帧及相邻的至少一帧先前帧的关注度图预测下一帧关注度图。本发明先提取特征和关注度得到关注度子图,然后对关注度子图进行时域预测,最后合并预测出的关注度子图,得到下一帧图像的关注度预测图。本发明通过关注度区域预测技术,大幅降低关注度模型的计算复杂度,解决现有的关注度提取方法的计算复杂度高而不能针对视频编码的实时应用的难题。

Description

一种基于时域预测的关注度提取方法
技术领域
本发明属于视频分析领域,特别是涉及利用图像特征的关注度提取方法。
背景技术
人类的视觉系统既要求有处理大量输入信息的能力,又要求具有实时反应能力,视觉心理学研究表明,在分析复杂的输入景象时,人类视觉系统采取了一种串行的计算策略,即利用选择性注意机制,根据图像的局部特征,选取景象的特定区域,并通过快速的眼动扫描,将该区域移到具有高分辨率的视网膜中央凹区,实现对该区的注意,以便对其进行更精细的观察与分析。选择性注意机制是人类从外界输入的大量信息中选择特定信息的一个关键技术。如果能将这种注意机制引入视频编码中,提前标注出容易引起观察者注意的区域,则为感兴趣区域编码提供重要的支撑。
Itti等人提出的关注度图(Saliency Map)方法充分利用了神经生理学中感受野,侧抑制神经网络等研究成果,模拟了人的视觉注意力机制,认为像素与背景的对比是吸引人注意的重要因素,并把这种对比定义为该点的关注值(saliency)。综合考虑亮度、颜色、方向、运动等多种特征的关注值就得到视频图像的关注度图。由于这种方法综合了多种视觉特征,所以选取的注视点和人观察图像时的实际注视点比较吻合。
关注度图(Saliency Map)是一幅表明图像各点的关注性的二维图像,关注度图中的点和输入图像的像素有拓扑上的对应关系。可以认为不同视觉特征(如颜色、方向等)对关注性有不同的贡献,但它们之间没有相互作用。对于视觉注意来说重要的是特征的对比,而不是特征的局部的绝对值。使用不同尺度的高斯差函数(Difference of Gaussians)对图像的不同特征滤波,把得到的各个特征的响应求和,作为图像中该点的关注值。
获取关注度图涉及亮度、颜色、方向、运动等多种特征的关注度子图的提取及合并,现有的关注度提取方法的复杂度高,不能针对视频编码实时应用。
发明内容
为了解决现有的关注度提取方法的复杂度高,不能针对视频编码的实时应用的问题,本发明提供一种基于时域预测的关注度提取方法。
本发明解决其技术问题提供的技术方案为根据当前帧及相邻的至少一帧先前帧图形的关注度图预测下一帧图像的关注度图,包括以下步骤,
步骤1,特征提取,即提取当前帧及相邻的至少一帧先前帧图像,把每帧图像表示为高斯金字塔,从高斯金字塔每层中提取各种纹理视觉特征得到纹理参数特征图,从高斯金字塔每层中提取运动参数特征得到运动参数特征图;
步骤2,关注度子图生成,即针对纹理参数特征图提取关注值得到纹理关注度子图,针对运动参数特征图提取关注值得到运动关注度子图;
步骤3,关注度子图预测,即用当前帧及相邻的至少一帧先前帧图像的纹理关注度子图预测下一帧图像的纹理关注度子图,用当前帧及相邻的至少一帧先前帧图像的运动关注度子图预测下一帧图像的运动关注度子图;
步骤4,关注度预测图生成,即合并步骤3预测所得下一帧图像的纹理关注度子图和运动关注度子图,作为下一帧图像的关注度预测图。
而且,所述纹理视觉特征包括亮度特征、颜色特征和方向特征;提取亮度特征得到亮度特征图,对亮度特征图提取关注值得到亮度关注度子图;提取颜色特征得到颜色特征图,对颜色特征图提取关注值得到颜色关注度子图;提取方向特征得到方向特征图,对方向特征图提取关注值得到方向关注度子图。
本发明采用时域预测方式支持感兴趣区域编码中的感兴趣区域提取,从当前帧及相邻的至少一帧先前帧的关注度图预测出下一帧关注度预测图,用预测出的下一帧关注度预测图代替计算的关注度图,以减少计算复杂度。从而解决了感兴趣区域编码中感兴趣区域提取实时性的问题;克服了现有的关注度提取方法的计算复杂度高,不能针对视频编码的实时应用的缺陷。应用本发明所提供技术方案,可以在实时视频编码的准确性和实时性中达到平衡。
附图说明
图1为实施例的关注度提取原理图;
图2为预测中涉及的三种像素点示意图
具体实施方式
本发明公开了一种基于时域预测的关注度提取方法,其基本原理是利用关注区域的纹理视觉特征和运动参数特征的时域相关性,根据当前帧及相邻的至少一帧先前帧的关注度图推算出下一帧的关注度预测图,以减少计算复杂度。
以下参考附图说明发明的实施例。通过对结合附图的实施例的详细描述,本发明的优点和特征,及其实现方法对本领域技术人员来讲更加清楚,然而,本发明的范围不局限于说明书中所公开的实施例,并且本发明也可以其他形式来实现。纹理视觉特征可以包括多种特征,实施例选择考察其中的亮度特征、颜色特征和方向特征。具体实施时,可以在精确度要求不高的情况下,只考察其中两种特征,这样实现更简便。参见附图1,时域预测综合当前帧图像、与当前帧相邻的至少一帧先前帧图像的特征进行预测,可标识为第n帧到第n-i帧,i取1或以上的整数。针对当前的输入图像(第n帧),分别提取当前帧图像(第n帧)和先前帧图像(第n-1帧至第n-i)的纹理特征(亮度、颜色及方向)和运动特征,分别进行纹理特征预测和运动特征预测,预测下一帧(第n+1帧)的相应特征信息,最后特征合并得到下一帧的关注度预测图。最简单的情况是i取1,即只用当前帧和先前一帧预测的情况。具体实施时,本领域技术人员可以根据需要设定i值。本发明分成特征提取,关注度子图生成,关注度子图预测,关注度预测图生成4个步骤,实施例中每个步骤说明如下:
1.特征提取
提取当前帧及相邻的至少一帧先前帧图像,把每帧图像表示为9层的高斯金字塔。其中第0层是输入图像,1到8层分别是用5x5的高斯滤波器对输入图像进行滤波和采样形成的,大小为输入图像的1/2,1/4,1/8,1/16,1/32,1/64,1/128,1/256。然后对高斯金字塔的每一层分别提取各种纹理视觉特征:亮度、颜色(分为红色、绿色、蓝色、黄色)、方向,形成亮度金字塔I(σ),色度金字塔R(σ),G(σ),B(σ),Y(σ)和方向金字塔O(σ,θ)。色度金字塔R(σ),G(σ),B(σ),Y(σ)分别与红色、绿色、蓝色、黄色相应。σ取值为0到8,分别代表9个不同尺度。
各个特征的提取方法如下:
(一)亮度特征
设r,g,b分别为图像中红、绿、蓝三个分量,并且归一化到(0,1)。可由公式(1)求得亮度特征I
I=(r+g+b)/3                            (1)
(二)颜色特征
将图像在红色、绿色、蓝色、黄色四个通道上的分量来计算其颜色特征,得到红色通道颜色特征R、绿色通道颜色特征G、蓝色通道颜色特征B、黄色通道颜色特征Y:
R = ( r - g + b 2 ) - - - ( 2 )
G = ( g - r + b 2 ) - - - ( 3 )
B = ( b - r + g 2 ) - - - ( 4 )
Y = r + g 2 - | r - g | 2 - b - - - ( 5 )
(三)方向特征
方向金字塔O(σ,θ)是对亮度特征I在尺度σ上用方向θ的Gabor函数滤波得到的Gabor金字塔。其中,σ∈[0,8],θ∈{0°,45°,90°,135°}。
(四)运动特征
设(mvx,mvy)为图像帧中当前块的运动矢量,maxMV为该图像最大的运动矢量数值,可由公式(6)求得运动参数特征MV
MV = mvx 2 + mvy 2 max MV - - - ( 6 )
通过以上(一)、(二)、(三)部份的计算,从金字塔每层中提取各种纹理视觉特征得到各层的纹理参数特征图,可以将纹理参数特征表示为9个特征金字塔:亮度1个,色度4个,方向4个。受视网膜中感受野信息处理方式的影响,吸引视觉注意的是特征的对比而不是特征的绝对值。本发明对各种纹理参数特征分别在特征金字塔的不同尺度间作差,来模拟感受野的中心-外周拮抗的结构。感受野的中心对应于尺度c的特征图的一个点(c∈{2,3,4}),感受野的外周对应于尺度s的特征图中的对应点(s=c+δ,δ∈{3,4})。由于不同尺寸的特征图大小不同,在做差时需要把大尺寸s下的特征图插值,得到和小尺寸c下的特征图一样大小的图像。然后逐点作差。这个过程用Θ表示。做差得到的是中心(尺度c)和外周(尺度c+δ)的特征的对比:
I(c,s)=|I(c)ΘI(s)|                                       (7)
RG(c,s)=|(R(c)-G(c))Θ(G(s)-R(s))|                        (8)
BY(c,s)=|(B(c)-Y(c))Θ(Y(s)-B(s))|                        (9)
O(c,s,θ)=|O(c,θ)ΘO(s,θ)|                           (10)
由于中心尺度c和外周尺度s之间有3x2=6种组合,所以上面的(7),(8),(9),(10)式一共可以得到42个不同尺度的特征图,分别是6个亮度特征图,12个颜色特征图,24个方向特征图。其中公式(7)计算亮度特征图I(c,s),公式(8)计算红绿色的颜色特征图RG(c,s),(9)计算蓝黄色的颜色特征图BY(c,s),公式(10)计算方向特征图O(c,s,θ)。
由于运动参数MV的绝对值已经代表了关注度模型的运动参数的对比,故不考虑用特征金字塔来模拟运动参数的感受野的中心-外周拮抗的结构,仅用图像帧当前块的运动参数特征
Figure G200910063890XD0000061
组成唯一一幅运动参数特征图。
由此得到仅用图像帧当前块的运动参数特征
Figure G200910063890XD0000062
组成唯一一幅运动参数特征图和42幅不同尺度的纹理参数特征图。
2.关注度子图生成
计算关注度子图需要将上面得到的42幅纹理参数特征图和1幅运动参数特征图综合起来,由于这些特征图由不同的计算方法得到,各图的取值范围不同,很可能在综合之后将某些图中很关注的区域掩盖掉。因此,实施例在计算之前将特征图进行标准化,方法如下:
1)将各图中各点的值标准化到一个固定的区间[O,M]中。
2)找到图中全局最大值M,然后计算其他局部极大值的平均值m。
3)图中所有的点的值乘(M-m)2
这种标准化方法使每个特征图只保留少数几个关注值,而且特征不是很明显的关注度子图会被抑制,从而在叠加多个关注度子图时能把同时有多种显著特征的点突现出来。本发明把这种标准化方法定义为N。
为了简化计算,本发明实施例把特征图进行合并。分别把每一类(亮度、颜色、方向)归一化后的特征图在第四等级尺度上(σ=4)相加,得到对应三类特征的关注度子图:
I ‾ = ⊕ c = 2 4 ⊕ s = c + 3 c + 4 N ( I ( c , s ) ) - - - ( 11 )
C ‾ = ⊕ c = 2 4 ⊕ s = c + 3 c + 4 [ N ( RG ( c , s ) ) + N ( BY ( c , s ) ) ] - - - ( 12 )
Figure G200910063890XD0000073
MV=N(MV)                                    (14)
其中
Figure G200910063890XD0000074
表示特征图之间的求和运算。求和时先把纹理参数特征图下采样到第4级,再逐点求和。这样就分别得到了1个亮度关注度子图I,1个颜色关注度子图C,1个方向关注度子图O。对于运动关注度子图MV,在进行N操作前把运动参数特征图同样采样到第4级,这样就得到了1个运动关注度子图。
3.关注度子图预测
本发明实施例需要对上面得到的亮度关注度子图,颜色关注度子图,方向关注度子图,运动关注度子图作预测。实施例所用的是一种运动估计(MVE)方法,通过对至少2帧图像的关注度子图做运动估计,得到关注度子图之间的运动矢量(MV)信息,并以此计算下一帧关注度子图和已有的关注度子图间的MV信息,最后利用MV信息预测计算下一帧的关注度子图。
以亮度关注度子图I来举例说明。利用当前两帧亮度关注度子图In-2和In-1的亮度特征矩阵预测出第n帧亮度关注度子图In。此过程包括以下步骤:
(1)求In中每个4x4的块的MVm(Bn i)和MVa(Bn i)
根据In-2和In-1得到In-1的运动矢量,再根据现有的光流法可得到在In上的运动矢量,可推得In-1中的块对应于In的外推块。对于In上的一个4x4块来说,可能有多个In-1上的4x4块投影到此块上,每个In-1上的4x4块都有一个运动矢量。此时,本发明需要求解In上每一个4x4块可能存在的两种运动矢量:MVm(Bn i)和MVa(Bn i)。MVm(Bn i)是具有最大的权重wn ij的外推块的运动矢量,MVa(Bn i)是和预测块有重叠的所有外推块的运动矢量的加权平均。如图2所示,In上的当前待预测4x4块有4个块投影到其上,即外推块1、外推块2、外推块3、外推块4。
重叠区域的像素个数可以用来计算出预测的权重wn i,j
w n i , j = Σ p ∈ B n i f j ( p ) , i=1,2……,M;j=1,2……,M    (15)
其中M表示一帧亮度关注度子图中4x4块的数量,
Figure G200910063890XD0000082
其中,EBn j表示用来预测In的参考帧上的第j个4x4外推块,Bn i表示In上的第i个4x4预测块
NVm(Bn i)由(15)求得:
MV m ( B n i ) = MV ( EB n j * ) - - - ( 16 )
其中, j * = arg max { w n i , j } , i=1,2……,M;j=1,2……,M
MVa(Bn i)由(16)求得:
MV a ( B n i ) = Σ j = 1 M MV ( EB n j ) w n i , j Σ j = 1 M w n i , j - - - ( 17 )
其中,MV(EBn j)表示EBn j的MV。
另外,如果块Bn i没有被任何外推块覆盖,则Bn i块的MV为空。
(2)求In中的每个像素点的MV集合MVSp(Pn x,y)。
Pn x,y表示In中坐标为(x,y)的像素点。MVE方法将预测帧In上的每个点(在这里称为像素)分成三类:
A类:至少被一个4x4外推块覆盖的像素点。如图2所示,预测块的4x4个像素点标识为1、2、3、4、5、6、7、8、9、10、11、12、13、14、15、16。预测块1中属于A类的像素包括{1,2,3,4,5,6,7,9,13,14,15},这些像素点分别被外推块1、外推块2、外推块3、外推块4覆盖。
B类:没有被任何一个4x4外推块覆盖的像素点,但该像素所属的4x4块和某些外推块有重叠。如图2所示,预测块1中属于B类的像素包括{8,10,11,12,16}。
C类:没有被任何一个4x4外推块覆盖的像素点,且该像素所属的4x4块和任何外推块都没有重叠。如图2所示,预测块2的像素点属于C类。
A类中的像素点至少有一个的In-1外推块覆盖其上,因此这些像素点的MVSp(Pn x,y)包括所有覆盖该点的In-1外推块的MV,B类和C类中的像素点MVSp(Pn x,y)为空。
综合考虑块运动向量MVm(Bn i),MVa(Bn i)以及像素运动向量MVSp(Pn x,y),该像素点的MV集合MVS(Pn x,y)可归纳如下:
对A类的像素点, MVS ( P n x , y ) = { MV m ( B n i ) , MV a ( B n i ) , MVS p ( P n x , y ) }
其中 P n x , y ∈ B n i
对B类的像素点, MVS ( P n x , y ) = { MV m ( B n i ) , MV a ( B n i ) }
对C类的像素点, MVS ( P n x , y ) = { MV ( P n - 1 x , y ) }
其中MV(Pn-1 x,y)表示前一帧相同位置像素的MV
最后可以求得每一个像素的MV为MVS(Pn x,y)中个分量的平均值。
(3)预测出下一帧图像的亮度关注度子图
根据MV信息,预测关注度子图的点A时可以找到前一帧关注度子图的对应位置B,并将B的值赋给A,从而得到亮度关注度子图Su(Pn x,y)。
Su ( P n x , y ) = Su ( P n - 1 x + mvx , y + mvy ) - - - ( 18 )
同理可得色度、方向、运动的关注度子图。
大于两帧的关注度子图预测,可以两帧的预测为基础,以得出的运动矢量加权的形式来实现。本技术领域技术人员可参考实施例实现大于两帧的关注度子图预测,本发明不予赘述。
4.关注度预测图生成
综合所有特征的关注性,将所有预测出的子图合并,就得到对应输入图像的关注度预测图S
S = 1 4 ( ( Su ( I ‾ ) ) + ( Su ( C ‾ ) ) + ( Su ( O ‾ ) ) + ( Su ( MV ‾ ) ) ) - - - ( 19 )
其中,Su(I)为预测所得的亮度关注度子图(为了便于标识各种类关注度子图,此处将求取过程中的亮度关注度子图标识Su(Pn x,y)改为Su(I)),Su(C)为预测所得的颜色关注度子图,Su(O)为预测所得的方向关注度子图,Su(MV)为预测所得的运动关注度子图。本实施例采用的这种求平均值的合并生成方式简便易行,具体实施时,也可对各种类关注度子图分别设置权值进行合并,加重较重要种类的权值可以更好地反映关注度。

Claims (2)

1.一种基于时域预测的关注度提取方法,其特征在于:根据当前帧及相邻的至少一帧先前帧图形的关注度图预测下一帧图像的关注度图,包括以下步骤,
步骤1,特征提取,即提取当前帧及相邻的至少一帧先前帧图像,把每帧图像表示为高斯金字塔,从高斯金字塔每层中提取各种纹理视觉特征得到纹理参数特征图,从高斯金字塔每层中提取运动参数特征得到运动参数特征图;
步骤2,关注度子图生成,即针对纹理参数特征图提取关注值得到纹理关注度子图,针对运动参数特征图提取关注值得到运动关注度子图;
步骤3,关注度子图预测,即用当前帧及相邻的至少一帧先前帧图像的纹理关注度子图预测下一帧图像的纹理关注度子图,用当前帧及相邻的至少一帧先前帧图像的运动关注度子图预测下一帧图像的运动关注度子图;
步骤4,关注度预测图生成,即合并步骤3预测所得下一帧图像的纹理关注度子图和运动关注度子图,作为下一帧图像的关注度预测图。
2.根据权利要求1所述的关注度提取方法,其特征在于:所述纹理视觉特征包括亮度特征、颜色特征和方向特征;提取亮度特征得到亮度特征图,对亮度特征图提取关注值得到亮度关注度子图;提取颜色特征得到颜色特征图,对颜色特征图提取关注值得到颜色关注度子图;提取方向特征得到方向特征图,对方向特征图提取关注值得到方向关注度子图。
CN 200910063890 2009-09-08 2009-09-08 一种基于时域预测的关注度提取方法 Expired - Fee Related CN101697593B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200910063890 CN101697593B (zh) 2009-09-08 2009-09-08 一种基于时域预测的关注度提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200910063890 CN101697593B (zh) 2009-09-08 2009-09-08 一种基于时域预测的关注度提取方法

Publications (2)

Publication Number Publication Date
CN101697593A true CN101697593A (zh) 2010-04-21
CN101697593B CN101697593B (zh) 2012-10-10

Family

ID=42142656

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200910063890 Expired - Fee Related CN101697593B (zh) 2009-09-08 2009-09-08 一种基于时域预测的关注度提取方法

Country Status (1)

Country Link
CN (1) CN101697593B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098886B2 (en) 2001-03-08 2012-01-17 California Institute Of Technology Computation of intrinsic perceptual saliency in visual environments, and applications
CN102750707A (zh) * 2011-08-29 2012-10-24 新奥特(北京)视频技术有限公司 一种基于感兴趣区域的图像处理方法和装置
US8649606B2 (en) 2010-02-10 2014-02-11 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
CN103824308A (zh) * 2014-02-11 2014-05-28 广州中国科学院先进技术研究所 一种无线多媒体传感器网络中的图像处理方法
CN104079934A (zh) * 2014-07-14 2014-10-01 武汉大学 一种实时视频通信中的感兴趣区域提取方法
CN106934397A (zh) * 2017-03-13 2017-07-07 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
CN107944343A (zh) * 2017-10-30 2018-04-20 北京陌上花科技有限公司 视频检测方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1973299A (zh) * 2004-08-19 2007-05-30 三菱电机株式会社 图像检索方法和图像检索装置
WO2008040945A1 (en) * 2006-10-06 2008-04-10 Imperial Innovations Limited A method of identifying a measure of feature saliency in a sequence of images
CN101184221A (zh) * 2007-12-06 2008-05-21 上海大学 基于视觉关注度的视频编码方法
EP1936556A2 (en) * 2006-12-20 2008-06-25 Kabushiki Kaisha Toshiba Electric comic book delivering server, system for delivering electric comic book and method of delivering electric comic book
CN101329766A (zh) * 2007-06-18 2008-12-24 索尼(中国)有限公司 运动图像分析装置、方法及系统

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1973299A (zh) * 2004-08-19 2007-05-30 三菱电机株式会社 图像检索方法和图像检索装置
WO2008040945A1 (en) * 2006-10-06 2008-04-10 Imperial Innovations Limited A method of identifying a measure of feature saliency in a sequence of images
EP1936556A2 (en) * 2006-12-20 2008-06-25 Kabushiki Kaisha Toshiba Electric comic book delivering server, system for delivering electric comic book and method of delivering electric comic book
CN101329766A (zh) * 2007-06-18 2008-12-24 索尼(中国)有限公司 运动图像分析装置、方法及系统
CN101184221A (zh) * 2007-12-06 2008-05-21 上海大学 基于视觉关注度的视频编码方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
梁春迎: "基于显著区域的图像检索技术研究", 《解放军信息工程大学硕士学位论文》 *
王艳娟;陈晓红;邹丽;: "图像感兴趣区域自动提取算法", 《科学技术与工程》 *

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8098886B2 (en) 2001-03-08 2012-01-17 California Institute Of Technology Computation of intrinsic perceptual saliency in visual environments, and applications
US8649606B2 (en) 2010-02-10 2014-02-11 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
CN102750707A (zh) * 2011-08-29 2012-10-24 新奥特(北京)视频技术有限公司 一种基于感兴趣区域的图像处理方法和装置
CN103824308A (zh) * 2014-02-11 2014-05-28 广州中国科学院先进技术研究所 一种无线多媒体传感器网络中的图像处理方法
CN104079934A (zh) * 2014-07-14 2014-10-01 武汉大学 一种实时视频通信中的感兴趣区域提取方法
CN106934397A (zh) * 2017-03-13 2017-07-07 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
WO2018166438A1 (zh) * 2017-03-13 2018-09-20 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
CN106934397B (zh) * 2017-03-13 2020-09-01 北京市商汤科技开发有限公司 图像处理方法、装置及电子设备
US10943145B2 (en) 2017-03-13 2021-03-09 Beijing Sensetime Technology Development Co., Ltd. Image processing methods and apparatus, and electronic devices
CN107944343A (zh) * 2017-10-30 2018-04-20 北京陌上花科技有限公司 视频检测方法及装置
CN107944343B (zh) * 2017-10-30 2020-04-14 北京陌上花科技有限公司 视频检测方法及装置

Also Published As

Publication number Publication date
CN101697593B (zh) 2012-10-10

Similar Documents

Publication Publication Date Title
CN101697593B (zh) 一种基于时域预测的关注度提取方法
CN102763134B (zh) 用于高动态范围视频色调映射的参数内插
Han et al. Application of an integrated system dynamics and cellular automata model for urban growth assessment: A case study of Shanghai, China
CN110084161A (zh) 一种人体骨骼关键点的快速检测方法及系统
CN112069868A (zh) 一种基于卷积神经网络的无人机实时车辆检测方法
CN106920243A (zh) 改进的全卷积神经网络的陶瓷材质件序列图像分割方法
CN107463919A (zh) 一种基于深度3d卷积神经网络进行面部表情识别的方法
CN110097115B (zh) 一种基于注意力转移机制的视频显著性物体检测方法
CN106023259B (zh) 一种运动目标频率检测方法及装置
CN108090403A (zh) 一种基于3d卷积神经网络的人脸动态识别方法及系统
CN106851046A (zh) 视频动态超分辨率处理方法及系统
CN103824284B (zh) 一种基于视觉注意力模型的关键帧提取方法和系统
CN105825503A (zh) 基于视觉显著性的图像质量评价方法
CN108537818A (zh) 基于集群压力lstm的人群轨迹预测方法
CN110490136A (zh) 一种基于知识蒸馏的人体行为预测方法
CN104036468B (zh) 基于预放大非负邻域嵌入的单帧图像超分辨重建方法
CN106683110A (zh) 用户终端及其目标跟踪方法及装置
CN103607589B (zh) 基于层次选择性视觉注意力机制的jnd阈值计算方法
CN106156714A (zh) 基于骨骼关节特征和表面特征融合的人体行为识别方法
CN107767416A (zh) 一种低分辨率图像中行人朝向的识别方法
CN106204551A (zh) 一种图像显著性检测方法及装置
Han et al. Structural information-based image quality assessment using LU factorization
CN106056078A (zh) 一种基于多特征回归式集成学习的人群密度估计方法
CN113689382B (zh) 基于医学影像和病理图像的肿瘤术后生存期预测方法及系统
CN114708532A (zh) 一种监控视频质量评估方法、系统及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20121010

Termination date: 20160908