CN1203677C - 视觉注意模式 - Google Patents

视觉注意模式 Download PDF

Info

Publication number
CN1203677C
CN1203677C CNB021016976A CN02101697A CN1203677C CN 1203677 C CN1203677 C CN 1203677C CN B021016976 A CNB021016976 A CN B021016976A CN 02101697 A CN02101697 A CN 02101697A CN 1203677 C CN1203677 C CN 1203677C
Authority
CN
China
Prior art keywords
importance map
frame
space
zone
color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CNB021016976A
Other languages
English (en)
Other versions
CN1366422A (zh
Inventor
W·M·奥斯博格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Giant Plan Co., Ltd.
Original Assignee
Tektronix Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tektronix Inc filed Critical Tektronix Inc
Publication of CN1366422A publication Critical patent/CN1366422A/zh
Application granted granted Critical
Publication of CN1203677C publication Critical patent/CN1203677C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/215Motion-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • G06V10/993Evaluation of the quality of the acquired pattern
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/186Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being a colour or a chrominance component
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/533Motion estimation using multistep search, e.g. 2D-log search or one-at-a-time search [OTS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Quality & Reliability (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Color Television Systems (AREA)

Abstract

一种改善的视觉注意模式使用增强的合适的分段算法将一个视频序列的一个目前帧基于颜色和亮度分成多个区域,每个区域由多个空间特征算法并行处理,该空间特征算法包括颜色和表皮,以产生各自的空间重要性映像。还处理目前帧和在先帧,以便对目前帧的每一块产生运动矢量,该运动矢量补偿摄像机的运动,同时该补偿的运动矢量被转换以产生一个时间重要性映像。基于眼睛移动分析并使用加权来组合空间和时间重要性映像。

Description

视觉注意模式
技术领域
本发明涉及视频质量分析,特别涉及改进的视觉注意模式,以便自动地确定在视频信号的图像中感兴趣的区域。
背景技术
早期被适当调整的视觉系统的模式提供被压缩的自然图像中视觉失真位置的准确预测。数据逼真映像产生主观质量的估算,目前的现代化质量度量标准将执行所有可见误差的简单求和。但是在主观评估图像质量期间并未考虑任何更高的水平或已知的有认识力的因素出现。
失真对整个图像质量的影响被理解为以其相对场景内容的位置的强烈影响。似人视觉系统(HVS)的可变分辨力性质意味着只有在视网膜凹斑处可得到高的分辨力,该视网膜凹斑具有约2度的直径。通过有规则的眼睛运动以便将该区域置位于视网膜凹斑条件下获得一个场景的资料。早期视觉模式假定一个“无限的网膜凹斑”,即场景是在这样一种假设下进行处理的,即所有区域由高分辨力视网膜凹斑进行观察。但是眼睛运动的研究指出观察并不使场景中所有区域等同地处于视网膜凹斑。代之以识别几个地区为似人视觉注意处理感兴趣的区域(ROI),并且观察倾向于重复地返回到这些ROI而不是仍未被处于视网膜中区的地区。人们知道在这些ROI中图象的逼真度对整个图象质量具有最大的影响。
当观察自然场景时,似人视觉注意和眼睛运动的知识,与对象的选择的和相关的眼睛运动模式相联合,提供似人视觉注意计算模式改进的结构。研究已指出,人们的注意受大量在图象运动中存在的不同特征所影响,例如亮度对比度,颜色对比度,目标大小,目标形状,人和面部在场景中的位置,以及该目标是否为前景或背景的部分。在文献中已介绍了少量简单的视觉注意模式。这些模式以不设监理方式针对检测一个场景中的ROI。它们通常设计用于不复杂的静止的图像。在防止其用作典型娱乐影视的增强注意模式中明显存在大量的缺陷。包括:有限数量的使用的注意特征;未施加不同的加权到不同的特征;缺乏分段技术中的强度;缺乏时间模式;使用过分简单的算法提取注意特征。未说明推荐的模式能牢固地横跨宽范围的图像内容工作和未报告其对人眼运动的相关性。
如在下列文章中所指出的,公开了一种用于自动确定场景中视觉重要地区作为重要性映像(IM)的技术:Wilfried Qsberger,AnthongJ.Maeder and Neil Bergmann:“A  Perceptually  BassedQuantization Technique for MPEG Encoding”,Proceedings SPIE3299-Human Vision and Electronic Imaging 111,San Jose,USA,pp.48-159,26-29 January 1998。如上所述,这些映像是通过组合影响似人视觉注意和眼睛运动的已知因素而产生的。为了编码分配较低量化到可见重要地区和较少视觉重要性地区具有一个分配的更苛刻的量化。结果表明图像质量主观的改进。
在现有技术中使用典型的递归分开-和-合并分段来执行分段。在分段后,该结果由五个空间特征处理以产生单独的空间重要性映像:对比度;大小;形状;位置和背景。运动也被采纳到考虑之中以产生一个时间的重要性映像。这些单独的重要性映像的每一个将被平方以增强高重要性地区并之后被等同地加权以产生最后的IM。但是感觉到这种技术并不充分牢靠。
使用比现有技术更牢固的人为注意和眼睛运动的特性所要求的是一种自动方式去预测何处ROI似乎位于典型娱乐影视的自动场景中。
发明内容
按本发明提供一种使用视觉注意模式自动标记在一个影视图像中的感兴趣的区域的方法。基于颜色和亮度一个目前帧被适当地分段成多个区域。每个区域由多个包括颜色和表皮的空间特征算法并行处理以产生相应的空间重要性映像。组合空间重要性映像以产生一个综合的空间重要性映像,这种组合是基于由眼睛运动研究导出的加权。目前帧和一个在先帧也被处理以产生用于目前帧的运动矢量,接着在被转换到一个时间重要性映像之前对该运动矢量作摄像机的运动校正。通过线性加权组合综合的空间重要性映像和时间重要性映像以对目前帧产生一个完整的重要性映像,以及线性加权常数从眼睛运动研究导出。
结合附加权利要求和附图阅读时从下列详细说明对本发明目的,优点和其他新的特征将显而易见。
附图说明
图1是按本发明的改进的视觉注意模式的方块图。
图2(a)是一个目前帧的一个图像。
图2(b)是按本发明获得的图像的完整重要性映像。
图3是一条曲线,说明按亮度的一个阈值的变化,用于按本发明的空间特征之一。
图4是一条曲线,说明参数值随色彩的变化,用于按本发明的表皮的空间特征。
图5是一个方块图,用于产生按本发明的时间重要性映像。
具体实施方式
在此所描述的一种重要性映像(IM)技术是基于区域的注意模式。这种基于区域的注意模式使其更易按此模式包括大量的特征,这是因为影响注意的许多特征或是区域的固有性质,例如尺寸和形状,或能自然地与场景中所有目标相关,例如运动,颜色,对比度和结构。参照图1,一个视觉注意模式具有一个空间注意模式10和一个时间注意模式20。空间模式具有影像的一个目前帧作为一个输入。该图像是首先使用亮度和颜色信息两者由分段算法30分段到同簇区域的每个地区相对七个特征11-17的重要性。包括已知影响视觉注意的颜色,对比度,尺寸,形状,位置,背景和表皮然后计算。特征图像处理算法的可塑性使得容易包括附加的特征。根据借助人眼运动的校准来加权这些特征,而人眼运动已经据对人眼运动的实验进行推测。然后特征加权被输入到组合算法40,以对该目前帧的场景产生空间重要性映像。
运动模式20具有该目前帧和一个在先帧作为对运动矢量算法22的并行输入。然后来自运动矢量算法20的运动矢量基于其运动的幅度由运动重要性算法24加权用于在该场景中的每个目标。运动加权还使用根据眼睛跟踪系统实验推测的数据与空间加权相组合以对目前帧产生一个总的IM。
图2(a)中表示一个目前帧,其相应的IM表示在图2(b)中。已标记为高重要性的IM区域具有轻微阴影部分,而黑的区域表示未必吸引注意的场景的那些部分。
对以上讨论的现有技术的改进包括空间环境特征的改进的分段,扩展,对空间和时间特征处理算法的改进,以及在校准和组合算法方面的改进。
在分段处理过程中,图像帧已剪辑版本用作输入,以避免这样一种效应,即对于模式的新近状况,图像边缘具有24个像素工作好的剪辑边缘。功能分解使用颜色信息和亮度信息去确定何时出现分解/合并操作。作为一个例子可使用L*u*v*颜色区。现在用于分解的条件为
如果:
((variancelum(Ri)>thsplitlum&(variancecol(Ri)>thsplitcol)&
(size(Ri)>thsize))
则:分解到4个象限这里:
variancecol(Ri)=SQRT(variance(Ri(u*))2+variance(Ri(v*))2)用于阈值的值可以是:thsplitlum=250和thsplitcol=120。对于功能合并还进行额外的变化。为避免分段产生块形状的大区域问题,合并阈值通过使用一个参数scalefactormerge自适应地与块尺寸相关,该参数当合并大区域时增加,特别当合并的两个区域具有小尺寸时:
         thmergelumnew=scalefactormerge*thmergeiumold这里
scalefactormerge=(kmerge*sizemerge+kreduc+1)/(sizemerge+kmerge+kreduc)
sizemerge=max(kmin*(1/n)ROOT(size(R1)n+size(R2)n)/size(frame)用于固定参数的值可以是:Kmin=256,n=0.25,Kmerge=3,Kreduc=10和thmergclumold=500。
使用同样的技术修改颜色合并阈值,thmergecol,但不可以使用下列参数:Kmincol=256,ncol=0.5,Kmergecol=1.5,Kreduccol=0以及thmergecolold=120。
与亮结构的地区相比较,现有技术的合并暗结构的合并功能是很容易的。因此当确定是否合并两个区域时要考虑区域的平均亮度和颜色。平均颜色和平均亮度合并阈值是相互依赖的,所以计算该合并阈值将与该区域的平均颜色和亮度适当相关。
如果:
     ((Δcol<thΔcol)&(colmax>thBW))
则:
     thmeanmergelumnew=thmeanmergelumold+((thΔcol-Δcol)/thΔcol)*(thΔlum_max-
     thmeanmergelumold)
这里:
     Δlum=|gl(R1)-gl(R2)|
     Δcol=SQRT((u* R1-u* R2)2+(V* R1-v* R2)2)
     colmax=max(u* R1,u* R2,v* R1,v* R2)
这里g1(Ri)是区域Ri的平均灰度级。
对于常数值可以是:thΔcol=14.0,thBW=7.0和thΔlum.max=70.0。
由于在低亮度地区,颜色通常采用很高的值,所以用于低亮度区域的合并阈值增加。如图3中所示的实施情况。对于常数值可以是:thlowlum1=10,thlowlum2=25,thcol=14和thcol_lowlum=40。
因此修改的合并条件变成:
如果:
     ((var(glR12)<thmergelumnew)&(var(colR12)<thmergecolnew)&
     (Δlum<thmeanmergelumnew)&(Δcol<thmeanmergecolnew))OR
     ((Δlum<thlumlow)&(Δcol<thcollow)
则:将两个区域组合到一个区域
否则:保持区域分开
结束对于常数值可以是:thlumlow=12和thcollow=5。
对于小区域取消过程也进行改变,以便进行与图像分辨度无关的处理并用其最合适的相邻区域合并小的区域如下:
如果:
            size(R1)<(1/ksmall)*size(frame)
则:用具有最接近L*值的相邻区域合并Ri
结束这里Ksmall可设置到4096。按此方式分段自适应地进行并变得更为增强。
对于IM的尺寸特征从简单的两个阈值实施到四个阈值实施变化,使得太小或太大的区域最小化而正好由过小的区域所取代。同样,背景特征被加以改变,因为消除帧边缘是通过使用区域中共享4个同另外区域连接的边缘的最小像素数或在也毗连该区域中截去顶(末)端边缘上的像素数。还要改变位置特征,以便不仅考虑帧的中心区域,而且用与地带相关且从中心减小的较小的加权去考虑围绕该中心的不同的地带。
原始对比度重要性被定义为用于区域Ri的平均灰度级和用于共享4个同Ri连接的边缘的区域平均灰度级之间的差。首先Ri的平均灰度级对其相邻区域的比较是基于对每个相邻区域的绝对值,由此比Ri灰度级更高的和更低的相邻区域将彼此不能对消。一个相邻区域所具有的影响对比度的地区限制到一个常数乘以两个区域具有的4个连接的相邻的像素。这将防止大的相邻区域和几乎不具有相邻像素的区域对对比度重要性施加过大的影响。同时通过使用一个尺寸标度系数对大区域减小对比度重要性。进而因韦伯(Weber)和杜维瑞斯-罗斯(deVries-Rose)效应在较高灰度级计算的对比度相对在较低灰度级的低。最后按一种自适应方式归一化该对比度到0-1范围,由此取决于该帧中的对比强度。这样在具有很高对比度的区域的帧中具有某一对比度的区域的对比度重要性降低,而在最高对比度小的帧中对比度重要性增加。
I’cont(Ri)=(∑i=1-J|gl(Ri)-gl(Rj)|*min(kborder*Bij,size(Ri)))/∑j=1- Jmin(kborder*Bij,size(Ri))
这里j=区域1-J,共享4个同Ri连接的边缘,Kborder是一个常数,限制影响相邻区域的程度(例如设直到10),和Bij是在Ri中像素数量,其共享4个同Ri连接的边缘。
                 I” cont(Ri)=ksizescale*I’cont(Ri)
这里Ksizcscale随区域尺寸变化-对小区域大而对大区域小。
              Icont(Ri)=I”cont(Ri)/max(gl(Ri),thdevries)powweber
其中thderries是接近deVries-Rose区域开始的灰度级(设置到50)而powweber是非线性Weber功率(设置到0.3)。
对1的归一化阈值计算成:
             thcont1=thbase1weber+(min(I”cont)-thbase1weber)*thweight
thcont2=thbase2weber+(max(I”cont)-thbase2weber)*thweight2high,max(I”cont>thbase2
       =thbase2weber+(max(I”cont)-thbase2weber)*thweight2tow,max(I”cont≤thbase2
这里:
       thbase1weber=thbase1/128powweber
       thbase2weber=thbase2/128powweber
       thbase1=20
       thbase2=120
       thweight1=0.5
       thweight2high=0.25
       thweight2tow=0.75
改变形状特征,使得在具有许多相邻区域的区域中降低形状重要性,由此不分配这样的区域过高的形状重要性,并使用一种自适应归一化处理归一化该形状重要性到范围0-1。
本发明将颜色特征加到该视觉注意模式。接受RGB文件作为输入并变换到L*u*v*颜色区。按对计算对比度重要性的方法相似的方式计算颜色重要性,因为,事实上,两个特征执行类似的运算一个相对其背景计算一个区域的亮度对比度,而另一个相对其背景计算一个区域的颜色对比度。颜色重要性的计算始于对u*和v*分开计算颜色的对比度。
Iu*(Ri)=∑j=1-J|u*(Ri)-u*(Ri)|*min(kborder *Bij,size(Rj))/∑j=1-J
min(kborder *Bij,size(Rj))
Iv*(Ri)=∑j=1-J|v*(Ri)-v*(Ri)|*min(kborder *Bij,size(Rj))/∑j=1-J
min(kborder *Bij,size(Rj))然后使用一个标定系数将两个颜色重要性计算组合成平方和的平方根,并对大区域加以减缩。颜色重要性按一种自适应方式归一化到范围0-1,由此取决于帧中颜色重要性的强度。因而具有某一颜色重要性的一个区域的颜色重要性在具有很高颜色对比度的区域的帧中降低,而在具有最高颜色对比度是小的帧中其颜色重要性增加。
最后增加一个表皮特征,使得表皮地区用其颜色来检测。这是可能的,因为人类的皮肤,甚至不同种族的颜色都落入到一个窄范围的值中。同时可以使用其他的颜色空间,选择色彩-饱和-值(HSV)颜色空间,这是因为人类皮肤的颜色强有力地群集到一个窄范围的HSV值中。每个像素被独立地测试以确定其颜色是否与表皮相匹配。像素Xij被分类为表皮,只要其HSV值(hij,sij,vij)落在下列范围中:
Xij=skin if((Hmin≤hij≤Hmax)&(Smin≤sij≤Smax)&(Vmin≤vij≤Vmax)
从一个大的测试图像数据库确定用于分类阈值的最佳值。四个阈值可以用常数-Hmin=350°,Hmax=40°,Smin=0.2和Vmin=0.35表示。从图4所示曲线确定另外两个阈值Smax和Vmax,随H改变。
为在先组合空间特征将平方和等同地加权重要性映像以产生一个最后的空间IM,然后将其标定使得最重要的区域具有1.0的值。为缓和在高重要性的一个区域和较低重要性的一个区域之间的急剧变化将执行块处理,其包括分配在一个n×n块中的最大重要性到该块中的每个像素。然而,为获得对不同特征的相对影响的理解,将执行眼睛跟踪研究。当一群人观看许多不同的静止图像每次接近五秒钟和超过影像的数分钟时记录他们眼睛的运动。为确定哪些特征影响人眼运动最多,计算人们凝视和每个单独特征IM之间的相关性。通过计算落在由该特征分类作为最重要的区域上的凝视(fixation)百分率即可做到。结果指出三个空间特征-位置,表皮和前景/背景-与凝视具有很高的相关性。三个其他的特征-形状,颜色和对比度-具有较低的相关性,但仍然有效地影响凝视,而尺寸施加影响比其他特征低得多。通过使用据实验测试的凝视相关性,在本发明中使用一个新的特征加权:
Ispatial(Ri)=∑f=1-7(wf poww*If(Rf)powf)这里:
Wf是据眼睛跟踪实验的特征加权,即,(0.193 0.176 0.172 0.1300.121 0.114 0.094),用于(位置,前景/背景,表皮,形状,对比度,颜色,尺寸),
POWw是特征加权指数,以控制Wr的相对影响,即,3.0,如一个例子那样,以及
POWf是IM加权指数,即,2.0,如一个例子那样,用于所有特征。然后定标空间IM,使得最高重要性的范围具有如前跟随块处理的值1.0。
合成空间IM从帧到帧是有噪声的,因此为降低这种噪声并改善IM的时间的紧密性,将在像素级执行时间平滑操作。使用(t-m,…,t+N)帧的时间窗,在位置(x,y)的输出IM取作为来自该时间窗的在位置(x,y)的第K个最高IM。设置K>1将消除高重要性的虚假区域。作为例子n=m=5帧以及K=2。
以前对用于每个块的时间重要性映像运动矢量使用分层块匹配技术计算,而合成矢量直接用于计算时间重要性。低重要性给向很慢和很快的运动的区域,而中间运动区域分配最高重要性。对于这种现有技术存在两个主要问题:(i)没有区分摄像机运动和真实目标运动的方法,这样当存在任何摄像机运动(底座,倾斜,移镜头,旋转)时该模式将失败,而影像是彩色闪变的;以及(ii)当分配重要性于一具体运动时使用固定的阈值,但是这些阈值需适应该影像中的这种运动,因为横跨不同的影视场景运动量变化甚大。
现参照图5,它表示时间注意模式的方块图,如就现有时间处理而论,在分层块匹配处理中使用目前和在先帧去计算运动矢量。这些运动矢量由摄像机运动估算算法使用以确定有关摄像机运动的四个参数-底座,倾斜,移镜头和旋转。然后这些参数用来补偿这些运动矢量以使得捕获场景中真实目标的运动。由于结构上平坦区域中的运动矢量是不可靠的,所以在这些区域中设置补偿的运动矢量到零。如果在该块中最小和最大灰度级间的差低于阈值thflat,例如45,则将考虑一个8×8的块是“平坦”的。最后通过一些步骤这些补偿的运动矢量将被转换到时间重要性的测量。
摄像机运动估算算法检测时间运动的某些跳动,例如由场景剪接,3∶2拉开和时间子取样,即帧下降所引起。当产生这些时间不连续性时,使用来自在先帧的对其可得到可靠运动信息的运动信息而不使用来自具有时间不连续性的帧的运动信息。如果在目前帧中检测时间不连续性,则可使用来自远在十个帧的运动信息。然后如上所述,以类似于在空间IM上执行的方式执行时间平滑。场景剪接部分或不同彩色闪变部分的帧不包括在时间窗中。结构简单的下一个区域分配一个零时间重要性。因为来自这些区域的运动矢量是不可靠的,“平坦”确定与以上所说相同但是不包括在+/-一帧的时间窗上进行计算。最后使用自适应阈值,赖于场景中目标运动总量自适应地计算这些阈值。几乎不具有运动目标和具有慢运动目标的场景比具有很多快速运动目标的场景具有更低的阈值,这是因为人类的灵敏度并不受这些许多的快速运动目标掩盖。通过采用补偿运动矢量映像的摄像机运动的第m个百分点,例如第98百分点获得一个场景中运动总量的估算。由于运动是以度/秒为单位进行计算的,所以需要知道监视器的分辨度-像素空间和观察距离。典型的像素空间是0.25mm,而对于SDTV观察,观察距离是五个图像高度。在快速运动目标由快速底座或倾斜运动跟踪的场景中,目标的运动可以大于一个给定的阈值,因此其时间重要性可以下降到小于1.0的一个值。要进行防止这种情况发生一个特殊的情况。最后在16×16像素级上执行块处理,像对于空间IM所进行的那样。由于时间IM早已处于8×8像素分辨率,所以采用每个2×2块的最大值以得到总的16×16块尺寸。
空间和时间IM的组合是一个线性加权:
         Itotal=kcombIspat+(1-kcomb)Itemp
比较观察者对空间和时间IM两者的凝视指出,与仅时间IM的那些相比较,对于仅空间IM的相关性稍高。因此建议稍高于0.5的Kcomb的一个值,例如0.6。
以上是对空间和时间IM的基本综合可以做的全部。但是眼睛跟踪研究指出,在具有移镜头,旋转或很快运动的影像的场景中,观察者试图将它们的注意力主要集中在屏幕的中心。为分配进一步的重要性到这些场景中的中心区域,可执行下列计算:
   motzoomrot=kz1*motionm+kz2*zoom+kz3*rotate+kz4*errorcamera这里:
motionm是补偿运动矢量映像的摄像机运动的第m个百分点,移镜头和旋转是帧的移镜头和旋转参数,errorcamera是摄像机运动估算算法的输出,而Kzi是定标常数。中心定标常数Kcentral在按照在一对阈值之间的motzoomrot的总量的两个值之间调整。之后新IM是:
I’total=kcentralIcenter+(1-kcentral)Itotal
在可得到的errorcamera为高的场合,IM的精度降低,可以它对在这些情况下减小时间IM的影响是有用的。这可以通过误差增加时增加Kcomb值做到。
最后眼睛跟踪研究指出,人和脸部是最吸引注意的。因为对人而言一般不是完全静止的,至少不是对任意延长的时间周期,一个特殊的情况可以是增加也是在运动状态下的皮肤区域的重要性。这具有两个好处:(i)由皮肤特征错误地分类为皮肤的目标通常是不运动的背景目标(沙,干玻璃,砖墙),所以如果包括运动登记处,这些错误的正片将被拒绝;以及(ii)脸部通常包括某些简单结构区域,由于简单结构区域被设置到弱重要性,所以脸部的简单结构有时将被丢失,通过对皮肤区域缓解简单结构约束,这些区域将不再丢失并接收强重要性。因此对于每个像素:
如果:
      ((Iskin>thskinmot1)&(MVcomp>thskinmot2))
则:Itotal=1.0
结束
这样本发明提供这样一种类型的改进的视觉注意模式,其具有产生空间重要性映像的空间特征,并具有与该空间重要性映像相组合的时间重要性映像,以对一帧产生总重要性映像,改进是对空间特征以及附加的空间特征的自适应分段算法,自适应算法,以及基于眼睛活动研究改进的组合算法,以产生更增强的改进的总重要性映像。

Claims (11)

1.一种改进的视觉注意模式的方法,所述方法具有如下步骤:将一个视频序列的一帧分段成用于由多个空间特征处理的区域,以产生相应的多个空间重要性映像;将该帧与在先的帧进行比较以便处理产生一个时间重要性映像;组合空间和时间重要性映像以对该帧产生一个总的重要性映像,其特征在于包括步骤:
使用颜色和亮度将该帧分段成多个同簇区域;用多个空间特征处理该区域以产生多个空间重要性映像;
用在先帧处理该帧,以产生补偿摄像机运动的时间重要性映像;以及
基于由眼睛活动研究导出的加权函数组合空间和时间重要性映像以产生用于该帧的总的重要性映像。
2.如权利要求1的方法,其中自适应分段步骤包括步骤:
基于中间区域的亮度变化,颜色变化和尺寸将该帧分层分开到该区域;以及
当中间区域中的平均亮度和颜色变化小于各自的自适应阈值和该中间区域中亮度变化和颜色变化小于各自的阈值或该中间区域中的亮度和颜色变化小于各自阈值时合并中间区域以形成该区域。
3.如权利要求2的方法,其中自适应分段步骤还包括在分开步骤之前剪辑帧的边缘的步骤。
4.如权利要求1的方法,其中空间特征包括至少从由尺寸,背景,位置,对比度,形状,颜色和皮肤组成的组选择的两个。
5.如权利要求4的方法,其中对于对比度空间特征的处理步骤是基于被处理区域的平均灰度级的绝对值和其共享4个连接边缘的相邻区域,受限于一个常数乘以4个连接的相邻像素数,以及通过相对于在较低灰度级的对比度减少在较高灰度的对比度来考虑韦伯和“杜维瑞斯-罗斯”效应。
6.如权利要求4的方法,其中对于颜色空间特征的处理步骤计算相对其背景被处理的一个区域颜色对比度。
7.如权利要求4的方法,其中对于皮肤空间特征的处理步骤使用窄范围的颜色值和相应的阈值,用于每个元素颜色值的最小和最大值。
8.如权利要求1的方法,其中组合步骤包括步骤:
根据从眼睛活动研究经验确定的加权值加权每个空间重要性映像,以产生一个合成空间重要性映像;
使用时间平滑算法从帧到帧平滑合成空间重要性映像以减小噪声和改善时间紧密性从而产生一个空间重要性映像;以及
用时间重要性映像组合空间重要性映像以产生总的重要性映像。
9.如权利要求8的方法,其中用时间重要性映像组合空间重要性映像的步骤包括线性加权空间重要性和时间重要性映像步骤,线性加权步骤使用由眼睛活动研究确定的一个常数。
10.如权利要求1的方法,时间重要性映像处理步骤包括步骤:
使用分层块匹配算法计算用于目前帧的每个块的运动矢量;
由该运动矢量估算摄像机运动参数;
基于摄像机运动参数补偿该运动矢量;以及
将补偿的运动矢量转换成时间重要性映像。
11.如权利要求10的方法,其中时间重要性映像处理步骤还包括确定每个块的平坦度,使得在先于转换步骤的补偿运动矢量中在结构上运动矢量平坦误差被设置到零的步骤。
CNB021016976A 2001-01-17 2002-01-17 视觉注意模式 Expired - Fee Related CN1203677C (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US09/764726 2001-01-17
US09/764,726 US6670963B2 (en) 2001-01-17 2001-01-17 Visual attention model

Publications (2)

Publication Number Publication Date
CN1366422A CN1366422A (zh) 2002-08-28
CN1203677C true CN1203677C (zh) 2005-05-25

Family

ID=25071588

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB021016976A Expired - Fee Related CN1203677C (zh) 2001-01-17 2002-01-17 视觉注意模式

Country Status (5)

Country Link
US (1) US6670963B2 (zh)
EP (1) EP1225769B1 (zh)
JP (1) JP3851171B2 (zh)
CN (1) CN1203677C (zh)
DE (1) DE60203056T2 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975782B (zh) * 2005-11-30 2012-11-21 汤姆逊许可公司 视频序列中感兴趣区域的校正方法

Families Citing this family (125)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020154833A1 (en) * 2001-03-08 2002-10-24 Christof Koch Computation of intrinsic perceptual saliency in visual environments, and applications
US6870956B2 (en) * 2001-06-14 2005-03-22 Microsoft Corporation Method and apparatus for shot detection
KR100474760B1 (ko) * 2001-10-08 2005-03-08 엘지전자 주식회사 영상내의 오브젝트 영역 추출방법
US7054483B2 (en) * 2002-03-15 2006-05-30 Ncr Corporation Methods for selecting high visual contrast colors in user-interface design
TWI281126B (en) * 2002-03-19 2007-05-11 Intervideo Digital Technology Image detection method based on region
AU2003215755A1 (en) * 2002-03-22 2003-10-08 British Telecommunications Public Limited Company Comparing patterns
CA2478243C (en) * 2002-03-22 2012-07-24 British Telecommunications Public Limited Company Anomaly recognition
US7499594B2 (en) * 2002-04-15 2009-03-03 At&T Intellectual Property 1, L.P. Multi-resolution predictive foveation for bandwidth reduction of moving images
US7010169B2 (en) * 2002-04-15 2006-03-07 Sbc Technology Resources, Inc. Multi-point predictive foveation for bandwidth reduction of moving images
US7136073B2 (en) * 2002-10-17 2006-11-14 Canon Kabushiki Kaisha Automatic tone mapping for images
US7274741B2 (en) * 2002-11-01 2007-09-25 Microsoft Corporation Systems and methods for generating a comprehensive user attention model
US7116716B2 (en) * 2002-11-01 2006-10-03 Microsoft Corporation Systems and methods for generating a motion attention model
BR0215934A (pt) * 2002-11-06 2005-08-16 Agency Science Tech & Res Método para gerar um mapa de significância orientado em qualidade para avaliar a qualidade de uma imagem ou vìdeo
GB0229625D0 (en) * 2002-12-19 2003-01-22 British Telecomm Searching images
US7164798B2 (en) * 2003-02-18 2007-01-16 Microsoft Corporation Learning-based automatic commercial content detection
US7260261B2 (en) * 2003-02-20 2007-08-21 Microsoft Corporation Systems and methods for enhanced image adaptation
US20040207643A1 (en) * 2003-04-18 2004-10-21 Bozidar Janko Attention model enhanced video waveform monitor
US7872635B2 (en) 2003-05-15 2011-01-18 Optimetrics, Inc. Foveated display eye-tracking system and method
US7274740B2 (en) * 2003-06-25 2007-09-25 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7680342B2 (en) 2004-08-16 2010-03-16 Fotonation Vision Limited Indoor/outdoor classification in digital images
US7606417B2 (en) 2004-08-16 2009-10-20 Fotonation Vision Limited Foreground/background segmentation in digital images with differential exposure calculations
FR2857481A1 (fr) * 2003-07-08 2005-01-14 Thomson Licensing Sa Procede et dispositif de detection de visages dans une image couleur
US7646437B1 (en) * 2003-09-03 2010-01-12 Apple Inc. Look-ahead system and method for pan and zoom detection in video sequences
US9325998B2 (en) * 2003-09-30 2016-04-26 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7400761B2 (en) * 2003-09-30 2008-07-15 Microsoft Corporation Contrast-based image attention analysis framework
US7471827B2 (en) * 2003-10-16 2008-12-30 Microsoft Corporation Automatic browsing path generation to present image areas with high attention value as a function of space and time
US20050123886A1 (en) * 2003-11-26 2005-06-09 Xian-Sheng Hua Systems and methods for personalized karaoke
GB0328326D0 (en) 2003-12-05 2004-01-07 British Telecomm Image processing
US8018850B2 (en) 2004-02-23 2011-09-13 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7826664B2 (en) * 2004-05-24 2010-11-02 Xerox Corporation Systems and methods for efficient manual windowing operation
US7916173B2 (en) * 2004-06-22 2011-03-29 Canon Kabushiki Kaisha Method for detecting and selecting good quality image frames from video
US9053754B2 (en) * 2004-07-28 2015-06-09 Microsoft Technology Licensing, Llc Thumbnail generation and presentation for recorded TV programs
US7986372B2 (en) 2004-08-02 2011-07-26 Microsoft Corporation Systems and methods for smart media content thumbnail extraction
JP4530373B2 (ja) * 2004-08-10 2010-08-25 トムソン ライセンシング ビデオ属性について検出された程度を示す装置および方法
WO2006030173A1 (en) 2004-09-17 2006-03-23 British Telecommunications Public Limited Company Analysis of patterns
US7562056B2 (en) * 2004-10-12 2009-07-14 Microsoft Corporation Method and system for learning an attention model for an image
US7784076B2 (en) * 2004-10-30 2010-08-24 Sharp Laboratories Of America, Inc. Sender-side bandwidth estimation for video transmission with receiver packet buffer
US8356327B2 (en) * 2004-10-30 2013-01-15 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7797723B2 (en) * 2004-10-30 2010-09-14 Sharp Laboratories Of America, Inc. Packet scheduling for video transmission with sender queue control
JP4234089B2 (ja) * 2004-11-16 2009-03-04 株式会社ソニー・コンピュータエンタテインメント エンタテインメント装置、オブジェクト表示装置、オブジェクト表示方法、プログラム、およびキャラクタ表示方法
US7922670B2 (en) * 2005-02-24 2011-04-12 Warren Jones System and method for quantifying and mapping visual salience
EP1732030A1 (en) * 2005-06-10 2006-12-13 BRITISH TELECOMMUNICATIONS public limited company Comparison of patterns
US7676081B2 (en) * 2005-06-17 2010-03-09 Microsoft Corporation Image segmentation of foreground from background layers
WO2007012798A1 (en) * 2005-07-28 2007-02-01 British Telecommunications Public Limited Company Image analysis
US7574069B2 (en) * 2005-08-01 2009-08-11 Mitsubishi Electric Research Laboratories, Inc. Retargeting images for small displays
US20070067480A1 (en) * 2005-09-19 2007-03-22 Sharp Laboratories Of America, Inc. Adaptive media playout by server media processing for robust streaming
US8180826B2 (en) * 2005-10-31 2012-05-15 Microsoft Corporation Media sharing and authoring on the web
US7773813B2 (en) * 2005-10-31 2010-08-10 Microsoft Corporation Capture-intention detection for video content analysis
US8196032B2 (en) 2005-11-01 2012-06-05 Microsoft Corporation Template-based multimedia authoring and sharing
GB2432068B (en) * 2005-11-02 2010-10-06 Imagination Tech Ltd Motion estimation
EP1798961A1 (en) * 2005-12-19 2007-06-20 BRITISH TELECOMMUNICATIONS public limited company Method for focus control
US7692696B2 (en) 2005-12-27 2010-04-06 Fotonation Vision Limited Digital image acquisition system with portrait mode
US7599918B2 (en) 2005-12-29 2009-10-06 Microsoft Corporation Dynamic search with implicit user intention mining
US9544602B2 (en) * 2005-12-30 2017-01-10 Sharp Laboratories Of America, Inc. Wireless video transmission system
US7869043B2 (en) * 2006-01-06 2011-01-11 Sparta, Inc. Automated passive skin detection system through spectral measurement
US8265349B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Intra-mode region-of-interest video object segmentation
US8150155B2 (en) 2006-02-07 2012-04-03 Qualcomm Incorporated Multi-mode region-of-interest video object segmentation
US8265392B2 (en) 2006-02-07 2012-09-11 Qualcomm Incorporated Inter-mode region-of-interest video object segmentation
IES20060559A2 (en) * 2006-02-14 2006-11-01 Fotonation Vision Ltd Automatic detection and correction of non-red flash eye defects
US7469071B2 (en) 2006-02-14 2008-12-23 Fotonation Vision Limited Image blurring
US7634108B2 (en) * 2006-02-14 2009-12-15 Microsoft Corp. Automated face enhancement
GB2435360B (en) 2006-02-16 2009-09-23 Imagination Tech Ltd Method and apparatus for determining motion between video images
US7683931B2 (en) * 2006-03-06 2010-03-23 Dell Products L.P. Image artifact detection in video quality benchmarks
KR101225062B1 (ko) * 2006-03-10 2013-01-23 삼성전자주식회사 이미지 프레임의 선택적 출력 장치 및 방법
US7652994B2 (en) * 2006-03-31 2010-01-26 Sharp Laboratories Of America, Inc. Accelerated media coding for robust low-delay video streaming over time-varying and bandwidth limited channels
IES20060564A2 (en) * 2006-05-03 2006-11-01 Fotonation Vision Ltd Improved foreground / background separation
EP2027727A4 (en) * 2006-06-09 2012-12-05 Thomson Licensing METHOD AND DEVICE FOR ADAPTIVE DETERMINATION OF A NUMBER OF BITS FOR ENCODING VIDEO IMAGES
US8861597B2 (en) * 2006-09-18 2014-10-14 Sharp Laboratories Of America, Inc. Distributed channel time allocation for video streaming over wireless networks
DE102006044114A1 (de) * 2006-09-20 2008-03-27 Forschungszentrum Karlsruhe Gmbh Verfahren zur Charakterisierung der Abgasausbrandqualität in Verbrennungsanlagen
GB0619817D0 (en) * 2006-10-06 2006-11-15 Imp Innovations Ltd A method of identifying a measure of feature saliency in a sequence of images
US8165407B1 (en) 2006-10-06 2012-04-24 Hrl Laboratories, Llc Visual attention and object recognition system
US8285052B1 (en) 2009-12-15 2012-10-09 Hrl Laboratories, Llc Image ordering system optimized via user feedback
US8363939B1 (en) 2006-10-06 2013-01-29 Hrl Laboratories, Llc Visual attention and segmentation system
US8699767B1 (en) 2006-10-06 2014-04-15 Hrl Laboratories, Llc System for optimal rapid serial visual presentation (RSVP) from user-specific neural brain signals
US8214309B1 (en) 2008-12-16 2012-07-03 Hrl Laboratories, Llc Cognitive-neural method for image analysis
US7652993B2 (en) * 2006-11-03 2010-01-26 Sharp Laboratories Of America, Inc. Multi-stream pro-active rate adaptation for robust video transmission
US8300890B1 (en) * 2007-01-29 2012-10-30 Intellivision Technologies Corporation Person/object image and screening
DE102007012458A1 (de) * 2007-03-15 2008-09-18 Robert Bosch Gmbh Verfahren zur Objektbildung
US8229229B2 (en) * 2007-04-09 2012-07-24 Tektronix, Inc. Systems and methods for predicting video location of attention focus probability trajectories due to distractions
EP2147397A4 (en) 2007-04-23 2013-08-21 Univ Ramot SYSTEM, METHOD AND COMPUTER READABLE MEDIUM FOR PROVIDING AN OUTPUT IMAGE
US9740949B1 (en) 2007-06-14 2017-08-22 Hrl Laboratories, Llc System and method for detection of objects of interest in imagery
US8774517B1 (en) 2007-06-14 2014-07-08 Hrl Laboratories, Llc System for identifying regions of interest in visual imagery
US9196053B1 (en) 2007-10-04 2015-11-24 Hrl Laboratories, Llc Motion-seeded object based attention for dynamic visual imagery
US9778351B1 (en) 2007-10-04 2017-10-03 Hrl Laboratories, Llc System for surveillance by integrating radar with a panoramic staring sensor
US9177228B1 (en) 2007-10-04 2015-11-03 Hrl Laboratories, Llc Method and system for fusion of fast surprise and motion-based saliency for finding objects of interest in dynamic scenes
US8369652B1 (en) 2008-06-16 2013-02-05 Hrl Laboratories, Llc Visual attention system for salient regions in imagery
US8542916B2 (en) * 2008-07-09 2013-09-24 Florida Atlantic University System and method for analysis of spatio-temporal data
US8134578B2 (en) * 2008-07-17 2012-03-13 Xerox Corporation Hybrid importance maps for content aware digital image resizing
JP5486006B2 (ja) * 2008-10-03 2014-05-07 スリーエム イノベイティブ プロパティズ カンパニー 堅牢性を評価するシステム及び方法
US8274533B2 (en) * 2009-02-12 2012-09-25 Xerox Corporation Resizing a digital document image via background content removal
WO2010098760A1 (en) * 2009-02-26 2010-09-02 Hewlett-Packard Development Company, L.P. Void pantographs and methods for generating the same
JP5229575B2 (ja) * 2009-05-08 2013-07-03 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN102088597B (zh) * 2009-12-04 2013-10-30 成都信息工程学院 动静结合估计视频视觉显著度的方法
US8649606B2 (en) * 2010-02-10 2014-02-11 California Institute Of Technology Methods and systems for generating saliency models through linear and/or nonlinear integration
GB2480422B (en) * 2010-02-25 2014-07-09 Imagination Tech Ltd Object tracking using graphics engine derived vectors in a motion estimation system
JP5589527B2 (ja) 2010-04-23 2014-09-17 株式会社リコー 撮像装置および追尾被写体検出方法
AU2011276637B2 (en) * 2010-07-07 2014-03-20 3M Innovative Properties Company Systems and methods for improving visual attention models
CN101950362B (zh) * 2010-09-14 2013-01-09 武汉大学 一种视频信号的关注度分析系统
JP5627439B2 (ja) * 2010-12-15 2014-11-19 キヤノン株式会社 特徴検出装置、特徴検出方法、およびそのプログラム
US9489596B1 (en) 2010-12-21 2016-11-08 Hrl Laboratories, Llc Optimal rapid serial visual presentation (RSVP) spacing and fusion for electroencephalography (EEG)-based brain computer interface (BCI)
US9489732B1 (en) 2010-12-21 2016-11-08 Hrl Laboratories, Llc Visual attention distractor insertion for improved EEG RSVP target stimuli detection
US8463037B2 (en) * 2011-03-31 2013-06-11 Sony Corporation Detection of low contrast for image processing
AU2011254040B2 (en) * 2011-12-14 2015-03-12 Canon Kabushiki Kaisha Method, apparatus and system for determining a saliency map for an input image
US9619708B2 (en) 2012-04-30 2017-04-11 Niko Corporation Method of detecting a main subject in an image
US9483109B2 (en) * 2012-07-12 2016-11-01 Spritz Technology, Inc. Methods and systems for displaying text using RSVP
US9265458B2 (en) 2012-12-04 2016-02-23 Sync-Think, Inc. Application of smooth pursuit cognitive testing paradigms to clinical drug development
ES2751380T3 (es) 2012-12-11 2020-03-31 Ami Klin Sistemas y métodos para detectar inhibición de parpadeo como marcador de cautivación y prominencia de estímulo percibido
US9380976B2 (en) 2013-03-11 2016-07-05 Sync-Think, Inc. Optical neuroinformatics
US9661328B2 (en) 2013-03-15 2017-05-23 Arris Enterprises, Inc. Method of bit allocation for image and video compression using perceptual guidance
US9311338B2 (en) * 2013-08-26 2016-04-12 Adobe Systems Incorporated Method and apparatus for analyzing and associating behaviors to image content
KR20160106552A (ko) 2013-10-17 2016-09-12 칠드런스 헬스케어 오브 애틀란타, 인크. 눈 추적을 통해 유아와 아이의 성장을 평가하는 방법
JP2015106271A (ja) * 2013-11-29 2015-06-08 株式会社東芝 方法、画像処理装置およびプログラム
US9195903B2 (en) 2014-04-29 2015-11-24 International Business Machines Corporation Extracting salient features from video using a neurosynaptic system
US9373058B2 (en) 2014-05-29 2016-06-21 International Business Machines Corporation Scene understanding using a neurosynaptic system
US10115054B2 (en) 2014-07-02 2018-10-30 International Business Machines Corporation Classifying features using a neurosynaptic system
US9798972B2 (en) 2014-07-02 2017-10-24 International Business Machines Corporation Feature extraction using a neurosynaptic system for object classification
KR101673879B1 (ko) * 2015-06-30 2016-11-08 주식회사 아이디스 영상 분석 기반의 인코딩 장치 및 방법
US9659371B2 (en) * 2015-10-08 2017-05-23 Christie Digital Systems Usa, Inc. System and method for online projector-camera calibration from one or more images
US10200572B1 (en) * 2016-03-03 2019-02-05 Amazon Technologies, Inc Motion detection
US10799219B2 (en) 2017-04-28 2020-10-13 General Electric Company Ultrasound imaging system and method for displaying an acquisition quality level
CN107330362B (zh) * 2017-05-25 2020-10-09 北京大学 一种基于时空注意力的视频分类方法
US11067448B2 (en) 2018-10-05 2021-07-20 Parsons Corporation Spectral object detection
CN109523562A (zh) * 2018-12-14 2019-03-26 哈尔滨理工大学 一种基于人眼视觉特性的红外图像分割方法
CN111784694B (zh) * 2020-08-20 2024-07-23 中国传媒大学 一种基于视觉注意力机制的无参考视频质量评价方法
US11903711B2 (en) 2022-06-09 2024-02-20 EarliTec Diagnostics, Inc. Assessing developmental disorders via eye tracking

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5974159A (en) * 1996-03-29 1999-10-26 Sarnoff Corporation Method and apparatus for assessing the visibility of differences between two image sequences
AU5901898A (en) * 1997-01-06 1998-08-18 Wilson S. Geisler Foveated image coding system and method for image bandwidth reduction
US6535644B1 (en) * 1999-07-01 2003-03-18 Koninklijke Philips Electronics N.V. Hierarchical foveation based on wavelets
US6442203B1 (en) * 1999-11-05 2002-08-27 Demografx System and method for motion compensation and frame rate conversion

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1975782B (zh) * 2005-11-30 2012-11-21 汤姆逊许可公司 视频序列中感兴趣区域的校正方法

Also Published As

Publication number Publication date
JP2002247574A (ja) 2002-08-30
DE60203056T2 (de) 2005-07-21
EP1225769A2 (en) 2002-07-24
EP1225769A3 (en) 2003-10-15
US6670963B2 (en) 2003-12-30
JP3851171B2 (ja) 2006-11-29
DE60203056D1 (de) 2005-04-07
US20020126891A1 (en) 2002-09-12
CN1366422A (zh) 2002-08-28
EP1225769B1 (en) 2005-03-02

Similar Documents

Publication Publication Date Title
CN1203677C (zh) 视觉注意模式
Agrawal et al. A novel joint histogram equalization based image contrast enhancement
Zhang et al. Color correction and adaptive contrast enhancement for underwater image enhancement
US7542600B2 (en) Video image quality
CN107292830B (zh) 低照度图像增强及评价方法
CN108198155B (zh) 一种自适用色调映射方法及系统
JP2006507775A (ja) 基準なしで圧縮ビデオシーケンスの品質を測定する方法及び装置
CN110163807B (zh) 一种基于期望亮通道的低照度图像增强方法
CN110298796B (zh) 基于改进Retinex与对数图像处理的低照度图像增强方法
JP2004310475A (ja) 画像処理装置、画像処理を行う携帯電話、および画像処理プログラム
Sun et al. Brightness preserving image enhancement based on a gradient and intensity histogram
CN109035181B (zh) 一种基于图像平均亮度的宽动态范围图像处理方法
WO2008102296A2 (en) Method for enhancing the depth sensation of an image
CN109859138B (zh) 一种基于人眼视觉特性的红外图像增强方法
CN116263942A (zh) 一种调整图像对比度的方法、存储介质及计算机程序产品
CN112365425A (zh) 一种低照度图像增强方法和系统
De Angelis et al. Image quality assessment: an overview and some metrological considerations
CN115375592A (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
Mosny et al. Cubical gamut mapping colour constancy
Nair et al. Benchmarking single image dehazing methods
CN116977190A (zh) 图像处理方法、装置、设备、存储介质及程序产品
CN114549386A (zh) 一种基于自适应光照一致性的多曝光图像融合方法
CN114693543A (zh) 图像降噪方法及装置、图像处理芯片、图像采集设备
Ivkovic et al. Experimental Images Analysis with Linear Change Positive and Negative Degree of Brightness
Hua et al. Medical image quality assessment via contrast masking

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
TR01 Transfer of patent right

Effective date of registration: 20190916

Address after: oregon

Patentee after: Giant Plan Co., Ltd.

Address before: Oregon, USA

Patentee before: Tektronix Inc.

TR01 Transfer of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20050525

Termination date: 20210117

CF01 Termination of patent right due to non-payment of annual fee