CN1975782A - 视频内容分析中感兴趣区域轨迹的校正方法 - Google Patents

视频内容分析中感兴趣区域轨迹的校正方法 Download PDF

Info

Publication number
CN1975782A
CN1975782A CNA2006101608043A CN200610160804A CN1975782A CN 1975782 A CN1975782 A CN 1975782A CN A2006101608043 A CNA2006101608043 A CN A2006101608043A CN 200610160804 A CN200610160804 A CN 200610160804A CN 1975782 A CN1975782 A CN 1975782A
Authority
CN
China
Prior art keywords
area
interest
present frame
attention
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2006101608043A
Other languages
English (en)
Other versions
CN1975782B (zh
Inventor
顾晓东
陈志波
王传铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
International Digital Madison Patent Holding SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Publication of CN1975782A publication Critical patent/CN1975782A/zh
Application granted granted Critical
Publication of CN1975782B publication Critical patent/CN1975782B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/169Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding
    • H04N19/17Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the coding unit, i.e. the structural portion or semantic portion of the video signal being the object or the subject of the adaptive coding the unit being an image region, e.g. an object
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Image Analysis (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明揭示一种视频内容分析中感兴趣区域轨迹的校正方法。该方法包括:提取视频序列中每一帧的感兴趣区域的步骤,一帧中的每个感兴趣区域可选择性地作为其它帧的参考;将参考感兴趣区域投影到当前帧的步骤;以及通过集中和合并所有投影感兴趣区域以及当前帧的原始感兴趣区域,确定当前帧的一个增强的感兴趣区域,来校正视频序列的感兴趣区域轨迹,使感兴趣区域轨迹平滑的步骤。有利的是,忽略了短期感兴趣区域或噪声,同时还丰富了感兴趣区域,因而,感兴趣区域轨迹的平滑可以改善人们的主观观看感受。

Description

视频内容分析中感兴趣区域轨迹的校正方法
技术领域
本发明涉及视频内容分析技术,且特别是涉及视频内容分析中感兴趣区域轨迹的校正方法。
背景技术
在视频内容分析技术领域中,视觉感兴趣区域是能够快速检测给定场景中令人感兴趣部分的能力。在典型的时空视觉感兴趣区域计算模型中,提取出低级别的空域/时域特征,通过完全以自底向上的方式填充所有特征图来生成有助于识别视觉感兴趣区域的主“显著性图”。识别出图像序列中每帧图像的视觉感兴趣区域,然后找出感兴趣区域轨迹。但是,现有的计算感兴趣区域的方法会出现几个固有的缺陷:1)因为在显著性图中有多个特征在竞争,这些特征的任何轻微变化都会导致结果不同,这意味着这样计算出来的感兴趣区域轨迹会不稳定,不时会闪动;2)感兴趣区域会因为特殊时隙中遮蔽、关键显著程度的位置、或者感兴趣区域边界等原因而完全或部分被忽略;3)会产生噪声或者很短时期的感兴趣区域,当在基于感兴趣区域的视频压缩/流传输或其他应用中采用这些计算感兴趣区域的方法时,这种不平滑的感兴趣区域会导致主观质量下降。
如图1所示,说明的是Itti感兴趣区域模型的总体结构。在L.Itti、C.Koch和E.Niebur“A Model of Saliency-Based Visual Attention for Rapid SceneAnalysis”,IEEE Transactions on Pattern Analysis and MachineIntelligence,Vol.20,No.11,Nov.1998,提出的Itti感兴趣区域模型中,视觉输入首先被分解为一组形态特征图。随后每幅图中的不同空间位置会竞争显著性,这样使得只有局部地突出于其周围环境的空间位置可以继续存在。所有的特征图完全以自底向上的方式填充到主“显著性图”中,用于对整个视觉场景中的局部显著区域进行形态编码。
作为Itti感兴趣区域模型的扩属Y.F.Ma等人考虑了时域特征如Y.F.Ma,L.Lu,H.J.Zhang和M.J.Li,在“A User Attention Model for VideoSummarization”,ACM Multimedia’02,pp.533-542,Dec.2002,所公开的。在这个模型中,提取当前帧和下一帧之间的运动场,并且提取一组运动特征,例如,运动强度、空间连贯性和时间连贯性特征。
用以上方法建立的视觉模型对于特征的变化很敏感,这会导致如下所述感兴趣区域轨迹随着时间变化会不平滑:
(1)图像序列中连续的图像非常类似,观看者在一个时隙期间不会改变他们的视觉焦点,遗憾的是,这些连续图像之间的轻微变化会使计算出的感兴趣区域差别很大;
(2)当一个感兴趣对象变为非感兴趣对象或者被一个非感兴趣对象短期遮蔽时,由于观看者的记忆知识,他不会改变其视觉焦点,而再一次,感兴趣区域模型不能指出这一点;以及
(3)感兴趣区域模型总是会产生短期的感兴趣区域或者噪声,而实际上,短期的感兴趣区域或噪声不能够吸引观看者的注意。
在基于感兴趣区域的视频应用中,例如基于感兴趣区域(“Region ofInterest”(ROI))的视频编码,这种不平滑会导致主观视觉质量下降。在基于兴趣区域的视频编码中,较多的资源被分配给较有吸引力的兴趣区域,因而得到较为清楚的兴趣区域和相对模糊的非兴趣区域。使用不平滑的兴趣区域轨迹,关注于兴趣区域的观看者会注意到变化的质量(不时地变得清楚或模糊),而导致有不愉快的感受。
因而需要提出一种改善的感兴趣区域轨迹校正方法,减少上述缺陷的影响并使产生的感兴趣区域平滑。
发明内容
为了使通过各种感兴趣区域模型获得的感兴趣区域轨迹平滑,本发明提供了一种基于时域的视频内容分析中感兴趣区域轨迹的校正方法。
在一个方面,本发明提供了一种视频内容分析中感兴趣区域轨迹的校正方法,包括提取视频序列中每一帧的感兴趣区域,一帧中的每个感兴趣区域可选择性地作为其它帧的参考,特征在于该方法进一步包括将每个参考感兴趣区域投影到当前帧;以及通过集中所有投影感兴趣区域以及当前帧的原始感兴趣区域确定当前帧的一个增强感兴趣区域,来校正视频序列的感兴趣区域轨迹,使视频序列的感兴趣区域轨迹平滑。
有利的是,通过时域校正有效地使视频序列的感兴趣区域轨迹平滑,短期的感兴趣区域或噪声被忽略,同时还丰富了感兴趣区域,因而获得基于感兴趣区域的应用中改善的主观观看感受。
在本发明的另一个方面,感兴趣区域轨迹校正方法的进一步特征在于其投影步骤,包括将参考感兴趣区域成像到当前帧;根据估计的运动向量,将成像感兴趣区域移到一个新位置。要被投影到当前帧的参考包括与当前帧最邻近的多个前向参考和多个后向参考。
有利的是,感兴趣区域轨迹的平滑性校正是通过集中和合并所有从多个前向参考和后向参考获得的投影区域以及当前帧的原始感兴趣区域来实现的。
附图说明
图1所示为Itti感兴趣区域模型的大致结构;
图2描述的是根据本发明基于时域的感兴趣区域轨迹校正实施例;
图3描述的是根据本发明从前一帧估计一帧中的感兴趣区域模型;以及
图4描述的是根据本发明前向参考和后向参考的投影过程。
具体实施方式
本发明提供了一种基于时域的视频内容分析中感兴趣区域轨迹的校正方法,目的是使通过各种感兴趣区域模型获得的感兴趣区域轨迹平滑,本发明提出一种随时间变化产生稳定感兴趣区域的方案。
当图像的感兴趣区域被找到时,可以用估计的运动来投影它在连续图像中的相应区域,预测区域用于增强由已知的感兴趣区域模型计算出的这些连续图像的感兴趣区域。在这种情况下,第一个被找到的感兴趣区域作为参考,而连续图像从参考感兴趣区域预测出它们的感兴趣区域,很显然,这种预测是前向参考。我们可以用同样的方式定义后向参考。这样通过集中和合并所有投影感兴趣区域以及前向参考和后向参考的原始感兴趣区域进行时域校正,使感兴趣区域平滑。
根据本发明的一种模式,要解决的问题可以表示为:
输入:具有已知的感兴趣区域模型M的视频序列V={V0,V1,V2…Vn-1,Vn};
输出:具有平滑的轨迹的感兴趣区域A={A0,A1,A2…An-1,An}。
用给定的感兴趣区域模型M,我们可以用A’k=M(Vk)计算出感兴趣区域A’={A’0,A’1,A’2…A’n-1,A’n}的初始值。本发明的目的旨在使不稳定的A’平滑。
图2说明的是简化示例中本发明感兴趣区域轨迹的校正方法。Vi表示当前帧,Vi-1是Vi的前向参考,Vi+1是Vi的后向参考。如图2所示,每一帧中的黑色实线对象是由已知的感兴趣区域模型M计算出来的相对帧,即,Vi-1的感兴趣区域是脸+圆圈+月亮,Vi的感兴趣区域为脸+太阳,Vi+1的感兴趣区域为脸+圆圈+心。对于每个参考,本发明采取以下的步骤:首先,使感兴趣区域从参考Vi-1和Vi成像到当前帧Vi中,如当前帧Vi中虚线对象所示;随后,根据估计的运动向量将这个成像感兴趣区域移到新的位置,如图2的箭头所示,当前帧Vi中的接收区域称为参考感兴趣区域的投影。最后,所有参考感兴趣区域的投影感兴趣区域与当前帧的原始感兴趣区域被集中和合并及优化,以便获得当前帧增强后的Vi感兴趣区域。如图2中所描述的,校正的结果在右上角显示,其中在原先的当前帧中丢掉的“圆圈”被在增强后的当前帧Vi中找到,而所有的噪声/短期感兴趣区域,例如,“月亮”“太阳”和“心”被忽略。
通过前面的描述,本发明可以被分成两个步骤:首先将用于每个参考的感兴趣区域投影到当前帧;随后,通过集中和合并所有投影感兴趣区域和当前帧Vi原先的感兴趣区域,确定当前帧中增强后的的感兴趣区域,以便使感兴趣区域轨迹平滑。
图3描述的是从MV(j,i-1)到MV(j,i)的前向参考估计。如图3中所示,从当前帧Vi中的宏块MB(阴影块)来看,该MB是根据MV(i-1,i)从前向参考帧Vi-1的新位置得到的。在该新位置中,该MB会覆盖Vi-1四个MB。将四个被覆盖的MB表示为MBk,t、MBk+1,t、MBk,t+1和MBk+1,t+1,而pk,t、pk+1,t、pk,t+1和pk+1,t+1分别表示前向参考帧Vi-1中原始MB覆盖相关MB的比例。随后阴影块MB的运动向量被定义为四个被覆盖的MB的加权组合(j<i),如下所示,
MV(j,i)[k0,t0]=pk,t*MV(j,i-1)[k,t]+pk+1,t*MV(j,i-1)[k+1,t]+pk,t+1*MV(j,i-1)[k,t+1]+pk+1,t+1*MV(j,i-1)[k+1,t+1];
k=ceil(k0+MVx(i-1,i)[k0,t0);
t=ceil(t0+MVy(i-1,i)[k0,t0]);
Pm,n=abs(m-(k0+MVx(i-1,i)[k0,t0]))*abs(n-(t0+MVy(i-1,i)[k0,t0]));
其中,MVx、MVy分别表示MV在x轴和y轴的投影值,MV(j,i)[k,t]表示MV(j,i)中的第t行和第k列。由此类推,运动向量场MV(j,i)被定义为j<i,MV(i,i)=0。
如此定义的运动向量场MV(j,i),可以将每个参考感兴趣区域投影到当前帧Vi。前向参考和后向参考的投影过程与图4中所示的不同(Vi是当前帧,而Vi-det1是前向参考,Vi+det2是后向参考)。
如此处理前向参考投影,使Vi的每个MB都来自于Vi-det1的位置,根据MV(i-det1,i),可以覆盖Vi-det1的4个MB。每个用适当的加权增强了Vi中被考虑的MB。如图4所示的一个例子中,方块B的参考分别以p1,p2,p3,p4的比例覆盖B1、B2、B3和B4。其中f(B,i)表示B是当前帧Vi的感兴趣区域的概率,f(B,i)通过用参考帧Vi-det1 α · ρ ( det 1 ) · Σ j = 1 4 ( p j · f ( B j , i - det 1 ) ) 来增强,其中α是一个常数,ρ(d)是衰减比,如下一段所描述。
如此处理后向参考投影,使根据MV(i,i+det2)从当前帧Vi的位置得到的Vi+det2中的每个MB会覆盖Vi的4个MB,由Vi+det2的MB每个用适当的加权增强。如图4所示,B’是Vi中相关阴影块的参考,分别以p1’,p2’,p3’,p4’的比例覆盖块B1’,B2’,B3’和B4’。然后f(Bj’,i)通过用参考Vi+det2和α·ρ(det2)·Pj′·f(B′,i+det2)来增强,其中j=1,2,3,4。
图4描述前向/后向参考投影的过程,参考的所有投影感兴趣区域用于以衰减比率ρ(d)来增强当前帧,其中d是从参考到当前帧的距离。参考帧与当前帧越靠近,投影感兴趣区域对当前帧的感兴趣区域影响越大。从而,ρ(d1)<ρ(d2)时,d1>d2,一种可能的解决方案是ρ(d)=1-d/k,适用于某个常数K。这种增强的感兴趣区域可以产生所要的结果。
较好的参数选择会产生较好的感兴趣区域平滑。的确,较好的是在视频序列中选择参考。我们不需要应用其他镜头边界检测方法。我们需要一种用由已知的感兴趣区域模型M计算出不同感兴趣区域的显著性来表示我们需要的镜头边界。优选的是,在视频序列中,选择与当前帧最接近的多个前向参考和后向参考。
本发明的视频内容分析中感兴趣区域的校正方法具有以下优点:
-提供了一种简单但有效的方法生成具有平滑轨迹的感兴趣区域;
-通过时域校正,忽略了短期感兴趣区域或噪声;并且
-因为采用了时域信息,所以还丰富了感兴趣区域。
根据本发明的视频内容分析中运动轨迹的平滑方法会大大改善基于感兴趣区域的应用(例如比特分配)中的视觉感受。

Claims (3)

1、视频序列中感兴趣区域轨迹的校正方法,包括提取视频序列中每一帧的感兴趣区域的步骤,一帧中的每个感兴趣区域可选择性地作为其他帧的参考;
将每个参考感兴趣区域投影到当前帧的步骤;以及
确定当前帧的增强的感兴趣区域的步骤,
特征在于该投影步骤包括以下子步骤:
将感兴趣区域从参考帧映射到当前帧的步骤;以及
根据参考感兴趣区域的估计运动向量,将当前感兴趣区域移到一个新位置的步骤;
确定当前帧的增强的感兴趣区域的确定步骤是通过,集中和合并所有投影感兴趣区域以及当前帧的原始区域,来校正视频序列的感兴趣区域轨迹,使视频序列的感兴趣区域轨迹平滑来完成的。
2、权利要求1的方法,特征在于被投影到当前帧的参考包括前向参考和后向参考。
3、权利要求2的方法,特征在于与当前帧最靠近的多个前向参考和多个后向参考被选择投影到当前帧。
CN2006101608043A 2005-11-30 2006-11-28 视频序列中感兴趣区域的校正方法 Active CN1975782B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP05300974A EP1793344A1 (en) 2005-11-30 2005-11-30 Method of emendation for attention trajectory in video content analysis
EP05300974.2 2005-11-30

Publications (2)

Publication Number Publication Date
CN1975782A true CN1975782A (zh) 2007-06-06
CN1975782B CN1975782B (zh) 2012-11-21

Family

ID=35708687

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2006101608043A Active CN1975782B (zh) 2005-11-30 2006-11-28 视频序列中感兴趣区域的校正方法

Country Status (4)

Country Link
US (1) US7982771B2 (zh)
EP (2) EP1793344A1 (zh)
CN (1) CN1975782B (zh)
DE (1) DE602006001629D1 (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101354786B (zh) * 2007-07-23 2011-07-06 中国科学院计算技术研究所 一种体育视频事件分析方法
CN101877786B (zh) * 2009-04-30 2012-08-15 北京大学 一种视频帧前景跟踪方法以及视频编码器
CN105301794A (zh) * 2015-10-30 2016-02-03 中国科学院遗传与发育生物学研究所 用于快速运动物体的超高分辨成像装置
CN108769688A (zh) * 2018-05-24 2018-11-06 安徽质在智能科技有限公司 视频编解码方法

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8584048B2 (en) * 2008-05-29 2013-11-12 Telcordia Technologies, Inc. Method and system for multi-touch-based browsing of media summarizations on a handheld device
WO2009155089A1 (en) * 2008-05-29 2009-12-23 Telcordia Technologies, Inc. Method and system for generating and presenting mobile content summarization
AU2009298428B2 (en) * 2008-10-03 2013-03-14 3M Innovative Properties Company Systems and methods for optimizing a scene
US8296675B2 (en) * 2009-03-09 2012-10-23 Telcordia Technologies, Inc. System and method for capturing, aggregating and presenting attention hotspots in shared media
US8762890B2 (en) 2010-07-27 2014-06-24 Telcordia Technologies, Inc. System and method for interactive projection and playback of relevant media segments onto the facets of three-dimensional shapes
US9269245B2 (en) 2010-08-10 2016-02-23 Lg Electronics Inc. Region of interest based video synopsis
US9092675B2 (en) * 2012-03-29 2015-07-28 The Nielsen Company (Us), Llc Methods and apparatus to count people in images
RU2683857C2 (ru) * 2013-03-25 2019-04-02 Аймакс Корпорейшн Улучшение киноизображений с использованием точной информации о движении
CN103888680B (zh) * 2014-03-28 2017-07-11 中国科学技术大学 一种摄像头曝光时间的调节方法
CN105319725B (zh) * 2015-10-30 2018-01-02 中国科学院遗传与发育生物学研究所 用于快速运动物体的超高分辨成像方法
US10049279B2 (en) 2016-03-11 2018-08-14 Qualcomm Incorporated Recurrent networks with motion-based attention for video understanding
CN112040222B (zh) * 2020-08-07 2022-08-19 深圳大学 一种视觉显著性预测方法及设备

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6670963B2 (en) * 2001-01-17 2003-12-30 Tektronix, Inc. Visual attention model
US20040100560A1 (en) * 2002-11-22 2004-05-27 Stavely Donald J. Tracking digital zoom in a digital video camera
CN1181691C (zh) * 2003-01-24 2004-12-22 杭州国芯科技有限公司 视频运动估计方法
CN1212014C (zh) * 2003-08-18 2005-07-20 北京工业大学 基于时空域相关性快速运动估计的视频编码方法
US7880769B2 (en) * 2004-02-13 2011-02-01 Qualcomm Incorporated Adaptive image stabilization
US7705884B2 (en) * 2004-07-21 2010-04-27 Zoran Corporation Processing of video data to compensate for unintended camera motion between acquired image frames
US9215363B2 (en) * 2004-09-29 2015-12-15 Hewlett-Packard Development Company, L.P. Implementing autofocus in an image capture device while compensating for movement
US20060215036A1 (en) * 2005-03-25 2006-09-28 Multivision Intelligent Surveillance (Hk) Ltd. Method and apparatus for video stabilization

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101354786B (zh) * 2007-07-23 2011-07-06 中国科学院计算技术研究所 一种体育视频事件分析方法
CN101877786B (zh) * 2009-04-30 2012-08-15 北京大学 一种视频帧前景跟踪方法以及视频编码器
CN105301794A (zh) * 2015-10-30 2016-02-03 中国科学院遗传与发育生物学研究所 用于快速运动物体的超高分辨成像装置
CN105301794B (zh) * 2015-10-30 2017-08-25 中国科学院遗传与发育生物学研究所 用于快速运动物体的超高分辨成像装置
CN108769688A (zh) * 2018-05-24 2018-11-06 安徽质在智能科技有限公司 视频编解码方法
CN108769688B (zh) * 2018-05-24 2021-09-03 西华师范大学 视频编解码方法

Also Published As

Publication number Publication date
CN1975782B (zh) 2012-11-21
US20070121015A1 (en) 2007-05-31
EP1793345B1 (en) 2008-07-02
US7982771B2 (en) 2011-07-19
EP1793344A1 (en) 2007-06-06
DE602006001629D1 (de) 2008-08-14
EP1793345A1 (en) 2007-06-06

Similar Documents

Publication Publication Date Title
CN1975782B (zh) 视频序列中感兴趣区域的校正方法
CN110598610B (zh) 一种基于神经选择注意的目标显著性检测方法
CN1120629C (zh) “图象分割和对象跟踪的方法和与其相对应的系统”
US20100098331A1 (en) System and method for segmenting foreground and background in a video
US20070127775A1 (en) Method and apparatus for color-based object tracking in video sequences
US20070116356A1 (en) Video foreground segmentation method
CN107358141B (zh) 数据识别的方法及装置
CN1201910A (zh) 目标跟踪方法及其设备
EP1563459A2 (en) A method for generating a quality oriented significance map for assessing the quality of an image or video
US20080219573A1 (en) System and method for motion detection and the use thereof in video coding
CN106991686B (zh) 一种基于超像素光流场的水平集轮廓跟踪方法
CN102271262B (zh) 用于3d显示的基于多线索的视频处理方法
CN107944437B (zh) 一种基于神经网络和积分图像的人脸定位方法
Agrawal et al. A comprehensive review on analysis and implementation of recent image dehazing methods
CN112906631B (zh) 一种基于视频的危险驾驶行为检测方法和检测系统
Patil et al. Motion saliency based generative adversarial network for underwater moving object segmentation
CN111709300A (zh) 基于视频图像的人群计数方法
CN112287906B (zh) 一种基于深度特征融合的模板匹配跟踪方法及系统
CN1287751A (zh) 静态图象产生方法和装置
US20090180670A1 (en) Blocker image identification apparatus and method
CN116596792B (zh) 一种面向智能船舶的内河雾天场景恢复方法、系统及设备
JP7290546B2 (ja) 3dモデル生成装置および方法
CN1510907A (zh) 在体育比赛视频中检测精彩片断的方法
Li et al. Deep image quality assessment driven single image deblurring
CN111339934A (zh) 一种融合图像预处理与深度学习目标检测的人头检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CP02 Change in the address of a patent holder

Address after: I Si Eli Murli Nor, France

Patentee after: THOMSON LICENSING

Address before: French Boulogne

Patentee before: THOMSON LICENSING

CP02 Change in the address of a patent holder
TR01 Transfer of patent right

Effective date of registration: 20190128

Address after: Paris France

Patentee after: International Digital Madison Patent Holding Co.

Address before: I Si Eli Murli Nor, France

Patentee before: THOMSON LICENSING

Effective date of registration: 20190128

Address after: I Si Eli Murli Nor, France

Patentee after: THOMSON LICENSING

Address before: I Si Eli Murli Nor, France

Patentee before: THOMSON LICENSING

TR01 Transfer of patent right