CN1335021A - 视频/音频信号处理方法和视频/音频信号处理设备 - Google Patents

视频/音频信号处理方法和视频/音频信号处理设备 Download PDF

Info

Publication number
CN1335021A
CN1335021A CN99815915A CN99815915A CN1335021A CN 1335021 A CN1335021 A CN 1335021A CN 99815915 A CN99815915 A CN 99815915A CN 99815915 A CN99815915 A CN 99815915A CN 1335021 A CN1335021 A CN 1335021A
Authority
CN
China
Prior art keywords
video
audio signal
piece
block
motion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN99815915A
Other languages
English (en)
Other versions
CN100387061C (zh
Inventor
M·彼得·库恩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN1335021A publication Critical patent/CN1335021A/zh
Application granted granted Critical
Publication of CN100387061C publication Critical patent/CN100387061C/zh
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/73Querying
    • G06F16/738Presentation of query results
    • G06F16/739Presentation of query results in form of a video summary, e.g. the video summary being a video sequence, a composite still image or having synthesized frames
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/745Browsing; Visualisation therefor the internal structure of a single video sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/786Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using motion, e.g. object motion or camera motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/78Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/783Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • G06F16/7847Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content
    • G06F16/7864Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content using low-level visual features of the video content using domain-transform features, e.g. DCT or wavelet transform coefficients
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/10Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding
    • H04N19/134Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using adaptive coding characterised by the element, parameter or criterion affecting or controlling the adaptive coding
    • H04N19/136Incoming video signal characteristics or properties
    • H04N19/14Coding unit complexity, e.g. amount of activity or edge presence estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/513Processing of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/527Global motion vector estimation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/537Motion estimation other than block-based
    • H04N19/54Motion estimation other than block-based using feature points or meshes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/50Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding
    • H04N19/503Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using predictive coding involving temporal prediction
    • H04N19/51Motion estimation or motion compensation
    • H04N19/547Motion estimation performed in a transform domain
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/60Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding
    • H04N19/61Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using transform coding in combination with predictive coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/70Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by syntax aspects related to video coding, e.g. related to compression standards
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • General Engineering & Computer Science (AREA)
  • Library & Information Science (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

元数据提取单元具有特征点选择和运动估计单元(62),用于在视频/音频信号的压缩域中提取至少一个表示该视频/音频信号的特性的特征点。因此,能够实现处理时间或成本的降低,并且使有效处理成为可能。

Description

视频/音频信号处理方法和视频/音频信号处理设备
技术领域
本发明涉及视频/音频信号处理方法和视频/音频信号处理设备,并且提供一种用于此的有效计算方法以简化(facilitate)诸如(但不限于)来自MPEG压缩领域的摄像运动提取和视频概括(video summarization)的应用。
背景技术
随着视频存储装置容量的增加,出现了为用户浏览方便进行视频内容的构建和概括的需要。元数据(即,关于数据的数据)使视频浏览成为可能,该元数据最好被自动提取。
图1描述了从在像素域中的MPEG(运动图像专家组)压缩视频提取与元数据有关的运动的现有技术。MPEG视频至像素域的全解码(Full decoding)由MPEG解码单元11执行。运动估计单元12(基于本领域技术人员都知道的光流计算或块匹配)从视频流的像素表示中计算运动矢量。参数和摄像运动计算单元13从这些运动矢量中计算涉及元数据的运动。
对于像素域中的摄像运动估计,有Ingemar J.Cox,Sebastien Roy的专利“US5,751,838:5/1998:“在两图像帧382/107间的摄像运动的校正(Correction of camera motion between two image frames:382/107)”以及出版物。
在Yi Tong Tse和Richard L.Baker的“视频压缩的全局缩放/全景估计以及补偿(Global Zoom/Pan estimation and compensation for video compression)”ICASSP 91,1991,2725-2728页中估计了视频编码的摄像缩放和全景。但是,该方法在不是已建模的那些摄像运动类型的情况下可能产生不可靠的结果。
在SPIE的1992年第1818卷的视觉通信和图像处理部分1522-1530页中发表的A.Akutsu,Y.Tonomura,H.Hashimoto,Y.Ohha的“使用运动矢量进行视频检索(Video indexing using motion vectors)”中分析了使用霍夫变换(Hough Transform)像素域中的摄像运动,然而所描述的方法没有提取摄像运动量。
在IEEE Trans.CSVT的1994年6月卷4第3册的288-296页中发表的Jong-II Park,Nobuyuki Yagi,Kazumasa Enami,Kiyoharu Aizama,MitsutoshiHatori的“对基于视频编码模型的图像序列中的摄像参数的估计(Estimationof Camera Parameters from Image Sequence for model based video coding)”以及在“信号处理:图像通信”的1996年第9卷43-53页中发表的Jong-II Park,Choong Woong Lee的“从视频组成的图像序列中进行摄像参数的强健(robust)估计(Robust estimation of camera parameters from image sequence for videocomposition)”中发现了使用纹理倾斜度的像素域中的特征点,并确定了这些特征点的运动的摄像运动。
在“信号处理:图像通信”的1996年第9卷43-53页中发表的Jong-II Park,Choong Woong Lee的“从视频组成的图像序列中进行摄像参数的强健估计(Robust estimation of camera parameters from image sequence for videocomposition)”中使用了非正常值拒绝方法使得在像素域中的摄像运动估计更强健。
在1995年的Proc.ICPC的406-409页中发表的Y.P.Tan,S.R.Kuilarni,P.J.Ramadge的“摄像运动参数估计的新方法(A new method for camera motionparameter estimation)”中描述了根据摄像运动的小总量的假设的像素域中的摄像运动估计的回归最小二乘法。
在“信号处理:图像通信”的1996年第8卷295-307页发表的Philippe Joly,Hae-Kwang Kim的“使用时空图像进行摄像工作和视频微分割的有效自动分析(Efficient automatic analysis of camera work and microsegmentation of videousing spatiotemporal images)”中基于苏贝尔算子(Sobel operator)或标准边缘检测单元以及边缘至线条图形的时空投射描述了像素域中的摄像运动估计算法。使用霍夫变换分析线条图形以提取运动方向中的边缘。
在荷兰政治地理学的“线条识别”的1997年第30卷第4册593-606页发表的M.V.Srinivasan,S.Venkatesh,R.Hosi的“从视频序列中定性估计摄像运动参数(Qualitative estimation of camera motion parameters from videosequence)”中,从像素域中的未压缩视频中提取摄像运动参数,其中分别提供摄像全景、倾斜、旋转和缩放的总量。
在ICASSP 99,1999中发表的Richard R.Schultz,Mark G.alford的“通过使用匹配特征点选择的自动块进行的投射变换的多帧综合(Multiframeintegration via the projective transform with automated block matching featurepoint selection)”建议了一种基于非线性投影变换模型的像素域中的自像素分辨率图像注册算法以便计算摄像平移、旋转、缩放、全景和倾斜。
在IEEE图像编码论文集,PCS99,1999中发表的R.S.Jasinschi,T.Naveen,P.Babic-Vovk,A.J.Tabatabai的“视在3-D摄像速度提取及其应用(Apparent 3-Dcamera velocity extraction and its Applicants)”中描述了用于数据库查询和子画面(拼接)应用的像素域中的摄像速度估计。
由于视频内容的巨大存储量,出现了越来越多的采用MPEG-1/MPEG-2或MPEG-4格式压缩的视频材料。但是,针对像素域而开发的摄像运动估计算法却不是能够直接应用到MPEG压缩领域的。因此,需要MPEG压缩位流的时间耗费解码以及像素域中的计算需求运动估计,并且必须执行摄像运动估计(图1)。
而且,为了避开像素域中的MPEG视频解压缩和摄像运动估计的计算负担,已经建议了在压缩域中执行的摄像运动估计。先前的对于压缩域中的摄像运动估计是基于使用MPEG运动矢量并将它们匹配到描述摄像运动的参数运动模型中的。
图2描述了MPEG压缩视频中的涉及元数据的运动的提取的本领域的当前状态。MPEG视频分析由MPEG位流分析单元21执行。从该分析的位流中,单元22提取运动矢量并将其传递到参数和摄像运动计算单元23。
在1997年2月的关于“图像和视频数据库V的存储和检索”的SPIE会议的论文集第3022卷200-211页中发表的V.Kobla,D.Doermann,K-I.Lin,C.Faloutsos的“使用MPEG视频的DCT和运动矢量信息的压缩域视频技术(Compressed domain video indexing techniques using DCT and motion vectorinformation in MPEG video)”中通过使用方向柱状图从MPEG压缩域运动矢量中确定“流矢量”以便确定全面的转化运动方向。但是这个基本模型不能检测摄像缩放和旋转。
在ICIP,神户,1999上发表的Roy Wang,Thomas Huang的“MPEG域的快速摄像分析(Fast Camera Motion Analysis in MPEG domain)”中描述了在MPEG域中的快速运动分析算法。该算法是基于使用来自P-帧的MPEG运动矢量和基于来自B帧的为获得I帧的内插运动矢量。参数摄像运动估计的非正常值拒绝最小二乘算法被用于加强从这些运动矢量中的摄像运动估计的可靠性。
但是,使用摄像运动估计的MPEG运动矢量具有几个缺点。
首先,在压缩的MPEG流中的运动矢量不表示真实的运动,但选择这些运动矢量是为了在编码器上快速和位速率的有效压缩,并且这些运动矢量依赖于编码器厂商的编码策略,该编码策略是没有被MPEG标准化的,可能是截然不同的。例如,与使用具有增加了的搜索范围的运动估计算法的高位速率和高质量MPEG编码相比,为了快速编码而采用低复杂运动估计算法。比较:Kluwer学院出版社,1999年6月出版的Peter Kuhn的“MPEG-4运动估计的算法、复杂分析和VLSI-架构(Complexity Analysis and VLSI-Architecturesfor MPEG-4 Motion Estimation)”,ISBN 792385160。
而且,使用MPEG运动矢量进行摄像运动估计的水平较大地依赖于MPEG的图像组(GOP)结构、视频采样速率(例如,每秒30帧)以及其他的因素,并且因此对于精确摄像运动估计来说是不可靠的。例如,市场上的某些MPEG编码器设备对具有快速运动的序列动态地改变GOP结构。
而且,MPEG运动矢量(特别是小的运动矢量)常常被噪声极大地影响并且可能不可靠。
而且,在使用某些快速运动估计算法使用受限运动估计搜索区域的情况下,可能不存在长的运动矢量。
而且,仅MPEG视频的I帧根本不包括运动矢量。因此,这里是不能使用基于使用MPEG运动矢量的算法。仅MPEG视频的I帧是有效的MPEG视频格式,由于可以进行帧精确剪切使得该MPEG视频格式被用于视频编辑中。在该领域中,涉及元数据的运动是很重要的,例如,用于确定该摄像工作。
而且,一些诸如DV和MJPEG的压缩视频格式是基于象MPEG的相似的DCT(离散余弦变换)结构的,但是不包括运动信息。因此对于这些情况不使用基于包含在压缩流中的运动矢量的摄像运动估计算法。
而且,从B帧中进行运动矢量内插获得I帧对于快速摄像或对象运动的情况是失败的,在这些情况中出现了新图像内容。
发明公开
由于本领域的上述状态,本发明的一个目的在于提供用于从压缩的视频中提取和浏览涉及元数据的运动的一种视频/音频信号处理方法和一种视频/音频信号处理设备。
在本发明中,运动元数据的主要应用包括视频概括、摄像运动表示以及基于视频浏览的运动。
根据本发明的视频/音频信号处理方法适用于处理所提供的视频/音频信号以实现上述目的。该设备包括步骤:提取至少一个表示在所述的视频/音频信号的压缩域中的所述视频/音频信号的特性的压缩域特征点;对在所述提取步骤提取的特征点执行运动估计;并通过预设数量的构成所述视频/音频信号的帧跟踪与运动矢量有关的特征点。
在根据本发明的视频/音频信号处理方法中,在压缩域中提取视频/音频信号的特征点,执行所提取的特征点的运动估计,并且跟踪与运动矢量有关的特征点。
而且,根据本发明的视频/音频信号处理设备适用于处理所提供的视频/音频信号以实现上述目的。该设备包括:提取装置,提取至少一个表示在所述的视频/音频信号的压缩域中的所述视频/音频信号的特性的压缩域特征点;运动估计装置,对在所述提取装置提取的特征点执行运动估计;以及特征点跟踪装置,通过预设数量的构成所述视频/音频信号的帧跟踪与运动矢量有关的特征点。
在根据本发明的视频/音频信号处理设备中,在压缩域中提取压缩域特征点的装置提取视频/音频信号的特征点,执行特征点的运动估计的装置执行所提取的特征点的运动估计,并且跟踪特征点的装置跟踪与运动矢量有关的特征点。
而且,一种视频/音频信号处理方法被用于处理和浏览所提供的视频/音频信号以便实现上述目的。该方法包括步骤:分级建立摄像运动转换图,其中图形建立步骤包括步骤:提供具有至少一个主摄像运动转换图和具有多个表示其他的具有用于视频序列说明的转换路径的摄像运动的图形布局;通过摄像运动转换图,并通过说明在节点上的摄像运动视频序列的主帧(keyframe)进行浏览;以及通过摄像运动转换图,并通过说明在节点上的摄像运动的图形表示进行浏览。
在根据本发明的视频/音频信号处理方法中,分级建立摄像运动转换图,执行通过摄像运动转换图,并通过说明在节点上的摄像运动视频序列的主帧进行的浏览,以及执行通过摄像运动转换图,并通过说明在节点上的摄像运动的图形表示进行的浏览。
而且,根据本发明的视频/音频信号处理设备适用于处理和浏览所提供的视频/音频信号以便实现上述目的。该设备包括:建立装置,用于分级建立摄像运动转换图,其中图形建立装置包括步骤:提供具有至少一个主摄像运动转换图和具有多个表示其他的具有用于视频序列说明的转换路径的摄像运动的图形布局;浏览装置,通过摄像运动转换图,并通过说明在节点上的摄像运动视频序列的主帧,进行浏览;以及浏览装置,通过摄像运动转换图,并通过说明在节点上的摄像运动的图形表示进行浏览。
在根据本发明的视频/音频信号处理设备中,通过建立图的装置分级建立摄像运动转换图,第一浏览装置执行通过摄像运动转换图,并通过说明在节点上的摄像运动视频序列的主帧进行的浏览,以及第二浏览装置执行通过摄像运动转换图,并通过说明在节点上的摄像运动的图形表示进行的浏览。
并且,根据本发明的视频/音频信号处理方法适用于提取用于浏览的合成视频选择的分级分解以便实现上述目的。该方法包括步骤:识别视频;从表示每一视频段的所述视频拍摄(shot)中收集主帧;根据摄像运动或全面的运动信息分类主帧的收集;以及建立视频的图形表示,图形表示是基于所述分类步骤的结果的、瞬间的以及与视频拍摄的每一部分有关的摄像运动信息,其中所述的图形表示建立步骤包括由节点表示视频拍摄的每一类别的步骤。
在根据本发明的视频/音频信号处理方法中,识别视频,从视频拍摄中收集主帧,分类所收集的主帧,并建立视频的图形表示。
而且,在根据本发明的视频/音频信号处理设备是适用于提取用于浏览的合成视频选择的分级分解以获得上述目的。该设备包括:识别装置,用于识别视频;收集装置,用于从表示每一视频段的所述视频拍摄中收集主帧;分类装置,用于根据摄像运动或全面的运动信息分类主帧的收集;以及建立装置,用于建立视频的图形表示,图形表示是基于所述分类步骤的结果的、瞬间的以及与视频拍摄的每一部分有关的摄像运动信息,其中所述的图形表示建立步骤包括由节点表示视频拍摄的每一类别的步骤。
在根据本发明的视频/音频信号处理设备中,识别视频的装置识别视频,收集主帧的装置从视频拍摄中收集主帧,分类的装置分类所收集的主帧,并且建立视频的图形表示的装置建立视频的图形表示。
而且,根据本发明的视频/音频信号处理方法适用于处理所提供的视频/音频信号以实现上述目的。该方法包括步骤:提取至少一个表示在所述的视频/音频信号的压缩域中的所述视频/音频信号的特性的压缩域特征点。
在根据本发明的视频/音频信号处理方法中,在压缩域中提取视频/音频信号的特征点。
而且,根据本发明的视频/音频信号处理设备适用于处理所提供的视频/音频信号以实现上述目的。该装置包括:提取装置,用于在所述视频/音频信号的压缩域中提取表示所述视频/音频信号的特性的至少一个压缩域特征点。
在根据本发明的视频/音频信号处理设备中,在压缩域中由提取压缩域特征点的装置提取视频/音频信号的特征点。
而且,根据本发明的视频/音频信号处理方法适用于处理所提供的视频/音频信号。该方法包括步骤:对在所述视频/音频信号的压缩域中的表示所述视频/音频信号的特性的至少一个特征点执行运动估计。
在根据本发明的视频/音频信号处理方法中,执行所提取特征点的运动估计。
而且,根据本发明的视频/音频信号处理设备适用于处理所提供的视频/音频信号。该设备包括:运动估计装置,用于对在所述视频/音频信号的压缩域中的表示所述视频/音频信号的特性的至少一个特征点执行运动估计。
在根据本发明的视频/音频信号处理设备中,由执行运动估计的装置执行所提取特征点的运动估计。
附图说明
图1描述了运动元数据提取的现有技术;
图2描述了运动元数据提取的其他的现有技术;
图3描述了视频浏览和元数据提取单元的概略图;
图4给出了对块和宏块的命名协定;
图5给出了压缩域特征点运动估计概念的概略图;
图6示出了元数据提取单元的数据流程图;
图7说明了MPEG位流分析、DCT-系数提取以及运动矢量提取单元;
图8示出了使用在选择块中应用的IDCT算法的特征点注册和运动估计的控制流;
图9示出了块关联度量的计算流;
图10描述了在DCT-域中的特征点选择和运动估计的控制流;
图11示出了一个8X8DCT-块的DCT系数编号方式;
图12示出了视频概括的特征点寿命的数据结构;
图13说明了摄像运动方向;
图14给出了视频浏览单元的一个例子的概略图;
图15示出了具有摄像全景、缩放和旋转主帧例子的视频浏览单元;
图16给出了视频浏览单元的图形表示。
实施发明的最佳形式
现在将参考附图说明根据本发明的实施例。
在本发明中公开了一种新的压缩域特征点选择和在多种应用情况下的运动估计算法,包括摄像运动估计、对象运动估计、视频概括、视频代码转换、运动活动测量、视频场景检测以及视频主帧检测。
用于对象识别、对象跟踪、全面运动估计以及视频概括的现存的特征点选择方法被应用于像素域中,因此需要消耗时间来进行压缩视频位流的解码。
公开的特征点选择算法直接工作在压缩域中,并且因此避免了计算的浪费和解码压缩的视频流所消耗的时间。压缩域预选择机构确定后选特征点极大地减小了计算复杂性。
特征点选择算法采用了包含在DCT(离散余弦变换)系数和MPEG(运动图像专家组)运动矢量(当存在时)中的纹理信息,并因此能够直接应用到基于DCT的压缩静止图像(如运动JPEG(联合图象专家组,)、MIPEG)和压缩的视频(如MPEG-1/MPEG-2/MPEG-4、ITU-T(国际电信同盟-电信标准部门)推荐的H.261、H.263、H.26X、或DV格式)。
本发明公开的内容,描述了在压缩域(例如使用MPEG-1)中的特征点的提取,和利用在MPEG压缩域中存在的运动矢量的这些特征的运动估计以及预测的误差能量。
而且,本发明公开了使用在压缩域中的这个特征点选择算法的下列应用。
(1)对象识别和分类
(2)用于跟踪的对象运动估计(使用例如参数运动模型或卡尔曼滤波器)
(3)全面(摄像)运动估计(使用参数摄像运动模型)
(4)使用由该方法提取的运动矢量进行运动活动计算
(5)视频代码转换(根据帧中特征点的位置确定感兴趣区域,并通过适当的量化器控制对感兴趣区域给出较多的位,使用摄像运动参数以便于再编码或为子序列编码提供运动矢量)
(6)视频场景中前景/背景分割(通过跟踪特征点的寿命,确定特征点的全面运动和对象运动)
(7)视频概括和视频场景检测(通过跟踪特征点的寿命。当大量先前存在的特征点消失并且大量新的特征点出现时,那么这是一个新场景开始的征候,可以用做视频概括)
(8)视频主帧检测(从部分视频流中检测出主帧,其中,随着时间过去,在视频流中大量的特征点没有改变)
(9)视频浏览(使用特征点和涉及根据上述分级视频表示的方法的特征点和主帧的对象/全面运动)
(10)视频拼接(通过合并几个视频帧的较小的部分以生成一个单个大的图像。这里特征点用做参考点)
图3描述了元数据提取和视频浏览单元的概略图。所描述的设备包括:存储介质31(包括光的、磁的、电的和机电的介质,如CD-ROM、DVD-RAM、DVD-ROM、视频磁带、硬盘、RAM、ROM等)、提供元数据MD30至视频浏览单元35的元数据提取单元36。元数据提取单元36和视频浏览单元35的实施可以根据可编程的计算机34,但也可能是其他的装置。视频浏览单元35由和用户人33交互的用户接口单元32控制。
现在将详细描述第一优选实施例。
这部分首先给出了全面的概览,并接着作为第一优选实施例,描述了在压缩域中的特征点选择和运动估计的基本方法。另一个优选实施例描述了和第一优选实施例不同的方法,以及该特征点和运动估计方法的应用。
图4给出了16×16像素大小的MPEG宏块(MB)和它们的8×8像素大小的块的符号。参考帧一般说是,一个在和当前时间相比的不同时间点上的帧。一般来说,在上下文中假设参考帧暂时位于当前帧的后面。在MPEG-4的情况下,参考MBcur是当前(cur)帧或当前视频对象平面(VOP)的MB,和在MPEG-4的情况中,MBref是参考(ref)帧或参考视频平面(VOP)的MB,与当前帧或VOP比较,这些MB与不同时间场合有关。在本发明中,术语“帧”还包括在MPEG-4中使用的任意形状对象(VOP)。MV是运动矢量,它在x方向和y方向上的分量分别为MVx和MVy
这里使用的“帧内”是用于在MPEG和H.26X标准和推荐中的内编码宏块,以及用于DCT的仅在DV格式和MJPEG中的编码块。“P-型”用于在MPEG和H.26X标准和推荐中的预测编码宏块,并且“B-型”用于在MPEG和H.26X标准和推荐中的双向预测宏块。
图5给出了特征点提取和运动估计方法的一般概略图。特征点(或该例子中的边缘点)是例如在亮度、颜色或纹理上具有突然地改变的地方,并且因此适用于运动估计和运动跟踪。51描述了在t=t0的当前帧中具有一些边缘点的视频对象,例如这些边缘点中的一个在位置52。对于在t=t1的参考帧,该边缘点52(在t=t1的参考帧中重新编号为54)移动到位置55。该移动和运动矢量53有关。为了找到该运动矢量,在预测运动矢量周围的搜索区域56中执行运动估计技术。本发明公开的一些方法是如何在压缩域中寻找特征点的技术以及在压缩域中的两个有关的特征点之间有效地计算估计的运动的技术。固然在不同时间情况的相同的两个特征点(或在几个特征点是表示一个对象的情况中的超过两个的特征点)是联系在一起的以便找到它们的运动矢量,本发明还公开了一种在压缩域以及像素域中的特征点的签名技术。该签名技术在图8的步骤S83中将更详细地描述。
图6描述了元数据提取单元的数据流。该分析单元61是负责MPEG位流分析以及DCT-系数和运动矢量提取的,并且在图7中更详细地进行了描述。分析单元61将当前宏块的类型(I:帧内,B:双向预测,P:预测)、提取的MPEG运动矢量(如果存在该宏块类型)以及当前帧的DCT-系数(如果存在)提供到特征点选择单元以及运动估计单元62。
特征点选择单元63由特征点保真度参数控制。它从这些输入的数据中计算出当前帧的特征点坐标,并将它们传递到特征点运动估计单元64、参数和摄像运动计算单元65和视频概括单元66。从特征点选择单元63中,将候选运动矢量MV(x,y)、所需要的运动矢量决定(resolution)以及搜索区域传递到特征点运动估计单元64。在图8中描述了特征点选择和运动估计的控制流。特征点运动估计单元64从当前帧的特征点坐标以及参考帧的特征点坐标中计算运动矢量,并将这些运动矢量输出到参数和摄像运动计算单元65。
参数和摄像运动计算单元65从前面的步骤中获得运动矢量,并计算参数运动模型的参数和摄像运动参数,这些参数被传递到视频概括单元66。
视频概括单元66包括特征点寿命列表67的基本步骤以及基于场景改变检测和主帧提取单元68的特征点和运动的步骤。
特征点寿命67包括特征点坐标和签名、与特征点有关的运动矢量以及为运动矢量计算的距离测量,例如比较图12。基于场景改变检测和主帧提取单元68的特征点和运动,将场景改变的帧数目、具有相应的重要等级和摄像运动参数的主帧作为元数据传送至图3所示的视频浏览单元35。
视频概括单元66可以根据概括的深度,即具有相应的重要等级和摄像运动参数的主帧的数目,进行(可选的)外形上的控制。
图7描述了由MPEG位流分析单元71组成的分析单元,MPEG位流分析单元71例如从MPEG传送流中提取MPEG视频位流。帧-和宏块-类型提取单元72提取宏块-类型,并且在当前宏块(MB)是P-MB或B-MB(分别地是P-VOP或B-VOP)74的情况下,还使用运动矢量提取单元75为该宏块(或VOP)提取运动矢量。从预分析的位流中,DCT-系数提取单元73提取在I-帧、P-帧、B-帧(或MPEG-4中的I-VOP、P-VOP或B-VOP)中的帧内块。
图8描述了通过仅在所选择的一些块上使用IDCT(逆离散余弦变换)的特征点选择和运动估计处理。
当使用CIF格式(352×288像素)时,MPEG流的全解码(比较图1)需要对cur和ref进行2×396×4=3168IDCT计算。但是,例如,对于摄像运动估计,仅在与运动矢量有关的cur中的6个特征点(num=6)例如对一个6参数运动模型来说是必须的。在这个例子中,对于每一特征点,当使用小的[-4,+4]像素搜索区域(例如,在预示变量周围)时,需要cur中的一个IDCT计算和ref中的4个IDCT计算(=5×6=30IDCT)。这对于IDCT计算所需的计算量而言给出了相当的便利,大约减少100倍。对于大的运动,还可以使用MPEG运动矢量作为搜索区域的预示变量。当使用MPEG运动矢量作为预示变量时,[-4,+4]的搜索区域通常是足够的。但是,该搜索区域能够适当地进行选择。
在图8中,步骤S81计算当前帧中的所有8×8块的块关联度量,根据它们的关联分类这些块并根据最高关联确定cur中的块的“num”的数字。在图9中更详细地说明了块关联度量的计算。注意,仅在帧内-宏块中的块能够被选择作为“新”关联点的一个,而(一旦选择了)关联点能够通过I-帧、P-帧和B-帧被跟踪。在图9中详细描述了优选实施例的步骤S81。
在图8步骤S82中,对“num”选择的cur块,计算8×8块IDCT(以及MC、运动补偿,对于在P-宏块或B-宏块内的块)。8×8块IDCT和MC计算是本领域技术人员熟知的方法。
在图8中,步骤S83为所有的“num”cur块执行块签名提取。对于块签名的计算,这里公开了两个优选实施例:a)在像素域中的块签名的计算;以及b)在DCT域中的块签名的计算。由于必须仅对这些cur中的“num”块计算块签名,这些cur中的“num”块已经由步骤S82在像素域中进行了变换,所以从这个步骤中导致了像素域块签名的没有意义的附加计算开销。
作为一个简单的像素域块特征,所有的或选择的块的像素的数目可以被用做一个签名,并且可以使用SAD(绝对差值和)、MSE(均方误差)或诸如豪斯多夫距离(Haussdorf-distance)的本领域技术人员熟知的其他标准来执行签名匹配。但是,由于这就表示效率而言不是很合适,所以在像素域中的较高电平块特征点签名是表示优选实施例的。这些较高电平签名特征包括:如Canny(在1986年的IEEE的图案分析和机器智能学报(IEEE Transactionson Pattern Analysis and Machine Intelligience),卷8,第6册,第679-698页上,John Canny的“边缘检测的计算方法”(A computational approach to edgedetection))、Sobel、Prewitt的边缘检测技术以及、如Lucas/Kanade(在1980年的人工智能的国际联合会议会刊(Intemational Joint Conference on ArtificialIntelligence)第674-679页上,Bruce D.Lucas and Takeo Kanade发表的“应用到立体图象的迭代图象注册技术”(An Iterative Image RegistrationTechnique with an Application to Stereo Visition))、Marr/Hildreth(在1980年的伦敦皇家学院院刊卷(Proc.of the Royal Society ofLondon B)207第187-217页发表的David Marr,Ellen Hildreth的“边缘检测理论”(Theory of edgedetection))的纹理和颜色分类图像注册技术;或者能够与它们的匹配标准一起使用的、是优选实施例的、并且是本领域技术人员熟知的其他技术。
对于DCT-域块签名计算,图11中的所有的或选择的DCT-系数可以用于特征点注册。DCT-块签名的DCT-系数能够仅从亮度(Y)块或-可选择地-从色度(U,V)DCT-块中获得。这里,仅描述亮度块的DCT-系数的使用,但是本领域技术人员能够容易地执行到色度块的延伸。优选实施例包括:根据应用情况的a)D00,b)D00,D01,D02,D03;和c)所有的DCT系数。在Dhv(当前DCT-块的签名)和Dhv(表示被比较的DCT-块的签名的系数)的DCT-系数之间的距离计算的优选实施例包括: Dis tan ce = Σ h h max Σ v v max P hv · | C hv - D hv | Dis tan ce = Σ h h max Σ v v max P hv · ( C hv - D hv ) 2
其中(例如h=v=0,并且hmax=vmax=7),并且每一项可以被加权因子phv选择地加权。使用这些参数,DCT-块签名可以应用到各种应用中,例如,用于视频序列的图像拼接,可以从为视频概括或摄像运动估计选择的那些值中挑选不同的h、v、hmax、vmax、phv值。对于较高电平DCT-块签名,优选实施例还包括DCT-块活动特征、DCT-方向特征、DCT-能量特征,如在1990年学院出版社(Academic Press)出版的K.R.Rao.P.Yip的“离散余弦变换-算法、优点和应用”(Discrete Cosine Transform-Algorithms,Advantages,Applications)和在1996年Bo Shen、Ishwar K.Sethi在SPIE 2670,图象和视频数据库IV的存储和检索(Storage&retrieval for Image and Video DatabasesIV)上发表的“从压缩的图象中方向特点的提取”(Direct feature extractionfrom compressed images)”所描述的,并且这些是本领域技术人员熟知的。
在图8步骤S84中,为一个所选择的cur块计算预测运动矢量(MV)、参考块位置和搜索区域。运动预测策划极其依赖应用。例如,对于使用6参数模型的摄像运动提取,在ref中的特征点的位置能够从先前帧中获得的仿射(affine)运动模型中进行预测。相似地可以为对象跟踪预测特征点的运动。在P-宏块或B-宏块的情况下,从压缩的MPEG位流中提取的运动矢量可以被用做在ref中的搜索区域的中心。在这种情况中,并且特别在MPEG运动矢量变得小的情况中,搜索区域可以选得小些。这意味着仅4块的IDCT解码和运动补偿就已经是足够的了。在帧内-宏块的情况中,必须通过DCT-块签名或像素域块签名确定一个或几个块是否是新的。在该块是新的情况下,接着根据应用,优选实施例设置一个较大的搜索区域。
在块签名展示了该块已经存在于一个或几个距离帧中,接着从块列表的运动矢量历史中,通过本领域技术人员熟知的运动矢量预测方法能够确定下一个运动方向和搜索范围。在图8步骤S85中,对于在步骤S84中所有的在I-参考帧/、P-参考帧/、B-参考帧中的计算的块位置,计算8×8块IDCT。块位置是具有中心为在步骤S84中计算的运动矢量预示变量的在步骤S84中计算的搜索区域。对于P-参考宏块和B-参考宏块还计算MC(运动补偿)。
该技术和在MPEG-1/MPEG-2/MPEG-4标准解码器中使用的技术相同,并且是本领域技术人员熟知的。注意,IDCT(以及在P-宏块和B-宏块的情况中的MC)不仅应用在整个帧上,并且还应用到与在cur中的“hum”块有关的ref中的小的搜索区域中,并且因此比整个帧的全解码是显著快的。
在图8的步骤S86中,在像素域对所有的预测MV周围的搜索区域中的ref中的搜索位置(在步骤S84中计算的二者,)执行8×8块运动估计,以便为cur中的所选择的块找到ref中的搜索区域中的最好的运动矢量。对于像素域中的8×8运动估计,优选实施例包括(但不限于)如本领域技术人员熟知的全搜索块匹配、像素回归搜索等的运动估计方法,比较1999年6月Kluwer学院出版社(Kluwer Academic Publishers)出版的Peter Kuhn的“MPEG-4运动估计的算法、复杂分析和VLSI-架构(Complexity Analysis and VLSI-Architectures for MPEG-4 Motion Estimation)”,ISBN 792385160。注意:对于P-宏块/B-宏块,由于来自MPEG-位流的运动矢量被用做运动矢量预示变量(但是在大多数情况中,它是针对16×16宏块的,并且不总是可靠的),搜索区域(以及所需要的计算能力)可以是很小的。运动估计单元的一个优选实施例是块大小不限于8×8,但也可以覆盖使用诸如4×4以及8×8块的可变块大小的运动估计。运动估计的另一个优选实施例是一个外形可控的运动位移(displacement)分解(resolution),它可以是例如设置成1像素、2像素或0.5像素,并且可以通过本领域技术人员熟知的方法来实施。注意:当使用特定的特征,象例如Lucas/Kanade特征时,就计算复杂性和跟踪保真度而言,最好在所计算的搜索区域内使用Lucas/Kanade/Tomasi特征跟踪器,而取代在这些特征点上执行的块-匹配运动估计。
在图8步骤S87中,使用在步骤S83中描述的相同的方法计算由最佳匹配8×8块位置的运动矢量(在步骤S86中确定)指向的ref中的块的块签名。注意:当使用DCT-块签名时最佳匹配8×8块位置的所有像素必须变换到DCT域。
在图8步骤S88中,cur中的块位置(其中刚执行过步骤S84、S85、S86、S87)、在步骤S87中计算的块签名、运动矢量以及所计算的在由最佳运动矢量(在步骤S86中计算的)指向的当前和参考块之间的距离(MSE:均方误差,SAD:绝对差值和,依据所使用的运动估计算法)被存储在一个数据结构中,优选实施例是例如在图12中所描述的实施例。在距离计算的结果是高于应用给出的门限,并且最后的“num”块已经被处理的情况下,采用一个或多个下面的策略:增加从块关联列表中获得的“num”块或者增加运动估计单元的搜索区域。这个方法允许采用压缩视频的不同内容材料和编码结构。
在图8的步骤S89中,检测在步骤S83确定的所有的“num”块是否已经都被处理了。如果所有确定的“num”块已经都被处理了(是),则对于这一帧,基于运动估计算法的特征点停止在这里,如果不是都被处理了(否),则进入步骤S90。
在图8步骤S90中,访问目前还没有执行运动估计的下一个确定的“num”块位置,并且再执行包括步骤S84、S85、S86、S87、S88的循环。
在图9中描述了块关联度量计算的优选实施例。块关联度量表示用于运动估计或运动跟踪的块的适应性,通常由(不限于)如边缘、颜色或其他重要的构造倾斜度的视觉特点决定。当可获得P-帧或B-帧的时候,在这些帧的P-宏块和B-宏块中包含的运动信息可以用于帮助发现描述高关联的块。
在图9步骤S91中,当前帧的宏块计数器,MBcur,被设置成零。该计数器迭代在当前帧中的所有宏块而不管它们的宏块类型(I-型、P-型或B-型)。
在图9的步骤S92中,选择与参考帧中的MBcur、MBref有关的宏块。如果存在一个MBcur的运动矢量(由于我们已经访问了压缩位流的下一个编码帧,所以这个信息是可获得的),MBref是与运动矢量有关的宏块。如果不存在MBcur的运动矢量(或具有零长度的运动矢量),那么MBref具有和MBcur相同的宏块号(number)。MBcur和MBref的宏块类型也是从该步骤压缩的位流中提取的。
在图9的步骤S93中,测试一条件。在MBcur的宏块类型是帧内,并且MBref是P-型或B-型宏块的情况下,进入步骤S94。
在图9的步骤S98中,测试另一个条件。在MBcur的宏块类型是P-型,并且MBref是B-型的情况下,进入步骤S99。
在图9的步骤S104中,测试另一个条件。在MBcur的宏块类型是帧内,并且MBref也是帧内的情况下,进入步骤S105。步骤S105和后续步骤处理所有的不可预测的仅DCT(DCT-only)编码MPEG格式以及其他如DV或MJPEG的格式。
在图9的步骤S94中,用于宏块内部的DCT-块的块计数器(图4)被设置成零,并且进入步骤S95。
在图9的步骤S95中,描述了blockMBcur,i关联计算的优选实施例,其中该8×8DCT块的关联定义如下:Relevance(blockMBcur,i)=Activity(bloekMBcur,i) + k × MV 2 MBcur , x + MV 2 MBcur , y DCTenergy ( blockMBref , i )
其中“k”是根据应用选择的加权系数,并且对于运动估计(例如,通过块匹配)的选择不同于对于跟踪(例如,通过如Lukas/Kanade/Tomasi的特征点跟踪技术)的选择。下面定义了DCT域中的8×8块的活动测量的优选实施例,其中Dhv是DCT-系数(图11)。 Activity = Σ h h max Σ v v max | D hv | ( h , v ) ≠ ( 0,0 )
hmax=vmax的值通常选择为7,但可以在(1…6)间进行选择以便获得较快但更多噪声的强健的实施。但是,在1990年学院出版社(Academic Press)出版的K.R.Rao.P.Yip的“离散余弦变换-算法、优点和应用”(Discrete CosineTransform-Algorithms,Advantages,Applications)中所定义的其他的DCT-活动或边缘测量也代表了本发明的可能的实施例。该DCTenergy定义为: DCTenergy = Σ h h max Σ v v max | D hv |
另一个具有减量计算复杂性的优选实施例是:对于每个单独的关联计算或仅使用运动矢量的和(并且不是平方和)来说,将DCT-energy项设置成1。
在图9中,步骤S96和S97迭代步骤S95四次直到MBcur的所有的四个块都被处理为止。
在图9的步骤S99中,对于宏块(图4)内部的块的块计数器被设置成零,并进入步骤S100。
在图9的步骤S100中,由于在P-宏块或B-宏块中,从先前帧(在B-帧的情况下还有将来帧)中预测宏块像素,并且没有新的特征点出现在这里,所以该块的关联被设置成零。
但是,在图9的步骤S101中,已经从其他的帧中跟踪得到的存在的块特征点仍保留在“num”当前块特征点的特征点列表中。注意,对于在步骤S82的这些特征点,由于宏块是类型P或B,所以必须执行IDCT和MC。
在图9中,步骤S102和S103迭代步骤S100和S101四次直到MBcur的所有的四个块都被处理为止。
但是,在图9的步骤S105中,对于宏块(图4)内部的块的块计数器被设置成零,并进入步骤S106。
在图9的步骤S106中,在当前宏块和参考宏块是帧内-宏块的情况下,计算MBcur的块关联。块关联计算如下:Relevance(blockMBcur,i)=Activity(blockMBcur,i)+Activity(blockMBref,i)以及 Activity ( block MBref , i ) = Σ k = 0 k max mk × Activity ( block MBref , i )
其中在DCT-域中的活动的计算如上所述。对于在参考帧中的相应块的活动计算,相应的和相邻的kmax块的几个活动测量被概括并相加成为当前块的活动。相邻块的活动还给出了子序列运动估计的搜索区域的大小的提示。值kmax依赖于帧大小以及应用约束。值mk加权远距离的参考DCT-块的活动,并依据应用约束被确定,但是对于该优选实施例mk是小的并且在1以下,但对于其他的(例如,计算上更多的约束)实施例也可以是零。
在图9中,步骤S107和步骤S108迭代步骤S106四次直到MBcur的所有的四个块都被处理为止。
在图9中,步骤S109和S110确定所有的当前宏块是否已经被处理并对帧MBcur的所有的宏块进行迭代。
在图9中,步骤S111涉及块关联列表的分类,与已经跟踪的特征点进行合并,并输出确定的“num”块。MBcur中的块按照它们的块关联值被存储,并且必须决定最佳的“num”特征点。分类算法是本领域技术人员熟知的。特征点数目的选择主要根据目标应用。例如,对于基于仿射6参数模型的6参数摄像运动估计,需要与它们的运动矢量相关的6个特征点。因此,在这种情况中,必须选择至少6个具有高关联的块。对于这个例子,选择描述最佳关联度量的6个块。对于视频概括,表示特征点的所选择块的数目依赖于外部选择的保真度参数。对于其他的应用,特征点的较大数目可以仅由图像中的8×8块的数目限定。在特征点的跟踪仅导致很短的运动矢量(其经常被噪声干扰),或后面的运动估计处理导致不充足的结果(即,出现很高的距离测量)的情况中,本发明的一个优选实施例是:根据它们的相关值选择下面n个特征点直到再没有特征点剩下为止。对于特征点跟踪应用,具有高关联的新计算的块特征点必须与从远距离的帧中已经跟踪的存在的块特征点进行合并。
现在将详细描述第二优选实施例。
图10描述了使用基于DCT的运动估计的本发明的第二优选实施例。该方法具有下述优点,即对于当前块或搜索区域,没有宏块必须通过使用IDCT被从DCT-域变换至像素-域。但是,在压缩视频位流中存在P-帧或B-帧的情况中,在压缩域中必须执行运动补偿(MC),这就使准确度呈现损失。穿越块边界的基于DCT的运动估计也可以导致准确度的损失。本发明的第二实施例的主要应用期望在于以内帧(Intra-frame)主导的视频领域,如象DV、MJPEG的压缩位流以及在广播业中经常使用的仅MPEG格式的内帧。
在图10的步骤S121中,对于cur中的所有的8×8块的块关联度量使用在图8步骤S81中所述的相同方法进行计算。
在图10的步骤S122中,计算所有的选择的“num”cur块的块签名。基本上在图8步骤S83描述的DCT-域以及在像素域中的两种方法都能使用。但是,在图10步骤S122中描述的DCT-域中的块签名方法的优点是在这一步骤上不需要IDCT,并且不进行任何IDCT也可以执行图10的完整算法。但是,对于P-宏块和B-宏块,在压缩域中或在像素域中需要运动补偿。
在图10的步骤S123中,使用在图8步骤S84中描述的相同方法计算预测的运动矢量、计算的参考块位置以及ref中的搜索区域。
在图10的步骤S124中,对于ref中的搜索区域的P-宏块和B-宏块,必须在DCT-压缩域中计算运动补偿(MC)。几个优选实施例中的一个是在1995年IEEE通信中的选择的区域期刊(IEEE Joumal on Selected Areas inCommunication)卷13第1册中Shih-Fu Chang,David G.Messerschmidt发表的“MC-DCT压缩视频的处理和组合”(Manipulation and Compositing ofMC-DCT Compressed Video)以及在1999年的ICASSP 99上Yoshiaki Shibata、ZhigangChen、Roy H.Campell发表的“对于压缩域中DCT块提取的快速自由降级算法”(A fast degradation-free algorithm for DCT block extraction in thecompressed domain)中的修改版描述的算法。
在图10的步骤S125中,在DCT-域中对预测运动矢量周围的ref中的所有的搜索位置计算运动估计。对于最佳搜索位置,保存距离度量值以及运动矢量。对于在DCT-域中的运动估计的计算的优选实施例例如列出在Ut-vaKoc,K.J.Ray Liu的美国专利US5,790,686:8/1998,“基于DCT的运动补偿方法:382/107”(DCt-based motion estimation method:382/107)中。
在图10的步骤S126中,计算ref中最佳运动矢量位置的块签名。基本上在图10步骤S122描述的DCT-域以及在像素域中的两种方法都能使用。但是,在图8步骤S83中描述的DCT-域中的块签名方法的优点是在这一步骤上不需要IDCT,并且不进行任何IDCT也可以执行图10的完整算法。在像素域中的块签名方法仅需要两个IDCT,一个用于每一“num”当前块并且另一个用于压缩域运动估计的最佳转移块,其计算仍是很少的。
在图10的步骤S127中,在块列表中保存位置、块签名、运动矢量以及ref中最佳块位置的距离标准。在距离计算的结果是高于该应用给出的标准并且最后的“num”块已经被处理的情况下,可以使用下列策略的一个或多个:增加从块关联列表中获得的“num”块或者增加运动估计单元的搜索区域。这个方法允许采用压缩视频的不同内容材料和编码结构。
在图10的步骤S128中,访问确定的“num”块位置的下一个,该确定的“num”块位置的下一个目前是没有执行运动估计的。并且再次执行包括步骤S123、S124、S125、S126、S127的循环。
现在将详细描述第三优选实施例。
本发明的另一优选实施例是视频概括。这通过保持特征点(其可以由它们的特征点签名区分)以及它们的在帧中的相关位置的寿命列表、它们的运动矢量、它们的距离(运动矢量计算的距离)以及它们的签名来实现。在大量新特征点出现在新帧中的情况下,则极有可能存在有场景改变。类似地当从一个帧到下一帧消失了大量特征点时,那么也极有可能是场景改变。在这样的帧中选择场景的主帧,其中存在大量特征点并且整个运动总量是低的。
图12描述了视频概括的特征点寿命列表的数据结构的优选实施例。对于每一特征点存在一个链接的列表,为单独地标记它,给出了feature_point_id,如131、138、141所描述的。feature_point_id数据结构还包括一个object_id字段以便将一个或几个特征点与对象相联系。这些feature_point_id使用指针相连作为链接列表136。每个feature_point_id指向在视频流中的每一特征点的时间情况的另一列表(例如132),其中每一项包含该特征点(例如134、135和137)在特定时间情况(例如location_0=(x,y),time)上的时空位置的数据、在特定时间情况上的该特征点至下一个时间情况上相同的特征点间的运动矢量(例如,MV_0=(MVx,MVy))的数据、用于运动矢量的可靠性确定的特征点运动矢量计算的距离值(distance_0),以及在相同feature_point_id下的正确的特征点相联系的特征点签名(signature_0)。注意:对于某些应用,这些数据-字段的某些是可以选择的或者需要其他的数据-字段。
这些特征点的时间情况也通过链接的列表连接,其中最后项和最初项的链接例如可以看作是如一遍一遍播放视频的一部分的功能,其中出现了对象(包含许多特征点)或特定运动图形。对于这些链接的列表,由于它们在场景中不出现,所以存在根据它们的时间feature_point_id移去的机理(mechanism)。还存在添加新feature_point_id的机理,其使用在签名空间中的特征点的距离。该签名空间中的距离确定这是否是一个新的特征点或是否是与存在的一个特征点有关的特征点。添加新feature_point_id至存在的对象的另一个机理包括自该对象的它们的空间距离。从包含在一个feature_point_id的特征段(feature-field)中的运动矢量中,可以构建该特征点在时间上的运动轨迹,这是本领域技术人员熟知的(例如,通过卡尔曼滤波器或Lucas/Kanade/Tomasi特征跟踪,但不限于此)。
属于一个obieot_id组(例如可以根据签名和它们位置的空间距离进行分组)的几个feature_point_id的运动矢量可以用于计算由feature_point_id识别的对象的参数运动,如本领域技术人员所熟知的。在对象被选做矩形背景帧的情况中,相似地该链接的列表可以用做表示摄像运动,这将在下面的优选实施例中详细说明。
现在将详细描述第四优选实施例。
图13描述了摄像的可能的运动方向,其包括缩放、在三个方向上的旋转以及在三个方向上的平移。本发明的一个优选实施例是使用提取的包含在图12的数据-结构中的运动元数据,以计算如压缩域中视频序列的缩放、全景、倾斜等的摄像运动。例如对于有效的视频浏览(展现主帧和它们有关的摄像运动)、视频编辑(例如剪切缩放输出端的帧上的视频)以及简化从一个压缩表示(例如,MPEG-2)至另一个压缩表示(例如,MPEG-4)的代码转换来说,摄像运动的快速和有效计算是有用的。
为了基于在图6中的62中所得到的特征点运动矢量提取摄像运动参数,优选实施例之一是使用摄像运动模型(在1997年Elsevier的图案识别(Patternrecognition)卷30第4册593-606页中M.V.Srinivasan、S.Venkatesh,R.Hosi发表的“来自视频序列的摄像运动的定性估计”(Qualitative estimation ofcamera motion parameters from video sequence))以及它的摄像运动参数提取方法:
ux=-ry+Y·rz+X·rzoom
uy=rx-X·rz+Y·rzoom
在这个算法中,对于每一运动矢量(ux,uy),根据参数rx、ry、rz和rzoom计算上面的方程描述的合成运动矢量段,其中X和Y是图像平面的像素坐标。接着从合成的运动矢量段中减去实际的矢量段(在图6的步骤62中提供),并且计算剩余运动矢量段的平行度(the parallelism of the residual motionvector field)。剩余运动矢量段表示摄像运动的平移分量。当剩余运动矢量段的所有运动矢量是平行的时候,找到rx、ry、rz和rzoom的最优参数。该算法例如通过改变参数rx、ry、rz和rzoom执行四维单行式最小化直到获得剩余(平移的(translatoric))运动矢量的最佳近似平行度。但是本领域技术人员所熟知的从运动矢量中确定摄像的参数运动模型或对象运动的其他方法也是可行的。
图14描述了视频浏览单元的图形表示的例子的概略图。该视频浏览单元(或视频浏览用户接口)使用运动信息(即,元数据),特别是摄像运动元数据以便能在拍摄和主帧电平上的分级分解和视频概括。在本文中定义的拍摄是作为一序列视频帧,该序列视频帧是由一个摄像机捕捉的在时间和空间中的单个连续活动。本发明是通用的,并且这个视频浏览器不限于摄像运动而是覆盖涉及如参数对象运动的一般元数据的运动和场景。本发明不限于矩形帧,也可以用于与它们的运动元数据有关的任意形状对象的浏览。在下面的例子中,通常,描述在摄像运动和矩形对象情况下的视频浏览单元。对于视频浏览,使用分级摄像运动模型的状态转换图。
首先使用本领域技术人员熟知的倾斜度和分类技术识别相似的运动元数据段,主帧的收集从这些中得出并用于表示每一视频段。在每一段的主帧之间的摄像运动过渡弧由摄像运动参数描述,这些摄像运动参数在浏览器中被可视地表示。摄像运动的总量在视频浏览器中被描述,使得用户在小的和大的摄像运动之间可视地区分,或者在慢的和快的摄像缩放之间区分。
图14描述,例如,具有三个运动元数据状态:摄像全景、摄像缩放和摄像旋转的情况。
图14步骤151描述了在X方向具有0.5的摄像全景常数的摄像全景状态。该箭头描述了摄像全景运动的方向和它的长度、摄像运动的相对速度。摄像全景的优选图形表示之一是一个包含摄像全景的连续帧的拼接表示。该拼接表示的生成是本领域技术人员熟知的,如1996年“信号处理、图象通信”(Signal Processing,Image Communications)卷8上M.Irani,P.Anandan、J.Bergen、R.Kumar、S.Hsu发表的“视频序列的有效表示及其应用”(Efficientrepresentations of video sequences and their application)。
图14步骤152描述了在状态转换图中的摄像缩放状态的图形表示的优选实施例,其中在时间“to”上出现2的摄像缩放。在摄像缩放表示中的缩略图(thumbnail)(即主帧)表示摄像缩放的中心。在摄像缩放窗口中的箭头的长度表示相对的摄像缩放速度。至中心的箭头的方向表示缩放。穿出中心的箭头的方向表示缩放放大。
图14步骤153描述了摄像旋转的图形表示的优选实施例,其中图标中的缩略图表示摄像旋转的焦点的表示帧。该箭头描述旋转的方向,并且箭头表示摄像旋转的相对速度。
每一摄像运动图标表示特定的摄像运动状态并且在摄像运动图标之间的箭头表示在特定摄像运动状态之间的摄像运动状态转换。通过例如倾斜度技术或对在连续帧之间的摄像运动的每一类型的总量设定标准能够简单地找到转换。但是,也可以使用本领域技术人员熟知的更先进的算法。缩放的中心由所有的(人工延长的)运动矢量的相交点来确定。
图15描述了在图14中出现的视频浏览单元的扩大图。优选功能之一是在三个状态图标(161、163、164)之一上的BROWSE命令(优选实施例是使用鼠标点击,碰击功能键或触笔),其将导致显示更详尽的表示。当给出BROWSE命令至全景状态窗口161时,摄像全景的主帧表示如162所示。当给出BROWSE命令至缩放状态窗口163时,摄像缩放的主帧表示如166所示。在166中,主帧168的一部分被可视地标记(优选的实施例可能是在焦点区域的缩放中心周围的不同颜色的正方形中的帧)。当给出一个命令至该颜色帧(优选实施例是使用鼠标或触笔进行点击)时,相同运动元数据的下一个较低分级电平被图形显示为167。当给出BROWSE命令至旋转状态窗口164时,摄像全景的主帧表示如165所示。另一个优选实施例的功能包括在三个状态图标(161、163、164)之一或主帧表示(162、165、166、167)上的PLAY命令(优选实施例是使用鼠标进行双击,碰击功能键或触笔):描述这个特定的元数据的视频序列的部分(在这个例子中特定的是摄像运动)。这导致播放属于这个状态的视频序列的部分。
图16描述了视频浏览单元的功能的另一个优选实施例,当在三个状态图标(171、173、174)或它们的自坐标表示的主帧表示(比较图15)之一上给出一个GRAPH命令(优选实施例是使用鼠标按钮、功能键或触笔进行点击)时,显示元数据的图形表示(优选实施例:沿时间/帧数字轴的摄像运动元数据)。
产业上的可应用性
如上已经详细地描述的,根据本发明的视频/音频信号处理方法适用于处理所提供的视频/音频信号。该方法包括步骤:提取至少一个表示在视频/音频信号的压缩域中的视频/音频信号的特性的压缩域特征点;对在提取步骤提取的特征点执行运动估计;并通过预设数量的构成视频/音频信号的帧跟踪与运动矢量有关的特征点。
因此,在根据本发明的视频/音频信号处理方法中,在压缩域中提取视频/音频信号的特征点,执行所提取的特征点的运动估计,并且跟踪与运动矢量有关的特征点。从而能够实现处理上时间或成本的降低,并且使有效处理成为可能。
而且,根据本发明的视频/音频信号处理设备适用于处理所提供的视频/音频信号。该设备包括:提取装置,提取至少一个表示在视频/音频信号的压缩域中的视频/音频信号的特性的压缩域特征点;运动估计装置,对在提取装置提取的特征点执行运动估计;以及特征点跟踪装置,通过预设数量的构成视频/音频信号的帧跟踪与运动矢量有关的特征点。
因此,在根据本发明的视频/音频信号处理设备中,在压缩域中提取压缩域特征点的装置提取视频/音频信号的特征点,执行特征点的运动估计的装置执行所提取的特征点的运动估计,并且跟踪特征点的装置跟踪与运动矢量有关的特征点。从而能够实现处理上时间或成本的降低,并且使有效处理成为可能。
而且,一种视频/音频信号处理方法被用于处理和浏览所提供的视频/音频信号。该方法包括步骤:分级建立摄像运动转换图,其中图形建立步骤包括步骤:提供具有至少一个主摄像运动转换图和具有多个表示其他的具有用于视频序列的转换路径的摄像运动的节点的图形布局;通过摄像运动转换图,并通过说明在节点上的摄像运动视频序列的主帧进行浏览;以及通过摄像运动转换图,并通过说明在节点上的摄像运动的图形表示进行浏览。
因此,在根据本发明的视频/音频信号处理方法中,分级建立摄像运动转换图,执行通过摄像运动转换图,并通过说明在节点上的摄像运动视频序列的主帧进行的浏览,以及执行通过摄像运动转换图,并通过说明在节点上的摄像运动的图形表示进行的浏览。从而能够实现处理时间或成本的降低,并且使有效处理成为可能。
而且,根据本发明的视频/音频信号处理设备适用于处理和浏览所提供的视频/音频信号。该设备包括:建立装置,用于分级建立摄像运动转换图,其中图形建立装置包括步骤:提供具有至少一个主摄像运动转换图和具有多个表示其他的具有用于视频序列说明的转换路径的摄像运动的图形布局;浏览装置,通过摄像运动转换图,并通过说明在节点上的摄像运动视频序列的主帧,进行浏览;以及浏览装置,通过摄像运动转换图并通过说明在节点上的摄像运动的图形表示进行浏览。
因此,在根据本发明的视频/音频信号处理设备中,通过建立图的装置分级建立摄像运动转换图,第一浏览装置执行通过摄像运动转换图,并通过说明在节点上的摄像运动视频序列的主帧进行的浏览,以及第二浏览装置执行通过摄像运动转换图,并通过说明在节点上的摄像运动的图形表示进行的浏览。从而能够实现处理时间或成本的降低,并且使有效处理成为可能。
并且,根据本发明的视频/音频信号处理方法适用于提取用于浏览的合成视频选择的分级分解。该方法包括步骤:识别视频;从表示每一视频段的视频拍摄中收集主帧;根据摄像运动或全面的运动信息分类主帧的收集;以及建立视频的图形表示,图形表示是基于分类步骤的结果的、瞬间的以及与视频拍摄的每一部分有关的摄像运动信息,其中图形表示建立步骤包括由节点表示视频拍摄的每一类别的步骤。
因此,在根据本发明的视频/音频信号处理方法中,识别视频,从视频拍摄中收集主帧,分类所收集的主帧,并建立视频的图形表示。从而能够实现处理时间或成本的降低,并且使有效处理成为可能。
而且,在根据本发明的视频/音频信号处理设备是适用于提取用于浏览的合成视频选择的分级分解。该设备包括:识别装置,用于识别视频;收集装置,用于从表示每一视频段的视频拍摄中收集主帧;分类装置,用于根据摄像运动或全面的运动信息分类主帧的收集;以及建立装置,用于建立视频的图形表示,图形表示是基于分类步骤的结果的、瞬间的以及与视频拍摄的每一部分有关的摄像运动信息,其中所述的图形表示建立步骤包括由节点表示视频拍摄的每一类别的步骤。
因此,在根据本发明的视频/音频信号处理设备中,识别视频的装置识别视频,收集主帧的装置从视频拍摄中收集主帧,分类的装置分类所收集的主帧,并且建立视频的图形表示的装置建立视频的图形表示。从而能够实现处理时间或成本的降低,并且使有效处理成为可能。
而且,根据本发明的视频/音频信号处理方法适用于处理所提供的视频/音频信号。该方法包括步骤:提取至少一个表示在视频/音频信号的压缩域中的视频/音频信号的特性的压缩域特征点。
在根据本发明的视频/音频信号处理方法中,在压缩域中提取视频/音频信号的特征点。从而能够实现处理时间或成本的降低,并且使有效处理成为可能。
而且,根据本发明的视频/音频信号处理设备适用于处理所提供的视频/音频信号。该装置包括:提取装置,用于在视频/音频信号的压缩域中提取表示所述视频/音频信号的特性的至少一个压缩域特征点。
因此,在根据本发明的视频/音频信号处理设备中,在压缩域中由提取压缩域特征点的装置提取视频/音频信号的特征点。从而能够实现处理时间或成本的降低,并且使有效处理成为可能。
而且,根据本发明的视频/音频信号处理方法适用于处理所提供的视频/音频信号。该方法包括步骤:对在视频/音频信号的压缩域中的表示视频/音频信号的特性的至少一个特征点执行运动估计。
因此,在根据本发明的视频/音频信号处理方法中,执行所提取特征点的运动估计。从而能够实现处理时间或成本的降低,并且使有效处理成为可能。
而且,根据本发明的视频/音频信号处理设备适用于处理所提供的视频/音频信号。该设备包括:运动估计装置,用于对在视频/音频信号的压缩域中的表示视频/音频信号的特性的至少一个特征点执行运动估计。
因此,在根据本发明的视频/音频信号处理设备中,由执行运动估计的装置执行所提取特征点的运动估计。从而能够实现处理时间或成本的降低,并且使有效处理成为可能。

Claims (92)

1.一种视频/音频信号处理方法,用于处理所提供的视频/音频信号,包括步骤:
提取至少一个表示在所述的视频/音频信号的压缩域中的所述视频/音频信号的特性的压缩域特征点;
对在所述提取步骤提取的特征点执行运动估计;以及
通过预设数量的构成所述视频/音频信号的帧跟踪与运动矢量有关的特征点。
2.如权利要求1的视频/音频信号处理方法,其中所述的提取步骤包括步骤:计算在当前帧中的所有的块的块关联度量,以把具有高关联的块确定作为基于所述的运动估计步骤的下一个特征点所选择的候选特征点。
3.如权利要求2的视频/音频信号处理方法,其中所述的提取步骤包括步骤:仅对所述度量计算步骤选择的高关联的块执行变换所述压缩域的逆变换,以及对预测编码宏块或双向预测编码宏块执行运动补偿。
4.如权利要求3的视频/音频信号处理方法,其中所述的逆变换是逆离散余弦变换。
5.如权利要求2的视频/音频信号处理方法,其中所述的当前帧包括任意形状的视频对象平面。
6.如权利要求4的视频/音频信号处理方法,包括对作为使用块中的部分或全部离散余弦变换系数在离散余弦变换域中选择的高关联的当前块,计算和提取块签名。
7.如权利要求4的视频/音频信号处理方法,包括对作为使用块中的部分或全部分别加权的离散余弦变换系数在离散余弦变换域中选择的高关联的当前块计算和提取块签名。
8.如权利要求4的视频/音频信号处理方法,包括对作为在像素域中选择的高关联的当前块计算块签名。
9.如权利要求1的视频/音频信号处理方法,其中所述的运动估计步骤包括计算估计的运动矢量、参考块的位置和在参考帧中的搜索区域的步骤。
10.如权利要求9的视频/音频信号处理方法,包括对在参考帧的搜索区域中的帧内-宏块的所有的块应用变换所述压缩域的逆变换。
11.如权利要求10的视频/音频信号处理方法,其中所述的逆变换是逆离散余弦变换。
12.如权利要求11的视频/音频信号处理方法,包括在参考帧的搜索区域中的预测编码宏块或双向预测编码宏块中的所有的块上执行逆IDCT和运动估计。
13.如权利要求9的视频/音频信号处理方法,其中所述的运动估计步骤和所述的特征点跟踪步骤包括步骤:
在像素区域中,对在预测运动矢量周围的参考帧中的所有搜索位置,执行运动预测或特征点跟踪,以便发现描述就绝对误差和、均方误差或任何其他的距离标准而言的当前块至参考块的最低距离的最佳运动矢量。
14.如权利要求9的视频/音频信号处理方法,其中所述的运动估计块使用可变的块尺寸执行运动估计。
15.如权利要求13的视频/音频信号处理方法,包括在作为特征点列表的参考帧中保存特征点位置、块签名、运动矢量以及最佳块位置的块距离。
16.如权利要求9的视频/音频信号处理方法,其中所述的运动估计块和所述的特征点跟踪步骤包括步骤:
在离散余弦变换域中,对在预测的运动矢量周围的参考帧中的所有搜索位置,执行运动估计或特征点跟踪,以便发现描述就绝对误差和、均方误差或任何其他的距离标准而言的当前块至参考块的最低距离的最佳运动矢量;以及
在具有所述最佳运动矢量位置的块的DCT域中,计算块签名。
17.如权利要求16的视频/音频信号处理方法,包括:在作为特征点列表的参考帧中保存特征点位置、块签名、运动矢量以及最佳块位置的块距离。
18.如权利要求1的视频/音频信号处理方法,其中对所有关联的当前块,确定运动矢量和块签名。
19.如权利要求4的视频/音频信号处理方法,其中所述的块关联度量包括在当前宏块是帧内-类型宏块并且参考宏块是预测编码宏块或双向预测编码宏块的情况下,计算块关联度量,所述的块关联度量使用根据对考虑了参考宏块的有关块的运动矢量和预测误差能量而发现的关联测量进行计算的步骤。
20.如权利要求4的视频/音频信号处理方法,包括:
在当前宏块是预测编码宏块或或双向预测编码宏块的情况下,设置块关联度量为零;以及
从参考帧中更新已经跟踪的特征点的列表。
21.如权利要求4的视频/音频信号处理方法,包括在当前宏块是帧内-类型宏块并且参考宏块也是帧内-类型宏块的情况下,计算块关联度量,所述的块关联度量使用根据来自当前宏块中的块的DCT活动以及根据考虑了参考宏块的DCT活动而发现的关联测量进行计算。
22.如权利要求1的视频/音频信号处理方法,其中视频/音频信号是根据MPEG1、MPEG2、MPEG4、DV、MJPEG、ITU-T推荐H.261或H.263被压缩编码的。
23.如权利要求1的视频/音频信号处理方法,其中提取的特征点是和与对象运动估计的这些特征点相关的元数据一起使用的。
24.如权利要求1的视频/音频信号处理方法,其中提取的特征点是和与用于估计摄像运动的这些特征点相关的元数据一起使用的。
25.如权利要求1的视频/音频信号处理方法,其中提取的特征点是和与用于计算视频的运动活动模型的这些特征点相关的元数据一起使用的。
26.如权利要求21的视频/音频信号处理方法,其中使用所述的估计摄像运动是用于简化在一个压缩的视频表示转换为一个其他的压缩视频表示之间的代码转换处理。
27.一种视频/音频信号处理设备,用于处理所提供的视频/音频信号,包括:
提取装置,提取至少一个表示在所述的视频/音频信号的压缩域中的所述视频/音频信号的特性的压缩域特征点;
运动估计装置,对在所述提取装置提取的特征点执行运动估计;以及
特征点跟踪装置,通过构成所述视频/音频信号预设数量的帧跟踪与运动矢量有关的特征点。
28.如权利要求27的视频/音频信号处理设备,其中所述的提取装置包括:度量计算装置,计算在当前帧中的所有的块的块关联度量,以把具有高关联的块确定作为基于所述的运动估计步骤的下一个特征点所选择的候选特征点。
29.如权利要求28的视频/音频信号处理设备,其中所述的提取装置包括仅对所述度量计算装置选择的高关联的块执行变换所述压缩域的逆变换以及对预测编码宏块或双向预测编码宏块执行运动补偿的装置。
30.如权利要求29的视频/音频信号处理设备,其中所述的逆变换是逆离散余弦变换。
31.如权利要求28的视频/音频信号处理设备,其中所述的当前帧包括任意形状的视频对象平面。
32.如权利要求30的视频/音频信号处理设备,其中对作为使用块中的部分或全部离散余弦变换系数在离散余弦变换域中选择的高关联的当前块,所述提取装置计算和提取块签名。
33.如权利要求30的视频/音频信号处理设备,其中对作为使用块中的部分或全部分别加权的离散余弦变换系数在离散余弦变换域中选择的高关联的当前块,所述提取装置计算和提取块签名。
34.如权利要求30的视频/音频信号处理设备,其中对作为在像素域中选择的高关联的当前块,所述的提取装置计算块签名。
35.如权利要求27的视频/音频信号处理设备,其中所述的运动估计装置计算估计的运动矢量、参考块的位置和在参考帧中的搜索区域。
36.如权利要求35的视频/音频信号处理设备,其中所述运动估计装置对在参考帧的搜索区域中的帧内-宏块的所有的块应用变换所述压缩域的逆变换。
37.如权利要求36的视频/音频信号处理设备,其中所述的逆变换是逆离散余弦变换。
38.如权利要求37的视频/音频信号处理设备,其中所述的运动估计装置在参考帧的搜索区域中的预测编码宏块或双向预测编码宏块中的所有的块上执行逆IDCT和运动估计。
39.如权利要求35的视频/音频信号处理设备,其中所述的运动估计装置和所述的特征点跟踪装置在像素区域中,对在预测运动矢量周围的参考帧中的所有搜索位置,执行运动预测或特征点跟踪,以便发现描述就绝对误差和、均方误差或任何其他的距离标准而言的当前块至参考块的最低距离的最佳运动矢量。
40.如权利要求39的视频/音频信号处理设备,其中所述的运动估计块使用可变块尺寸执行运动估计。
41.如权利要求39的视频/音频信号处理设备,其中所述的运动估计装置和所述的特征点跟踪装置在作为特征点列表的参考帧中保存特征点位置、块签名、运动矢量以及最佳块位置的块距离。
42.如权利要求35的视频/音频信号处理设备,其中所述的运动估计块和所述的特征点跟踪装置在离散余弦变换域中,对在预测的运动矢量周围的参考帧中的所有搜索位置,执行运动估计或特征点跟踪,以便发现描述就绝对误差和、均方误差或任何其他的距离标准而言的当前块至参考块的最低距离的最佳运动矢量,以在具有所述最佳运动矢量位置的块的DCT域中,计算块签名。
43.如权利要求42的视频/音频信号处理设备,其中所述的运动估计块和所述的特征点跟踪装置在作为特征点列表的参考帧中存储特征点位置、块签名、运动矢量以及最佳块位置的块距离。
44.如权利要求27的视频/音频信号处理设备,其中对所有关联的当前块,确定运动矢量和块签名。
45.如权利要求30的视频/音频信号处理设备,其中所述的块关联度量计算装置在当前宏块是帧内-类型宏块并且参考宏块是预测编码宏块或双向预测编码宏块的情况下,计算块关联度量,所述的块关联度量使用根据考虑到参考宏块的有关块的运动矢量和预测误差能量而发现的关联测量进行计算。
46.如权利要求30的视频/音频信号处理设备,其中在当前宏块是预测编码宏块或或双向预测编码宏块的情况下,所述的提取装置设置块关联度量为零并从参考帧中更新已经跟踪的特征点的列表。
47.如权利要求30的视频/音频信号处理设备,其中在当前宏块是帧内-类型宏块并且参考宏块也是帧内-类型宏块的情况下,所述的提取装置计算块关联度量,所述的块关联度量使用根据来自当前宏块中的块的DCT活动而发现的关联测量以及根据考虑到参考宏块的DCT活动进行计算的。
48.如权利要求27的视频/音频信号处理设备,其中视频/音频信号是根据MPEG1、MPEG2、MPEG4、DV、MJPEG、ITU-T推荐H.261或H.263被压缩编码的。
49.如权利要求27的视频/音频信号处理设备,其中提取的特征点是和与对象运动估计的这些特征点相关的元数据一起使用的。
50.如权利要求27的视频/音频信号处理设备,其中提取的特征点是和与用于估计摄像运动的这些特征点相关的元数据一起使用的。
51.如权利要求27的视频/音频信号处理设备,其中提取的特征点是和与用于计算视频的运动活动模型的这些特征点相关的元数据一起使用的。
52.如权利要求50的视频/音频信号处理设备,其中使用所述的估计摄像运动用于简化一个压缩的视频表示至一个其他的压缩视频表示之间的代码转换处理。
53.一种处理和浏览所提供的视频/音频信号的方法,包括步骤:
分级建立摄像运动转换图,其中图形建立步骤包括步骤:提供具有至少一个主摄像运动转换图和具有多个表示其他的具有用于视频序列说明的转换路径的摄像运动的图形布局;
通过摄像运动转换图,通过说明在节点上的摄像运动视频序列的主帧进行浏览;以及
通过摄像运动转换图,并通过说明在节点上的摄像运动的图形表示进行浏览。
54.一种处理和浏览所提供的视频/音频信号的设备,包括
建立装置,用于分级建立摄像运动转换图,其中图形建立装置包括:提供具有至少一个主摄像运动转换图和具有多个表示其他的具有用于视频序列说明的转换路径的摄像运动的图形布局;
浏览装置,通过摄像运动转换图,并通过说明在节点上的摄像运动视频序列的主帧,进行浏览;以及
浏览装置,通过摄像运动转换图,并通过说明在节点上的摄像运动的图形表示进行浏览。
55.一种用于提取用于浏览的合成视频选择的分级分解的方法,包括步骤:
识别视频;
从表示每一视频段的所述视频拍摄中收集主帧;
根据摄像运动或全面的运动信息分类主帧的收集;以及
建立视频的图形表示,图形表示是基于所述分类步骤的结果的、瞬间的以及与视频拍摄的每一部分有关的摄像运动信息,其中所述的图形表示建立步骤包括由节点表示视频拍摄的每一类别的步骤。
56.一种用于提取用于浏览的合成视频选择的分级分解的设备,包括:
识别装置,用于识别视频;
收集装置,用于从表示每一视频段的所述视频拍摄中收集主帧;
分类装置,用于根据摄像运动或全面的运动信息分类主帧的收集;以及
建立装置,用于建立视频的图形表示,图形表示是基于所述分类步骤的结果的、瞬间的以及与视频拍摄的每一部分有关的摄像运动信息,其中所述的图形表示建立步骤包括由节点表示视频拍摄的每一类别的步骤。
57.一种视频/音频信号处理方法,用于处理所提供的视频/音频信号,包括步骤:
提取至少一个表示在所述的视频/音频信号的压缩域中的所述视频/音频信号的特性的压缩域特征点。
58.如权利要求57的视频/音频信号处理方法,其中所述的提取步骤包括计算在当前帧中的所有的块的块关联度量,以把具有高关联的块确定选为基于所述的运动估计步骤的下一个特征点的候选特征点的步骤。
59.如权利要求58的视频/音频信号处理方法,其中所述的提取步骤包括仅对所述度量计算步骤选择的高关联的块执行变换所述压缩域的逆变换,以及对预测编码宏块或双向预测编码宏块执行运动补偿的步骤。
60.如权利要求59的视频/音频信号处理方法,其中所述的逆变换是逆离散余弦变换。
61.如权利要求58的视频/音频信号处理方法,其中所述的当前帧包括任意形状的视频对象平面。
62.如权利要求60的视频/音频信号处理方法,包括对作为使用块中的部分或全部离散余弦变换系数在离散余弦变换域中选择的高关联的当前块,计算和提取块签名。
63.如权利要求60的视频/音频信号处理方法,包括:对作为使用块中的部分或全部分别加权的离散余弦变换系数在离散余弦变换域中选择的高关联的当前块,计算和提取块签名。
64.如权利要求60的视频/音频信号处理方法,包括:对作为在像素域中选择的高关联的当前块,计算块签名。
65.如权利要求60的视频/音频信号处理方法,其中所述的块关联度量包括在当前宏块是帧内-类型宏块并且参考宏块是预测编码宏块或双向预测编码宏块的情况下,计算块关联度量,所述的块关联度量使用根据考虑到参考宏块的有关块的运动矢量和预测误差能量而发现的关联测量进行计算的步骤。
66.如权利要求60的视频/音频信号处理方法,包括:
在当前宏块是预测编码宏块或或双向预测编码宏块的情况下,设置块关联度量为零;以及
从参考帧中更新已经跟踪的特征点的列表。
67.如权利要求60的视频/音频信号处理方法,包括:
在当前宏块是帧内-类型宏块并且参考宏块也是帧内-类型宏块的情况下,计算块关联度量,所述的块关联度量使用根据来自当前宏块中的块的DCT活动以及根据考虑到参考宏块的DCT活动而发现的关联测量进行计算。
68.如权利要求57的视频/音频信号处理方法,其中视频/音频信号是根据MPEG1、MPEG2、MPEG4、DV、MJPEG、ITU-T推荐H.261或H.263被压缩编码的。
69.一种视频/音频信号处理设备,用于处理所提供的视频/音频信号,包括:
提取装置,用于在所述视频/音频信号的压缩域中提取表示所述视频/音频信号的特性的至少一个压缩域特征点。
70.如权利要求69的视频/音频信号处理设备,其中所述的提取装置包括:度量计算装置,计算在当前帧中的所有的块的块关联度量,以把具有高关联的块确定选为基于所述的运动估计步骤的下一个特征点的候选特征点。
71.如权利要求70的视频/音频信号处理设备,其中所述的提取装置包括仅对所述度量计算装置选择的高关联的块执行变换所述压缩域的逆变换以及对预测编码宏块或双向预测编码宏块执行运动补偿的装置。
72.如权利要求71的视频/音频信号处理设备,其中所述的逆变换是逆离散余弦变换。
73.如权利要求70的视频/音频信号处理设备,其中所述的当前帧包括任意形状的视频对象平面。
74.如权利要求72的视频/音频信号处理设备,包括对作为使用块中的部分或全部离散余弦变换系数在离散余弦变换域中选择的高关联的当前块,计算和提取块签名的装置。
75.如权利要求72的视频/音频信号处理设备,包括对作为使用块中的部分或全部分别加权的离散余弦变换系数在离散余弦变换域中选择的高关联的当前块,计算和提取块签名的装置。
76.如权利要求72的视频/音频信号处理设备,包括对作为在像素域中选择的高关联的当前块,计算块签名的装置。
77.如权利要求72的视频/音频信号处理设备,其中所述的块关联度量计算装置在当前宏块是帧内-类型宏块并且参考宏块是预测编码宏块或双向预测编码宏块的情况下,计算块关联度量,所述的块关联度量使用根据考虑到参考宏块的有关块的运动矢量和预测误差能量而发现的关联测量进行计算。
78.如权利要求72的视频/音频信号处理设备,包括:在当前宏块是预测编码宏块或或双向预测编码宏块的情况下,设置块关联度量为零的装置以及
从参考帧中更新已经跟踪的特征点的列表的装置。
79.如权利要求72的视频/音频信号处理设备,包括:在当前宏块是帧内-类型宏块并且参考宏块也是帧内-类型宏块的情况下,计算块关联度量的装置,所述的块关联度量使用根据来自当前宏块中的块的DCT活动以及根据考虑到参考宏块中考虑的DCT活动而发现的关联测量进行计算。
80.如权利要求69的视频/音频信号处理设备,其中视频/音频信号是根据MPEG1、MPEG2、MPEG4、DV、MJPEG、ITU-T推荐H.261或H.263被压缩编码的。
81.一种视频/音频信号处理方法,用于处理所提供的视频/音频信号,包括步骤:
对在所述视频/音频信号的压缩域中的表示所述视频/音频信号的特性的至少一个特征点执行运动估计。
82.如权利要求81的视频/音频信号处理方法,其中所述的运动估计步骤包括计算估计的运动矢量、参考块的位置和在参考帧中的搜索区域的步骤。
83.如权利要求82的视频/音频信号处理方法,包括对在参考帧的搜索区域中的帧内-宏块的所有的块应用变换所述压缩域的逆变换。
84.如权利要求83的视频/音频信号处理方法,其中所述的逆变换是逆离散余弦变换。
85.如权利要求84的视频/音频信号处理方法,包括:在参考帧的搜索区域中的预测编码宏块或双向预测编码宏块中的所有的块上执行逆IDCT和运动估计。
86.如权利要求81的视频/音频信号处理方法,其中视频/音频信号是根据MPEG1、MPEG2、MPEG4、DV、MJPEG、ITU-T推荐H.261或H.263被压缩编码的。
87.一种视频/音频信号处理设备,用于处理所提供的视频/音频信号,包括:
用于对在所述视频/音频信号的压缩域中的表示所述视频/音频信号的特性的至少一个特征点执行运动估计的装置。
88.如权利要求87的视频/音频信号处理设备,其中所述的运动估计装置包括计算估计的运动矢量、参考块的位置和在参考帧中的搜索区域的装置。
89.如权利要求88的视频/音频信号处理设备,包括:对在参考帧的搜索区域中的帧内-宏块的所有的块应用变换所述压缩域的逆变换的装置。
90.如权利要求89的视频/音频信号处理设备,其中所述的逆变换是逆离散余弦变换。
91.如权利要求90的视频/音频信号处理设备,包括:在参考帧的搜索区域中的预测编码宏块或双向预测编码宏块中的所有的块上执行逆IDCT和运动估计的装置。
92.如权利要求87的视频/音频信号处理设备,其中视频/音频信号是根据MPEG1、MPEG2、MPEG4、DV、MJPEG、ITU-T推荐H.261或H.263被压缩编码的。
CNB998159158A 1999-11-29 1999-11-29 视频/音频信号处理方法和视频/音频信号处理设备 Expired - Fee Related CN100387061C (zh)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP1999/006664 WO2001041451A1 (en) 1999-11-29 1999-11-29 Video/audio signal processing method and video/audio signal processing apparatus

Related Child Applications (2)

Application Number Title Priority Date Filing Date
CNB2004100983697A Division CN100336390C (zh) 1999-11-29 1999-11-29 提取用于浏览的合成视频选择的分级分解的方法和设备
CNB2004100983682A Division CN100348032C (zh) 1999-11-29 1999-11-29 处理和浏览所提供的视频/音频信号的方法和设备

Publications (2)

Publication Number Publication Date
CN1335021A true CN1335021A (zh) 2002-02-06
CN100387061C CN100387061C (zh) 2008-05-07

Family

ID=14237415

Family Applications (1)

Application Number Title Priority Date Filing Date
CNB998159158A Expired - Fee Related CN100387061C (zh) 1999-11-29 1999-11-29 视频/音频信号处理方法和视频/音频信号处理设备

Country Status (8)

Country Link
US (2) US7356082B1 (zh)
EP (1) EP1147669B1 (zh)
JP (1) JP2003516053A (zh)
KR (1) KR100673282B1 (zh)
CN (1) CN100387061C (zh)
AU (1) AU1412100A (zh)
DE (1) DE69934605T2 (zh)
WO (1) WO2001041451A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100428229C (zh) * 2002-11-01 2008-10-22 三菱电机株式会社 用于概括未知视频内容的方法
CN104053001A (zh) * 2013-03-15 2014-09-17 三星电子株式会社 对视频进行稳定化的方法和包括后处理电路的视频解码器
CN104081774A (zh) * 2011-11-08 2014-10-01 株式会社Kt 基于预测单元的分割模式进行系数扫描的方法和装置
CN106030703A (zh) * 2013-12-17 2016-10-12 诺基亚技术有限公司 音频信号编码器
CN109068263A (zh) * 2013-10-31 2018-12-21 杜比实验室特许公司 使用元数据处理的耳机的双耳呈现
CN111771376A (zh) * 2018-12-12 2020-10-13 Lg电子株式会社 以基于历史的运动向量预测为基础处理视频信号的方法和设备
CN112822497A (zh) * 2020-12-01 2021-05-18 青岛大学 基于边缘计算的视频压缩编码处理方法及相关组件
CN113647109A (zh) * 2019-02-17 2021-11-12 北京字节跳动网络技术有限公司 帧内块复制(ibc)模式和非ibc帧间模式的运动候选列表构建

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1243141B1 (en) * 1999-12-14 2011-10-19 Scientific-Atlanta, LLC System and method for adaptive decoding of a video signal with coordinated resource allocation
JP2001333389A (ja) * 2000-05-17 2001-11-30 Mitsubishi Electric Research Laboratories Inc ビデオ再生システムおよびビデオ信号処理方法
JP4273636B2 (ja) * 2000-06-30 2009-06-03 ソニー株式会社 情報記録装置及び方法、情報記録システム
US7266150B2 (en) * 2001-07-11 2007-09-04 Dolby Laboratories, Inc. Interpolation of video compression frames
EP1293911A1 (en) * 2001-08-21 2003-03-19 Deutsche Thomson-Brandt Gmbh Method and apparatus for generating editing-related metadata
US7274857B2 (en) * 2001-12-31 2007-09-25 Scientific-Atlanta, Inc. Trick modes for compressed video streams
US6956904B2 (en) * 2002-01-15 2005-10-18 Mitsubishi Electric Research Laboratories, Inc. Summarizing videos using motion activity descriptors correlated with audio features
JP3744464B2 (ja) * 2002-05-20 2006-02-08 ソニー株式会社 信号記録再生装置及び方法、信号再生装置及び方法、並びにプログラム及び記録媒体
AU2012244113B2 (en) * 2002-06-28 2013-06-27 Dolby Laboratories Licensing Corporation Interpolation of video compression frames
US7552387B2 (en) * 2003-04-30 2009-06-23 Hewlett-Packard Development Company, L.P. Methods and systems for video content browsing
US7966642B2 (en) * 2003-09-15 2011-06-21 Nair Ajith N Resource-adaptive management of video storage
US7983835B2 (en) 2004-11-03 2011-07-19 Lagassey Paul J Modular intelligent transportation system
WO2005120169A2 (en) * 2004-06-14 2005-12-22 Genoa Color Technologies Ltd Method, device and system of response time compensation
US8600217B2 (en) * 2004-07-14 2013-12-03 Arturo A. Rodriguez System and method for improving quality of displayed picture during trick modes
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
US8902971B2 (en) * 2004-07-30 2014-12-02 Euclid Discoveries, Llc Video compression repository and model reuse
US9743078B2 (en) 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
WO2010042486A1 (en) 2008-10-07 2010-04-15 Euclid Discoveries, Llc Feature-based video compression
US9578345B2 (en) * 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
JP3880985B2 (ja) * 2004-08-05 2007-02-14 松下電器産業株式会社 動きベクトル検出装置および動きベクトル検出方法
US8370323B2 (en) 2004-08-31 2013-02-05 Intel Corporation Providing information services related to multimodal inputs
US7873911B2 (en) * 2004-08-31 2011-01-18 Gopalakrishnan Kumar C Methods for providing information services related to visual imagery
US20070005490A1 (en) * 2004-08-31 2007-01-04 Gopalakrishnan Kumar C Methods and System for Distributed E-commerce
US20060047704A1 (en) * 2004-08-31 2006-03-02 Kumar Chitra Gopalakrishnan Method and system for providing information services relevant to visual imagery
US7764740B2 (en) * 2004-11-24 2010-07-27 Electronics And Telecommunications Research Institute Fast block mode determining method for motion estimation, and apparatus thereof
KR101199498B1 (ko) 2005-03-31 2012-11-09 삼성전자주식회사 카메라 파라미터를 이용한 다시점 영상의 부호화 장치 및생성 장치, 그 방법과, 이를 수행하기 위한 프로그램이기록된 기록 매체
KR100763179B1 (ko) * 2005-04-01 2007-10-04 삼성전자주식회사 비동기 픽쳐의 모션 벡터를 압축/복원하는 방법 및 그방법을 이용한 장치
KR100869497B1 (ko) * 2005-07-01 2008-11-21 주식회사 메디슨 계층적 움직임 추정방법 및 이를 적용한 초음파 영상장치
US8345768B1 (en) * 2005-07-28 2013-01-01 Teradici Corporation Progressive block encoding using region analysis
US20070098274A1 (en) * 2005-10-28 2007-05-03 Honeywell International Inc. System and method for processing compressed video data
US7835542B2 (en) * 2005-12-29 2010-11-16 Industrial Technology Research Institute Object tracking systems and methods utilizing compressed-domain motion-based segmentation
KR100772390B1 (ko) 2006-01-23 2007-11-01 삼성전자주식회사 방향 보간 방법 및 그 장치와, 그 보간 방법이 적용된부호화 및 복호화 방법과 그 장치 및 복호화 장치
KR100781525B1 (ko) * 2006-04-06 2007-12-03 삼성전자주식회사 가중 평균합을 이용하여 fgs 계층을 인코딩 및디코딩하는 방법 및 장치
WO2008091484A2 (en) 2007-01-23 2008-07-31 Euclid Discoveries, Llc Object archival systems and methods
US8542726B2 (en) * 2006-10-17 2013-09-24 Microsoft Corporation Directional and motion-compensated discrete cosine transformation
US8468280B2 (en) * 2006-10-26 2013-06-18 D-Box Technologies Inc. Audio interface for controlling a motion platform
FR2908949A1 (fr) * 2006-11-16 2008-05-23 Thomson Licensing Sas Procede de transcodage de donnees du standard mpeg2 a un standard mpeg4.
JP2010526455A (ja) * 2007-01-23 2010-07-29 ユークリッド・ディスカバリーズ・エルエルシー 画像データを処理するコンピュータ方法および装置
US8243118B2 (en) 2007-01-23 2012-08-14 Euclid Discoveries, Llc Systems and methods for providing personal video services
US8837591B2 (en) 2007-01-26 2014-09-16 Telefonaktiebolaget L M Ericsson (Publ) Image block classification
KR101366244B1 (ko) * 2007-04-24 2014-02-21 삼성전자주식회사 레지듀얼 데이터를 이용한 영상의 에러 은닉 방법 및 장치
AU2007202789B9 (en) 2007-06-15 2011-08-18 Canon Kabushiki Kaisha High-fidelity motion summarisation method
US20090033791A1 (en) * 2007-07-31 2009-02-05 Scientific-Atlanta, Inc. Video processing systems and methods
JP4817262B2 (ja) * 2007-09-10 2011-11-16 富士フイルム株式会社 画像処理装置、画像処理方法、およびプログラム
TW200919336A (en) * 2007-10-25 2009-05-01 Ind Tech Res Inst Method for positioning a non-structural object in a series of continuing images
US20090135264A1 (en) * 2007-11-28 2009-05-28 Motorola, Inc. Motion blur detection using metadata fields
KR100915525B1 (ko) * 2007-12-18 2009-09-04 한국전자통신연구원 칼만 필터를 이용한 실시간 카메라 움직임 추정시스템에서의 움직임 추정 방법 및 장치
JP5286805B2 (ja) * 2008-01-31 2013-09-11 沖電気工業株式会社 動きベクトル検出装置及び方法、動画像符号化装置及び方法、並びに、動画像復号化装置及び方法
GB0809631D0 (en) * 2008-05-28 2008-07-02 Mirriad Ltd Zonesense
US20110115702A1 (en) * 2008-07-08 2011-05-19 David Seaberg Process for Providing and Editing Instructions, Data, Data Structures, and Algorithms in a Computer System
US8300696B2 (en) 2008-07-25 2012-10-30 Cisco Technology, Inc. Transcoding for systems operating under plural video coding specifications
WO2010017166A2 (en) 2008-08-04 2010-02-11 Dolby Laboratories Licensing Corporation Overlapped block disparity estimation and compensation architecture
JP5074322B2 (ja) * 2008-08-05 2012-11-14 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
US9100535B2 (en) * 2008-10-22 2015-08-04 Entropic Communications, Llc Device and method for motion estimation and compensation
JP4623200B2 (ja) 2008-10-27 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP4623199B2 (ja) * 2008-10-27 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
KR101279573B1 (ko) 2008-10-31 2013-06-27 에스케이텔레콤 주식회사 움직임 벡터 부호화 방법 및 장치와 그를 이용한 영상 부호화/복호화 방법 및 장치
US20100114871A1 (en) * 2008-10-31 2010-05-06 University Of Southern California Distance Quantization in Computing Distance in High Dimensional Space
WO2011014420A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3d) images
US20110025830A1 (en) * 2009-07-31 2011-02-03 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating stereoscopic content via depth map creation
US9380292B2 (en) 2009-07-31 2016-06-28 3Dmedia Corporation Methods, systems, and computer-readable storage media for generating three-dimensional (3D) images of a scene
US20110135170A1 (en) * 2009-12-09 2011-06-09 Capso Vision, Inc. System and method for display speed control of capsule images
KR20110085728A (ko) * 2010-01-21 2011-07-27 삼성전자주식회사 휴대용 단말기에서 건물 영역을 인식하기 위한 장치 및 방법
US9013584B2 (en) * 2010-03-01 2015-04-21 Stmicroelectronics, Inc. Border handling for motion compensated temporal interpolator using camera model
US9628673B2 (en) * 2010-04-28 2017-04-18 Microsoft Technology Licensing, Llc Near-lossless video summarization
US9106933B1 (en) * 2010-05-18 2015-08-11 Google Inc. Apparatus and method for encoding video using different second-stage transform
US8619150B2 (en) 2010-05-25 2013-12-31 Intellectual Ventures Fund 83 Llc Ranking key video frames using camera fixation
US8599316B2 (en) * 2010-05-25 2013-12-03 Intellectual Ventures Fund 83 Llc Method for determining key video frames
US8446490B2 (en) 2010-05-25 2013-05-21 Intellectual Ventures Fund 83 Llc Video capture system producing a video summary
US8520088B2 (en) * 2010-05-25 2013-08-27 Intellectual Ventures Fund 83 Llc Storing a video summary as metadata
US8605221B2 (en) 2010-05-25 2013-12-10 Intellectual Ventures Fund 83 Llc Determining key video snippets using selection criteria to form a video summary
US8432965B2 (en) 2010-05-25 2013-04-30 Intellectual Ventures Fund 83 Llc Efficient method for assembling key video snippets to form a video summary
JP5375744B2 (ja) * 2010-05-31 2013-12-25 カシオ計算機株式会社 動画再生装置、動画再生方法及びプログラム
US8842738B2 (en) * 2010-09-01 2014-09-23 Electronics And Telecommunications Research Institute Signal processing method and apparatus based on multiple textures using video audio excitation signals
US8848800B2 (en) 2010-09-01 2014-09-30 Electronics And Telecommunications Research Institute Signal processing method and apparatus based on multiple textures using video sensor excitation signals
US8620660B2 (en) * 2010-10-29 2013-12-31 The United States Of America, As Represented By The Secretary Of The Navy Very low bit rate signal coder and decoder
US9210442B2 (en) 2011-01-12 2015-12-08 Google Technology Holdings LLC Efficient transform unit representation
US9380319B2 (en) 2011-02-04 2016-06-28 Google Technology Holdings LLC Implicit transform unit representation
GB201103346D0 (en) * 2011-02-28 2011-04-13 Dev Ltd Improvements in or relating to optical navigation devices
US8989448B2 (en) * 2011-03-22 2015-03-24 Morpho, Inc. Moving object detecting device, moving object detecting method, moving object detection program, moving object tracking device, moving object tracking method, and moving object tracking program
KR101248808B1 (ko) * 2011-06-03 2013-04-01 주식회사 동부하이텍 경계 영역의 잡음 제거 장치 및 방법
US11039109B2 (en) 2011-08-05 2021-06-15 Fox Sports Productions, Llc System and method for adjusting an image for a vehicle mounted camera
BR112014002827B1 (pt) * 2011-08-05 2021-09-28 Fox Sports Productions, Llc Método e sistema para a captura seletiva e apresentação de porções de imagem de difusão nativa em um sistema de múltiplas câmeras de difusão; e método e sistema para a captura seletiva e apresentação de porções de difusão de imagem nativa em um sistema de múltiplas câmeras de difusão
US9317928B2 (en) 2012-04-06 2016-04-19 Adobe Systems Incorporated Detecting and tracking point features with primary colors
US9083945B2 (en) 2012-04-06 2015-07-14 Adobe Systems Incorporated Keyframe selection for robust video-based structure from motion
CN103390262B (zh) * 2012-05-11 2016-06-29 华为技术有限公司 数字滤波器权重系数的获取方法和装置
AU2013261845A1 (en) * 2012-05-14 2014-12-11 Guido MEARDI Encoding and reconstruction of residual data based on support information
US8818037B2 (en) * 2012-10-01 2014-08-26 Microsoft Corporation Video scene detection
WO2014105385A1 (en) * 2012-12-27 2014-07-03 The Regents Of The University Of California Anamorphic stretch image compression
CN104937938A (zh) * 2013-01-09 2015-09-23 文森索·利古奥里 用于比较两个像素块的方法和设备
US9219915B1 (en) 2013-01-17 2015-12-22 Google Inc. Selection of transform size in video coding
US9177245B2 (en) 2013-02-08 2015-11-03 Qualcomm Technologies Inc. Spiking network apparatus and method with bimodal spike-timing dependent plasticity
US9544597B1 (en) 2013-02-11 2017-01-10 Google Inc. Hybrid transform in video encoding and decoding
US9967559B1 (en) 2013-02-11 2018-05-08 Google Llc Motion vector dependent spatial transformation in video coding
US9998750B2 (en) 2013-03-15 2018-06-12 Cisco Technology, Inc. Systems and methods for guided conversion of video from a first to a second compression format
US9674530B1 (en) 2013-04-30 2017-06-06 Google Inc. Hybrid transforms in video coding
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10194163B2 (en) * 2014-05-22 2019-01-29 Brain Corporation Apparatus and methods for real time estimation of differential motion in live video
US9939253B2 (en) 2014-05-22 2018-04-10 Brain Corporation Apparatus and methods for distance estimation using multiple image sensors
US9713982B2 (en) 2014-05-22 2017-07-25 Brain Corporation Apparatus and methods for robotic operation using video imagery
US9848112B2 (en) 2014-07-01 2017-12-19 Brain Corporation Optical detection apparatus and methods
US10057593B2 (en) 2014-07-08 2018-08-21 Brain Corporation Apparatus and methods for distance estimation using stereo imagery
US10055850B2 (en) 2014-09-19 2018-08-21 Brain Corporation Salient features tracking apparatus and methods using visual initialization
US9565451B1 (en) 2014-10-31 2017-02-07 Google Inc. Prediction dependent transform coding
CN104392416B (zh) * 2014-11-21 2017-02-22 中国电子科技集团公司第二十八研究所 一种运动场景的视频拼接方法
US11758238B2 (en) 2014-12-13 2023-09-12 Fox Sports Productions, Llc Systems and methods for displaying wind characteristics and effects within a broadcast
US11159854B2 (en) 2014-12-13 2021-10-26 Fox Sports Productions, Llc Systems and methods for tracking and tagging objects within a broadcast
US10197664B2 (en) 2015-07-20 2019-02-05 Brain Corporation Apparatus and methods for detection of objects using broadband signals
US9769499B2 (en) 2015-08-11 2017-09-19 Google Inc. Super-transform video coding
US10277905B2 (en) 2015-09-14 2019-04-30 Google Llc Transform selection for non-baseband signal coding
CN105163093B (zh) * 2015-10-08 2018-01-12 北京理工大学 一种面向avs监控档的压缩域视频摘要提取方法及装置
US9807423B1 (en) 2015-11-24 2017-10-31 Google Inc. Hybrid transform scheme for video coding
US9977968B2 (en) 2016-03-04 2018-05-22 Xerox Corporation System and method for relevance estimation in summarization of videos of multi-step activities
CN108271068B (zh) * 2016-12-30 2020-04-03 华为技术有限公司 一种基于流媒体技术的视频数据的处理方法及装置
KR102256110B1 (ko) 2017-05-26 2021-05-26 라인 가부시키가이샤 영상 압축 방법 및 영상 복원 방법
US10547790B2 (en) * 2018-06-14 2020-01-28 Google Llc Camera area locking
US11893791B2 (en) 2019-03-11 2024-02-06 Microsoft Technology Licensing, Llc Pre-processing image frames based on camera statistics
US11514587B2 (en) * 2019-03-13 2022-11-29 Microsoft Technology Licensing, Llc Selectively identifying data based on motion data from a digital video to provide as input to an image processing model
KR102143349B1 (ko) 2019-03-27 2020-08-11 엘지전자 주식회사 이동 로봇의 제어 방법
US11122297B2 (en) 2019-05-03 2021-09-14 Google Llc Using border-aligned block functions for image compression

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5160846A (en) * 1990-10-03 1992-11-03 Eaton Corporation Method and apparatus for reducing tilt angle variations in an ion implanter
JPH06101018B2 (ja) * 1991-08-29 1994-12-12 インターナショナル・ビジネス・マシーンズ・コーポレイション 動画像データベースの検索
JPH07152779A (ja) * 1993-11-29 1995-06-16 Toshiba Corp 動画インデックス検出処理方法及び動画インデックス検出処理機能を持つ動画処理装置
KR100235343B1 (ko) * 1994-12-29 1999-12-15 전주범 영역분할 기법을 이용한 동영상신호 부호화기의 움직임 벡터 측정장치
JPH08194714A (ja) * 1995-01-13 1996-07-30 Matsushita Electric Ind Co Ltd 圧縮動画像の検索方法および装置
US5708767A (en) * 1995-02-03 1998-01-13 The Trustees Of Princeton University Method and apparatus for video browsing based on content and structure
TW257924B (en) * 1995-03-18 1995-09-21 Daewoo Electronics Co Ltd Method and apparatus for encoding a video signal using feature point based motion estimation
KR0171118B1 (ko) * 1995-03-20 1999-03-20 배순훈 비디오신호 부호화 장치
US5668608A (en) * 1995-07-26 1997-09-16 Daewoo Electronics Co., Ltd. Motion vector estimation method and apparatus for use in an image signal encoding system
KR100209793B1 (ko) * 1995-10-28 1999-07-15 전주범 특징점 기반 움직임 추정을 이용하여 비디오 신호를 부호화 및 복호화하는 장치
JP3688377B2 (ja) * 1996-01-31 2005-08-24 富士通株式会社 画像特徴追跡装置及び画像特徴追跡方法
US5969755A (en) * 1996-02-05 1999-10-19 Texas Instruments Incorporated Motion based event detection system and method
US5936671A (en) 1996-07-02 1999-08-10 Sharp Laboratories Of America, Inc. Object-based video processing using forward-tracking 2-D mesh layers
JPH10257374A (ja) * 1997-03-14 1998-09-25 Canon Inc カメラ制御システムおよびその制御方法および記憶媒体
JP2001526859A (ja) * 1997-05-16 2001-12-18 ザ トラスティーズ オブ コロンビア ユニヴァーシティ イン ザ シティ オブ ニューヨーク ワールドワイドウェブ上の圧縮映像の指示及び編集方法及びアーキテクチュア
US6137544A (en) * 1997-06-02 2000-10-24 Philips Electronics North America Corporation Significant scene detection and frame filtering for a visual indexing system
US6404817B1 (en) * 1997-11-20 2002-06-11 Lsi Logic Corporation MPEG video decoder having robust error detection and concealment
US6119123A (en) * 1997-12-02 2000-09-12 U.S. Philips Corporation Apparatus and method for optimizing keyframe and blob retrieval and storage
US6628835B1 (en) * 1998-08-31 2003-09-30 Texas Instruments Incorporated Method and system for defining and recognizing complex events in a video sequence

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100428229C (zh) * 2002-11-01 2008-10-22 三菱电机株式会社 用于概括未知视频内容的方法
US10080023B2 (en) 2011-11-08 2018-09-18 Kt Corporation Method and apparatus for coefficient scan based on partition mode of prediction unit
CN104081774A (zh) * 2011-11-08 2014-10-01 株式会社Kt 基于预测单元的分割模式进行系数扫描的方法和装置
US9648331B2 (en) 2011-11-08 2017-05-09 Kt Corporation Method and apparatus for coefficient scan based on partition mode of prediction unit
CN104081774B (zh) * 2011-11-08 2017-09-26 株式会社Kt 利用解码装置对视频信号进行解码的方法
US9854245B2 (en) 2011-11-08 2017-12-26 Kt Corporation Method and apparatus for coefficient scan based on partition mode of prediction unit
US9565442B2 (en) 2011-11-08 2017-02-07 Kt Corporation Method and apparatus for coefficient scan based on partition mode of prediction unit
CN104053001B (zh) * 2013-03-15 2019-06-11 三星电子株式会社 对视频进行稳定化的方法和包括后处理电路的视频解码器
CN104053001A (zh) * 2013-03-15 2014-09-17 三星电子株式会社 对视频进行稳定化的方法和包括后处理电路的视频解码器
CN109068263A (zh) * 2013-10-31 2018-12-21 杜比实验室特许公司 使用元数据处理的耳机的双耳呈现
CN106030703A (zh) * 2013-12-17 2016-10-12 诺基亚技术有限公司 音频信号编码器
CN106030703B (zh) * 2013-12-17 2020-02-04 诺基亚技术有限公司 音频信号编码器
CN111771376A (zh) * 2018-12-12 2020-10-13 Lg电子株式会社 以基于历史的运动向量预测为基础处理视频信号的方法和设备
CN111771376B (zh) * 2018-12-12 2023-08-08 Lg电子株式会社 以基于历史的运动向量预测为基础处理视频信号的方法和设备
US12120313B2 (en) 2019-02-17 2024-10-15 Beijing Bytedance Network Technology Co., Ltd Restriction of applicability for intra block copy mode
CN113647109A (zh) * 2019-02-17 2021-11-12 北京字节跳动网络技术有限公司 帧内块复制(ibc)模式和非ibc帧间模式的运动候选列表构建
CN113647109B (zh) * 2019-02-17 2024-07-05 北京字节跳动网络技术有限公司 帧内块复制(ibc)模式和非ibc帧间模式的运动候选列表构建
CN112822497A (zh) * 2020-12-01 2021-05-18 青岛大学 基于边缘计算的视频压缩编码处理方法及相关组件
CN112822497B (zh) * 2020-12-01 2024-02-02 青岛大学 基于边缘计算的视频压缩编码处理方法及相关组件

Also Published As

Publication number Publication date
KR20010108160A (ko) 2001-12-07
AU1412100A (en) 2001-06-12
KR100673282B1 (ko) 2007-01-24
DE69934605D1 (de) 2007-02-08
CN100387061C (zh) 2008-05-07
EP1147669B1 (en) 2006-12-27
US20080043848A1 (en) 2008-02-21
EP1147669A1 (en) 2001-10-24
US7356082B1 (en) 2008-04-08
WO2001041451A1 (en) 2001-06-07
JP2003516053A (ja) 2003-05-07
DE69934605T2 (de) 2007-10-11

Similar Documents

Publication Publication Date Title
CN1335021A (zh) 视频/音频信号处理方法和视频/音频信号处理设备
Tan et al. Rapid estimation of camera motion from compressed video with application to video annotation
JP4267327B2 (ja) 動き記述子を用いてビデオを要約化する方法
US7046731B2 (en) Extracting key frames from a video sequence
US7469010B2 (en) Extracting key frames from a video sequence
US6940910B2 (en) Method of detecting dissolve/fade in MPEG-compressed video environment
CN1711556A (zh) 检测均匀色片段的方法和系统
CN101048799A (zh) 通过实时视频动作分析理解视频内容
US20070206931A1 (en) Monochrome frame detection method and corresponding device
US20070041447A1 (en) Content analysis of coded video data
CN100348032C (zh) 处理和浏览所提供的视频/音频信号的方法和设备
CN100336390C (zh) 提取用于浏览的合成视频选择的分级分解的方法和设备
JP2007518303A (ja) シーン変化検出を用いる処理方法及び装置
EP1752891A2 (en) Method and apparatus for establishing and browsing a hierarchical video camera motion transition graph.
Kuhn Camera motion estimation using feature points in MPEG compressed domain
US20090016441A1 (en) Coding method and corresponding coded signal
Felip et al. Robust dominant motion estimation using MPEG information in sport sequences
Dorai et al. Generating Motion Descriptors from MPEG-2 Compressed HDTV Video for Content-Based Annotation and Retrieval
Zhang et al. A new global motion estimation algorithm
Wang et al. Moving camera moving object segmentation in an MPEG-2 compressed video sequence
Kayaalp Video segmentation using partially decoded mpeg bitstream
Gosavi et al. Frame selection for video watermark embedding using scene change detection algorithm
Jiang et al. Adaptive scheme for classification of MPEG video frames

Legal Events

Date Code Title Description
C06 Publication
C10 Entry into substantive examination
PB01 Publication
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
C17 Cessation of patent right
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20080507

Termination date: 20091229