CN101409831B - 一种多媒体视频对象处理方法 - Google Patents

一种多媒体视频对象处理方法 Download PDF

Info

Publication number
CN101409831B
CN101409831B CN 200810062899 CN200810062899A CN101409831B CN 101409831 B CN101409831 B CN 101409831B CN 200810062899 CN200810062899 CN 200810062899 CN 200810062899 A CN200810062899 A CN 200810062899A CN 101409831 B CN101409831 B CN 101409831B
Authority
CN
China
Prior art keywords
frame
video
image
fdm
field picture
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN 200810062899
Other languages
English (en)
Other versions
CN101409831A (zh
Inventor
朱信忠
徐慧英
赵建民
顾海燕
胡丞懿
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Boxsam Electronic Co ltd
Original Assignee
Zhejiang Normal University CJNU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zhejiang Normal University CJNU filed Critical Zhejiang Normal University CJNU
Priority to CN 200810062899 priority Critical patent/CN101409831B/zh
Publication of CN101409831A publication Critical patent/CN101409831A/zh
Application granted granted Critical
Publication of CN101409831B publication Critical patent/CN101409831B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明公开了一种多媒体视频对象处理方法。其步骤包括:(1)基于宏块信息对MPEG视频进行场景分割;(2)预读要拼接的视频,取得各类信息并寻找合适的拼接场景;(3)寻找拼接的入点和出点,对接入视频各种信息进行调整;(4)选取合适的音频拼接点实现音视频无缝拼接;(5)设置视频缓冲区,统一待拼接视频的码率;(6)在时间域对视频内运动对象进行粗提取;(7)对粗提取结果进行分水岭处理,进行时空区域合并精确分割对象。本发明算法简单、高效,系统资源消耗低,处理速度快,精度高。

Description

一种多媒体视频对象处理方法
技术领域
本发明涉及一种多媒体视频对象处理方法,尤其是涉及一种多媒体视频的视频智能化场景分割、无缝拼接和对象提取的方法。
背景技术
随着计算机和网络技术的发展,以媒体为代表的应用对人类社会产生的影响和作用越来越明显,极大地推动了诸多工业的相互渗透和飞速发展,逐步改变了整个人类社会的工作结构和生活方式,由此,对多媒体对象的处理也越来越受到重视。
多媒体信息的主要成分是视觉信息,具有直观、信息量大等特点。视觉信息是人类认知世界的重要功能手段,它包括静止图像、视频及图像序列、计算机图形和动画等等,更广义的视觉信息还可以包括文本信息等。在最初的工程应用中,比如卫星图像和医学图像中对象的识别和提取、工业加工过程的控制等等,人们针对不同的应用场景提出多种不同的对象分割和提取算法。但这些场合有一个共同的特点,都是基于静态图像领域。由于计算机多媒体技术和网络技术的持续发展,特别是一些特殊的视频处理应用场合的需要,使得动态图像视频领域的对象分割和提取变得极为迫切。通过对视频信息进行分析和处理,可以获得从单一的静态图像中不可能得到的信息。视频分析和处理在商业、军事、工业等领域有着十分广泛的应用,例如:在商业上,视频处理技术广泛应用于数字电视、多媒体、桌面视频图像、视频会议系统、可视电话和移动图像通信以及其他消费娱乐领域;在工业方面,视频处理技术用于工业过程控制、机器人视觉、自主运载器导航等;在军事上,用于对空监视中的多目标跟踪等;其他的应用领域包括重点部门的监视系统、智能化交通高速公路系统、港口交通控制、航空和飞行控制、远程多媒体教育系统等。
多媒体视频对象处理的主要任务包括对视频本身的处理,即按照一定的规则和方法,将一个完整的视频对象分割为若干个视频对象;或者是将若干个视频对象进行无缝拼接,成为一个完整的视频对象;另一方面,是对采集的视频对象进行分析、处理,并按照不同的应用要求提取其中的图像信息,并对这些信息进行进一步的处理,以获取用户最终需要的信息。
对于视频的分割,迄今为止已经提出了许多从视频流中检测场景变换的方法。目前,大量的视频数据是以压缩格式(如MPEG)存储的,早期的许多算法都是针对全解压的视频数据的,如像素对比较方法、模板比较方法、直方图比较方法等。但上述方法都需要对视频进行全部解压,计算复杂性高、速度慢,并且需要占用很大的存储空间。主要研究成果有:Pei等提出的基于MPEG编码视频流中P帧和B帧的预测方向来检测场景突变的方法;Lee等基于“B帧内双向预测的宏块(MB)个数越多,帧间的相关度越高,则镜头变换的可能性越小”这一思想提出的视频分割方法;Liu等提出了一种基于彩色信息和抽样检测的视频分割算法;Wang等提出了一种改进的基于统计模型的视频分割算法。
目前国外较多厂家在进行视频对象的无缝拼接的相关研究,国内主要有北京算通科技发展有限公司、北京汇视源科技有限公司等,许多大学或者研究所也都不同程度地涉及过多媒体视频对象无缝拼接这个方面。
从视频中的对感兴趣的图像进行分割和提取一直是数字图像处理的核心问题之一,也一直是一个研究热点。近年来,国内外对于视频序列中运动目标分割技术的研究取得了大量的成果,许多新的方法也相继出现。但分割算法的分类在不同文献中有着不同的分类标准,不同分类的分割方法中又可能发生重叠。主要的分割技术分为:基于运动的分割方法,主要利用视频序列的运动信息进行分割提取,如Meyer和Bouthem提出的区域跟踪算法在每一个区域内利用密度流场的仿射模型来进行运动分割和区域边界传播;基于时空信息的分割方法,常见的算法如空间分割获得初始模板,再时域跟踪;同时进行空间分割和时域分割的方法;交互式分割方法,主要采用人工交互的方式来确定分割对象的方法,通过此类分割方法,可以提高视频分割的精度。如Kruse等人提出了利用活动轮廓来进行视频对象分割,这种方法属于基于边界的交互式视频对象分割方法。
由此可见,多媒体视频对象处理的各个关键步骤积累了相当多的理论成果,也有相应的应用软件面世。目前已有的多媒体视频对象处理方法主要存在以下问题:(1)、许多视频分割方法需要对视频进行全部解压,计算复杂性高、速度慢,占用很大的存储空间;(2)、视频拼接耗费资源多、效率低、效果较差;(3)、视频中截取的图像准确度较低,截取速度较慢;(4)、自动化程度不够高,一定程度上还较依赖人机交互。
发明内容
为了克服已有的多媒体视频对象处理方法中存在的耗费资源多、处理效率低下、处理效果不佳、较依赖人机交互等不足,本发明提供了一种处理速度快、效果好、自动化程度高的多媒体视频对象处理方法。
本发明的上述技术问题主要是通过下述技术方案得以解决的:一种多媒体视频对象处理方法,该方法包括以下步骤:
(1)标准的MPEG视频格式的语法结构的最上层是帧图像组,由三种主要的压缩类型的图像帧组成,包括I帧、P帧、B帧;一个帧图像组可分为3种子类,其特征在于,在处理视频时,分别对每个子类中各帧的宏块的类型进行分析,凡是满足一定规则的,就认为有一个宏块发生了变化。将各帧发生变化的宏块个数与总的宏块个数相比得到镜头变化可能程度c,c越接近1,表明镜头发生转换的几率就越大。设置某个阈值t,若c>t,则认为场景发生了变化,进行分割;
所述步骤(1)具体包括以下步骤:
(1.1)MPEG视频中的一个帧图像组由三种主要的压缩类型的图像帧组成,包括I帧、P帧、B帧,其标准结构为:IBBPBBPBBPBBPBB;将帧图像组分为三类子类:PBBP结构子类,PBBI结构子类和IBBP结构子类;在帧图像组的所述标准结构中,按顺序排列的前一个子类的最后一帧图像即是后面一个子类的第一帧图像,所以除帧图像组第一个子类外只需分析其它子类的最后3帧图像即可;
(1.2)将可能发生在一个帧图像组中的场景变换分为三类:变换发生在P帧或I帧,称为SPI;变换发生在前面的B帧,称为SFB;变换发生在后面的B帧,称为SRB;
(1.3)宏块的变化类型参考以下规则:
(1.3.1)对于SPI而言,两个B帧图像Bf和Br的大多数宏块都是前向运动补偿方式,称为F模式,它们与后面的参考帧Pr更相似;参考帧Pr为场景变换所在的帧,大多数宏块都是帧内编码,称为I模式;
(1.3.2)对于SFB而言,参考帧Pr中的大多数宏块也是I模式,但是由于在B帧图像Bf处镜头内容发生了变化,B帧图像Bf和B帧图像Br图像的内容与后面参考帧的内容相似,因此两个B帧的大多数宏块将是后向运动补偿方式,称为B模式;
(1.3.3)对于SRB,由于镜头内容在后面的B帧处发生了变化,所以B帧图像Bf与后面的参考帧不相似,它的大多数宏块为F模式;而B帧图像Br与前面的参考帧不相似,它的大多数宏块为B模式;
(1.4)在检测镜头时,分别对子类各帧的宏块类型进行分析,凡是类型关系满足上述规则之一的,就认为有一个宏块发生了变化;
(1.5)统计各帧中宏块发生变化的次数,与总的宏块数量相比,若大于一定的阈值t,则认为场景发生了变化,进行切割;
(2)预读两个要进行拼接的标准MPEG视频流,分别找到两个视频流的节目关联表,通过节目关联表找到相应的节目映射表,然后在节目映射表里面得到音频、视频和节目时钟基准的识别符的信息,并寻找合适的拼接场景;
(3)寻找视频拼接的入点和出点,并对接入的视频流的各种信息进行调整,主要包括:视频流的节目专用信息,音频、视频传输流数据包的识别符,包含节目时钟基准的传输流数据包的识别符,以及所有这些传输流数据包的版本号,同时修改第二个视频流的时间信息;
(4)根据已经存在的视频拼接点选取合适的音频拼接点,保证音频和视频同步拼接;
(5)设置视频缓冲区验证模型,使解码器输入端有码流缓冲区,使不规则的帧边界规则化。同时通过调节视频流中空包的数量,将进行拼接的两个视频的码率调整为一致,保证视频的无缝拼接;
(6)基于变化检测对视频图像进行提取:首先将两帧彩色图像转化为灰度图像,设置合适的阈值得到灰度帧差掩模图像,同理取得HSV彩色空间的帧差掩模图像,两者进行或运算得到联合帧差图像。通过数学形态学的膨胀和腐蚀操作得到运动对象的形状区域并进行提取;
(7)对得到的运动对象区域经预处理后进行分水岭变换,并进行时域和空域的区域合并,实现运动对象的精确分割。
作为技术方案的进一步改进,所述的步骤(2)具体包括以下步骤:
(2.1)从视频流的开始,寻找载有节目关联表信息的数据包,从中可获得该视频流复用节目数、每路节目的节目号和每路节目的节目映射表的识别符等信息;
(2.2)通过节目映射表的识别符,在视频流里找到包含节目映射表信息的数据包,从中查出该路节目的节目时钟基准的识别符,判断某个对象是音频还是视频;
(2.3)通过得到的视频的识别符,获取视频序列头信息,判断两个视频流编码的类、级、图像大小、幅型比、帧率等信息是否相同,如果不同,则不能拼接;同时,根据得到的节目时钟基准的识别符,取得两个视频流的码率;
(2.4)对视频图像进行预览,寻找预览图像周围的部分拼接点,得到主观合适的拼接点,节省资源并提高处理速度。
作为技术方案的进一步改进,所述的步骤(3)具体包括以下步骤:
(3.1)对于一组标准MPEG视频序列,出点只能在I帧或P帧之前最后一帧的最后一个数据结束点,入点只能在I帧的第一个数据;
(3.2)以预览图像中得到的预览位置为起点,向前和向后搜寻一定数量的视频传输流包,判断该传输流包是不是一个图像的开头,如果是,判断该图像的帧类型是I帧、P帧还是B帧;若是I帧,则该传输流包可以直接作为该传输流的一个入点包,也就是说可以从这个传输流包开始进入该视频流;同样,如果判断出该传输流包包含I帧或P帧的图像头,则该包前面的一个传输流包就可以作为该视频流的一个出点包;
(3.3)找到可能的拼接点后,记录拼接点的信息,包括:拼接点的位置,拼接点类型,接口帧的帧类型,接口帧的显示时间标记PTS和解码时间标记DTS,DTS的间隔值,接口帧从开始到下一帧开始在传输流里所占的数据包数,接口帧净打包的基本流PES包数据在传输流里所占的数据包数;
(3.4)把拼入视频流中除了节目关联表的传输流包之外所有需要识别符进行识别的传输流包,其识别符都改成与拼出视频流一致,同时把节目关联表和节目映射表的内容替换为拼出流的相应内容以保证正确解码;
(3.5)对时间信息进行调整,在拼出流的出点之前找到最近的一个节目时钟基准值PCR1,记录该节目时钟基准字段距离拼出点的字节数i1,该节目时钟基准字段的最后一位字节进入系统目标解码器的时间为t1;同样再找到入流的入点之后最近的节目时钟基准值PCR2,记录i2和t2,则第二个流节目时钟基准的调整量Time_offset的计算方法如下:
Time _ offset = i 1 + i 2 rate + ( t 1 - t 2 ) - - - ( 1 )
其中rate为视频的码率,若两个视频码率不同,则公式(1)记为:
Time _ offset = i 1 rate 1 + i 2 rate 2 + ( t 1 - t 2 ) - - - ( 2 )
入流拼接点之后的每一个节目时钟基准处理后的时间值t与其处理前的原值t’的关系如下:
t=t′+Time_offset                    (3)
作为技术方案的进一步改进,所述的步骤(4)具体包括以下步骤:
(4.1)根据对拼接点所记录的显示时间标记PTS信息,找到显示时间标记与之最为接近的音频帧的位置,保证出点的音频比视频提前、入点的音频比视频滞后;
(4.2)一般出流音频不止一帧,在开始插入入流视频时,中间遇到入流音频包时用出流音频替换,如果出流音频包多于入流音频包,则多余的部分堆积在入流视频数据之后。
作为技术方案的进一步改进,所述的步骤(6)具体包括以下步骤:
(6.1)对视频序列中的两帧进行灰度化,灰度化的公式是:
Gray=0.229R+0.587G+0.114B                        (4)
(6.2)对两帧灰度图像进行帧差计算,计算公式是:
d=fq(x,y)-fs(x,y),q>s                        (5)
其中q,s分别代表两帧的序号。
(6.3)设置合理的阈值τ,得到帧差掩模图像FDMgray,计算公式如下:
Figure GSB00000166772300081
(6.4)将RGB颜色空间转化到HSV颜色空间,分别求出三个分量的帧差掩模图像FDMH、FDMS、FDMV并进行或运算,得到关于HSV空间的帧差掩模图像FDMHSV如下:
FDMHSV=FDMH|FDMS|FDMV                    (7)
(6.5)将灰度帧差掩模图像与HSV空间的帧差掩模图像进行或运算,得到联合帧差掩模图像FDM:
FDM=FDMgray|FDMHSV                       (8)
(6.6)对FDM进行数学形态学的膨胀或腐蚀运算,去除零散的噪声干扰,并填充运动对象区域的空洞,得到分割结果。
作为技术方案的进一步改进,所述的步骤(7)具体包括以下步骤:
(7.1)步骤(6)中取得的运动对象区域经过中值滤波之后,按照Lue Vincent算法进行分水岭算法变换;
(7.2)分水岭算法往往会因为噪音以及图像纹理造成许多小区域的过分割,因此把空间与时间信息同时考虑,运用区域合并来消除这种影响。分水岭算法的输出是N个区域{R1,R2,…,RN},Ri区域像素的个数是Ni,则Ri区域内颜色均值μi和方差定义
Figure GSB00000166772300082
如下:
μ i = 1 N i Σ i = 1 N i X i - - - ( 9 )
σ i 2 = 1 N i Σ i = 1 N i | X i - μ i | 2 - - - ( 10 )
其中Xi是某个像素的颜色值。
(7.3)用Fisher距离度量两个相邻区域的相异度:
Figure GSB00000166772300091
其中,Dmn表示相邻区域Rm和Rn的相异度,μm和μn分别表示区域Rm和Rn的颜色均值;m、n分别介于1~N之间。Fisher距离越大表明两个区域之间颜色相关性越小;反之Fisher距离越小表明两个区域颜色相关性越大,可以考虑合并两区域。Nm表示区域Rm的像素个数,Nn表示区域Rn的像素个数,Rm和Rn表示R1~RN之间任意的两个相邻区域;
(7.4)用颜色均值进行类距离测量考察相邻两帧的差别,定义:
d k abs ( x , y ) = | p k + 1 I - p k I | - - - ( 12 )
表示图像在第k和第k+1帧的颜色均值差分,其中,
Figure GSB00000166772300093
Figure GSB00000166772300094
分别表示第k和第k+1帧的颜色均值;则在Rm和Rn之间的时间距离Bmn定义为:
B mn = 1 N mn Σ ( x m , y m ) ∈ R m , ( x n , y n ) ∈ R n | d k abs ( x m , y m ) - d k abs ( x n , y n ) | - - - ( 13 )
其中,Nmn是区域Rm和Rn的像素个数之和;xm表示在第k+1帧上的区域Rm所对应的区域,ym是在第k帧上的区域Rm所对应的区域;Xn和yn的含义同上;Bmn是区域Rm和Rn在边界上前后两帧之间的强度差,Bmn值越大,表明两个区域存在运动相关;反之表明该区域或者属于背景,或者属于同一运动对象,考虑进行合并;
(7.5)基于对空间域和时间域的区域距离定义,应用下式就是相邻两区域的联合距离:
ω = 1 2 ( D mn + B mn ) - - - ( 14 )
(7.6)当两个相邻区域的联合距离ω小于阈值TM时就合并这两个区域,当重复执行N1次之后,若尚有若干较小区域未合并;如果这些较小区域内包含的像素个数S小于阈值SM,且此区域与相邻区域最小联合距离ωmin小于阈值TN,且TN>TM,则合并这两个区域;重复执行N2次得到最终的合并结果。
本发明的有益效果主要表现在:1、视频场景检测过程简单,能以快速有效、地检测出场景变换,精确到帧,避免误检;2、无缝拼接方案较简单、快捷,资源消耗较低,误码率低;3、在视频对象检测中运用时空结合的方法,克服了由于噪音引起的过分割现象,改善了分割质量,提高了分割精度。
具体实施方式
下面通过实施例,对本发明的技术方案作进一步具体的说明。
实施例:一种多媒体视频对象处理方法,该方法包括以下步骤:
(1)标准的MPEG视频格式的语法结构的最上层是帧图像组GOP(Groupof picture),由三种主要的压缩类型的图像帧(I帧、P帧、B帧)组成,一个GOP可分为3种子类(SGOP,Sub Group of picture)。在处理视频时,分别对每个SGOP中各帧的宏块(MB,Marco Block)的类型进行分析,凡是满足一定规则的,就认为有一个MB发生了变化。将各帧发生变化的MB个数与总的MB个数相比得到镜头变化可能程度c,c越接近1,表明镜头发生转换的几率就越大。设置某个阈值t,若c>t,则认为场景发生了变化,进行分割;
具体包括以下步骤:
(1.1)MPEG视频中的一个帧图像组(GOP)由三种主要的压缩类型的图像帧组成,包括I帧、P帧、B帧,其标准结构为:IBBPBBPBBPBBPBB;将帧图像组(GOP)分为三类子类:PBBP结构子类,PBBI结构子类和IBBP结构子类;在帧图像组的所述标准结构中,按顺序排列的前一个子类的最后一帧图像即是后面一个子类的第一帧图像,所以除帧图像组第一个子类外只需分析其它子类的最后3帧图像即可;
(1.2)将可能发生在一个帧图像组(GOP)中的场景变换分为三类:变换发生在P帧或I帧,称为SPI;变换发生在前面的B帧,称为SFB;变换发生在后面的B帧,称为SRB;
(1.3)宏块(MB)的变化类型参考以下规则:
(1.3.1)对于SPI而言,两个B帧图像(Bf,Br)的大多数宏块(MB)都是前向运动补偿方式,称为F模式,它们与后面的参考帧Pr更相似;参考帧Pr为场景变换所在的帧,大多数宏块(MB)都是帧内编码,称为I模式;
(1.3.2)对于SFB而言,参考帧(Pr)中的大多数宏块(MB)也是I模式,但是由于在B帧图像Bf处镜头内容发生了变化,B帧图像Bf和B帧图像Br图像的内容与后面参考帧的内容相似,因此两个B帧的大多数宏块(MB)将是后向运动补偿方式,称为B模式;
(1.3.3)对于SRB,由于镜头内容在后面的B帧处发生了变化,所以B帧图像Bf与后面的参考帧不相似,它的大多数宏块(MB)为F模式;而B帧图像Br与前面的参考帧不相似,它的大多数宏块(MB)为B模式;
(1.4)在检测镜头时,分别对子类(SGOP)各帧的宏块(MB)类型进行分析,凡是类型关系满足上述规则之一的,就认为有一个宏块(MB)发生了变化;
(1.5)统计各帧中宏块发生变化的次数,与总的宏块数量相比,若大于一定的阈值t,则认为场景发生了变化,进行切割。
(2)预读两个要进行拼接的标准MPEG视频流,分别找到两个视频流的节目关联表(PAT),通过节目关联表(PAT)找到相应的节目映射表(PMT),然后在节目映射表(PMT)里面得到音频、视频和节目时钟基准(PCR)的识别符(PID),并寻找合适的拼接场景;
具体包括以下步骤:
(2.1)从视频流的开始,寻找载有节目关联表(PAT)信息的数据包,从中可获得该视频流复用节目数、每路节目的节目号和每路节目的节目映射表(PMT)的识别符(PID)等信息;
(2.2)通过节目映射表(PMT)的识别符(PID),在视频流里找到包含节目映射表(PMT)信息的数据包,从中查出该路节目的节目时钟基准(PCR)的识别符(PID),判断某个对象是音频还是视频;
(2.3)通过得到的视频的识别符(PID),获取视频序列头信息,判断两个视频流编码的类、级、图像大小、幅型比、帧率等信息是否相同,如果不同,则不能拼接;同时,根据得到的节目时钟基准(PCR)的识别符(PID),取得两个视频流的码率;
(2.4)对视频图像进行预览,寻找预览图像周围的部分拼接点,得到主观合适的拼接点,节省资源并提高处理速度。
(3)寻找视频拼接的入点和出点,并对接入的视频流的各种信息进行调整,主要包括:视频流的节目专用信息(PSI),音频、视频传输流数据包的识别符(PID),包含节目时钟基准(PCR)的传输流数据包的识别符PID,以及所有这些传输流数据包的版本号,同时修改第二个视频流的时间信息;
具体包括以下步骤:
(3.1)对于一组标准MPEG视频序列,出点只能在I帧或P帧之前最后一帧的最后一个数据结束点,入点只能在I帧(包括I帧前面的序列头和图组头)的第一个数据;
(3.2)以预览图像中得到的预览位置为起点,向前和向后搜寻一定数量的视频传输流包,判断该传输流包是不是一个图像的开头,如果是,判断该图像的帧类型是I帧、P帧还是B帧;若是I帧,则该传输流包可以直接作为该传输流的一个入点包,也就是说可以从这个传输流包开始进入该视频流;同样,如果判断出该传输流包包含I帧或P帧的图像头,则该包前面的一个传输流包就可以作为该视频流的一个出点包;
(3.3)找到可能的拼接点后,记录拼接点的信息,包括:拼接点的位置(包括接口帧在传输流里的起始和结束位置),拼接点类型(出点还是入点),接口帧的帧类型,接口帧的显示时间标记(PTS)和解码时间标记(DTS),DTS的间隔值,接口帧从开始到下一帧开始在传输流里所占的数据包数,接口帧净打包的基本流(PES)包数据在传输流里所占的数据包数等;
(3.4)把拼入视频流中除了节目关联表(PAT)的传输流包之外所有需要识别符(PID)进行识别的传输流包,其识别符(PID)都改成与拼出视频流一致,同时把节目关联表(PAT)和节目映射表(PMT)的内容替换为拼出流的相应内容以保证正确解码;
(3.5)对时间信息进行调整,在拼出流的出点之前找到最近的一个节目时钟基准(PCR)值PCR1,记录该PCR字段距离拼出点的字节数i1,该PCR字段的最后一位字节进入系统目标解码器的时间为t1;同样再找到入流的入点之后最近的PCR值PCR2,记录i2和t2,则第二个流PCR的调整量Time_offset的计算方法如下:
Time _ offset = i 1 + i 2 rate + ( t 1 - t 2 ) - - - ( 1 )
其中rate为视频的码率,若两个视频码率不同,则公式(1)记为:
Time _ offset = i 1 rate 1 + i 2 rate 2 + ( t 1 - t 2 ) - - - ( 2 )
入流拼接点之后的每一个节目时钟基准PCR处理后的时间值t与其处理前的原值t’的关系如下:
t=t′+Time_offset             (3)
(4)根据已经存在的视频拼接点选取合适的音频拼接点,保证音频和视频同步拼接;具体包括以下步骤:
(4.1)根据对拼接点所记录的显示时间标记(PTS)信息,找到显示时间标记(PTS)与之最为接近的音频帧的位置,保证出点的音频比视频提前、入点的音频比视频滞后;
(4.2)一般出流音频不止一帧,在开始插入入流视频时,中间遇到入流音频包时用出流音频替换,如果出流音频包多于入流音频包,则多余的部分堆积在入流视频数据之后。
(5)设置视频缓冲区验证模型,简称VBV(video buffering verifier),使解码器输入端有码流缓冲区,使不规则的帧边界规则化;同时通过调节视频流中空包的数量,将进行拼接的两个视频的码率调整为一致,保证视频的无缝拼接;
(6)基于变化检测对视频图像进行提取:首先将两帧彩色图像转化为灰度图像,设置合适的阈值得到灰度帧差掩模图像,同理取得HSV彩色空间的帧差掩模图像,两者进行或运算得到联合帧差图像;通过数学形态学的膨胀和腐蚀操作得到运动对象的形状区域并进行提取;具体包括以下步骤:
(6.1)对视频序列中的两帧进行灰度化,灰度化的公式是:
Gray=0.229R+0.587G+0.114B                        (4)
(6.2)对两帧灰度图像进行帧差计算,计算公式是:
d=fq(x,y)-fs(x,y),q>s                        (5)
其中q,s分别代表两帧的序号。
(6.3)设置合理的阈值τ,得到帧差掩模图像FDMgray,计算公式如下:
Figure GSB00000166772300141
(6.4)将RGB颜色空间转化到HSV颜色空间,分别求出三个分量的帧差掩模图像FDMH、FDMS、FDMV并进行或运算,得到关于HSV空间的帧差掩模图像FDMHSV如下:
FDMHSV=FDMH|FDMS|FDMV                        (7)
(6.5)将灰度帧差掩模图像与HSV空间的帧差掩模图像进行或运算,得到联合帧差掩模图像FDM:
FDM=FDMgray|FDMHSV                (8)
(6.6)对FDM进行数学形态学的膨胀或腐蚀运算,去除零散的噪声干扰,并填充运动对象区域的空洞,得到分割结果。
(7)对得到的运动对象区域经预处理后进行分水岭变换,并进行时域和空域的区域合并,实现运动对象的精确分割。具体包括以下步骤:
(7.1)步骤(6)中取得的运动对象区域经过中值滤波之后,按照Lue Vincent算法进行分水岭算法变换;
(7.2)分水岭算法往往会因为噪音以及图像纹理造成许多小区域的过分割,因此把空间与时间信息同时考虑,运用区域合并来消除这种影响。分水岭算法的输出是N个区域{R1,R2,…,RN},Ri区域像素的个数是Ni,则Ri区域内颜色均值μi和方差定义
Figure GSB00000166772300151
如下:
μ i = 1 N i Σ i = 1 N i X i - - - ( 9 )
σ i 2 = 1 N i Σ i = 1 N i | X i - μ i | 2 - - - ( 10 )
其中Xi是某个像素的颜色值。
(7.3)用Fisher距离度量两个相邻区域的相异度:
Figure GSB00000166772300154
其中,Dmn表示相邻区域Rm和Rn的相异度,μm和μn分别表示区域Rm和Rn的颜色均值;m、n分别介于1~N之间。Fisher距离越大表明两个区域之间颜色相关性越小;反之Fisher距离越小表明两个区域颜色相关性越大,可以考虑合并两区域,Nm表示区域Rm的像素个数,Nn表示区域Rn的像素个数,Rm和Rn表示R1~RN之间任意的两个相邻区域;
(7.4)用颜色均值进行类距离测量考察相邻两帧的差别,定义:
d k abs ( x , y ) = | p k + 1 I - p k I | - - - ( 12 )
表示图像在第k和第k+1帧的颜色均值差分,其中,
Figure GSB00000166772300162
Figure GSB00000166772300163
分别表示第k和第k+1帧的颜色均值。则在Rm和Rn之间的时间距离Bmn定义为:
B mn = 1 N mn Σ ( x m , y m ) ∈ R m , ( x n , y n ) ∈ R n | d k abs ( x m , y m ) - d k abs ( x n , y n ) | - - - ( 13 )
其中,Nmn是区域Rm和Rn的像素个数之和;xm表示在第k+1帧上的区域Rm所对应的区域,ym是在第k帧上的区域Rm所对应的区域;xn和yn的含义同上;Bmn是区域Rm和Rn在边界上前后两帧之间的强度差,Bmn值越大,表明两个区域存在运动相关;反之表明该区域或者属于背景,或者属于同一运动对象,考虑进行合并;
(7.5)基于对空间域和时间域的区域距离定义,应用下式就是相邻两区域的联合距离:
ω = 1 2 ( D mn + B mn ) - - - ( 14 )
(7.6)当两个相邻区域的联合距离ω小于阈值TM时就合并这两个区域,当重复执行N1次之后,若尚有若干较小区域未合并;如果这些较小区域内包含的像素个数S小于阈值SM,且此区域与相邻区域最小联合距离ωmin小于阈值TN,且TN>TM,则合并这两个区域;重复执行N2次得到最终的合并结果。
本发明总体包括视频处理的三方面内容,分别是:对视频中进行场景分割,对视频进行无缝拼接,从视频中进行运动对象截取。
为了对视频进行有效的组织,需要将视频分解为基本单元。一般认为视频的基本物理单元是镜头,一个镜头是指一系列连续记录的图像帧,用于表示一个连续时间段或者相同地点的一段有意义的帧的组合,由摄像机的一次连续摄像的开始和结束决定。
对视频进行场景分割的基本原理在于判别出相邻两帧在内容上存在着较大的差异。所以,场景分割需要一些合适的量化度值,以确定能够捕获相邻两帧之间的特征是否发生较大变化。如果特征差值超过了一个给定的阈值,则意味着出现一个分割边界。因此,自动分割的关键问题是建立合适的特征差值度量技术来确定切分点,需要解决以下问题:(1)选用何种参量来表示帧间差异;(2)确定镜头变化的检测规则;(3)镜头变化的阈值选择;(4)如何提取关键帧来有效地表示场景。
按照传统的在非压缩域内进行镜头检测的方法,需要对压缩的视频进行解压缩解码,这将耗费大量的处理时间和设备开销。如今压缩格式的图像或视频的使用越来越广泛,基于内容的视频检索需求不断增加,使得传统方法中解压缩编码所需的额外/重复费用不断增加。本发明提出的在标准MPEG压缩域内进行场景检索和分割,可以不需要解码或只需要部分解码。
标准的MPEG视频由三种不同的帧组成,I帧、P帧、B帧,且有标准的格式:IBBPBBPBBPBBPBB。三种不同类型的帧在视频场景分割中有着不同的应用,其中:I帧图像为帧内编码,不依赖之前或之后的任何帧。当一个场景变换发生在两个连续的I帧之间时,两幅图像是有很大差别的;当一个镜头变换发生在P帧和前一个I帧或P帧之间时,两者之间差别很明显,导致了P帧前向预测编码的宏块数目大幅度减少,通过计算P帧图像的内部编码宏块与整个帧图像所有宏块之比,可检测出变换发生所在的帧;当一个镜头变换发生在B帧时,当前B帧的内容与前一个参考帧之间存在较大差别,并且此B帧与下一个参考帧会特别相似。此时,B帧中的大多数运动向量参考下一帧,其中的宏块大多数为后向预测。
基于宏块信息的视频场景分割算法如下:
Step 1.通过检测I帧,分析相邻两个GOP中I帧宏块编码数据量,通过计算两个I帧中宏块的数量差,如果宏块数量之差大于某个阈值,则认为有场景变换发生在当前GOP;反之,则重复步骤1检测下一个GOP,否则执行步骤Step2;
Step 2.分析P4,P7,P10,P13,通过计算P帧图像的内部编码宏块与整个帧图像所有宏块之比,即可检测出变换发生所在的帧,进一步定位出变换所发生的帧后执行步骤Step 3;
Step 3.假设Step 2检测所得为P4,则利用B帧检测算法分析B2,B3,如果算法中只存在一个峰值,则对应峰值所在的帧为场景变换帧;如果存在两个峰值,则第一个峰值所在的帧为场景变换帧;如果没有出现峰值,则说明P4帧即为场景变换帧;
Step 4.按照Step 3分析P7,P10,P13
Step 5.如前4步骤没有检出可疑的P帧,则下一个GOP中的I1帧为场景变换帧。
本发明的算法的有益效果表现在:
(1)在压缩域中,数据量比原始域上或解压域上的数据量要少得多,有利于提高整个系统的效率,尤其是要求实时响应的场合;
(2)在压缩域上可(部分)省略解压缩的附加环节,减少处理时间和设备开销;
(3)许多视频压缩算法在压缩过程中已对视频进行了大量的处理和分析,在压缩域上的帧图像的许多特征信息就包含在压缩系数中,充分利用这些处理和分析的结果,可以减少场景检索和分割时的计算量,提高检索效率;
(4)本发明的场景变换检测是基于MPEG压缩视频中的帧的变化,精确到帧,查全率和查准率高。
视频的无缝拼接的关键在于拼接点的选取及处理,选取拼接点意味着在第一个节目流和第二个节目流中各自找到一个切断点(退出点和接入点),并且保证这两个切断点衔接起来以后视频衔接自然,播放流畅。
选取两个视频拼接点时,可以通过预览图像,只寻找预览图像定位周围的一部分拼接点,不需要把一个文件所有的拼接点都找出来,这样会节省资源和提高处理速度。
对于第一个视频流来说,只能从连续B帧的最后一个结束处所在的传输流分组切断,从I帧、P帧或是非连续B帧的最后一个结束处所在传输流分组切断都会造成一部分显示帧的缺失,同时需要将B帧结束处后面剩余的传输流分组内容用0xFF填充。
对于第二个视频流,从GOP第一个I帧的起始位置所在传输流组开始续接,在第一个节目播放的同时,循环定位第二个节目GOP第一个I帧的起始位置所在传输流分组,如此操作两次,并预先将这两个位置之间的所有传输流分组内容读入缓存,对open型GOP,还需对I帧后的连续B帧进行预处理,一旦需要发生拼接动作,即从缓存中取出数据直接插入第一个视频流的退出点,实现接入点的低延迟。
节目关联表PAT和节目映射表PMT提供视频被正确解码的索引信息,在进行视频拼接时,两者的PAT和PMT是不同的,因此,为了使拼接后的新视频符合MPEG的标准规范,应该将这些信息修改为一致,才能成为一个规范的视频。
PAT和PMT需要进行CRC32校验码计算,因此预先提取两个视频流的PAT和PMT所在传输流分组,分别获取其关键字段信息,然后以第一个视频流的PAT和PMT关键字段为标准来修改第二个视频流的相应字段,使之和第一个节目流一致,并重新进行CRC32校验码计算。在拼接事件发生时,应首先于拼接点处插入已预处理好的第二个视频流的PAT和PMT所在传输流分组,然后再接入第二个视频流的视频、音频等其他内容。在第二个视频流中,如出现PAT或PMT,则用预处理好的相关数据直接替换。
由于插入视频的PAT和PMT进行了修改,则其原有的视频、音频传输流分组的识别符亦要作相应的修改,与之保持一致,否则将不能正确解码。
在拼接点处,两节目流的节目时钟基准PCR及显示时间标记PTS/TS必然出现不连续,如果不加处理而直接送入解码器解码,将会出现黑屏或者抖动等现象。因此,PCR及PTS/TS字段都需进行重新计算、更新,这是实现无缝拼接的一个关键点。
对于音频信息而言,由于在处理拼接点时是从视频传输流分组角度考虑,这样就很可能造成拼接点前后两个视频流的音频传输流分组不是以一个完整的基本流包数据PES分组结束或者开始,因此有必要分析判断音频PES分组是否完整。
最后通过调节码率实现视频的无缝拼接,从视频A的最后一个显示画面平滑过渡到节目B的第一个显示画面。
本发明方案主要在系统层对两个传输流进行无缝拼接,不经过视频接压缩、解码、编码和重新复用的过程。该方案的关键技术是选择合适的拼接点、调整PSI信息、调整时间信息和音频、视频同步处理等。该方案基本不改变原始流内容,其中最复杂的是获取拼接点的信息和对拼接点附近码流进行处理,其余部分基本就是读取和存储文件。该方法较简单、快捷,资源消耗较低,能在客观上满足MPEG-2标准要求,主观上图像衔接连续,不会出现解码错误和音视频失同步现象。
对于从视频中进行运动目标区域定位的原理是检测序列图像中与背景存在相对运动的前景,将运动前景分割为若干独立目标,即从相邻的两帧或几帧图像中检测出存在相对运动的区域,通常对图像进行差分运算。一个好的目标检测和分割算法,应该能适用于各种环境,通常应具有以下的特征:(1)对环境的缓慢变化(如光照变化等)不敏感;(2)对于复杂背景和复杂目标有效;(3)能适应场景中个别物体运动的干扰(如树木的摇晃,水面的波动等);(4)能够去除目标阴影的影响;(5)检测和分割的结果应满足后续处理的精度要求。
在视频运动目标检测过程中,本发明采用了时间域和空间域区域合并的方法。首先运用常规的方法,通过时域分割,即将运动的对象从相对固定的背景中提取出来,采取的方法是帧差法。在传统方法下,帧差图像都采用图像的灰度特征,但对于那些对比度较低的图像,或者当前景和背景的灰度很接近时,这种方法就会遗漏一些属于变化区域的像素。因此,本发明提出了一种灰度帧差图像结合HSV彩色空间帧差图像的方法,将两者进行或运算,可以很好的检测出运动对象的大概位置,尽管背景中还是存在一定的离散的噪音点。
检测出运动对象的大概位置后,对检测结果进行处理。由于运动物体内部颜色比较一致,利用帧差法并不能把所有属于物体内部的点都确定出来,这样就会在物体内部形成“空洞”现象,这些“空洞”是属于前景的。因此对于这种情况需要对“空洞”区域进行填充,采用数学形态学的膨胀和腐蚀操作,目的在于填充内部空洞,去除图像中存在的离散的噪声点,并且平滑运动对象区域,这样就得到了在时间域分割的最终结果。
在传统的方法中,基于时间域的方法是独立的,该方法适用于一些场合,可以取得比较好的检测分割效果。但是由于场景中存在噪声,以及运动估计所固有的遮挡和孔径问题,使得时域分割过程不可避免的存在误差,可能会有部分运动区域在跟踪过程中丢失;另外,如果部分对象区域停止运动的话,时域分割时检测不到区域运动,同样会导致部分运动对象的丢失;同时,基于运动的分割方法一般对有较大运动的目标分割效果不好,影响到运动分割的精度,不能准确逼近运动物体的边缘,因此本发明提出了运用时间域和空间域的区域合并的方法来进行运动目标检测。
对于前面利用帧差法获得的运动对象区域,再对其进行分水岭算法,能得到图像对象封闭、准确的边缘,能较好的提取对象的轮廓,两者结合能够极大提高运动对象检测的精度。通常,需要分割的目标是图像中的某个运动对象,但是该对象在图像中所占面积往往只占整幅图像的50%以下,因此,如果对整个图像进行分水岭变换以及区域合并,也就需要对大块的背景区域进行操作,这样就会浪费很多没有必要时间。由于分水岭算法本身的运算速度较慢,所以首先运用帧差法取得大致的运动对象区域,可以有效减少分水岭算法的运算量,对于提高运算效率是大有裨益的。
时空联合的分割方法综合利用了时间域的帧间运动信息和空间的色度信息,同时进行空间分割和时域分割的方法,是为了提取足够准确的边缘。通过空域分割将图像分割为具有准确语义边界的初始分割区域,时域分割定位图像中的运动区域,最后结合空间分割和时域分割的结果产生鲁棒性较好的分割结果,获得边缘定位较精确的分割对象。
本发明根据MPEG视频的规范,设计了一套完整的处理流程,包括MPEG视频的场景分割、音视频的无缝拼接以及基于视频的运动对象检测。实验结果证明,本发明算法快速高效,有效提高了视频分割、拼接的效率,降低了系统资源要求,运动对象检测精度高。
以上实施例仅是本发明较有代表性的例子。显然,本发明不限于上述实施例,还可以有许多变形。凡是依据本发明的技术实质对以上实施例所作的任何简单修改、等同变化与修饰,均应认为属于本发明的保护范围。

Claims (6)

1.一种多媒体视频对象处理方法,所述方法包括以下步骤:
(1)标准的MPEG视频格式的语法结构的最上层是帧图像组,由三种主要的压缩类型的图像帧组成,包括I帧、P帧、B帧;一个帧图像组可分为3种子类,其特征在于,在处理视频时,分别对每个子类中各帧的宏块的类型进行分析,凡是满足一定规则的,就认为有一个宏块发生了变化,将各帧发生变化的宏块个数与总的宏块个数相比得到镜头变化可能程度c,c越接近1,表明镜头发生转换的几率就越大;设置某个阈值t,若c>t,则认为场景发生了变化,进行分割;
所述步骤(1)具体包括以下步骤:
(1.1)MPEG视频中的一个帧图像组由三种主要的压缩类型的图像帧组成,包括I帧、P帧、B帧,其标准结构为:IBBPBBPBBPBBPBB;将帧图像组分为三类子类:PBBP结构子类,PBBI结构子类和IBBP结构子类;在帧图像组的所述标准结构中,按顺序排列的前一个子类的最后一帧图像即是后面一个子类的第一帧图像,所以除帧图像组第一个子类外只需分析其它子类的最后3帧图像即可;
(1.2)将可能发生在一个帧图像组中的场景变换分为三类:变换发生在P帧或I帧,称为SPI;变换发生在前面的B帧,称为SFB;变换发生在后面的B帧,称为SRB;
(1.3)宏块的变化类型参考以下规则:
(1.3.1)对于SPI而言,两个B帧图像Bf和Br的大多数宏块都是前向运动补偿方式,称为F模式,它们与后面的参考帧Pr更相似;参考帧Pr为场景变换所在的帧,大多数宏块都是帧内编码,称为I模式;
(1.3.2)对于SFB而言,参考帧Pr中的大多数宏块也是I模式,但是由于在B帧图像Bf处镜头内容发生了变化,B帧图像Bf和B帧图像Br图像的内容与后面参考帧的内容相似,因此两个B帧的大多数宏块将是后向运动补偿方式,称为B模式;
(1.3.3)对于SRB,由于镜头内容在后面的B帧处发生了变化,所以B帧图像Bf与后面的参考帧不相似,它的大多数宏块为F模式;而B帧图像Br与前面的参考帧不相似,它的大多数宏块为B模式;
(1.4)在检测镜头时,分别对子类各帧的宏块类型进行分析,凡是类型关系满足上述规则之一的,就认为有一个宏块发生了变化;
(1.5)统计各帧中宏块发生变化的次数,与总的宏块数量相比,若大于一定的阈值t,则认为场景发生了变化,进行切割;
(2)预读两个要进行拼接的标准MPEG视频流,分别找到两个视频流的节目关联表,通过节目关联表找到相应的节目映射表,然后在节目映射表里面得到音频、视频和节目时钟基准的识别符的信息,并寻找合适的拼接场景;
(3)寻找视频拼接的入点和出点,并对接入的视频流的各种信息进行调整,主要包括:视频流的节目专用信息,音频及视频传输流数据包的识别符,包含节目时钟基准的传输流数据包的识别符,以及所有这些传输流数据包的版本号,同时修改第二个视频流的时间信息;
(4)根据已经存在的视频拼接点选取合适的音频拼接点,保证音频和视频同步拼接;
(5)设置视频缓冲区验证模型,使解码器输入端有码流缓冲区,使不规则的帧边界规则化;同时通过调节视频流中空包的数量,将进行拼接的两个视频的码率调整为一致,保证视频的无缝拼接;
(6)基于变化检测对视频图像进行提取:首先将两帧彩色图像转化为灰度图像,设置合适的阈值得到灰度帧差掩模图像,同理取得HSV彩色空间的帧差掩模图像,两者进行或运算得到联合帧差图像;通过数学形态学的膨胀和腐蚀操作得到运动对象的形状区域并进行提取;
(7)对得到的运动对象区域经预处理后进行分水岭变换,并进行时域和空域的区域合并,实现运动对象的精确分割。
2.根据权利要求1所述的多媒体视频对象处理方法,其特征是所述的步骤(2)具体包括以下步骤:
(2.1)从视频流的开始,寻找载有节目关联表信息的数据包,从中可获得该视频流复用节目数、每路节目的节目号和每路节目的节目映射表的识别符信息;
(2.2)通过节目映射表的识别符,在视频流里找到包含节目映射表信息的数据包,从中查出该路节目的节目时钟基准的识别符,判断某个对象是音频还是视频;
(2.3)通过得到的视频的识别符,获取视频序列头信息,判断两个视频流编码的类、级、图像大小、幅型比、帧率等信息是否相同,如果不同,则不能拼接;同时,根据得到的节目时钟基准的识别符,取得两个视频流的码率;
(2.4)对视频图像进行预览,寻找预览图像周围的部分拼接点,得到主观合适的拼接点,节省资源并提高处理速度。
3.根据权利要求1所述的多媒体视频对象处理方法,其特征是所述的步骤(3)具体包括以下步骤:
(3.1)对于一组标准MPEG视频序列,出点只能在I帧或P帧之前最后一帧的最后一个数据结束点,入点只能在I帧的第一个数据;
(3.2)以预览图像中得到的预览位置为起点,向前和向后搜寻一定数量的视频传输流包,判断该传输流包是不是一个图像的开头,如果是,判断该图像的帧类型是I帧、P帧还是B帧;若是I帧,则该传输流包可以直接作为该传输流的一个入点包,也就是说可以从这个传输流包开始进入该视频流;同样,如果判断出该传输流包包含I帧或P帧的图像头,则该包前面的一个传输流包就可以作为该视频流的一个出点包;
(3.3)找到可能的拼接点后,记录拼接点的信息,包括:拼接点的位置,拼接点类型,接口帧的帧类型,接口帧的显示时间标记PTS和解码时间标记DTS,DTS的间隔值,接口帧从开始到下一帧开始在传输流里所占的数据包数,接口帧净打包的基本流PES包数据在传输流里所占的数据包数;
(3.4)把拼入视频流中除了节目关联表的传输流包之外所有需要识别符进行识别的传输流包,其识别符都改成与拼出视频流一致,同时把节目关联表和节目映射表的内容替换为拼出流的相应内容以保证正确解码;
(3.5)对时间信息进行调整,在拼出流的出点之前找到最近的一个节目时钟基准值PCR1,记录该节目时钟基准字段距离拼出点的字节数i1,该节目时钟基准字段的最后一位字节进入系统目标解码器的时间为t1;同样再找到入流的入点之后最近的节目时钟基准值PCR2,记录i2和t2,则第二个流节目时钟基准的调整量Time_offset的计算方法如下:
Time _ offset = i 1 + i 2 rate + ( t 1 - t 2 ) - - - ( 1 )
其中rate为视频的码率,若两个视频码率不同,则公式(1)记为:
Time _ offset = i 1 rate 1 + i 2 rate 2 + ( t 1 - t 2 ) - - - ( 2 )
入流拼接点之后的每一个节目时钟基准处理后的时间值t与其处理前的原值t’的关系如下:
t=t′+Time_offset                    (3)
4.根据权利要求1所述的多媒体视频对象处理方法,其特征是所述的步骤(4)具体包括以下步骤:
(4.1)根据对拼接点所记录的显示时间标记PTS信息,找到显示时间标记与之最为接近的音频帧的位置,保证出点的音频比视频提前、入点的音频比视频滞后;
(4.2)一般出流音频不止一帧,在开始插入入流视频时,中间遇到入流音频包时用出流音频替换,如果出流音频包多于入流音频包,则多余的部分堆积在入流视频数据之后。
5.根据权利要求1所述的多媒体视频对象处理方法,其特征是所述的步骤(6)具体包括以下步骤:
(6.1)对视频序列中的两帧进行灰度化,灰度化的公式是:
Gray=0.229R+0.587G+0.114B                (4)
(6.2)对两帧灰度图像进行帧差计算,计算公式是:
d=fq(x,y)-fs(x,y),q>s                (5)
其中q,s分别代表两帧的序号;
(6.3)设置合理的阈值τ,得到帧差掩模图像FDMgray,计算公式如下:
Figure FSB00000166772200051
(6.4)将RGB颜色空间转化到HSV颜色空间,分别求出三个分量的帧差掩模图像FDMH、FDMS、FDMV并进行或运算,得到关于HSV空间的帧差掩模图像FDMHSV如下:
FDMHSV=FDMH|FDMS|FDMV                    (7)
(6.5)将灰度帧差掩模图像与HSV空间的帧差掩模图像进行或运算,得到联合帧差掩模图像FDM:
FDM=FDMgray|FDMHSV                (8)
(6.6)对FDM进行数学形态学的膨胀或腐蚀运算,去除零散的噪声干扰,并填充运动对象区域的空洞,得到分割结果。
6.根据权利要求1所述的多媒体视频对象处理方法,其特征是所述的步骤(7)具体包括以下步骤:
(7.1)步骤(6)中取得的运动对象区域经过中值滤波之后,按照Lue Vincent算法进行分水岭算法变换;
(7.2)分水岭算法往往会因为噪音以及图像纹理造成许多小区域的过分割,因此把空间与时间信息同时考虑,运用区域合并来消除这种影响;分水岭算法的输出是N个区域{R1,R2,…,RN},Ri区域像素的个数是Ni,则Ri区域内颜色均值μi和方差定义
Figure FSB00000166772200061
如下:
μ i = 1 N i Σ i = 1 N i X i - - - ( 9 )
σ i 2 = 1 N i Σ i = 1 N i | X i - μ i | 2 - - - ( 10 )
其中Xi是某个像素的颜色值;
(7.3)用Fisher距离度量两个相邻区域的相异度:
Figure FSB00000166772200064
其中,Dmn表示相邻区域Rm和Rn的相异度,μm和μn分别表示区域Rm和Rn的颜色均值;m、n分别介于1~N之间;Fisher距离越大表明两个区域之间颜色相关性越小;反之Fisher距离越小表明两个区域颜色相关性越大,可以考虑合并两区域;Nm表示区域Rm的像素个数,Nn表示区域Rn的像素个数,Rm和Rn表示R1~RN之间任意的两个相邻区域;
(7.4)用颜色均值进行类距离测量考察相邻两帧的差别,定义:
d k abs ( x , y ) = | p k + 1 I - p k I | - - - ( 12 )
表示图像在第k和第k+1帧的颜色均值差分,其中,
Figure FSB00000166772200066
分别表示第k和第k+1帧的颜色均值;则在Rm和Rn之间的时间距离Bmn定义为:
B mn = 1 N mn Σ ( x m , y m ) ∈ R m , ( x n , y n ) ∈ R n | d k abs ( x m , y m ) - d k abs ( x n , y n ) | - - - ( 13 )
其中,Nmn是区域Rm和Rn的像素个数之和;xm表示在第k+1帧上的区域Rm所对应的区域,ym是在第k帧上的区域Rm所对应的区域;xn和yn的含义同上;Bmn是区域Rm和Rn在边界上前后两帧之间的强度差,Bmn值越大,表明两个区域存在运动相关;反之表明该区域或者属于背景,或者属于同一运动对象,考虑进行合并;
(7.5)基于对空间域和时间域的区域距离定义,应用下式就是相邻两区域的联合距离:
ω = 1 2 ( D mn + B mn ) - - - ( 14 )
(7.6)当两个相邻区域的联合距离ω小于阈值TM时就合并这两个区域,当重复执行N1次之后,若尚有若干较小区域未合并,如果这些较小区域内包含的像素个数S小于阈值SM,且此区域与相邻区域最小联合距离ωmin小于阈值TN,且TN>TM,则合并这两个区域;重复执行N2次得到最终的合并结果。
CN 200810062899 2008-07-10 2008-07-10 一种多媒体视频对象处理方法 Expired - Fee Related CN101409831B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 200810062899 CN101409831B (zh) 2008-07-10 2008-07-10 一种多媒体视频对象处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 200810062899 CN101409831B (zh) 2008-07-10 2008-07-10 一种多媒体视频对象处理方法

Publications (2)

Publication Number Publication Date
CN101409831A CN101409831A (zh) 2009-04-15
CN101409831B true CN101409831B (zh) 2010-10-27

Family

ID=40572581

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 200810062899 Expired - Fee Related CN101409831B (zh) 2008-07-10 2008-07-10 一种多媒体视频对象处理方法

Country Status (1)

Country Link
CN (1) CN101409831B (zh)

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140139615A (ko) 2010-10-08 2014-12-05 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 블록 분할 및 블록 병합을 지원하는 픽처 코딩
CN102857794B (zh) * 2011-06-28 2018-03-06 上海聚力传媒技术有限公司 一种用于合并视频分段的方法与设备
EP3176729A1 (en) * 2011-09-06 2017-06-07 Intel Corporation Analytics assisted encoding
CN103458271A (zh) * 2012-05-29 2013-12-18 北京数码视讯科技股份有限公司 音视频文件拼接方法和装置
CN102710386A (zh) * 2012-06-18 2012-10-03 南京信息工程大学 一种气象预警信息处理的信道编码系统及其工作方法
CN103514431B (zh) * 2012-06-28 2016-12-21 财团法人车辆研究测试中心 自适应障碍物影像侦测方法
CN103067712A (zh) * 2012-12-31 2013-04-24 北京石竹科技股份有限公司 一种jpeg2000图像的非解码拼接方法
CN103051923B (zh) * 2013-02-04 2014-10-01 成都索贝数码科技股份有限公司 一种用于高速准确拆条的镜头检测方法
CN103414941A (zh) * 2013-07-15 2013-11-27 深圳Tcl新技术有限公司 基于智能电视的节目编辑方法及装置
CN104063871B (zh) * 2014-07-04 2017-03-01 西安电子科技大学 可穿戴设备的图像序列场景分割方法
CN105306973B (zh) * 2014-07-14 2018-08-17 中国科学院声学研究所 一种视频倍速文件的生成方法
CN104243920B (zh) * 2014-09-04 2017-09-26 浙江宇视科技有限公司 一种基于基本流视频数据封装的图像拼接方法及装置
CN104967864B (zh) * 2014-09-26 2019-01-11 腾讯科技(北京)有限公司 一种合并视频的方法及装置
CN105573921A (zh) * 2014-10-15 2016-05-11 中兴通讯股份有限公司 文件存储方法及装置
CN104883478B (zh) 2015-06-17 2018-11-16 北京金山安全软件有限公司 视频处理方法及装置
CN105160633A (zh) * 2015-07-02 2015-12-16 广东欧珀移动通信有限公司 一种图像处理的方法及装置
CN105141973A (zh) * 2015-09-01 2015-12-09 北京暴风科技股份有限公司 多分段的媒体文件拼接方法和系统
CN105472407A (zh) * 2015-12-15 2016-04-06 北京网博视界科技股份有限公司 基于连续图像特征的自动化视频索引及对齐方法
CN106534971B (zh) * 2016-12-05 2019-04-02 腾讯科技(深圳)有限公司 一种音视频剪辑方法及装置
CN106850644A (zh) * 2017-02-17 2017-06-13 山东浪潮商用系统有限公司 一种基于Java语言实现TS包PID修改的方法
CN106803993B (zh) * 2017-03-01 2020-04-07 腾讯科技(深圳)有限公司 一种实现视频分支选择播放的方法及装置
CN109982126A (zh) * 2017-12-27 2019-07-05 艾迪普(北京)文化科技股份有限公司 一种相关视频的叠加方法
CN108093258B (zh) * 2018-01-11 2020-06-16 珠海全志科技股份有限公司 码流数据的解码方法、计算机装置及计算机可读存储介质
CN108694737B (zh) * 2018-05-14 2019-06-14 星视麒(北京)科技有限公司 制作图像的方法和装置
CN109145744B (zh) * 2018-07-19 2020-08-18 西安理工大学 一种基于自适应预测模式的lstm网络行人重识别方法
CN108924518B (zh) * 2018-08-27 2020-10-09 上海蒙彤文化传播有限公司 推介视频中合成方法及相关产品
CN109636829B (zh) * 2018-11-24 2021-01-01 华中科技大学 一种基于语义信息和场景信息的多目标跟踪方法
CN111159468A (zh) * 2019-12-12 2020-05-15 同济大学 一种利用分段和压缩的海底监测视频大数据存储方法
CN111263234B (zh) * 2020-01-19 2021-06-15 腾讯科技(深圳)有限公司 一种视频剪辑的方法、相关装置、设备以及存储介质
CN111784698A (zh) * 2020-07-02 2020-10-16 广州信瑞医疗技术有限公司 一种图像的自适应分割方法、装置,电子设备及存储介质
CN112288757B (zh) * 2020-10-30 2023-09-19 中山大学 一种基于数据打包技术的加密域图像分割优化方法
CN112634303B (zh) * 2020-12-29 2022-02-25 北京深睿博联科技有限责任公司 辅助盲人进行视觉重构的方法、系统、设备和存储介质
CN115567661B (zh) * 2022-09-23 2024-07-23 上海微创医疗机器人(集团)股份有限公司 视频数据的处理方法、系统、计算机设备和存储介质
CN118474353B (zh) * 2024-07-12 2024-10-08 北京前往科技有限公司 一种数字化企业管理过程中信息传输方法及系统

Also Published As

Publication number Publication date
CN101409831A (zh) 2009-04-15

Similar Documents

Publication Publication Date Title
CN101409831B (zh) 一种多媒体视频对象处理方法
US9576202B1 (en) Systems and methods for identifying a scene-change/non-scene-change transition between frames
CN100499751C (zh) 运动图像分割设备、字幕提取设备和方法
CN100471255C (zh) 用于制作和播放具有热点区域的交互式视频的方法
CN101420595B (zh) 一种描述和捕获视频对象的方法及设备
Gao et al. The IEEE 1857 standard: Empowering smart video surveillance systems
JP2007060392A (ja) 画像記憶装置及び方法
CN103428488A (zh) 具有模式检测的视频处理系统及其使用方法
CN101980533A (zh) 一种基于索引文件实现传输流文件特技模式功能的方法
CN113965777B (zh) 组合数字视频内容的方法及系统
CN103503454A (zh) 场景形式的视频流编码
CN106686445A (zh) 对多媒体文件进行按需跳转的方法
CN102724492A (zh) 视频图像传输、播放方法和系统
CN105049875A (zh) 一种基于混合特征与突变检测的精确关键帧提取方法
CN104837031A (zh) 一种高速自适应提取视频关键帧的方法
CN111901603A (zh) 一种用于静态背景视频的编码方法及解码方法
CN103020138A (zh) 一种视频检索的方法和装置
CN105163093B (zh) 一种面向avs监控档的压缩域视频摘要提取方法及装置
Zhang et al. A new edge-based text verification approach for video
He et al. FPGA-based high definition image processing system
Ndjiki-Nya et al. Perception-oriented video coding based on texture analysis and synthesis
Su et al. A novel source mpeg-2 video identification algorithm
De Bruyne et al. Annotation based personalized adaptation and presentation of videos for mobile applications
CN105578186A (zh) 一种镜头推动场景的码流检测方法及系统
CN101902631A (zh) 压缩视频中静态场景的快速定位方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
ASS Succession or assignment of patent right

Owner name: ZHEJIANG BOXSAM ELECTRONIC CO., LTD.

Free format text: FORMER OWNER: ZHEJIANG NORMAL UNIVERSITY

Effective date: 20130510

C41 Transfer of patent application or patent right or utility model
COR Change of bibliographic data

Free format text: CORRECT: ADDRESS; FROM: 321004 JINHUA, ZHEJIANG PROVINCE TO: 321000 JINHUA, ZHEJIANG PROVINCE

TR01 Transfer of patent right

Effective date of registration: 20130510

Address after: 321000 No. 288 Longtan Road, Zhejiang, Jinhua

Patentee after: ZHEJIANG BOXSAM ELECTRONIC Co.,Ltd.

Address before: 321004 Zhejiang province Jinhua City Yingbin Road No. 688

Patentee before: Zhejiang Normal University

CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20101027

CF01 Termination of patent right due to non-payment of annual fee