CN102420985B - 一种多视点视频对象提取方法 - Google Patents

一种多视点视频对象提取方法 Download PDF

Info

Publication number
CN102420985B
CN102420985B CN201110386288.7A CN201110386288A CN102420985B CN 102420985 B CN102420985 B CN 102420985B CN 201110386288 A CN201110386288 A CN 201110386288A CN 102420985 B CN102420985 B CN 102420985B
Authority
CN
China
Prior art keywords
video frame
sub
color video
current color
current
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201110386288.7A
Other languages
English (en)
Other versions
CN102420985A (zh
Inventor
蒋刚毅
周晓亮
郁梅
李福翠
邵枫
彭宗举
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ningbo University
Original Assignee
Ningbo University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ningbo University filed Critical Ningbo University
Priority to CN201110386288.7A priority Critical patent/CN102420985B/zh
Publication of CN102420985A publication Critical patent/CN102420985A/zh
Application granted granted Critical
Publication of CN102420985B publication Critical patent/CN102420985B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Abstract

本发明公开了一种多视点视频对象提取方法,其通过纹理边缘检测、最大类间方差法提取多视点视频中的彩色视频帧的纹理信息和亮度信息,并利用多视点视频中的彩色视频帧对应的深度视频帧,采用前背景分割法获取彩色视频帧的前背景信息,然后将纹理信息、亮度信息和前背景信息相融合得到彩色视频帧的精细掩膜,最后通过运动信息和深度信息进一步地修正得到彩色视频帧最终的对象掩膜,由于本发明方法有效利用了多视点视频的纹理、亮度、深度、运动等多种信息,通过发掘它们之间各自的特性,取长补短,将多种信息有机地融合在一起,因此能够快速分割并提取得到符合人眼视觉感知的精准的视频对象,能够较好地满足多视点视频编码对对象提取方法的要求。

Description

一种多视点视频对象提取方法
技术领域
本发明涉及一种视频对象提取技术,尤其是涉及一种多视点视频编码中基于深度信息的对象提取方法。
背景技术
视频对象是通过视频对象的分割提取获得的,它不仅是实现基于内容的视频编码的前提条件,也是实现基于内容的视频检索和交互式多媒体应用所必需的,可以实现对视觉信息的主观描述、合成、交互。因此,视频对象提取技术在视频编码、模式识别、视频检索等领域有着广泛的应用。
传统的视频对象提取主要利用视频的时空、颜色、纹理等信息,而在立体视频和多视点视频中,除上述信息外,深度信息对视频对象的提取也十分有用。在基于深度和颜色的联合分割中,由于深度分割不能够精确地确定所要分割对象的边界轮廓,而颜色分割则可以得到可靠的分割对象的边界轮廓,因此视频对象的分割是通过在一个深度平面上的颜色分割部分的融合来完成的。但是,这种基于深度和颜色的联合分割方法所耗费的时间依赖于视频内容的复杂程度,通常要比基于主动轮廓的分割方法花费更多的时间,并且不精确的深度分割对最终的分割结果有很大的影响。基于主动轮廓的分割方法是一种基于边界的分割方法,这类方法通常是首先选取恰当的初始轮廓,并且使用梯度信息来定位对象边界,属于半自动的分割方法。然而,基于主动轮廓的分割方法对初始轮廓的选择过于敏感,如果一些边界点偏离了视频对象的轮廓,其分割结果就会受到严重影响。结合运动几何空间的对象分割方法是通过引入运动几何空间(MGS)的概念构建的一种快速、新颖的无监督语义立体视频对象分割方法,这种方法的优势在于计算量小、处理速度快,同时又能得到整体上较为理想的分割结果。然而,这种结合运动几何空间的对象分割方法在某些对象轮廓区域的分割结果质量不佳,所以需要用其它方法进行判别选择。
综上所述,现有的视频对象提取方法存在的问题主要有:对象区域的分割不精确,也即没有完全符合人眼视觉特性;分割代价花费过大,也即计算量大、分割时间长。
发明内容
本发明所要解决的技术问题是提供一种面向多视点图像视频压缩与传输的多视点视频对象提取方法,其能够快速分割并提取到精准的视频对象,符合人眼视觉特性。
本发明解决上述技术问题所采用的技术方案为:一种多视点视频对象提取方法,其特征在于包括以下步骤:
①定义多视点视频中当前正在处理的视点为当前视点,定义当前视点的彩色视频序列中t时刻的彩色视频帧为当前彩色视频帧,记为Ct,定义当前视点的深度视频序列中对应的t时刻的深度视频帧为当前深度视频帧,记为Dt
②采用帧间差分运算计算当前彩色视频帧Ct的帧差图,记为K′t K t &prime; ( x , y ) = 1 , if | C t ( x , y ) - C t - 1 ( x , y ) | &GreaterEqual; Threshold m 0 , if | C t ( x , y ) - C t - 1 ( x , y ) | < Threshold m , 然后对当前彩色视频帧Ct的帧差图K′t进行N×N块化,得到当前彩色视频帧Ct的二值运动区域图,记为Kt,其中,K′t(x,y)表示当前彩色视频帧Ct的帧差图K′t中坐标位置为(x,y)的像素点的像素值,Ct(x,y)表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点的像素值,Ct-1(x,y)表示当前视点的彩色视频序列中t-1时刻的彩色视频帧Ct-1中坐标位置为(x,y)的像素点的像素值,“||”为取绝对值符号,Thresholdm为第一判定阈值,1≤x≤W,1≤y≤H,W表示多视点视频的彩色视频序列中的彩色视频帧和深度视频序列中的深度视频帧的宽度,H表示多视点视频的彩色视频序列中的彩色视频帧和深度视频序列中的深度视频帧的高度,N为一常数,1×1<N×N<W×H;
③对当前彩色视频帧Ct提取纹理边缘,得到当前彩色视频帧Ct的二值纹理区域图,记为St,将当前彩色视频帧Ct的二值纹理区域图St中坐标位置为(x,y)的像素点的像素值记为St(x,y),如果St(x,y)=1,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于纹理区域,如果St(x,y)=0,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于非纹理区域,其中,1≤x≤W,1≤y≤H;
④采用最大类间方差法分割当前彩色视频帧Ct,得到当前彩色视频帧Ct的二值背景对象区域图,记为Ot O t ( x , y ) = 1 , if C t ( x , y ) &GreaterEqual; Threshold &beta; 0 , if C t ( x , y ) < Threshold &beta; , 其中,Ot(x,y)表示当前彩色视频帧Ct的二值背景对象区域图Ot中坐标位置为(x,y)的像素点的像素值,1≤x≤W,1≤y≤H,Thresholdβ为采用最大类间方差法得到的亮度分割阈值;
⑤对当前深度视频帧Dt进行前背景区域划分,得到当前彩色视频帧Ct的粗略前背景区域图,记为F′t F t &prime; ( x , y ) = 1 , if D t ( x , y ) &GreaterEqual; Threshold d 0 , if D t ( x , y ) < Threshold d , 然后对当前彩色视频帧Ct的粗略前背景区域图F′t进行N×N块化,得到当前彩色视频帧Ct的前背景区域图,记为Ft,其中,F′t(x,y)表示当前彩色视频帧Ct的粗略前背景区域图F′t中坐标位置为(x,y)的像素点的像素值,Dt(x,y)表示当前深度视频帧Dt中坐标位置为(x,y)的像素点的像素值,Thresholdd为第二判定阈值,
Figure BDA0000113531630000032
k2为对当前深度视频帧Dt的前背景区域进行划分的视觉加权值,0.85≤k2≤1.5,
Figure BDA0000113531630000033
1≤x≤W,1≤y≤H,N为一常数,1×1<N×N<W×H;
⑥将当前彩色视频帧Ct的二值纹理区域图St、当前彩色视频帧Ct的二值背景对象区域图Ot以及当前彩色视频帧Ct的粗略前背景区域图F′t相融合,得到当前彩色视频帧Ct的粗略掩膜,记为It,然后对当前彩色视频帧Ct的粗略掩膜It进行N×N块化和形态学的膨胀、腐蚀处理,得到当前彩色视频帧Ct的精细掩膜,记为Pt,其中,N为一常数,1×1<N×N<W×H;
⑦对当前彩色视频帧Ct的精细掩膜Pt与当前彩色视频帧Ct的二值运动区域图Kt进行或操作,然后对或操作后得到的图像与当前彩色视频帧Ct的前背景区域图Ft进行与操作,得到当前彩色视频帧Ct粗略的对象掩膜,记为ROI′t,ROI′t=(Pt∪Kt)∩Ft,再去除当前彩色视频帧Ct粗略的对象掩膜ROI′t中的小块连通区域,得到当前彩色视频帧Ct最终的对象掩膜,记为ROIt,其中,“∪”表示或操作,“∩”表示与操作。
所述的步骤③中对当前彩色视频帧Ct提取纹理边缘,得到当前彩色视频帧Ct的二值纹理区域图St的具体过程为:
③-1、采用Sobel算子计算当前彩色视频帧Ct的梯度图像,记为Gt
③-2、根据当前彩色视频帧Ct的梯度图像Gt,获取当前彩色视频帧Ct的二值纹理区域图,记为St S t ( x , y ) = 1 , if G t ( x , y ) &GreaterEqual; Threshold l 0 , if G t ( x , y ) < Threshold l , 其中,St(x,y)表示当前彩色视频帧Ct的二值纹理区域图St中坐标位置为(x,y)的像素点的像素值,如果St(x,y)=1,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于纹理区域,如果St(x,y)=0,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于非纹理区域,Gt(x,y)表示当前彩色视频帧Ct的梯度图像Gt中坐标位置为(x,y)的像素点的像素值,1≤x≤W,1≤y≤H,Thresholdl为第三判定阈值,
Figure BDA0000113531630000035
k1为加权系数,
Figure BDA0000113531630000036
为当前彩色视频帧Ct的梯度图像Gt中所有像素点的像素值的最大值。
所述的步骤③-2中的加权系数
Figure BDA0000113531630000041
其中,
Figure BDA0000113531630000042
Figure BDA0000113531630000043
分别表示当前彩色视频帧Ct的梯度图像Gt中所有像素点的像素值的最大值和平均值, T &alpha; = 2.2 , if&Delta;B < 0.1 % and B av < 0.03 1 , if&Delta;B < 0.1 % and B av &GreaterEqual; 0.03 1.5 , if 0.1 % &le; &Delta;B < 0.1 % 1.9 , if&Delta;B &GreaterEqual; 0.1 % , ΔB=(Bmax-Bmin)×100%, B max = max { G k av G k max | 1 &le; k &le; K } , B min = min { G k av G k max | 1 &le; k &le; K } , B av = B max + B min 2 , K表示当前视点的彩色视频序列中用于计算Tα所采用的彩色视频帧的帧数,
Figure BDA0000113531630000048
Figure BDA0000113531630000049
分别表示用于计算Tα所采用的K帧彩色视频帧中的第k帧彩色视频帧Ck的梯度图像Gk中所有像素点的像素值的最大值和平均值,1≤K≤K′,K′表示当前视点的彩色视频序列中包含的彩色视频帧的总帧数,max{}为取最大值函数,min{}为取最小值函数。
所述的步骤②、步骤⑤和步骤⑥中N×N块化的具体过程为:令Image表示要进行N×N块化的二值图像,该二值图像的宽度为W,该二值图像的高度为H;然后将Image划分成
Figure BDA00001135316300000410
个互不重叠的尺寸为N×N的图像块;再对Image中的每个N×N的图像块逐一进行以下处理,完成N×N块化的操作,得到N×N块化后的二值图像:定义Image中当前正在处理的N×N的图像块为当前图像块,如果当前图像块中像素值为1的像素点的个数大于等于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为1;如果当前图像块中像素值为1的像素点的个数小于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为0。
所述的块化阈值Thresholde的取值范围为:1≤Thresholde≤N×N。
所述的步骤⑥的具体过程为:
⑥-1、对当前彩色视频帧Ct的二值纹理区域图St与当前彩色视频帧Ct的二值背景对象区域图Ot进行或操作,然后对或操作后得到的图像与当前彩色视频帧Ct的粗略前背景区域图F′t进行与操作,得到当前彩色视频帧Ct的粗略掩膜,记为It,It=(St∪Ot)∩Ft′,其中,“∪”表示或操作,“∩”表示与操作;
⑥-2、依次对当前彩色视频帧Ct的粗略掩膜It进行8×8块化和形态学的膨胀、腐蚀处理;
⑥-3、依次对经过步骤⑥-2处理后得到的图像再进行16×16块化和形态学的膨胀、腐蚀处理,得到当前彩色视频帧Ct的精细掩膜,记为Pt
与现有技术相比,本发明的优点在于通过纹理边缘检测、最大类间方差法提取多视点视频中的彩色视频帧的纹理信息和亮度信息,并利用多视点视频中的彩色视频帧对应的深度视频帧,采用前背景分割法获取彩色视频帧的前背景信息,然后将纹理信息、亮度信息和前背景信息相融合得到彩色视频帧的精细掩膜,最后通过运动信息和深度信息进一步地修正得到彩色视频帧最终的对象掩膜,由于本发明方法有效利用了多视点视频的纹理、亮度、深度、运动等多种信息,通过发掘它们之间各自的特性,取长补短,将多种信息有机地融合在一起,因此能够快速分割并提取得到符合人眼视觉感知的精准的视频对象,能够较好地满足多视点视频编码对对象提取方法的要求。
附图说明
图1为本发明方法的总体实现框图;
图2a为“Ballet”测试视频序列中的第0视点对应的彩色视频序列的第2帧彩色视频帧;
图2b为“Breakdancers”测试视频序列中的第0视点对应的彩色视频序列的第2帧彩色视频帧;
图2c为“Champagne Tower”测试视频序列中的第0视点对应的彩色视频序列的第2帧彩色视频帧;
图3a为图2a所示的彩色视频帧的二值纹理区域图;
图3b为图2b所示的彩色视频帧的二值纹理区域图;
图3c为图2c所示的彩色视频帧的二值纹理区域图;
图4a为图2a所示的彩色视频帧的二值背景对象区域图;
图4b为图2b所示的彩色视频帧的二值背景对象区域图;
图4c为图2c所示的彩色视频帧的二值背景对象区域图;
图5a为图2a所示的彩色视频帧的前背景区域图;
图5b为图2b所示的彩色视频帧的前背景区域图;
图5c为图2c所示的彩色视频帧的前背景区域图;
图6a为图2a所示的彩色视频帧的粗略掩膜;
图6b为图2b所示的彩色视频帧的粗略掩膜;
图6c为图2c所示的彩色视频帧的粗略掩膜;
图7a为图2a所示的彩色视频帧的精细掩膜;
图7b为图2b所示的彩色视频帧的精细掩膜;
图7c为图2c所示的彩色视频帧的精细掩膜;
图8a为图2a所示的彩色视频帧的最终的对象掩膜;
图8b为图2b所示的彩色视频帧的最终的对象掩膜;
图8c为图2c所示的彩色视频帧的最终的对象掩膜;
图9a为图2a所示的彩色视频帧的对象区域;
图9b为图2b所示的彩色视频帧的对象区域;
图9c为图2c所示的彩色视频帧的对象区域。
具体实施方式
以下结合附图实施例对本发明作进一步详细描述。
本发明提出的一种多视点视频对象提取方法,能够快速分割并准确提取到多视点视频的对象区域,图1给出了本发明方法的总体实现框图,其具体包括以下步骤:
①定义多视点视频中当前正在处理的视点为当前视点,定义当前视点的彩色视频序列中t时刻的彩色视频帧为当前彩色视频帧,记为Ct,定义当前视点的深度视频序列中对应的t时刻的深度视频帧为当前深度视频帧,记为Dt
本实施例中,将分别采用如图2a、图2b和图2c所示的“Ballet”、“Breakdancers”和“Champagne Tower”测试视频序列中的第0视点的彩色视频序列的第2帧彩色视频帧,作为当前正在处理的视点的彩色视频序列中t时刻的彩色视频帧Ct来说明本发明对象提取的过程,其中,“Ballet”和“Breakdancers”测试视频序列中的图像帧的尺寸为1024×768,“Champagne Tower”测试视频序列中的图像帧的尺寸为1280×960。
②采用帧间差分运算计算当前彩色视频帧Ct的帧差图,记为K′t K t &prime; ( x , y ) = 1 , if | C t ( x , y ) - C t - 1 ( x , y ) | &GreaterEqual; Threshold m 0 , if | C t ( x , y ) - C t - 1 ( x , y ) | < Threshold m , 然后对当前彩色视频帧Ct的帧差图K′t进行N×N块化,得到当前彩色视频帧Ct的二值运动区域图,记为Kt,其中,K′t(x,y)表示当前彩色视频帧Ct的帧差图K′t中坐标位置为(x,y)的像素点的像素值,Ct(x,y)表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点的像素值,Ct-1(x,y)表示当前视点的彩色视频序列中t-1时刻的彩色视频帧Ct-1中坐标位置为(x,y)的像素点的像素值,“||”为取绝对值符号,Thresholdm为第一判定阈值,1≤x≤W,1≤y≤H,W表示多视点视频的彩色视频序列中的彩色视频帧和深度视频序列中的深度视频帧的宽度,H表示多视点视频的彩色视频序列中的彩色视频帧和深度视频序列中的深度视频帧的高度,N为一常数,1×1<N×N<W×H。在本实施例中,Thresholdm采用了固定阈值,在此取Thresholdm=12;实际操作时,阈值Thresholdm也可以采用自适应的方式设定,例如令
Figure BDA0000113531630000071
Figure BDA0000113531630000072
和σK′分别为当前彩色视频帧Ct的帧差图K′t的均值和标准差,α为加权系数。此外,对于当前视点的彩色视频序列中的第一帧(即t=1时刻的帧),因其没有前一时刻的帧,因此可令其二值运动区域图K1=K2
在本实施例中,对当前彩色视频帧Ct的帧差图K′t进行N×N块化,得到当前彩色视频帧Ct的二值运动区域图Kt的具体过程为:将当前彩色视频帧Ct的帧差图K′t划分成
Figure BDA0000113531630000073
个互不重叠的尺寸为N×N的图像块;再对当前彩色视频帧Ct的帧差图K′t中的每个N×N的图像块逐一进行以下处理,完成N×N块化的操作,得到N×N块化后的二值图像,即当前彩色视频帧Ct的二值运动区域图Kt:定义当前彩色视频帧Ct的帧差图K′t中当前正在处理的N×N的图像块为当前图像块,如果当前图像块中像素值为1的像素点的个数大于等于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为1;如果当前图像块中像素值为1的像素点的个数小于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为0。需要说明的是,因为基于块的视频编码和处理中,其块的尺寸通常为2的幂次,因此本发明中N×N块化中的N也采用2的幂次,如2、4、8、16、32、64等;块化阈值Thresholde的取值范围为1≤Thresholde≤N×N。在本实施例的本步骤中,取N=16,Thresholde=8。
③对当前彩色视频帧Ct提取纹理边缘,得到当前彩色视频帧Ct的二值纹理区域图,记为St,将当前彩色视频帧Ct的二值纹理区域图St中坐标位置为(x,y)的像素点的像素值记为St(x,y),如果St(x,y)=1,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于纹理区域,如果St(x,y)=0,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于非纹理区域,其中,1≤x≤W,1≤y≤H。
在本实施例中,对当前彩色视频帧Ct提取纹理边缘,得到当前彩色视频帧Ct的二值纹理区域图St的具体过程为:
③-1、采用Sobel算子计算当前彩色视频帧Ct的梯度图像,记为Gt
③-2、根据当前彩色视频帧Ct的梯度图像Gt,获取当前彩色视频帧Ct的二值纹理区域图,记为St S t ( x , y ) = 1 , if G t ( x , y ) &GreaterEqual; Threshold l 0 , if G t ( x , y ) < Threshold l , 其中,St(x,y)表示当前彩色视频帧Ct的二值纹理区域图St中坐标位置为(x,y)的像素点的像素值,如果St(x,y)=1,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于纹理区域,如果St(x,y)=0,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于非纹理区域,Gt(x,y)表示当前彩色视频帧Ct的梯度图像Gt中坐标位置为(x,y)的像素点的像素值,1≤x≤W,1≤y≤H,Thresholdl为第三判定阈值,
Figure BDA0000113531630000082
k1为加权系数,
Figure BDA0000113531630000083
为当前彩色视频帧Ct的梯度图像Gt中所有像素点的像素值的最大值。
在本实施例中,步骤③-2中的加权系数其中,
Figure BDA0000113531630000085
Figure BDA0000113531630000086
分别表示当前彩色视频帧Ct的梯度图像Gt中所有像素点的像素值的最大值和平均值, T &alpha; = 2.2 , if&Delta;B < 0.1 % and B av < 0.03 1 , if&Delta;B < 0.1 % and B av &GreaterEqual; 0.03 1.5 , if 0.1 % &le; &Delta;B < 0.1 % 1.9 , if&Delta;B &GreaterEqual; 0.1 % , ΔB=(Bmax-Bmin)×100%, B max = max { G k av G k max | 1 &le; k &le; K } , B min = min { G k av G k max | 1 &le; k &le; K } , B av = B max + B min 2 , K表示当前视点的彩色视频序列中用于计算Tα所采用的彩色视频帧的帧数,
Figure BDA00001135316300000811
Figure BDA00001135316300000812
分别表示用于计算Tα所采用的K帧彩色视频帧中的第k帧彩色视频帧Ck的梯度图像Gk中所有像素点的像素值的最大值和平均值,1≤K≤K′,K′表示当前视点的彩色视频序列中包含的彩色视频帧的总帧数,即所选择的K帧用于计算Tα的彩色视频帧可以是多视点视频中当前视点的彩色视频序列的全部帧,也可以是其部分帧,max{}为取最大值函数,min{}为取最小值函数。在本发明方法中,Tα是一个动态计算得到的动态值,但对于多视点视频的一个视点的彩色视频序列其Tα值是相同的。本实施例中,由步骤③计算得到的图2a、图2b和图2c所示的彩色视频帧的二值纹理区域图分别如图3a、图3b和图3c所示。
④采用最大类间方差法分割当前彩色视频帧Ct,得到当前彩色视频帧Ct的二值背景对象区域图,记为Ot O t ( x , y ) = 1 , if C t ( x , y ) &GreaterEqual; Threshold &beta; 0 , if C t ( x , y ) < Threshold &beta; , 其中,Ot(x,y)表示当前彩色视频帧Ct的二值背景对象区域图Ot中坐标位置为(x,y)的像素点的像素值,1≤x≤W,1≤y≤H,Thresholdβ为采用最大类间方差法得到的亮度分割阈值。
本实施例中,由步骤④计算得到的图2a、图2b和图2c所示的彩色视频帧的二值背景对象区域图分别如图4a、图4b和图4c所示。
⑤对当前深度视频帧Dt进行前背景区域划分,得到当前彩色视频帧Ct的粗略前背景区域图,记为F′t F t &prime; ( x , y ) = 1 , if D t ( x , y ) &GreaterEqual; Threshold d 0 , if D t ( x , y ) < Threshold d , 然后对当前彩色视频帧Ct的粗略前背景区域图F′t进行N×N块化,得到当前彩色视频帧Ct的前背景区域图,记为Ft,其中,F′t(x,y)表示当前彩色视频帧Ct的粗略前背景区域图F′t中坐标位置为(x,y)的像素点的像素值,Dt(x,y)表示当前深度视频帧Dt中坐标位置为(x,y)的像素点的像素值,Thresholdd为第二判定阈值,
Figure BDA0000113531630000092
k2为对当前深度视频帧Dt的前背景区域进行划分的视觉加权值,0.85≤k2≤1.5,
Figure BDA0000113531630000093
1≤x≤W,1≤y≤H,N为一常数,1×1<N×N<W×H。
在本实施例中,对当前彩色视频帧Ct的粗略前背景区域图F′t进行N×N块化,得到当前彩色视频帧Ct的前背景区域图Ft的具体过程为:将当前彩色视频帧Ct的粗略前背景区域图F′t划分成
Figure BDA0000113531630000094
个互不重叠的尺寸为N×N的图像块;再对当前彩色视频帧Ct的粗略前背景区域图F′t中的每个N×N的图像块逐一进行以下处理,完成N×N块化的操作,得到N×N块化后的二值图像,即当前彩色视频帧Ct的前背景区域图Ft:定义当前彩色视频帧Ct的粗略前背景区域图F′t中当前正在处理的N×N的图像块为当前图像块,如果当前图像块中像素值为1的像素点的个数大于等于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为1;如果当前图像块中像素值为1的像素点的个数小于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为0。在本实施例的本步骤中,取N=16,Thresholde=230。
图5a、图5b和图5c分别给出了根据图2a、图2b和图2c所示的彩色视频帧对应的深度视频帧计算得到的图2a、图2b和图2c所示彩色视频帧的前背景区域图。
⑥将当前彩色视频帧Ct的二值纹理区域图St、当前彩色视频帧Ct的二值背景对象区域图Ot以及当前彩色视频帧Ct的粗略前背景区域图F′t相融合,得到当前彩色视频帧Ct的粗略掩膜,记为It,然后对当前彩色视频帧Ct的粗略掩膜It进行N×N块化和形态学的膨胀、腐蚀处理,得到当前彩色视频帧Ct的精细掩膜,记为Pt,其中,N为一常数,1×1<N×N<W×H。
本实施例中,步骤⑥的具体过程为:
⑥-1、对当前彩色视频帧Ct的二值纹理区域图St与当前彩色视频帧Ct的二值背景对象区域图Ot进行或操作,然后对或操作后得到的图像与当前彩色视频帧Ct的粗略前背景区域图F′t进行与操作,得到当前彩色视频帧Ct的粗略掩膜,记为It,即It=(St∪Ot)∩F′t,其中,“∪”表示或操作,“∩”表示与操作。
⑥-2、依次对当前彩色视频帧Ct的粗略掩膜It进行8×8块化和形态学的膨胀、腐蚀处理。在此,对当前彩色视频帧Ct的粗略掩膜It进行8×8块化的具体过程为:将当前彩色视频帧Ct的粗略掩膜It划分成
Figure BDA0000113531630000101
个互不重叠的尺寸为8×8的图像块;再对当前彩色视频帧Ct的粗略掩膜It中的每个8×8的图像块逐一进行以下处理,完成8×8块化的操作,得到8×8块化后的二值图像:定义当前彩色视频帧Ct的粗略掩膜It中当前正在处理的8×8的图像块为当前图像块,如果当前图像块中像素值为1的像素点的个数大于等于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为1;如果当前图像块中像素值为1的像素点的个数小于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为0。在此,取Thresholde=3。
⑥-3、依次对经过步骤⑥-2处理后得到的图像再进行16×16块化和形态学的膨胀、腐蚀处理,得到当前彩色视频帧Ct的精细掩膜,记为Pt。在此,对经过步骤⑥-2处理后得到的图像再进行16×16块化的具体过程为:将经过步骤⑥-2处理后得到的图像划分成个互不重叠的尺寸为16×16的图像块;再对经过步骤⑥-2处理后得到的图像中的每个16×16的图像块逐一进行以下处理,完成16×16块化的操作,得到16×16块化后的二值图像:定义经过步骤⑥-2处理后得到的图像中当前正在处理的16×16的图像块为当前图像块,如果当前图像块中像素值为1的像素点的个数大于等于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为1;如果当前图像块中像素值为1的像素点的个数小于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为0。在此,对于不同内容的彩色视频帧,本发明的本步骤中所采用的Thresholde在50到63之间。
图6a、图6b和图6c分别给出了图2a、图2b和图2c所示的彩色视频帧的粗略掩膜。图7a、图7b和图7c则分别给出了图2a、图2b和图2c所示的彩色视频帧的精细掩膜。
⑦对当前彩色视频帧Ct的精细掩膜Pt与当前彩色视频帧Ct的二值运动区域图Kt进行或操作,然后对或操作后得到的图像与当前彩色视频帧Ct的前背景区域图Ft进行与操作,得到当前彩色视频帧Ct粗略的对象掩膜,记为ROI′t,ROI′t=(Pt∪Kt)∩Ft,再去除当前彩色视频帧Ct粗略的对象掩膜ROI′t中的小块连通区域,得到当前彩色视频帧Ct最终的对象掩膜,记为ROIt,其中,“∪”表示或操作,“∩”表示与操作。
图8a、图8b和图8c分别给出了图2a、图2b和图2c所示的彩色视频帧的最终的对象掩膜。图9a、图9b和图9c分别给出了按照图8a、图8b和图8c所示的最终的对象掩膜提取出的图2a、图2b和图2c所示的彩色视频帧的对象区域。

Claims (4)

1.一种多视点视频对象提取方法,其特征在于包括以下步骤:
①定义多视点视频中当前正在处理的视点为当前视点,定义当前视点的彩色视频序列中t时刻的彩色视频帧为当前彩色视频帧,记为Ct,定义当前视点的深度视频序列中对应的t时刻的深度视频帧为当前深度视频帧,记为Dt
②采用帧间差分运算计算当前彩色视频帧Ct的帧差图,记为K′t K t &prime; ( x , y ) = 1 , if | C t ( x , y ) - C t - 1 ( x , y ) | &GreaterEqual; Threshold m 0 , if | C t ( x , y ) - C t - 1 ( x , y ) | < Threshold m , 然后对当前彩色视频帧Ct的帧差图K′t进行N×N块化,得到当前彩色视频帧Ct的二值运动区域图,记为Kt,其中,K′t(x,y)表示当前彩色视频帧Ct的帧差图K′t中坐标位置为(x,y)的像素点的像素值,Ct(x,y)表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点的像素值,Ct-1(x,y)表示当前视点的彩色视频序列中t-1时刻的彩色视频帧Ct-1中坐标位置为(x,y)的像素点的像素值,“||”为取绝对值符号,Thresholdm为第一判定阈值,1≤x≤W,1≤y≤H,W表示多视点视频的彩色视频序列中的彩色视频帧和深度视频序列中的深度视频帧的宽度,H表示多视点视频的彩色视频序列中的彩色视频帧和深度视频序列中的深度视频帧的高度,N为一常数,1×1<N×N<W×H;
③对当前彩色视频帧Ct提取纹理边缘,得到当前彩色视频帧Ct的二值纹理区域图,记为St,将当前彩色视频帧Ct的二值纹理区域图St中坐标位置为(x,y)的像素点的像素值记为St(x,y),如果St(x,y)=1,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于纹理区域,如果St(x,y)=0,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于非纹理区域,其中,1≤x≤W,1≤y≤H;
④采用最大类间方差法分割当前彩色视频帧Ct,得到当前彩色视频帧Ct的二值背景对象区域图,记为Ot O t ( x , y ) = 1 , if C t ( x , y ) &GreaterEqual; Threshold &beta; 0 , if C t ( x , y ) < Threshold &beta; , 其中,Ot(x,y)表示当前彩色视频帧Ct的二值背景对象区域图Ot中坐标位置为(x,y)的像素点的像素值,1≤x≤W,1≤y≤H,Thresholdβ为采用最大类间方差法得到的亮度分割阈值;
⑤对当前深度视频帧Dt进行前背景区域划分,得到当前彩色视频帧Ct的粗略前背景区域图,记为F′t F t &prime; ( x , y ) = 1 , if D t ( x , y ) &GreaterEqual; Threshold d 0 , if D t ( x , y ) < Threshold d , 然后对当前彩色视频帧Ct的粗略前背景区域图F′t进行N×N块化,得到当前彩色视频帧Ct的前背景区域图,记为Ft,其中,F′t(x,y)表示当前彩色视频帧Ct的粗略前背景区域图F′t中坐标位置为(x,y)的像素点的像素值,Dt(x,y)表示当前深度视频帧Dt中坐标位置为(x,y)的像素点的像素值,Thresholdd为第二判定阈值,
Figure FDA0000371844040000025
,k2为对当前深度视频帧Dt的前背景区域进行划分的视觉加权值,0.85≤k2≤1.5,
Figure FDA0000371844040000021
1≤x≤W,1≤y≤H,N为一常数,1×1<N×N<W×H;
⑥将当前彩色视频帧Ct的二值纹理区域图St、当前彩色视频帧Ct的二值背景对象区域图Ot以及当前彩色视频帧Ct的粗略前背景区域图F′t相融合,得到当前彩色视频帧Ct的粗略掩膜,记为It,然后对当前彩色视频帧Ct的粗略掩膜It进行N×N块化和形态学的膨胀、腐蚀处理,得到当前彩色视频帧Ct的精细掩膜,记为Pt,其中,N为一常数,1×1<N×N<W×H;
⑦对当前彩色视频帧Ct的精细掩膜Pt与当前彩色视频帧Ct的二值运动区域图Kt进行或操作,然后对或操作后得到的图像与当前彩色视频帧Ct的前背景区域图Ft进行与操作,得到当前彩色视频帧Ct粗略的对象掩膜,记为ROI′t,ROI′t=(Pt∪Kt)∩Ft,再去除当前彩色视频帧Ct粗略的对象掩膜ROI′t中的小块连通区域,得到当前彩色视频帧Ct最终的对象掩膜,记为ROIt,其中,“∪”表示或操作,“∩”表示与操作。
2.根据权利要求1所述的一种多视点视频对象提取方法,其特征在于所述的步骤③中对当前彩色视频帧Ct提取纹理边缘,得到当前彩色视频帧Ct的二值纹理区域图St的具体过程为:
③-1、采用Sobel算子计算当前彩色视频帧Ct的梯度图像,记为Gt
③-2、根据当前彩色视频帧Ct的梯度图像Gt,获取当前彩色视频帧Ct的二值纹理区域图,记为St S t ( x , y ) = 1 , if G t ( x , y ) &GreaterEqual; Threshold l 0 , if G t ( x , y ) < Threshold l , 其中,St(x,y)表示当前彩色视频帧Ct的二值纹理区域图St中坐标位置为(x,y)的像素点的像素值,如果St(x,y)=1,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于纹理区域,如果St(x,y)=0,则表示当前彩色视频帧Ct中坐标位置为(x,y)的像素点属于非纹理区域,Gt(x,y)表示当前彩色视频帧Ct的梯度图像Gt中坐标位置为(x,y)的像素点的像素值,1≤x≤W,1≤y≤H,Thresholdl为第三判定阈值,
Figure FDA0000371844040000023
k1为加权系数,
Figure FDA0000371844040000024
为当前彩色视频帧Ct的梯度图像Gt中所有像素点的像素值的最大值。
3.根据权利要求1或2所述的一种多视点视频对象提取方法,其特征在于所述的步骤②、步骤⑤和步骤⑥中N×N块化的具体过程为:令Image表示要进行N×N块化的二值图像,该二值图像的宽度为W,该二值图像的高度为H;然后将Image划分成
Figure FDA0000371844040000031
个互不重叠的尺寸为N×N的图像块;再对Image中的每个N×N的图像块逐一进行以下处理,完成N×N块化的操作,得到N×N块化后的二值图像:定义Image中当前正在处理的N×N的图像块为当前图像块,如果当前图像块中像素值为1的像素点的个数大于等于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为1;如果当前图像块中像素值为1的像素点的个数小于块化阈值Thresholde,则将当前图像块中所有像素点的像素值置为0。
4.根据权利要求3所述的一种多视点视频对象提取方法,其特征在于所述的步骤⑥的具体过程为:
⑥-1、对当前彩色视频帧Ct的二值纹理区域图St与当前彩色视频帧Ct的二值背景对象区域图Ot进行或操作,然后对或操作后得到的图像与当前彩色视频帧Ct的粗略前背景区域图F′t进行与操作,得到当前彩色视频帧Ct的粗略掩膜,记为It,It=(St∪Ot)∩F′t,其中,“∪”表示或操作,“∩”表示与操作;
⑥-2、依次对当前彩色视频帧Ct的粗略掩膜It进行8×8块化和形态学的膨胀、腐蚀处理;
⑥-3、依次对经过步骤⑥-2处理后得到的图像再进行16×16块化和形态学的膨胀、腐蚀处理,得到当前彩色视频帧Ct的精细掩膜,记为Pt
CN201110386288.7A 2011-11-29 2011-11-29 一种多视点视频对象提取方法 Expired - Fee Related CN102420985B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201110386288.7A CN102420985B (zh) 2011-11-29 2011-11-29 一种多视点视频对象提取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201110386288.7A CN102420985B (zh) 2011-11-29 2011-11-29 一种多视点视频对象提取方法

Publications (2)

Publication Number Publication Date
CN102420985A CN102420985A (zh) 2012-04-18
CN102420985B true CN102420985B (zh) 2014-01-22

Family

ID=45945195

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201110386288.7A Expired - Fee Related CN102420985B (zh) 2011-11-29 2011-11-29 一种多视点视频对象提取方法

Country Status (1)

Country Link
CN (1) CN102420985B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102917223B (zh) * 2012-10-18 2015-06-24 北京航空航天大学 基于增强型菱形搜索及三帧背景对齐的动背景视频对象提取
CN112132881A (zh) * 2016-12-12 2020-12-25 华为技术有限公司 一种动态三维图像获取的方法和设备
KR101915578B1 (ko) * 2017-06-14 2018-11-06 (주)에프엑스기어 시점 기반 오브젝트 피킹 시스템 및 그 방법
CN108513131B (zh) * 2018-03-28 2020-10-20 浙江工业大学 一种自由视点视频深度图感兴趣区域编码方法
CN108805898B (zh) * 2018-05-31 2020-10-16 北京字节跳动网络技术有限公司 视频图像处理方法和装置
CN111242090B (zh) * 2020-01-22 2023-06-23 腾讯科技(深圳)有限公司 基于人工智能的人脸识别方法、装置、设备及介质
CN111652884A (zh) * 2020-04-24 2020-09-11 深圳奥比中光科技有限公司 基于3d摄像头的人像分割方法及系统
CN112308798B (zh) * 2020-11-02 2022-09-09 展讯通信(上海)有限公司 图像处理方法及装置、存储介质、终端
CN113160124B (zh) * 2021-02-25 2022-12-16 广东工业大学 一种食管癌影像在能谱ct与普通ct的特征空间重构的方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7865015B2 (en) * 2006-02-22 2011-01-04 Huper Laboratories Co. Ltd. Method for video object segmentation
CN101404765B (zh) * 2008-10-24 2010-12-08 宁波大学 一种交互式多视点视频编码方法
CN102223556B (zh) * 2011-06-13 2013-02-27 天津大学 一种多视点立体图像零视差校正方法

Also Published As

Publication number Publication date
CN102420985A (zh) 2012-04-18

Similar Documents

Publication Publication Date Title
CN102420985B (zh) 一种多视点视频对象提取方法
CN102999901B (zh) 基于深度传感器的在线视频分割后的处理方法及系统
CN101937578B (zh) 一种虚拟视点彩色图像绘制方法
CN101588445B (zh) 一种基于深度的视频感兴趣区域提取方法
CN101854467B (zh) 一种视频分割中阴影的自适应检测及消除方法
CN103002309B (zh) 对于多目同步摄像机拍摄的动态场景视频的时空一致性深度恢复的方法
CN104966286A (zh) 一种3d视频显著性检测方法
CN108447068B (zh) 三元图自动生成方法及利用该三元图的前景提取方法
CN110738676A (zh) 一种结合RGBD数据的GrabCut自动分割算法
CN105740945A (zh) 一种基于视频分析的人群计数方法
CN104463870A (zh) 一种图像显著区域检测方法
CN102915544A (zh) 基于纹理检测和颜色分割的视频图像运动目标提取方法
CN102271262A (zh) 用于3d显示的基于多线索的视频处理方法
CN104639933A (zh) 一种立体视图的深度图实时获取方法及系统
CN102609950A (zh) 一种二维视频深度图的生成方法
CN106570885A (zh) 基于亮度和纹理融合阈值的背景建模方法
CN109359549A (zh) 一种基于混合高斯和hog_lbp的行人检测方法
CN103955945A (zh) 基于双目视差和活动轮廓的自适应彩色图像分割方法
CN106251348A (zh) 一种面向深度相机的自适应多线索融合背景减除方法
CN113223070A (zh) 一种深度图像增强处理方法及装置
CN103152569A (zh) 一种基于深度信息的视频感兴趣区域压缩方法
CN101237581B (zh) 基于运动特征的h.264压缩域实时视频对象分割方法
CN102799646A (zh) 一种面向多视点视频的语义对象分割方法
CN104408731A (zh) 基于区域图和统计相似性编码的sar图像分割方法
CN111583357A (zh) 一种基于matlab系统的物体运动图像捕捉合成方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20140122

Termination date: 20181129