CN101699512B - 一种基于背景差异抠图和稀疏光流法的深度的生成方法 - Google Patents
一种基于背景差异抠图和稀疏光流法的深度的生成方法 Download PDFInfo
- Publication number
- CN101699512B CN101699512B CN2009102128333A CN200910212833A CN101699512B CN 101699512 B CN101699512 B CN 101699512B CN 2009102128333 A CN2009102128333 A CN 2009102128333A CN 200910212833 A CN200910212833 A CN 200910212833A CN 101699512 B CN101699512 B CN 101699512B
- Authority
- CN
- China
- Prior art keywords
- background
- value
- pixel
- light stream
- optical flow
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Abstract
本发明涉及了一种基于背景差异抠图和稀疏光流法的深度的生成方法,该方法包括:选择适当的颜色空间和建立颜色模型;快速有效的建立背景模型,从而对视频序列的背景有一个准确的描述;根据上述背景模型,对各像素点的进行分类;优化像素分类结果;稀疏光流法求特征点的光流值;通过插值求所有点的光流值;由光流值得到深度值。本发明的优点在于:能够避免单独使用光流法而无法解决的遮挡问题;能够全自动地实现视频序列的深度的生成。
Description
技术领域
本发明涉及图像分割和深度生成技术,尤其是一种基于背景差异抠图和稀疏光流法的深度的生成方法。
背景技术
三维图像和显示是未来信息系统的一种重要表现形式,三维图像和显示层次分明色彩鲜艳,具有很强的视觉冲击力,让观看的人驻景时间更长,留下深刻的印象;另外三维图像和现实给人以真实、栩栩如生,人物呼之欲出,身临其境的感觉,有很高的艺术欣赏价值。但是目前立体显示市场存在着这样的矛盾:立体显示设备的飞速普及和立体显示片源的严重匮乏。目前,由平面媒体资源转换成立体的媒体内容包含两种情况,一是通过重新设计的平面摄像机进行拍摄,如用一对立体对摄像机进行拍摄,再通过后期的制作获取三维的媒体内容;另一种是将已经拍摄好的平面媒体资源转换成具有三维信息的内容,本发明主要针对后一种转换方法。目前普遍采用的方法是通过运动信息、颜色信息等相关信息得到每一帧图片的深度图,然后采用基于深度的描述算法(Depth-based rendering)得到三维图。在此过程中,最重要的一个步骤就是如何获取每个像素点的深度值。
很多研究利用运动信息,主要是光流法来近似估计深度,这种方法对于只有摄像机作平移运动的背景图能产生比较好的效果,但是很多情况下,视频中都会有运动物体,比如本专利便可应用于特定场景的监视。针对摄像机固定即背景不动,但有运动物体的场景,采用光流法会产生不可自身无法解决的遮挡问题,主要是前景运动物体与背景之间的遮挡。既然遮挡主要产生于前景与背景之间,那么如果将背景抠出掉,只求前景物体的每个像素点的光流值,然后由此运动信息得到每个像素点的深度值,这样便能回避或者说解决遮挡问题,而且由于只计算部分点的光流,可以大大提高深度生成的速度。
发明内容
本发明的目的是克服现有技术中存在的不足,提供一种基于背景差异抠图和稀疏光流法的深度的生成方法,可以有效地解决遮挡问题、提高深度图生成的速度以及实现全自动深度图的生成。
按照本发明提供的技术方案,所述基于背景差异抠图和稀疏光流法的深度的生成方法包括以下步骤:
1)选择颜色空间和建立相应的颜色模型;
2)建立背景模型,从而对背景有一个准确的描述:所述背景模型用于表示场景背景的属性;
3)图像中所有像素点的分类:当确定了颜色空间和颜色模型之后,采用差异估计函数来计算当前帧和参考帧在同一像素处的颜色特征值差异,并根据预先计算出的色度和亮度的阈值,按照分类函数将像素划分为前景或背景类,由此划分出前景运动物体;
4)优化像素分类结果:去除噪点,同时平滑运动物体的边缘;
5)由稀疏光流法对得到的前景运动物体的特征点求光流值;
6)由稀疏光流点的光流值估算前景运动物体上其它点的光流值:采用差值的方法,对于物体上的一点,以该点到各特征点的距离的倒数作为各特征点对该点光流影响的权值,然后将各特征点的光流值与权值的乘积的和作为该点的光流值;
7)由光流值得到深度值:对于某个像素点,其光流值越大,代表该像素点离相机的距离越近,则其深度值越大;另外,考虑人的视觉感知信息,认为:当光流值大于或者小于给定的阈值时,人无法明显感知深度的变化,将光流值与深度值之间的关系用反正切函数关系来表示。
步骤1所述选择颜色空间和建立颜色模型是将当前帧和参考帧的比较在一定的颜色空间内进行,确定颜色空间后,根据实验场景特征建立颜色模型,用于当前帧和参考帧的逐像素比较。
步骤2所述建立背景模型的方法为:对于一段有N帧静止背景序列的视频,首先计算前N帧背景序列的各像素的色度和亮度,并分别求出色度和亮度的概率密度分布,即针对所述概率密度分布,指定检测概率,求出用于区分背景和前景的色度和亮度的阈值(τCD、τα1、τα2),其中,τCD为在指定检测概率下,色度的概率分布的阈值上限,τα1和τα2为指定检测概率下,亮度的概率分布的阈值下限和上限;最后,由阈值(τCD、τα1、τα2)将各像素点划分为前景、背景、阴影点以及高亮点。
步骤4所述优化像素分类结果的方法为采用中值滤波以去除零星的噪声点和不连续的点。
步骤5所述前景运动物体的特征点包括:角点、亮度梯度变化大的点、边缘点。
步骤6所述求物体上任一点的光流值的计算公式如下:
式中,yi代表图象中特征点的位置坐标,fi代表特征点yi的光流值,N代表特征点的数目,x代表图象中任一点的位置坐标,F为任一点x的光流值。
步骤7所述由光流值得到深度值的转换关系由下式给出
DepthValue=(255/π)[arctan(FlowValue-(MaxFlowValue-MinFlowValue)/2)+π/2]
式中,FlowValue为像素点的光流值,MaxFlowValue为所有像素点中光流时最大值,MinFlowValue为所有像素点种光流的最小值,DepthValue为像素点的深度值。
本发明的优点是:由于只求前景物体的每个像素点的光流值,然后由此运动信息得到每个像素点的深度值,这样便能回避或者说解决遮挡问题,而且由于只计算部分点的光流,可以大大提高深度生成的速度。
附图说明
图1是RGB颜色空间模型图。
图2(a)是归一化亮度分布直方图。
图2(b)是归一化色度分布直方图。
图3是本发明流程图。
具体实施方式
下面结合附图和实施例对本发明作进一步说明。
如图3所示,本发明包括以下步骤:
1)选择适当的颜色空间或建立颜色模型:针对本研究,选择RGB颜色空间,在RGB空间中,要考虑到选取适当的颜色特征将色度和亮度分离,这样有助于检测阴影及高光区域。在该空间中,比较两个颜色的差异即为比较两个向量在空间中的欧式距离,如图1所示。图中,Di为差异向量,根据人类视觉特征,该差异向量可分解为亮度Ei-αiEi和色度CDi分量,由此建立颜色模型。
2)当确定了一定的颜色空间后,就要选择适当的颜色特征或建立颜色模型进行差异比较。适当的颜色特征可以有效的帮助核心算法正确划分背景、前景,消除不正确的划分。快速有效的建立背景模型,从而对背景有一个准确的描述——背景建模:当确定颜色空间和选定适当的颜色模型后,就可以针对一段时间内采集到的背景照片进行训练,从而建立背景统计模型。在建立背景统计模型之前,先定义一下几个量,以便于研究:针对RGB空间中的一个像素i,Ei=[ER(i),EG(i),EB(i)]代表在参考帧(背景图片)中该像素对应的期望RGB颜色,Ii=[IR(i),IG(i),IB(i)]代表像素在当前帧(当前图片)的RGB颜色值。我们的目标是衡量出Ii和Ei的扭转,即当前帧该像素处的颜色值与参考帧的期望值之间的差异。于是,接着将定义亮度扭转分量α和色度扭转分量CD,其中α是一个标量,尽量使得观察颜色接近期待颜色线,该分量是由最小化下式得到的:φ(αi)=(I-αiEi)2;CD定义为观察颜色和期望颜色线的垂直距离,以此来衡量观察颜色和期望颜色在色度上的差异,如下式所示:CDi=‖Ii-αiEi‖。
通过背景建模可以得到每个像素点的一个4元向量<Ei,si,ai,bi>,Ei为颜色期望值,μk(i)(k=R,G,B)为颜色值的均值,si是颜色值的标准方差,ai,bi分别表示第i个像素的亮度扭转分量和色度扭转分量的平均变化,N为视频的背景帧数。计算过程如下:
i.首先计算出亮度扭转分量αi和色度扭转分量CDi:
αi=BiIR(i)+CiIG(i)+DiIB(i)
ii.计算ai和bi:
iii.为了确定阈值,将ai和bi进行量化,如下:
至此,背景模型已经建立。
3)各像素的分类:针对N张背景图片,一共有N×X×Y个像素点,其中X和Y分别为图像的行数和列数。首先将等分成M等分(本实验中取M=10000),然后统计落在这些等分区间中的像素点的个数,从而可以得到的概率密度分布,同理可以得到的概率密度分布,如图2所示。针对该概率密度分布图,给定检测概率r(本实验中取为99.9%)后,便能确定亮度的两个阈值:阈值下限τα1对应于检测概率r,阈值上限τα2对应于检测概率1-r;同时可以确定色度的阈值上限τCD。像素分类函数如下式所示:
ταlo的解释:若当前帧中存在一些属于运动物体的像素,这些像素本身的RGB值非常低,若不加该约束,这些相对较暗的像素将总是被错误地划分为阴影。观察发现,在RGB空间中这些像素的颜色向量非常接近原点。而所有的颜色线都相交在原点,因此这些较暗的颜色向量都被认为与任何颜色线都很近或很相似,为了避免这个问题,引入这个最低阈值来表示归一化的亮度扭转分量下界。F:前景;B:背景;S:阴影区域;H:高亮区域。
4)优化像素分类结果:采用中值滤波以去除零星的噪声点和不连续的点。
5)稀疏光流法求光流:对得到的前景运动物体,首先找到前景运动物体的特征点,然后由Lucas-Kanada稀疏光流法求得各特征点(即稀疏光流点)的光流值;所述特征点包括:角点、亮度梯度变化大的点、边缘点等。再由稀疏光流点的光流值估算前景运动物体上其它点的光流值:采用差值的方法,对于物体上的一点,以该点到各特征点的距离的倒数作为各特征点对该点光流影响的权值,然后将各特征点的光流值与其权值的乘积的和作为该点的光流值;
6)由光流值得到深度值:对于某个像素点,其光流值越大,则其深度值越大,另外,将人的视觉感知信息考虑进来,认为,当光流值大于或者小于预先给定或计算好的阈值时,人对深度的变化感知不明显(深度值在0~255之间变化,0代表黑色,255代表白色,深度值越大,表示物体离相机的距离越近)。则我们有理由认为光流值和深度值之间满足反正切关系,公式如下所示:
DepthValue=(255/π)[arctan(FlowValue-(MaxFlowValue-MinFlowValue)/2)+π/2]
式中,FlowValue为像素点的光流值,MaxFlowValue为所有像素点中光流的最大值,MinFlowValue为所有像素点种光流的最小值,DepthValue为像素点的深度值。
Claims (4)
1.一种基于背景差异抠图和稀疏光流法的深度的生成方法,其特征是包括以下步骤:
1)选择颜色空间和建立相应的颜色模型;
2)建立背景模型,从而对背景有一个准确的描述:所述背景模型用于表示场景背景的属性;建立背景模型的方法为:对于一段有N帧静止背景序列的视频,首先计算前N帧背景序列的各像素的色度和亮度,并分别求出色度和亮度的概率密度分布,即针对所述概率密度分布,指定检测概率,求出用于区分背景和前景的色度和亮度的阈值τCD、τα1、τα2,其中,τCD为在指定检测概率下,色度的概率分布的阈值上限,τα1和τα2为指定检测概率下,亮度的概率分布的阈值下限和上限;
3)图像中所有像素点的分类:当确定了颜色空间和颜色模型之后,采用差异估计函数来计算当前帧和参考帧在同一像素处的颜色特征值差异,并根据预先计算出的色度和亮度的阈值τCD、τα1、τα2,按照分类函数将像素划分为前景或背景类,由此划分出前景运动物体;
4)优化像素分类结果:去除噪点,同时平滑运动物体的边缘;
5)由稀疏光流法对得到的前景运动物体的特征点求光流值;
6)由特征点的光流值估算前景运动物体上其它点的光流值:采用插值的方法,对于物体上的一点,以该点到各特征点的距离的倒数作为各特征点对该点光流影响的权值,然后将各特征点的光流值与权值的乘积的和作为该点的光流值;
7)由光流值得到深度值,公式如下:
DepthValue=(255/π)[arctan(FlowValue-(MaxFlowValue-MinFlowValue)/2)+π/2]
式中,FlowValue为像素点的光流值,MaxFlowValue为所有像素点中光流的最大值,MinFlowValue为所有像素点中光流的最小值,DepthValue为像素点的深度值。
2.如权利要求1所述的基于背景差异抠图和稀疏光流法的深度的生成方法,其特征是步骤1)所述选择颜色空间和建立颜色模型是将当前帧和参考帧的比较在一定的颜色空间内进行,确定颜色空间后,根据实验场景特征建立颜色模型,用于当前帧和参考帧的逐像素比较。
3.如权利要求1所述的基于背景差异抠图和稀疏光流法的深度的生成方法,其特征是步骤4)所述优化像素分类结果的方法为采用中值滤波以去除零星的噪声点和不连续的点。
4.如权利要求1所述的基于背景差异抠图和稀疏光流法的深度的生成方法,其特征是步骤5)所述前景运动物体的特征点包括:角点、亮度梯度变化大的点、边缘点。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009102128333A CN101699512B (zh) | 2009-10-30 | 2009-10-30 | 一种基于背景差异抠图和稀疏光流法的深度的生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2009102128333A CN101699512B (zh) | 2009-10-30 | 2009-10-30 | 一种基于背景差异抠图和稀疏光流法的深度的生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101699512A CN101699512A (zh) | 2010-04-28 |
CN101699512B true CN101699512B (zh) | 2011-09-21 |
Family
ID=42147970
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2009102128333A Expired - Fee Related CN101699512B (zh) | 2009-10-30 | 2009-10-30 | 一种基于背景差异抠图和稀疏光流法的深度的生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN101699512B (zh) |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101859436B (zh) * | 2010-06-09 | 2011-12-14 | 王巍 | 一种大幅规律运动背景智能分析管控系统 |
CN102131078B (zh) * | 2011-03-11 | 2013-09-25 | 通号通信信息集团有限公司 | 一种视频图像校正方法和系统 |
CN102305769B (zh) * | 2011-06-09 | 2013-04-03 | 天津大学 | 应用于中国古画修复的多光谱抠图方法 |
CN102395007B (zh) * | 2011-06-30 | 2013-08-07 | 南京邮电大学 | 一种单色背景视频/图片抠像处理方法 |
US8917934B2 (en) | 2012-06-14 | 2014-12-23 | International Business Machines Corporation | Multi-cue object detection and analysis |
CN102801972B (zh) * | 2012-06-25 | 2017-08-29 | 北京大学深圳研究生院 | 基于特征的运动矢量估计和传递方法 |
CN103337079A (zh) * | 2013-07-09 | 2013-10-02 | 广州新节奏智能科技有限公司 | 一种虚拟增强现实的教学方法及装置 |
CN103945138B (zh) * | 2013-11-15 | 2017-06-23 | 上海仙视电子有限公司 | 一种快速把图片进行抠图处理的方法以及采用该方法的电子商务摄影平台 |
CN105447895A (zh) * | 2014-09-22 | 2016-03-30 | 酷派软件技术(深圳)有限公司 | 一种层次化的图片黏贴方法、装置及终端设备 |
US9530215B2 (en) * | 2015-03-20 | 2016-12-27 | Qualcomm Incorporated | Systems and methods for enhanced depth map retrieval for moving objects using active sensing technology |
CN107465911B (zh) * | 2016-06-01 | 2019-03-15 | 东南大学 | 一种深度信息提取方法及装置 |
CN107871115B (zh) * | 2016-11-01 | 2021-05-04 | 中国科学院沈阳自动化研究所 | 一种基于图像的海底热液喷口的识别方法 |
US10101813B2 (en) * | 2016-12-14 | 2018-10-16 | Immersion Corporation | Automatic haptic generation based on color features and motion analysis |
CN108550258B (zh) * | 2018-03-29 | 2021-01-08 | 东软集团股份有限公司 | 车辆排队长度检测方法、装置、存储介质和电子设备 |
CN110414392B (zh) * | 2019-07-15 | 2021-07-20 | 北京天时行智能科技有限公司 | 一种障碍物距离的确定方法及装置 |
CN111222440A (zh) * | 2019-12-31 | 2020-06-02 | 江西开心玉米网络科技有限公司 | 一种人像背景分离方法、装置、服务器及存储介质 |
CN113392801A (zh) * | 2021-06-30 | 2021-09-14 | 深圳市斯博科技有限公司 | 图像处理方法、系统、设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101087437A (zh) * | 2007-06-21 | 2007-12-12 | 清华大学 | 基于光流场的平面视频转立体视频的方法 |
CN101271578A (zh) * | 2008-04-10 | 2008-09-24 | 清华大学 | 一种平面视频转立体视频技术中的深度序列生成方法 |
CN101312539A (zh) * | 2008-07-03 | 2008-11-26 | 浙江大学 | 用于三维电视的分级图像深度提取方法 |
-
2009
- 2009-10-30 CN CN2009102128333A patent/CN101699512B/zh not_active Expired - Fee Related
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101087437A (zh) * | 2007-06-21 | 2007-12-12 | 清华大学 | 基于光流场的平面视频转立体视频的方法 |
CN101271578A (zh) * | 2008-04-10 | 2008-09-24 | 清华大学 | 一种平面视频转立体视频技术中的深度序列生成方法 |
CN101312539A (zh) * | 2008-07-03 | 2008-11-26 | 浙江大学 | 用于三维电视的分级图像深度提取方法 |
Non-Patent Citations (1)
Title |
---|
吕春雷,王延杰.一种结合背景运动估计的目标运动预测方法.《光电工程》.2009,第36卷(第5期),11-16. * |
Also Published As
Publication number | Publication date |
---|---|
CN101699512A (zh) | 2010-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101699512B (zh) | 一种基于背景差异抠图和稀疏光流法的深度的生成方法 | |
US8488868B2 (en) | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images | |
CN102741879B (zh) | 由单眼图像产生深度图的方法及其系统 | |
US8213711B2 (en) | Method and graphical user interface for modifying depth maps | |
US8644596B1 (en) | Conversion of monoscopic visual content using image-depth database | |
Tam et al. | 3D-TV content generation: 2D-to-3D conversion | |
CN101287143B (zh) | 基于实时人机对话的平面视频转立体视频的方法 | |
US8805020B2 (en) | Apparatus and method for generating depth signal | |
CN102098528B (zh) | 一种平面图像的立体转换方法及装置 | |
JP2012507907A (ja) | 深さマップを生成するための方法及び装置 | |
CN102609950B (zh) | 一种二维视频深度图的生成方法 | |
JP2015156607A (ja) | 画像処理装置、画像処理装置、及び電子機器 | |
CN103096106A (zh) | 图像处理设备和方法 | |
CN106506983A (zh) | 一种适用于ldr视频的hdr视频生成方法 | |
CN103561258A (zh) | 一种Kinect深度视频时空联合修复方法 | |
CN106664397A (zh) | 用于生成三维图像的方法和装置 | |
CN102368826A (zh) | 双视点视频到多视点视频的实时自适应生成方法 | |
CN111385554A (zh) | 一种自由视点视频的高图像质量虚拟视点绘制方法 | |
CN106447718B (zh) | 一种2d转3d深度估计方法 | |
TWI712990B (zh) | 用於判定影像之深度圖之方法與裝置、及非暫時性電腦可讀取儲存媒體 | |
CN106686320B (zh) | 一种基于数密度均衡的色调映射方法 | |
CN101873506B (zh) | 提供深度信息的影像处理方法及其影像处理系统 | |
US8977043B2 (en) | Method of image depth estimation and apparatus thereof | |
KR101731113B1 (ko) | 2d-3d 영상 변환 방법 및 이를 이용한 입체 영상 표시장치 | |
CA2674104C (en) | Method and graphical user interface for modifying depth maps |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
C17 | Cessation of patent right | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110921 Termination date: 20131030 |