CN103413276B - 一种基于纹理分布特征的深度增强方法 - Google Patents

一种基于纹理分布特征的深度增强方法 Download PDF

Info

Publication number
CN103413276B
CN103413276B CN201310342872.1A CN201310342872A CN103413276B CN 103413276 B CN103413276 B CN 103413276B CN 201310342872 A CN201310342872 A CN 201310342872A CN 103413276 B CN103413276 B CN 103413276B
Authority
CN
China
Prior art keywords
depth
pixel
frame
texture
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201310342872.1A
Other languages
English (en)
Other versions
CN103413276A (zh
Inventor
金欣
许娅彤
戴琼海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Graduate School Tsinghua University
Original Assignee
Shenzhen Graduate School Tsinghua University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Graduate School Tsinghua University filed Critical Shenzhen Graduate School Tsinghua University
Priority to CN201310342872.1A priority Critical patent/CN103413276B/zh
Publication of CN103413276A publication Critical patent/CN103413276A/zh
Application granted granted Critical
Publication of CN103413276B publication Critical patent/CN103413276B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

一种基于纹理分布特征的深度增强方法,包括,A1:输入低端深度传感器采集的时域上相邻各帧的纹理图像与对应深度图像,帧数为N,N≥2;A2:提取各帧纹理图像边界,将深度图像划分为不含纹理边界的非边界区域与含纹理边界的边界区域;A3:对深度图像的边界区域,根据时域上相邻各帧边界区域内纹理边界两侧像素深度值的分布特征选择性修改像素点深度以进行深度增强,并当判断需要时对该边界区域进行滤波降噪处理;A4:对深度图像的非边界区域,利用时域各帧纹理块匹配结果获取当前深度块的时域预测块,根据预测块的像素信息修补当前深度块,并进行滤波降噪处理。利用本发明能够显著提高低端深度传感器采集的深度图像的准确性和时域一致性。

Description

一种基于纹理分布特征的深度增强方法
技术领域
本发明涉及计算机视觉与数字图像处理领域,特别涉及一种基于纹理分布特征的深度增强方法。
背景技术
深度图像常被用于三维重建、自由视点编码等诸多领域。现有的深度信息采集常常基于一些复杂和昂贵的传感器,如结构光相机或激光测距仪等。基于这些设备采集的深度图像,不仅受到各类噪声干扰,其过低的分辨率也大大限制了以深度图像作为基础的其他研究与应用的发展。以Kinect为代表的低端深度传感器,售价低廉并,且能够快速获取场景的深度与纹理信息,因而在研究中被广泛使用。但是,由于低端深度传感器主要通过发射结构光并接收其反射光线获取场景深度图像,因此易受到环境光源与物体形状材质的严重干扰,致使采集的深度图像拥有部分数据丢失,时域上极不稳定,图像噪声(尤其在物体边界区域)较大等缺陷。以上都直接影响到基于深度图像的其他研究与应用的发展,例如场景三维重建等。
为了增强低端深度传感器采集的深度图像质量,目前针对其深度图像的成像缺陷提出了一系列的改进方法。其中具有代表性的方法有两种:一种方法是对深度图像用双边滤波器预处理,然后在空域上将深度图像划分为非边界区域与边界区域,针对不同的区域用不同的权重计算缺失的深度信息,该方法弥补了丢失的深度数据,降低了深度图像在物体边界区域的噪声,但由于缺乏对时域稳定性的限制,相邻各帧对应像素点的深度值存在较大波动;另一种方法是利用时域上多帧对应区域深度信息的纹理加权平均值修补缺失的像素深度,然后从时域和空域上对当前帧深度图进行联合双边滤波,从而极大地改善了深度图像的时域一致性,并显著提升了平滑表面深度值的连续性,但是由于该方法忽视了对受噪声影响巨大的物体边界的处理,边界区域的滤波效果不够理想,边界抖动有待抑制。
发明内容
本发明的目的是克服现有技术的不足,提供一种基于纹理分布特征的深度增强方法,以获得物体形状完整、边界清晰平滑、表面深度值连续的高质量深度图像。
本发明所提出的一种基于纹理分布特征的深度增强方法如下:
A1:输入低端深度传感器采集的时域上相邻各帧的纹理图像与对应深度图像,帧数为N(N≥2);
A2:提取各帧纹理图像边界,依照所得结果将深度图像划分为不含纹理边界的非边界区域与含纹理边界的边界区域;
A3:对深度图像的边界区域,根据时域上前后相邻各帧边界区域内纹理边界两侧像素深度值的分布特征选择性修改像素点深度以进行深度增强,并当判断需要时对该边界区域进行滤波降噪处理;
A4:对深度图像的非边界区域,利用时域各帧纹理块匹配结果获取当前深度块的时域预测块,根据预测块的像素信息修补当前深度块,并进行滤波降噪处理。
通过提取每一帧纹理图像边界将对应的深度图像划分为非边界区域与边界区域,保证边界信息的可靠性。利用时域纹理块匹配结果获取当前深度块的时域预测块,提高了深度图像各部分间匹配的准确性。对于非边界区域,综合时域各帧非边界区域像素的深度信息进行深度图像修补和区域的整体滤波降噪,可通过各帧深度值的互补以及从时域、空域两方面的联合双边滤波有效增强非边界区域的时域稳定性,从而显著提升物体平滑表面深度值的连续性。对于边界区域,分别统计时域上前后相邻各帧边界区域内纹理边界两侧的深度值分布,可以利用每一侧深度峰值的加权均值修正该侧错误的深度信息,并判断对应局部区域是否需要进行滤波处理。该深度图像增强方法在消除边界噪声的同时保证了深度图像中边界的平滑清晰,能有效提高以Kinect为代表的低端传感器采集的深度图像质量,促进深度信息在各研究领域的应用与推广。
本发明针对深度图像的非边界区域和边界区域存在不同的成像问题,使用空域、时域和统计相结合的深度增强处理,达到全面抑制低端深度传感器采集的深度图像存在的多种缺陷的目的,方便进一步将深度信息融入到其他应用中去。
说明书附图
图1为本发明实施例的基于纹理分布特征的深度增强方法的流程图。
具体实施方式
在具体的实施方案中,可采用下面的实施例。需注意的是,在下面的实施过程中所述的具体方法(如Sobel算子、最小平方差法等)都仅为列举说明,本发明所涵盖的范围不局限于所列举的这些方法。
A1:输入的时域上相邻的多帧纹理图像及对应深度图像分别通过低端深度传感器的彩色相机与深度相机采集所得,以Kinect为例,其采集数据的速度为60FPS,因此在相机以一般速度运动的情况下,当前帧与时域上相邻的前后几帧图像数据相关性很高。所以在后续处理中存在足够多的图像信息,保证从时域方面进行图像增强的有效性。尽管时域上的深度图像增强对低端深度传感器在场景中的运动速度和帧的采集速率有一定要求,但条件并不苛刻,多数低端深度传感器基本都能满足。由传感器采集的同一帧的纹理图像与深度图像包含相同时刻同一场景的信息,它们具有相同的分辨率,因此两张图像上相同位置的像素点间存在对应关系,描述了场景中某一点的纹理和深度信息。
A2:提取A1中输入的当前帧和时域相邻前后各帧纹理图像的边界,由于同一帧的纹理图像与深度图像像素点间的对应关系,因而位于纹理图像边界上的像素能够快速找到其深度图像中的对应像素点。沿深度图像中纹理边界对应的像素点对边界部分进行一定范围内的膨胀处理,各处的膨胀标准不同:时域上前后相邻k帧(包括当前帧,共2k+1帧)的深度图像中位于纹理边界的像素点,各帧纹理边界上相互对应的像素点的深度值为D。记深度变化ΔD=Dj-Di(j∈[1,2k+1],i=1,2,…,j-1,其中,Dj表示第j帧的该像素点的深度值),对于设定阈值T,如果ΔD<T,那么将Dj归于Di所在的深度值集合Q中;如果对所有Di(i=1,2,…,j-1),ΔD>T,那么创建一个新的深度值集合包含Dj。由于边界处像素点的深度值(若不为0)总近似其两侧区域深度值中的一个,所以将有两个深度值集合Q1,Q2。每个深度值集合对应具有的深度值个数为n1,n2
如果n1>n2,那么对所有深度值在集合Q2的像素点所在帧,沿垂直于纹理边缘的方向,向两侧搜索直至找到深度值在集合Q1范围内的像素,记录像素之间的搜索距离dp(p=1,2,…,n2)。
如果n1<n2,那么对所有深度值在集合Q1的像素点所在帧,沿垂直于纹理边缘的方向,向两侧搜索直至找到深度值在集合Q2范围内的像素,记录像素之间的搜索距离dp(p=1,2,…,n1)。
对上述两种情况,取所有搜索距离中最大值的两倍作为各帧在该像素处沿垂直纹理边缘方向每一侧需要膨胀的范围dexpand,即
dexpand=2*max(dp)(1)
纹理边界将深度图像划分为n个边界区域En(n=1,2,3…)和m个非边界区域Sm(m=1,2,3…)。从深度图像中去除边界区域后得到各部分独立的非边界区域。纹理图像边界提取具体可采用(但不局限于)Sobel算子、Roberts算子、Prewitt算子等方法,上述方法的差异在于对于不同类型边界的提取精度存在差异。
A3:利用纹理块匹配的方法找到当前帧与时域上前后相邻各帧间相互对应的边界区域,分别统计以区域内的纹理边界为准边界两侧的像素深度值分布情况。对当前帧的每一个边界区域En(n=1,2,3…)和它在相邻帧中对应的边界区域内某一侧的所有像素,利用(但不局限于)直方图显示深度区间[Dil,Dih]内像素点数量为ni,深度均值为Di(i=1,2,3…)。其中,[Dil,Dih]表示一个深度值区间的上下界,这个上下界可根据直方图统计结果进行选定。如果ni≥Tnum,Tnum为设定阈值,则该区间深度均值Di被看作一种具有代表性的深度值Di∈Ddom,记作Di dom;如果ni<Tnum,则该深度区间内所有像素点的深度值被认作“异常”, 利用每一侧Di dom的加权均值修正该侧的“异常”深度值,N=∑ni(ifni≥Tnum),修正准则如下:
D &prime; = &Sigma; n i N D i dom , D &NotElement; D dom - - - ( 2 )
计算经过直方图统计结果修改少数像素点深度值后当前帧每个边界区域纹理边界两侧各自深度值的方差σD,该方差若大于设定阈值T,则对该侧每一像素点(x,y),使用该像素当前帧8邻域Ω8内像素以及该像素在相邻k帧的对应像素及其8邻域内的所有像素点(x±Δx,y±Δy)的深度信息Dt±k(x±Δx,y±Δy)(其中,下标t±k表示Dt±k(x±Δx,y±Δy)所在的帧数,x±Δx和y±Δy分别表示Dt±k(x±Δx,y±Δy)所在的像素的横坐标和纵坐标)或联合纹理信息进行滤波。
D t &prime; ( x , y ) = Filter &Omega; 8 ( x &PlusMinus; &Delta;x , y &PlusMinus; &Delta;y ) , k &Element; N ( D t &PlusMinus; k ( x &PlusMinus; &Delta;x , y &PlusMinus; &Delta;y ) ) , if &sigma; D > T - - - ( 3 )
其中,Filter可采用(但不限于)双边滤波、高斯滤波、中值滤波等。
A4:对当前帧t非边界区域中缺少深度值的像素(x,y),依据该像素所在非边界区域的纹理信息可利用(但不局限于)最小平方差法找到时域上相邻前后k帧与之对应的非边界区域,通过在各对应区域中逐个像素地互相比较纹理信息C最终找到相邻帧深度图像中对应的像素点(x±Δx,y±Δy),利用各对应像素点深度值Dt±k(x±Δx,y±Δy)的众数修补当前帧像素深度值Dt(x,y),修补规则如下
Dt(x,y)=Mode(Dt±k(x±Δx,y±Δy)),
(4)
ifCt(x,y)=Ct±k(x±Δx,y±Δy)
如果没有找到对应像素点或是各帧在该像素点处均丢失了深度信息,则利用各帧内该像素点周围8邻域Ω8内具有深度值的像素点,即Dt±k(x±Δx,y±Δy)≠0,使用联合双边滤波器计算当前帧该像素点的深度值,其中借助位置与纹理信息计算的高斯权重分别为Gσs、Gσc,联合双边滤波公式如下,w=Gσs×Gσc
D t ( x , y ) = 1 W &Sigma; k &Element; N &Sigma; &Omega; 8 ( x &PlusMinus; &Delta;x , y &PlusMinus; &Delta;y ) G &sigma;s G &sigma;c D t &PlusMinus; k ( x &PlusMinus; &Delta;x , y &PlusMinus; &Delta;y ) - - - ( 5 )
对当前帧的每个非边界区域Sm(m=1,2,3…),结合时域前后相邻帧中对应的非边界区域的深度信息,对区域内逐个像素点使用(但不局限于)双边滤波器进行大范围滤波处理。像素点的邻域范围即滤波器窗口设置为N×N,N的取值将依据非边界区域的大小设定。

Claims (9)

1.一种基于纹理分布特征的深度增强方法,其特征在于,所述方法包括以下步骤:
A1:输入低端深度传感器采集的时域上相邻各帧的纹理图像与对应深度图像,帧数为N,N≥2;
A2:提取各帧纹理图像边界,依照所得结果将深度图像划分为不含纹理边界的非边界区域与含纹理边界的边界区域;
A3:对深度图像的边界区域,根据时域上前后相邻各帧边界区域内纹理边界两侧像素深度值的分布特征选择性修改像素点深度以进行深度增强,并当判断需要时对该边界区域进行滤波降噪处理;
A4:对深度图像的非边界区域,利用时域各帧纹理块匹配结果获取当前深度块的时域预测块,根据预测块的像素信息修补当前深度块,并进行滤波降噪处理;
步骤A3进一步包括以下步骤:
A3.1、采用时域各帧纹理块匹配的方法,找出当前帧t的边界区域En t在相邻前后k帧中对应的边界区域En t±k,其中n表示一帧深度图像边界区域编号;
A3.2、联合时域上前后相邻k帧,对纹理边界两侧像素的深度值分布分别进行直方图统计,统计结果:深度区间i内像素点数量为ni,深度均值为Di(i=1,2,3…),如果ni≥Tnum,Tnum为设定阈值,则该区间深度均值Di被看作一种具有代表性的深度值Di∈Ddom,记作Di dom;如果ni<Tnum,则该深度区间内所有像素点的深度值被认作“异常”,
A3.3利用边界每一侧Di dom的加权均值修正该侧的“异常”深度值,修正准则如下:
D , = &Sigma; n i N D i d o m , D &NotElement; D d o m
N=∑ni(ifni≥Tnum),缺失深度值的像素点不纳入统计范围;
A3.4、分别计算当前帧每一边界区域内边界各侧像素深度值的方差σD,如果方差σD大于设定阈值T,则对该侧每一像素点(x,y),使用该像素当前帧8邻域Ω8内像素以及该像素在相邻k帧的对应像素及其8邻域内的所有像素点(x±Δx,y±Δy)的深度信息Dt±k(x±Δx,y±Δy)或联合纹理信息进行滤波:
D t , ( x , y ) = F i l t e r &Omega; 8 ( x &PlusMinus; &Delta; x , y &PlusMinus; &Delta; y ) , k &Element; N ( D t &PlusMinus; k ( x &PlusMinus; &Delta; x , y &PlusMinus; &Delta; y ) ) , if&sigma; D > T .
2.如权利要求1所述的方法,其特征在于,在步骤A2中,深度图像中位于纹理边界上的像素先经过膨胀处理从而获得深度图像的边界区域,去除边界区域后的深度图像属于非边界区域。
3.如权利要求2所述的方法,其特征在于,在步骤A3对当前帧所有边界区域进行像素深度值修正之前,在步骤A2中先对该区域进行膨胀处理,包括:
检测时域上前后相邻k帧及当前帧共2k+1帧的深度图像中位于纹理边界的像素点,各帧纹理边界上相互对应的像素点的深度值为D,记深度变化ΔD=Dj-Di(j∈[1,2k+1],i=1,2,…,j-1),其中,Dj表示第j帧的该像素点的深度值,对于设定阈值T,如果ΔD<T,那么将Dj归于Di所在的深度值集合Q中;如果对所有Di(i=1,2,…,j-1),ΔD>T,那么创建一个新的深度值集合包含Dj,边界处像素点的深度值若不为0则总近似其两侧区域深度值中的一个,最终获得两个深度值集合Q1,Q2,每个深度值集合对应具有的深度值个数为n1,n2
如果n1>n2,那么对所有深度值在集合Q2的像素点所在帧,沿垂直于纹理边缘的方向,向两侧搜索直至找到深度值在集合Q1范围内的像素,记录搜索距离dp(p=1,2,…,n2),取所有搜索距离中最大值的两倍作为各帧在该像素处沿垂直纹理边缘方向每一侧需要膨胀的范围dexpand
dexpand=2*max(dp)
如果n1<n2,那么对所有深度值在集合Q1的像素点所在帧,沿垂直于纹理边缘的方向,向两侧搜索直至找到深度值在集合Q2范围内的像素,记录搜索距离dp(p=1,2,…,n1),取所有搜索距离中最大值的两倍作为各帧在该像素处沿垂直纹理边缘方向每一侧需要膨胀的范围dexpand
4.如权利要求1所述的方法,其特征在于,步骤A3.4中所用滤波器为双边滤波、高斯滤波或中值滤波。
5.如权利要求1所述的方法,其特征在于,步骤A4包括像素深度值修复与块深度值滤波两个阶段,
其中像素深度值修复阶段包括:
A4.1、锁定当前帧每一个非边界区域的深度缺失部分在对应纹理图像中的位置,标记该部分;
A4.2、利用最小平方差法找到时域前后相邻各k帧纹理图像中与标记部分纹理最相似的区域,对应到各帧深度图像,从而找到当前帧深度缺失部分在相邻各帧深度图像中的特定位置;
A4.3、利用时域前后相邻各帧的深度信息逐个像素修补当前帧像素深度值,
如果在相邻帧中找到纹理值完全一致的对应像素(x±Δx,y±Δy),则用各像素深度值Dt±k(x±Δx,y±Δy)的众数修复当前像素Dt(x,y),修复准则如下:
Dt(x,y)=Mode(Dt±k(x±Δx,y±Δy)),
ifCt(x,y)=Ct±k(x±Δx,y±Δy)
如果没有找到纹理相同的对应像素或者各帧均缺失该像素深度值,则使用联合双边滤波器,利用位置信息和纹理信息对目标像素点当前帧与前后相邻各帧8邻域内的有效像素点的深度值加权,计算结果用于修复当前帧的目标像素;
其中块深度值滤波阶段包括:
采用时域纹理块匹配的方法,找出时域相邻各帧间对应的非边界区域,针对区域内的每个像素点的当前帧邻域与相邻各帧对应像素及其邻域的深度信息,采用滤波器进行滤波处理,像素点的邻域范围即滤波器窗口设置为N×N,N的取值将依据非边界区域的大小设定。
6.如权利要求5所述的方法,其特征在于,块深度值滤波阶段采用双边滤波器进行滤波处理。
7.如权利要求1至6任一项所述的方法,其特征在于,在步骤A1中,低端深度传感器为Kinect传感器。
8.如权利要求1至6任一项所述的方法,其特征在于,在步骤A2中,采用Sobel算子、Roberts算子或Prewitt算子提取纹理图像的边界。
9.如权利要求1至6任一项所述的方法,其特征在于,在步骤A4中,各深度预测块的像素信息包括像素深度、纹理相似性。
CN201310342872.1A 2013-08-07 2013-08-07 一种基于纹理分布特征的深度增强方法 Active CN103413276B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201310342872.1A CN103413276B (zh) 2013-08-07 2013-08-07 一种基于纹理分布特征的深度增强方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310342872.1A CN103413276B (zh) 2013-08-07 2013-08-07 一种基于纹理分布特征的深度增强方法

Publications (2)

Publication Number Publication Date
CN103413276A CN103413276A (zh) 2013-11-27
CN103413276B true CN103413276B (zh) 2015-11-25

Family

ID=49606281

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310342872.1A Active CN103413276B (zh) 2013-08-07 2013-08-07 一种基于纹理分布特征的深度增强方法

Country Status (1)

Country Link
CN (1) CN103413276B (zh)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103686181B (zh) * 2013-12-13 2017-01-18 北京东方正龙数字技术有限公司 一种屏幕显示信息的编码方法和编码系统
CN104768014B (zh) * 2014-01-03 2018-03-06 寰发股份有限公司 编解码方法
WO2015100731A1 (en) 2014-01-03 2015-07-09 Mediatek Singapore Pte. Ltd. Methods for determining the prediction partitions
KR101957243B1 (ko) 2014-07-09 2019-03-12 삼성전자주식회사 다시점 영상 디스플레이 장치 및 그 다시점 영상 디스플레이 방법
CN104159098B (zh) * 2014-08-29 2016-06-01 杭州道玄影视科技有限公司 一种视频的时域一致性半透明边缘提取方法
CN104574327B (zh) * 2014-12-15 2018-08-03 沈阳东软医疗系统有限公司 一种乳腺图像处理方法和装置
CN104683783B (zh) * 2015-01-08 2017-03-15 电子科技大学 一种自适应深度图滤波方法
CN104778672B (zh) * 2015-04-22 2017-10-17 中国人民解放军国防科学技术大学 一种混合双边图像滤波方法
CN105678765B (zh) * 2016-01-07 2019-06-28 深圳市未来媒体技术研究院 一种基于纹理的深度图像边界修正方法
CN106815821B (zh) * 2017-01-23 2020-08-28 上海兴芯微电子科技有限公司 近红外图像的去噪方法和装置
CN107610057B (zh) * 2017-08-22 2020-11-27 努比亚技术有限公司 一种深度图修复方法、终端及计算机可读存储介质
CN107767456A (zh) * 2017-09-22 2018-03-06 福州大学 一种基于rgb‑d相机的物体三维重建方法
CN108629756B (zh) * 2018-04-28 2021-06-25 东北大学 一种Kinectv2深度图像无效点修复方法
CN111369611B (zh) * 2018-12-25 2023-06-02 曜科智能科技(上海)有限公司 图像像素深度值优化方法及其装置、设备和存储介质
CN110390690B (zh) * 2019-07-11 2021-04-16 Oppo广东移动通信有限公司 深度图处理方法和装置
CN110400273B (zh) * 2019-07-11 2022-03-22 Oppo广东移动通信有限公司 深度数据的滤波方法、装置、电子设备和可读存储介质
CN111524075B (zh) * 2020-03-26 2023-08-22 北京迈格威科技有限公司 深度图像滤波方法、图像合成方法、装置、设备及介质
CN112288710A (zh) * 2020-10-28 2021-01-29 哈尔滨工程大学 一种船用柴油机多孔喷雾图像的喷雾贯穿距和锥角自动求解方法
CN112200848B (zh) * 2020-10-30 2023-02-17 中国科学院自动化研究所 低光照弱对比复杂环境下的深度相机视觉增强方法及系统
CN113099202B (zh) * 2021-02-24 2023-05-12 浙江大华技术股份有限公司 一种自动白平衡优化方法、设备以及计算机可读存储介质
CN115908190B (zh) * 2022-12-08 2023-10-13 南京图格医疗科技有限公司 一种用于视频图像画质增强的方法及系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102710951A (zh) * 2012-05-09 2012-10-03 天津大学 基于散斑结构光深度相机的多视点计算成像方法
CN102831582A (zh) * 2012-07-27 2012-12-19 湖南大学 一种微软体感装置深度图像增强方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120008852A1 (en) * 2010-07-07 2012-01-12 Himax Media Solutions, Inc. System and method of enhancing depth of a 3d image
US8994722B2 (en) * 2011-02-14 2015-03-31 Mitsubishi Electric Research Laboratories, Inc. Method for enhancing depth images of scenes using trellis structures

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102710951A (zh) * 2012-05-09 2012-10-03 天津大学 基于散斑结构光深度相机的多视点计算成像方法
CN102831582A (zh) * 2012-07-27 2012-12-19 湖南大学 一种微软体感装置深度图像增强方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Temporal filtering for depth maps generated by Kinect depth camera;Matyunin S et al;《The True Vision-Capture,Transmission and Display of 3D Video》;20111231;1-4 *
基于边缘检测的深度图与单视图配准算法;张春彦等;《吉林大学学报》;20110531;第29卷(第3期);175-180 *

Also Published As

Publication number Publication date
CN103413276A (zh) 2013-11-27

Similar Documents

Publication Publication Date Title
CN103413276B (zh) 一种基于纹理分布特征的深度增强方法
Yu et al. Fast single image fog removal using edge-preserving smoothing
CN100474337C (zh) 一种基于径向基神经网络的有噪运动模糊图像复原方法
CN102768760B (zh) 一种基于图像纹理的图像快速去雾方法
CN102708550B (zh) 一种基于自然图像统计特性的盲去模糊方法
US8755563B2 (en) Target detecting method and apparatus
CN103049906B (zh) 一种图像深度提取方法
CN103369209A (zh) 视频降噪装置及方法
CN103455984A (zh) 一种Kinect深度图像获取方法与装置
CN103077521A (zh) 一种用于视频监控的感兴趣区域提取方法
CN104268853A (zh) 一种红外图像与可见光图像配准方法
CN109711256B (zh) 一种低空复杂背景无人机目标检测方法
EP2743886B1 (en) System for detecting structured artifacts in video sequences
CN104268899A (zh) 基于帧间差分和背景差分的运动目标检测方法
CN110245600B (zh) 自适应起始快速笔画宽度无人机道路检测方法
CN103020959B (zh) 一种基于引力模型的海洋锋信息提取方法
CN102236887A (zh) 基于旋转差分和加权总变分的运动模糊图像复原方法
CN102176741A (zh) 星空图像中帧转移型ccd传感器拖尾亮线消除方法
CN104574381A (zh) 一种基于局部二值模式的全参考图像质量评价方法
CN105069806A (zh) 一种三点联合的图像边缘检测方法
Xiang et al. Exemplar-based depth inpainting with arbitrary-shape patches and cross-modal matching
CN103065291A (zh) 基于提升小波变换和像素区域相关性的图像融合方法
CN102393964B (zh) 一种条纹间隙检测方法
CN104182983A (zh) 基于角点特征的高速公路监控视频清晰度的检测方法
CN103413138A (zh) 一种红外图像序列中点目标检测方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant