CN101783024A - 利用深度信息对深度噪声进行滤波的方法及设备 - Google Patents
利用深度信息对深度噪声进行滤波的方法及设备 Download PDFInfo
- Publication number
- CN101783024A CN101783024A CN201010003916A CN201010003916A CN101783024A CN 101783024 A CN101783024 A CN 101783024A CN 201010003916 A CN201010003916 A CN 201010003916A CN 201010003916 A CN201010003916 A CN 201010003916A CN 101783024 A CN101783024 A CN 101783024A
- Authority
- CN
- China
- Prior art keywords
- depth information
- spatial filter
- filtering
- zone
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001914 filtration Methods 0.000 title claims abstract description 307
- 238000000034 method Methods 0.000 title claims abstract description 138
- 238000009877 rendering Methods 0.000 claims description 39
- 230000015572 biosynthetic process Effects 0.000 claims description 10
- 230000002123 temporal effect Effects 0.000 abstract 2
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 7
- 238000004040 coloring Methods 0.000 description 4
- 230000014509 gene expression Effects 0.000 description 4
- 230000000295 complement effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20004—Adaptive image processing
- G06T2207/20012—Locally adaptive
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Graphics (AREA)
- Image Processing (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Controls And Circuits For Display Device (AREA)
- Processing Or Creating Images (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
Abstract
本发明公开了一种利用深度信息对深度噪声进行滤波的方法及设备。所述深度噪声滤波方法可根据深度信息执行空间滤波或时间滤波。为了执行空间滤波,深度噪声滤波方法可基于深度信息确定空间滤波器的特性。此外,为了执行时间滤波,深度噪声滤波方法可基于深度信息确定参考帧的数量。深度噪声滤波方法可根据深度信息自适应地去除深度噪声,从而提高噪声滤波性能。
Description
本申请要求于2009年1月21日提交到韩国知识产权局的第10-2009-0005090号韩国专利申请的优先权,该申请公开于此以资参考。
技术领域
一个或多个实施例涉及一种处理三维(3D)图像的图像处理,更具体地讲,涉及一种能够对根据深度而出现的深度噪声进行滤波的深度噪声滤波方法和设备。
背景技术
随着对三维(3D)图像的需求的增加,市场上出现了能够采集3D图像的3D相机。3D相机可获得与对象关联的颜色信息和深度信息,以便为二维(2D)图像提供3D效果。可以基于对象与3D相机之间的距离来确定深度信息。
由于3D相机的图像采集特性,包括在深度信息中的深度噪声的特性会依据与对象的距离而不同。当基于包含大量深度噪声的深度信息来构造3D图像时,3D图像的品质会变差。
因此,需要一种能够根据对象和相机之间的距离去除深度噪声的方法。
发明内容
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,所述方法包括:获得构成三维(3D)图像的滤波目标帧的区域的深度信息;利用所述深度信息生成用于所述区域的空间滤波器;通过将所述空间滤波器应用于所述区域的深度信息来对3D图像执行深度噪声滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中:深度信息对应于对象与图像采集设备之间关于所述区域的距离,生成步骤包括:基于深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,生成步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的空间滤波器的最大大小中的至少一个,确定基于深度信息的空间滤波器的大小。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,生成步骤包括:通过参照存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,生成步骤进一步包括:当深度信息对应于较短距离时,减小空间滤波器的大小。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,生成步骤进一步包括:当深度信息对应于较短距离时,增加空间滤波器的系数的减小速率,在从空间滤波器的中心向空间滤波器的四周靠近的同时,空间滤波器的系数减小。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,所述区域是构成滤波目标帧的像素或块中的任何一个。
根据一个或多个实施例的另一方面,可提供一种对深度噪声进行滤波的方法,所述方法包括:获得构成3D图像的滤波目标帧的区域的深度信息;利用所述深度信息计算与所述区域关联的参考帧的数量;基于计算的参考帧的数量更新滤波目标帧中的所述区域的深度信息。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,所述方法进一步包括:将空间滤波器应用于所述深度信息,计算步骤包括,利用应用所述空间滤波器的深度信息计算参考帧的数量。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,所述方法进一步包括:对所述获得的深度信息执行时间滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,所述方法进一步包括:对所述更新的深度信息执行空间滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,所述方法进一步包括:利用所述更新的深度信息生成空间滤波器;所述空间滤波器应用于所述更新的深度信息。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,所述方法对所述深度信息执行空间滤波后执行时间滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,所述方法对所述深度信息执行时间滤波后执行空间滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,所述方法进一步包括:将权重应用于关于所述参考帧的每个区域的更新的深度信息,所述权重基于所述计算的参考帧的数量被确定。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中:深度信息对应于对象与图像采集设备之间关于所述区域的距离,计算步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的参考帧的数量中的至少一个,确定基于深度信息的参考帧的数量。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,计算步骤包括:当所述区域的深度信息对应于较短距离时,减少参考帧的数量。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,更新步骤包括:对参考帧中的每一个的区域的深度信息进行平均,以更新滤波目标帧中的所述区域的深度信息。
根据一个或多个实施例的另一方面,可提供一种对深度噪声进行滤波的方法,所述方法包括:获得构成3D图像的滤波目标帧的区域的深度信息;利用所述深度信息生成用于所述区域的空间滤波器,以将所述空间滤波器应用于所述区域的深度信息;利用构成滤波目标帧的所述区域的深度信息计算与所述区域关联的参考帧的数量,其中,所述空间滤波器被应用于所述深度信息;基于计算的参考帧的数量更新滤波目标帧中的所述区域的深度信息。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中:深度信息对应于对象与图像采集设备之间关于所述区域的距离,生成和应用步骤包括:基于深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,生成步骤包括:通过参照存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,生成和应用步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的空间滤波器的最大大小中的至少一个,确定基于深度信息的空间滤波器的大小。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,所述深度信息对应于对象与图像采集设备之间关于所述区域的距离,计算步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的参考帧的数量中的至少一个,确定基于深度信息的参考帧的数量。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,确定步骤包括:对参考帧中的每一个的区域的深度信息进行平均,以确定滤波目标帧中的所述区域的深度信息。
根据一个或多个实施例的另一方面,可提供一种对深度噪声进行滤波的方法,所述方法包括:利用构成3D图像的滤波目标帧的区域的深度信息,计算关于所述区域的参考帧的数量;基于计算的参考帧的数量更新滤波目标帧中的所述区域的深度信息;利用所述更新的深度信息生成用于所述区域的空间滤波器,以将所述区域的空间滤波器应用于所述区域的深度信息。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中:所述深度信息对应于对象与图像采集设备之间关于所述区域的距离,计算参考帧的数量的步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的参考帧的数量中的至少一个,确定基于深度信息的参考帧的数量。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,更新步骤包括:对参考帧中的每一个的区域的深度信息进行平均,以更新滤波目标帧中的所述区域的深度信息。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,所述深度信息对应于对象与图像采集设备之间关于所述区域的距离,生成步骤包括:基于所述更新的深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,生成步骤包括:通过参照存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,生成步骤包括:利用所述更新的深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的空间滤波器的最大大小中的至少一个,确定基于深度信息的空间滤波器的大小。
根据一个或多个实施例的另一方面,可提供一种生成空间滤波器的方法,所述方法包括:获得构成3D图像的滤波目标帧的区域的深度信息;基于所述深度信息确定用于所述区域的空间滤波器的特性;基于空间滤波器的所述特性,生成将被应用于所述区域的空间滤波器。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中:所述深度信息对应于对象与图像采集设备之间关于所述区域的距离,确定步骤包括:基于深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,生成步骤包括:通过参照存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,确定步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的空间滤波器的最大大小中的至少一个,确定基于深度信息的空间滤波器的大小。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中,确定步骤包括:当所述更新的深度信息对应于较短距离时,减小空间滤波器的大小。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的方法,其中:确定步骤包括:当所述更新的深度信息对应于较短距离时,增加空间滤波器的系数的减小速率,在从空间滤波器的中心向空间滤波器的四周靠近的同时,空间滤波器的系数减小。
根据一个或多个实施例的另一方面,可提供一种对深度噪声进行滤波的设备,所述设备包括:空间滤波器生成单元,利用构成3D图像的滤波目标帧的区域的深度信息生成用于所述区域的空间滤波器;滤波单元,通过将所述空间滤波器应用于所述区域的深度信息来对3D图像执行深度噪声滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,其中:所述深度信息对应于对象与图像采集设备之间关于所述区域的距离,空间滤波器生成单元基于深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,其中,空间滤波器生成单元通过参照存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
根据一个或多个实施例的另一方面,可提供一种对深度噪声进行滤波的设备,所述设备包括:帧计算单元,利用构成3D图像的滤波目标帧的区域的第一深度信息计算与所述区域关联的参考帧的数量;深度信息决定单元,基于计算的参考帧的数量确定滤波目标帧中的所述区域的第二深度信息。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,其中,深度信息决定单元对参考帧中的每一个的区域的深度信息进行平均,以确定滤波目标帧中的所述区域的第二深度信息。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,所述设备利用所述第二深度信息执行时间滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,所述设备利用所述第二深度信息执行空间滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,其中,深度信息决定单元,按照所述第二深度信息生成空间滤波器确定第三深度信息,且将所述空间滤波器应用于所述第二深度信息。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,所述设备执行空间滤波后执行时间滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,所述设备执行时间滤波后执行空间滤波。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,其中,深度信息决定单元,将权重应用于关于所述参考帧的每个区域的更新的深度信息,所述权重基于所述计算的参考帧的数量被确定。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,所述设备将空间滤波器应用于深度信息,以生成所述第一深度信息。
根据一个或多个实施例的一方面,可提供一种对深度噪声进行滤波的设备,所述设备利用与所述第一深度信息和第二深度信息不同的深度信息生成空间滤波器。
实施例另外的方面、特点和/或优点将在下面的描述中被阐述,并且部分地将通过描述而明显,或者可通过本公开的实践而了解。
附图说明
通过下面结合附图对实施例的描述,本发明的这些和/或其他方面和优点将变得更加清楚并更容易理解,其中:
图1是示出根据实施例的使用深度噪声滤波设备重构三维(3D)图像的处理的示图;
图2是示出根据实施例的执行空间滤波以去除深度噪声的方法的流程图;
图3是示出根据实施例的执行时间滤波以去除深度噪声的方法的流程图;
图4是示出根据实施例的执行空间滤波和时间滤波以去除深度噪声的方法的流程图;
图5是示出根据实施例的执行时间滤波和空间滤波以去除深度噪声的方法的流程图;
图6是示出根据实施例的基于深度信息的深度噪声差异的示例的示图;
图7是示出根据实施例的基于深度信息计算空间滤波器的大小的处理的示图;
图8是示出根据实施例的基于深度信息计算空间滤波器的系数的处理的示图;
图9示出根据实施例的将空间滤波器应用于深度信息的示例;
图10示出根据实施例的基于深度信息确定参考帧的数量以执行时间滤波的示例;
图11是示出根据实施例的用于执行空间滤波的深度噪声滤波设备的构造的框图;
图12是示出根据实施例的用于执行时间滤波的深度噪声滤波设备的构造的框图。
具体实施方式
现在将详细说明实施例,实施例的示例示出于附图中,在附图中,相同的标号始终表示相同的部件。下面参照附图描述实施例以解释本公开。
图1是示出根据实施例的利用深度噪声滤波设备103重构三维(3D)图像的处理的示图。此外,在整个说明书中,图1的深度噪声滤波设备103会是始终适用的。
参照图1,图像采集设备102可拍摄对象101以采集图像。此外,图像采集设备102可从对象101采集3D图像,即,可获得与对象101关联的颜色信息和深度信息。这里,颜色信息表示经图像采集设备102的电荷耦合器件(CCD)或互补金属氧化物半导体(CMOS)图像传感器采集的信息。深度信息表示从图像采集设备102至对象101的每一点的距离。
例如,图像采集设备102可测量从图像采集设备102发射的光被对象101反射以返回图像采集设备102的时间,然后测量对象101与图像采集设备102之间的距离。图像采集设备102可通过测量的距离获得深度信息。在该实例中,获得的深度信息可包括取决于对象101与图像采集设备102之间的距离的深度噪声。深度噪声滤波设备103可执行滤波以去除深度信息中的深度噪声。具体地讲,深度噪声滤波设备103可利用低通滤波器(LPF)执行滤波,从而去除深度噪声。
例如,深度噪声滤波设备103可根据深度信息执行空间滤波。此外,深度噪声滤波设备103可根据深度信息执行时间滤波。此外,深度噪声滤波设备103可根据深度信息执行空间滤波和时间滤波二者。此外,深度噪声滤波设备103可依次执行空间滤波和时间滤波。
深度噪声滤波设备103可基于深度信息计算滤波器的大小或系数以生成滤波器,并且可通过应用生成的滤波器来执行空间滤波。深度噪声滤波设备103可基于深度信息计算参考帧的数量,以执行时间滤波。
具体地讲,可通过对滤波的深度信息和颜色信息进行重构来生成增强的3D图像104。
如上所述,下面图2至图5中的方法可通过图1的深度噪声滤波设备103来执行,因此可参照图1来描述。
图2是示出根据实施例的执行空间滤波以去除深度噪声的方法的流程图。
在操作S201,深度噪声滤波设备103可获得构成3D图像的滤波目标帧的区域的深度信息。这里,所述区域可以是构成滤波目标帧的像素或块。具体地讲,深度噪声滤波设备103可基于像素单元或块单元来执行滤波。深度信息可以指对象101与图像采集设备102之间的距离。
深度噪声滤波设备103可经图像采集设备102获得深度信息,所述深度信息对应于对象101与图像采集设备102之间的距离。
在操作S202,深度噪声滤波设备103可利用深度信息生成用于该区域的空间滤波器。例如,深度噪声滤波设备103可基于深度信息确定将应用于该区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
在这种情况下,深度噪声滤波设备103可利用深度信息、图像采集设备102的最大测量距离、图像采集设备102的最小测量距离以及在最大测量距离下的空间滤波器的最大大小,来确定基于深度信息的空间滤波器的大小。例如,深度噪声滤波设备103可根据下面的等式1确定空间滤波器的大小:
[等式1]
其中,depth表示深度信息,size表示根据深度信息的空间滤波器的大小,minDistance表示图像采集设备102的最小测量距离,maxDistance表示图像采集设备102的最大测量距离,maxfiltersize表示在图像采集设备102的最大测量距离下的空间滤波器的最大大小。
例如,这里假设图像采集设备102的最大测量距离为3.5m,图像采集设备102的最小测量距离为0.5m,在最大测量距离下的空间滤波器的最大大小为9。另外,假设实际深度图像在1.5m和3m之间。当深度信息为1.5m时,空间滤波器的大小可被确定为整数3。在这种情况下,空间滤波器可被确定为3×3滤波器。空间滤波器的系数可被确定为1/9。此外,当深度信息为1.9时,空间滤波器的大小可被确定为4.2,空间滤波器可被确定为4×4滤波器。空间滤波器的系数可被确定为1/16。这里,空间滤波器的系数可表示将被应用于3D图像的滤波目标帧的权重系数。
根据上面的等式1,当深度信息对应于较短距离时,深度噪声滤波设备103可减小空间滤波器的大小。相反,当深度信息对应于较长距离时,深度噪声滤波设备103可增大空间滤波器的大小。
例如,深度噪声滤波设备103可基于深度信息确定空间滤波器的系数。在相同的滤波器大小的情况下,深度噪声滤波设备103可基于深度信息将空间滤波器的系数确定为不同。
这里,在从空间滤波器的中心向空间滤波器的四周靠近时,空间滤波器的系数可减小。空间滤波器的系数从空间滤波器的中心向空间滤波器的四周的减小速率(decrease rate)可被不同地确定。具体地讲,当深度信息对应于较短距离时,深度噪声滤波设备103可将空间滤波器的系数的减小速率确定为较大。相反,当深度信息对应于较长距离时,深度噪声滤波设备103可将空间滤波器的系数的减小速率确定为较小。
空间滤波器的系数的减小速率可通过例如高斯函数来表示。在这种情况下,可基于高斯函数的sigma值来确定高斯函数的宽度。当深度信息对应于较短距离时,sigma值可被设置为较小。相反,当深度信息对应于较长距离时,sigma值可被设置为较大。
深度噪声滤波设备103可基于深度信息同时确定空间滤波器的大小和系数。例如,深度噪声滤波设备103可通过参照存储有空间滤波器信息的表来生成与深度信息对应的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的至少一个相关联。具体地讲,深度噪声滤波设备103可针对特定深度信息预先运行空间滤波器的特性,然后立即生成适合于输入的深度信息的空间滤波器。
当在表中没有设置用于生成空间滤波器的深度信息D1时,深度噪声滤波设备103可通过将表中现有的预定深度信息结合来生成空间滤波器。具体地讲,深度噪声滤波设备103可在表的预定深度信息中,确定能够包含深度信息D1的两条深度信息D2和D3。可通过基于与深度信息D1之差将权重应用于深度信息D2和D3每一个的空间滤波器来生成深度信息D1的空间滤波器。
在操作S203,深度噪声滤波设备103可通过将空间滤波器应用于所述区域的深度信息来对3D图像执行深度信息滤波。如上所述,所述区域可以是构成滤波目标帧的像素或块。通过应用空间滤波器,可去除对应于高频分量的深度噪声。具体地讲,由于当深度信息对应于长距离时,高频分量作为深度噪声出现,所以深度噪声滤波设备103可通过增加深度噪声滤波的强度来去除深度噪声。稍后将参照图9详细描述应用空间滤波器的示例。
具体地讲,在构成3D图像的单个滤波目标帧中,空间滤波可以指通过将空间滤波器应用于构成该滤波目标帧的区域来去除深度噪声。此外,随着与对象101的距离变得越远,深度噪声会更频繁地出现。因此,随着与对象101的距离变得更远,深度噪声滤波设备103可增大滤波强度,以去除深度噪声。
图3是示出根据实施例的执行时间滤波以去除深度噪声的方法的流程图。
在操作S301,深度噪声滤波设备103可获得构成3D图像的滤波目标帧的区域的深度信息。在这种情况下,深度噪声滤波设备103可从图像采集设备102获得深度信息。所述区域和深度信息与上面参照图2进行的描述相同。
在操作S302,深度噪声滤波设备103可利用深度信息计算与所述区域关联的参考帧的数量。由于对于每一区域,深度信息是不同的,所以针对每一区域计算的参考帧的数量也会是不同的。在这种情况下,以滤波目标帧为基准,时间上在前或在后出现的多个帧可被确定为参考帧。
深度噪声滤波设备103可利用深度信息、图像采集设备102的最大测量距离、图像采集设备102的最小测量距离以及在最大测量距离下的参考帧的数量中的至少一个,来计算基于深度信息的参考帧的数量。例如,深度噪声滤波设备103可根据下面的等式2计算参考帧的数量:
[等式2]
其中,depth表示深度信息,Num2表示参考帧的数量,minDistance表示图像采集设备102的最小测量距离,maxDistance表示图像采集设备102的最大测量距离,maxNumofFrames表示在图像采集设备102的最大测量距离下的参考帧的最大数量。
例如,这里假设图像采集设备102的最大测量距离为3.5m,图像采集设备102的最小测量距离为0.5m,在最大测量距离下的参考帧的最大数量为9。另外,假设实际深度图像在1.5m和3m之间。当深度信息为1.5m时,Num可被确定为整数3,因此参考帧的数量可为9。此外,当深度信息为1.9m时,Num可被确定为4.2,因此参考帧的数量可为16。
在这种情况下,将被应用于每一参考帧的区域的权重可被确定为与参考帧的数量成反比。具体地讲,当参考帧的数量为9时,权重1/9可适用于9个参考帧中的每一个的区域的深度信息。
根据上面的等式2,当深度信息对应于较短距离时,深度噪声滤波设备103可减少参考帧的数量;相反,当深度信息对应于较长距离时,深度噪声滤波设备103可增加参考帧的数量。
在操作S303,深度噪声滤波设备103可基于计算的参考帧的数量确定滤波目标帧中的所述区域的深度信息。例如,深度噪声滤波设备103可对计算的参考帧的深度信息进行平均,以确定滤波目标帧中的所述区域的深度信息。
例如,当参考帧的数量为9时,深度噪声滤波设备103可首先将权重1/9应用于与滤波目标帧的所述区域对应的9个参考帧中的每一个参考帧的区域的深度信息。接下来,深度噪声滤波设备103可对应用的结果进行平均,并确定滤波目标帧的所述区域的深度信息。
图4是示出根据实施例的执行空间滤波和时间滤波以去除深度噪声的方法的流程图。
现在参照图1和图4,在操作S401,深度噪声滤波设备103可获得构成3D图像的滤波目标帧的区域的深度信息。所述区域和深度信息可参照上面参照图2进行的描述。
在操作S402,深度噪声滤波设备103可利用在操作S401获得的深度信息生成用于所述区域的空间滤波器,以将所述空间滤波器应用于所述区域的深度信息。这里,操作S401和S402可表示空间滤波。与操作S401和S402有关的更详细的描述可参考上面参照图2所进行的描述。
在操作S403,深度噪声滤波设备103可利用构成滤波目标帧的所述区域的深度信息计算与所述区域关联的参考帧的数量。这里,空间滤波器被应用于所述深度信息。
在操作S404,深度噪声滤波设备103可基于利用在操作S403获得的深度信息计算的参考帧的数量确定滤波目标帧中的所述区域的更新的深度信息。这里,操作S403和S404可表示时间滤波。有关操作S403和S404的更详细的描述可参考上面参照图3所进行的描述。
具体地讲,图4可示出针对3D图像首先应用空间滤波,然后应用时间滤波的示例。
图5是示出根据实施例的执行时间滤波和空间滤波以去除深度噪声的方法的流程图。
参照图1和图5,在操作S501,深度噪声滤波设备103可获得构成3D图像的滤波目标帧的区域的深度信息。所述区域和深度信息可参考上面参照图2进行的描述。
在操作S502,深度噪声滤波设备103可利用构成3D图像的滤波目标帧的所述区域的深度信息计算与所述区域关联的参考帧的数量。
在操作S503,深度噪声滤波设备103可基于计算的参考帧的数量确定滤波目标帧中的所述区域的深度信息。这里,操作S502和S503可与前面应用时间滤波的处理相关联,因此与其有关的更详细的描述可参考上面参照图3所进行的描述。
在操作S504,深度噪声滤波设备103可利用在操作S503确定的深度信息生成所述区域的空间滤波器,以将所述空间滤波器应用于在操作S503确定的所述区域的深度信息。
这里,操作S504可与前面的应用空间滤波的处理相关联,因此与其有关的更详细的描述可参考上面参照图3所进行的描述。
具体地讲,图5可示出针对3D图像首先应用时间滤波,然后应用空间滤波的示例。
图6是示出根据实施例的基于深度信息的深度噪声差异的示例的示图。
参照图6,可根据作为对象101与图像采集设备102之间的距离的深度信息来验证深度噪声的水平。如上面参照图1所描述的,可通过将从图像采集设备102发射的光被对象101反射从而返回图像采集设备102的持续时间除以光速来确定深度信息。在这种情况下,当靠近图像采集设备102布置对象101时,从对象101反射的光的光强会较大,因此深度信息的精度会较高。相应地,随着对象101与图像采集设备102之间的距离变近,深度噪声会相对较小。相反,当远离图像采集设备102布置对象101时,反射光的光强会较小,因此深度信息的精度会较低。在这种情况下,依附于深度信息的深度噪声会相对较大。
具体地讲,随着对象101与图像采集设备102之间的距离变远,深度噪声会增加。相反,随着对象101与图像采集设备102之间的距离变近,深度噪声会减少。因此,根据实施例的图1的深度噪声滤波设备103可生成空间滤波器,以使得在从空间滤波器的中心向空间滤波器的四周靠近的同时,空间滤波器的系数可减小。在这种情况下,深度噪声滤波设备103可基于深度信息将空间滤波器的系数的减小速率确定为不同。例如,随着对象101与图像采集设备102之间的距离变远,深度噪声滤波设备103可减小空间滤波器的系数的减小速率。相反,随着对象101与图像采集设备102之间的距离变近,深度噪声滤波设备103可增大空间滤波器的系数的减小速率。此外,随着对象101与图像采集设备102之间的距离变远,深度噪声滤波设备103可增加用于时间滤波的参考帧的数量。
图7是示出根据实施例的基于深度信息计算空间滤波器的大小的处理的示图。
如上面参照图6所描述的,随着对象101与图像采集设备102之间的距离变远,图1的深度噪声滤波设备103可增加用于空间滤波的空间滤波器的大小。具体地讲,当对象101与图像采集设备102之间的距离对应于长距离时,可确定5×5空间滤波器701。当对象101与图像采集设备102之间的距离对应于中等距离时,可确定4×4空间滤波器702。此外,当对象101与图像采集设备102之间的距离对应于短距离时,可确定3×3空间滤波器703。
确定空间滤波器的大小的处理可参考上面的等式1。
图8是示出根据实施例的基于深度信息计算空间滤波器的系数的处理的示图。
这里,假设空间滤波器801、802、803和804具有相同的大小。
如上面参照图6所描述的,随着对象101与图像采集设备102之间的距离变远,图1的深度噪声滤波设备103可减小空间滤波器的系数的减小速率。具体地讲,在从空间滤波器的中心向空间滤波器的四周靠近的同时,深度噪声滤波设备103可减小空间滤波器的系数。在这种情况下,深度噪声滤波设备103可基于深度信息不同地确定空间滤波器的系数的减小速率。
当深度信息对应于较短距离时,深度噪声滤波设备103可增加空间滤波器的系数的减小速率。在执行空间滤波时,将被应用空间滤波器的区域会较少受到相邻区域的深度信息的影响。相反,当深度信息对应于较长距离时,深度噪声滤波设备103可减小空间滤波器的系数的减小速率。具体地讲,在执行空间滤波时,应用了空间滤波器的区域会极大地受到相邻区域的深度信息的影响。
参照图8,可通过高斯函数来表示空间滤波器的系数的减小速率。这里,用于确定高斯函数的宽度的sigma值表示空间滤波器的系数的减小速率,并且可基于深度信息被不同地设置。例如,当深度信息对应于短距离时,高斯函数的sigma值可被设置为较小。相反,当深度信息对应于长距离时,高速函数的sigma值可被设置为较大。
参照图8,随着对象101与图像采集设备102之间的距离变远,深度噪声会变强,因此深度噪声滤波设备103可增大滤波强度。具体地讲,当滤波强度增大时,可去除深度信息中的大量高频分量。相反,随着对象101与图像采集设备103之间距离变近,深度噪声会变弱,因此深度噪声滤波设备103可减小滤波强度。例如,当深度信息对应于长距离时,3D图像的高频分量可能是噪声分量。在这种情况下,深度噪声滤波设备103可调节滤波强度,以去除对应于噪声分量的高频分量。相反,当深度信息对应于短距离时,3D图像的高频分量会是3D图像的原始分量,而非噪声分量。因此,深度噪声滤波设备103可调节滤波强度,以保留对应于3D图像的原始分量的高频分量。
图9示出根据实施例的将空间滤波器901应用于深度信息的示例。
空间滤波器901表示通过图1的深度噪声滤波设备103生成的空间滤波器。深度信息902表示将被应用空间滤波器901的区域的深度信息。在这种情况下,空间滤波器901可应用于区域e。区域e可以是像素或者由像素组成的块。
可通过将空间滤波器901应用于所述区域的深度信息902来获得另一深度信息903。具体地讲,深度信息903对应于执行空间滤波的结果。e’表示执行了空间滤波的深度信息。
例如,可根据下面的等式3确定执行了空间滤波的深度信息e’。
[等式3]
e ’=(A×a)+(B×b)+(C×c)+(D×d)+(E×e)+(F×f)+(G×g)+(H×h)+(I×i)
参照上面的等式3,可基于将被应用空间滤波器901的区域的相邻区域的深度信息来执行空间滤波。上面的滤波处理被称为基于掩模的滤波处理。根据实施例,可基于滤波目标区域的深度信息确定空间滤波器的大小或系数。
图10示出根据实施例的基于深度信息确定参考帧的数量以执行时间滤波的示例。
图10的多个帧可表示用于执行时间滤波的参考帧。这里,假设帧1001是滤波目标帧。滤波目标帧1001可包括区域1002、1003和1004。
此外,这里假设从图1的远离图像采集设备102布置的对象101获得区域1002的深度信息,从与图像采集设备102相距中等距离布置的对象101获得区域1003的深度信息,从与图像采集设备102近距离布置的对象101获得区域1004的深度信息。
根据实施例,深度噪声滤波设备103可利用深度信息计算与所述区域关联的参考帧的数量。例如,当所述区域的深度信息对应于较长距离时,深度噪声滤波设备103可增加参考帧的数量,相反,当所述区域的深度信息对应于较短距离时,深度噪声滤波设备103可减少参考帧的数量。
参照图10,在区域1004的情况下,深度信息可对应于短距离,因此可确定相对较少数量的参考帧1007。此外,在区域1003的情况下,深度信息可对应于中等距离,因此可确定大于参考帧1007的数量的中等数量的参考帧1006。此外,在区域1002的情况下,深度信息可对应于长距离,因此,可确定相对较大数量的参考帧1005。在这种情况下,可以看出,参考帧1005的数量可大于参考帧1006或1007的数量。
具体地讲,根据实施例,在滤波目标帧1001中,当深度信息对应于较短距离时,深度噪声滤波设备103可减少参考帧的数量,当深度信息对应于较长距离时,深度噪声滤波设备103可增加参考帧的数量。例如,在对区域1003执行时间滤波时,深度噪声滤波设备103可通过对与参考帧1006的数量对应的参考帧中的区域1003的深度信息进行平均,来更新区域1003的深度信息。
图11是示出根据实施例的用于执行空间滤波的深度噪声滤波设备1103的构造的框图。
参照图11,深度噪声滤波设备1103可包括空间滤波器生成单元1101和滤波单元1102。
空间滤波器生成单元1101可利用构成3D图像的滤波目标帧的区域的深度信息,生成用于所述区域的空间滤波器。例如,空间滤波器生成单元1101可利用深度信息计算空间滤波器的大小和系数中的至少一个。此外,空间滤波器生成单元1101可同时计算空间滤波器的大小和系数。如上面参照图1所描述的,所述区域可以是构成滤波目标帧的像素或块。深度信息可以对应于图像采集设备与对象之间的距离。
在这种情况下,空间滤波器生成单元1101可利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离以及在最大测量距离下的空间滤波器的最大大小来确定基于深度信息的空间滤波器的大小。
此外,当深度信息对应于较短距离时,空间滤波器生成单元1101可减小空间滤波器的大小,相反,当深度信息对应于较长距离时,空间滤波器生成单元1101可增加空间滤波器的大小。此外,空间滤波器生成单元1101可以以下述方式生成空间滤波器,即在从空间滤波器的中心向空间滤波器的四周靠近的同时,空间滤波器的系数可减小。例如,空间滤波器生成单元1101可根据深度信息不同地确定减小速率。具体地讲,当深度信息对应于较短距离时,空间滤波器生成单元1101可增大空间滤波器的系数的减小速率。相反,当深度信息对应于较长距离时,空间滤波器生成单元1101可减小空间滤波器的系数的减小速率。
具体地讲,空间滤波器生成单元1101可通过基于深度信息执行运算处理来实时地生成空间滤波器。此外,例如,空间滤波器生成单元1101可通过参考存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的至少一个关联。具体地讲,空间滤波器生成单元1101可针对特定深度信息预先运行空间滤波器的特性,然后立即生成适合于输入的深度信息的空间滤波器。
在这种情况下,当表中没有存储用于生成所述空间滤波器的深度信息D1时,空间滤波器生成单元1101可通过将表中现有的预定深度信息结合来生成所述空间滤波器。具体地讲,空间滤波器生成单元1101可通过将权重应用于与能够包含深度信息D1的两条深度信息D2和D3中的每一条对应的空间滤波器来生成根据深度信息D1的空间滤波器。
滤波单元1102可通过将所述空间滤波器应用于所述区域的深度信息来对3D图像执行深度噪声滤波。在这种情况下,可通过应用基于掩模的空间滤波器,基于所述区域的相邻区域的深度信息来执行深度噪声滤波。
图12是示出根据实施例的用于执行时间滤波的深度噪声滤波设备1203的构造的框图。
参照图12,深度噪声滤波设备1203可包括帧计算单元1201和深度信息决定单元1202。
帧计算单元1201可利用构成3D图像的滤波目标帧的区域的深度信息计算与所述区域关联的参考帧的数量。例如,帧计算单元1201可利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离以及在最大测量距离下的参考帧的数量来计算基于深度信息的参考帧的数量。在这种情况下,当所述区域的深度信息对应于较长距离时,帧计算单元1201可增加参考帧的数量。相反,当所述区域的深度信息对应于较短距离时,帧计算单元1201可减小参考帧的数量。
深度信息决定单元1202可基于计算的参考帧的数量确定滤波目标帧中的所述区域的深度信息。例如,深度信息决定单元1202可对每一参考帧的区域的深度信息进行平均,以确定滤波目标帧中的所述区域的深度信息。
在图11和图12中没有描述的事物可以参考上面参照图1至图10进行的描述。
根据实施例,可提供一种能够根据深度信息执行空间滤波,从而自适应地去除深度噪声的深度噪声滤波方法和设备。
根据实施例,可提供一种能够根据深度信息执行时间滤波,从而自适应地去除深度噪声的深度噪声滤波方法和设备。
根据实施例,可提供一种能够根据深度信息计算空间滤波器的大小或系数以便执行空间滤波,从而根据深度信息有效去除深度噪声的深度噪声滤波方法和设备。
根据实施例,可提供一种能够基于深度信息确定参考帧的数量以便执行时间滤波,从而根据深度信息有效去除深度噪声的深度噪声滤波方法和设备。
根据上述实施例的深度噪声滤波方法可被记录在包含程序指令的计算机可读介质中,所述程序指令由计算机执行以实现各种操作。所述介质还可包括程序指令、数据文件、数据结构等或者其组合。计算机可读介质的例子包括:磁介质,如硬盘、软盘和磁带;光学介质,如CD ROM盘和DVD;磁光介质,如光盘;以及专门配置为存储和执行程序指令的硬件装置,如只读存储器(ROM)、随机存取存储器(RAM)、闪存等。程序指令的例子包括机器码(例如由编译器生成的机器码)和包含能够被计算机利用解释程序执行的高级代码的文件。所描述的硬件装置可被配置为用作一个或多个软件模块,以便执行上述实施例的操作,反之亦然。
尽管已经显示和描述了若干实施例,但是本领域技术人员应该理解的是,在不脱离本公开的原理和精神的情况下,可对这些实施例进行改变,本公开的范围由权利要求及其等同物限定。
Claims (49)
1.一种对深度噪声进行滤波的方法,所述方法包括:
获得构成3D图像的滤波目标帧的区域的深度信息;
利用所述深度信息生成用于所述区域的空间滤波器;
通过将所述空间滤波器应用于所述区域的深度信息来对3D图像执行深度噪声滤波。
2.根据权利要求1所述的方法,其中:
深度信息对应于对象与图像采集设备之间关于所述区域的距离,
生成步骤包括:基于深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
3.根据权利要求2所述的方法,其中,生成步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的空间滤波器的最大大小中的至少一个,确定基于深度信息的空间滤波器的大小。
4.根据权利要求2所述的方法,其中,生成步骤包括:通过参照存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
5.根据权利要求2所述的方法,其中,生成步骤进一步包括:当深度信息对应于较短距离时,减小空间滤波器的大小。
6.根据权利要求2所述的方法,其中:
生成步骤进一步包括:当深度信息对应于较短距离时,增加空间滤波器的系数的减小速率,
在从空间滤波器的中心向空间滤波器的四周靠近的同时,空间滤波器的系数减小。
7.根据权利要求1所述的方法,其中,所述区域是构成滤波目标帧的像素或块中的任何一个。
8.一种对深度噪声进行滤波的方法,所述方法包括:
获得构成3D图像的滤波目标帧的区域的深度信息;
利用所述深度信息计算与所述区域关联的参考帧的数量;
基于计算的参考帧的数量更新滤波目标帧中的所述区域的深度信息。
9.根据权利要求8所述的方法,所述方法进一步包括:将空间滤波器应用于所述深度信息,
计算步骤包括,利用应用所述空间滤波器的深度信息计算参考帧的数量。
10.根据权利要求8所述的方法,所述方法进一步包括:对所述获得的深度信息执行时间滤波。
11.根据权利要求8所述的方法,所述方法进一步包括:对所述更新的深度信息执行空间滤波。
12.根据权利要求8所述的方法,所述方法进一步包括:
利用所述更新的深度信息生成空间滤波器;
所述空间滤波器应用于所述更新的深度信息。
13.根据权利要求8所述的方法,所述方法对所述深度信息执行空间滤波后执行时间滤波。
14.根据权利要求8所述的方法,所述方法对所述深度信息执行时间滤波后执行空间滤波。
15.根据权利要求8所述的方法,所述方法进一步包括:将权重应用于关于所述参考帧的每个区域的更新的深度信息,
所述权重基于计算的参考帧的数量被确定。
16.根据权利要求8所述的方法,其中:
深度信息对应于对象与图像采集设备之间关于所述区域的距离,
计算步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的参考帧的数量中的至少一个,确定基于深度信息的参考帧的数量。
17.根据权利要求16所述的方法,其中,计算步骤包括:当所述区域的深度信息对应于较短距离时,减少参考帧的数量。
18.根据权利要求8所述的方法,其中,更新步骤包括:对参考帧中的每一个的区域的深度信息进行平均,以更新滤波目标帧中的所述区域的深度信息。
19.一种对深度噪声进行滤波的方法,所述方法包括:
获得构成3D图像的滤波目标帧的区域的深度信息;
利用所述深度信息生成用于所述区域的空间滤波器,以将所述空间滤波器应用于所述区域的深度信息;
利用构成滤波目标帧的所述区域的深度信息计算与所述区域关联的参考帧的数量,其中,所述空间滤波器被应用于所述深度信息;
基于计算的参考帧的数量更新滤波目标帧中的所述区域的深度信息。
20.根据权利要求19所述的方法,其中:
深度信息对应于对象与图像采集设备之间关于所述区域的距离,
生成步骤包括:基于深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
21.根据权利要求20所述的方法,其中,生成步进一步骤包括:通过参照存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
22.根据权利要求20所述的方法,其中,生成步骤进一步包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的空间滤波器的最大大小中的至少一个,确定基于深度信息的空间滤波器的大小。
23.根据权利要求19所述的方法,其中:
深度信息对应于对象与图像采集设备之间关于所述区域的距离,
计算步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的参考帧的数量中的至少一个,确定基于深度信息的参考帧的数量。
24.根据权利要求19所述的方法,其中,更新步骤包括:对参考帧中的每一个的区域的深度信息进行平均,以更新滤波目标帧中的所述区域的深度信息。
25.一种对深度噪声进行滤波的方法,所述方法包括:
利用构成3D图像的滤波目标帧的区域的深度信息,计算关于所述区域的参考帧的数量;
基于计算的参考帧的数量更新滤波目标帧中的所述区域的深度信息;
利用所述更新的深度信息生成用于所述区域的空间滤波器,以将所述区域的空间滤波器应用于所述区域的深度信息。
26.根据权利要求25所述的方法,其中:
深度信息对应于对象与图像采集设备之间关于所述区域的距离,
计算参考帧的数量的步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的参考帧的数量中的至少一个,计算基于深度信息的参考帧的数量。
27.根据权利要求25所述的方法,其中,更新步骤包括:对参考帧中的每一个的区域的深度信息进行平均,以更新滤波目标帧中的所述区域的深度信息。
28.根据权利要求25所述的方法,其中:
所述深度信息对应于对象与图像采集设备之间关于所述区域的距离,
生成步骤包括:基于所述更新的深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
29.根据权利要求28所述的方法,其中,生成步骤包括:通过参照存储有空间滤波器信息的表来生成对应于所述更新的深度信息的空间滤波器,所述空间滤波器信息与基于所述更新的深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
30.根据权利要求28所述的方法,其中,生成步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的空间滤波器的最大大小中的至少一个,确定基于所述更新的深度信息的空间滤波器的大小。
31.一种生成空间滤波器的方法,所述方法包括:
获得构成3D图像的滤波目标帧的区域的深度信息;
基于所述深度信息确定用于所述区域的空间滤波器的特性;
基于空间滤波器的所述特性,生成将被应用于所述区域的空间滤波器。
32.根据权利要求31所述的方法,其中:
深度信息对应于对象与图像采集设备之间关于所述区域的距离,
确定步骤包括:基于深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
33.根据权利要求32所述的方法,其中,生成步骤包括:通过参照存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
34.根据权利要求32所述的方法,其中,确定步骤包括:利用深度信息、图像采集设备的最大测量距离、图像采集设备的最小测量距离和在最大测量距离下的空间滤波器的最大大小中的至少一个,确定基于深度信息的空间滤波器的大小。
35.根据权利要求32所述的方法,其中,确定步骤包括:当所述更新的深度信息对应于较短距离时,减小空间滤波器的大小。
36.根据权利要求32所述的方法,其中:
确定步骤包括:当所述更新的深度信息对应于较短距离时,增加空间滤波器的系数的减小速率,
在从空间滤波器的中心向空间滤波器的四周靠近的同时,空间滤波器的系数减小。
37.一种对深度噪声进行滤波的设备,所述设备包括:
空间滤波器生成单元,利用构成3D图像的滤波目标帧的区域的深度信息生成用于所述区域的空间滤波器;
滤波单元,通过将所述空间滤波器应用于所述区域的深度信息来对3D图像执行深度噪声滤波。
38.根据权利要求37所述的设备,其中:
深度信息对应于对象与图像采集设备之间关于所述区域的距离,
空间滤波器生成单元基于深度信息确定将应用于所述区域的空间滤波器的大小和空间滤波器的系数中的至少一个。
39.根据权利要求38所述的设备,其中,空间滤波器生成单元通过参照存储有空间滤波器信息的表来生成对应于深度信息的空间滤波器,所述空间滤波器信息与基于深度信息预先确定的空间滤波器的大小和空间滤波器的系数中的所述至少一个关联。
40.一种对深度噪声进行滤波的设备,所述设备包括:
帧计算单元,利用构成3D图像的滤波目标帧的区域的第一深度信息计算与所述区域关联的参考帧的数量;
深度信息决定单元,基于计算的参考帧的数量确定滤波目标帧中的所述区域的第二深度信息。
41.根据权利要求40所述的设备,其中,深度信息决定单元对参考帧中的每一个的区域的深度信息进行平均,以确定滤波目标帧中的所述区域的第二深度信息。
42.根据权利要求40所述的设备,所述设备利用所述第二深度信息执行时间滤波。
43.根据权利要求40所述的设备,所述设备利用所述第二深度信息执行空间滤波。
44.根据权利要求40所述的设备,其中,所述深度信息决定单元,按照所述第二深度信息生成空间滤波器确定第三深度信息,且将所述空间滤波器应用于所述第二深度信息。
45.根据权利要求40所述的设备,所述设备执行空间滤波后执行时间滤波。
46.根据权利要求40所述的设备,所述设备执行时间滤波后执行空间滤波。
47.根据权利要求40所述的设备,其中,所述深度信息决定单元, 将权重应用于关于所述参考帧的每个区域的深度信息,
所述权重基于所述计算的参考帧的数量被确定。
48.根据权利要求40所述的设备,所述设备将空间滤波器应用于深度信息,以生成所述第一深度信息。
49.根据权利要求48所述的设备,所述设备利用与所述第一深度信息和第二深度信息不同的深度信息生成空间滤波器。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
KR1020090005090A KR101526866B1 (ko) | 2009-01-21 | 2009-01-21 | 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치 |
KR10-2009-0005090 | 2009-01-21 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101783024A true CN101783024A (zh) | 2010-07-21 |
CN101783024B CN101783024B (zh) | 2015-01-07 |
Family
ID=42115482
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201010003916.4A Active CN101783024B (zh) | 2009-01-21 | 2010-01-13 | 利用深度信息对深度噪声进行滤波的方法及设备 |
Country Status (5)
Country | Link |
---|---|
US (2) | US8744167B2 (zh) |
EP (2) | EP2541496B1 (zh) |
JP (1) | JP5519258B2 (zh) |
KR (1) | KR101526866B1 (zh) |
CN (1) | CN101783024B (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226810A (zh) * | 2012-01-26 | 2013-07-31 | 索尼公司 | 图像处理设备和图像处理方法 |
CN103679641A (zh) * | 2012-09-26 | 2014-03-26 | 株式会社理光 | 深度图像增强方法和装置 |
CN106485678A (zh) * | 2016-10-11 | 2017-03-08 | 东南大学 | 一种基于时空滤波的景深时空一致性及精度增强的方法 |
CN104574342B (zh) * | 2013-10-14 | 2017-06-23 | 株式会社理光 | 视差深度图像的噪声识别方法和噪声识别装置 |
Families Citing this family (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101526866B1 (ko) * | 2009-01-21 | 2015-06-10 | 삼성전자주식회사 | 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치 |
US8316590B2 (en) | 2009-03-20 | 2012-11-27 | Northern States Metals Company | Support system for solar panels |
US8240109B2 (en) | 2009-03-20 | 2012-08-14 | Northern States Metals Company | Support system for solar panels |
US8256169B2 (en) | 2009-03-20 | 2012-09-04 | Northern States Metals Company | Support system for solar panels |
WO2011142734A1 (en) * | 2010-05-11 | 2011-11-17 | Thomson Licensing | Comfort noise and film grain processing for 3 dimensional video |
KR101209733B1 (ko) | 2010-09-01 | 2012-12-07 | 현대자동차주식회사 | 가변 밸브 리프트 장치 |
KR101669819B1 (ko) * | 2010-11-11 | 2016-10-27 | 삼성전자주식회사 | 깊이 영상의 고정밀 복원을 위한 필터링 장치 및 방법 |
KR20120057216A (ko) * | 2010-11-26 | 2012-06-05 | 삼성전자주식회사 | 깊이 센서, 상기 깊이 센서의 노이즈 감소 방법, 및 상기 깊이 센서를 포함하는 신호 처리 시스템 |
JP5593243B2 (ja) * | 2011-01-28 | 2014-09-17 | 株式会社日立ソリューションズ | 立体画像処理システム、立体画像処理装置および立体画像処理方法 |
US8842931B2 (en) * | 2011-02-18 | 2014-09-23 | Nvidia Corporation | System, method, and computer program product for reducing noise in an image using depth-based sweeping over image samples |
US8824821B2 (en) * | 2011-03-28 | 2014-09-02 | Sony Corporation | Method and apparatus for performing user inspired visual effects rendering on an image |
US9819879B2 (en) | 2011-07-12 | 2017-11-14 | Samsung Electronics Co., Ltd. | Image filtering apparatus and method based on noise prediction using infrared ray (IR) intensity |
KR101863626B1 (ko) | 2011-11-02 | 2018-07-06 | 삼성전자주식회사 | 영상 처리 장치 및 방법 |
US9031356B2 (en) | 2012-03-20 | 2015-05-12 | Dolby Laboratories Licensing Corporation | Applying perceptually correct 3D film noise |
US9535009B2 (en) * | 2012-05-16 | 2017-01-03 | Hitachi High-Technologies Corporation | Inspection system |
BR112015000996B1 (pt) * | 2012-07-20 | 2022-09-13 | Koninklijke Philips N.V. | Dispositivo de fonte de vídeo para prover um sinal de vídeo representando vídeo para transferir a um dispositivo de destino de vídeo tridimensional; dispositivo de destino de vídeo tridimensional para processar um sinal de vídeo representando vídeo recebido de um dispositivo de fonte de vídeo; método de prover um sinal de vídeo; método de processar um sinal de vídeo; sinal de vídeo; portador de gravação; e meio legível por computador para processar um sinal de vídeo |
JP2014048714A (ja) * | 2012-08-29 | 2014-03-17 | Canon Inc | 画像処理装置及び画像処理方法 |
KR101926498B1 (ko) * | 2012-09-03 | 2019-03-12 | 엘지이노텍 주식회사 | 스테레오 영상 정합 장치 및 이의 정합 방법 |
US9589326B2 (en) | 2012-11-29 | 2017-03-07 | Korea Institute Of Science And Technology | Depth image processing apparatus and method based on camera pose conversion |
KR101362183B1 (ko) | 2012-11-29 | 2014-02-13 | 한국과학기술연구원 | 카메라 자세 기반의 깊이 영상 노이즈 제거 장치 및 방법 |
KR101941907B1 (ko) * | 2013-01-03 | 2019-01-24 | 삼성전자주식회사 | 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법 |
KR20140096532A (ko) * | 2013-01-28 | 2014-08-06 | 한국전자통신연구원 | 디지털 홀로그램 생성 장치 및 그 방법 |
CN103974055B (zh) * | 2013-02-06 | 2016-06-08 | 城市图像科技有限公司 | 3d照片生成系统及方法 |
KR101988384B1 (ko) * | 2013-03-08 | 2019-06-12 | 삼성전자주식회사 | 이미지 매칭 장치, 이미지 매칭 시스템 및 이미지 매칭 방법 |
US9303663B2 (en) | 2013-04-11 | 2016-04-05 | Northern States Metals Company | Locking rail alignment system |
US9329272B2 (en) * | 2013-05-02 | 2016-05-03 | Infineon Technologies Ag | 3D camera and method of image processing 3D images |
US20140363097A1 (en) * | 2013-06-06 | 2014-12-11 | Etron Technology, Inc. | Image capture system and operation method thereof |
FR3028988B1 (fr) | 2014-11-20 | 2018-01-19 | Commissariat A L'energie Atomique Et Aux Energies Alternatives | Procede et dispositif de filtrage adaptatif temps reel d'images de disparite ou de profondeur bruitees |
PL412832A1 (pl) * | 2015-06-24 | 2017-01-02 | Politechnika Poznańska | Sposób renderowania w oparciu o obraz głębi i system do renderowania w oparciu o obraz głębi |
US9940701B2 (en) * | 2015-09-25 | 2018-04-10 | Intel Corporation | Device and method for depth image dequantization |
US9726830B1 (en) | 2016-06-28 | 2017-08-08 | Senko Advanced Components, Inc. | Connector and adapter system for two-fiber mechanical transfer type ferrule |
CN106355611B (zh) * | 2016-09-13 | 2019-03-22 | 江苏奥斯汀光电科技股份有限公司 | 一种基于时空间关联的裸眼3d超解像滤波方法 |
KR101892741B1 (ko) | 2016-11-09 | 2018-10-05 | 한국전자통신연구원 | 희소 깊이 지도의 노이즈를 제거하는 장치 및 방법 |
US10444444B2 (en) | 2017-01-30 | 2019-10-15 | Senko Advanced Components, Inc. | Remote release tab connector assembly |
KR102320198B1 (ko) * | 2017-04-05 | 2021-11-02 | 삼성전자주식회사 | 깊이 영상 보정 방법 및 장치 |
CN109242782B (zh) * | 2017-07-11 | 2022-09-09 | 深圳市道通智能航空技术股份有限公司 | 噪点处理方法及装置 |
US11822133B2 (en) | 2017-07-14 | 2023-11-21 | Senko Advanced Components, Inc. | Ultra-small form factor optical connector and adapter |
US10718911B2 (en) | 2017-08-24 | 2020-07-21 | Senko Advanced Components, Inc. | Ultra-small form factor optical connectors using a push-pull boot receptacle release |
US12001064B2 (en) | 2017-07-14 | 2024-06-04 | Senko Advanced Components, Inc. | Small form factor fiber optic connector with multi-purpose boot |
US10281668B2 (en) | 2017-07-14 | 2019-05-07 | Senko Advanced Components, Inc. | Ultra-small form factor optical connectors |
US11002923B2 (en) | 2017-11-21 | 2021-05-11 | Senko Advanced Components, Inc. | Fiber optic connector with cable boot release having a two-piece clip assembly |
CN111512202B (zh) * | 2017-12-19 | 2022-11-18 | 美国康涅克有限公司 | 具有推拉极性机构和载体的微型双工连接器 |
US11112566B2 (en) | 2018-03-19 | 2021-09-07 | Senko Advanced Components, Inc. | Removal tool for removing a plural of micro optical connectors from an adapter interface |
WO2019191522A1 (en) | 2018-03-28 | 2019-10-03 | Senko Advanced Components Inc | Small form factor fiber optic connector with multi-purpose boot |
CN112088327A (zh) | 2018-07-15 | 2020-12-15 | 扇港元器件股份有限公司 | 超小型光学连接器和适配器 |
KR102545980B1 (ko) | 2018-07-19 | 2023-06-21 | 액티브 서지컬, 인크. | 자동화된 수술 로봇을 위한 비전 시스템에서 깊이의 다중 모달 감지를 위한 시스템 및 방법 |
US11073664B2 (en) | 2018-08-13 | 2021-07-27 | Senko Advanced Components, Inc. | Cable boot assembly for releasing fiber optic connector from a receptacle |
US10921531B2 (en) | 2018-09-12 | 2021-02-16 | Senko Advanced Components, Inc. | LC type connector with push/pull assembly for releasing connector from a receptacle using a cable boot |
US10921530B2 (en) | 2018-09-12 | 2021-02-16 | Senko Advanced Components, Inc. | LC type connector with push/pull assembly for releasing connector from a receptacle using a cable boot |
CN112955797B (zh) | 2018-09-12 | 2022-11-11 | 扇港元器件股份有限公司 | 具有用于利用缆线护套将连接器从插座释放的夹式推/拉舌片的lc型连接器 |
US11806831B2 (en) | 2018-11-21 | 2023-11-07 | Senko Advanced Components, Inc. | Fixture and method for polishing fiber optic connector ferrules |
US11175464B2 (en) | 2018-11-25 | 2021-11-16 | Senko Advanced Components, Inc. | Open ended spring body for use in an optical fiber connector |
CA3125288A1 (en) * | 2018-12-28 | 2020-07-02 | Activ Surgical, Inc. | Generation of synthetic three-dimensional imaging from partial depth maps |
CN113631976B (zh) | 2019-03-28 | 2023-06-09 | 扇港元器件有限公司 | 光纤适配器组件 |
US11340406B2 (en) | 2019-04-19 | 2022-05-24 | Senko Advanced Components, Inc. | Small form factor fiber optic connector with resilient latching mechanism for securing within a hook-less receptacle |
WO2020252355A1 (en) | 2019-06-13 | 2020-12-17 | Senko Advanced Components, Inc | Lever actuated latch arm for releasing a fiber optic connector from a receptacle port and method of use |
KR20200143818A (ko) | 2019-06-17 | 2020-12-28 | 한국전자통신연구원 | 희소 깊이 지도에서 깊이 노이즈를 제거하는 장치 및 방법 |
CN114600018B (zh) | 2019-07-23 | 2024-04-09 | 扇港元器件有限公司 | 用于接收与插芯组件相对的光纤连接器的超小型插座 |
KR20220085481A (ko) | 2020-12-15 | 2022-06-22 | 삼성전자주식회사 | 영상 처리 방법 및 영상 처리 장치 |
KR102665543B1 (ko) | 2021-02-22 | 2024-05-16 | 한국전자통신연구원 | 다시점 영상으로부터의 깊이지도 생성 장치 및 방법 |
KR102593168B1 (ko) * | 2021-11-25 | 2023-10-24 | 광운대학교 산학협력단 | 카메라에 의해 생성된 그래픽스 데이터의 품질 개선 방법 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5986659A (en) * | 1994-11-02 | 1999-11-16 | U.S. Philips Corporation | Blurring for computer graphics generated images |
CN1707520A (zh) * | 2004-06-07 | 2005-12-14 | 索尼株式会社 | 图像处理设备和方法,以及程序 |
CN1739117A (zh) * | 2002-12-20 | 2006-02-22 | Lm爱立信电话有限公司 | 使用最小深度遮挡剔除和z字形遍历的图形处理设备、方法和计算机程序产品 |
US20070024614A1 (en) * | 2005-07-26 | 2007-02-01 | Tam Wa J | Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging |
CN101322418A (zh) * | 2005-12-02 | 2008-12-10 | 皇家飞利浦电子股份有限公司 | 图像信号的深度相关的滤波 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0818852A (ja) | 1994-07-01 | 1996-01-19 | Sony Corp | ビデオカメラのノイズ除去装置 |
JP2003517797A (ja) * | 1999-12-14 | 2003-05-27 | サイエンティフィック−アトランタ, インコーポレイテッド | 調和されたリソースの割当てを有するビデオ信号を適応的に復号化するシステムおよび方法 |
JP2001189944A (ja) | 1999-12-28 | 2001-07-10 | Sony Corp | 撮像装置 |
JP2001189878A (ja) | 1999-12-28 | 2001-07-10 | Sony Corp | 撮像装置 |
US6975329B2 (en) * | 2002-12-09 | 2005-12-13 | Nvidia Corporation | Depth-of-field effects using texture lookup |
JP2007004318A (ja) * | 2005-06-22 | 2007-01-11 | Sega Corp | 画像処理方法、画像処理を実行するためのプログラム、及び、当該プログラムが記憶された記憶媒体 |
US7546026B2 (en) | 2005-10-25 | 2009-06-09 | Zoran Corporation | Camera exposure optimization techniques that take camera and scene motion into account |
JP2007264503A (ja) | 2006-03-29 | 2007-10-11 | Toshiba Corp | 音声合成装置及びその方法 |
US8090210B2 (en) * | 2006-03-30 | 2012-01-03 | Samsung Electronics Co., Ltd. | Recursive 3D super precision method for smoothly changing area |
KR20090052889A (ko) * | 2006-09-04 | 2009-05-26 | 코닌클리케 필립스 일렉트로닉스 엔.브이. | 이미지들로부터 깊이 맵을 결정하기 위한 방법 및 깊이 맵을 결정하기 위한 디바이스 |
KR100806201B1 (ko) | 2006-10-30 | 2008-02-22 | 광주과학기술원 | 깊이영상의 계층적 분해를 이용한 삼차원 비디오 생성방법, 이를 위한 장치, 및 그 시스템과 기록 매체 |
US8340422B2 (en) * | 2006-11-21 | 2012-12-25 | Koninklijke Philips Electronics N.V. | Generation of depth map for an image |
US8488868B2 (en) * | 2007-04-03 | 2013-07-16 | Her Majesty The Queen In Right Of Canada, As Represented By The Minister Of Industry, Through The Communications Research Centre Canada | Generation of a depth map from a monoscopic color image for rendering stereoscopic still and video images |
US7889949B2 (en) * | 2007-04-30 | 2011-02-15 | Microsoft Corporation | Joint bilateral upsampling |
US8248410B2 (en) * | 2008-12-09 | 2012-08-21 | Seiko Epson Corporation | Synthesizing detailed depth maps from images |
KR101526866B1 (ko) * | 2009-01-21 | 2015-06-10 | 삼성전자주식회사 | 깊이 정보를 이용한 깊이 노이즈 필터링 방법 및 장치 |
US8885890B2 (en) * | 2010-05-07 | 2014-11-11 | Microsoft Corporation | Depth map confidence filtering |
US8406548B2 (en) * | 2011-02-28 | 2013-03-26 | Sony Corporation | Method and apparatus for performing a blur rendering process on an image |
-
2009
- 2009-01-21 KR KR1020090005090A patent/KR101526866B1/ko active IP Right Grant
- 2009-12-11 JP JP2009281523A patent/JP5519258B2/ja active Active
- 2009-12-14 US US12/654,208 patent/US8744167B2/en active Active
-
2010
- 2010-01-13 CN CN201010003916.4A patent/CN101783024B/zh active Active
- 2010-01-21 EP EP12178575.2A patent/EP2541496B1/en active Active
- 2010-01-21 EP EP10151259.8A patent/EP2211555B1/en active Active
-
2014
- 2014-05-07 US US14/272,041 patent/US9471963B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5986659A (en) * | 1994-11-02 | 1999-11-16 | U.S. Philips Corporation | Blurring for computer graphics generated images |
CN1739117A (zh) * | 2002-12-20 | 2006-02-22 | Lm爱立信电话有限公司 | 使用最小深度遮挡剔除和z字形遍历的图形处理设备、方法和计算机程序产品 |
CN1707520A (zh) * | 2004-06-07 | 2005-12-14 | 索尼株式会社 | 图像处理设备和方法,以及程序 |
US20070024614A1 (en) * | 2005-07-26 | 2007-02-01 | Tam Wa J | Generating a depth map from a two-dimensional source image for stereoscopic and multiview imaging |
CN101322418A (zh) * | 2005-12-02 | 2008-12-10 | 皇家飞利浦电子股份有限公司 | 图像信号的深度相关的滤波 |
Non-Patent Citations (3)
Title |
---|
DARIBO, I ET AL: "Distance Dependent Depth Filtering in 3D Warping for 3DTV", 《IEEE 9TH WORKSHOP ON MULTIMEDIA SIGNAL PROCESSING, 2007. MMSP 2007》 * |
LJUBOMIR JOVANOV ET AL: "Content adaptive wavelet based method for joint denoising of depth and luminance images", 《PROC. SPIE 6763, WAVELET APPLICATIONS IN INDUSTRIAL PROCESSING V》 * |
W.J.TAM,L.ZHANG: "Nonuniform smoothing of depth maps before image-based rendering", 《PROC. SPIE 5599, THREE-DIMENSIONAL TV, VIDEO, AND DISPLAY III》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103226810A (zh) * | 2012-01-26 | 2013-07-31 | 索尼公司 | 图像处理设备和图像处理方法 |
CN103226810B (zh) * | 2012-01-26 | 2017-11-07 | 索尼公司 | 图像处理设备和图像处理方法 |
CN103679641A (zh) * | 2012-09-26 | 2014-03-26 | 株式会社理光 | 深度图像增强方法和装置 |
CN103679641B (zh) * | 2012-09-26 | 2016-12-21 | 株式会社理光 | 深度图像增强方法和装置 |
CN104574342B (zh) * | 2013-10-14 | 2017-06-23 | 株式会社理光 | 视差深度图像的噪声识别方法和噪声识别装置 |
CN106485678A (zh) * | 2016-10-11 | 2017-03-08 | 东南大学 | 一种基于时空滤波的景深时空一致性及精度增强的方法 |
Also Published As
Publication number | Publication date |
---|---|
JP5519258B2 (ja) | 2014-06-11 |
EP2541496A2 (en) | 2013-01-02 |
JP2010171949A (ja) | 2010-08-05 |
US20100183236A1 (en) | 2010-07-22 |
EP2541496A3 (en) | 2013-02-27 |
EP2211555A3 (en) | 2012-08-22 |
KR20100085675A (ko) | 2010-07-29 |
EP2211555B1 (en) | 2019-12-11 |
KR101526866B1 (ko) | 2015-06-10 |
EP2541496B1 (en) | 2015-08-12 |
EP2211555A2 (en) | 2010-07-28 |
US20140241644A1 (en) | 2014-08-28 |
CN101783024B (zh) | 2015-01-07 |
US9471963B2 (en) | 2016-10-18 |
US8744167B2 (en) | 2014-06-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101783024A (zh) | 利用深度信息对深度噪声进行滤波的方法及设备 | |
Pan et al. | Simultaneous stereo video deblurring and scene flow estimation | |
CN103093419B (zh) | 一种检测图像清晰度的方法及装置 | |
EP2848002B1 (en) | Apparatus and method for processing 3d information | |
US20210241495A1 (en) | Method and system for reconstructing colour and depth information of a scene | |
US20120293615A1 (en) | Real-time depth-aware image enhancement system | |
CN107481271B (zh) | 一种立体匹配方法、系统及移动终端 | |
CN111445418A (zh) | 图像去雾处理方法、装置及计算机设备 | |
Hu et al. | Least commitment, viewpoint-based, multi-view stereo | |
CN101154294B (zh) | 渲染三维图形数据的方法、介质和系统 | |
CN112233055B (zh) | 视频去痕方法和视频去痕装置 | |
JP2013500536A5 (zh) | ||
US20120162224A1 (en) | Free view generation in ray-space | |
JP2017535884A (ja) | ノイズの多い奥行きまたは視差画像のリアルタイム適応的フィルタリングを行う方法および装置 | |
CN104574331A (zh) | 一种数据处理方法、装置、计算机存储介质及用户终端 | |
EP2755391A1 (en) | Stereoscopic image processing apparatus, stereoscopic image processing method, and program | |
CN116563172B (zh) | 一种vr全球化在线教育互动优化增强方法及装置 | |
Hyun et al. | Hardware-friendly architecture for a pseudo 2D weighted median filter based on sparse-window approach | |
CN110738719A (zh) | 一种基于视距分层优化的Web3D模型渲染方法 | |
JP5906033B2 (ja) | 画像処理装置および画像処理方法、プログラム | |
CN112991419B (zh) | 视差数据生成方法、装置、计算机设备及存储介质 | |
Leimkühler et al. | Perceptual real-time 2D-to-3D conversion using cue fusion | |
Na et al. | Stereo vision aided image dehazing using deep neural network | |
US20140198176A1 (en) | Systems and methods for generating a depth map and converting two-dimensional data to stereoscopic data | |
Goorts et al. | Optimization of free viewpoint interpolation by applying adaptive depth plane distributions in plane sweeping a histogram-based approach to a non-uniform plane distribution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |