CN109345482B - 一种深度超分辨率图像滤波处理方法 - Google Patents

一种深度超分辨率图像滤波处理方法 Download PDF

Info

Publication number
CN109345482B
CN109345482B CN201811144486.0A CN201811144486A CN109345482B CN 109345482 B CN109345482 B CN 109345482B CN 201811144486 A CN201811144486 A CN 201811144486A CN 109345482 B CN109345482 B CN 109345482B
Authority
CN
China
Prior art keywords
image
depth
super
resolution
filtering
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201811144486.0A
Other languages
English (en)
Other versions
CN109345482A (zh
Inventor
杨庆雄
许金涛
吴彝丹
刘振
陈学海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Wenyuan Zhixing Intelligent Technology Co.,Ltd.
Original Assignee
Shenzhen Moonx Technology Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Moonx Technology Co ltd filed Critical Shenzhen Moonx Technology Co ltd
Priority to CN201811144486.0A priority Critical patent/CN109345482B/zh
Publication of CN109345482A publication Critical patent/CN109345482A/zh
Application granted granted Critical
Publication of CN109345482B publication Critical patent/CN109345482B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及自动驾驶图像处理技术领域,涉及一种深度超分辨率图像滤波处理方法,包括以下步骤,S1、输入待处理的图像I;S2、将深度超分辨率图像滤波框架带入到图像I中,得到图像I的上采样密集深度图像DF;或者在步骤S2中,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF。本发明克服了有技术中图像平滑滤波处理效率低下的缺陷,提高了图像滤波处理精度,达到高效快速滤波处理图像的目的。

Description

一种深度超分辨率图像滤波处理方法
技术领域
本发明涉及自动驾驶图像处理技术领域,更具体地说,涉及一种深度超分辨率图像滤波处理方法。
背景技术
自动驾驶汽车又称无人驾驶汽车、电脑驾驶汽车、或轮式移动机器人,是一种通过电脑系统实现无人驾驶的智能汽车。在20世纪已有数十年的历史,21世纪初呈现出接近实用化的趋势。自动驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动的操作下,自动安全地操作机动车辆。在自动驾驶汽车的行驶过程中,必然要使用到摄像头来拍摄路况并对路况图像进行图像平滑滤波处理以方便进行后面的图像识别处理工序。
将深度超分辨率(SR)的低分辨率有源深度传感器和用于高分辨率RGB传感器进行融合运用正成为计算机视觉中的热门话题,并经过实验校验后证明该基于边缘感知滤波器与插值的融合技术在标准上是非常有效的。但是,由于现有的低分辨率有源深度传感器以及用于高分辨率RGB传感器在融合过程中由于出现权重处理失衡,从而导致其融合生成的的边缘保护滤波器无法在保护大部分的边缘锐化的同时平滑大范围的噪音,降低了图像平滑滤波处理效率,从而使得该融合边缘保护滤波器需要耗费大量的时间在图像平滑滤波处理过程中,造成图像处理速度慢,运算量大,使得图像平滑滤波处理效率低下,难以满足自然人机交互的高速实现要求。
发明内容
有鉴于此,本发明提供了一种深度超分辨率图像滤波处理方法,以解决现有技术中图像平滑滤波处理效率低下的缺陷。
一种深度超分辨率图像滤波处理方法,包括以下步骤:
S1、输入待处理的图像I;
S2、将深度超分辨率图像滤波框架带入到图像I中,得到图像I的上采样密集深度图像DF;其中,该深度超分辨率图像滤波框架具体如公式1所示:
Figure BDA0001816486330000021
DF为上采样密集深度图像,F(D)为上采样深度值的滤波图像,F(M)为未经上采样深度处理的滤波图像。
作为本发明的优选方案,该上采样深度值的滤波图像F(D)的处理步骤为:S21、计算图像I位于P处的上采样深度值D(P);S22、将上采样深度值D(P)带入到滤波器F(x)中得到上采样深度值的滤波图像F(D)。
作为本发明的优选方案,在步骤S21中,上采样深度值D(P)的具体计算如公式2所示:
Figure BDA0001816486330000022
其中,
Figure BDA0001816486330000023
为低分辨率深度图像;P和q表示图像I中像素的整数坐标;p和q表示相应的分数坐标;f(x)是以像素P处为中心的空间滤波器内核;g(x)是以P处的图像值为中心的范围滤波器内核;Ω是内核f(x)的空间支持域;kp是归一化因子,即f(x)·g(x)滤波器权重的总和。
作为本发明的优选方案,步骤S22具体为:先选择确定滤波器F(x)的基本表达式,然后将上采样深度值D(P)带入到滤波器F(x)计算得到上采样深度值的滤波图像F(D)。
作为本发明的优选方案,在步骤S2中,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF,其中,该深度超分辨率图像滤波模型具体如公式3所示:
Figure BDA0001816486330000031
(ai,bi,ci)表示第i个表面模型的参数,
Figure BDA0001816486330000032
用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持。
作为本发明的优选方案,该深度超分辨率图像滤波模型的建立包括以下步骤:A1、输入待处理的图像I;A2、算出图像I平面内的深度值的倒数
Figure BDA0001816486330000033
如公式4所示
Figure BDA0001816486330000034
其中,参数{a,b,c}用于模拟平面表面参数,x和y表示三维点的像素坐标,z表示该点的深度值;A3、算出最佳表面模型,如公式3所示
Figure BDA0001816486330000035
其中,(ai,bi,ci)表示第i个表面模型的参数,
Figure BDA0001816486330000036
用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持;A4、将步骤A3所得到的最佳表面模型计算图像I相对应的深度值得到图像I的上采样密集深度图像。
从上述的技术方案可以看出,本发明一方面提出了一种深度超分辨率图像滤波处理方法,利用将深度超分辨率图像滤波框架带入到图像I中,从而得到图像I的上采样密集深度图像DF,通过深度超分辨率图像滤波框架形成一个基于通用过滤的深度超分辨率图像滤波框架,任何图像过滤器都可以直接用于所提出的框架结构,从而将图像的低分辨率有源深度传感器和高分辨率无源RGB传感器融合成体,在保持滤波的同时也很好地保留了图像深度边缘,从而大范围地减少噪音而不会使边缘模糊,利用低通滤波器对自动化图片抽象化和边缘四周进行了细节加强,大大减少了图像滤波处理的计算量,缩短工作时间,克服了有技术中图像平滑滤波处理效率低下的缺陷,提高了图像滤波精度,从而达到快速进行图像平滑滤波处理的目的;另一方面,本发明还提出了一种深度超分辨率图像滤波处理方法,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF,先在每个像素位置搜索最佳平面模型,然后使用该模型计算相应的深度值,而不是对深度值进行直接插值,从而避免了传统图像的低分辨率有源深度传感器和高分辨率无源RGB传感器在图像滤波过程因权重处理失衡而造成滤波效果差的问题,同时克服了有技术中图像平滑滤波处理效率低下的缺陷,从而进一步达到快速进行图像平滑滤波处理的目的。
附图说明
图1为本发明实施例一所提供的一种深度超分辨率图像滤波处理方法的整体步骤流程图。
图2为本发明实施例二所提供的一种深度超分辨率图像滤波处理方法的整体步骤流程图。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所述的附图作简单地介绍,显而易见,下面的描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
具体实施方式
实施例一:如图1所示,本发明实施例一公开了一种深度超分辨率图像滤波处理方法,包括以下步骤:
S1、输入待处理的图像I;
S2、将深度超分辨率图像滤波框架带入到图像I中,得到图像I的上采样密集深度图像DF;其中,该深度超分辨率图像滤波框架具体如公式1所示:
Figure BDA0001816486330000051
DF为上采样密集深度图像,F(D)为上采样深度值的滤波图像,F(M)为未经上采样深度处理的滤波图像。该上采样深度值的滤波图像F(D)的处理步骤为:S21、计算图像I位于P处的上采样深度值D(P);S22、将上采样深度值D(P)带入到滤波器F(x)中得到上采样深度值的滤波图像F(D)。在步骤S21中,上采样深度值 D(P)的具体计算如公式2所示:
Figure BDA0001816486330000052
其中,
Figure BDA0001816486330000053
为低分辨率深度图像;P和q表示图像I中像素的整数坐标;p和q表示相应的分数坐标;f(x)是以像素P处为中心的空间滤波器内核;g(x)是以P处的图像值为中心的范围滤波器内核;Ω是内核f(x)的空间支持域;kp是归一化因子,即f(x)·g(x)滤波器权重的总和。步骤S22具体为:先选择确定滤波器F(x) 的基本表达式,然后将上采样深度值D(P)带入到滤波器F(x)计算得到上采样深度值的滤波图像F(D)。
本实施例一所采用的滤波器F(x)为现有的双边滤波器F(x)。本发明实施例一可采用任何图像过滤技术并确保公平比较,任何图像滤波器都可以直接与扩展框架集成,如果采用边缘保持滤波器,则可以保留深度边缘。设D和I表示登记的稀疏深度图像和密集RGB图像,D p和I p分别表示像素位置p处的深度和颜色。如果p的深度值不可用,则d p设置为零,这意味着p不是深度样本。设 M表示附加图像,M p是像素p处的值,并且被设置为任一或零。图像M用于表示在上采样之前每个深度样本的相等贡献,并且像素处的零值意味着没有来自相应像素的贡献。设F表示图像滤波操作符。基于F的上采样密集深度图像DF可以如下导出:
Figure BDA0001816486330000061
其中F(D)和F(M)分别是D和M的滤波图像。公式1中呈现的插值方案在一些图像处理中很流行。如果在公式1中采用高斯滤波器,则使用公式1的上采样确实等于高斯插值,然而,已知在保持边缘时它是弱的。当边缘时可以保留深度边缘。只要深度边缘与彩色图像中的颜色边缘一致,则采用保持滤波器以彩色图像I为指导。实际上,如果联合双边滤波器与彩色图像I一起用作公式1中的指导,则它等于方程公式1中的原始联合上采样框架。它基本上基于空间距离和距离范围自适应地内插稀疏深度种子,因此自动忽略深度种子,其看起来与高分辨率彩色图像I中的未命中采样像素不同。
本发明提出了一种深度超分辨率图像滤波处理方法,利用将深度超分辨率图像滤波框架带入到图像I中,从而得到图像I的上采样密集深度图像DF,通过深度超分辨率图像滤波框架形成一个基于通用过滤的深度超分辨率图像滤波框架,任何图像过滤器都可以直接用于所提出的框架结构,从而将图像的低分辨率有源深度传感器和高分辨率无源RGB传感器融合成体,在保持滤波的同时也很好地保留了图像深度边缘,从而大范围地减少噪音而不会使边缘模糊,利用低通滤波器对自动化图片抽象化和边缘四周进行了细节加强,大大减少了图像滤波处理的计算量,缩短工作时间,克服了有技术中图像平滑滤波处理效率低下的缺陷,从而达到快速进行图像平滑滤波处理的目的。
实施例二:如图2所示,本发明实施例二还公开了令一种深度超分辨率图像滤波处理方法,包括以下步骤:
S1、输入待处理的图像I;
S2、将深度超分辨率图像滤波模型代替本发明实施例一中的深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF,其中,该深度超分辨率图像滤波模型具体如公式3所示:
Figure BDA0001816486330000071
(ai,bi,ci)表示第i个表面模型的参数,
Figure BDA0001816486330000072
用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持。
该深度超分辨率图像滤波模型的建立包括以下步骤:A1、输入待处理的图像I;A2、算出图像I平面内的深度值的倒数
Figure BDA0001816486330000073
如公式4所示
Figure BDA0001816486330000074
其中,参数{a,b,c}用于模拟平面表面参数,x和y表示三维点的像素坐标,z表示该点的深度值;A3、算出最佳表面模型,如公式3所示
Figure BDA0001816486330000075
其中,(ai,bi,ci)表示第i个表面模型的参数,
Figure BDA0001816486330000076
用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持;A4、将步骤A3所得到的最佳表面模型计算图像I相对应的深度值得到图像I的上采样密集深度图像。
在本发明实施例二中,本实施例二提出了一种新的深度超分辨率图像滤波模型方法,它不是直接插值即深度值的倒数,而是旨在找到每个像素位置的最佳平面表面模型,然后根据像素坐标和选定的表面模型计算相应的深度值。在现有的图像滤波模型中,由于深度方差,过滤/内插深度值的倒数可能是不稳健的,特别是当需要极高的精度时。它的性能随着深度方差的增加而下降。因此,为了减少深度方差对图像滤波模型性能的影响,本发明实施例二提出了一种新的深度超分辨率图像滤波模型方法,建议在每个像素位置搜索最佳平面模型,然后使用该模型计算相应的深度值,而不是对深度值的逆进行直接插值,与深度值不同,这些参数在平面内是恒定的,因此对表面内的模型估计执行不准确的加权运算是安全的。然而,由于表面模型不能直接从稀疏或甚至密集深度图像获得,因此,我们将深度超分辨率问题表示为基于稀疏深度种子在每个像素位置处搜索表面模型。为了计算平面表面模型的参数,根据公式4,至少需要三个深度种子,公式4结果来自采样像素的左上角,右上角,左下角和右下角的四个最接近的深度种子分组,并且将基于这些深度种子计算分为四个表面模型候选。设{ai,bi,ci}表示第i个表面模型的参数,像加权中值算子这样的鲁棒估计器用于根据局部周围的深度种子找到最佳表面模型补丁。公式3是加权中值运算,其权重由滤波器f和g确定,因此对于来自不同表面的异常值是稳健的。最后,将使用具有所选表面模型的公式4来计算未命中采样像素的深度值。注意,在公式3中将仅使用四个最近的深度种子来定义多达四个平面候选。因此,计算成本比公式1中提出的基于滤波的方法高2倍。
因此,本发明还提出了一种深度超分辨率图像滤波处理方法,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF,先在每个像素位置搜索最佳平面模型,然后使用该模型计算相应的深度值,而不是对深度值进行直接插值,从而避免了传统图像的低分辨率有源深度传感器和高分辨率无源RGB 传感器在图像滤波过程因权重处理失衡而造成滤波效果差的问题,同时克服了有技术中图像平滑滤波处理效率低下的缺陷,从而进一步达到快速进行图像平滑滤波处理的目的。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分相互参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (5)

1.一种深度超分辨率图像滤波处理方法,其特征在于,包括以下步骤:
S1、输入待处理的图像I;
S2、将深度超分辨率图像滤波框架带入到图像I中,得到图像I的上采样密集深度图像DF;其中,该深度超分辨率图像滤波框架具体如公式1所示:
Figure FDA0002679917290000011
DF为上采样密集深度图像,F(D)为上采样深度值的滤波图像,F(M)为未经上采样深度处理的滤波图像;
在步骤S2中,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF;其中,该深度超分辨率图像滤波模型具体如公式2所示:
Figure FDA0002679917290000012
其中,i代表表面模型的索引,(ai,bi,ci)表示第i个表面模型的参数,P和q表示图像I中像素的整数坐标,(x,y)代表q坐标对应的x及y坐标分量,zp是P坐标的深度值,Ip和Iq分别为P和q坐标代表的像素在图像I上对应的像素值,f(||p-q||)是以P坐标所代表的像素处为中心的空间高斯滤波器核,g(||Ip-Iq||)是以P坐标所代表的像素处的图像值为中心的范围滤波器核,Ω是内核f(||p-q||)的空间支持域,P(x,y)是第i个表面模型在以(x,y)坐标为中心的局部深度差异。
2.如权利要求1所述的一种深度超分辨率图像滤波处理方法,其特征在于,该上采样深度值的滤波图像F(D)的处理步骤为:S21、计算图像I位于P处的上采样深度值D(P);S22、将上采样深度值D(P)带入到滤波器F(x)中得到上采样深度值的滤波图像F(D)。
3.如权利要求2所述的一种深度超分辨率图像滤波处理方法,其特征在于,在步骤S21中,上采样深度值D(P)的具体计算如公式3所示:
Figure FDA0002679917290000021
其中,P和q表示图像I中像素的整数坐标;p和q表示相应的分数坐标;
Figure FDA0002679917290000022
为q坐标所代表的像素在低分辨率深度图像上对应的深度值;f(||p-q||)是以P坐标所代表的像素处为中心的空间滤波器内核;g(||Ip-Iq||)是以P坐标所代表的像素处的图像值为中心的范围滤波器内核;Ip和Iq分别为P和q坐标代表的像素在图像I上对应的像素值,Ω是内核f(||p-q||)的空间支持域;kp是归一化因子,即f(||p-q||)g(||Ip-Iq||)滤波器权重的总和。
4.如权利要求2所述的一种深度超分辨率图像滤波处理方法,其特征在于,步骤S22具体为:先选择确定滤波器F(x)的基本表达式,然后将上采样深度值D(P)带入到滤波器F(x)计算得到上采样深度值的滤波图像F(D)。
5.如权利要求1所述的一种深度超分辨率图像滤波处理方法,其特征在于,该深度超分辨率图像滤波模型的建立包括以下步骤:
A1、输入待处理的图像I;
A2、算出图像I平面内的深度值的倒数
Figure FDA0002679917290000023
如公式4所示
Figure FDA0002679917290000024
其中,参数{a,b,c}用于模拟平面表面参数,x和y表示三维点的像素坐标,z表示该点的深度值;
A3、算出最佳表面模型;
A4、将步骤A3所得到的最佳表面模型计算图像I相对应的深度值得到图像I的上采样密集深度图像。
CN201811144486.0A 2018-09-29 2018-09-29 一种深度超分辨率图像滤波处理方法 Active CN109345482B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811144486.0A CN109345482B (zh) 2018-09-29 2018-09-29 一种深度超分辨率图像滤波处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811144486.0A CN109345482B (zh) 2018-09-29 2018-09-29 一种深度超分辨率图像滤波处理方法

Publications (2)

Publication Number Publication Date
CN109345482A CN109345482A (zh) 2019-02-15
CN109345482B true CN109345482B (zh) 2020-11-17

Family

ID=65307742

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811144486.0A Active CN109345482B (zh) 2018-09-29 2018-09-29 一种深度超分辨率图像滤波处理方法

Country Status (1)

Country Link
CN (1) CN109345482B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390656B (zh) * 2019-07-11 2021-05-25 Oppo广东移动通信有限公司 深度数据的滤波方法、装置、电子设备和可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335929A (zh) * 2015-09-15 2016-02-17 清华大学深圳研究生院 一种深度图超分辨方法
CN106447609A (zh) * 2016-08-30 2017-02-22 上海交通大学 一种基于深度卷积神经网络的图像超分辨方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8532425B2 (en) * 2011-01-28 2013-09-10 Sony Corporation Method and apparatus for generating a dense depth map using an adaptive joint bilateral filter
US9047681B2 (en) * 2011-07-07 2015-06-02 Samsung Electronics Co., Ltd. Depth image conversion apparatus and method
CN102354394B (zh) * 2011-09-22 2015-03-11 中国科学院深圳先进技术研究院 图像超分辨方法及系统
CN107576960B (zh) * 2017-09-04 2021-03-16 赵建辉 视觉雷达时空信息融合的目标检测方法及系统

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105335929A (zh) * 2015-09-15 2016-02-17 清华大学深圳研究生院 一种深度图超分辨方法
CN106447609A (zh) * 2016-08-30 2017-02-22 上海交通大学 一种基于深度卷积神经网络的图像超分辨方法

Also Published As

Publication number Publication date
CN109345482A (zh) 2019-02-15

Similar Documents

Publication Publication Date Title
CN106651938B (zh) 一种融合高分辨率彩色图像的深度图增强方法
Premebida et al. High-resolution lidar-based depth mapping using bilateral filter
US11238602B2 (en) Method for estimating high-quality depth maps based on depth prediction and enhancement subnetworks
CN108520536B (zh) 一种视差图的生成方法、装置及终端
CN106780590B (zh) 一种深度图的获取方法及系统
Yu et al. Fast single image fog removal using edge-preserving smoothing
CN110276317B (zh) 一种物体尺寸检测方法、物体尺寸检测装置及移动终端
CN108596975B (zh) 一种针对弱纹理区域的立体匹配算法
CN111402170B (zh) 图像增强方法、装置、终端及计算机可读存储介质
CN102768760B (zh) 一种基于图像纹理的图像快速去雾方法
Lo et al. Joint trilateral filtering for depth map super-resolution
Hua et al. Extended guided filtering for depth map upsampling
CN110866882B (zh) 基于深度置信度的分层联合双边滤波深度图修复方法
CN111105452B (zh) 基于双目视觉的高低分辨率融合立体匹配方法
CN114004754A (zh) 一种基于深度学习的场景深度补全系统及方法
CN109345482B (zh) 一种深度超分辨率图像滤波处理方法
CN108647605B (zh) 一种结合全局颜色与局部结构特征的人眼凝视点提取方法
CN117152330B (zh) 一种基于深度学习的点云3d模型贴图方法和装置
CN111369435B (zh) 基于自适应稳定模型的彩色图像深度上采样方法及系统
CN106127147B (zh) 一种基于三维数据的人脸深度纹理修复方法
Yang et al. Depth map super-resolution based on edge-guided joint trilateral upsampling
He et al. A novel way to organize 3D LiDAR point cloud as 2D depth map height map and surface normal map
Ranipa et al. A practical approach for depth estimation and image restoration using defocus cue
CN110033415B (zh) 一种基于Retinex算法的图像去模糊方法
Javidnia et al. A depth map post-processing approach based on adaptive random walk with restart

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address
CP03 Change of name, title or address

Address after: No.1 building, R & D and design center, no.3001, Century Avenue South section, Luoshan street, Jinjiang City, Quanzhou City, Fujian Province

Patentee after: Fujian muyue Technology Co.,Ltd.

Address before: 518000 room 602-x14, block D, building 5, software industry base, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: SHENZHEN MOONX TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right

Effective date of registration: 20211025

Address after: 510000 room 318, room 406, No. 1, Yichuang street, Huangpu District, Guangzhou (Zhongxin Guangzhou Knowledge City) (office only)

Patentee after: GUANGZHOU JINGQI TECHNOLOGY Co.,Ltd.

Address before: No.1 building, R & D and design center, no.3001, Century Avenue South section, Luoshan street, Jinjiang City, Quanzhou City, Fujian Province

Patentee before: Fujian muyue Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220302

Address after: No. 1044, nanshushan science and Technology Park, No. 2, Shudun District, Shenzhen, Guangdong Province

Patentee after: Shenzhen Wenyuan Zhixing Technology Co.,Ltd.

Address before: 510000 room 318, room 406, No. 1, Yichuang street, Huangpu District, Guangzhou (Zhongxin Guangzhou Knowledge City) (office only)

Patentee before: GUANGZHOU JINGQI TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230413

Address after: No. 1044, nanshushan science and Technology Park, No. 2, Shudun District, Shenzhen, Guangdong Province

Patentee after: Shenzhen Wenyuan Zhixing Intelligent Technology Co.,Ltd.

Address before: No. 1044, nanshushan science and Technology Park, No. 2, Shudun District, Shenzhen, Guangdong Province

Patentee before: Shenzhen Wenyuan Zhixing Technology Co.,Ltd.

TR01 Transfer of patent right