CN109345482A - 一种深度超分辨率图像滤波处理方法 - Google Patents

一种深度超分辨率图像滤波处理方法 Download PDF

Info

Publication number
CN109345482A
CN109345482A CN201811144486.0A CN201811144486A CN109345482A CN 109345482 A CN109345482 A CN 109345482A CN 201811144486 A CN201811144486 A CN 201811144486A CN 109345482 A CN109345482 A CN 109345482A
Authority
CN
China
Prior art keywords
image
depth
super
resolution
resolution image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201811144486.0A
Other languages
English (en)
Other versions
CN109345482B (zh
Inventor
杨庆雄
许金涛
吴彝丹
刘振
陈学海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenzhen Wenyuan Zhixing Intelligent Technology Co ltd
Original Assignee
Shenzhen Muyue Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen Muyue Technology Co Ltd filed Critical Shenzhen Muyue Technology Co Ltd
Priority to CN201811144486.0A priority Critical patent/CN109345482B/zh
Publication of CN109345482A publication Critical patent/CN109345482A/zh
Application granted granted Critical
Publication of CN109345482B publication Critical patent/CN109345482B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/70Denoising; Smoothing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明涉及自动驾驶图像处理技术领域,涉及一种深度超分辨率图像滤波处理方法,包括以下步骤,S1、输入待处理的图像I;S2、将深度超分辨率图像滤波框架带入到图像I中,得到图像I的上采样密集深度图像DF;或者在步骤S2中,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF。本发明克服了有技术中图像平滑滤波处理效率低下的缺陷,提高了图像滤波处理精度,达到高效快速滤波处理图像的目的。

Description

一种深度超分辨率图像滤波处理方法
技术领域
本发明涉及自动驾驶图像处理技术领域,更具体地说,涉及一种深度超分辨率图像滤波处理方法。
背景技术
自动驾驶汽车又称无人驾驶汽车、电脑驾驶汽车、或轮式移动机器人,是一种通过电脑系统实现无人驾驶的智能汽车。在20世纪已有数十年的历史,21世纪初呈现出接近实用化的趋势。自动驾驶汽车依靠人工智能、视觉计算、雷达、监控装置和全球定位系统协同合作,让电脑可以在没有任何人类主动的操作下,自动安全地操作机动车辆。在自动驾驶汽车的行驶过程中,必然要使用到摄像头来拍摄路况并对路况图像进行图像平滑滤波处理以方便进行后面的图像识别处理工序。
将深度超分辨率(SR)的低分辨率有源深度传感器和用于高分辨率RGB传感器进行融合运用正成为计算机视觉中的热门话题,并经过实验校验后证明该基于边缘感知滤波器与插值的融合技术在标准上是非常有效的。但是,由于现有的低分辨率有源深度传感器以及用于高分辨率RGB传感器在融合过程中由于出现权重处理失衡,从而导致其融合生成的的边缘保护滤波器无法在保护大部分的边缘锐化的同时平滑大范围的噪音,降低了图像平滑滤波处理效率,从而使得该融合边缘保护滤波器需要耗费大量的时间在图像平滑滤波处理过程中,造成图像处理速度慢,运算量大,使得图像平滑滤波处理效率低下,难以满足自然人机交互的高速实现要求。
发明内容
有鉴于此,本发明提供了一种深度超分辨率图像滤波处理方法,以解决现有技术中图像平滑滤波处理效率低下的缺陷。
一种深度超分辨率图像滤波处理方法,包括以下步骤:
S1、输入待处理的图像I;
S2、将深度超分辨率图像滤波框架带入到图像I中,得到图像I的上采样密集深度图像DF;其中,该深度超分辨率图像滤波框架具体如公式1所示:
DF为上采样密集深度图像,F(D)为上采样深度值的滤波图像,F(M)为未经上采样深度处理的滤波图像。
作为本发明的优选方案,该上采样深度值的滤波图像F(D)的处理步骤为:S21、计算图像I位于P处的上采样深度值D(P);S22、将上采样深度值D(P)带入到滤波器F(x)中得到上采样深度值的滤波图像F(D)。
作为本发明的优选方案,在步骤S21中,上采样深度值D(P)的具体计算如公式2所示:
其中,为低分辨率深度图像;P和q表示图像I中像素的整数坐标;p和q表示相应的分数坐标;f(x)是以像素P处为中心的空间滤波器内核;g(x)是以P处的图像值为中心的范围滤波器内核;Ω是内核f(x)的空间支持域;kp是归一化因子,即f(x)·g(x)滤波器权重的总和。
作为本发明的优选方案,步骤S22具体为:先选择确定滤波器F(x)的基本表达式,然后将上采样深度值D(P)带入到滤波器F(x)计算得到上采样深度值的滤波图像F(D)。
作为本发明的优选方案,在步骤S2中,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF,其中,该深度超分辨率图像滤波模型具体如公式3所示:
(ai,bi,ci)表示第i个表面模型的参数,用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持。
作为本发明的优选方案,该深度超分辨率图像滤波模型的建立包括以下步骤:A1、输入待处理的图像I;A2、算出图像I平面内的深度值的倒数如公式4所示
其中,参数{a,b,c}用于模拟平面表面参数,x和y表示三维点的像素坐标,z表示该点的深度值;A3、算出最佳表面模型,如公式3所示
其中,(ai,bi,ci)表示第i个表面模型的参数,用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持;A4、将步骤A3所得到的最佳表面模型计算图像I相对应的深度值得到图像I的上采样密集深度图像。
从上述的技术方案可以看出,本发明一方面提出了一种深度超分辨率图像滤波处理方法,利用将深度超分辨率图像滤波框架带入到图像I中,从而得到图像I的上采样密集深度图像DF,通过深度超分辨率图像滤波框架形成一个基于通用过滤的深度超分辨率图像滤波框架,任何图像过滤器都可以直接用于所提出的框架结构,从而将图像的低分辨率有源深度传感器和高分辨率无源RGB传感器融合成体,在保持滤波的同时也很好地保留了图像深度边缘,从而大范围地减少噪音而不会使边缘模糊,利用低通滤波器对自动化图片抽象化和边缘四周进行了细节加强,大大减少了图像滤波处理的计算量,缩短工作时间,克服了有技术中图像平滑滤波处理效率低下的缺陷,提高了图像滤波精度,从而达到快速进行图像平滑滤波处理的目的;另一方面,本发明还提出了一种深度超分辨率图像滤波处理方法,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF,先在每个像素位置搜索最佳平面模型,然后使用该模型计算相应的深度值,而不是对深度值进行直接插值,从而避免了传统图像的低分辨率有源深度传感器和高分辨率无源RGB传感器在图像滤波过程因权重处理失衡而造成滤波效果差的问题,同时克服了有技术中图像平滑滤波处理效率低下的缺陷,从而进一步达到快速进行图像平滑滤波处理的目的。
附图说明
图1为本发明实施例一所提供的一种深度超分辨率图像滤波处理方法的整体步骤流程图。
图2为本发明实施例二所提供的一种深度超分辨率图像滤波处理方法的整体步骤流程图。
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所述的附图作简单地介绍,显而易见,下面的描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
具体实施方式
实施例一:如图1所示,本发明实施例一公开了一种深度超分辨率图像滤波处理方法,包括以下步骤:
S1、输入待处理的图像I;
S2、将深度超分辨率图像滤波框架带入到图像I中,得到图像I的上采样密集深度图像DF;其中,该深度超分辨率图像滤波框架具体如公式1所示:
DF为上采样密集深度图像,F(D)为上采样深度值的滤波图像,F(M)为未经上采样深度处理的滤波图像。该上采样深度值的滤波图像F(D)的处理步骤为:S21、计算图像I位于P处的上采样深度值D(P);S22、将上采样深度值D(P)带入到滤波器F(x)中得到上采样深度值的滤波图像F(D)。在步骤S21中,上采样深度值 D(P)的具体计算如公式2所示:
其中,为低分辨率深度图像;P和q表示图像I中像素的整数坐标;p和q表示相应的分数坐标;f(x)是以像素P处为中心的空间滤波器内核;g(x)是以P处的图像值为中心的范围滤波器内核;Ω是内核f(x)的空间支持域;kp是归一化因子,即f(x)·g(x)滤波器权重的总和。步骤S22具体为:先选择确定滤波器F(x) 的基本表达式,然后将上采样深度值D(P)带入到滤波器F(x)计算得到上采样深度值的滤波图像F(D)。
本实施例一所采用的滤波器F(x)为现有的双边滤波器F(x)。本发明实施例一可采用任何图像过滤技术并确保公平比较,任何图像滤波器都可以直接与扩展框架集成,如果采用边缘保持滤波器,则可以保留深度边缘。设D和I表示登记的稀疏深度图像和密集RGB图像,D p和I p分别表示像素位置p处的深度和颜色。如果p的深度值不可用,则d p设置为零,这意味着p不是深度样本。设 M表示附加图像,M p是像素p处的值,并且被设置为任一或零。图像M用于表示在上采样之前每个深度样本的相等贡献,并且像素处的零值意味着没有来自相应像素的贡献。设F表示图像滤波操作符。基于F的上采样密集深度图像D F可以如下导出:
其中F(D)和F(M)分别是D和M的滤波图像。公式1中呈现的插值方案在一些图像处理中很流行。如果在公式1中采用高斯滤波器,则使用公式1的上采样确实等于高斯插值,然而,已知在保持边缘时它是弱的。当边缘时可以保留深度边缘。只要深度边缘与彩色图像中的颜色边缘一致,则采用保持滤波器以彩色图像I为指导。实际上,如果联合双边滤波器与彩色图像I一起用作公式1中的指导,则它等于方程公式1中的原始联合上采样框架。它基本上基于空间距离和距离范围自适应地内插稀疏深度种子,因此自动忽略深度种子,其看起来与高分辨率彩色图像I中的未命中采样像素不同。
本发明提出了一种深度超分辨率图像滤波处理方法,利用将深度超分辨率图像滤波框架带入到图像I中,从而得到图像I的上采样密集深度图像DF,通过深度超分辨率图像滤波框架形成一个基于通用过滤的深度超分辨率图像滤波框架,任何图像过滤器都可以直接用于所提出的框架结构,从而将图像的低分辨率有源深度传感器和高分辨率无源RGB传感器融合成体,在保持滤波的同时也很好地保留了图像深度边缘,从而大范围地减少噪音而不会使边缘模糊,利用低通滤波器对自动化图片抽象化和边缘四周进行了细节加强,大大减少了图像滤波处理的计算量,缩短工作时间,克服了有技术中图像平滑滤波处理效率低下的缺陷,从而达到快速进行图像平滑滤波处理的目的。
实施例二:如图2所示,本发明实施例二还公开了令一种深度超分辨率图像滤波处理方法,包括以下步骤:
S1、输入待处理的图像I;
S2、将深度超分辨率图像滤波模型代替本发明实施例一中的深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF,其中,该深度超分辨率图像滤波模型具体如公式3所示:
(ai,bi,ci)表示第i个表面模型的参数,用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持。
该深度超分辨率图像滤波模型的建立包括以下步骤:A1、输入待处理的图像I;A2、算出图像I平面内的深度值的倒数如公式4所示
其中,参数{a,b,c}用于模拟平面表面参数,x和y表示三维点的像素坐标,z表示该点的深度值;A3、算出最佳表面模型,如公式3所示
其中,(ai,bi,ci)表示第i个表面模型的参数,用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持;A4、将步骤A3所得到的最佳表面模型计算图像I相对应的深度值得到图像I的上采样密集深度图像。
在本发明实施例二中,本实施例二提出了一种新的深度超分辨率图像滤波模型方法,它不是直接插值即深度值的倒数,而是旨在找到每个像素位置的最佳平面表面模型,然后根据像素坐标和选定的表面模型计算相应的深度值。在现有的图像滤波模型中,由于深度方差,过滤/内插深度值的倒数可能是不稳健的,特别是当需要极高的精度时。它的性能随着深度方差的增加而下降。因此,为了减少深度方差对图像滤波模型性能的影响,本发明实施例二提出了一种新的深度超分辨率图像滤波模型方法,建议在每个像素位置搜索最佳平面模型,然后使用该模型计算相应的深度值,而不是对深度值的逆进行直接插值,与深度值不同,这些参数在平面内是恒定的,因此对表面内的模型估计执行不准确的加权运算是安全的。然而,由于表面模型不能直接从稀疏或甚至密集深度图像获得,因此,我们将深度超分辨率问题表示为基于稀疏深度种子在每个像素位置处搜索表面模型。为了计算平面表面模型的参数,根据公式4,至少需要三个深度种子,公式4结果来自采样像素的左上角,右上角,左下角和右下角的四个最接近的深度种子分组,并且将基于这些深度种子计算分为四个表面模型候选。设{ai,bi,ci}表示第i个表面模型的参数,像加权中值算子这样的鲁棒估计器用于根据局部周围的深度种子找到最佳表面模型补丁。公式3是加权中值运算,其权重由滤波器f和g确定,因此对于来自不同表面的异常值是稳健的。最后,将使用具有所选表面模型的公式4来计算未命中采样像素的深度值。注意,在公式3中将仅使用四个最近的深度种子来定义多达四个平面候选。因此,计算成本比公式1中提出的基于滤波的方法高2倍。
因此,本发明还提出了一种深度超分辨率图像滤波处理方法,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF,先在每个像素位置搜索最佳平面模型,然后使用该模型计算相应的深度值,而不是对深度值进行直接插值,从而避免了传统图像的低分辨率有源深度传感器和高分辨率无源RGB 传感器在图像滤波过程因权重处理失衡而造成滤波效果差的问题,同时克服了有技术中图像平滑滤波处理效率低下的缺陷,从而进一步达到快速进行图像平滑滤波处理的目的。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分相互参见即可。
对所公开的实施例的上述说明,使本领域专业技术人员能够实现本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (6)

1.一种深度超分辨率图像滤波处理方法,其特征在于,包括以下步骤:
S1、输入待处理的图像I;
S2、将深度超分辨率图像滤波框架带入到图像I中,得到图像I的上采样密集深度图像DF;其中,该深度超分辨率图像滤波框架具体如公式1所示:
DF为上采样密集深度图像,F(D)为上采样深度值的滤波图像,F(M)为未经上采样深度处理的滤波图像。
2.如权利要求1所述的一种深度超分辨率图像滤波处理方法,其特征在于,该上采样深度值的滤波图像F(D)的处理步骤为:S21、计算图像I位于P处的上采样深度值D(P);S22、将上采样深度值D(P)带入到滤波器F(x)中得到上采样深度值的滤波图像F(D)。
3.如权利要求2所述的一种深度超分辨率图像滤波处理方法,其特征在于,在步骤S21中,上采样深度值D(P)的具体计算如公式2所示:
其中,为低分辨率深度图像;P和q表示图像I中像素的整数坐标;p和q表示相应的分数坐标;f(x)是以像素P处为中心的空间滤波器内核;g(x)是以P处的图像值为中心的范围滤波器内核;Ω是内核f(x)的空间支持域;kp是归一化因子,即f(x)·g(x)滤波器权重的总和。
4.如权利要求2所述的一种深度超分辨率图像滤波处理方法,其特征在于,步骤S22具体为:先选择确定滤波器F(x)的基本表达式,然后将上采样深度值D(P)带入到滤波器F(x)计算得到上采样深度值的滤波图像F(D)。
5.如权利要求1所述的一种深度超分辨率图像滤波处理方法,其特征在于,在步骤S2中,将深度超分辨率图像滤波模型代替深度超分辨率图像滤波框架,将深度超分辨率图像滤波模型带入到图像I中,得到图像I的上采样密集深度图像DF;其中,该深度超分辨率图像滤波模型具体如公式3所示:
(ai,bi,ci)表示第i个表面模型的参数,用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持。
6.如权利要求5所述的一种深度超分辨率图像滤波处理方法,其特征在于,该深度超分辨率图像滤波模型的建立包括以下步骤:
A1、输入待处理的图像I;
A2、算出图像I平面内的深度值的倒数如公式4所示
其中,参数{a,b,c}用于模拟平面表面参数,x和y表示三维点的像素坐标,z表示该点的深度值;
A3、算出最佳表面模型,如公式3所示
其中,(ai,bi,ci)表示第i个表面模型的参数,用像素坐标[x,y]表示像素p的深度,f是空间高斯滤波器核,g是以p处的RGB图像值为中心的范围滤波器核,Ω是核f的空间支持;
A4、将步骤A3所得到的最佳表面模型计算图像I相对应的深度值得到图像I的上采样密集深度图像。
CN201811144486.0A 2018-09-29 2018-09-29 一种深度超分辨率图像滤波处理方法 Active CN109345482B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201811144486.0A CN109345482B (zh) 2018-09-29 2018-09-29 一种深度超分辨率图像滤波处理方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201811144486.0A CN109345482B (zh) 2018-09-29 2018-09-29 一种深度超分辨率图像滤波处理方法

Publications (2)

Publication Number Publication Date
CN109345482A true CN109345482A (zh) 2019-02-15
CN109345482B CN109345482B (zh) 2020-11-17

Family

ID=65307742

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201811144486.0A Active CN109345482B (zh) 2018-09-29 2018-09-29 一种深度超分辨率图像滤波处理方法

Country Status (1)

Country Link
CN (1) CN109345482B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390656A (zh) * 2019-07-11 2019-10-29 Oppo广东移动通信有限公司 深度数据的滤波方法、装置、电子设备和可读存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102354394A (zh) * 2011-09-22 2012-02-15 中国科学院深圳先进技术研究院 图像超分辨方法及系统
CN102682446A (zh) * 2011-01-28 2012-09-19 索尼公司 使用自适应联合双边滤波器生成稠密深度图的设备和方法
US20130011046A1 (en) * 2011-07-07 2013-01-10 Samsung Electronics Co., Ltd. Depth image conversion apparatus and method
CN105335929A (zh) * 2015-09-15 2016-02-17 清华大学深圳研究生院 一种深度图超分辨方法
CN106447609A (zh) * 2016-08-30 2017-02-22 上海交通大学 一种基于深度卷积神经网络的图像超分辨方法
CN107576960A (zh) * 2017-09-04 2018-01-12 苏州驾驶宝智能科技有限公司 视觉雷达时空信息融合的目标检测方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102682446A (zh) * 2011-01-28 2012-09-19 索尼公司 使用自适应联合双边滤波器生成稠密深度图的设备和方法
US20130011046A1 (en) * 2011-07-07 2013-01-10 Samsung Electronics Co., Ltd. Depth image conversion apparatus and method
CN102354394A (zh) * 2011-09-22 2012-02-15 中国科学院深圳先进技术研究院 图像超分辨方法及系统
CN105335929A (zh) * 2015-09-15 2016-02-17 清华大学深圳研究生院 一种深度图超分辨方法
CN106447609A (zh) * 2016-08-30 2017-02-22 上海交通大学 一种基于深度卷积神经网络的图像超分辨方法
CN107576960A (zh) * 2017-09-04 2018-01-12 苏州驾驶宝智能科技有限公司 视觉雷达时空信息融合的目标检测方法及系统

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110390656A (zh) * 2019-07-11 2019-10-29 Oppo广东移动通信有限公司 深度数据的滤波方法、装置、电子设备和可读存储介质
CN110390656B (zh) * 2019-07-11 2021-05-25 Oppo广东移动通信有限公司 深度数据的滤波方法、装置、电子设备和可读存储介质

Also Published As

Publication number Publication date
CN109345482B (zh) 2020-11-17

Similar Documents

Publication Publication Date Title
CN106651938B (zh) 一种融合高分辨率彩色图像的深度图增强方法
US11210803B2 (en) Method for 3D scene dense reconstruction based on monocular visual slam
US11238602B2 (en) Method for estimating high-quality depth maps based on depth prediction and enhancement subnetworks
Premebida et al. High-resolution lidar-based depth mapping using bilateral filter
CN106780590B (zh) 一种深度图的获取方法及系统
Yu et al. Fast single image fog removal using edge-preserving smoothing
Xiao et al. Fast image dehazing using guided joint bilateral filter
WO2018024030A1 (zh) 一种夜视红外图像中的基于显著性的道路目标提取方法
CN108596975B (zh) 一种针对弱纹理区域的立体匹配算法
CN103020965B (zh) 一种基于显著性检测的前景分割方法
CN102768760B (zh) 一种基于图像纹理的图像快速去雾方法
CN109360235A (zh) 一种基于光场数据的混合深度估计方法
CN114004754B (zh) 一种基于深度学习的场景深度补全系统及方法
CN105160647B (zh) 一种全色多光谱影像融合方法
CN110796616B (zh) 基于范数约束和自适应加权梯度的湍流退化图像恢复方法
CN111402170A (zh) 图像增强方法、装置、终端及计算机可读存储介质
Lo et al. Joint trilateral filtering for depth map super-resolution
Hua et al. Extended guided filtering for depth map upsampling
CN111105452A (zh) 基于双目视觉的高低分辨率融合立体匹配方法
CN109214996A (zh) 一种图像处理方法及装置
CN109345482B (zh) 一种深度超分辨率图像滤波处理方法
CN117152330B (zh) 一种基于深度学习的点云3d模型贴图方法和装置
US20230368347A1 (en) Methods for enhancing resolution and reducing noise in multi-frame images
He et al. A novel way to organize 3D LiDAR point cloud as 2D depth map height map and surface normal map
CN107506782B (zh) 基于置信权重双边滤波的密集匹配方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: No.1 building, R & D and design center, no.3001, Century Avenue South section, Luoshan street, Jinjiang City, Quanzhou City, Fujian Province

Patentee after: Fujian muyue Technology Co.,Ltd.

Address before: 518000 room 602-x14, block D, building 5, software industry base, Yuehai street, Nanshan District, Shenzhen City, Guangdong Province

Patentee before: SHENZHEN MOONX TECHNOLOGY Co.,Ltd.

CP03 Change of name, title or address
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20211025

Address after: 510000 room 318, room 406, No. 1, Yichuang street, Huangpu District, Guangzhou (Zhongxin Guangzhou Knowledge City) (office only)

Patentee after: GUANGZHOU JINGQI TECHNOLOGY Co.,Ltd.

Address before: No.1 building, R & D and design center, no.3001, Century Avenue South section, Luoshan street, Jinjiang City, Quanzhou City, Fujian Province

Patentee before: Fujian muyue Technology Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20220302

Address after: No. 1044, nanshushan science and Technology Park, No. 2, Shudun District, Shenzhen, Guangdong Province

Patentee after: Shenzhen Wenyuan Zhixing Technology Co.,Ltd.

Address before: 510000 room 318, room 406, No. 1, Yichuang street, Huangpu District, Guangzhou (Zhongxin Guangzhou Knowledge City) (office only)

Patentee before: GUANGZHOU JINGQI TECHNOLOGY Co.,Ltd.

TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230413

Address after: No. 1044, nanshushan science and Technology Park, No. 2, Shudun District, Shenzhen, Guangdong Province

Patentee after: Shenzhen Wenyuan Zhixing Intelligent Technology Co.,Ltd.

Address before: No. 1044, nanshushan science and Technology Park, No. 2, Shudun District, Shenzhen, Guangdong Province

Patentee before: Shenzhen Wenyuan Zhixing Technology Co.,Ltd.