CN110766609A - 一种针对ToF相机的景深图超分辨率重建方法 - Google Patents

一种针对ToF相机的景深图超分辨率重建方法 Download PDF

Info

Publication number
CN110766609A
CN110766609A CN201910808071.7A CN201910808071A CN110766609A CN 110766609 A CN110766609 A CN 110766609A CN 201910808071 A CN201910808071 A CN 201910808071A CN 110766609 A CN110766609 A CN 110766609A
Authority
CN
China
Prior art keywords
resolution
image
depth map
network
depth
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910808071.7A
Other languages
English (en)
Other versions
CN110766609B (zh
Inventor
王少熙
陈豪
谌洪初
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shaanxi Chaohuayuan Microelectronics Co ltd
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201910808071.7A priority Critical patent/CN110766609B/zh
Publication of CN110766609A publication Critical patent/CN110766609A/zh
Application granted granted Critical
Publication of CN110766609B publication Critical patent/CN110766609B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4053Super resolution, i.e. output image resolution higher than sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/13Edge detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/529Depth or shape recovery from texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Abstract

本发明公开了针对ToF相机的景深图超分辨率重建方法,通过使用彩色图指导景深图重建出高分辨率的方式,并采用生成对抗式网络进行模型的训练,能够在加快其重建速度的同时重建出质量较高的高分辨率景深图,该方法能够其适用于ToF相机中的景深图超分辨率。本发明输入的图像是原始低分辨率小图,同时采用生成对抗式网络进行质量的提升,采用残差网络提升其训练速度,同时避免过拟合的可能,并且通过彩色图指导景深图进行超分辨率重建,能够提升重建后景深图的边缘信息,恢复出较高质量的景深图。

Description

一种针对ToF相机的景深图超分辨率重建方法
技术领域
本发明涉及图片分析技术领域,尤其涉及一种针对ToF相机的景深图超分辨率重建方法。
背景技术
随着3D视觉的飞速发展,深度信息的获取已经成为计算机视觉的研究热点之一。目前,获得深度信息的方法有双目技术、结构光技术以及飞行时间(TimeofFlight,ToF)技术,这三种技术中ToF技术因其独特的优势,被广大研究者们所研究。ToF相机与双目立体相机或结构光三角测量系统比,TOF相机体积小巧,跟一般相机大小相去无几,非常适合于一些需要轻便、小体积相机的场合。TOF相机能够实时快速的计算深度信息,快速获得场景的深度信息。而双目立体相机需要用到复杂的相关性算法,处理速度较慢。TOF的深度计算不受物体表面灰度和特征影响,可以非常准确的进行三维探测。而双目立体相机则需要目标具有良好的特征变化,否则会无法进行深度计算。TOF的深度计算精度不随距离改变而变化,基本能稳定在cm级,这对于一些大范围运动的应用场合非常有意义。虽然ToF相机有很多优势,但由于技术上的限制,ToF相机分辨率过低一直是其的劣势之一。本发明旨在提出一个针对于ToF相机的景深图超分辨率重建方法。
目前,在图像超分辨率这一领域已经出现了很多方法,与传统的图像超分辨率算法相比,基于深度学习的图像超分辨率算法能够显著的提高图像质量与重建效果。对于景深图,其特点是图像的明暗程度代表着图像的深度信息,因此,在图像超分辨率的重建中,深度信息是需要重点学习的特征之一。
虽然图像超分辨率的相关研究对大部分彩色图有了较好的效果,但是,针对于ToF相机的景深图超分辨率重建目前却没有较好的方法,很难直接适用于ToF的深度相机。
发明内容
为解决上述技术问题,本发明提供一种针对ToF相机的景深图超分辨率重建方法。
本发明提供一种针对ToF相机的景深图超分辨率重建方法,包括以下步骤:
步骤一:获取图像集并对其进行数据增强,同时构建出训练数据集;
所述图像集的获取包括以下步骤:
S1、采用通用数据集Middlebury中的ToF景深图来和与其对应的RGB彩色图进行训练;
S2、通用数据集提供了高分辨率的ToF景深图,对其进行下采样;
S3、将其分辨率下采样至低分辨率以及重建后需达到的高分辨率,对于彩色图,将其下采样至低分辨率景深图的大小;
步骤二:搭建生成图片的神经网络;由于生成图片的神经网络有两幅图的输入,因此,需要搭建两路神经网络进行训练,同时,还需要将两路训练出来的结果进行相应的结合,起到彩色图指导景深图的作用;
步骤三:搭建判别神经网络;在GAN中,生成网络G的目标就是尽量生成真实的图片去欺骗判别网络D,而判别网络D的目标就是尽量把生成网络G生成的图片和真实的图片分别开来。判别网络为一系列卷积层的组合,通过不断的对生成的图与高分辨率的图相比较,能够对生成网络进行相应的更新;
步骤四:超参数的设置,与网络的训练;将低分辨率、高分辨率数据集从文件中读出,最终将处理好的景深图低分辨率数据与彩色图低分辨率数据一起输入步骤二搭建好的生成图片神经网络中,经过前向传播,与高分辨率数据进行比较,然后反向传播,经过代价函数,最后得出最优的模型,最优的模型即网络中的参数已经达到最优值;
步骤五:通过测试集评估所训练好的网络;将测试用的低分辨率的景深图与彩色图输入训练好后的网络中,得出效果较好的高分辨率景深图,通过SSIM方法评估所生成的图像质量的好坏,并与现有的方法进行比较。
进一步的方案为,步骤二中同时输入低分辨率的彩色图与景深图,经过卷积层的特征提取后,将两幅图分别输入到映射层中,经过多层的卷积层的映射与融合,最后将输出一个边缘特征清晰的图像,与景深图的深度信息相融合后,通过亚像素卷积层,输出最终的高分辨率图像。
进一步的方案为,步骤五中,色彩图输入前需要对其进行相应处理,具体步骤为:
(1)通过Canny算子对景深图进行边缘检测;
(2)由于Canny边缘检测只能获得边缘的一个像素值,需要通过高斯滤波的方法将检测到的边缘信息拓宽并平滑该区域,消除高斯噪声。同时通过二值化方法,将检测到的边缘扩充为带状;
(3)将彩色图转换为灰度图,同时与处理后的景深图进行比较,将景深图所检测到的边缘信息所对应灰度图的地方保留其原值,其余的地方进行乘积运算;
(4)将处理后的图像中所对应的0值处正则化为128,以降低图像能量过低带来的训练模糊化。
进一步的方案为,由于彩色图与景深图存在一定的边缘对应关系,因此利用图像处理算法对二者图像边缘相关特征进行提取,并结合生成对抗式网络对景深图进行图像超分辨率重建,使其适用于ToF相机。
与相关技术相比,本发明具有以下有益效果:
(1)本发明通过使用彩色图指导景深图重建出高分辨率的方式,并采用生成对抗式网络进行模型的训练,能够在加快其重建速度的同时重建出质量较高的高分辨率景深图,该方法能够其适用于ToF相机中的景深图超分辨率。
(2)由于生成网络的模型设置很深,普通的卷积训练需要耗费大量的时间与内存,因此需要将深层的神经网络优化成残差网络的形式,以降低过深的网络带来过拟合,耗时大,网络退化等问题。
(3)本发明通过彩色图指导景深图进行超分辨率重建,能够提升重建后景深图的边缘信息,恢复出较高质量的景深图。
附图说明
图1为本发明运行流程图;
图2为搭建生成图片的神经网络模型图;
图3为生成图像网络结构图;
图4为亚像素卷积层重建方式图;
图5为对抗网络基本结构。
具体实施方式
下面将结合附图和实施方式对本发明作进一步说明。
实施例1
如图1所示,本发明提供一种针对ToF相机的景深图超分辨率重建方法,包括以下步骤:
步骤一:获取图像集并对其进行数据增强,同时构建出训练数据集;
如图2所示,图像集的获取包括以下步骤:
S1、采用通用数据集Middlebury中的ToF景深图来和与其对应的RGB彩色图进行训练;
S2、通用数据集提供了高分辨率的ToF景深图,对其进行下采样;
S3、将其分辨率下采样至低分辨率以及重建后需达到的高分辨率,对于彩色图,将其下采样至低分辨率景深图的大小;
步骤二:搭建生成图片的神经网络;由于生成图片的神经网络有两幅图的输入,因此,需要搭建两路神经网络进行训练,同时,还需要将两路训练出来的结果进行相应的结合,起到彩色图指导景深图的作用;
步骤三:搭建判别神经网络;在GAN中,生成网络G的目标就是尽量生成真实的图片去欺骗判别网络D,而判别网络D的目标就是尽量把生成网络G生成的图片和真实的图片分别开来。判别网络为一系列卷积层的组合,通过不断的对生成的图与高分辨率的图相比较,能够对生成网络进行相应的更新;
步骤四:超参数的设置,与网络的训练;将低分辨率、高分辨率数据集从文件中读出,最终将处理好的景深图低分辨率数据与彩色图低分辨率数据一起输入步骤二搭建好的生成图片神经网络中,经过前向传播,与高分辨率数据进行比较,然后反向传播,经过代价函数,最后得出最优的模型,最优的模型即网络中的参数已经达到最优值;
步骤五:通过测试集评估所训练好的网络;将测试用的低分辨率的景深图与彩色图输入训练好后的网络中,得出效果较好的高分辨率景深图,通过SSIM方法评估所生成的图像质量的好坏,并与现有的方法进行比较。
需要强调的是,步骤二中同时输入低分辨率的彩色图与景深图,经过卷积层的特征提取后,将两幅图分别输入到映射层中,经过多层的卷积层的映射与融合,最后将输出一个边缘特征清晰的图像,与景深图的深度信息相融合后,通过亚像素卷积层,输出最终的高分辨率图像。
上文提到的步骤五中,色彩图输入前需要对其进行相应处理,具体步骤为:
(1)通过Canny算子对景深图进行边缘检测;
(2)由于Canny边缘检测只能获得边缘的一个像素值,需要通过高斯滤波的方法将检测到的边缘信息拓宽并平滑该区域,消除高斯噪声。同时通过二值化方法,将检测到的边缘扩充为带状;
(3)将彩色图转换为灰度图,同时与处理后的景深图进行比较,将景深图所检测到的边缘信息所对应灰度图的地方保留其原值,其余的地方进行乘积运算;
(4)将处理后的图像中所对应的0值处正则化为128,以降低图像能量过低带来的训练模糊化。
如图5所示,由于彩色图与景深图存在一定的边缘对应关系,因此利用图像处理算法对二者图像边缘相关特征进行提取,并结合生成对抗式网络对景深图进行图像超分辨率重建,使其适用于ToF相机。
本发明通过使用彩色图指导景深图重建出高分辨率的方式,并采用生成对抗式网络进行模型的训练,能够在加快其重建速度的同时重建出质量较高的高分辨率景深图,该方法能够其适用于ToF相机中的景深图超分辨率。
实施例2
在实施例1的基础上,如图3所示,由于生成网络的模型设置很深,普通的卷积训练需要耗费大量的时间与内存,因此需要将深层的神经网络优化成残差网络的形式,以降低过深的网络带来过拟合,耗时大,网络退化等问题。
实施例3
在实施例1的基础上,如图4所示,本发明输入网络的是原始低分辨率图像,没有经过双三次插值的方式放大图形,最后通过亚像素卷积层重建高分辨率的图像,亚像素卷积层是通过将多通道上的单个特征像素合并成高分辨率图像中的一个单个特征像素,其中,每个通道上的单特征像素就是高分辨率图中的单像素点。
以上所述仅为本发明的实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其它相关的技术领域,均同理包括在本发明的专利保护范围内。

Claims (4)

1.一种针对ToF相机的景深图超分辨率重建方法,其特征在于,包括以下步骤:
步骤一:获取图像集并对其进行数据增强,同时构建出训练数据集;
所述图像集的获取包括以下步骤:
S1、采用通用数据集Middlebury中的ToF景深图来和与其对应的RGB彩色图进行训练;
S2、通用数据集提供了高分辨率的ToF景深图,对其进行下采样;
S3、将其分辨率下采样至低分辨率以及重建后需达到的高分辨率,对于彩色图,将其下采样至低分辨率景深图的大小;
步骤二:搭建生成图片的神经网络;由于生成图片的神经网络有两幅图的输入,因此,需要搭建两路神经网络进行训练,同时,还需要将两路训练出来的结果进行相应的结合,起到彩色图指导景深图的作用;
步骤三:搭建判别神经网络;在GAN中,生成网络G的目标就是尽量生成真实的图片去欺骗判别网络D,而判别网络D的目标就是尽量把生成网络G生成的图片和真实的图片分别开来。判别网络为一系列卷积层的组合,通过不断的对生成的图与高分辨率的图相比较,能够对生成网络进行相应的更新;
步骤四:超参数的设置,与网络的训练;将低分辨率、高分辨率数据集从文件中读出,最终将处理好的景深图低分辨率数据与彩色图低分辨率数据一起输入步骤二搭建好的生成图片神经网络中,经过前向传播,与高分辨率数据进行比较,然后反向传播,经过代价函数,最后得出最优的模型,最优的模型即网络中的参数已经达到最优值;
步骤五:通过测试集评估所训练好的网络;将测试用的低分辨率的景深图与彩色图输入训练好后的网络中,得出效果较好的高分辨率景深图,通过SSIM方法评估所生成的图像质量的好坏,并与现有的方法进行比较。
2.如权利要求1所述的一种针对ToF相机的景深图超分辨率重建方法,其特征在于,步骤二中同时输入低分辨率的彩色图与景深图,经过卷积层的特征提取后,将两幅图分别输入到映射层中,经过多层的卷积层的映射与融合,最后将输出一个边缘特征清晰的图像,与景深图的深度信息相融合后,通过亚像素卷积层,输出最终的高分辨率图像。
3.如权利要求1所述的一种针对ToF相机的景深图超分辨率重建方法,其特征在于,步骤五中,色彩图输入前需要对其进行相应处理,具体步骤为:
(1)通过Canny算子对景深图进行边缘检测;
(2)由于Canny边缘检测只能获得边缘的一个像素值,需要通过高斯滤波的方法将检测到的边缘信息拓宽并平滑该区域,消除高斯噪声。同时通过二值化方法,将检测到的边缘扩充为带状;
(3)将彩色图转换为灰度图,同时与处理后的景深图进行比较,将景深图所检测到的边缘信息所对应灰度图的地方保留其原值,其余的地方进行乘积运算;
(4)将处理后的图像中所对应的0值处正则化为128,以降低图像能量过低带来的训练模糊化。
4.根据权利要求1-3任一所述的一种针对ToF相机的景深图超分辨率重建方法,其特征在于,由于彩色图与景深图存在一定的边缘对应关系,因此利用图像处理算法对二者图像边缘相关特征进行提取,并结合生成对抗式网络对景深图进行图像超分辨率重建,使其适用于ToF相机。
CN201910808071.7A 2019-08-29 2019-08-29 一种针对ToF相机的景深图超分辨率重建方法 Active CN110766609B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910808071.7A CN110766609B (zh) 2019-08-29 2019-08-29 一种针对ToF相机的景深图超分辨率重建方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910808071.7A CN110766609B (zh) 2019-08-29 2019-08-29 一种针对ToF相机的景深图超分辨率重建方法

Publications (2)

Publication Number Publication Date
CN110766609A true CN110766609A (zh) 2020-02-07
CN110766609B CN110766609B (zh) 2023-02-10

Family

ID=69329117

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910808071.7A Active CN110766609B (zh) 2019-08-29 2019-08-29 一种针对ToF相机的景深图超分辨率重建方法

Country Status (1)

Country Link
CN (1) CN110766609B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269722A (zh) * 2021-04-22 2021-08-17 北京邮电大学 生成对抗网络的训练方法、及高分辨率图像重建方法
CN113296080A (zh) * 2021-05-13 2021-08-24 西安西行者电子科技有限公司 一种可快速校准tof深度相机距离的方法

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107154023A (zh) * 2017-05-17 2017-09-12 电子科技大学 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
CN108492248A (zh) * 2018-01-30 2018-09-04 天津大学 基于深度学习的深度图超分辨率方法
CN108665494A (zh) * 2017-03-27 2018-10-16 北京中科视维文化科技有限公司 基于快速引导滤波的景深实时渲染方法
CN109064396A (zh) * 2018-06-22 2018-12-21 东南大学 一种基于深度成分学习网络的单幅图像超分辨率重建方法
CN109509152A (zh) * 2018-12-29 2019-03-22 大连海事大学 一种基于特征融合的生成对抗网络的图像超分辨率重建方法
CN109671022A (zh) * 2019-01-22 2019-04-23 北京理工大学 一种基于深度特征翻译网络的图片纹理增强超分辨率方法
CN109685716A (zh) * 2018-12-14 2019-04-26 大连海事大学 一种基于高斯编码反馈的生成对抗网络的图像超分辨率重建方法
US20190197667A1 (en) * 2017-12-26 2019-06-27 Facebook, Inc. Computing high-resolution depth images using machine learning techniques
CN110020989A (zh) * 2019-05-23 2019-07-16 西华大学 一种基于深度学习的深度图像超分辨率重建方法

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108665494A (zh) * 2017-03-27 2018-10-16 北京中科视维文化科技有限公司 基于快速引导滤波的景深实时渲染方法
CN107154023A (zh) * 2017-05-17 2017-09-12 电子科技大学 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法
US20190197667A1 (en) * 2017-12-26 2019-06-27 Facebook, Inc. Computing high-resolution depth images using machine learning techniques
CN108492248A (zh) * 2018-01-30 2018-09-04 天津大学 基于深度学习的深度图超分辨率方法
CN109064396A (zh) * 2018-06-22 2018-12-21 东南大学 一种基于深度成分学习网络的单幅图像超分辨率重建方法
CN109685716A (zh) * 2018-12-14 2019-04-26 大连海事大学 一种基于高斯编码反馈的生成对抗网络的图像超分辨率重建方法
CN109509152A (zh) * 2018-12-29 2019-03-22 大连海事大学 一种基于特征融合的生成对抗网络的图像超分辨率重建方法
CN109671022A (zh) * 2019-01-22 2019-04-23 北京理工大学 一种基于深度特征翻译网络的图片纹理增强超分辨率方法
CN110020989A (zh) * 2019-05-23 2019-07-16 西华大学 一种基于深度学习的深度图像超分辨率重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
李伟等: "基于卷积神经网络的深度图像超分辨率重建方法", 《电子测量与仪器学报》 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113269722A (zh) * 2021-04-22 2021-08-17 北京邮电大学 生成对抗网络的训练方法、及高分辨率图像重建方法
CN113296080A (zh) * 2021-05-13 2021-08-24 西安西行者电子科技有限公司 一种可快速校准tof深度相机距离的方法

Also Published As

Publication number Publication date
CN110766609B (zh) 2023-02-10

Similar Documents

Publication Publication Date Title
CN111325794B (zh) 一种基于深度卷积自编码器的视觉同时定位与地图构建方法
Wang et al. Patchmatchnet: Learned multi-view patchmatch stereo
Huang et al. Indoor depth completion with boundary consistency and self-attention
Engin et al. Cycle-dehaze: Enhanced cyclegan for single image dehazing
Huang et al. Deepmvs: Learning multi-view stereopsis
US10353271B2 (en) Depth estimation method for monocular image based on multi-scale CNN and continuous CRF
CN111062880B (zh) 一种基于条件生成对抗网络的水下图像实时增强方法
CN111861880B (zh) 基于区域信息增强与块自注意力的图像超分与融合方法
CN109902809B (zh) 一种利用生成对抗网络辅助语义分割模型
KR20210025942A (ko) 종단간 컨볼루셔널 뉴럴 네트워크를 이용한 스테레오 매칭 방법
Li et al. Epi-based oriented relation networks for light field depth estimation
CN112734915A (zh) 一种基于深度学习的多视角立体视觉三维场景重建方法
Maslov et al. Online supervised attention-based recurrent depth estimation from monocular video
CN110766609B (zh) 一种针对ToF相机的景深图超分辨率重建方法
CN113379707A (zh) 一种基于动态滤波解耦卷积网络的rgb-d显著性检测方法
CN111914615A (zh) 基于立体视觉的消防区域可通过性分析系统
CN113538243A (zh) 基于多视差注意力模块组合的超分辨图像重建方法
Zhang et al. Local stereo matching: An adaptive weighted guided image filtering-based approach
Harisankar et al. Unsupervised depth estimation from monocular images for autonomous vehicles
Khan et al. Towards monocular neural facial depth estimation: Past, present, and future
CN116091793A (zh) 一种基于光流融合的光场显著性检测方法
He et al. A novel way to organize 3D LiDAR point cloud as 2D depth map height map and surface normal map
US11790633B2 (en) Image processing using coupled segmentation and edge learning
Yan et al. Light field depth estimation based on channel attention and edge guidance
Nie et al. Binocular image dehazing via a plain network without disparity estimation

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20230821

Address after: 710075 Room 2-407, Shanglin Road Youth Entrepreneurship Park, Shanglin Street Office, Fengdong New City, Xixian New District, Xi'an City, Shaanxi Province

Patentee after: Shaanxi chaohuayuan Microelectronics Co.,Ltd.

Address before: 710068 Room 403, Unit 2, Building 5, South Yard, No. 127, Youyi West Road, Beilin District, Xi'an City, Shaanxi Province

Patentee before: Wang Shaoxi

Patentee before: Chen Hao

Patentee before: Chen Hongchu