CN104079914B - 基于深度信息的多视点图像超分辨方法 - Google Patents

基于深度信息的多视点图像超分辨方法 Download PDF

Info

Publication number
CN104079914B
CN104079914B CN201410314800.0A CN201410314800A CN104079914B CN 104079914 B CN104079914 B CN 104079914B CN 201410314800 A CN201410314800 A CN 201410314800A CN 104079914 B CN104079914 B CN 104079914B
Authority
CN
China
Prior art keywords
viewpoint
image
resolution
pixel
validation checking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
CN201410314800.0A
Other languages
English (en)
Other versions
CN104079914A (zh
Inventor
刘琚
伯君
孙国霞
赵悦
葛菁
王梓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shandong University
Original Assignee
Shandong University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shandong University filed Critical Shandong University
Priority to CN201410314800.0A priority Critical patent/CN104079914B/zh
Publication of CN104079914A publication Critical patent/CN104079914A/zh
Application granted granted Critical
Publication of CN104079914B publication Critical patent/CN104079914B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Processing (AREA)

Abstract

本发明提供一种基于深度信息的多视点图像超分辨方法,主要解决现有技术对低分辨率视点图像进行超分辨重建时的边缘伪影现象。其实现过程为:根据针孔相机模型,利用深度信息和相关相机参数,采用后向投影法将视点k的高分辨率彩色图映射到视点n的图像位置上;对投影图像进行基于深度差和色度差的联合视点间像素映射关系的有效性检测,仅保留符合有效性检测的像素点,为避免不同视点间亮度不同的影响预先对视点k的彩色图进行亮度调整;分离出投影图像的高频信息,与视点n的低分辨率彩色图上采样后的图像相加,得到视点n的超分辨率重建图像。本发明在对低分辨率视点进行超分辨重建时可以有效减轻边缘伪影现象,提高超分辨重建图像的质量。

Description

基于深度信息的多视点图像超分辨方法
技术领域
本发明涉及一种基于深度信息的多视点图像超分辨方法,属于图像处理技术领域。
背景技术
目前多视点视频的获取和播放技术有了很大发展,3D立体视频成为一项很有前景的应用。但是伴随着立体视频的发展,随之产生了很多问题,例如传输数据量的增加以及计算复杂度的负担。其解决方法是采用混合分辨率的多视点视频架构,在发送端将个别视点的彩色图下采样,得到低分辨率形式,而在接收端通过超分辨技术恢复出其高频成分,以有效降低传输数据量和计算复杂度。如何在接收端有效恢复出低分辨率视点的高频信息具有重要的研究和应用意义。
文献“Superresolutionformultiviewimagesusingdepthinformation,IEEETrans.CircuitsSyst.VideoTechnol.,vol.22,no.9,pp.1321–1331,2012”公开了一种多视点图像超分辨方法。该方法利用深度信息在低分辨率视点和高分辨率视点的图像像素之间建立映射关系,然后利用反向投影的方法对这种映射关系的有效性进行检测,仅保留符合此有效性的像素点将其从高分辨率视点投影到低分辨率视点上,分离出高频成分作为对低分辨率视点的高频信息估计,得到低分辨率视点的分辨率提升结果。该方法的缺陷是利用反向投影法进行不同视点间像素映射关系的有效性检测,仅利用了图像的深度信息,由于前景物体边缘深度不准确会产生边缘伪影现象;其次,为进行反向投影需要进行两次视点间映射,增加了计算复杂度。
发明内容
本发明的目的在于针对上述现有技术的不足,提出一种基于深度信息的多视点图像超分辨方法。该方法采用基于深度和色度的联合视点间像素映射关系的有效性检测,在进行低分辨率视点的超分辨重建时,可以有效消除边缘伪影现象,提高超分辨重建图像的质量。
为了实现上述发明目的,本发明采用如下技术方案:
一种基于深度信息的多视点图像超分辨方法,该方法采用基于深度和色度的联合视点间像素映射关系的有效性检测,以消除边缘伪影现象,该方法包括以下步骤:
1)分别输入低分辨率视点视点n的深度图Dn和低分辨率彩色图高分辨率视点视点k的深度图Dk和高分辨率彩色图Vk
2)对视点n的低分辨率彩色图进行上采样,得到其低频成分图像
3)对视点k的高分辨率彩色图Vk先后进行下采样和上采样,得到其低频成分图像
4)在视点n和视点k间进行视点映射,并进行基于深度差的视点间像素映射关系的有效性检测,将投影到视点n的图像位置上,得到投影图像
5)将投影图像与视点n的低频成分图像进行亮度对比,以此调整视点k的高分辨率彩色图Vk的图像亮度,得到亮度调整后的图像V′k
6)将亮度调整后的图像V′k先后进行下采样和上采样,得到其低频成分图像
7)在步骤4)的投影结果的基础上进行基于亮度差的视点间像素映射关系的有效性检测,将V′k投影到视点n的图像位置上,得到Vn|k
8)分离出投影图像Vn|k的高频成分图像
9)对高频成分图像和低频成分图像进行求和,得到视点n的高分辨重建图像
优选的,在步骤4)中进行视点映射时,根据针孔相机模型,采用后向投影法,先将视点n的像素位置(u,v)投影到世界坐标系的坐标点(x,y,z)上,然后从(x,y,z)投影到视点k的像素位置(u’,v’)上。
优选的,在步骤4)中进行基于深度差的视点间像素映射关系的有效性检测,检测结果用ad表示:
a d ( u , v ) = 1 , if | D n ( u , v ) - D k ( u &prime; , v &prime; ) | < T 1 0 , else ,
T1为预先设定的阈值,若ad等于1表示该像素点的映射结果满足有效性检测,若ad等于0则表示不满足,将满足有效性检测的像素点投影到视点n的图像位置上,得到投影图像
优选的,在步骤5)中将投影图像与视点n的低频成分图像转换到HSV颜色空间进行亮度对比。
优选的,在步骤5)中对HSV颜色空间的视点k的高分辨率彩色图Vk的亮度分量进行调整,然后将Vk由HSV颜色空间转换到RGB颜色空间,得到亮度调整后的图像V′k
优选的,在步骤7)中先将视点k的低频成分图像投影到低分辨率视点的图像位置上得到投影图像然后进行基于色度差的视点间像素映射关系的有效性检测,检测结果用ac表示:
a c ( u , v ) = 1 , if | V n | k L &prime; ( u , v ) - V n L ( u , v ) | < T 2 0 , else ,
T2为预先设定的阈值,若ac等于1表示该像素点的映射结果满足有效性检测,若ac等于0则表示不满足,将亮度调整后的图像Vk'中同时满足基于深度差的视点间像素映射关系有效性检测和基于色度差的视点间像素映射关系有效性检测的像素点投影到视点n的图像位置上,得到投影图像Vn|k
本发明与现有技术相比具有以下优点:
该方法在进行视点间像素映射关系的有效性检测时同时考虑了深度信息和色度信息,且为了避免不同视点间亮度不同造成影响,预先进行了亮度调整,与后向投影法相比,避免了由于前景物体边缘深度不准确产生的边缘伪影现象,提高了超分辨重建图像的质量;仅需要进行一次视点映射,降低了算法的计算复杂度。
附图说明
图1是本发明的流程图;
图2是本发明在实验中使用的视点n的深度图;
图3是本发明在实验中使用的视点n的低分辨率彩色图;
图4是本发明在实验中使用的视点k的深度图;
图5是本发明在实验中使用的视点k的高分辨率彩色图;
图6是本发明在仿真实验中得到的视点n的高分辨率重建图像;
图7是Diogo方法在仿真实验中得到的视点n的高分辨率重建图像。
具体实施方式
本发明提出一种基于深度信息的多视点图像超分辨方法。该方法采用基于深度和色度的联合视点间像素映射关系的有效性检测,在进行低分辨率视点的超分辨重建时,可以有效消除边缘伪影现象,提高超分辨重建图像的质量。
参照图1,本发明的具体实现步骤如下:
步骤1:分别输入视点n的深度图Dn,如图2所示,视点n的低分辨率彩色图如图3所示,放大倍数为2倍,视点k的深度图Dk,如图4所示,视点k的高分辨率彩色图Vk,如图5所示;
步骤2:对视点n的低分辨率彩色图进行2倍上采样,上采样使用6抽头滤波器,得到其低频成分图像
步骤3:对视点k的高分辨率彩色图Vk先后进行2倍下采样和2倍上采样,上采样和下采样均采用6抽头滤波器,得到其低频成分图像
步骤4:在视点n和视点k间进行视点映射,并进行基于深度差的视点间像素映射关系的有效性检测,将投影到视点n的图像位置上,得到投影图像
4a)在进行视点映射时,根据针孔相机模型,采用后向投影法,先将视点n的像素位置(u,v)投影到世界坐标系的坐标点(x,y,z)上,然后将世界坐标系的坐标点(x,y,z)投影到视点k的像素位置(u’,v’)上;
4b)对映射结果进行基于深度差的视点间像素映射关系的有效性检测,检测结果用ad表示:
a d ( u , v ) = 1 , if | D n ( u , v ) - D k ( u &prime; , v &prime; ) | < T 1 0 , else ,
T1为预先设定的阈值,若ad等于1表示该像素点的映射结果满足有效性检测,若ad等于0则表示不满足,将满足有效性检测的像素点投影到视点n的图像位置上,得到投影图像
V n | k L ( u , v ) = V k L ( u &prime; , v &prime; ) , a d ( u , v ) = 1 0 , a d ( u , v ) = 0 ;
步骤5:将投影图像与视点n的低频成分图像进行亮度对比,以此调整视点k的高分辨率彩色图Vk的图像亮度,得到亮度调整后的图像Vk':
5a)将和Vk由RGB颜色空间转换到HSV颜色空间,V表示亮度分量,对中的非空洞像素点及中的对应像素点求出亮度分量的比值:
r ( i , j ) = V n L ( i , j ) V n | k L ( i , j ) ,
r mean = 1 p &Sigma; r ( i , j ) ,
其中,p为中非空洞像素点的个数,rmean为亮度分量平均比值;
5b)用rmean对HSV颜色空间中的Vk的亮度分量进行调整,然后将Vk由HSV颜色空间转换到RGB颜色空间,得到亮度调整后的图像V′k
步骤6:将亮度调整后的图像V′k先后进行2倍下采样和2倍上采样,上采样均采用6抽头滤波器,得到其低频成分图像
步骤7:在步骤4的投影结果的基础上进行基于亮度差的视点间像素映射关系的有效性检测,将V′k投影到视点n的图像位置上,得到Vn|k
7a)根据步骤4的视点映射结果及基于深度差的视点间像素映射关系的有效性检测结果ad将视点k的低频成分图像投影到低分辨率视点的图像位置上得到投影图像
V n | k L &prime; ( u , v ) = V k L &prime; ( u &prime; , v &prime; ) , a d ( u , v ) = 1 0 , a d ( u , v ) = 0 ;
7b)进行基于色度差的视点间像素映射关系的有效性检测,检测结果用ac表示:
a c ( u , v ) = 1 , if | V n | k L &prime; ( u , v ) - V n L ( u , v ) | < T 2 0 , else ,
T2为预先设定的阈值,若ac等于1表示该像素点的映射结果满足有效性检测,若ac等于0则表示不满足;
7c)将亮度调整后的图像V′k中同时满足基于深度差的视点间像素映射关系有效性检测和基于色度差的视点间像素映射关系有效性检测的像素点投影到视点n的图像位置上,得到投影图像Vn|k
V n | k ( u , v ) = V k &prime; ( u &prime; , v &prime; ) , a d ( u , v ) = 1 &cap; a c ( u , v ) = 1 0 , else ;
步骤8:分离出投影图像Vn|k的高频成分图像
对投影图像Vn|k先后进行2倍下采样和2倍上采样,上采样和下采样均采用6抽头滤波器,得到其低频成分图像然后将投影图像Vn|k和其低频成分图像相减,得到高频成分图像
V n | k H = V n | k - V n | k L ;
步骤9:对高频成分图像和低频成分图像进行求和,得到视点n的高分辨重建图像
V ^ n = V n | k H + V n L .
本发明的效果可以通过以下实验具体说明:
1.实验条件:Pentium(R)Dual‐CoreCPUE67003.20GHZ3.19GHz、2GBRAM,编程平台为MATLABR2010a,实验所用的图像为Ballet图像,图像大小为384x512,实验中用到的低分辨率视点图像如图3所示,高分辨率视点图像如图5所示。
2.实验内容
本实验具体分为两个实验:
实验一:利用本发明对低分辨率视点图像图3进行超分辨重建,结果如图6所示;
实验二:利用现有的Diogo方法(Superresolutionformultiviewimagesusingdepthinformation,IEEETrans.CircuitsSyst.VideoTechnol.,vol.22,no.9,pp.1321–1331,2012)对低分辨率视点图像图3进行超分辨重建,结果如图7所示。
仿真实验中,应用峰值信噪比PSNR评价指标来评价复原结果的优劣,PSNR的定义为:
PSNR = 10 lo g 10 ( 255 2 &times; M &times; N &Sigma; | | x - f | | 2 ) ,
其中,f为清晰图像,x为重建后的图像,M和N为清晰图像f的像素行数和像素列数。
用本发明和现有的Diogo方法,分别对低分辨率视点图像进行超分辨重建仿真。应用峰值信噪比PSNR对重建结果图进行评价,评价结果如表1所示,其中Alg1是本发明的方法,Alg2是Diogo方法。
表1.本发明方法和Diogo方法在仿真实验中得到的PSNR值
3.实验结果分析:
从图6可以看出,本发明得到的视点n的重建结果不但补充了高频细节信息,而且有效消除了边缘伪影现象,视觉效果更好;
从图7可以看出,由Diogo方法得到的视点n的重建结果存在边缘伪影现象,视觉效果不好;
从表1中可以看出,本发明比Diogo方法具有更高的PSNR值,能够更有效地重建高分辨率图像。

Claims (6)

1.一种基于深度信息的多视点图像超分辨方法,该方法采用基于深度和色度的联合视点间像素映射关系的有效性检测,以消除边缘伪影现象,该方法包括以下步骤:
1)分别输入低分辨率视点视点n的深度图Dn和低分辨率彩色图高分辨率视点视点k的深度图Dk和高分辨率彩色图Vk
2)对视点n的低分辨率彩色图进行上采样,得到其低频成分图像
3)对视点k的高分辨率彩色图Vk先后进行下采样和上采样,得到其低频成分图像
4)在视点n和视点k间进行视点映射,并进行基于深度差的视点间像素映射关系的有效性检测,将投影到视点n的图像位置上,得到投影图像
5)将投影图像与视点n的低频成分图像进行亮度对比,以此调整视点k的高分辨率彩色图Vk的图像亮度,得到亮度调整后的图像Vk′;
6)将亮度调整后的图像Vk′先后进行下采样和上采样,得到其低频成分图像
7)在步骤4)的投影结果的基础上进行基于亮度差的视点间像素映射关系的有效性检测,将Vk′投影到视点n的图像位置上,得到Vn|k,具体步骤为:
7a)根据步骤4的视点映射结果及基于深度差视点间像素映射关系的有效性检测结果ad将视点k的低频成分图像投影到低分辨率视点的图像位置上得到投影图像
V n | k L &prime; ( u , v ) = V k L &prime; ( u &prime; , v &prime; ) , a d ( u , v ) = 1 0 , a d ( u , v ) = 0 ;
7b)进行基于色度差的视点间像素映射关系的有效性检测,检测结果用ac表示:
a c ( u , v ) = { 1 , i f V n | k L &prime; ( u , v ) - V n L ( u , v ) < T 2 0 , e l s e ,
T2为预先设定的阈值,若ac等于1表示该像素点的映射结果满足有效性检测,若ac等于0则表示不满足;
7c)将亮度调整后的图像Vk′中同时满足基于深度差的视点间像素映射关系有效性检测和基于色度差的视点间像素映射关系有效性检测的像素点投影到视点n的图像位置上,得到投影图像Vn|k
V n | k ( u , v ) = { V k &prime; ( u &prime; , v &prime; ) , a d ( u , v ) = 1 &cap; a c ( u , v ) = 1 0 , e l s e ;
8)分离出投影图像Vn|k的高频成分图像
9)对高频成分图像和低频成分图像进行求和,得到视点n的高分辨重建图像
2.根据权利要求1所述的基于深度信息的多视点图像超分辨方法,其特征在于:在步骤4)中进行视点映射时,根据针孔相机模型,采用后向投影法,先将视点n的像素位置(u,v)投影到世界坐标系的坐标点(x,y,z)上,然后从(x,y,z)投影到视点k的像素位置(u’,v’)上。
3.根据权利要求1所述的基于深度信息的多视点图像超分辨方法,其特征在于:在步骤4)中进行基于深度差的视点间像素映射关系的有效性检测,检测结果用ad表示:
a d ( u , v ) = 1 , i f | D n ( u , v ) - D k ( u &prime; , v &prime; ) | < T 1 0 , e l s e ,
T1为预先设定的阈值,若ad等于1表示该像素点的映射结果满足有效性检测,若ad等于0则表示不满足,将满足有效性检测的像素点投影到视点n的图像位置上,得到投影图像
4.根据权利要求1所述的基于深度信息的多视点图像超分辨方法,其特征在于:在步骤5)中将投影图像与视点n的低频成分图像转换到HSV颜色空间进行亮度对比。
5.根据权利要求1所述的基于深度信息的多视点图像超分辨方法,其特征在于:在步骤5)中对HSV颜色空间的视点k的高分辨率彩色图Vk的亮度分量进行调整,然后将Vk由HSV颜色空间转换到RGB颜色空间,得到亮度调整后的图像Vk′。
6.根据权利要求1所述的基于深度信息的多视点图像超分辨方法,其特征在于:在步骤7)中先将视点k的低频成分图像投影到低分辨率视点的图像位置上得到投影图像然后进行基于色度差的视点间像素映射关系的有效性检测,检测结果用ac表示:
a c ( u , v ) = { 1 , i f | V n | k L &prime; ( u , v ) - V n L ( u , v ) | < T 2 0 , e l s e ,
T2为预先设定的阈值,若ac等于1表示该像素点的映射结果满足有效性检测,若ac等于0则表示不满足,将亮度调整后的图像Vk'中同时满足基于深度差的视点间像素映射关系有效性检测和基于色度差的视点间像素映射关系有效性检测的像素点投影到视点n的图像位置上,得到投影图像Vn|k
CN201410314800.0A 2014-07-02 2014-07-02 基于深度信息的多视点图像超分辨方法 Expired - Fee Related CN104079914B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201410314800.0A CN104079914B (zh) 2014-07-02 2014-07-02 基于深度信息的多视点图像超分辨方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201410314800.0A CN104079914B (zh) 2014-07-02 2014-07-02 基于深度信息的多视点图像超分辨方法

Publications (2)

Publication Number Publication Date
CN104079914A CN104079914A (zh) 2014-10-01
CN104079914B true CN104079914B (zh) 2016-02-10

Family

ID=51600925

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201410314800.0A Expired - Fee Related CN104079914B (zh) 2014-07-02 2014-07-02 基于深度信息的多视点图像超分辨方法

Country Status (1)

Country Link
CN (1) CN104079914B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053368A (zh) * 2017-12-18 2018-05-18 清华大学 跨尺度分辨率的光场图像超分辨率及深度估计方法及装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160140733A1 (en) * 2014-11-13 2016-05-19 Futurewei Technologies, Inc. Method and systems for multi-view high-speed motion capture
CN104935909B (zh) * 2015-05-14 2017-02-22 清华大学深圳研究生院 一种基于深度信息的多幅图超分辨方法
CN105427253B (zh) * 2015-11-06 2019-03-29 北京航空航天大学 基于非局部回归和总差分的多视点rgb-d图像超分辨率方法
CN105513033B (zh) * 2015-12-07 2018-09-25 天津大学 一种非局部联合稀疏表示的超分辨率重建方法
KR20180097342A (ko) * 2017-02-23 2018-08-31 한국전자통신연구원 영상 아티팩트를 최소화하는 초해상도 영상 선명화 방법 및 장치
CN107392852B (zh) * 2017-07-10 2020-07-07 深圳大学 深度图像的超分辨率重建方法、装置、设备及存储介质
CN108154474B (zh) * 2017-12-22 2021-08-27 浙江大华技术股份有限公司 一种超分辨率图像重构方法、装置、介质及设备
CN111028273B (zh) * 2019-11-27 2023-04-07 山东大学 一种基于多流卷积神经网络的光场深度估计方法及其实现系统
CN111882486B (zh) * 2020-06-21 2023-03-10 南开大学 一种基于低秩先验信息的混合分辨率多视点视频超分辨方法
CN116437205B (zh) * 2023-06-02 2023-08-11 华中科技大学 一种多视点多焦距成像的景深拓展方法和系统

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102077243A (zh) * 2008-07-30 2011-05-25 松下电器产业株式会社 3d纹理的超分辨率的图像生成设备及方法
EP2373046A2 (en) * 2010-03-30 2011-10-05 Vestel Elektronik Sanayi ve Ticaret A.S. Super resolution based n-view + n-depth multiview video coding

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8675999B1 (en) * 2012-09-28 2014-03-18 Hong Kong Applied Science And Technology Research Institute Co., Ltd. Apparatus, system, and method for multi-patch based super-resolution from an image
CN103020936B (zh) * 2012-12-12 2016-05-04 湖北微驾技术有限公司 一种人脸图像超分辨率重构方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102077243A (zh) * 2008-07-30 2011-05-25 松下电器产业株式会社 3d纹理的超分辨率的图像生成设备及方法
EP2373046A2 (en) * 2010-03-30 2011-10-05 Vestel Elektronik Sanayi ve Ticaret A.S. Super resolution based n-view + n-depth multiview video coding

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Super Resolution for Multiview Images Using Depth Information;Diogo C.Garcia;《IEEE TRANSACTIONS ON CIRCUITS AND SYSTEMS FOR VIDEO TECHNOLOGY》;20120930;全文 *
transform-domin super-resolution for multiview images using depth information;Edson M.Hung;《19th European Signal Processing Conference》;20110902;全文 *
图像及视频超分辨率重建技术研究;张博洋;《万方学位论文》;20131030;全文 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108053368A (zh) * 2017-12-18 2018-05-18 清华大学 跨尺度分辨率的光场图像超分辨率及深度估计方法及装置
CN108053368B (zh) * 2017-12-18 2020-11-03 清华大学 跨尺度分辨率的光场图像超分辨率及深度估计方法及装置

Also Published As

Publication number Publication date
CN104079914A (zh) 2014-10-01

Similar Documents

Publication Publication Date Title
CN104079914B (zh) 基于深度信息的多视点图像超分辨方法
CN107578404B (zh) 基于视觉显著特征提取的全参考立体图像质量客观评价方法
CN103208102B (zh) 一种基于稀疏表示的遥感图像融合方法
CN102902961B (zh) 基于k近邻稀疏编码均值约束的人脸超分辨率处理方法
CN101937578B (zh) 一种虚拟视点彩色图像绘制方法
CN108475330A (zh) 用于有伪像感知的视图合成的辅助数据
CN102404594B (zh) 基于图像边缘信息的2d转3d的方法
CN103024421B (zh) 自由视点电视中的虚拟视点合成方法
CN105850114A (zh) 用于图像的逆色调映射的方法
CN103810685A (zh) 一种深度图的超分辨率处理方法
TW201101226A (en) Image processing method and related apparatus for rendering two-dimensional image to show three-dimensional effect
CN104463786A (zh) 一种移动机器人图像拼接方法及装置
CN105354795B (zh) 一种基于相位相关的自学习超分辨率图像获取方法及系统
CN106023230B (zh) 一种适合变形图像的稠密匹配方法
CN108022223A (zh) 一种基于对数映射函数分块处理融合的色调映射方法
CN107809630B (zh) 基于改进虚拟视点合成的多视点视频超分辨率重建算法
CN112991165B (zh) 一种图像的处理方法及装置
CN104270624B (zh) 一种分区域的3d视频映射方法
CN106028020B (zh) 一种基于多方向预测的虚拟视角图像空洞填补方法
CN104853175B (zh) 一种新的合成虚拟视点客观质量评价方法
CN104504672A (zh) 基于NormLV特征的低秩稀疏邻域嵌入超分辨方法
CN104240213B (zh) 一种显示方法及显示装置
CN104851129B (zh) 一种基于多视点的3d重建方法
CN106846250A (zh) 一种基于多尺度滤波的超分辨率重建方法
CN109345444A (zh) 深度感知增强的超分辨率立体图像构建方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20160210

Termination date: 20210702

CF01 Termination of patent right due to non-payment of annual fee