CN110599400B - 一种基于epi的光场图像超分辨的方法 - Google Patents
一种基于epi的光场图像超分辨的方法 Download PDFInfo
- Publication number
- CN110599400B CN110599400B CN201910764022.8A CN201910764022A CN110599400B CN 110599400 B CN110599400 B CN 110599400B CN 201910764022 A CN201910764022 A CN 201910764022A CN 110599400 B CN110599400 B CN 110599400B
- Authority
- CN
- China
- Prior art keywords
- image
- epi
- light field
- resolution
- super
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 23
- 239000011159 matrix material Substances 0.000 claims abstract description 9
- 238000009499 grossing Methods 0.000 claims description 7
- 230000003287 optical effect Effects 0.000 abstract description 3
- 230000009286 beneficial effect Effects 0.000 abstract description 2
- 239000000284 extract Substances 0.000 abstract description 2
- 230000000694 effects Effects 0.000 description 4
- 238000010586 diagram Methods 0.000 description 3
- 238000003384 imaging method Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 230000000149 penetrating effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4053—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
- G06T3/4076—Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution using the original low-resolution images to iteratively correct the high-resolution images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10052—Images from lightfield camera
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Studio Devices (AREA)
Abstract
本发明公开了一种基于EPI的光场图像超分辨的方法,包括以下步骤:1、将光场原始图像和光场相机参数读入光场相机中;2、对原始图像进行解码得到四维的光场矩阵;3、提取四维光场矩阵的位置信息中坐标方向的像素点得到子孔径图像;4、将子孔径图像按行循环,依次提取每幅图像相同高度值的像素点,得到EPI图像;5、对步骤4得到的每幅EPI图像进行超分辨;6、对经过超分辨的EPI图像进行去模糊操作,再将每一个像素点还原到子孔径图像上。本发明通过子孔径图像提取EPI切片,通过对EPI切片进行超分辨更加有利于恢复原始图像的局部细节部分,从而在不提高硬件配置的前提下提高光场图像空间分辨率和角度分辨率。
Description
技术领域
本发明属于计算机数字图像处理技术领域,具体涉及一种基于EPI的光场图像超分辨的方法。
背景技术
在实际生活中,我们身边的物体和场景都是三维的。传统的相机只能采集到空间光线的强度信息,丢失了光线的方向信息,从而损失了很多有用的信息,导致由传统相机拍摄得到的图像无法实现三维重建等效果。
近年来基于光场和计算机成像理论的光场相机成为研究的热点,因为光场相机在一次拍照中可以获取场景的四维特征数据包括二维空间信息和二维角度信息,可以实现先拍照后聚焦的功能。然而全光场相机能够获得比传统相机更多的场景信息,是通过牺牲相机的空间分辨率换取角度分辨率来实现的。因此,全光场相机需要平衡空间和角度分辨率之间的关系。如今,全光场相机主要分为两类:一类是传统型全光场相机,该类相机是牺牲其大量的空间分辨率来获取大量的角度信息,所以该类相机具有很低的空间分辨率和很高的角度分辨率;另一类是聚焦型全光场相机,该相机是牺牲少量的空间分辨率来换取少量的角度分辨率,所以该相机的空间分辨率比传统相机高,但空间分辨率和角度分辨率还是较小不足以满足实际应用。因此同时提高光场相机的空间分辨率和角度分辨率成为我们需要解决的问题。
目前多采用提高全光场相机的硬件配置,也就是提高微透镜阵列的数量,这样可以记录来自更多方向的光线信息,但提高硬件配置在实施方面存在难度大,成本高的问题。
发明内容
本发明的目的是提供一种基于EPI的光场图像超分辨的方法,解决了现有技术中存在的通过提高硬件配置来提高光场图像空间分辨率和角度分辨率在实施方面存在难度大,成本高的问题。
本发明所采用的技术方案是,一种基于EPI的光场图像超分辨的方法,具体按照以下步骤实施:
步骤1、将光场原始图像和光场相机参数读入光场相机中;
步骤2、对读入相机的光场原始图像进行解码得到四维的光场矩阵;
步骤3、提取四维光场矩阵的位置信息中坐标方向的像素点得到u×v幅子孔径图像;
步骤4、将子孔径图像按行循环,在每一行中依次提取每幅图像相同高度值的像素点,得到s幅EPI图像;
步骤5、对步骤4得到的每幅EPI图像进行超分辨;
步骤6、对经过超分辨的EPI图像进行去模糊操作,再将每一个像素点还原到子孔径图像上。
本发明的特点还在于:
步骤5具体按照以下步骤实施:
步骤5.1、选取s/2行的EPI图像作为参考帧K,对参考帧K进行插值,并将插值后的参考帧作为超分辨率图像的初始参考图像M;
步骤5.2、将除去s/2行的EPI图像作为低分辨率图像进行插值;
步骤5.3、利用函数对插值后的低分辨率图像进行平滑处理;
步骤5.4、采用运动估计算法计算出经过平滑处理的低分辨率图像相对于M的偏移量;
步骤5.5、根据步骤5.4得到的偏移量计算出经过平滑处理的低分辨率图像中每一个像素点映射到M中的像素位置;
步骤5.6、根据经过平滑处理的低分辨率图像中像素点的位置和映射到M中的像素位置计算出经过平滑处理的低分辨率图像中像素点的估计值;
步骤5.7、计算经过平滑处理的低分辨率图像的实际像素值和步骤5.6得到的估计值之间的残差;
步骤5.8、根据步骤5.7得到的残差对初始参考图像M中的像素值进行修正。
步骤2中解码后得到的光场矩阵再进行归一化和灰度化然后再进入步骤3。
步骤5.3中函数为高斯函数。
本发明的有益效果是:本发明一种基于EPI的光场图像超分辨的方法,在光场原图或者由光场原图中提取到的子孔径图像的基础上,通过子孔径图像提取EPI切片,通过对EPI切片进行超分辨更加有利于恢复原始图像的局部细节部分,从而在不提高硬件配置的前提下提高光场图像空间分辨率和角度分辨率。
附图说明
图1是本发明一种基于EPI的光场图像超分辨的方法的流程图;
图2是本发明一种基于EPI的光场图像超分辨的方法的光场图像解码流程图;
图3a为本发明一种基于EPI的光场图像超分辨的方法实施例的光场原图像;
图3b为本发明一种基于EPI的光场图像超分辨的方法实施例的光场白图像;
图3c为本发明一种基于EPI的光场图像超分辨的方法实施例的光场白图像放大效果图;
图4为本发明一种基于EPI的光场图像超分辨的方法实施例的位于中心位置的子孔径图像;
图5为本发明一种基于EPI的光场图像超分辨的方法实施例的提取到的部分子孔径图像;
图6为本发明一种基于EPI的光场图像超分辨的方法实施例的提取到的其中一张EPI图像;
图7为本发明一种基于EPI的光场图像超分辨的方法实施例的提取到的一行子孔径的所有EPI图像;
图8为本发明一种基于EPI的光场图像超分辨的方法实施例的经过超分辨的EPI图像。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于EPI的光场图像超分辨的方法的方法,如图1-2所示,具体按照以下步骤实施:
步骤1:使用MATLAB的imread函数读入大小为[M,N,3]的光场原始图像name_LensletRaw.bmp,记为LF2,使用MATLAB的imread函数读入与原始图像同样大小的光场原图像name_WhiteImage.bmp,使用MATLAB的dlmread函数读入光场图像对应的name_LensletRaw.txt文件,其中txt文件的第一行为光场图像的位置分辨率[s,t],第二行为光场图像的旋转角,第三行为光场图像宏像素间中心点的水平间隔与垂直间隔[x,y],第四行及以后为光场图像每个宏像素的中心点坐标;
步骤2:对宏像素间的水平间隔与垂直间隔进行如公式1的操作,得到光场图像的微透镜阵列中宏像素大小为[u,v],即光场图像的二维角度信息;
u=ceil(y/2)*2+1
v=ceil(x/2)*2+1 (1)
步骤3:对光场原图像与白图像使用MATLAB中imrotate函数进行仿射变换,其中参数为读取的光场图像旋转角度和“crop”;
步骤4:使用zeros函数建立一个五维光场坐标LF_STUV(s,t,u,v,4),其中(s,t)为光场图像空间分辨率,(u,v)为光场图像角度分辨率;
步骤5:利用双平面参数化表征光场图像成像原理建立UV平面,其中UV平面的高UV.height=u,宽UV.width=v;建立ST平面,其中ST平面的高ST.height=s,宽ST.width=v;使用公式(2)计算出UV平面的中心点;
UV_center.width=floor(U_size/2)+1
UV_center.height=floor(V_size/2)+1 (2)
步骤6:使用MATLAB中rgb2gray函数将光场白图像转换为二维灰度图像,使用MATLAB中imbinarize函数对二维灰度图像进行二值化操作,其中二值化阈值设定为50/255;
步骤7:按行列顺序依次选取宏像素位置,当每选取一个宏像素时,使用公式(3)计算每个宏像素中心点坐标;
center_coords.x=round(m_centers((s-1)*ST.width+t,1))+1
center_coords.y=round(m_centers((s-1)*ST.width+t,2))+1 (3)
步骤8:当每选取一个宏像素时,使用公式(4)依次计算宏像素中各个方向相对于中心点的偏移量,再使用公式(5)计算出光场原图中透过该方向像素点的位置;
offset_y=UV_center.height-u
offset_x=UV_center.width-v (4)
piexl_coords.x=center_coords.x+offset_x
piexl_coords.y=center_coords.y+offset_y (5)
步骤9:在光场原图中通过使用公式(5)中计算得到的像素点的坐标取出该像素点的R,G,B三个通道的信息依次赋值给LF_STUV(s,t,u,v,1),LF_STUV(s,t,u,v,2),LF_STUV(s,t,u,v,3),其中LF_STUV(s,t,u,v,4)赋值255,当遍历完所有宏像素以及宏像素中的角度,则把用二维矩阵[m,n]表征的光场信息转为了五维光场坐标LF_STUV(s,t,u,v,4),至此解码完毕;
步骤10:使用MATLAB中squeeze函数提取每一个角度的图像并保存,共提取u×v幅图像,称之为子孔径图像;
步骤11:将u×v幅子孔径图像按u行v列排列,使用MATLAB中squeeze函数依次提取每一行中固定高度值的像素组成一幅新的图像,即EPI图像。每一行图像的大小为s×t,所以图像高度值为s,则每一行子孔径图像中共可以提取到s张大小为t×v的子孔径图像,一共有u行子孔径图像,所以最终提取到u×s幅EPI图像,每幅图像大小为t×v,将所有EPI图像按行分别存储在11个文件夹中;
步骤12:对所有EPI图像进行POCS超分辨算法处理,具体实施步骤如下:(以下过程以其中一个文件夹中第一行子孔径图像为例,其余图像都按照该步骤进行处理);
步骤12.1:一行子孔径图像共有v张,提取该行图像的所有EPI图像。那么一行子孔径图像可以提取s张EPI图像,每张EPI图像的像素点大小为(v×t);
步骤12.2:选取中间行(s/2)的像素点提取到的EPI图像当作参考帧K,并对参考帧K进行插值,然后将其作为超分辨率图像的初始参考图像M;
步骤12.3:确定PSF高斯函数以及系数;
步骤12.4:进行运动估计(采用运动估计算法)计算偏移量;
(1)把其余EPI图像(s-1幅图像)当作低分辨率图像序列进行同样的双线性插值;
(2)采用高斯函数对双线性插值后的低分辨率图像序列(EPI图像)进行平滑处理;
(3)采用运动估计算法计算出每一帧低分辨率图像相对于初始参考图像M的偏移量;
步骤12.5:For n=1 to N(N为迭代次数)开始迭代;
步骤12.6:For m=1 to M(M为低分辨率图像序列)依次读取低分辨率图像序列;
步骤12.7:得到当前帧(图像)的像素;
步骤12.8:For i=1 to H(H为当前低分辨率图像帧的行数);
步骤12.9:For j=1 to W(W为当前低分辨率图像帧的列数);
步骤12.10:将当前低分辨率图像中的每一个像素点根据(3)中的偏移量计算出该像素点映射到初始参考图像M中的像素位置;
步骤12.11:根据当前低分辨率图像中像素点的位置和映射到初始参考图像M中的像素位置计算出该像素点的估计值;
步骤12.12:计算实际像素值和像素估计值之间的残差;
步骤12.13:对初始参考图像M中PSF作用范围内的像素值进行修正;
步骤12.14:迭代终止;
步骤13:由于EPI图像同时具有空间信息和角度信息,EPI图像经过网络超分辨之后会产生伪影效果,所以要进行去模糊操作,去模糊操作主要参考DeblurGAN网络模型对运动图像去模糊操作,输入的EPI图像定为模糊的图像,重建出去模糊的EPI图像定为图像,构建一个生成对抗网络,训练一个CNN作为生成器和一个判别网络,CNN网络学习残差,即损失网络使用的是“content loss”和“adversarial loss”之和,训练数据集是EPI数据集,其中EPI来自于自己拍摄的多张光场图像进行解码,提取子孔径图像,最后提取到的EPI图像;
步骤14:将处理后的EPI图像的像素点按照提取的逆过程还原到子孔径图像上,最终得到处理后的u×v幅子孔径图像。
实施例
下面通过光场相机lytro拍摄的一个光场图像作为实例来说明一种基于EPI的光场图像超分辨的实现过程。
(1)读入光场原始图像1_LensletRaw.bmp,如图3a所示,对应的光场白图像1_WhiteImage.bmp,如图3b所示,以及光场白图像放大效果,如图3c所示,相机参数1_LensletRaw.txt。
(2)根据步骤2-步骤10提取子孔径图像,如图4为位于中心位置的子孔径图像,图5为提取到的部分子孔径图像;
(3)根据步骤11利用子孔径图像提取EPI图像,如图6所示为提取到的其中一张EPI图像,图7为提取到的一行子孔径的所有EPI图像;
(4)通过步骤12对EPI图像进行细节恢复,得到超分辨之后的EPI图像,如图8所示;
(5)通过步骤13对超分辨以后的EPI图像进行去模糊操作;
(6)通过步骤14将像素点还原到子孔径图像上。
Claims (3)
1.一种基于EPI的光场图像超分辨的方法,其特征在于,具体按照以下步骤实施:
步骤1、将光场原始图像和光场相机参数读入光场相机中;
步骤2、对读入相机的光场原始图像进行解码得到四维的光场矩阵;
步骤3、提取四维光场矩阵的位置信息中坐标方向的像素点得到u×v幅子孔径图像;
步骤4、将子孔径图像按行循环,在每一行中依次提取每幅图像相同高度值的像素点,得到s幅EPI图像;
步骤5、对步骤4得到的每幅EPI图像进行超分辨;具体按照以下步骤实施:
步骤5.1、选取s/2行的EPI图像作为参考帧K,对参考帧K进行插值,并将插值后的参考帧作为超分辨率图像的初始参考图像M;
步骤5.2、将除去s/2行的EPI图像作为低分辨率图像进行插值;
步骤5.3、利用函数对插值后的低分辨率图像进行平滑处理;
步骤5.4、采用运动估计算法计算出经过平滑处理的低分辨率图像相对于M的偏移量;
步骤5.5、根据步骤5.4得到的偏移量计算出经过平滑处理的低分辨率图像中每一个像素点映射到M中的像素位置;
步骤5.6、根据经过平滑处理的低分辨率图像中像素点的位置和映射到M中的像素位置计算出经过平滑处理的低分辨率图像中像素点的估计值;
步骤5.7、计算经过平滑处理的低分辨率图像的实际像素值和步骤5.6得到的估计值之间的残差;
步骤5.8、根据步骤5.7得到的残差对初始参考图像M中的像素值进行修正;
步骤6、对经过超分辨的EPI图像进行去模糊操作,再将每一个像素点还原到子孔径图像上。
2.根据权利要求1所述的一种基于EPI的光场图像超分辨的方法,其特征在于,对所述步骤2中解码后得到的光场矩阵再进行归一化和灰度化然后再进入步骤3。
3.根据权利要求1所述的一种基于EPI的光场图像超分辨的方法,其特征在于,所述步骤5.3中函数为高斯函数。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910764022.8A CN110599400B (zh) | 2019-08-19 | 2019-08-19 | 一种基于epi的光场图像超分辨的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910764022.8A CN110599400B (zh) | 2019-08-19 | 2019-08-19 | 一种基于epi的光场图像超分辨的方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110599400A CN110599400A (zh) | 2019-12-20 |
CN110599400B true CN110599400B (zh) | 2022-10-04 |
Family
ID=68854973
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910764022.8A Active CN110599400B (zh) | 2019-08-19 | 2019-08-19 | 一种基于epi的光场图像超分辨的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110599400B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111369443B (zh) * | 2020-03-19 | 2023-04-28 | 浙江昕微电子科技有限公司 | 光场跨尺度的零次学习超分辨率方法 |
CN111583191B (zh) * | 2020-04-16 | 2022-02-22 | 西安理工大学 | 基于光场epi傅里叶变换的折射特征检测方法 |
CN111598775B (zh) * | 2020-04-26 | 2023-02-03 | 西安理工大学 | 基于lstm网络的光场视频时域超分辨重建方法 |
CN111951159B (zh) * | 2020-07-02 | 2024-04-26 | 西安理工大学 | 一种强噪声条件下光场epi图像超分辨率的处理方法 |
WO2022016350A1 (zh) * | 2020-07-21 | 2022-01-27 | Oppo广东移动通信有限公司 | 光场图像的处理方法、编码器、解码器及存储介质 |
CN112419185B (zh) * | 2020-11-20 | 2021-07-06 | 湖北工业大学 | 基于光场迭代的精确高反光去除方法 |
CN112767246B (zh) * | 2021-01-07 | 2023-05-26 | 北京航空航天大学 | 光场图像多倍率空间超分辨方法及装置 |
CN113030968B (zh) * | 2021-03-12 | 2023-05-23 | 中国人民解放军国防科技大学 | 基于csar模式提取dem的方法、装置及存储介质 |
CN114897680B (zh) * | 2022-04-14 | 2023-04-18 | 安庆师范大学 | 融合光场子孔径图像与宏像素图像的角度超分辨率方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015127847A1 (zh) * | 2014-02-25 | 2015-09-03 | 清华大学深圳研究生院 | 一种深度图的超分辨率处理方法 |
CN107945110A (zh) * | 2017-11-17 | 2018-04-20 | 杨俊刚 | 一种针对光场阵列相机的盲深度超分辨率计算成像方法 |
CN108765288A (zh) * | 2018-05-25 | 2018-11-06 | 杭州电子科技大学 | 一种基于边缘保持的pocs图像超分辨重建方法 |
-
2019
- 2019-08-19 CN CN201910764022.8A patent/CN110599400B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015127847A1 (zh) * | 2014-02-25 | 2015-09-03 | 清华大学深圳研究生院 | 一种深度图的超分辨率处理方法 |
CN107945110A (zh) * | 2017-11-17 | 2018-04-20 | 杨俊刚 | 一种针对光场阵列相机的盲深度超分辨率计算成像方法 |
CN108765288A (zh) * | 2018-05-25 | 2018-11-06 | 杭州电子科技大学 | 一种基于边缘保持的pocs图像超分辨重建方法 |
Non-Patent Citations (2)
Title |
---|
一种微透镜光场相机的子孔径图像提取方法;贾琦等;《太原科技大学学报》;20180704(第04期);全文 * |
融合全局与局部视角的光场超分辨率重建;邓武等;《计算机应用研究》;20180408(第05期);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN110599400A (zh) | 2019-12-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110599400B (zh) | 一种基于epi的光场图像超分辨的方法 | |
CN110827200B (zh) | 一种图像超分重建方法、图像超分重建装置及移动终端 | |
Bhat et al. | Deep burst super-resolution | |
Chen et al. | Camera lens super-resolution | |
Farrugia et al. | Super resolution of light field images using linear subspace projection of patch-volumes | |
CN111028150B (zh) | 一种快速时空残差注意力视频超分辨率重建方法 | |
CN112037129B (zh) | 图像超分辨率重建方法、装置、设备及存储介质 | |
CN111510691B (zh) | 颜色插值方法及装置、设备、存储介质 | |
US11244426B2 (en) | Method for image super resolution imitating optical zoom implemented on a resource-constrained mobile device, and a mobile device implementing the same | |
Dudhane et al. | Burstormer: Burst image restoration and enhancement transformer | |
CN111369443B (zh) | 光场跨尺度的零次学习超分辨率方法 | |
CN116847209B (zh) | 一种基于Log-Gabor与小波的光场全聚焦影像生成方法及系统 | |
CN116542889A (zh) | 一种拥有稳定视点的全景视频增强方法 | |
Kim et al. | Joint demosaicing and deghosting of time-varying exposures for single-shot hdr imaging | |
Al Ismaeil et al. | Dynamic super resolution of depth sequences with non-rigid motions | |
Oh et al. | Fpanet: Frequency-based video demoireing using frame-level post alignment | |
CN107194874B (zh) | 基于偏置稳像的超分辨成像系统及方法 | |
Alshammri et al. | Three-dimensional video super-resolution reconstruction scheme based on histogram matching and recursive Bayesian algorithms | |
CN111951159B (zh) | 一种强噪声条件下光场epi图像超分辨率的处理方法 | |
CN115035013A (zh) | 图像处理方法、图像处理装置、终端及可读存储介质 | |
Liu et al. | Deep learning with inaccurate training data for image restoration | |
Jin et al. | Boosting single image super-resolution learnt from implicit multi-image prior | |
Suluhan et al. | Dual camera based high spatio-temporal resolution video generation for wide area surveillance | |
Macwan et al. | A survey on various techniques of super resolution imaging | |
Gupta et al. | Joint video rolling shutter correction and super-resolution |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |