CN113628125A - 基于空间视差先验网络的多幅红外图像增强方法 - Google Patents
基于空间视差先验网络的多幅红外图像增强方法 Download PDFInfo
- Publication number
- CN113628125A CN113628125A CN202110762079.1A CN202110762079A CN113628125A CN 113628125 A CN113628125 A CN 113628125A CN 202110762079 A CN202110762079 A CN 202110762079A CN 113628125 A CN113628125 A CN 113628125A
- Authority
- CN
- China
- Prior art keywords
- spatial
- parallax
- convolution
- module
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 35
- 230000004927 fusion Effects 0.000 claims abstract description 26
- 238000000605 extraction Methods 0.000 claims abstract description 21
- 230000002708 enhancing effect Effects 0.000 claims abstract description 14
- 230000008878 coupling Effects 0.000 claims description 3
- 238000010168 coupling process Methods 0.000 claims description 3
- 238000005859 coupling reaction Methods 0.000 claims description 3
- JXASPPWQHFOWPL-UHFFFAOYSA-N Tamarixin Natural products C1=C(O)C(OC)=CC=C1C1=C(OC2C(C(O)C(O)C(CO)O2)O)C(=O)C2=C(O)C=C(O)C=C2O1 JXASPPWQHFOWPL-UHFFFAOYSA-N 0.000 claims description 2
- 230000000007 visual effect Effects 0.000 abstract description 6
- 238000006073 displacement reaction Methods 0.000 abstract description 3
- 230000000694 effects Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 3
- 235000002566 Capsicum Nutrition 0.000 description 1
- 239000006002 Pepper Substances 0.000 description 1
- 235000016761 Piper aduncum Nutrition 0.000 description 1
- 235000017804 Piper guineense Nutrition 0.000 description 1
- 244000203593 Piper nigrum Species 0.000 description 1
- 235000008184 Piper nigrum Nutrition 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 150000003839 salts Chemical class 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/70—Denoising; Smoothing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/73—Deblurring; Sharpening
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
Abstract
本发明提出了一种基于空间视差先验网络的多幅红外图像增强方法,其特征在于:低质量的多幅红外图像输入空间视差先验网络,其中多幅红外图像是从略微不同的视角获取,仅在水平方向具有亚像素的位移差,由空间视差先验网络进行红外图像的增强运算,输出单幅高质量红外图像;所述空间视差先验网络包括一个浅层特征提取模块、若干个空间视差先验模块,一个特征融合重建模块和一个加法器。本发明提出的多幅红外图像增强方法能够有效地去除模糊和噪声,增加细节,提高信噪比,且增强后的单幅红外图像清晰,视觉效果好。
Description
技术领域
本发明涉及红外图像增强技术领域,具体地说,本发明涉及一种基于空间视差先验网络的多幅红外图像增强技术方案。
背景技术
热像仪可以通过感应物体发出的红外辐射被动成像,因此不受照明(如夜间微光)和恶劣天气的影响。然而,用于捕获高质量红外图像的热传感器非常昂贵,而低成本的商用热传感器由于散焦、不平衡、相机抖动、运动等原因,往往会产生严重的模糊,并且会受到复杂工作环境中的各种噪声干扰,导致采集的红外图像具有很低的信噪比,难以在实际中应用。因此,提高红外图像的质量具有非常重要的意义。
红外图像增强的基本目标是从输入的低质量红外图像中重建恢复出高质量红外图像。根据输入红外图像的数量,红外图像增强方法分为单幅红外图像增强和多幅红外图像的增强方法。对于多幅红外图像增强,现存方法解决这个问题主要分为两个步骤。即:配准对齐、融合增强。配准对齐过程可分为基于刚性变换矩阵的方法和基于运动估计或运动补偿的方法,融合增强过程可分为基于正则化的方法和基于学习的方法。然而这些方法的效果对配准过程非常敏感,如果无法实现精确配准,增强后的红外图像可能会产生明显的重建伪影。因此,如何避免显式对齐带来的伪影影响,一直以来是个难题。
发明内容
针对现有的技术缺陷,本发明提出了一种无需显式对齐的多幅红外图像增强技术方案。经本发明增强得到的红外图像,有效地去除了模糊和噪声,增加了细节,具有很高的信噪比。
为达到上述目的,本发明采用的技术方案提供一种基于空间视差先验网络的多幅红外图像增强方法,低质量的多幅红外图像(从略微不同的视角获取,仅在水平方向具有亚像素的位移差)输入空间视差先验网络,由空间视差先验网络进行红外图像的增强运算,输出单幅高质量红外图像;所述空间视差先验网络包括1个浅层特征提取模块、G个空间视差先验模块,1个特征融合重建模块和1个加法器。
随后,将浅层空间特征和浅层视差特征PF0输入第一个空间视差先验模块,其输出为和PF1,并作为第二个空间视差先验模块的输入,以此类推,经过G个空间视差先验模块后分别提取得到高维空间特征和高维视差特征PF1,...,PFG;
具体地,所述浅层特征提取模块包括N个共享权重的5×5卷积层,N个共享权重的3×3卷积层、1个连接器和1个1×1的卷积层;
其中H5×5(·)表示卷积核大小为5×5的卷积操作;
其中,H3×3(·)表示卷积核大小为3×3的卷积操作,[·]表示连接器操作,H1×1(·)表示卷积核大小为1×1的卷积操作。
具体地,所述空间视差先验模块中包括N个共享权重的增强金字塔卷积模块、1个不共享权重的增强金字塔卷积模块、2个连接器、N个共享权重的3×3卷积层、1个1×1的卷积层和2个加法器;
第g个空间视差先验模块具有两个对称分支,其输入为和PFg-1,g=1,2,...,G;输入到分支1的N个共享权重的增强金字塔卷积模块提取多尺度空间特征同时PFg-1输入到分支2的增强金字塔卷积模块提取多尺度视差特征MPFg;相应的数学定义如下,
然后,使用连接器将分支2得到的MPFg输入到分支1与分别连接起来,随后输入到N个共享权重的3×3卷积层提取局部残差空间特征同时,使用连接器将分支1得到的输入到分支2与MPFg连接起来,随后输入到1×1的卷积层提取局部残差视差特征PFRes,g;相应的数学定义如下,
对于分支1,使用加法器将第g个空间视差先验模块的输入和局部残差空间特征融合,得到第g个空间视差先验模块的输出即高维空间特征同时对于分支2,使用加法器将第g个空间视差先验模块的输入PFg-1和局部残差视差特征PFRes,g融合,得到第g个空间视差先验模块的输出即高维视差特征PFg,相应的数学定义如下,
PFg=PFRes,g+PFg-1。
具体地,所述增强金字塔卷积模块中包括3个具有不同卷积核大小、不同分组数目的分组卷积层、3个注意力层、1个连接器、1个1×1的卷积层;
第g个空间视差先验模块中增强金字塔卷积模块的输入为或g=1,2,...,G,n=1,2,...,N;同时输入到分组数为1的3×3分组卷积层、分组数为4的5×5分组卷积层和分组数为8的7×7分组卷积层,然后进入到分组卷积层后紧跟的注意力层分别得到和或PFg,1、PFg,2和PFg,3,相应的数学公式如下,
or
相应的数学公式如下,
or
MPFg=H1×1([PFg,1,PFg,2,PFg,3])。具体地,所述特征融合重建模块包括1个连接器、2个3×3的卷积层、1个通道注意力层;
然后进入到通道注意力层得到最终融合特征FF2,相应的数学公式如下,
FF2=HCA(FF1),
其中,HCA(·)表示通道注意力层的操作;
最后输入到3×3的卷积层提取全局残差图像IRes。
IRes=H3×3(FF2)。
本发明提出包括对多幅红外图像浅层空间特征和视差特征的提取;将金字塔卷积模块进行改进以生成增强金字塔模块并融入空间视差先验模块来提取包含不同尺度上下文信息的空间特征和视差特征,同时对特征进行交互引导并基于局部残差提取高维空间特征和视差特征;通过通道注意力层自适应地对融合特征进行重新缩放以驱动网络关注更有用的区域;基于全局残差融合得到单幅高质量红外图像的结果。本发明的多幅红外图像增强方法能够有效地去除模糊和噪声,增加细节,提高信噪比,且增强后的单幅红外图像清晰,视觉效果好。和现有方法相比,本发明具有以下优点:
1、本发明针对多幅红外图像增强问题提出了一种新型的空间视差先验网络模型。与其他图像增强方法相比,该方法在主、客观指标上均取得了较好的效果。
2、本发明提出了一种新型的空间视差先验模块,该模块可以有效地探索空间先验信息和视差先验信息,从而不需要显式的图像配准,这可以抑制由不准确配准引起的伪影,实现更好的增强效果。
附图说明
图1为本发明实施例的整体的网络架构图;
图2为本发明实施例浅层特征提取模块架构图;
图3为本发明实施例第g个空间视差先验模块架构图;
图4为本发明实施例增强金字塔卷积模块架构图;
图5为本发明实施例特征融合重建模块架构图。
具体实施方式
下面结合附图和实施例对本发明技术方案进一步详细说明。
本发明提出的方法:将低质量的N幅红外图像(从略微不同的视角获取,仅在水平方向具有亚像素的位移差)输入空间视差先验网络,该网络进行图像的增强运算,输出单幅高质量红外图像。具体实施时,N取值为4,采用软件方式实现自动运行。
参见图1,本发明实施例中空间视差先验网络包括1个浅层特征提取模块、G个空间视差先验模块,1个特征融合重建模块和1个加法器;具体实施时,G的建议取值范围为10~16,实施例中G取优选值12。
随后,将浅层空间特征和浅层视差特征PF0输入第一个空间视差先验模块,其输出为和PF1,并作为第二个空间视差先验模块的输入,以此类推,经过12个空间视差先验模块后分别提取得到高维空间特征和高维视差特征PF1,…,PF12,令表示空间视差先验模块,g为自然数。其相应的数学定义如下,
其中,实施例中g=1,2,...,12;
参见图2,所述浅层特征提取模块包括4个共享权重的5×5卷积层,4个共享权重的3×3卷积层、1个连接器和1个1×1的卷积层;
其中H5×5(·)表示卷积核大小为5×5的卷积操作;
其中,H3×3(·)表示卷积核大小为3×3的卷积操作,[·]表示连接器操作,H1×1(·)表示卷积核大小为1×1的卷积操作;
参见图3,所述空间视差先验模块中包括4个共享权重的增强金字塔卷积模块、1个不共享权重的增强金字塔卷积模块、2个连接器、4个共享权重的3×3卷积层、1个1×1的卷积层和2个加法器;
以第g个空间视差先验模块为例,其输入为和PFg-1,g=1,2,...,12;输入到分支1的4个共享权重的增强金字塔卷积模块提取多尺度空间特征同时PFg-1输入到分支2的增强金字塔卷积模块提取多尺度视差特征MPFg,相应的数学定义如下,
然后,使用连接器将分支2得到的MPFg输入到分支1与连分别接起来,随后输入到4个共享权重的3×3卷积层提取局部残差空间特征同时,使用连接器将分支1得到的输入到分支2与MPFg连接起来,随后输入到1×1的卷积层提取局部残差视差特征PFRes,g,相应的数学定义如下,
对于分支1,将第g个空间视差先验模块的输入和相对应的局部残差空间特征分别融合,得到第g个空间视差先验模块的输出即高维空间特征同时对于分支2,将第g个空间视差先验模块的输入PFg-1和局部残差视差特征PFRes,g融合,得到第g个空间视差先验模块的输出即高维视差特征,相应的数学定义如下,
PFg=PFRes,g+PFg-1;
参见图4,所述增强金字塔卷积模块中包括3个具有不同卷积核大小、不同分组数目的分组卷积层、3个注意力层、1个连接器、1个1×1的卷积层;
第g个空间视差先验模块中增强金字塔卷积模块的输入为或PFg-1,g=1,2,...,12,n=1,2,...,4;同时输入到分组数为1的3×3分组卷积层、分组数为4的5×5分组卷积层和分组数为8的7×7分组卷积层,然后进入到分组卷积层后紧跟的注意力层分别得到和或PFg,1、PFg,2和PFg,3,相应的数学公式如下,
or
其中,HA(·)表示注意力层的操作(具体实现可参见Li W,Tao X,Guo T,etal.MuCAN:Multi-correspondence Aggregation Network for Video Super-Res olution[C]//European Conference on Computer Vision.Springer,Cham,2020:335-351),表示分组数为1,卷积核大小为3×3的分组卷积操作,表示分组数为4,卷积核大小为5×5的分组卷积操作,表示分组数为8,卷积核大小为7×7的分组卷积操作;
or
MPFg=H1×1([PFg,1,PFg,2,PFg,3]);
参见图5,所述特征融合重建模块包括1个连接器、2个3×3的卷积层、1个通道注意力层;
然后进入到通道注意力层的操作,得到最终融合特征FF2,相应的数学公式如下,
FF2=HCA(FF1),
其中,HCA(·)表示通道注意力层的操作(具体实现可参见Lim B,Son S,Kim H,etal.Enhanced deep residual networks for single image super-resolution[C]//Proceedings of the IEEE conference on computer vision and pattern recognition workshops.2017:136-144);
最后经过一个3×3的卷积层计算得到全局残差图像IRes,相应的数学公式如下,
IRes=H3×3(FF2);
具体实施时,可采用软件方式实现基于以上网络的多幅红外图像的增强运算。选取TherISuRNet、FastDVDNet、STDF、ESTRNN方法与本发明进行红外图像增强的对比,对比结果如下表,其中高斯模糊、圆盘模糊和运动模糊为三种不同的模糊类型,高斯白噪声、椒盐噪声和泊松噪声为三种不同的噪声类型;测试图像库为我们采集的10对红外图像;PSNR表示峰值信噪比,SSIM表示结构相似性。可以看到本方法PSNR、SSIM指标最高。
方法效果对比表
可见,本发明使用空间视差先验模块充分提取了多幅红外图像的空间先验信息和视差先验信息,并通过将通道注意力层融入融合重建模块,有效地融合了空间和视差特征,避免了显式的图像配准,实现了较好的红外图像增强效果,客观衡量指标高,视觉效果好。
Claims (7)
1.一种基于空间视差先验网络的多幅红外图像增强方法,其特征在于,包括如下步骤:
步骤1,获取低质量的多幅红外图像;
步骤2,构建空间视差先验网络;
所述空间视差先验网络包括1个浅层特征提取模块、G个空间视差先验模块,1个特征融合重建模块和1个加法器;
所述浅层特征提取模块用于提取红外图像的浅层空间特征和浅层视差特征;
所述空间视差先验模块用于提取红外图像的高维空间特征和高维视差特征;
所述特征融合重建模块用于将红外图像的高维空间特征和高维视差特征进行融合,得到全局残差图像;
所述加法器用于将全局残差图像和其中一幅低质量红外图像融合得到红外图像增强结果;
步骤3,将步骤1中获取的多幅红外图像输入到空间视差先验网络,由空间视差先验网络进行红外图像的增强运算,输出单幅高质量红外图像。
2.根据权利要求1所述的基于空间视差先验网络的多幅红外图像增强方法,其特征在于:所述空间视差先验网络的具体处理过程如下;
随后,将浅层空间特征和浅层视差特征PF0输入第一个空间视差先验模块,其输出为{SF1 1,...,SF1 N}和PF1,并作为第二个空间视差先验模块的输入,以此类推,经过G个空间视差先验模块后分别提取得到高维空间特征和高维视差特征PF1,...,PFG;
3.根据权利要求1所述的基于空间视差先验网络的多幅红外图像增强方法,其特征在于:所述浅层特征提取模块包括N个共享权重的5×5卷积层,N个共享权重的3×3卷积层、1个连接器和1个1×1的卷积层;
其中H5×5(·)表示卷积核大小为5×5的卷积操作;
其中,H3×3(·)表示卷积核大小为3×3的卷积操作,[·]表示连接器操作,H1×1(·)表示卷积核大小为1×1的卷积操作。
4.根据权利要求3所述的基于空间视差先验网络的多幅红外图像增强方法,其特征在于:所述空间视差先验模块中包括N个共享权重的增强金字塔卷积模块、1个不共享权重的增强金字塔卷积模块、2个连接器、N个共享权重的3×3卷积层、1个1×1的卷积层和2个加法器;
第g个空间视差先验模块具有两个对称分支,其输入为和PFg-1,g=1,2,...,G;输入到分支1的N个共享权重的增强金字塔卷积模块提取多尺度空间特征同时PFg-1输入到分支2的增强金字塔卷积模块提取多尺度视差特征MPFg;相应的数学定义如下,
然后,使用连接器将分支2得到的MPFg输入到分支1与分别连接起来,随后输入到N个共享权重的3×3卷积层提取局部残差空间特征同时,使用连接器将分支1得到的输入到分支2与MPFg连接起来,随后输入到1×1的卷积层提取局部残差视差特征PFRes,g;相应的数学定义如下,
对于分支1,使用加法器将第g个空间视差先验模块的输入和局部残差空间特征融合,得到第g个空间视差先验模块的输出即高维空间特征同时对于分支2,使用加法器将第g个空间视差先验模块的输入PFg-1和局部残差视差特征PFRes,g融合,得到第g个空间视差先验模块的输出即高维视差特征PFg;相应的数学定义如下,
PFg=PFRes,g+PFg-1。
5.根据权利要求4所述的基于空间视差先验网络的多幅红外图像增强方法,其特征在于:所述增强金字塔卷积模块中包括3个具有不同卷积核大小、不同分组数目的分组卷积层、3个注意力层、1个连接器、1个1×1的卷积层;
第g个空间视差先验模块中增强金字塔卷积模块的输入为或PFg-1,g=1,2,...,G,n=1,2,...,N;同时输入到分组数为1的3×3分组卷积层、分组数为4的5×5分组卷积层和分组数为8的7×7分组卷积层,然后进入到分组卷积层后紧跟的注意力层分别得到和或PFg,1、PFg,2和PFg,3,
相应的数学公式如下,
or
or
MPFg=H1×1([PFg,1,PFg,2,PFg,3])。
7.根据权利要求1所述的基于空间视差先验网络的多幅红外图像增强方法,其特征在于:G的取值范围为10~16。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110762079.1A CN113628125B (zh) | 2021-07-06 | 2021-07-06 | 基于空间视差先验网络的多幅红外图像增强方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110762079.1A CN113628125B (zh) | 2021-07-06 | 2021-07-06 | 基于空间视差先验网络的多幅红外图像增强方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113628125A true CN113628125A (zh) | 2021-11-09 |
CN113628125B CN113628125B (zh) | 2023-08-15 |
Family
ID=78379155
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110762079.1A Active CN113628125B (zh) | 2021-07-06 | 2021-07-06 | 基于空间视差先验网络的多幅红外图像增强方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113628125B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114757862A (zh) * | 2022-04-14 | 2022-07-15 | 武汉大学 | 用于红外光场设备的图像增强渐进式融合方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111696148A (zh) * | 2020-06-17 | 2020-09-22 | 中国科学技术大学 | 基于卷积神经网络的端到端立体匹配方法 |
CN111861961A (zh) * | 2020-07-25 | 2020-10-30 | 安徽理工大学 | 单幅图像超分辨率的多尺度残差融合模型及其复原方法 |
CN111914853A (zh) * | 2020-07-17 | 2020-11-10 | 三峡大学 | 一种用于立体匹配的特征提取方法 |
CN111931787A (zh) * | 2020-07-22 | 2020-11-13 | 杭州电子科技大学 | 一种基于特征聚合的rgbd显著性检测方法 |
CN112561838A (zh) * | 2020-12-02 | 2021-03-26 | 西安电子科技大学 | 基于残差自注意力和生成对抗网络的图像增强方法 |
-
2021
- 2021-07-06 CN CN202110762079.1A patent/CN113628125B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111696148A (zh) * | 2020-06-17 | 2020-09-22 | 中国科学技术大学 | 基于卷积神经网络的端到端立体匹配方法 |
CN111914853A (zh) * | 2020-07-17 | 2020-11-10 | 三峡大学 | 一种用于立体匹配的特征提取方法 |
CN111931787A (zh) * | 2020-07-22 | 2020-11-13 | 杭州电子科技大学 | 一种基于特征聚合的rgbd显著性检测方法 |
CN111861961A (zh) * | 2020-07-25 | 2020-10-30 | 安徽理工大学 | 单幅图像超分辨率的多尺度残差融合模型及其复原方法 |
CN112561838A (zh) * | 2020-12-02 | 2021-03-26 | 西安电子科技大学 | 基于残差自注意力和生成对抗网络的图像增强方法 |
Non-Patent Citations (2)
Title |
---|
CHANGQING WANG 等: "Motion Parallax Estimation for Ultra Low Altitude Obstacle Avoidance", IEEE * |
陆晓杰: "基于红外双目视觉的避障传感器技术研究", 中国优秀硕士学位论文全文数据库信息科技辑, no. 3 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114757862A (zh) * | 2022-04-14 | 2022-07-15 | 武汉大学 | 用于红外光场设备的图像增强渐进式融合方法 |
CN114757862B (zh) * | 2022-04-14 | 2024-04-16 | 武汉大学 | 用于红外光场设备的图像增强渐进式融合方法 |
Also Published As
Publication number | Publication date |
---|---|
CN113628125B (zh) | 2023-08-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Chen et al. | Camera lens super-resolution | |
Zhang et al. | Deep image deblurring: A survey | |
Wang et al. | 360sd-net: 360 stereo depth estimation with learnable cost volume | |
CN111080709B (zh) | 基于轨迹特征配准的多光谱立体相机自标定算法 | |
KR101121034B1 (ko) | 복수의 이미지들로부터 카메라 파라미터를 얻기 위한 시스템과 방법 및 이들의 컴퓨터 프로그램 제품 | |
US10645364B2 (en) | Dynamic calibration of multi-camera systems using multiple multi-view image frames | |
CN110956661B (zh) | 基于双向单应矩阵的可见光与红外相机动态位姿计算方法 | |
Chi et al. | Single image reflection removal using deep encoder-decoder network | |
Tang et al. | Single image dehazing via lightweight multi-scale networks | |
CN103841298B (zh) | 一种基于颜色恒量和几何不变特征的视频稳像方法 | |
CN111510691A (zh) | 颜色插值方法及装置、设备、存储介质 | |
CN114119424B (zh) | 一种基于光流法和多视角场景的视频修复方法 | |
Huang et al. | Removing reflection from a single image with ghosting effect | |
CN112598604A (zh) | 一种盲脸复原方法及系统 | |
CN115424051A (zh) | 一种全景拼接图像质量评价方法 | |
Song et al. | Real-scene reflection removal with raw-rgb image pairs | |
CN113628125B (zh) | 基于空间视差先验网络的多幅红外图像增强方法 | |
Chi et al. | Hdr imaging with spatially varying signal-to-noise ratios | |
Sun et al. | Mipi 2023 challenge on rgbw remosaic: Methods and results | |
Shen et al. | Depth map enhancement method based on joint bilateral filter | |
Sun et al. | Rolling shutter distortion removal based on curve interpolation | |
CN116402908A (zh) | 一种基于异构式成像的密集光场图像重建方法 | |
Oh et al. | Fpanet: Frequency-based video demoireing using frame-level post alignment | |
CN116012517A (zh) | 一种正则化的图像渲染方法及装置 | |
Sun et al. | Mipi 2023 challenge on rgbw fusion: Methods and results |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |