CN114463192A - 一种基于深度学习的红外视频畸变校正的方法 - Google Patents
一种基于深度学习的红外视频畸变校正的方法 Download PDFInfo
- Publication number
- CN114463192A CN114463192A CN202111321639.6A CN202111321639A CN114463192A CN 114463192 A CN114463192 A CN 114463192A CN 202111321639 A CN202111321639 A CN 202111321639A CN 114463192 A CN114463192 A CN 114463192A
- Authority
- CN
- China
- Prior art keywords
- infrared
- distortion
- image
- neural network
- convolutional neural
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 title claims abstract description 61
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013135 deep learning Methods 0.000 title claims abstract description 16
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 45
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000010586 diagram Methods 0.000 claims description 47
- 238000005070 sampling Methods 0.000 claims description 18
- 230000001537 neural effect Effects 0.000 claims description 9
- 230000008569 process Effects 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 8
- 230000004927 fusion Effects 0.000 claims description 6
- 238000012545 processing Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 238000007781 pre-processing Methods 0.000 claims description 4
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 claims description 3
- WURBVZBTWMNKQT-UHFFFAOYSA-N 1-(4-chlorophenoxy)-3,3-dimethyl-1-(1,2,4-triazol-1-yl)butan-2-one Chemical compound C1=NC=NN1C(C(=O)C(C)(C)C)OC1=CC=C(Cl)C=C1 WURBVZBTWMNKQT-UHFFFAOYSA-N 0.000 claims description 2
- 210000005036 nerve Anatomy 0.000 claims description 2
- 238000003702 image correction Methods 0.000 abstract description 6
- 238000003384 imaging method Methods 0.000 abstract description 2
- 238000013507 mapping Methods 0.000 abstract description 2
- 238000013528 artificial neural network Methods 0.000 description 17
- 230000000694 effects Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 238000011161 development Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 230000000877 morphologic effect Effects 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 239000000654 additive Substances 0.000 description 1
- 230000000996 additive effect Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013213 extrapolation Methods 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000004297 night vision Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/80—Geometric correction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/02—Affine transformations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10048—Infrared image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
Abstract
本发明公开了一种基于深度学习的红外视频畸变校正的方法。创建一个红外畸变图像数据集;构建实现精度要求并能快速推断的卷积神经网络;利用卷积神经网络对红外畸变图像数据集进行训练;将待测的红外畸变图像输入到训练后的卷积神经网络中,得到校正参数并对待测的红外畸变图像进行校正。本发明方法利用卷积神经网络提取红外畸变图像的特征信息,并建立畸变特征与红外畸变图像校正参数之间的映射关系;可以克服不同摄像机及其成像模型对畸变图像校正算法的局限性,具有较好的普适性。
Description
技术领域
本发明涉图像处理,深度学习领域的一种图像校正方法,特别涉及基于深度学习的红外视频畸变校正的方法。
背景技术
随着社会与经济的发展,人们对人身及财产的保护越加重视。布置视频监控作为最常见的安保手段被广泛应用,红外摄像机因其突出的夜间监控效果被大量应用。红外摄像机具有亮度高、夜视距离远、性能稳定、光线均匀等优点。但红外摄像机所拍摄的红外图片存在着变形问题,为了更好的利用红外摄像机拍摄的图像与视频,需要将这些变形的红外图片与视频校正成人们视觉习惯的图像与视频。
普通摄像头的校正目前一般用到的是黑白棋盘格。利用黑白格子在可见光下有明显的边缘区分度,从而检测出畸变后的焦点之间的距离,达到对摄像头进行矫正的目的。但是普通的黑白棋盘格在红外图像中存在区分度小,焦点不明显,边缘不清晰等问题。因此对红外视频畸变的校正需要其他方法。
在过去的几年里,深度学习在图像目标识别,语音识别和自然语言处理方面都展现出了极大的优势。在众多的神经网络种类中,卷积神经网络是最为广泛应用一种。早期由于缺少大规模的训练集和计算机容量,想要训练出表现良好并且不会出现过拟合问题的卷积神经网络是非常困难的。随着ImageNet数据库这一类大规模有标签数据库的出现,以及近几年来得到极大改善的GPU 辅助计算能力,卷积神经网络重新回到研究者们的眼中。
基于卷积神经网络在图像信息处理方面表现出来的极大优,以及随着深度学习技术的快速发展,越来越多的研究者开始尝试基于卷积神经网络的图像校正方法。其中有一种基于卷积神经网络的鱼眼图像校正方法,该方法构建了一个用于估计鱼眼图像畸变系数的卷积神经网络,并且使用了人为合成的鱼眼图像作为训练集来训练该卷积神经网络,该方法通过将鱼眼图像畸变问题转换为鱼眼图像畸变系数分类问题实现了对鱼眼图像的校正。同样,针对红外图像,也能设计一种基于神经网络的畸变校正方法。
发明内容
本发明要解决的技术问题是,通过建立一个卷积神经网络,达到对红外畸变图像的自动校正,基于神经网络实现图像畸变校正,提高效率。方法利用卷积神经网络提取红外畸变图像的特征信息,并建立畸变特征与红外畸变图像校正参数之间的映射关系。
本发明所采用的技术方案是:
步骤1:创建一个红外畸变图像数据集;
步骤2:构建实现精度要求并能快速推断的卷积神经网络;
步骤3:利用卷积神经网络对红外畸变图像数据集进行训练;
步骤4:将待测未知畸变参数和校正参数的红外畸变图像输入到训练后的卷积神经网络中,得到校正参数并对待测的红外畸变图像进行校正。
所述的步骤1包括如下步骤:
采集包含不同场景的多幅红外无畸变的图像,每幅图像赋予N幅随机形成的畸变参数获得N幅畸变后的红外畸变图像,从而形成所有红外畸变图像,由每幅红外畸变图像的畸变参数反畸变转换获得对应的校正参数,由所有幅红外畸变图像和对应的所有幅校正参数组成数据集。
所述步骤2中,所述的卷积神经网络主要由3-4个神经结构单元依次连接构成;每个神经结构单元均包括四个连续的卷积层,神经结构单元输入的图经四个连续的卷积层后输出最终的特征图,在第一个卷积层之后分别连接2倍下采样操作和4倍下采样操作,2倍下采样操作之后经上采样操作再连接到第二个卷积层的输出,2倍下采样操作和4倍下采样操作之后分别经卷积操作、2倍上采样后连接到相加融合层,相加融合层的输出再连接到第三个卷积层的输出。
所述神经结构单元输入的图X0经第一个卷积层处理获得特征图X1,特征图X1经2倍下采样操作获得特征图X4,特征图X1输入第二个卷积层获得特征图X2,特征图X2和特征图X4相加融合后输入到第三个卷积层处理获得特征图X3;同时,特征图X4经卷积操作获得特征图X5,特征图X1经4倍下采样操作获得特征图X6,特征图X6经2倍上采样操作后的结果和特征图X4经卷积操作后的结果相加融合得到特征图X5,特征图X5经上采样后和特征图X3相加融合后输入到第四个卷积层处理获得最终的特征图Y。
本发明设计的卷积神经网络运行效率高并且能最大限度的保留红外图像像素信息,使校正更加准确。
本发明设计的卷积神经网络中,并行连接高分辨率(X1,X2,X3)与低分辨率 (X4,X5,X6)网络,而不是像传统神经网络那样串行连接,能够在整个过程中始终保持高分辨率,而不是通过一个低到高的过程恢复分辨率。
本发明将传统网络中的下采样池化层用卷积层来代替,最大程度得保留图像中每一个像素所带的信息,能够保留每个像素包含的信息和各个像素之间的相互关系,实现时刻保持高分辨率。
其中提出的模型融合相同深度和相似级别的低分辨率特征图来提高高分辨率的特征图的表示效果,并进行重复的多尺度融合,使得小尺度的畸变也能得到模型的关注,从而提高校正的准确率。
神经网络的最后一层采用全连接的方式将多维特征融合到校正参数相对应的维度从而起到训练时的监督作用。
所述步骤3中,将红外畸变图像数据集输入到卷积神经网络训练前,还进行预处理,预处理包括依次进行的随机添加随机噪声、添加随机色彩变换、转换为张量信息;随机色彩变换是指将图像中所有像素的RGB通道进行打乱,转换为张量信息是指将图像中的像素信息转换为张量信息tensor再作为卷积神经网络的输入,以校正参数作为监督信号。通过随机添加随机噪声能够防止网络过拟合,通过添加随机色彩变换能够使模型更多得关注图像中形态特征),通过转换为张量信息能够将训练数据输入到GPU中加速训练。
所述的步骤3中,训练过程如下:先用校正参数和红外畸变图像数据集输入卷积神经网络结构进行初步的训练,然后通过对比原始无畸变的图像与校正后的无畸变图像之间的差异再次对卷积神经网络进行微调训练,训练完成的卷积神经网络结构能够对红外畸变图像的校正参数进行准确预测,实现对红外畸变图像较高精度的校正。
所述的步骤4如下:使用红外热像仪采集一批待测的红外畸变图像,将红外畸变图像的像素信息转换为张量信息后,按批次输入到训练完成的卷积神经网络中,得到每幅图像对应的校正参数,将校正参数作为红外图像仿射变换的参数,运算后得到校正后的图像。
本发明的有益效果是:
采用本发明的基于神经网络的红外视频畸变校正的方法,简化了校正过程,提高了校正效率,并且提升了校正的效果。软件上,由于使用了端到端的训练方法,整个过程只需要神经网络,简化了传方法中需要大量人工标定的步骤。
由于自动校正方法本身是纯基于神经网络的,其中算法的先进性使得畸变校正的效果有所提升。
本发明中的神经网络的参数量经过严格的筛选,因此在保证校正精度的前提下又保证了运行效率,使得大批量的校正任务也能在短时间内快速完成,在专用的深度学习工作站上进行实验,测试得到校正速度达到了每秒20张,准确率达到了98%以上,与常规的卷积神经网络相比,本发明的速度提升了20%,准确率提升了15%。
本方法可以克服不同摄像机及其成像模型对畸变图像校正算法的局限性,具有较好的普适性。
附图说明
图1是本发明中基于深度学习的红外视频校正的方法的流程示意图。
图2是本发明中卷积神经网络的结构单元示意图。
图3是本发明中神经网络训练与预测流程示意图。
具体实施方式
下面结合附图和具体实施对本发明作进一步说明。
如图1所示,实施例中包括如下步骤:
步骤S1创建一个红外畸变图像数据集。
采集包含不同场景的3000幅红外无畸变图像,每幅图像赋予10个随机形成的畸变参数,从而形成30000幅红外畸变图像。
图像对应一个相应的校正参数。由30000红外畸变图像和对应的30000个校正参数组成数据集。
步骤S2设计实现精度要求并能快速推断的卷积神经网络。
如图2所示,以尺寸为256*256*3的特征图为例输入神经结构单元中,
(1)首先输入图X0经过卷积核大小为3*3、步幅为2的卷积层,将特征图尺寸压缩至128*128,将特征通道扩增至64,此时获得特征图X1尺寸为 128*128*64。
(2)对压缩后的特征图X1分别进行2倍和4倍下采样,分别得到 64*64*64的特征图X4与32*32*64的特征图X6。
(3)使用反卷积对32*32*64特征图X6进行2倍上采样并与上一步中 64*64*64的特征图X4经过卷积后的结果进行相加融合得到特征图X5。
(4)对特征图X4进行2倍上采样,并相加融合到特征图X1经卷积核为 3*3,步长为1的卷积层处理获得的结果中形成特征图X2;
对特征图X5进行2倍上采样,并相加融合到特征图X2经卷积核为3*3,步长为1的卷积层处理获得的结果中形成特征图X3;
特征图X3再被卷积核为3*3,步长为1的卷积层处理获得特征图Y。
(5)最终得到尺寸大小为128*128*64的特征图Y输出并连接到下一个神经结构单元。下一个神经结构单元也是进行同样处理。
图2中第一行的部分是高分辨率,下面两行的部分属于低分辨率。
卷积神经网络的设计中,上述结构单元的数量至关重要。数量太少,则精度难以符合要求;如果数量太多,会影响模型的运行效率,甚至会出现过拟合现象,影响泛化能力。为了获得最佳的卷积单元数可以采用以下方法:首先,随机确定一个卷积单元的数量,根据训练和测试结果来调整卷积单元数数量。如果推断时间过长,那么就减少卷积单元数量,如果训练误差过大,就增加卷积单元数量。最后,结合测试精度,一步步调整增加卷积单元的数量,再根据输出是否满足各类指标来进行卷积单元的调整,从而确定一个网络误差最小时的卷积单元数量。神经网络的最后一层采用全连接的方式将多维特征融合到10 个维度从而与校正参数相对应,起到训练时的监督作用。
步骤S3卷积神经网络对数据集进行训练。
如图3所示,首先,对图像进行随机的色彩变换,防止模型更多的关注到图像中的形态信息。其次,在图像中添加随机范围大小的高斯噪声,使模型的鲁棒性增强。最后,将图像像素信息转换为张量信息作为卷积神经网络的输入,图像的校正参数作为监督信号,以MSE作为损失函数。训练过程如下:先校正参数估计网络进行初步的训练,然后通过对比原始无畸变图像与校正后无畸变图像之间的差异再次对神经网络进行微调训练,训练完成的神经网络可以对红外畸变图像的校正参数进行准确预测,实现对红外畸变图像较高精度的校正。
步骤S4如图3所示,将红外畸变图像输入到神经网络中,得到校正参数并对图像进行校正。使用红外热像仪采集一批红外畸变图像,将图像信息转换为张量信息后按批次输入到训练完成的卷积神经网络中,得到每幅图像对应的校正参数,将校正参数作为红外图像仿射变换的参数,运算后得到校正图像。
在上述卷积神经网络运行过程中,不同卷积单元分别对图像做卷积提取特征后使用非线性激活函数处理,得到响应结果后继续输入下一层卷积单元提取特征。卷积单元由低到高逐渐提取图像形态及语义信息。最后的卷积层与一个全连接相连接输出一个与校正参数的维度相对应的向量。由于卷积神经网络能够自动的提取图像中的特征,并使特征与设定的校正参数进行非线性拟合。通过使用大量的畸变图像与校正参数对模型进行训练,使模型在具有在输入图像后自动获取校正参数的泛化能力,因此大大减少了人工标定校正的工作量。
由此可见,在保证准确率能达到98%的前提下,使用神经网络自主标定校正的效率是人工标定校正的3倍。本发明提出的神经网络相比于传统的神经网络的处理速度提升了20%,精度提升了15%。
Claims (7)
1.一种基于深度学习的红外视频畸变校正的方法,其特征在于,所述方法包括如下步骤:
步骤1:创建一个红外畸变图像数据集;
步骤2:构建实现精度要求并能快速推断的卷积神经网络;
步骤3:利用卷积神经网络对红外畸变图像数据集进行训练;
步骤4:将待测的红外畸变图像输入到训练后的卷积神经网络中,得到校正参数并对待测的红外畸变图像进行校正。
2.根据权利要求1所述的基于深度学习的红外视频畸变校正的方法,其特征是:所述的步骤1包括如下步骤:
采集包含不同场景的多幅红外无畸变的图像,每幅图像赋予N幅随机形成的畸变参数获得N幅畸变后的红外畸变图像,从而形成所有红外畸变图像,由每幅红外畸变图像的畸变参数反畸变转换获得对应的校正参数,由所有幅红外畸变图像和对应的所有幅校正参数组成数据集。
3.根据权利要求1所述的基于深度学习的红外视频畸变校正的方法,其特征是:所述步骤2中,所述的卷积神经网络主要由3-4个神经结构单元依次连接构成;每个神经结构单元均包括四个连续的卷积层,神经结构单元输入的图经四个连续的卷积层后输出最终的特征图,在第一个卷积层之后分别连接2倍下采样操作和4倍下采样操作,2倍下采样操作之后经上采样操作再连接到第二个卷积层的输出,2倍下采样操作和4倍下采样操作之后分别经卷积操作、2倍上采样后连接到相加融合层,相加融合层的输出再连接到第三个卷积层的输出。
4.根据权利要求3所述的基于深度学习的红外视频畸变校正的方法,其特征是:所述神经结构单元输入的图X0经第一个卷积层处理获得特征图X1,特征图X1经2倍下采样操作获得特征图X4,特征图X1输入第二个卷积层获得特征图X2,特征图X2和特征图X4相加融合后输入到第三个卷积层处理获得特征图X3;同时,特征图X4经卷积操作获得特征图X5,特征图X1经4倍下采样操作获得特征图X6,特征图X6经2倍上采样操作后的结果和特征图X4经卷积操作后的结果相加融合得到特征图X5,特征图X5经上采样后和特征图X3相加融合后输入到第四个卷积层处理获得最终的特征图Y。
5.根据权利要求1所述的基于深度学习的红外视频畸变校正的方法,其特征是:所述步骤3中,将红外畸变图像数据集输入到卷积神经网络训练前,还进行预处理,预处理包括依次进行的随机添加随机噪声、添加随机色彩变换、转换为张量信息;随机色彩变换是指将图像中像素的RGB通道进行打乱,转换为张量信息是指将图像中的像素信息转换为张量信息tensor再作为卷积神经网络的输入。
6.根据权利要求1所述的基于深度学习的红外视频畸变校正的方法,其特征是,所述的步骤3中,训练过程如下:先用校正参数和红外畸变图像数据集输入卷积神经网络结构进行初步的训练,然后通过对比原始无畸变的图像与校正后的无畸变图像之间的差异再次对卷积神经网络进行微调训练。
7.根据权利要求1所述的基于深度学习的红外视频畸变校正的方法,其特征是,所述的步骤4如下:使用红外热像仪采集一批待测的红外畸变图像,将红外畸变图像的像素信息转换为张量信息后,按批次输入到训练完成的卷积神经网络中,得到每幅图像对应的校正参数,将校正参数作为红外图像仿射变换的参数,运算后得到校正后的图像。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111321639.6A CN114463192A (zh) | 2021-11-09 | 2021-11-09 | 一种基于深度学习的红外视频畸变校正的方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111321639.6A CN114463192A (zh) | 2021-11-09 | 2021-11-09 | 一种基于深度学习的红外视频畸变校正的方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN114463192A true CN114463192A (zh) | 2022-05-10 |
Family
ID=81404998
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111321639.6A Pending CN114463192A (zh) | 2021-11-09 | 2021-11-09 | 一种基于深度学习的红外视频畸变校正的方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN114463192A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115115552A (zh) * | 2022-08-25 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 图像矫正模型训练及图像矫正方法、装置和计算机设备 |
-
2021
- 2021-11-09 CN CN202111321639.6A patent/CN114463192A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115115552A (zh) * | 2022-08-25 | 2022-09-27 | 腾讯科技(深圳)有限公司 | 图像矫正模型训练及图像矫正方法、装置和计算机设备 |
CN115115552B (zh) * | 2022-08-25 | 2022-11-18 | 腾讯科技(深圳)有限公司 | 图像矫正模型训练及图像矫正方法、装置和计算机设备 |
WO2024041108A1 (zh) * | 2022-08-25 | 2024-02-29 | 腾讯科技(深圳)有限公司 | 图像矫正模型训练及图像矫正方法、装置和计算机设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110033410B (zh) | 图像重建模型训练方法、图像超分辨率重建方法及装置 | |
CN108986050B (zh) | 一种基于多分支卷积神经网络的图像和视频增强方法 | |
CN111401384B (zh) | 一种变电设备缺陷图像匹配方法 | |
CN110415199B (zh) | 基于残差学习的多光谱遥感图像融合方法及装置 | |
CN116071243B (zh) | 一种基于边缘增强的红外图像超分辨率重建方法 | |
CN112733950A (zh) | 一种基于图像融合与目标检测结合的电力设备故障诊断方法 | |
CN109034184B (zh) | 一种基于深度学习的均压环检测识别方法 | |
CN114066831B (zh) | 一种基于两阶段训练的遥感图像镶嵌质量无参考评价方法 | |
CN112241939B (zh) | 一种基于多尺度和非局部的轻量去雨方法 | |
CN117635428A (zh) | 一种肺部ct图像超分辨重建方法 | |
CN110751271B (zh) | 一种基于深度神经网络的图像溯源特征表征方法 | |
CN116486074A (zh) | 一种基于局部和全局上下文信息编码的医学图像分割方法 | |
CN114782298A (zh) | 一种具有区域注意力的红外与可见光图像融合方法 | |
CN114926826A (zh) | 场景文本检测系统 | |
CN114463192A (zh) | 一种基于深度学习的红外视频畸变校正的方法 | |
CN117078516B (zh) | 基于残差混合注意力的矿井图像超分辨率重建方法 | |
CN113628143A (zh) | 一种基于多尺度卷积的加权融合图像去雾方法及装置 | |
CN112184552A (zh) | 一种基于高频特征学习的子像素卷积图像超分辨方法 | |
CN116385404A (zh) | 一种自监督下基于图像分割的表面缺陷异常定位和检测方法 | |
CN113920455B (zh) | 一种基于深度神经网络的夜间视频着色方法 | |
CN113160104B (zh) | 一种基于密集连接网络的图像融合方法 | |
Yao et al. | Spatial-frequency dual-domain feature fusion network for low-light remote sensing image enhancement | |
Wang et al. | RGNAM: recurrent grid network with an attention mechanism for single-image dehazing | |
CN114298909A (zh) | 一种超分辨网络模型及其应用 | |
CN112435200A (zh) | 一种应用于目标检测的红外图像数据增强方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |