CN115187480A - 一种基于Transformer的图像颜色校正方法 - Google Patents
一种基于Transformer的图像颜色校正方法 Download PDFInfo
- Publication number
- CN115187480A CN115187480A CN202210795882.XA CN202210795882A CN115187480A CN 115187480 A CN115187480 A CN 115187480A CN 202210795882 A CN202210795882 A CN 202210795882A CN 115187480 A CN115187480 A CN 115187480A
- Authority
- CN
- China
- Prior art keywords
- layer
- color correction
- image
- image color
- msa
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012937 correction Methods 0.000 title claims abstract description 45
- 238000000034 method Methods 0.000 title claims abstract description 42
- 238000000605 extraction Methods 0.000 claims abstract description 25
- 238000012549 training Methods 0.000 claims abstract description 7
- 239000013598 vector Substances 0.000 claims description 53
- 239000011159 matrix material Substances 0.000 claims description 32
- 238000013507 mapping Methods 0.000 claims description 24
- 238000013528 artificial neural network Methods 0.000 claims description 15
- 238000004364 calculation method Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 abstract description 7
- 230000008901 benefit Effects 0.000 abstract description 6
- 230000006870 function Effects 0.000 description 25
- 238000013527 convolutional neural network Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 8
- 238000005286 illumination Methods 0.000 description 7
- 230000007246 mechanism Effects 0.000 description 7
- 101100409194 Rattus norvegicus Ppargc1b gene Proteins 0.000 description 6
- 230000008447 perception Effects 0.000 description 4
- 238000010606 normalization Methods 0.000 description 3
- 238000013135 deep learning Methods 0.000 description 2
- 125000001475 halogen functional group Chemical group 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 244000141359 Malus pumila Species 0.000 description 1
- 235000021016 apples Nutrition 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000008034 disappearance Effects 0.000 description 1
- 238000006073 displacement reaction Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002349 favourable effect Effects 0.000 description 1
- 238000010191 image analysis Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Multimedia (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种基于Transformer的图像颜色校正方法,包括输入原始带颜色投影的图像,其特征在于,还包括以下步骤:构建图像颜色校正模型,所述图像颜色校正模型包括浅层特征提取模块、深层特征提取模块和图像重构模块;对所述图像颜色校正模型进行训练;将所述原始带颜色投影的图像输入到训练后的所述图像颜色校正模型中,得到最后校正后彩色图像。本发明提出了一种基于Transformer的图像颜色校正方法,融合了CNN和Transformer的优点,一方面具有CNN处理大尺寸图像的优势;另一方面具有Transformer的优势,可以使用移位窗口策略对全局信息进行建模。
Description
技术领域
本发明涉及图像处理的技术领域,特别是一种基于Transformer的图像颜色校正方法。
背景技术
随着智慧城市建设不断深入,对自动驾驶、智慧交通、智能安防的需求越来越强,对图像的质量要求也越来越高。在复杂光照下,如夜间受到车灯、路灯等因素影响,使获得的图像带有不同光照的投影,会造成物体色度信息的改变,对于同一物体表面,不同的光照可能会产生完全不同的颜色。颜色特征是人类感知外界物体的重要特征,但颜色特征又是一种极不稳定的视觉特征,是影响图像识别与检索性能的重要因素之一。颜色矫正是计算机视觉领域中既基本又重要的任务之一,其处理结果的好坏决定着后续任务的性能,是计算机视觉领域重要预处理阶段。近些年,深度学习理论也被用于解决颜色计算问题,主要思路是首先利用网络模型对场景光源色度进行估计,然后再根据估计后的光源色度信息利用对角模型对原始图像进行矫正。
基于传统卷积神经网络的方法中,使用相同的卷积核来处理不同的图像区域,这种只考虑图像局部信息进行建模,影响了模型的性能。Transformer作为卷积神经网络的替代方案,它利用一种自注意力机制来捕获上下文之间的全局信息。然而,该类方法通常将输入图像分成固定大小的块(如32×32),并独立处理每个块。这种方式也不可避免地会产生两个缺点:首先,边界像素不能利用块之外的相邻像素进行注意力信息获取。其次,得到的图像会在每个块周围引入伪影现象。虽然这个问题可以通过块重叠来缓解,但它会带来额外的计算开销。
申请公开号为CN112581373A的发明专利申请公开了一种深度学习的图像颜色矫正方法,首先,收集不同光照环境下的图像数据构建色偏图像数据集。之后,对数据进行数据增强和预处理,使数据符合神经网络训练要求。然后,构建一种Encoder-Decoder结构的基础卷积神经网络,并依据该基础神经网络构建级联的卷积神经网络。同时,针对级联神经网络的特点,设计了特定的神经网络损失函数。通过训练之后,该级联卷积神经网络可将一张色偏的原图片转化为无色偏的图片。该方法的缺点是该网络结构采用U型结构,它能够进行除噪和色彩校正,但恢复的结果图像在某些情况下可能存在一些缺陷,例如模糊、光晕现象,主要原因是过多的池化和上采样很容易产生光晕和模糊。
发明内容
为了解决上述的技术问题,本发明提出了一种基于Transformer的图像颜色校正方法,融合了CNN和Transformer的优点,一方面具有CNN处理大尺寸图像的优势;另一方面具有Transformer的优势,可以使用移位窗口策略对全局信息进行建模。
本发明提供一种基于Transformer的图像颜色校正方法,包括输入原始带颜色投影的图像,还包括以下步骤:
步骤1:构建图像颜色校正模型,所述图像颜色校正模型包括浅层特征提取模块、深层特征提取模块和图像重构模块;
步骤2:对所述图像颜色校正模型进行训练;
步骤3:将所述原始带颜色投影的图像输入到训练后的所述图像颜色校正模型中,得到最后校正后彩色图像。
优选的是,所述浅层特征提取模块的输入为所述原始带颜色投影的图像,大小为H×W×3,利用1×1卷积使得输出是大小为H×W×120的特征图。
在上述任一方案中优选的是,所述深层特征提取模块的STB层的输入为所述大小为H×W×120的特征图,输出为提取后的深层语义特征。
在上述任一方案中优选的是,所述STB层的结构依次为:输入特征、LN层、W-MSA子模块或SW-MSA子模块、残差连接层、LN层、多层感知机层、残差连接层和输出特征。
在上述任一方案中优选的是,所述STB层包括2部分,左侧部分采用W-MSA子模块,右侧部分采用SW-MSA子模块。
在上述任一方案中优选的是,所述LN层用于对输入数据进行归一化处理。
在上述任一方案中优选的是,所述多层感知机层由两层全连接神经网络组成,第一层全连接网络先把输入向量从120维度映射到480维度,激活函数为ReLU函数,第二层全连接网络再从480维度映射回120维度,不使用激活函数。
在上述任一方案中优选的是,所述全连接网络的表达式为
FFN(x)=max(0,xw1+b1)w2+b2
其中,x为输入特征图,w1为第一层权重,b1为第一层偏置,w2为第二层权重,b2为第二层偏置。
在上述任一方案中优选的是,所述W-MSA子模块用于对输入特征进行窗口划分,在每个划分的小窗口上进行多头自注意力计算。
在上述任一方案中优选的是,所述W-MSA子模块用于将输入特征映射到不同的子空间中,再分别在所有子空间上做点乘运算计算注意力向量,最后把所有子空间计算得到的注意力向量拼接起来,并利用W0做进一步映射得到最终的注意力向量作为输出。
在上述任一方案中优选的是,所述W-MSA子模块的表达式为
MultiHead(Q,K,V)=Concat(head1,…,headh)W0
其中,Q,K,V分别为W-MSA子模块的查询向量、键向量、值向量,W0为线性映射权重,h为子空间的个数,Attention为头注意力函数,为第j子空间中Q的映射矩阵,为第j子空间中K的映射矩阵,为第j子空间中V的映射矩阵。
在上述任一方案中优选的是,在一个单独子空间上的所述注意力向量的计算方式依次为:先将查询向量Q和键向量K点乘,再除以键向量K的维度的平方根dk得到查询向量Q的分数矩阵,然后通过softmax函数将分数矩阵归一化得到权重矩阵,最后乘以值向量V即得到一个子空间的注意力向量,具体形式为:
其中,KT为键向量K的转置,dk为键向量K的维度的平方根。
在上述任一方案中优选的是,所述W-MSA子模块的工作方法包括以下子步骤:
步骤11:将所述大小为H×W×120的特征图循环左移和循环上移半个窗口的大小;
步骤12:按照W-MSA子模块切分窗口,得到和W-MSA不同的窗口内容;
步骤13:结合Mask矩阵,计算每个窗口的Attention;
步骤14:得到的图像特征再循环下移和循环右移半个窗口的大小,恢复到原来的位置。
在上述任一方案中优选的是,每个窗口的Attention,公式为:
其中,Mask为初始位置值均为0的矩阵。
在上述任一方案中优选的是,所述步骤2包括利用L1损失和感知损失函数加权平均作为模型的总损失函数Ltotal,公式为
Ltotal=0.5L1+0.5Lperc
其中,L1表示像素级别的L1范数损失,Lperc表示感知损失,Igt代表真实图像,Ic代表校正后图像,Cj代表通道,Hj和Wj分别代表第j特征图的高度和宽度,代表在预训练模型VGG16中最后卷积层输出的特征图。
本发明提出了一种基于Transformer的图像颜色校正方法,能够恢复场景中真实内容信息,在智能安防、智能驾驶、智慧交通等多个领域有广泛的应用前景。
Swin Transformer是指一种基于窗口的Transformer方法。
STB层是指基于Swin Transformer的块结构。
LN层是指Layer Normalization,一种层归一化方法。
W-MSA子模块是指基于窗口的多头自注意力机制。
SW-MSA子模块是指基于移动窗口的多头自注意力机制。
附图说明
图1为按照本发明的基于Transformer的图像颜色校正方法的一优选实施例的流程图。
图2为按照本发明的基于Transformer的图像颜色校正方法的一优选实施例的整体架构示意图。
图3为按照本发明的基于Transformer的图像颜色校正方法的浅层特征提取模块的一实施例的示意图。
图4为按照本发明的基于Transformer的图像颜色校正方法的STB层机构的一实施例的示意图。
图5为按照本发明的基于Transformer的图像颜色校正方法的Mask矩阵计算的一实施例的示意图。
图6为按照本发明的基于Transformer的图像颜色校正方法的图像重构的一实施例的示意图。
具体实施方式
下面结合附图和具体的实施例对本发明做进一步的阐述。
实施例一
如图1所示,执行步骤100,输入原始带颜色投影的图像。
执行步骤110,构建图像颜色校正模型,所述图像颜色校正模型包括浅层特征提取模块、深层特征提取模块和图像重构模块。
所述浅层特征提取模块的输入为所述原始带颜色投影的图像,大小为H×W×3,利用1×1卷积使得输出是大小为H×W×120的特征图。
所述深层特征提取模块的STB层的输入为所述大小为H×W×120的特征图,输出为提取后的深层语义特征。所述STB层的结构依次为:输入特征、LN层、W-MSA子模块或SW-MSA子模块、残差连接层、LN层、多层感知机层、残差连接层和输出特征。
所述LN层用于对输入数据进行归一化处理。
所述多层感知机层由两层全连接神经网络组成,第一层全连接网络先把输入向量从120维度映射到480维度,激活函数为ReLU函数,第二层全连接网络再从480维度映射回120维度,不使用激活函数。所述全连接网络的表达式为
FFN(x)=max(0,xw1+b1)w2+b2
其中,x为输入特征图,w1为第一层权重,b1为第一层偏置,w2为第二层权重,b2为第二层偏置。
所述STB层包括2部分,左侧部分采用W-MSA子模块,右侧部分采用SW-MSA子模块。
所述W-MSA子模块用于对输入特征进行窗口划分,在每个划分的小窗口上进行多头自注意力计算。所述W-MSA子模块用于将输入特征映射到不同的子空间中,再分别在所有子空间上做点乘运算计算注意力向量,最后把所有子空间计算得到的注意力向量拼接起来,并利用W0做进一步映射得到最终的注意力向量作为输出。所述W-MSA子模块的表达式为
MultiHead(Q,K,V)=Concat(head1,…,headh)W0
其中,Q,K,V分别为W-MSA子模块的查询向量、键向量、值向量,W0为线性映射权重,h为子空间的个数,Attention为头注意力函数,为第j子空间中Q的映射矩阵,为第j子空间中K的映射矩阵,为第j子空间中V的映射矩阵。
在一个单独子空间上的所述注意力向量的计算方式依次为:先将查询向量Q和键向量K点乘,再除以键向量K的维度的平方根dk得到查询向量Q的分数矩阵,然后通过softmax函数将分数矩阵归一化得到权重矩阵,最后乘以值向量V即得到一个子空间的注意力向量,具体形式为:
其中,KT为键向量K的转置,dk为键向量K的维度的平方根。
所述W-MSA子模块的工作方法包括以下子步骤:
执行步骤111,将所述大小为H×W×120的特征图循环左移和循环上移半个窗口的大小;
执行步骤112,按照W-MSA子模块切分窗口,得到和W-MSA不同的窗口内容;
执行步骤113,结合Mask矩阵,计算每个窗口的Attention,每个窗口的Attention的公式为:
其中,Mask为初始位置值均为0的矩阵。
执行步骤114,得到的图像特征再循环下移和循环右移半个窗口的大小,恢复到原来的位置。
执行步骤120,对所述图像颜色校正模型进行训练,利用L1损失和感知损失函数加权平均作为模型的总损失函数Ltotal,公式为
Ltotal=0.5L1+0.5Lperc
其中,L1表示像素级别的L1范数损失,Lperc表示感知损失,Igt代表真实图像,Ic代表校正后图像,Cj代表通道,Hj和Wj分别代表第j特征图的高度和宽度,代表在预训练模型VGG16中最后卷积层输出的特征图。
执行步骤130,将所述原始带颜色投影的图像输入到训练后的所述图像颜色校正模型中,得到最后校正后彩色图像。
实施例二
本发明主要基于Swin Transformer模型而提出的一种图像颜色校正方法,它由三个模块组成:浅层特征提取模块、深层特征提取模块和图像重建模块。浅层特征提取模块利用卷积层实现,作为残差连接通道,直接传输到重构模块,以保留图像底层纹理信息。深度特征提取模块主要由多个Residual Swin Transformer(RST)层组成,每个层利用1个SwinTransformer块进行局部注意力信息和全局信息建模。重建模块中首先融合浅层和深层特征,再利用两个卷积层实现图像复原,得到最后校正后彩色图像。整个框架图如图2所示:
(1)浅层特征提取模块利用Patch Embedding技术,直接以原始图像作为输入,Patch Embedding将原始图像分通过1×1卷积将图像维度应用到线性嵌入层,本发明实施中嵌入层的维度设置为120。
(2)深层特征提取模块利用移动窗口(shift window)策略,对输入的图像特征图进行窗口划分。先在划分后的窗口里单独使用多头自注意力机制(Multi-head Self-Attention,MSA)对局部依赖关系进行建模,从而提取布局图像特征。然后通过平移窗口位置,解决不同窗口之间信息共享,利用全局依赖关系进行建模。
(3)重建模块包含两层卷积,用于图像维度映射,使得输出特征图的维度为3,特征图通道的变化为120→64→3。
本发明的方法,利用图2所示的网络框架,按照以下步骤具体实施:
步骤1:构建浅层特征提取模块:如图3所示,该处理模块的输入为原始带颜色投影的图像,大小为H×W×3,利用1×1卷积使得输出是大小为H×W×120的特征图。
步骤2:构建高层特征提取模块:基于Swin Transformer提取图像高层语义信息,如图4所示。STB层(Swin Transformer Block)的输入是步骤1的输出特征,大小为H×W×120。输出是提取后的高层语义特征,大小同样为H×W×120。STB利用其自注意力机制建模不同空间位置特征之间的依赖关系,有效地捕获上下文信息。另外,STB在网络中融入局部特征和全局信息,其结构避免了CNN堆叠卷积层来获取全局信息的模式,使模型具有很好的特征提取能力。
如图4所示,STB块的结构依次为:步骤1的输出特征作为输入特征→LN(LayerNorm)层→W-MSA子模块(窗口多头自注意力层)或者SW-MSA子模块(移位窗口多头自注意力层)→残差连接层→LN层→MLP(多层感知机层)→残差连接层→输出特征。STB包括2部分,左侧采用的是WMSA子模块,右侧采用SW-MSA子模块。LN层主要作用是对输入数据进行归一化处理,将其归到0到1之间,从而保证输入层数据分布是一样的;MLP由两层全连接神经网络组成,第一层全连接网络先把输入向量从120维度映射到480维度,激活函数为Relu函数,第二层全连接网络再从480维度映射回120维度,不使用激活函数,全连接网络的表达式如下式(1):
FFN(x)=max(0,xw1+b1)w2+b2 (1)
残差连接层主要是进行残差连接,解决梯度消失问题。
W-MSA子模块首先对输入特征进行窗口划分,本发明实施例中设置的划分窗口大小为8×8,在每个划分的小窗口上进行多头自注意力计算。W-MSA子模块将输入特征映射到不同的子空间中,再分别在所有子空间上做点乘运算计算注意力向量,最后把所有子空间计算得到的注意力向量拼接起来,并利用W0做进一步映射得到最终的注意力向量作为输出,W-MSA子模块的表达式如公式(2)所示:
MultiHead(Q,K,V)=Concat(head1,…,headh)W0
其中,Q,K,V分别为W-MSA子模块的查询向量、键向量、值向量,为第j子空间中Q的映射矩阵,为第j子空间中K的映射矩阵,为第j子空间中V的映射矩阵,本步骤实施例中设置的子空间的个数h设为6,在一个单独子空间上的注意力向量(20维)的计算方式依次为:先将查询向量Q和键向量K点乘,再除以键向量K的维度的平方根得到查询向量Q的分数矩阵(定义为A),然后通过softmax函数将分数矩阵归一化得到权重矩阵,最后乘以值向量V即得到一个子空间的注意力向量,具体形式如公式(3)所示:
W-MSA子模块通过将输入特征映射到不同的子空间,利用获得的注意力分数捕获特征在不同子空间上的依赖关系。单独使用W-MSA子模块得到的网络的建模能力有限,因为它将每个窗口当作一个独立区域计算。它忽略了窗口之间的联系。为了解决这个问题,本发明利用SW-MSA子模块获取全局依赖关系。SW-MSA子模块首先将图像特征进行尺寸为半个窗口大小的像素位移操作,然后基于Mask机制进行W-MSA子模块操作。即形成和W-MSA子模块所划分同一位置的窗口里面包含的图像特征信息不同,即解决了不同窗口之间信息间交互的问题。具体操作流程如下:
将步骤1的输出特征循环左移和循环上移半个窗口的大小,在移位的基础上再按照W-MSA子模块切分窗口,就会得到和W-MSA不同的窗口内容;然后计算每个窗口的Mask,如图5所示,假设图像大小为48×48,窗口大小为16×16,得到9个窗口,标号1-9,其中标号1,2,4,5,Mask矩阵所有位置值为0,按照W-MSA模块计算方式进行Attention计算。标号3,6共享一组Mask矩阵,其中黑色位置Mask值为0,白色位置Mask值为-100,同理,标号7,8共享一组Mask矩阵,标号9窗口单独设置一个Mask矩阵。结合Mask矩阵,每个窗口计算Attention,如公式(4)所示:
得到的图像特征再循环下移和循环右移半个窗口的大小,恢复到原来的位置。
步骤3:图像重构模块,该重构模块的输入数据是步骤2的输出特征,大小为H×W×120;该重构模块的输出是校正后彩色图像,大小H×W×3,利用2次卷积操作实现,如图6所示。经过Conv1层,卷积核大小为1×1,步长为1,输出层大小H×W×64,再经过Conv2层,卷积核大小为3×3,步长为1,输出通道为3,构成校正后图像。
模型训练实施阶段,构建4650组图像匹配对作为训练样本。对于损失函数,由于L1损失函数在图像的整体对比度、均匀区域的平滑效果方面表现较好,感知损失函数能够约束真实图像和预测图像之间的差异,保持更多的原图像的细节信息。本专利中,利用L1损失和感知损失函数加权平均作为模型的总损失函数,如公式(5)所示:
Ltotal=0.5L1+0.5Lperc
式中,L1表示像素级别的L1范数损失,Lperc表示感知损失,Igt代表真实图像,Ic代表校正后图像,Cj代表通道,Hj和Wj分别代表第j特征图的高度和宽度,代表在预训练模型VGG16中最后卷积层输出的特征图。
实施例3
本专利提出的颜色校正方法能够恢复场景中真实内容信息,在智能安防、智能驾驶、智慧交通等多个领域有广泛的应用前景。同时,生活娱乐方面,手机、相机等已经成为人们日常生活必不可少的一部分,人们对图像质量的要求越来越高,各大手机商(如华为、苹果)内部就配有白平衡(颜色恒常性)功能,但这类算法不是端到端的学习方式,是建立图像内容和场景光照之间的映射关系,利用得到的光照颜色之后,还要进行后续处理。本专利提出的方法是一种端到端方式,模型的输出结果就是校正后彩色图像,去除光照的影响,恢复物体本来颜色,使之有利于进行进一步的图像分析和特征提取,具有较高的应用价值。
为了更好地理解本发明,以上结合本发明的具体实施例做了详细描述,但并非是对本发明的限制。凡是依据本发明的技术实质对以上实施例所做的任何简单修改,均仍属于本发明技术方案的范围。本说明书中每个实施例重点说明的都是与其它实施例的不同之处,各个实施例之间相同或相似的部分相互参见即可。对于系统实施例而言,由于其与方法实施例基本对应,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
Claims (10)
1.一种基于Transformer的图像颜色校正方法,包括输入原始带颜色投影的图像,其特征在于,还包括以下步骤:
步骤1:构建图像颜色校正模型,所述图像颜色校正模型包括浅层特征提取模块、深层特征提取模块和图像重构模块;
步骤2:对所述图像颜色校正模型进行训练;
步骤3:将所述原始带颜色投影的图像输入到训练后的所述图像颜色校正模型中,得到最后校正后彩色图像。
2.如权利要求1所述的基于Transformer的图像颜色校正方法,其特征在于,所述深层特征提取模块的STB层的输入为所述大小为H×W×120的特征图,输出为提取后的深层语义特征。
3.如权利要求2所述的基于Transformer的图像颜色校正方法,其特征在于,所述STB层的结构依次为:输入特征、LN层、W-MSA子模块或SW-MSA子模块、残差连接层、LN层、多层感知机层、残差连接层和输出特征。
4.如权利要求3所述的基于Transformer的图像颜色校正方法,其特征在于,所述STB层包括2部分,左侧部分采用W-MSA子模块,右侧部分采用SW-MSA子模块。
5.如权利要求4所述的基于Transformer的图像颜色校正方法,其特征在于,所述LN层用于对输入数据进行归一化处理。
6.如权利要求5所述的基于Transformer的图像颜色校正方法,其特征在于,所述多层感知机层由两层全连接神经网络组成,第一层全连接网络先把输入向量从120维度映射到480维度,激活函数为ReLU函数,第二层全连接网络再从480维度映射回120维度,不使用激活函数。
7.如权利要求6所述的基于Transformer的图像颜色校正方法,其特征在于,所述全连接网络的表达式为
FFN(x)=max(0,xw1+b1)w2+b2
其中,x为输入特征图,w1为第一层权重,b1为第一层偏置,w2为第二层权重,b2为第二层偏置。
8.如权利要求7所述的基于Transformer的图像颜色校正方法,其特征在于,所述W-MSA子模块用于对输入特征进行窗口划分,在每个划分的小窗口上进行多头自注意力计算。
9.如权利要求8所述的基于Transformer的图像颜色校正方法,其特征在于,所述W-MSA子模块用于将输入特征映射到不同的子空间中,再分别在所有子空间上做点乘运算计算注意力向量,最后把所有子空间计算得到的注意力向量拼接起来,并利用W0做进一步映射得到最终的注意力向量作为输出。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210795882.XA CN115187480A (zh) | 2022-07-06 | 2022-07-06 | 一种基于Transformer的图像颜色校正方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202210795882.XA CN115187480A (zh) | 2022-07-06 | 2022-07-06 | 一种基于Transformer的图像颜色校正方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN115187480A true CN115187480A (zh) | 2022-10-14 |
Family
ID=83516979
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202210795882.XA Pending CN115187480A (zh) | 2022-07-06 | 2022-07-06 | 一种基于Transformer的图像颜色校正方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN115187480A (zh) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115909013A (zh) * | 2023-01-10 | 2023-04-04 | 深圳精智达技术股份有限公司 | 一种图像的卷积方法、装置、电子设备和存储介质 |
CN116665063A (zh) * | 2023-07-27 | 2023-08-29 | 南京信息工程大学 | 基于自注意力和深度卷积并行的高光谱重建方法 |
CN117115061A (zh) * | 2023-09-11 | 2023-11-24 | 北京理工大学 | 一种多模态图像融合方法、装置、设备及存储介质 |
CN117934962A (zh) * | 2024-02-06 | 2024-04-26 | 青岛兴牧畜牧科技发展有限公司 | 一种基于参照色卡图像校正的猪肉质量分类方法 |
-
2022
- 2022-07-06 CN CN202210795882.XA patent/CN115187480A/zh active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115909013A (zh) * | 2023-01-10 | 2023-04-04 | 深圳精智达技术股份有限公司 | 一种图像的卷积方法、装置、电子设备和存储介质 |
CN116665063A (zh) * | 2023-07-27 | 2023-08-29 | 南京信息工程大学 | 基于自注意力和深度卷积并行的高光谱重建方法 |
CN116665063B (zh) * | 2023-07-27 | 2023-11-03 | 南京信息工程大学 | 基于自注意力和深度卷积并行的高光谱重建方法 |
CN117115061A (zh) * | 2023-09-11 | 2023-11-24 | 北京理工大学 | 一种多模态图像融合方法、装置、设备及存储介质 |
CN117115061B (zh) * | 2023-09-11 | 2024-04-09 | 北京理工大学 | 一种多模态图像融合方法、装置、设备及存储介质 |
CN117934962A (zh) * | 2024-02-06 | 2024-04-26 | 青岛兴牧畜牧科技发展有限公司 | 一种基于参照色卡图像校正的猪肉质量分类方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN115187480A (zh) | 一种基于Transformer的图像颜色校正方法 | |
Tang et al. | DATFuse: Infrared and visible image fusion via dual attention transformer | |
CN111145290B (zh) | 一种图像彩色化方法、系统和计算机可读存储介质 | |
CN114120363A (zh) | 基于背景及姿态归一化的行人跨镜重识别方法及系统 | |
CN115223082A (zh) | 一种基于时空多尺度Transformer的航拍视频分类方法 | |
CN107749048B (zh) | 图像矫正系统及方法、色盲图像矫正系统及方法 | |
CN116797488A (zh) | 一种基于特征融合与注意力嵌入的低照度图像增强方法 | |
CN113658057A (zh) | 一种Swin Transformer微光图像增强方法 | |
Guo et al. | Dense123'color enhancement dehazing network | |
CN112257526A (zh) | 一种基于特征交互学习的动作识别方法及终端设备 | |
CN113592998A (zh) | 重光照图像的生成方法、装置及电子设备 | |
CN116258757A (zh) | 一种基于多尺度交叉注意力的单目图像深度估计方法 | |
CN113554032A (zh) | 基于高度感知的多路并行网络的遥感图像分割方法 | |
CN111476133A (zh) | 面向无人驾驶的前背景编解码器网络目标提取方法 | |
CN116612015A (zh) | 模型训练方法、图像去摩尔纹方法、装置及电子设备 | |
CN115272438A (zh) | 一种面向三维场景重建的高精度单目深度估计系统及方法 | |
CN115035011A (zh) | 一种融合策略下自适应RetinexNet的低照度图像增强方法 | |
Kiani et al. | Automatic grayscale image colorization using a deep hybrid model | |
Cheng et al. | A mutually boosting dual sensor computational camera for high quality dark videography | |
CN104112258A (zh) | 实现rgb彩色图像处理的方法和系统 | |
CN114627293A (zh) | 基于多任务学习的人像抠图方法 | |
CN116433508B (zh) | 一种基于Swin-Unet的灰度图像着色校正方法 | |
Hao et al. | DGC‐UWnet: Underwater image enhancement based on computation‐efficient convolution and channel shuffle | |
LIU et al. | A Lightweight and Efficient Infrared Pedestrian Semantic Segmentation Method | |
Fan et al. | Underwater image enhancement using scale-patch synergy transformer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |