CN111626968B - 一种基于全局信息和局部信息的像素增强设计方法 - Google Patents
一种基于全局信息和局部信息的像素增强设计方法 Download PDFInfo
- Publication number
- CN111626968B CN111626968B CN202010356017.6A CN202010356017A CN111626968B CN 111626968 B CN111626968 B CN 111626968B CN 202010356017 A CN202010356017 A CN 202010356017A CN 111626968 B CN111626968 B CN 111626968B
- Authority
- CN
- China
- Prior art keywords
- image
- cutting
- enhancement
- network
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 37
- 238000013461 design Methods 0.000 title claims abstract description 18
- 239000013598 vector Substances 0.000 claims abstract description 23
- 238000013528 artificial neural network Methods 0.000 claims abstract description 22
- 230000006835 compression Effects 0.000 claims abstract description 16
- 238000007906 compression Methods 0.000 claims abstract description 16
- 238000000605 extraction Methods 0.000 claims abstract description 12
- 238000004364 calculation method Methods 0.000 claims abstract description 9
- 238000013527 convolutional neural network Methods 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 10
- 238000011176 pooling Methods 0.000 claims description 3
- 238000012545 processing Methods 0.000 abstract description 12
- 230000008569 process Effects 0.000 abstract description 8
- 230000006870 function Effects 0.000 description 11
- 230000008859 change Effects 0.000 description 4
- 230000008439 repair process Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 230000009466 transformation Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 238000009966 trimming Methods 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000002146 bilateral effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000012067 mathematical method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于全局信息和局部信息的像素增强设计方法,包括以下步骤:A.由原尺寸图压缩和裁剪得到一张压缩图和若干裁剪图;B.将压缩图经过分类网络计算得到全局信息特征向量;将裁剪图经过特征提取网络计算得到三维特征张量;C.得到新的三维特征张量T2;D.将T2经过图像增强网络计算,得到裁剪增强图;E.重复BCD操作计算得到所有裁剪图的裁剪增强图,拼接裁剪增强图得到整张原尺寸增强图。本发明利用图像增强神经网络处理局部信息和全局信息的方式,通过全局网络处理尺寸压缩后的全图得到全图信息,通过局部网络处理原图裁剪后的裁剪图得到局部特征信息,融合全图信息和局部特征信息再经过图像增强网络计算出增强后的图像,处理效率高。
Description
技术领域
本发明属于图像增强的神经网络结构技术领域,尤其是涉及一种基于全局信息和局部信息的像素增强的设计方法。
背景技术
目前图像增强相关神经网络,如风格迁移网络、超分辨率网络和低曝光图片亮度增强网络,都是针对一整张输入图片处理,因为显卡显存对模型复杂度的限制,一次输入网络中的图片的尺寸也受到了限制,我们无法无限地提升模型的感受视野(神经网络模型看到的图片范围),而图像增强等图像增强任务在真实场景中都是处理两千万像素以上的照片,为了能处理和训练这些高像素照片,一般经过尺寸压缩或者裁剪两种方法,尺寸压缩的方法能保证经过网络的图片包含全图的信息(全图压缩),但是经过尺寸压缩的图片丢失了原尺寸的细节纹理,这样经过压缩的图片的数据分布与原尺寸是不一样的,训练出来的网路也无法准确预测真实尺寸的图片;相反,经过裁剪的输入图片虽然保留了原来的纹理细节和原尺寸的数据分布,但在网络一次输入迭代中却无法获取全图的信息。
对于超分辨率网络而言,这个全局和局部信息的矛盾并不严重,全局信息对与图片某一块的超分辨率并不重要,像素的细节填补一般只需要临近的信息即可,换句话说大多时候局部图片的超分辨率变化并不会因为全局信息的改变而改变,它的局部超分辨率信息是客观存在的,从统计学上说超分辨率的数据分布具有一致性。但是对于类似修片的图像增强任务而言,全局信息是不可或缺的,因为人类对图片信息的处理是主观的和不一致的(谷歌HDRNET<Deep Bilateral Learning for Real-Time Image Enhancement>等引述的论文均有提及),即使是同一种局部图片的处理(调色、调亮度等),修片师也会根据当前图片的全局信息而有所不同,这样就造成了同一种图片在局部上的多样变化(色温、颜色、亮度、饱和度变化)甚至是相反变化,本文的目的就是通过在处理局部裁剪图片时候引入全局信息,来区分出局部不一致的变化,并通过神经网络拟合出这种不一致的变化。
谷歌HDRNET<Deep Bilateral Learning for Real-Time Image Enhancement>和CVPR2019腾讯优图论文<Underexposed Photo Enhancement using Deep Illu-minationEstimation>也采用了全局和局部信息的概念,但与本发明不一样的是,两篇论文的全局信息和局部信息的特征抽取来源仍然是一整张输入原图,即全局信息是通过对输入图下采样获取的,而局部信息则在保留原图尺寸不变下作特征转换,这样仍然依赖于输入图的尺寸大小和信息量,输入图如果受模型复杂限制而必须经过压缩或者裁剪的话,模型就无法获取真正完整的全图信息。
而ICCV 2019<SinGAN:Learning a Generative Model from a Single NaturalImage>论文中则通过每次迭代中对输入图放缩不同的尺寸,使得图像生成器能够生成不同尺寸的图片并且保留全局结构和细节纹理。但这种办法仍受原始输入图的信息限制,无法处理千万像素级别尺寸图片。
发明内容
为了克服现有技术的不足,本发明提供一种基于全局信息和局部信息的像素增强设计方法,其提供了处理图片全局信息和局部信息的神经网络结构,实现修片复杂风格的深度学习,复杂风格一般表现在局部变化的不一致,比如修片时,同一张图片里面的背景和人像在颜色、亮度上会有不同的变化,或者是不同图片的不同的亮度、颜色变化。
本发明解决其技术问题所采用的技术方案是:一种基于全局信息和局部信息的像素增强设计方法,包括以下步骤:
A.由原尺寸图进行压缩和裁剪得到一张压缩图和若干裁剪图;
B.选取压缩图和一张裁剪图,将压缩图经过分类网络计算得到全局信息特征向量V1{a1,a2,....,an},维度数为n;将裁剪图经过特征提取网络计算得到三维特征张量T1,维度为(n,h,w);
C.将T1和V1通过融合运算得到新的三维特征张量T2,维度为(n,h,w);
D.将T2经过图像增强网络计算,得到裁剪增强图,维度为(3,h,w);
E.重复BCD操作计算得到所有裁剪图的裁剪增强图,拼接裁剪增强图得到整张原尺寸增强图。
本发明还公开了一种基于全局信息和局部信息的像素增强设计方法,所需要的设计模块有:
分类网络:由卷积神经网络、线性全连接层和池化单元构成,实现将输入图计算得到一个n维向量V1={a1,a2,....,an}的功能;
特征提取网络:由卷积神经网络构成,实现将三维的输入图片经过计算得到一个与输入图片同等宽高但不同通道数的张量的功能;
融合运算:数学计算单元,实现将n维向量V1{a1,a2,....,an}和维度为(n,h,w)的张量T1进行计算得到维度为(n,h,w)的另一个张量T2的功能;
图像增强网络:由卷积神经网络构成,实现将三维的输入张量(n,h,w)经过计算得到输出图片,图片维度为(3,h,w),第一维度是RGB三颜色通道。
进一步的,所述融合运算中V1的维度数n和T1的第一维度数n相等。
本发明适用于修图风格的深度学习和图像处理,其通过分类网络处理压缩后的全图得到全图信息,根据全图信息再通过局部图像增强网络处理原尺寸裁剪后的裁剪局部图,得到增强后的图像裁剪图,裁剪图合并后即得到整张修图。使用这种神经网络结构能学习和预测修出千万级像素图像,进行图片颜色、亮度、饱和度和色温上的多种风格转换。
本发明的有益效果是,利用图像增强神经网络处理局部信息和全局信息的方式,通过全局网络处理尺寸压缩后的全图得到全图信息,通过局部网络处理原图裁剪后的裁剪图得到局部特征信息,融合全图信息和局部特征信息再经过图像增强网络计算出增强后的图像,处理效率高,处理效果佳。
附图说明
图1为本发明的共有的浅蓝色风格的原图、人工修图、PASSRnet预测图、ZNet结构预测图比较。
图2为本发明的不同场景的深蓝色颜色风格的原图、人工修图、PASSRnet预测图、ZNet结构预测图比较。
图3为本发明的设计算法流程图。
具体实施方式
为了使本技术领域的人员更好的理解本发明方案,下面将结合本发明实施例中的附图,对发明实施例中的技术方案进行清楚、完整的描述,显然,所描述的实施例仅仅是本发明的一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本发明保护的范围。
一种基于全局信息和局部信息的像素增强设计方法,包括以下步骤:
一般的图像增强神经网络如超分辨率网络的输入和输出都各是一张图,输入和输出的尺寸相同,本发明的方法所设计的神经网络有两个,一个裁剪图,一个是原尺寸压缩图,输出则为一张裁剪图,通过这样的输入输出处理原图所有裁剪图再拼接回来,则得到整张原尺寸的预测增强图。
在阐述具体步骤之前,我们首先有以下名词定义:
原尺寸原图:指的是一张完整的未经处理的图,未经过压缩裁剪等改变尺寸的方法,维度为三维(c,h,w),分别为c维度三个通道(RGB)、h高度和w宽度。
裁剪图:在原尺寸原图下按固定尺寸剪切得到的小图,该小图仍保留原图的像素密度,是原尺寸原图的一部分,保留了原尺寸原图所有细节纹理信息。
压缩图:通过插值的方法(如最临近插值、双线性插值、双三次插值等,非本发明重点,不展开叙述)对原尺寸原图进行压缩,将其像素大小从千万级压缩到十万级,结果上是尺寸的等比例缩小,压缩图的细节纹理信息被模糊化,但照片内容的亮度、颜色和结构信息(我们称之为全局信息)仍然保留。
分类网络:神经网路的一种类型(如vgg和GoogLeNet等),通常输入是一张十万级到百万级的小尺寸图,输出为一个n维向量V1={a1,a2,....,an},这个向量内的每个值代表着每个类别的可能性概率值,通常取概率值最大的类别为该输入图片的分类类别。本发明中分类网络的功能是将整张压缩图转换为n维向量,该向量代表的含义是全局信息在不同特征维度上的特征偏差值(统计学上叫bias)。
特征提取网络:本发明定义的神经网络的一种类型,由多个CNN卷积神经网络通过不同的组合构成,通常输入是一张三维图片(3,h,w),输出则为三维张量(n,h,w),n为特征维度的特征数,n的数值可自由设置,通常设为16的倍数(16、64、128、256),从结果上是对输入图片通道数的重新计算和升维,达到将颜色信息RGB通道转换为高维空间的效果,我们称之为图片的特征提取,因为每个被升维得到的特征维度代表着图片的一个特征信息。
融合运算:从功能上,本发明将其定义为对n维向量V1{a1,a2,....,an}和维度为(n,h,w)的张量T1进行计算得到维度为(n,h,w)的另一个张量T2,特别注意的是V1的维度数n和T1的第一维的维读数n是相等的。实现这种功能的数学方法有五种:
(1)对应维度相加:将n维向量V1的每一个值按顺序加到T1第一维度的每个维度上,数学公式:
(2)对应维度相乘:将n维向量V1的每一个值按顺序与T1第一维度的每个维度的值相乘,数学公式:
(3)幂指数:将n维向量V1的每一个值按顺序作为T1第一维度的每个维度的值的指数来运算,数学公式:
(4)线性变换:将V1通过线性变换得到V2和V3,V2和V3的维度与V1相同皆为n维向量,V2的每一个值作为系数与T1对应维度的值相乘,再加上V3的对应维度的值,数学公式:
(5)非线性变换:在方法(4)的基础上结合线性整流函数(ReLu,以下简称函数f),线性整流函数能对线性输入截断为大于0的值,通过这种截断实现对线性输入的非线性变化,数学公式如下:
f(x)=max(0,x)
图像增强网络:和特征提取网络类似,也由多个CNN卷积神经网络(如Resnet残差网络,srgan超分辨率率网络的生成器等)通过不同方式组合构成,不同的是该网络的输入是(n,h,w)三维张量,输出则为一张RGB三通道的图片,维度为(3,h,w)。从功能上,该网络实现的是将高维度特征张量通过降维计算得到RGB色彩空间的图片。
基于以上名词定义,本发明基于全局信息和局部信息的像素增强设计方法的具体步骤为:
A.以实现各网络模块的功能为设计标准,设计分类网络、特征提取网络、融合运算和图像增强网络;
B.对原尺寸原图进行压缩和裁剪得到一张压缩图和若干张裁剪图,裁剪图数量由原尺寸原图的宽高和裁剪尺寸决定,所有裁剪图包括了原尺寸原图的所有像素;
C.选取压缩图和一张裁剪图,将压缩图经过分类网络计算得到全局信息特征向量V1{a1,a2,....,an},维度数为n;将裁剪图经过特征提取网络计算得到三维特征张量T1,维度为(n,h,w);
D.将T1和V1通过融合运算得到新的三维特征张量T2,维度为(n,h,w);
E.将T2经过图像增强网络计算,得到裁剪增强图,维度为(3,h,w);
F.重复CDE操作计算得到所有裁剪图的裁剪增强图,拼接裁剪增强图得到整张原尺寸增强图。
一种基于全局信息和局部信息的像素增强设计方法,所需要设计的模块有:
分类网络:由卷积神经网络、线性全连接层和池化单元构成,实现将输入图计算得到一个n维向量V1={a1,a2,....,an}的功能。
特征提取网络:由卷积神经网络构成,实现将三维的输入图片经过计算得到一个与输入图片同等宽高但不同通道数的张量的功能。
融合运算:数学计算单元,实现将n维向量V1{a1,a2,....,an}和维度为(n,h,w)的张量T1进行计算得到维度为(n,h,w)的另一个张量T2的功能。本发明采取的对应维度相加的方法,详细公式见名词定义。
图像增强网络:由卷积神经网络构成,实现将三维的输入张量(n,h,w)经过计算得到输出图片,图片维度为(3,h,w),第一维度是RGB三颜色通道。
在同等样本训练集(94组海边图片,原片和人类修片)下,比较CVPR2019的超分辨率网络结构PASSRnet(论文<Learning Parallax Attention for Stereo Image Super-Resolution>)和经过本发明方法改进后的全局信息PASSRnet(以下称为Znet)。训练集中里面涵盖各种海边的场景和至少三种以上的修图风格,并且有傍晚和白天的不同光线场景,以此来测试神经网络能否基于整体场景信息(整体光照、颜色、环境服务区别)预测不同的风格图片。
两个神经网络训练样本后预测原图,单纯的图像增强结构PASSRnet预测出来的图片效果和人修图不尽一致且普遍表现为统一的浅蓝色变化,而基于全局信息嵌套PASSRnet结构的ZNet则能根据场景或昼夜预测不同风格的蓝色。如下列图1、图2图示,从左到右为原图、人工修图、PASSRnet预测图、ZNet结构预测图。
假设原图维度为3*3000*5000,图片数据格式为RGB,本发明通过神经网络的输入图有两张图,一张是经过双三次插值算法压缩后的全图(称为z,z的维度假设为3*255*255),一张是裁剪后的局部图(称为x,x的维度为100*100),z图经过神经网络的分类网络(如alexnet、shufflenet等)计算后将数据压缩降维为n维向量(称为V1,维度为n),这个n维向量理论上是代表全图信息的n个特征值,这些特征值都是去纹理化的,和二维图片不一样的是V1没有纹理信息,每个值在分类网络角度上仅仅表示图片属于某个分布(具体表现为图片风格)的可能性数值,在图像增强网络中则表现为特征张量T1每个维度上的偏差值。获得V1后,另外处理x的局部信息神经网络则和其他超分辨率神经网络或者图像增强网络整体结构一样,不同的是在神经网络计算x成为n维张量T1(维度为n*100*100)后,我们将V1和T1融合(V1+T1)成为一个新的n维度张量T2(维度为n*100*100),接着后续的网络结构都是处理T2这个张量,网络结构流程图见附图3。
上述具体实施方式用来解释说明本发明,而不是对本发明进行限制,在本发明的精神和权利要求的保护范围内,对本发明作出的任何修改和改变,都落入本发明的保护范围。
Claims (4)
1.一种基于全局信息和局部信息的像素增强设计方法,其特征在于包括以下步骤:
A.由原尺寸图进行压缩和裁剪得到一张压缩图和若干裁剪图;
B.选取压缩图和一张裁剪图,将压缩图经过分类网络计算得到全局信息特征向量V1{a1,a2,....,an},维度数为n;将裁剪图经过特征提取网络计算得到三维特征张量T1,维度为(N,H,W);
C.将T1和V1通过融合运算得到新的三维特征张量T2,维度为(N,H,W);
D.将T2经过图像增强网络计算,得到裁剪增强图,维度为(3,H,W);
E.重复BCD操作计算得到所有裁剪图的裁剪增强图,拼接裁剪增强图得到整张原尺寸增强图。
2.一种基于全局信息和局部信息的像素增强设计方法,所需要的设计模块有:
分类网络:由卷积神经网络、线性全连接层和池化单元构成,实现将输入图计算得到一个n维向量V1={a1,a2,....,an}的功能;
特征提取网络:由卷积神经网络构成,实现将三维的输入图片经过计算得到一个与输入图片同等宽高但不同通道数的张量的功能;
融合运算:数学计算单元,实现将n维向量V1{a1,a2,....,an}和维度为(N,H,W)的张量T1进行计算得到维度为(N,H,W)的另一个张量T2的功能;
图像增强网络:由卷积神经网络构成,实现将三维的输入张量(N,H,W)经过计算得到输出图片,图片维度为(3,H,W),第一维度是RGB三颜色通道。
3.根据权利要求2所述的基于全局信息和局部信息的像素增强设计方法,其特征在于:所述融合运算中V1的维度数n和T1的第一维度数n相等。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010356017.6A CN111626968B (zh) | 2020-04-29 | 2020-04-29 | 一种基于全局信息和局部信息的像素增强设计方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010356017.6A CN111626968B (zh) | 2020-04-29 | 2020-04-29 | 一种基于全局信息和局部信息的像素增强设计方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111626968A CN111626968A (zh) | 2020-09-04 |
CN111626968B true CN111626968B (zh) | 2022-08-26 |
Family
ID=72271674
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010356017.6A Active CN111626968B (zh) | 2020-04-29 | 2020-04-29 | 一种基于全局信息和局部信息的像素增强设计方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111626968B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112150384B (zh) * | 2020-09-29 | 2024-03-29 | 中科方寸知微(南京)科技有限公司 | 一种基于残差网络与动态卷积网络模型融合的方法及系统 |
CN112991358A (zh) * | 2020-09-30 | 2021-06-18 | 北京字节跳动网络技术有限公司 | 风格图像生成方法、模型训练方法、装置、设备和介质 |
CN113240573B (zh) * | 2020-10-26 | 2022-05-13 | 杭州火烧云科技有限公司 | 局部和全局并行学习的高分辨率图像风格变换方法及系统 |
CN113256652A (zh) * | 2021-05-24 | 2021-08-13 | 中国长江三峡集团有限公司 | 一种混合图像数据增强方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106651771B (zh) * | 2016-10-12 | 2020-01-07 | 深圳蓝韵医学影像有限公司 | 一种数字x射线图像拼接方法及系统 |
CN107958441B (zh) * | 2017-12-01 | 2021-02-12 | 深圳市科比特航空科技有限公司 | 图像拼接方法、装置、计算机设备和存储介质 |
CN109191558B (zh) * | 2018-07-27 | 2020-12-08 | 深圳市商汤科技有限公司 | 图像打光方法和装置 |
CN110390363A (zh) * | 2019-07-29 | 2019-10-29 | 上海海事大学 | 一种图像描述方法 |
CN111080688A (zh) * | 2019-12-25 | 2020-04-28 | 左一帆 | 一种基于深度卷积神经网络的深度图增强方法 |
-
2020
- 2020-04-29 CN CN202010356017.6A patent/CN111626968B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111626968A (zh) | 2020-09-04 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111626968B (zh) | 一种基于全局信息和局部信息的像素增强设计方法 | |
Hui et al. | Fast and accurate single image super-resolution via information distillation network | |
CN112435191B (zh) | 一种基于多个神经网络结构融合的低照度图像增强方法 | |
Ji et al. | Colorformer: Image colorization via color memory assisted hybrid-attention transformer | |
CN106485668A (zh) | 用于过曝修正的方法、系统和装置 | |
CN111681177B (zh) | 视频处理方法及装置、计算机可读存储介质、电子设备 | |
CN113269787A (zh) | 一种基于门控融合的遥感图像语义分割方法 | |
CN113850324B (zh) | 一种基于Yolov4的多光谱目标检测方法 | |
CN110866938B (zh) | 一种全自动视频运动目标分割方法 | |
CN115546505A (zh) | 一种基于深度学习的无监督单目图像深度估计方法 | |
CN112766099B (zh) | 一种从局部到全局上下文信息提取的高光谱影像分类方法 | |
CN116469100A (zh) | 一种基于Transformer的双波段图像语义分割方法 | |
CN113256504A (zh) | 图像处理的方法和电子设备 | |
CN117576402B (zh) | 一种基于深度学习的多尺度聚合Transformer遥感图像语义分割方法 | |
Steffens et al. | Deep learning based exposure correction for image exposure correction with application in computer vision for robotics | |
CN115829876A (zh) | 一种基于交叉注意力机制的真实退化图像盲修复方法 | |
CN112200817A (zh) | 基于图像的天空区域分割和特效处理方法、装置及设备 | |
WO2024099466A1 (zh) | 基于3DLut的图像去雾处理方法、系统及可存储介质 | |
Li et al. | Efficient visual computing with camera raw snapshots | |
CN116612288B (zh) | 一种多尺度轻量级实时语义分割方法、系统 | |
CN113362239A (zh) | 一种基于特征交互的深度学习图像修复方法 | |
CN112132923A (zh) | 一种基于风格小图高清化的两阶段数字图像风格变换方法及系统 | |
CN113436094B (zh) | 一种基于多视角注意力机制的灰度图像自动上色方法 | |
Pitié | Advances in colour transfer | |
CN115049559A (zh) | 模型训练、人脸图像处理、人脸模型处理方法及装置、电子设备及可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |