CN112489164A - 基于改进深度可分离卷积神经网络的图像着色方法 - Google Patents

基于改进深度可分离卷积神经网络的图像着色方法 Download PDF

Info

Publication number
CN112489164A
CN112489164A CN202011420684.2A CN202011420684A CN112489164A CN 112489164 A CN112489164 A CN 112489164A CN 202011420684 A CN202011420684 A CN 202011420684A CN 112489164 A CN112489164 A CN 112489164A
Authority
CN
China
Prior art keywords
image
network
coloring
neural network
convolution
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202011420684.2A
Other languages
English (en)
Other versions
CN112489164B (zh
Inventor
徐昱琨
王清华
李振华
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University of Science and Technology
Original Assignee
Nanjing University of Science and Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University of Science and Technology filed Critical Nanjing University of Science and Technology
Priority to CN202011420684.2A priority Critical patent/CN112489164B/zh
Publication of CN112489164A publication Critical patent/CN112489164A/zh
Application granted granted Critical
Publication of CN112489164B publication Critical patent/CN112489164B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Biophysics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于改进深度可分离卷积神经网络的图像着色方法,包括以下步骤:构建图像数据集;构造改进深度可分离卷积着色神经网络;训练改进深度可分离卷积着色神经网络;将待着色灰度图像输入至训练后的轻量级着色神经网络,获得图像彩色化结果。本发明的网络结构对全局语义特征和局部像素特征进行综合考虑,并使用残差、深度可分离卷积、通道加权等方式减小参数并提高性能。

Description

基于改进深度可分离卷积神经网络的图像着色方法
技术领域
本发明属于图像处理技术及深度学习领域,特别涉及一种基于改进深度可分离卷积神经网络的图像着色方法。
背景技术
人眼对灰度图像的敏感程度远远低于彩色图像。当灰度图像相邻像素点之间的差异较小时,人眼将无法捕捉到图像中的具体细节。相比灰度图像,彩色图像能展现出更丰富的环境信息和物体的细节纹理,更有利于算法对图像特征的提取。因此,对灰度图像进行高效的彩色化处理,在计算机视觉领域研究中日益受到重视。
灰度图像着色算法主要分为三种类型,分别为传统的基于着色线条扩展的图像着色方法、基于颜色传递的图像着色方法,以及逐渐兴起的基于深度学习的图像着色算法。基于着色线条扩展的着色算法极度依赖着色线条的准确性:对于图像中纹理相似但是颜色不同的区域,该方法可能会产生混色现象。基于颜色传递的图像着色方法需要一到数张彩色样本图像作为参考,按照样本图像的色彩对待着色图像进行颜色的传递,该方法能在简单场景下取得较好的效果,但它很大程度上依赖参考图像的质量以及参考图像与灰度图像场景的相似性。
近年来,随着大数据、并行计算的发展,深度学习技术尤其是卷积神经网络在图像处理、计算机视觉等方面取得了突破性的进展,基于深度学习的方法有效解决了传统的着色方法花费时间长、效率低、效果差的问题,已逐渐成为图像着色研究的新突破口。但是,目前提出的模型往往使用了更多的卷积结构和更深的网络层数,这些模型结构尽管获得了更好的着色性能,但往往造成了内存消耗和内存成本的急剧增加,使得网络计算效率低下,不适合实时处理,制约了工业领域的应用。
发明内容
本发明的目的在于提供一种基于改进深度可分离卷积神经网络的图像着色方法。
实现本发明目的的技术解决方案为:一种基于改进深度可分离卷积神经网络的图像着色方法,包括以下步骤:
步骤1,构建图像数据集;
步骤2,构造改进深度可分离卷积着色神经网络:
步骤2-1,构造像素特征提取网络,用于提取输入灰度图像的局部特征;
步骤2-2,构造语义特征提取网络,用于提取输入灰度图像的全局特征;
步骤2-3,构造语义特征和像素特征提取网络的融合结构,用于混合输入灰度图像的全局及局部特征;
步骤2-4,构造着色预测网络,用于计算Lab色彩空间下的输入图像的a、b通道,并与输入的图像的L通道组合复原彩色图像;
步骤3,训练改进深度可分离卷积着色神经网络;
步骤4,将待着色灰度图像输入至训练后的改进深度可分离卷积着色神经网络,获得图像彩色化结果。
本发明方法与现有方法相比,其显著优点为:1)现有的多数方法网络结构深、参数量庞大,本发明的方法利用改进深度可分离卷积残差结构,提出了一个轻量级的着色神经网络,该轻量级体现在保证着色精度的情况下,大幅减少了参数计算数量,并同时提升着色速度;2)本发明的方法利用放缩扩展模块的思想对深度可分离卷积结构进行改进,在大幅减少参数量的情况下,有效提升了着色精度;3)本发明的方法将坐标卷积应用于图像着色领域,使得方法对图像特征捕捉更为精确;4)本发明的方法结合L1损失函数和L2损失函数的优点,在图像着色领域使用了一种新的损失函数,着色效果较好;
下面结合附图对本发明作进一步详细描述。
附图说明
图1为基于改进深度可分离卷积神经网络的图像着色方法的流程图。
图2为一个实施例中基于改进深度可分离卷积神经网络的图像着色方法的结构示意图。
图3为一个实施例中坐标卷积层结构图。
图4为一个实施例中的放缩扩展模块(SENet)网络结构图。
图5为一个实施例中的改进深度可分离卷积模块结构图。
图6为一个实施例中的图像着色效果定量对比图,其中第一列为原彩色图像,第二列至第五列依次为Zhang、LIZUKA、Su和本发明的方法的图像着色结果图。
图7为一个实施例中的图像着色效果定性对比图,其中图(a)为灰度测试图像,图(b)为对测试图像对应的彩色图像块,图(c)至图(f)依次为Zhang、LIZUKA、Su和本发明方法对应的图像着色结果图。
具体实施方式
基于深度学习的图像着色方法近几年取得了一定的成果,但其中大多数方法需要耗费大量的计算资源及计算时间,在移动或嵌入式设备上部署困难。本发明提出一种使用少量参数,同时基本不影响着色效果的高效方法。本发明的网络结构对全局语义特征和局部像素特征进行综合考虑,并使用残差、深度可分离卷积、通道加权等方式减小参数并提高性能。
结合图1,一种基于改进深度可分离卷积神经网络的图像着色方法,包括以下步骤:
步骤1,构建图像数据集;
步骤2,构造改进深度可分离卷积着色神经网络;结合图2,构造过程包括:
步骤2-1,构造像素特征提取网络,用于提取输入灰度图像的局部特征;
步骤2-2,构造语义特征提取网络,用于提取输入灰度图像的全局特征;
步骤2-3,构造语义特征和像素特征提取网络的融合结构,用于混合输入灰度图像的全局及局部特征;
步骤2-4,构造着色预测网络,用于计算Lab色彩空间下的输入图像的a、b通道,并与输入的图像的L通道组合复原彩色图像;
步骤3,训练改进深度可分离卷积着色神经网络;
步骤4,将待着色灰度图像输入至训练后的轻量级着色神经网络,获得图像彩色化结果。
进一步地,在其中一个实施例中,步骤1构建图像数据集,具体过程包括:
步骤1-1,采集图像样本构建图像数据集;
步骤1-2,将图像样本按比例P1:P2=8:2随机划分为训练集和验证集。
进一步地,在其中一个实施例中,结合图2、图3、图4和图5,步骤2-1中像素特征提取网络及步骤2-2中语义特征提取网络均各由数个改进深度可分离残差模块组成,每层模块依次包含坐标卷积模块、1*1卷积、SENet模块、3*3可分离卷积、1*1逐点卷积各一个。结合图3,坐标卷积层用于扩展图像的通道数,具体添加两个通道,分别为每个像素点在宽度和高度上的坐标信息通道。
这里,坐标卷积层的工作过程为:
ILR图像作为浅特征提取网络的输入,坐标卷积层(CoordConv)先添加额外p(i,j)坐标信息通道,再经由一层Conv卷积处理,这一过程表示为:
Fcoord=Hcoord*ILR (1)
式中,Hcoord为坐标卷积运算,Fcoord为坐标卷积层的输出。
坐标卷积层输出后再传入下一层Conv层进行进一步的浅处理。该Conv层生成若干个特征图,用于接下来的全局残差学习,经过该卷积层的输出表示为:
Figure BDA0002822130420000041
式中,H0为卷积运算,
Figure BDA0002822130420000042
表示这个输出将用作金字塔第一级的输入。
进一步地,在其中一个实施例中,结合图2和图4,步骤2-1及2-2的改进可分离卷积网络结构中,为使结构能获得充足信息判断通道间的重要性,该网络通过全局平均池化对每个通道进行压缩,将W×H×C大小的多维向量压缩至1×1×C的一维向量,以此获得整个空间特征编码的全局特征。并通过RELU和Sigmoid两个非线性分类器自适应计算各通道间的权重关系,使网络最终计算出各通道的加权比例。此外,为了确保输出层的三维空间结构与输入层一致,SENet将各通道间的比值与原始通道特征相乘,以此获得该结构的最终输出
Figure BDA0002822130420000043
Figure BDA0002822130420000044
sc=σ(g(zc,w))σ(W2ReLU(W1zc)) (4)
Figure BDA0002822130420000045
其计算公式如上所示,式(3)为压缩步骤,式中h、w表示输入层的向量大小,uc为输入层的对应向量,zc为该对应向量的计算结果,下标c表示该向量属于维度大小为C的向量集合Rc。公式(4)是加权步骤的计算公式,W1,W2为自适应的权重系数,ReLU和σ分别为RELU和Sigmoid两个非线性函数。式(5)为放缩操作,sc,uc分别对应加权步骤的向量输出和输入层的向量输入。
进一步地,步骤2-3所述的融合结构,在像素特征提取网络大小m*m的条件下,从语义特征网络里提取出任意长度的一维特征向量,将其复制m*m次后按像素特征网络的输出尺寸组合,并与像素特征网络的输出层进行拼接。
在其中一个实施例中,结合图2,步骤2-3为使全局语义特征和局部像素特征充分融合,网络从语义特征网络里提取出1×1×k大小的特征向量,将其复制28×28次后,沿空间深度坐标轴与像素特征网络的输出进行拼接,形成着色预测网络的输入,该过程如下所示:
Figure BDA0002822130420000051
式中,yp和yg分别表示像素特征网络和语义特征网络的输出,W与b分别表示网络迭代过程中计算出的权重与偏差,σ表示激活函数RELU。
进一步地,步骤2-4所述的着色预测网络,其结构由数层上采样网络组成,每层依次包含数个3*3卷积层和一个上采样层;同时,该网络最后一层上采样网络的最后一个卷积层的卷积算子为tanh,且该网络最终输出2个通道。
进一步地,在其中一个实施例中,上述步骤3训练轻量级着色神经网络,具体过程包括:
步骤3-1,初始化轻量级着色神经网络的参数和迭代次数阈值N1
步骤3-2,选取优化器与损失函数;
步骤3-3,对训练集图像进行预处理获得低分辨率图像;
步骤3-4,将低分辨率图像输入轻量级着色神经网络进行前向传播得预估值;
步骤3-5,从输出层开始进行误差逆传播,计算损失函数并利用优化器更新网络参数;
步骤3-6,判断当前迭代次数是否超过迭代次数阈值N1,若是,则执行下一步,反之返回执行步骤3-4;
步骤3-7,利用验证集验证损失是否收敛,若是,结束训练过程,否则,重新设置迭代次数阈值为N2,返回执行步骤3-4,直至收敛,N2<N1
进一步优选地,在其中一个实施例中,上述步骤3-2中选取的优化器为Adam优化器;
选取的损失函数为:
Figure BDA0002822130420000052
Figure BDA0002822130420000053
式中,H、W为相应图像的高和宽,F(zi,j)为对应图像像素点上的损失。xi,j和yi,j分别表示真实图像与着色图像的对应像素点上的数值。
作为一种具体示例,对本发明的方法进行验证。本示例在视觉上比较分析的对象为如图6所示的定量对比图像和如图7所示定图像。本示例还将本发明方法与现有的Zhang、LIZUKA、Su方法在指标上进行对比实现验证,对比评判指标包括:
(1)PSNR。一般PSNR指标越高,说明图像质量越好。PSNR表达式如下:
Figure BDA0002822130420000061
其中,n为每像素的比特数,MSE是均方误差。
(2)SSIM。一般SSIM的值越大,表示图像失真程度越小。SSIM表达式如下:
SSIM(X,Y)=L(X,Y)*C(X,Y)*S(X,Y) (10)
其中L(X,Y)、C(X,Y)、S(X,Y)的表达式如下:
Figure BDA0002822130420000062
其中μX和μY表示图像的像素均值,σX和σY表示图像像素的标准值,σXY代表图像X和图像Y的协方差。C1,C2和C3为常数项。
具体试验过程包括:
初始化神经网络的参数如下表1所示。
表1着色神经网络的参数初始化
Figure BDA0002822130420000063
利用本发明的方法以及Zhang、LIZUKA、Su方法对两种图片进行处理,视觉效果比较如图6、图7所示。从Imagenet数据集中选取数个种类数据,与上述方法进行比较,如表2所示。表中加粗数值表示对应方法在对应数据集上对应指标最优。
表2图像着色结果对比
Figure BDA0002822130420000071
通过表2的比较结果分析可以看出,本发明的方法极大缩小了模型参数数量,模型大小与推理速度相较其余算法也有了较大提升;在指标上,本发明方法也可以与其余算法匹配。通过图6和图7的视觉比较可以看出,本发明的方法对图像色彩还原的视觉效果也相对优异。
综上,本发明的轻量级图像着色方法,通过改进深度可分离卷积网络,大大减小了网络的参数量,并使得计算更加高效;通过引入坐标卷积使得特征提取网络对图像特征的解析能力大大提高。本发明的方法实现了网络轻量化且保持较高着色效果的目的,同时有着更小的模型体积与更快的执行速度。

Claims (7)

1.一种基于改进深度可分离卷积神经网络的图像着色方法,其特征在于,包括以下步骤:
步骤1,构建图像数据集;
步骤2,构造改进深度可分离卷积着色神经网络:
步骤2-1,构造像素特征提取网络,用于提取输入灰度图像的局部特征;
步骤2-2,构造语义特征提取网络,用于提取输入灰度图像的全局特征;
步骤2-3,构造语义特征和像素特征提取网络的融合结构,用于混合输入灰度图像的全局及局部特征;
步骤2-4,构造着色预测网络,用于计算Lab色彩空间下的输入图像的a、b通道,并与输入的图像的L通道组合复原彩色图像;
步骤3,训练改进深度可分离卷积着色神经网络;
步骤4,将待着色灰度图像输入至训练后的改进深度可分离卷积着色神经网络,获得图像彩色化结果。
2.根据权利要求1所述的基于改进深度可分离卷积神经网络的图像着色方法,其特征在于,步骤1所述构建图像数据集,具体过程包括:
步骤1-1,采集图像样本构建图像数据集;
步骤1-2,将图像样本按比例P1:P2=8:2随机划分为训练集和验证集。
3.根据权利要求1所述的基于改进深度可分离卷积着色网络的图像着色方法,其特征在于,步骤2-1所述像素特征提取网络和步骤2-2所述语义特征提取网络均各由数个改进深度可分离残差模块组成,每层模块依次包含坐标卷积模块、1*1卷积、SENet模块、3*3可分离卷积、1*1逐点卷积各一个。
4.根据权利要求1所述的基于改进深度可分离卷积神经网络的图像着色方法,其特征在于,步骤2-3所述的融合结构,在像素特征提取网络大小m*m的条件下,从语义特征网络里提取出任意长度的一维特征向量,将其复制m*m次后按像素特征网络的输出尺寸组合,并与像素特征网络的输出层进行拼接。
5.根据权利要求1所述的基于改进深度可分离卷积神经网络的图像着色方法,其特征在于,步骤2-4所述的着色预测网络,其结构由数层上采样网络组成,每层依次包含数个3*3卷积层和一个上采样层;同时,该网络最后一层上采样网络的最后一个卷积层的卷积算子为tanh,且该网络最终输出2个通道。
6.根据权利要求1所述的基于改进深度可分离卷积神经网络的图像着色方法,其特征在于,步骤3所述训练改进深度可分离卷积着色神经网络,具体过程包括:
步骤3-1,初始化改进深度可分离卷积神经网络的参数和迭代次数阈值N1
步骤3-2,选取优化器与损失函数;
步骤3-3,对训练集图像进行预处理获得灰度图像;
步骤3-4,将灰度图像输入神经网络进行前向传播得预估值;
步骤3-5,从输出层开始进行反向传播,计算损失函数并利用优化器更新网络参数;
步骤3-6,判断当前迭代次数是否超过迭代次数阈值N1,若是,则执行下一步,反之返回执行步骤3-4;
步骤3-7,利用测试集验证损失是否收敛,若是,结束训练过程,否则,重新设置迭代次数阈值为N2,返回执行步骤3-4,直至收敛,N2<N1
7.根据权利要求6所述的基于改进深度可分离卷积神经网络的图像着色方法,其特征在于,步骤3-2中选取的优化器为Adam优化器;
选取的损失函数为:
Figure FDA0002822130410000021
Figure FDA0002822130410000022
式中,H、W为相应图像的高和宽,F(zi,j)为对应图像像素点上的损失;xi,j和yi,j分别表示真实图像与着色图像的对应像素点上的数值。
CN202011420684.2A 2020-12-07 2020-12-07 基于改进深度可分离卷积神经网络的图像着色方法 Active CN112489164B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011420684.2A CN112489164B (zh) 2020-12-07 2020-12-07 基于改进深度可分离卷积神经网络的图像着色方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011420684.2A CN112489164B (zh) 2020-12-07 2020-12-07 基于改进深度可分离卷积神经网络的图像着色方法

Publications (2)

Publication Number Publication Date
CN112489164A true CN112489164A (zh) 2021-03-12
CN112489164B CN112489164B (zh) 2023-07-04

Family

ID=74940442

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011420684.2A Active CN112489164B (zh) 2020-12-07 2020-12-07 基于改进深度可分离卷积神经网络的图像着色方法

Country Status (1)

Country Link
CN (1) CN112489164B (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112991497A (zh) * 2021-05-11 2021-06-18 北京邮电大学 一种对黑白动漫视频的着色方法、装置、存储介质及终端
CN113034518A (zh) * 2021-04-16 2021-06-25 佛山市南海区广工大数控装备协同创新研究院 一种基于卷积神经网络的肝脏病灶分割方法
CN113205131A (zh) * 2021-04-28 2021-08-03 阿波罗智联(北京)科技有限公司 图像数据的处理方法、装置、路侧设备和云控平台
CN114913272A (zh) * 2022-05-19 2022-08-16 北京航空航天大学 一种基于参考图像和用户导引的灰度图像精准上色方法
CN116433508A (zh) * 2023-03-16 2023-07-14 湖北大学 一种基于Swin-Unet的灰度图像着色校正方法
CN117436452A (zh) * 2023-12-15 2024-01-23 西南石油大学 融合上下文感知和多层次特征的金融实体识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107833183A (zh) * 2017-11-29 2018-03-23 安徽工业大学 一种基于多任务深度神经网络的卫星图像同时超分辨和着色的方法
CN109920012A (zh) * 2019-02-25 2019-06-21 西南石油大学 基于卷积神经网络的图像着色系统及方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107833183A (zh) * 2017-11-29 2018-03-23 安徽工业大学 一种基于多任务深度神经网络的卫星图像同时超分辨和着色的方法
CN109920012A (zh) * 2019-02-25 2019-06-21 西南石油大学 基于卷积神经网络的图像着色系统及方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
刘建伟等: "生成对抗网络在各领域应用研究进展", 《自动化学报》 *

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113034518A (zh) * 2021-04-16 2021-06-25 佛山市南海区广工大数控装备协同创新研究院 一种基于卷积神经网络的肝脏病灶分割方法
CN113205131A (zh) * 2021-04-28 2021-08-03 阿波罗智联(北京)科技有限公司 图像数据的处理方法、装置、路侧设备和云控平台
CN112991497A (zh) * 2021-05-11 2021-06-18 北京邮电大学 一种对黑白动漫视频的着色方法、装置、存储介质及终端
CN114913272A (zh) * 2022-05-19 2022-08-16 北京航空航天大学 一种基于参考图像和用户导引的灰度图像精准上色方法
CN116433508A (zh) * 2023-03-16 2023-07-14 湖北大学 一种基于Swin-Unet的灰度图像着色校正方法
CN116433508B (zh) * 2023-03-16 2023-10-27 湖北大学 一种基于Swin-Unet的灰度图像着色校正方法
CN117436452A (zh) * 2023-12-15 2024-01-23 西南石油大学 融合上下文感知和多层次特征的金融实体识别方法
CN117436452B (zh) * 2023-12-15 2024-02-23 西南石油大学 融合上下文感知和多层次特征的金融实体识别方法

Also Published As

Publication number Publication date
CN112489164B (zh) 2023-07-04

Similar Documents

Publication Publication Date Title
CN112489164B (zh) 基于改进深度可分离卷积神经网络的图像着色方法
CN113673307B (zh) 一种轻量型的视频动作识别方法
Zhang et al. Hierarchical feature fusion with mixed convolution attention for single image dehazing
CN108875935B (zh) 基于生成对抗网络的自然图像目标材质视觉特征映射方法
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
CN111754438B (zh) 基于多分支门控融合的水下图像复原模型及其复原方法
CN111429347A (zh) 图像超分辨率重建方法、装置及计算机可读存储介质
CN113689517B (zh) 一种多尺度通道注意力网络的图像纹理合成方法及系统
CN110728219A (zh) 基于多列多尺度图卷积神经网络的3d人脸生成方法
CN110458084B (zh) 一种基于倒置残差网络的人脸年龄估计方法
CN111832453B (zh) 基于双路深度神经网络的无人驾驶场景实时语义分割方法
CN112819096B (zh) 一种基于复合卷积神经网络的化石图像分类模型的构建方法
CN112183742A (zh) 基于渐进式量化和Hessian信息的神经网络混合量化方法
CN110070595A (zh) 一种基于深度学习的单张图像3d对象重建方法
CN112991371B (zh) 一种基于着色溢出约束的图像自动着色方法及系统
CN106951912B (zh) 一种果蔬外观变化识别模型的建立方法和识别方法
CN113449691A (zh) 一种基于非局部注意力机制的人形识别系统及方法
CN116310305A (zh) 一种基于张量和二阶协方差注意力机制的编解码结构语义分割模型
CN113256494A (zh) 一种文本图像超分辨率方法
CN116152061A (zh) 一种基于模糊核估计的超分辨率重建方法
CN114581789A (zh) 一种高光谱图像分类方法及系统
CN102222321A (zh) 一种视频序列盲重建方法
CN115953330B (zh) 虚拟场景图像的纹理优化方法、装置、设备和存储介质
CN114155560B (zh) 基于空间降维的高分辨率人体姿态估计模型的轻量化方法
CN113538199B (zh) 一种基于多层感知卷积和通道加权的图像隐写检测方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB03 Change of inventor or designer information
CB03 Change of inventor or designer information

Inventor after: Wang Qinghua

Inventor after: Xu Yukun

Inventor after: Li Zhenhua

Inventor before: Xu Yukun

Inventor before: Wang Qinghua

Inventor before: Li Zhenhua

GR01 Patent grant
GR01 Patent grant