CN110619387B - 一种基于卷积神经网络的通道扩展方法 - Google Patents

一种基于卷积神经网络的通道扩展方法 Download PDF

Info

Publication number
CN110619387B
CN110619387B CN201910865549.XA CN201910865549A CN110619387B CN 110619387 B CN110619387 B CN 110619387B CN 201910865549 A CN201910865549 A CN 201910865549A CN 110619387 B CN110619387 B CN 110619387B
Authority
CN
China
Prior art keywords
dimensions
dimension
data
feature map
map data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201910865549.XA
Other languages
English (en)
Other versions
CN110619387A (zh
Inventor
刘天弼
杜姗姗
冯瑞
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fudan University
Original Assignee
Fudan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fudan University filed Critical Fudan University
Priority to CN201910865549.XA priority Critical patent/CN110619387B/zh
Publication of CN110619387A publication Critical patent/CN110619387A/zh
Application granted granted Critical
Publication of CN110619387B publication Critical patent/CN110619387B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Abstract

本发明提供一种基于卷积神经网络的通道扩展方法,用于替换卷积神经网络中通用的卷积扩展通道和池化操作,从而保证有效数据不损失的情况下减少卷积神经网络在中间运算的冗余数据,其特征在于,包括如下步骤:步骤S1,根据在卷积池化前后特征图的分辨率变化率计算特征图数据的分辨率及通道数;步骤S2,将4个维度的特征图数据中对应高和宽的通道进行维度拆分,形成6个维度;步骤S3,将拆分后的特征图数据进行维度调转:第3、5维度调换为第5、6维度;步骤S4,将调换后的特征图数据中第2、3、4维度进行维度合并,重新整合为4个维度。

Description

一种基于卷积神经网络的通道扩展方法
技术领域
本发明属于深度学习领域以及计算机视觉研究领域,具体涉及一种基于卷积神经网络的通道扩展方法。
背景技术
数字图像分析技术在当今社会发挥着重要作用,机器视觉技术的发展已经逐渐抛弃传统数字图像处理的手工设计算法的方案,转而使用深度学习,以卷积神经网络(Convolutional NeuralNetwork,CNN)为代表,以达到高准确率的目标检测结果。然而,现有的CNN网络直接处理的图像数据分辨率较低,这与当下普遍使用的高清图像远远无法兼容,其原因之一是CNN模型中执行特征提取算法时,特征图(feature maps)的通道数巨大,中间冗余数据过多。因此,本发明提出一种减少中间冗余数据,并保证特征图通道扩展性能不变的方法。
深度学习革命爆发在2011~2012年,深度学习革命使得计算机视觉在很多应用领域达到了实用水平,催生了工业界的大量应用。其最重要的原因是深度学习可以做到传统方法无法企及的精度,尤其是基于CNN的深度学习模型,现在已经成为计算机视觉的主流方法。
卷积神经网络是一种常见的深度学习网络架构,受生物自然视觉认知机制启发而来。CNN能够得出原始图像的有效表征,这使得CNN能够直接从原始像素中,经过极少的预处理,捕获到视觉上面的规律。
然而,目前几乎所有的深度卷积神经网络,都要进行大量的特征提取操作从而形成特征图。而特征图的生成过程,是有复杂的若干阶段,为了保证深度学习模型的反向传播能够正常进行,每一阶段的特征图都需要保留在内存/显存里。传统的卷积神经网络在提取特征图过程中,使用卷积操作进行通道扩展,将特征图的通道数成倍增加并产生大量冗余数据,然后通过池化(pooling)操作将特征图分辨率降低从而操作精简数据滤除冗余。但是这个过程中因通道扩展带来的冗余数据会不可避免地消耗巨大的计算资源,当图片数据较大,或者深度模型较为复杂时,内存/显存的计算资源将无法承担计算过程中的冗余数据,这种巨大的资源消耗会成为难以解决的问题。
发明内容
为解决上述问题,提供一种保证有效数据不损失的情况下,减少中间运算冗余数据的通道扩展方法,本发明采用了如下技术方案:
本发明提供了一种基于卷积神经网络的通道扩展方法,用于替换卷积神经网络中通用的卷积扩展通道和池化操作,从而保证有效数据不损失的情况下减少卷积神经网络在中间运算的冗余数据,其特征在于,包括如下步骤:步骤S1,根据在卷积池化前后特征图的分辨率变化率计算特征图数据的分辨率及通道数;步骤S2,将4个维度的特征图数据中对应高和宽的通道进行维度拆分,形成6个维度;步骤S3,将拆分后的特征图数据进行维度调转:第3、5维度调换为第5、6维度;步骤S4,将调换后的特征图数据中第2、3、4维度进行维度合并,重新整合为4个维度,其中,步骤S2包括如下子步骤:步骤S2-1,将特征图数据在内存和/或显存中连续化;步骤S2-2,拆分特征图数据中的第3、4维度,步骤S4包括如下子步骤:步骤S4-1,将调换后的特征图数据在内存和/或显存中连续化;步骤S4-2,合并调换后的特征图数据中的第2、3、4维度。
本发明提供的基于卷积神经网络的通道扩展方法,还可以具有这样的技术特征,其中,4个维度为批大小、通道数、高、宽,记为[b,c,h,w],步骤S2中拆分维度时,在批大小不变的情况下,将h维度和w维度进行拆分并扩大通道数,高h与宽w缩小的总倍数等于通道数扩大的倍数,若扩展前通道数为c,扩展后通道数为c’,那么:
Figure GDA0004101304430000031
同时,若扩展后高和宽为h’和w’,那么:/>
Figure GDA0004101304430000032
则有:K=M×N,式中,K为通道扩展倍数,M为高的缩小倍数,N为宽的缩小倍数,根据式(2)将h维度拆分为两个维度[h’,M],将w维度拆分为两个维度[w’,N],拆分之后,特征图数据成为6个维度,其形式为[b,c,h’,M,w’,N]。
本发明提供的基于卷积神经网络的通道扩展方法,还可以具有这样的技术特征,其中,在步骤S3中进行维度调转时,将形式为[b,c,h’,M,w’,N]的特征图数据整理为[b,c,M,N,h’,w’]形式。
本发明提供的基于卷积神经网络的通道扩展方法,还可以具有这样的技术特征,其中,在步骤S4中进行维度合并时,将形式为[b,c,M,N,h’,w’]的特征图数据,整合为[b,c’,h’,w’]形式的4个维度。
发明作用与效果
根据本发明的基于卷积神经网络的通道扩展方法,由于在计算得到特征图数据的分辨率及通道数后,根据这些数据进行通道拆分、维度调换、通道合并操作,使得原特征图数据总量在不发生变化的情况下,满足通道扩展,且分辨率降低。因此本发明的通道扩展方法可以在通道扩展和分辨率降低二者之间很好地平衡,减少不必要的冗余数据操作,能够有效减轻卷积神经网络庞大计算量对计算资源的压力。相对于传统卷积神经网络通常先通过卷积操作扩充大量数据通道,然后再通过池化操作降低分辨率,其间会丢弃大量数据的操作,本发明的方法能够减少神经网络对内存/显存的消耗以及相关不必要的计算资源浪费,在不产生冗余数据的情况下,达到通道扩展的目的,起到提高运算速度的效果。
附图说明
图1是本发明实施例中通道扩展方法的流程图;
图2是本发明实施例中将单个维度拆分为2个维度的示意图;
图3是本发明实施例中两个相邻维度调换的示意图;以及
图4是本发明实施例中通道扩展方法对图像特征数据的加工原理示意图。
具体实施方式
为了使本发明实现的技术手段、创作特征、达成目的与功效易于明白了解,以下结合实施例及附图对本发明的基于卷积神经网络的通道扩展方法作具体阐述。
<实施例>
本实施例中,深度卷积神经网络的实现平台为一台计算机,该深度卷积神经网络以及通道扩展方法使用python语言实现,版本为python 3.6,深度学习框架使用pytorch1.01。
本实施例的基于卷积神经网络的通道扩展方法作为一个替换模块实现,用以替换和优化原深度卷积神经网络中通用的卷积扩展通道和池化降低分辨率操作。该替换模块基于模块DownPixelShuffle,继承于torch.nn.Module模块,可以直接用于基于pytorch框架实现的深度神经网络中,并能够进行反向传播。模块DownPixelShuffle的主要功能接口所需参数为输入数据input和分辨率缩小倍数downscale_factor。
图1是本发明实施例中通道扩展方法的流程图。
如图1所示,基于卷积神经网络的通道扩展方法包括如下步骤:
步骤S1,根据在卷积池化前后特征图的分辨率变化率计算特征图数据的分辨率及通道数。
本实施例的步骤S1中,在卷积池化前后特征图的分辨率变化率为分辨率缩小倍数downscale_factor。在对特征图数据进行计算时,步骤S1具体分为如下子步骤S1-1及S1-2:
步骤S1-1,计算输出数据(即特征图数据)的分辨率高和宽。
本实施例中,设原分辨率的高和宽为h和w。根据缩小倍数downscale_factor可知,输出数据的分辨率高h’和宽w’为:
Figure GDA0004101304430000061
步骤S1-2,计算输出特征图数据的通道数、高和宽。
本实施例中,设通道数为c,根据缩小倍数downscale_factor,输出数据的通道数c’为:
c'=c×downscale_factor2 (2)
步骤S2,将4个维度的特征图数据中对应高和宽的通道进行维度拆分,形成6个维度。
本实施例中,针对CNN常见的特征图数据,其对应有4个维度:批(batch)大小、通道数、高、宽,记录为[b,c,h,w]形式。步骤S2具体包括如下子步骤S2-1及S2-2:
步骤S2-1,将特征图数据在内存/显存中连续化。
在计算机中实现维度拆分操作时,需要内存/显存(该内存/显存取决于深度卷积神经网络是在内存中还是在显存中执行计算)中的数据连续保存,保证寻址计算正确,因此在执行维度拆分操作之前,需要对计算机中的数据进行整理,将所有数据按顺序连续保存。
步骤S2-2,拆分特征图数据的第3、4维度。
本实施例中,考虑到深度卷积神经网络的普遍特性,因此使得通道扩展之后的特征图数据的分辨率在高和宽的方向上缩小倍数相同,并且原分辨率可被缩小倍数整除。此时,在批大小不变的情况下,扩大通道数,高与宽缩小,高与宽缩小的总倍数等于通道数扩大的倍数。
由于扩展前通道数为c,扩展后通道数为c’,那么:
Figure GDA0004101304430000071
同时,扩展前高和宽为h和w,扩展后通道数为h’和w’,那么:
Figure GDA0004101304430000072
则有:
K=M×N (5)
式中,K为通道扩展倍数,M为高的缩小倍数,N为宽的缩小倍数。
根据式(4)描述的通道数与分辨率的关系,h维度拆分为两个维度[h’,M],w维度拆分为两个维度[w’,N]。拆分之后,特征图数据成为6个维度,其形式变为:[b,c,h’,M,w’,N]。
本实施例中,特征图数据在输入步骤S2前为输入数据input,该输入数据input为pytorch的tensor数据形式,形式为[b,c,h,w]。在执行步骤S2时,先通过pytorch框架接口将input的数据在内存中连续化,然后将数据的第3、4维度分别拆分,形成6维度数据。如图2所示,单个tensor可以被维度拆分为子多维度tensor。拆分后的数据形式为:
Figure GDA0004101304430000073
根据式(1),拆分后的数据形式即:
[b,c,h',downscale_factor,w',downscale_factor]
步骤S3,将拆分后的特征图数据进行维度调转:第3、5维度调换为第5、6维度。
本实施例的步骤S3中,将6个维度的特征图数据的第3、5维度调换为第5、6维度,即形式为[b,c,h’,M,w’,N]的数据整理为[b,c,M,N,h’,w’]形式。如图3所示,多维度数据的各维度调换,实际就是数据分组的先后顺序改变,其原理与相邻两个维度调换相同。在计算机中可以通过寻址的先后顺序改变来实现。
本实施例中,输入数据input被执行维度拆分操作后,执行步骤S3从而调换数据的维度,调换维度后的6维度临时数据为:
[b,c,downscale_factor,downscale_factor,h',w']
步骤S4,将调换后的特征图数据中第2、3、4维度进行维度合并,重新整合为4个维度。
本实施例中,步骤S4的维度合并操作与步骤S2中的维度拆分操作互为逆操作。该步骤S4具体分为如下子步骤S4-1及S4-2:
步骤S4-1,将调换后的特征图数据在内存和/或显存中连续化。
本实施例中,为了保证寻址计算正确,在执行维度合并操作之前,同样需要对计算机中的数据进行整理,将所有数据按顺序连续保存。因此在执行步骤S4-2之前,与步骤S2类似,需要通过步骤S4-1进行特征图数据的连续化。
步骤S4-2,合并调换后的特征图数据中的第2、3、4维度。
在步骤S3进行维度调转后,特征图数据的形式为[b,c,M,N,h’,w’],将第2、3、4维度合并,将数据重新整合为4个维度,则最终输出数据的形式为[b,c’,h’,w’]。
本实施例中,将当前6维度临时数据在内存中连续化,然后执行维度合并操作,将第2、3、4维度合并,将数据重新整合为4个维度,其形式为:
[b,c×downscale_factor×downscale_factor,h',w']
根据式(2),数据形式即:
[b,c',h',w']
至此,基于本实施例通道扩展方法的替换模块完成。
以下调用该替换模块对常见的卷积+池化操作进行优化:
根据通用的最大化池化(max pooling)操作,输入的特征数据将会在高和宽维度上,分辨率都减半。因此,根据式(4),当M=2,N=2时,
Figure GDA0004101304430000091
Figure GDA0004101304430000092
根据式(5)可知,扩展后通道数是之前的K=2×2=4倍。
进一步以一个实际应用方案为例:调用本实施例的替换模块的接口后,若其使用input数据为[3,128,512,512]的tensor,即batch=3,通道数为128,分辨率是512×512;使用的降采样倍数为2,即参数downscale_factor=2。
执行步骤S1,可知输出分辨率为256×256,输出通道数为128×22=512;
执行步骤S2,将数据数据进行维度分离,整理后,数据形式为[3,128,256,2,256,2];
执行步骤S3,将数据进行维度调换,整理后的数据形式为[3,128,2,2,256,256];
执行步骤S4,将数据进行维度合并,整理后的数据形式为[3,512,256,256]。
最终以[3,512,256,256]形式的数据即为通道扩展,且分辨率降低之后的数据输出。其通道从128扩展为512,分辨率从512×512降为256×256。
实施例作用与效果
根据本实施例提供的基于卷积神经网络的通道扩展方法,由于在计算得到特征图数据的分辨率及通道数后,根据这些数据进行通道拆分、维度调换、通道合并操作,使得原特征图数据总量在不发生变化的情况下,满足通道扩展,且分辨率降低。因此本实施例的通道扩展方法可以在通道扩展和分辨率降低二者之间很好地平衡,减少不必要的冗余数据操作,能够有效减轻卷积神经网络庞大计算量对计算资源的压力。相对于传统卷积神经网络通常先通过卷积操作扩充大量数据通道,然后再通过池化操作降低分辨率,其间会丢弃大量数据的操作,本实施例的方法能够减少神经网络对内存/显存的消耗以及相关不必要的计算资源浪费,在不产生冗余数据的情况下,达到通道扩展的目的,起到提高运算速度的效果。
同时,考虑到深度模型具有训练学习的能力,因此基于深度学习的特性(即在深度模型中的参数可以通过训练学习达到最优),通过本实施例的通道扩展方法对深度模型中执行中间运算的部分进行替换后,能够在保留有效特征数据的前提下,更好地促进深度模型的计算效果。
图4是本发明的通道扩展方法对图像特征数据的加工原理的示意,图中,最开始的数据是1个通道,高为10,宽为10;需要扩展通道并缩小分辨率的输出数据是4个通道,高为5,宽为5。那么对于输入数据的第二维度和第三维度的数据,应该是都均匀分成两份,拿出来堆叠起来,形成4份,也就整理成4个通道了;同时,分辨率也都缩小了一半。该过程中,全部是元素的维度排位子,没有用深度网络做卷积和池化,通道扩展和分辨率降低不是通过数据计算得到的,而是通过调换维度得到的。由此可见,本发明的算法更趋向于普遍性,整个过程充分利用现有数据,不做额外冗余数据计算。
实施例中,由于不通过卷积操作直接生成更多的通道,也不使用池化(pooling)操作降低特征图的分辨率,因此本实施例的通道扩展方法在执行前后的数据量大小不变。该通道扩展方法通过数据的维度变换,将特征图整理为分辨率降低、通道扩张后的新特征图数据。
上述实施例仅用于举例说明本发明的具体实施方式,而本发明不限于上述实施例的描述范围。

Claims (3)

1.一种基于卷积神经网络的通道扩展方法,用于替换卷积神经网络中通用的卷积扩展通道和池化操作,从而保证有效数据不损失的情况下减少所述卷积神经网络在中间运算的冗余数据,其特征在于,包括如下步骤:
步骤S1,根据在卷积池化前后特征图的分辨率变化率计算输出特征图数据的分辨率及通道数;
步骤S2,将4个维度的所述特征图数据中对应高和宽的通道进行维度拆分,形成6个维度;
步骤S3,将拆分后的所述特征图数据进行维度调转:第3、5维度调换为第5、6维度;
步骤S4,将调换后的所述特征图数据中第2、3、4维度进行维度合并,重新整合为4个维度;
其中,所述步骤S2包括如下子步骤:
步骤S2-1,将所述特征图数据在内存和/或显存中连续化;
步骤S2-2,拆分所述特征图数据中的第3、4维度;
所述步骤S4包括如下子步骤:
步骤S4-1,将调换后的所述特征图数据在内存和/或显存中连续化;
步骤S4-2,合并调换后的所述特征图数据中的第2、3、4维度,
所述4个维度为批大小、通道数、高、宽,记为[b,c,h,w],
所述步骤S2中拆分所述维度时,在所述批大小不变的情况下,将h维度和w维度进行拆分并扩大所述通道数,高h与宽w缩小的总倍数等于所述通道数扩大的倍数,
若扩展前所述通道数为c,扩展后所述通道数为c’,那么:
Figure FDA0004101304420000021
同时,若扩展后高和宽为h’和w’,那么:
Figure FDA0004101304420000022
则有:
K=M×N(3)
式中,K为通道扩展倍数,M为高的缩小倍数,N为宽的缩小倍数,
根据式(2)将h维度拆分为两个维度[h’,M],将w维度拆分为两个维度[w’,N],
拆分之后,所述特征图数据成为6个维度,其形式为[b,c,h’,M,w’,N]。
2.根据权利要求1所述的基于卷积神经网络的通道扩展方法,其特征在于:
其中,在所述步骤S3中进行所述维度调转时,将形式为[b,c,h’,M,w’,N]的所述特征图数据整理为[b,c,M,N,h’,w’]形式。
3.根据权利要求1所述的基于卷积神经网络的通道扩展方法,其特征在于:
其中,在所述步骤S4中进行所述维度合并时,将形式为[b,c,M,N,h’,w’]的所述特征图数据,整合为[b,c’,h’,w’]形式的4个维度。
CN201910865549.XA 2019-09-12 2019-09-12 一种基于卷积神经网络的通道扩展方法 Active CN110619387B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910865549.XA CN110619387B (zh) 2019-09-12 2019-09-12 一种基于卷积神经网络的通道扩展方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201910865549.XA CN110619387B (zh) 2019-09-12 2019-09-12 一种基于卷积神经网络的通道扩展方法

Publications (2)

Publication Number Publication Date
CN110619387A CN110619387A (zh) 2019-12-27
CN110619387B true CN110619387B (zh) 2023-06-20

Family

ID=68922859

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910865549.XA Active CN110619387B (zh) 2019-09-12 2019-09-12 一种基于卷积神经网络的通道扩展方法

Country Status (1)

Country Link
CN (1) CN110619387B (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113407767A (zh) * 2021-06-29 2021-09-17 北京字节跳动网络技术有限公司 确定文本相关性的方法、装置、可读介质及电子设备

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760933A (zh) * 2016-02-18 2016-07-13 清华大学 卷积神经网络的逐层变精度定点化方法及装置
CN106228240A (zh) * 2016-07-30 2016-12-14 复旦大学 基于fpga的深度卷积神经网络实现方法
CN108537331A (zh) * 2018-04-04 2018-09-14 清华大学 一种基于异步逻辑的可重构卷积神经网络加速电路
CN108629405A (zh) * 2017-03-22 2018-10-09 杭州海康威视数字技术股份有限公司 提高卷积神经网络计算效率的方法和装置
WO2019094857A1 (en) * 2017-11-13 2019-05-16 The Trustees Of Columbia Univeristy In The City Of New York System, method and computer-accessible medium for determining breast cancer risk
CN109766949A (zh) * 2019-01-17 2019-05-17 北京海印博识智能科技有限公司 卷积神经网络轻量化方法、装置及电子设备
CN110188863A (zh) * 2019-04-30 2019-08-30 杭州电子科技大学 一种卷积神经网络的卷积核及其压缩算法
CN110222819A (zh) * 2019-05-13 2019-09-10 西安交通大学 一种用于卷积神经网络加速的多层数据分区域联合计算方法

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105760933A (zh) * 2016-02-18 2016-07-13 清华大学 卷积神经网络的逐层变精度定点化方法及装置
CN106228240A (zh) * 2016-07-30 2016-12-14 复旦大学 基于fpga的深度卷积神经网络实现方法
CN108629405A (zh) * 2017-03-22 2018-10-09 杭州海康威视数字技术股份有限公司 提高卷积神经网络计算效率的方法和装置
WO2019094857A1 (en) * 2017-11-13 2019-05-16 The Trustees Of Columbia Univeristy In The City Of New York System, method and computer-accessible medium for determining breast cancer risk
CN108537331A (zh) * 2018-04-04 2018-09-14 清华大学 一种基于异步逻辑的可重构卷积神经网络加速电路
CN109766949A (zh) * 2019-01-17 2019-05-17 北京海印博识智能科技有限公司 卷积神经网络轻量化方法、装置及电子设备
CN110188863A (zh) * 2019-04-30 2019-08-30 杭州电子科技大学 一种卷积神经网络的卷积核及其压缩算法
CN110222819A (zh) * 2019-05-13 2019-09-10 西安交通大学 一种用于卷积神经网络加速的多层数据分区域联合计算方法

Also Published As

Publication number Publication date
CN110619387A (zh) 2019-12-27

Similar Documents

Publication Publication Date Title
Sun et al. Deep RGB-D saliency detection with depth-sensitive attention and automatic multi-modal fusion
US11664013B2 (en) Speech feature reuse-based storing and calculating compression method for keyword-spotting CNN
CN106991646B (zh) 一种基于密集连接网络的图像超分辨率方法
CN108921786B (zh) 基于残差卷积神经网络的图像超分辨率重构方法
US11756170B2 (en) Method and apparatus for correcting distorted document image
CN110136062B (zh) 一种联合语义分割的超分辨率重建方法
CN110569851B (zh) 门控多层融合的实时语义分割方法
CN113837946B (zh) 一种基于递进蒸馏网络的轻量化图像超分辨率重建方法
CN111144376A (zh) 视频目标检测特征提取方法
WO2023065759A1 (zh) 基于时空增强网络的视频动作识别方法
CN110866938B (zh) 一种全自动视频运动目标分割方法
CN110909874A (zh) 一种神经网络模型的卷积运算优化方法和装置
CN108932715B (zh) 一种基于深度学习的冠状动脉造影图分割的优化方法
CN113011337A (zh) 一种基于深度元学习的汉字字库生成方法及系统
CN112084911A (zh) 一种基于全局注意力的人脸特征点定位方法及系统
CN111881743A (zh) 一种基于语义分割的人脸特征点定位方法
Li et al. DLGSANet: lightweight dynamic local and global self-attention networks for image super-resolution
CN110619387B (zh) 一种基于卷积神经网络的通道扩展方法
US20230072445A1 (en) Self-supervised video representation learning by exploring spatiotemporal continuity
CN116524180A (zh) 基于轻量级主干结构的戏曲舞台场景分割方法
CN115660984A (zh) 一种图像高清还原方法、装置及存储介质
CN112529064B (zh) 一种高效的实时语义分割方法
KR102533080B1 (ko) 선 레이블을 이용한 세포 영상 분할 방법, 이를 수행하기 위한 기록 매체 및 장치
CN110516669B (zh) 一种复杂环境下多层级多尺度融合的文字检测方法
CN114494284A (zh) 一种基于显式监督区域关系的场景解析模型及方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant