CN116109868A - 基于轻量化神经网络的图像分类模型构建和小样本图像分类方法 - Google Patents
基于轻量化神经网络的图像分类模型构建和小样本图像分类方法 Download PDFInfo
- Publication number
- CN116109868A CN116109868A CN202310119324.6A CN202310119324A CN116109868A CN 116109868 A CN116109868 A CN 116109868A CN 202310119324 A CN202310119324 A CN 202310119324A CN 116109868 A CN116109868 A CN 116109868A
- Authority
- CN
- China
- Prior art keywords
- neural network
- image classification
- training
- model
- small sample
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于轻量化神经网络的图像分类模型构建和小样本图像分类方法,利用构建的轻量化神经网络用于小样本图像分类,运用训练得到的图像分类模型可以迁移学习到其他小样本分类任务。建立一种轻量化神经网络结构,包括:DWConv、倒残差结构、GConv、ShuffleNetUnit;使用小样本数据集,对搭建的轻量化神经网络进行训练,生成图像分类模型,以此模型来完成图像分类任务。本发明搭建的轻量化神经网络可以在保证分类精度的前提下,获得好的特征图以及分类参数,降低卷积神经网络的计算量。
Description
技术领域
本发明属于图像处理、计算机视觉技术领域,尤其是涉及一种轻量化网络分类模型的构建和小样本图像分类方法。
背景技术
图像分类技术是计算机视觉领域的热门研究方向,作为目标检测、语义分割以及实例分割等研究领域的基础,图像分类有很高的研究意义和现实应用价值,其在机器人、自动驾驶以及医学领域等有广泛的应用。轻量化的神经网络可以在保证分类精度的前提下,获得好的特征图以及分类参数,降低卷积神经网络的计算量。
在实现图像分类的过程中,传统的图像分类首先通过SIFT(尺度不变特征转换)、HOG(方向梯度直方图)、LBP(局部二值模式)等方法提取底层特征,之后通过向量量化编码、稀疏编码、局部线性约束编码、Fisher向量编码等方法进行特征编码,然后进行空间特征约束,最后通过常见的分类器,如SVM(支持向量机)、随机森林等方法进行分类。但这些方法数据量大,计算的复杂性高,并且局限性较大。
随着深度学习的发展,卷积神经网络在计算机视觉领域中取得了成功,其中模型的设计发挥了重要作用。AlexNet、VggNet、GoogleNet、ResNet等模型结构在分类任务中准确性较高,并具有一定的鲁棒性。
在深度学习中,用于训练的数据集需要大量的人工标注,费时费力,并且在很多情况下,数据集的收集并不容易,例如医学领域。同时,数据集的不足会导致过拟合,在训练集上效果可能不错,但在测试集上泛化性能不佳。因此,用小样本学习的方法进行图像分类是解决这些问题的关键技术。
发明内容
本发明搭建的轻量化神经网络可以在保证分类精度的前提下,获得好的特征图以及分类参数,降低卷积神经网络的计算量。本发明利用构建的轻量化神经网络用于小样本图像分类,运用训练得到的图像分类模型可以迁移学习到其他小样本分类任务。建立一种轻量化神经网络结构,包括:DWConv、倒残差结构、GConv、ShuffleNet Unit;使用小样本数据集,对搭建的轻量化神经网络进行训练,生成图像分类模型,以此模型来完成图像分类任务。
为解决上述技术问题,本发明采用的技术方案为基于轻量化神经网络的图像分类模型构建和小样本图像分类方法,实现该方法的轻量化神经网络模型包括:DWConv、倒残差结构、GConv、ShuffleNet Unit;其中,所述轻量化神经网络包含多干个倒残差结构和ShuffleNet Unit,并且所有的倒残差结构使用DWCon v,ShuffleNet Unit使用DWConv和GConv,通过倒残差结构和ShuffleNet Uni t的堆叠搭建新的神经网络;同时使用小样本数据集,对搭建的轻量化神经网络进行训练,生成图像分类模型,以此模型来完成图像分类任务。
在搭建神经网络模型的过程中,包括:确定倒残差结构和ShuffleNet Unit的内部结构;确定模型训练的损失函数以及优化方法,利用当前损失函数和优化方法进行训练。
倒残差结构包括:普通卷积、DW卷积、激活函数、shotcut连接;ShuffleNet Unit包括:Channel Split、普通卷积、DW卷积、激活函数、BN层。
搭建的模型包括:10个倒残差结构,倒残差结构参考图1;4个ShuffleNet Unit,ShuffleNet Unit参考图2。模型首先通过一个普通卷积层,BN层,最大池化下采样层,之后通过10个倒残差结构和4个ShuffleNet Unit,最后通过一个普通卷积层,BN层和全连接层输出分类结果。
对搭建的模型进行评估的过程,包括:对搭建的神经网络模型设置不同的超参数,之后对模型进行训练,训练出具有最有最优超参数的神经网络。
同时,本发明还提供了一种小样本图像分类方法,该方法通过上述搭建的轻量化神经网络模型来实现。
根据小样本数据集样本少以及现存模型参数量和计算量过大的问题,采用DW卷积和组卷积,同时采用倒残差结构和通道打乱的方法,并通过堆叠不同模块,从而实现了一种新的分类网络。既保证了特征提取能力,又降低了参数量,大大提高了模型预测的速度。
附图说明
图1是倒残差结构图。
图2是ShuffleNet Unit。
图3是流程示意图。
具体实施方式
以下结合附图和实施例进行说明。
本发明基于MobileNetV2和ShuffleNetV2搭建一种新的轻量级神经网络模型,网络结构参表1。MobileNetV2中的DW卷积能大大减少运算量和参数数量,并且采用的倒残差结构能更好的提取图像中的特征。ShuffleNetV2中采用组卷积和DW卷积,可以使模型轻量化。虽然组卷积可以减少参数计算量,但是在组卷积中不同组之间信息没有交流,这会将降低分类的准确率。因此将两个模型进行融合之后,在保证减少计算量的同时,可以加强组之间的信息交流,保留图像特征,提高分类准确率。
下载miniImageNet图像分类数据集,针对小样本图像分类,数据集中提供的标签文件并不是从每个类别中进行采样,需要自己去构建一个新的train.csv和val.csv文件。从这100个类别中按给定的比例去划分训练集和验证集。本次实施过程中,训练集和验证集的比例为5:1。使用搭建的轻量化模型在训练集和验证集上进行训练,得到训练好的模型,之后在测试集上进行测试,得到图像分类的结果,并记录分类的精度。在训练和测试的过程中要保持网络参数不变。
构建轻量化神经网络:1.输入大小为224×224的彩色图片,通过一个卷积核大小为3×3的普通卷积层,卷积核个数为32,步距为2,padding为1,不使用偏置。之后使用BatchNormal层,对输入的批数据进行归一化处理,映射到均值为0,方差为1的正态分布。同时为了防止激活函数表达能力变差,加入了平移和缩放,使得每批的数据分布一致,避免梯度消失。最后使用ReLU激活函数进行激活。得到大小为112×112的特征图,通道数为32。
2.进行最大池化下采样,卷积核大小为3×3,步距为2,padding为1,特征图大小变为56×56,通道数为32。
3.进入第一个倒残差结构,步距为2,扩展因子为6,首先进行一个1×1的普通卷积,激活函数为ReLU6,特征图尺寸保持不变,通道数为192;之后进入卷积核大小为3×3,步距为2的DW卷积层,激活函数为ReLU6,特征图大小为28*28,通道数保持不变;最后进入一个1×1的线性连接层,特征图大小保持不变,通道数变为64。第一个倒残差结构重复次数为4次。
4.进入第二个倒残差结构,步距为1,扩展因子为6,首先进行一个1×1的普通卷积,激活函数为ReLU6,特征图大小保持不变,通道数为384;之后进入卷积核大小为3×3,步距为1的DW卷积层,激活函数为ReLU6,特征图大小变为28×28,通道数保持不变;最后进入一个1×1的线性连接层,特征图大小保持不变,通道数变为96。第二个倒残差结构重复次数为3次。
5.进入第三个倒残差结构,步距为2,扩展因子为6,首先进行一个1×1的普通卷积,激活函数为ReLU6,特征图大小保持不变,通道数为576;之后进入卷积核大小为3×3,步距为2的DW卷积层,激活函数为ReLU6,特征图大小变为14×14,通道数保持不变;最后进入一个1×1的线性连接层,特征图大小保持不变,通道数变为160。第二个倒残差结构重复次数为4次。
6.进入ShuffleNet Unit结构,共分为两部分。当步距为2时,共有两个分支,两个分支分别进行处理,最后进行concat拼接;当步距为1时,经过卷积处理后的特征图和原特征图进行concat拼接。
7.第一部分步距为2,重复次数为1,在第一个分支中,首先通过一个卷积核大小为1×1普通卷积层,通过后进行BatchNormal归一化和激活函数ReLU激活,特征图大小保持不变;之后进行DW卷积,卷积核大小为3×3,个数为96,步距为2,padding为1,特征图大小变为7×7,输出通道数为96,输出后进行BatchNormal归一化,最后进行卷积核大小为1×1的普通卷积,通过后进行BatchNormal归一化和激活函数ReLU激活,特征图大小保持不变。
8.在第二个分支中,首先经过一个卷积核大小为3×3,个数为160,步距为2,padding为1的DW卷积层,卷积后进行BatchNormal归一化,特征图大小变为7×7,输出通道数为160;之后进行卷积核大小为1×1,个数为96的普通卷积层,最后进行BatchNormal归一化和激活函数ReLU激活,得到的特征图大小为7×7,输出通道为96。
9.将上述两个分支得到的特征图进行concat拼接,得到大小为7×7的特征图,通道数为192,之后进行channel shuffle操作。
10.第二部分步距为1,重复次数为3。首先对第一部分输出的通道数进行channelsplit操作,均分成两组。将其中一组进行普通卷积,卷积核大小为1×1,个数为96,步距为1,特征图大小保持不变,输出通道数为96,之后进行BatchNormal归一化和激活函数ReLU激活;将输出的特征图进行DW卷积,卷积核大小为3×3,个数为96,步距为1,padding为1,特征图大小和输出通道数均保持不变,之后进行BatchNormal归一化处理;最后通过一个卷积核大小为1×1的普通卷积层、BatchNormal归一化和激活函数ReLU进行激活,特征图大小和输出通道数均保持不变。
11.将未经过处理的一组和经过卷积处理的进行concat拼接,得到大小为7×7的特征图,输出通道数为192,之后进行channel shuffle操作。
12.通过上述ShuffleNet Unit结构之后,得到特征图大小为7×7,通道数为192,之后进行卷积核大小为1×1,个数为1024,步距为1的卷积层,特征图大小保持不变,通道数变为1024.
13.进行全局池化,卷积核大小为7×7,得到大小为1×1的特征图,输出通道保持不变。
14.最后进行全连接,输出通道数为1000。
以上为轻量化神经网络的搭建过程,之后使用小样本数据集,对搭建好的轻量化神经网络进行训练,得到适用于小样本图像分类的图像分类模型。
具体地,小样本分类数据集采用miniImageNet,图像尺寸缩放为224×224,并进行随机水平翻转裁剪,达到数据增强的目的。
在训练前,需要对图像分类模型设置训练参数和损失函数策略,确定分类器输出的分类结果。具体地,网络优化器选择SGD优化器,初始学习率设为0.1,采用余弦函数衰减学习率,最小学习率为0.0001,动量为0.9,权重衰减设为0.00004。损失函数使用均方误差损失,公式为:
需要说明的是,上述网络参数对于网络训练来说不是一成不变的,可以设置成其他网络参数,也可以完成图像分类模型的构建,不同网络参数对于网络的性能有一定的影响。
在确定好网络参数和损失函数后,使用小样本分类数据集,对所搭建的轻量化网络模型进行训练,得到好的训练权重,从而得到图像分类模型,利用该图像分类模型完成小样本图像分类任务。本发明实施过程中,小样本分类数据集采用miniImageNet数据集,Mini-ImageNet数据集,共有100个类别,每个类别都有600张图片,共60000张,而且图像的大小并不是固定的。Mini-Imagenet数据集中还包含了train.csv、val.csv以及test.csv三个文件。train.asv包含38400张图片,共64个类别。val.csv包含9600张图片,共16个类别。test.csv包含12000张图片,共20个类别。每个csv文件之间的图像以及类别都是相互独立的,即共60000张图片,100个类。针对小样本图像分类,数据集中提供的标签文件并不是从每个类别中进行采样,需要自己去构建一个新的train.csv和val.csv文件。从这100个类别中按给定的比例去划分训练集和验证集。本次实施过程中,训练集和验证集的比例为5:1。
此外,在训练好模型后,需要对模型进行验证。首先使用从小样本数据集划分出的训练集对轻量化模型进行训练,通过在验证集上的准确率调整不同的网络参数,对比不同参数下模型的分类性能,得到最优的模型参数。最后,将最好的轻量化模型与AlexNet、VGGNet、GoogleNet、MobileNet、ShuffleNet等网络结构进行比较,并用测试集对网络模型的分类准确率进行比较。
本次实施过程中,基于Ubuntu16的操作系统,显卡为2080Ti,CUDA版本为10.1,CUDNN版本为v8.0.5,编程环境基于python3.6,使用深度学习框架PyTorch,版本为1.6.0。
表2显示了本发明实现的轻量化模型与其他经典模型的分类准确率、计算量和参数量对比结果。
根据表2的对比结果,本发明实施的轻量化网络模型分类准确率高于表中其他模型,并且参数量和计算量降低很多,在保证准确率提升的前提下,成功实现了轻量化。
另一方面,本发明提出的小样本图像分类方法,可以采用训练得到的预训练权重去做迁移学习,训练其他的小数据集,也有一定帮助。在测试过程中,如果不使用预训练权重,训练自己的数据集的准确率要比使用预训练权重达到的准确率要低。
本发明提出了一种新的轻量化网络结构和小样本图像分类方法。针对目前网络参数量过大,以及小样本数据集样本量少的特点,采用倒残差结构和ShuffleNet Unit结构,在降低计算量的同时,保证了准确率。同时训练得到的预训练权重可以迁移学习到其他数据集和模型,提高了小样本图像分类的准确度。
同时,随着模型的深度和宽度的增加,网络的参数量也越来越大,虽然精度越来越高,但也出现计算量增加、梯度爆炸、训练困难等问题。因此,构建轻量化的网络模型可以解决这些问题。
因此,构建一种轻量化的神经网络用于小样本图像分类,以解决数据集不足以及网络结构复杂带来的一系列问题。
表1网络结构
表2不同网络结果对比
Claims (4)
1.基于轻量化神经网络的图像分类模型构建和小样本图像分类方法,其特征在于,实现该方法的轻量化神经网络模型包括多干个倒残差结构和ShuffleNet Unit,并且所有的倒残差结构使用DWConv,ShuffleNet Unit使用DWConv和GConv,通过倒残差结构和ShuffleNet Unit的堆叠搭建新的神经网络;同时使用小样本数据集,对搭建的轻量化神经网络进行训练,生成图像分类模型,以此轻量化神经网络模型来完成图像分类任务;对搭建的轻量化神经网络模型进行评估的过程,包括:对搭建的神经网络模型设置不同的超参数,之后对轻量化神经网络模型进行训练,训练出具有最有最优超参数的神经网络;
在搭建神经网络模型的过程中,包括:确定倒残差结构和ShuffleNet Unit的内部结构;确定模型训练的损失函数以及优化方法,利用当前损失函数和优化方法进行训练。
2.根据权利要求1所述的基于轻量化神经网络的图像分类模型构建和小样本图像分类方法,其特征在于,倒残差结构包括:普通卷积、DW卷积、激活函数、shotcut连接;ShuffleNet Unit包括:Channel Split、普通卷积、DW卷积、激活函数、BN层。
3.根据权利要求1所述的基于轻量化神经网络的图像分类模型构建和小样本图像分类方法,其特征在于,搭建的轻量化神经网络模型包括:10个倒残差结构,倒残差结构参考图1;4个ShuffleNet Unit;轻量化神经网络模型首先通过一个普通卷积层,BN层,最大池化下采样层,之后通过10个倒残差结构和4个ShuffleNet Unit,最后通过一个普通卷积层,BN层和全连接层输出分类结果。
4.根据权利要求1所述的基于轻量化神经网络的图像分类模型构建和小样本图像分类方法,其特征在于,在训练前,对图像分类模型设置训练参数和损失函数策略,确定分类器输出的分类结果;网络优化器选择SGD优化器,初始学习率设为0.1,采用余弦函数衰减学习率,最小学习率为0.0001,动量为0.9,权重衰减设为0.00004;损失函数使用均方误差损失;训练次数为100次,每次送入轻量化神经网络模型的图片为32张;
在确定好网络参数和损失函数后,使用小样本分类数据集,对所搭建的轻量化网络模型进行训练,得到训练权重,从而得到图像分类模型,利用该图像分类模型完成小样本图像分类任务;小样本分类数据集采用miniImageNet数据集,Mini-ImageNet数据集,共有100个类别,每个类别都有600张图片,共60000张,而且图像的大小并不是固定的;Mini-Imagenet数据集中还包含了train.csv、val.csv以及test.csv三个文件;train.asv包含38400张图片,共64个类别;val.csv包含9600张图片,共16个类别;test.csv包含12000张图片,共20个类别;每个csv文件之间的图像以及类别都是相互独立的,即共60000张图片,100个类;针对小样本图像分类,数据集中提供的标签文件并不是从每个类别中进行采样,需要构建一个新的train.csv和val.csv文件;从这100个类别中按给定的比例去划分训练集和验证集;
在训练好轻量化神经网络模型后,需要对轻量化神经网络模型进行验证;首先使用从小样本数据集划分出的训练集对轻量化神经网络模型进行训练,通过在验证集上的准确率调整不同的网络参数,对比不同参数下模型的分类性能,得到最优的轻量化神经网络模型参数;最后,将最好的轻量化神经网络模型与AlexNet、VGGNet、GoogleNet、MobileNet、ShuffleNet网络结构进行比较,并用测试集对网络模型的分类准确率进行比较。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310119324.6A CN116109868A (zh) | 2023-02-15 | 2023-02-15 | 基于轻量化神经网络的图像分类模型构建和小样本图像分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310119324.6A CN116109868A (zh) | 2023-02-15 | 2023-02-15 | 基于轻量化神经网络的图像分类模型构建和小样本图像分类方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN116109868A true CN116109868A (zh) | 2023-05-12 |
Family
ID=86259562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310119324.6A Pending CN116109868A (zh) | 2023-02-15 | 2023-02-15 | 基于轻量化神经网络的图像分类模型构建和小样本图像分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116109868A (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117612139A (zh) * | 2023-12-19 | 2024-02-27 | 昆明盛嗳谐好科技有限公司 | 基于深度学习的场景目标检测方法、系统和电子设备 |
-
2023
- 2023-02-15 CN CN202310119324.6A patent/CN116109868A/zh active Pending
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117612139A (zh) * | 2023-12-19 | 2024-02-27 | 昆明盛嗳谐好科技有限公司 | 基于深度学习的场景目标检测方法、系统和电子设备 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110188795B (zh) | 图像分类方法、数据处理方法和装置 | |
CN112529146B (zh) | 神经网络模型训练的方法和装置 | |
CN111275107A (zh) | 一种基于迁移学习的多标签场景图像分类方法及装置 | |
CN109063719B (zh) | 一种联合结构相似性和类信息的图像分类方法 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN112215332B (zh) | 神经网络结构的搜索方法、图像处理方法和装置 | |
CN111027576B (zh) | 基于协同显著性生成式对抗网络的协同显著性检测方法 | |
CN107680044B (zh) | 一种图像超分辨率卷积神经网络加速计算方法 | |
CN115759237A (zh) | 端到端的深度神经网络模型压缩及异构转换系统及方法 | |
CN114298122A (zh) | 数据分类方法、装置、设备、存储介质及计算机程序产品 | |
CN116109868A (zh) | 基于轻量化神经网络的图像分类模型构建和小样本图像分类方法 | |
CN116863194A (zh) | 一种足溃疡图像分类方法、系统、设备及介质 | |
WO2022156475A1 (zh) | 神经网络模型的训练方法、数据处理方法及装置 | |
CN115222998A (zh) | 一种图像分类方法 | |
CN114913379A (zh) | 基于多任务动态对比学习的遥感图像小样本场景分类方法 | |
Yuan et al. | Low-res MobileNet: An efficient lightweight network for low-resolution image classification in resource-constrained scenarios | |
CN116797850A (zh) | 基于知识蒸馏和一致性正则化的类增量图像分类方法 | |
Guo et al. | Efficient convolutional networks learning through irregular convolutional kernels | |
Sun et al. | Randomized nonlinear two-dimensional principal component analysis network for object recognition | |
Liu et al. | GGRNet: Global graph reasoning network for salient object detection in optical remote sensing images | |
CN113762304B (zh) | 图像处理方法、图像处理装置和电子设备 | |
Stypułkowski et al. | Representing point clouds with generative conditional invertible flow networks | |
CN112906829B (zh) | 一种基于Mnist数据集的数字识别模型构建方法及装置 | |
WO2022227024A1 (zh) | 神经网络模型的运算方法、训练方法及装置 | |
CN110826726B (zh) | 目标处理方法、目标处理装置、目标处理设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |