CN114067316A - 一种基于细粒度图像分类的快速识别方法 - Google Patents

一种基于细粒度图像分类的快速识别方法 Download PDF

Info

Publication number
CN114067316A
CN114067316A CN202111390166.5A CN202111390166A CN114067316A CN 114067316 A CN114067316 A CN 114067316A CN 202111390166 A CN202111390166 A CN 202111390166A CN 114067316 A CN114067316 A CN 114067316A
Authority
CN
China
Prior art keywords
contribution degree
training
contribution
classification
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202111390166.5A
Other languages
English (en)
Other versions
CN114067316B (zh
Inventor
李国强
邱新雷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yanshan University
Original Assignee
Yanshan University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yanshan University filed Critical Yanshan University
Priority to CN202111390166.5A priority Critical patent/CN114067316B/zh
Publication of CN114067316A publication Critical patent/CN114067316A/zh
Application granted granted Critical
Publication of CN114067316B publication Critical patent/CN114067316B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/95Retrieval from the web
    • G06F16/951Indexing; Web crawling techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于细粒度图像分类的快速识别方法,属于深度学习及图像分类技术领域,包括从网络爬取目标图片,制作数据集,用于网络训练和测试,一张图片中实际只有二分之一的区域甚至是四分之一的区域是用于细粒度图像分类,其余部分都是背景区域和干扰噪音,并且图片中不同区域对分类结果的贡献度是不同的,运用Grad‑CAM注意力机制获取高贡献度区域和低贡献度区域,进行框定和裁剪,分别将高贡献度区域和低贡献度区域进行特征融合,将两个计算结果同时送入贡献度模块,通过不同的贡献度影响值计算分类结果。本发明填补了细粒度图像分类在快速识别领域的应用空白。

Description

一种基于细粒度图像分类的快速识别方法
技术领域
本发明涉及深度学习及图像分类技术领域,尤其是一种基于细粒度图像分类的快速识别方法。
背景技术
近年来,人工智能技术飞速发展,神经网络和计算机视觉研究更是取得了重大突破,各种新型网络及其改进型相继提出,细粒度图像分类的精确度因此不断提高。随着精确度的提高,细粒度图像分类技术被广泛投入实际应用,极大的方便了人们的生活和工作。细粒度图像分类应用领域十分广泛,在动物保护方面,细粒度图像分类可以在相机拍摄到动物照片之后,自动识别出属于哪个种类,不需要人为辨认,节省了人力资源和降低了人眼识别的错误率;在产品质量检测方面,可以自动识别出产品的裂纹等瑕疵,提高了生产效率。
但是细粒度图像分类技术在医疗器械领域的应用十分匮乏,主要原因有以下几点:一、细粒度图像分类技术正处于快速发展阶段,研究成果少且精确度低,技术状态不稳定;二、医疗是关乎生命的大事,因此对精确度的要求相当高,在此之前细粒度图像分类的精度达不到标准。
发明内容
本发明需要解决的技术问题是提供一种基于细粒度图像分类的快速识别方法,将细粒度图像分类技术应用在快速识别领域,可以填补蛇类咬伤快速识别领域的空白,为医生精准判断病情提供有力的支持,能够缩短伤者的救治时间,提高伤者的生存率。
为解决上述技术问题,本发明所采用的技术方案是:
一种基于细粒度图像分类的快速识别方法,包括以下步骤:
步骤1,从网络爬取目标图片,制作数据集,并按比例划分为训练集、验证集和测试集;
步骤2,在原双线性神经网络中加入Grad-CAM注意力模块和贡献度模块,得到改进后的双线性神经网络;
步骤3,打乱训练集,并每次从中随机抽取相同数量的图片,然后输入改进后的双线性神经网络;
步骤4,开始训练参数,框定高贡献区域并裁剪,进行特征融合,通过贡献度模块计算分类结果;
步骤5,在验证集上验证分类精度,保存训练参数;
步骤6,训练结束,选择在训练中分类精度最高的模型载入改进后的双线性神经网络,使用测试集测试分类精度。
本发明技术方案的进一步改进在于:在步骤2中,特征提取器采用VGG-16神经网络,输出一个14×14×512的特征图,该特征图的激活值和反向传播梯度信息中包含了特征图每一个位置对于分类结果的贡献度,由此可得出贡献度权重
Figure BDA0003368355530000021
其公式如下:
Figure BDA0003368355530000022
式中,gc是该特征图关于标签类别c的反向传播梯度值,
Figure BDA0003368355530000023
是位置(i,j)处特征图的激活值,m是特征图像素点的个数,Z是权重累加次数,
Figure BDA0003368355530000024
是偏导数;
得到贡献度权重
Figure BDA0003368355530000025
之后,与特征图进行加权相乘,使其线性表示,然后通过ReLU层,得到关于标签类别c贡献度图Lc,其公式如下:
Figure BDA0003368355530000026
式中,Mm是具有所有像素点的特征图激活值;
得到贡献度图之后,需要通过阈值框定贡献度高的区域,然后依照阈值框裁剪特征图,分离高贡献度区域和低贡献度区域,其公式为:
Figure BDA0003368355530000031
式中,f(L)是经过阈值处理后的特征图,IOU是临界阈值。
本发明技术方案的进一步改进在于:在步骤3中,为了防止训练过程中出现过拟合现象,在每一轮训练时都要将图片的训练顺序打乱,并从训练集中抽取相同数量的图片,送进改进后的双线性神经网络进行训练。
本发明技术方案的进一步改进在于:在步骤4中,开始训练参数,框定高贡献区域并裁剪,高贡献度区域和低贡献度区域分别进行双线性特征融合,然后将高贡献度特征融合结果和低贡献度特征融合结果分别送入全连接层分类网络,最后将两个数据同时送入贡献度模块,计算最终分类结果;
特征融合公式为:
F=f(LA)Tf(LB)
式中,f(LA)是卷积神经网络stream A提取特征并经过阈值处理所得到的特征图,f(LB)是卷积神经网络stream B提取特征并经过阈值处理所得到的特征图,F是f(LA)和f(LB)特征融合后得到的特征图;
贡献度公式为:
Ffinal=δ×F+μ×F
式中,F是高贡献率区域经过特征融合后得到的特征图,F是低贡献度区域经过特征融合后得到的特征图,Ffinal是经过贡献度机制计算后得到的最终分类结果。
本发明技术方案的进一步改进在于:在步骤5中,每一轮训练结束之后,都要在验证集上验证训练参数,之后保存训练参数。
本发明技术方案的进一步改进在于:在步骤6中,已训练完的模型中包含了目标图片的数据特征,从测试集中随机抽取一组图片,送入网络模型中,首先提取图像特征,区分高贡献度区域和低贡献度区域,然后分别进行特征融合,融合后送入全连接神经网络,全连接神经网络通过softmax函数计算出该图像分别属于目标图片的概率,选择最大概率的目标,输出目标的种类。
由于采用了上述技术方案,本发明取得的技术进步是:
1、本发明从实际用途角度分析,蛇类咬伤,尤其是毒蛇有毒性发作快,毒性强,毒素多样性等特点,使用本快速识别方法可以填补蛇类咬伤快速识别领域的空白,为医生精准判断病情提供有力的支持,能够缩短伤者的救治时间,提高伤者的生存率。
2、本发明从技术角度分析,使用Grad-CAM注意力模块可以识别高贡献度的区域,减少了低贡献度区域对分类结果的干扰,提高分类精确度。但是低贡献度区域对于提高分类精度还是有一定帮助,不能将这部分舍弃,因此引入贡献度模块,可有效降低低贡献度区域对分类精度的影响。
附图说明
图1是本发明对双线性卷积神经网络改进的总体方案图;
图2是本发明双线性卷积神经网络原结构图;
图3是本发明所用的Grad-CAM模块图;
图4是本发明所用的贡献度模块图。
具体实施方式
下面结合附图及实施例对本发明做进一步详细说明:
本发明对比几个常用分类网络之后,选择使用双线性卷积神经网络算法用于细粒度图像分类,该算法分类精度高,在该算法基础上改进可以得到更好的分类效果。对该网络的改进思路有:第一,在原双线性卷积神经网络结构中,是直接提取整张图片的特征用于特征融合,可是一张图片中实际只有二分之一的区域甚至是四分之一的区域是用于细粒度图像分类,其余部分都是背景区域和干扰噪音,并且图片中不同区域对分类结果的贡献度是不同的。因此,在原网络(如图2所示)的基础上,加入Grad-CAM注意力机制,用于确定分类目标图像所在的实际区域。第二,因为图像的每一部分对细粒度分类结果的影响不同,如果低贡献区域的特征和高贡献区域的特征以相同贡献度计算在分类结果中,会导致分类精度不佳,所以不同区域采用不同贡献度进行计算。
如图1、3、4所示,一种基于细粒度图像分类的快速识别方法,主要涉及蛇类图像、数据增强、双线性特征融合、注意力机制等,在双线性神经网络中引入Grad-CAM注意力模块和贡献度机制的细粒度图像分类快速识别方法,能够应用在蛇类(尤其是毒蛇)咬伤后进行快速辅助识别领域中,主要目的是缩短医生识别判断蛇类种类的时间,以进行有效的处理,提高被咬伤者的生存率;具体包括以下步骤:
步骤1,从网络爬取目标图片,所述目标图片以清晰蛇类图片为例,其种类有:尖吻蝮、眼镜蛇、短尾蝮、竹叶青、银环蛇、金环蛇、青环海蛇、圆斑蝰等图片总计10000张,并标注相关信息。将爬取的目标图片的像素转换成448×448,并按8:1:1的比例随机划分为训练集、验证集和测试集。
步骤2,在原双线性神经网络中加入Grad-CAM注意力模块和贡献度模块,得到改进后的双线性神经网络。特征提取器采用VGG-16神经网络,输出一个14×14×512的特征图,该特征图的激活值和反向传播梯度信息中包含了特征图每一个位置对于分类结果的贡献度,由此可得出贡献度权重
Figure BDA0003368355530000051
其公式如下:
Figure BDA0003368355530000052
式中,gc是该特征图关于标签类别c的反向传播梯度值,
Figure BDA0003368355530000061
是位置(i,j)处特征图的激活值,m是特征图像素点的个数,Z是权重累加次数,
Figure BDA0003368355530000062
是偏导数;
得到贡献度权重
Figure BDA0003368355530000063
之后,与特征图进行加权相乘,使其可以线性表示,然后通过ReLU层,可得到关于标签类别c贡献度图Lc,其公式如下:
Figure BDA0003368355530000064
式中,Mm是具有所有像素点的特征图激活值。
得到贡献度图之后,需要通过阈值框定贡献度高的区域,然后依照阈值框裁剪特征图,分离高贡献度区域和低贡献度区域,其公式为:
Figure BDA0003368355530000065
式中,f(L)是经过阈值处理后的特征图,IOU是临界阈值。
相对于高贡献度区域对提高分类精度有巨大的帮助,低贡献度区域对分类精度提高作用有限,但是其对分类精度也是有作用的,不可完全舍弃,因此引入贡献度模块,提高高贡献度区域在分类结果的影响值δ,降低低贡献度区域对分类结果的影响值μ,影响值为超参数。
步骤3,为了防止训练过程中出现过拟合现象,在每一轮训练时都要将目标图片的训练顺序打乱,并从训练集中抽取相同数量的图片,送进改进后的双线性神经网络进行训练。
步骤4,开始训练参数,框定高贡献区域并裁剪,高贡献度区域和低贡献度区域分别进行双线性特征融合,然后将高贡献度特征融合结果和低贡献度特征融合结果分别送入全连接层分类网络,最后将两个数据同时送入贡献度模块,计算最终分类结果。
特征融合公式为:
F=f(LA)Tf(LB)
式中,f(LA)是卷积神经网络stream A提取特征并经过阈值处理所得到的特征图,f(LB)是卷积神经网络stream B提取特征并经过阈值处理所得到的特征图,F是f(LA)和f(LB)特征融合后得到的特征图。
贡献度公式为:
Ffinal=δ×F+μ×F
式中,F是高贡献率区域经过特征融合后得到的特征图,F是低贡献度区域经过特征融合后得到的特征图,Ffinal是经过贡献度机制计算后得到的最终分类结果。
步骤5:每一轮训练结束之后,都要在验证集上验证训练参数,之后保存训练参数。
步骤6:训练结束,选择在训练中分类精度最高的模型载入网络,使用测试集测试分类精度。已训练完的模型中包含了八种蛇类的数据特征,从测试集中随机抽取一组图片,送入网络模型中,首先提取图像特征,区分高贡献度区域和低贡献度区域,然后分别进行特征融合,融合后送入全连接神经网络,全连接神经网络通过softmax函数计算出该图像分别属于八种蛇类的概率,选择最大概率的蛇类,输出蛇的种类。
综上所述,本发明在双线性神经网络中引入Grad-CAM注意力模块和贡献度机制的基于细粒度图像分类的快速识别方法,能够在被蛇类咬伤后,依据网络图片快速识别出蛇的种类,能够有效的缩短医生的诊疗时间,提高患者的生存率。

Claims (6)

1.一种基于细粒度图像分类的快速识别方法,其特征在于:包括以下步骤:
步骤1,从网络爬取目标图片,制作数据集,并按比例划分为训练集、验证集和测试集;
步骤2,在原双线性神经网络中加入Grad-CAM注意力模块和贡献度模块,得到改进后的双线性神经网络;
步骤3,打乱训练集,并每次从中随机抽取相同数量的图片,然后输入改进后的双线性神经网络;
步骤4,开始训练参数,框定高贡献区域并裁剪,进行特征融合,通过贡献度模块计算分类结果;
步骤5,在验证集上验证分类精度,保存训练参数;
步骤6,训练结束,选择在训练中分类精度最高的模型载入改进后的双线性神经网络,使用测试集测试分类精度。
2.根据权利要求1所述的一种基于细粒度图像分类的快速识别方法,其特征在于:在步骤2中,特征提取器采用VGG-16神经网络,输出一个14×14×512的特征图,该特征图的激活值和反向传播梯度信息中包含了特征图每一个位置对于分类结果的贡献度,由此可得出贡献度权重
Figure FDA0003368355520000011
其公式如下:
Figure FDA0003368355520000012
式中,gc是该特征图关于标签类别c的反向传播梯度值,
Figure FDA0003368355520000013
是位置(i,j)处特征图的激活值,m是特征图像素点的个数,Z是权重累加次数,
Figure FDA0003368355520000014
是偏导数;
得到贡献度权重
Figure FDA0003368355520000015
之后,与特征图进行加权相乘,使其线性表示,然后通过ReLU层,得到关于标签类别c贡献度图Lc,其公式如下:
Figure FDA0003368355520000021
式中,Mm是具有所有像素点的特征图激活值;
得到贡献度图之后,需要通过阈值框定贡献度高的区域,然后依照阈值框裁剪特征图,分离高贡献度区域和低贡献度区域,其公式为:
Figure FDA0003368355520000022
式中,f(L)是经过阈值处理后的特征图,IOU是临界阈值。
3.根据权利要求1所述的一种基于细粒度图像分类的快速识别方法,其特征在于:在步骤3中,为了防止训练过程中出现过拟合现象,在每一轮训练时都要将图片的训练顺序打乱,并从训练集中抽取相同数量的图片,送进改进后的双线性神经网络进行训练。
4.根据权利要求1所述的一种基于细粒度图像分类的快速识别方法,其特征在于:在步骤4中,开始训练参数,框定高贡献区域并裁剪,高贡献度区域和低贡献度区域分别进行双线性特征融合,然后将高贡献度特征融合结果和低贡献度特征融合结果分别送入全连接层分类网络,最后将两个数据同时送入贡献度模块,计算最终分类结果;
特征融合公式为:
F=f(LA)Tf(LB)
式中,f(LA)是卷积神经网络stream A提取特征并经过阈值处理所得到的特征图,f(LB)是卷积神经网络stream B提取特征并经过阈值处理所得到的特征图,F是f(LA)和f(LB)特征融合后得到的特征图;
贡献度公式为:
Ffinal=δ×F+μ×F
式中,F是高贡献率区域经过特征融合后得到的特征图,F是低贡献度区域经过特征融合后得到的特征图,Ffinal是经过贡献度机制计算后得到的最终分类结果。
5.根据权利要求1所述的一种基于细粒度图像分类的快速识别方法,其特征在于:在步骤5中,每一轮训练结束之后,都要在验证集上验证训练参数,之后保存训练参数。
6.根据权利要求1所述的一种基于细粒度图像分类的快速识别方法,其特征在于:在步骤6中,已训练完的模型中包含了目标图片的数据特征,从测试集中随机抽取一组图片,送入网络模型中,首先提取图像特征,区分高贡献度区域和低贡献度区域,然后分别进行特征融合,融合后送入全连接神经网络,全连接神经网络通过softmax函数计算出该图像分别属于目标图片的概率,选择最大概率的目标,输出目标的种类。
CN202111390166.5A 2021-11-23 2021-11-23 一种基于细粒度图像分类的快速识别方法 Active CN114067316B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202111390166.5A CN114067316B (zh) 2021-11-23 2021-11-23 一种基于细粒度图像分类的快速识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202111390166.5A CN114067316B (zh) 2021-11-23 2021-11-23 一种基于细粒度图像分类的快速识别方法

Publications (2)

Publication Number Publication Date
CN114067316A true CN114067316A (zh) 2022-02-18
CN114067316B CN114067316B (zh) 2024-05-03

Family

ID=80279065

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202111390166.5A Active CN114067316B (zh) 2021-11-23 2021-11-23 一种基于细粒度图像分类的快速识别方法

Country Status (1)

Country Link
CN (1) CN114067316B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169959A (ja) * 2017-03-30 2018-11-01 株式会社Jsol 多層ニューラルネットワーク(ディープラーニング)の性能向上のための高寄与度項目の抽出システム、抽出方法及び抽出プログラム
CN109086792A (zh) * 2018-06-26 2018-12-25 上海理工大学 基于检测和识别网络架构的细粒度图像分类方法
CN110009679A (zh) * 2019-02-28 2019-07-12 江南大学 一种基于多尺度特征卷积神经网络的目标定位方法
CN111797779A (zh) * 2020-07-08 2020-10-20 兰州交通大学 基于区域注意力多尺度特征融合的遥感图像语义分割方法
CN112861970A (zh) * 2021-02-09 2021-05-28 哈尔滨工程大学 一种基于特征融合的细粒度图像分类方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018169959A (ja) * 2017-03-30 2018-11-01 株式会社Jsol 多層ニューラルネットワーク(ディープラーニング)の性能向上のための高寄与度項目の抽出システム、抽出方法及び抽出プログラム
CN109086792A (zh) * 2018-06-26 2018-12-25 上海理工大学 基于检测和识别网络架构的细粒度图像分类方法
CN110009679A (zh) * 2019-02-28 2019-07-12 江南大学 一种基于多尺度特征卷积神经网络的目标定位方法
CN111797779A (zh) * 2020-07-08 2020-10-20 兰州交通大学 基于区域注意力多尺度特征融合的遥感图像语义分割方法
CN112861970A (zh) * 2021-02-09 2021-05-28 哈尔滨工程大学 一种基于特征融合的细粒度图像分类方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
李国强;张露;: "全卷积多并联残差神经网络", 小型微型计算机系统, no. 01, 15 January 2020 (2020-01-15) *
邓绍伟;张伯泉: "基于Grad-CAM与B-CNN的细粒度图像分类方法研究", 计算机科学与应用, no. 005, 31 December 2020 (2020-12-31) *

Also Published As

Publication number Publication date
CN114067316B (zh) 2024-05-03

Similar Documents

Publication Publication Date Title
CN109272048B (zh) 一种基于深度卷积神经网络的模式识别方法
CN109345538B (zh) 一种基于卷积神经网络的视网膜血管分割方法
CN110097554B (zh) 基于密集卷积和深度可分离卷积的视网膜血管分割方法
CN110555368B (zh) 基于三维卷积神经网络的跌倒行为识别方法
CN110889852B (zh) 基于残差-注意力深度神经网络的肝脏分割方法
CN110852316B (zh) 一种采用密集结构卷积网络的图像篡改检测和定位方法
CN104992223B (zh) 基于深度学习的密集人数估计方法
CN108416266B (zh) 一种利用光流提取运动目标的视频行为快速识别方法
CN108256482B (zh) 一种基于卷积神经网络进行分布学习的人脸年龄估计方法
Lakshminarayanan et al. Deep Learning-Based Hookworm Detection in Wireless Capsule Endoscopic Image Using AdaBoost Classifier.
CN111259982A (zh) 一种基于注意力机制的早产儿视网膜图像分类方法和装置
CN108921057B (zh) 基于卷积神经网络的对虾形态测量方法、介质、终端设备及装置
CN108734138B (zh) 一种基于集成学习的黑色素瘤皮肤病图像分类方法
CN113011357A (zh) 基于时空融合的深度伪造人脸视频定位方法
CN112052877B (zh) 一种基于级联增强网络的图片细粒度分类方法
CN109087298B (zh) 一种阿尔兹海默病mri图像分类方法
WO2022127500A1 (zh) 基于多个神经网络的mri图像分割方法、装置及设备
CN114092450B (zh) 一种基于胃镜检查视频的实时图像分割方法、系统、装置
CN112001901A (zh) 基于卷积神经网络的苹果缺陷检测方法及系统
CN109740656A (zh) 一种基于卷积神经网络的矿石分选方法
CN112861718A (zh) 一种轻量级特征融合人群计数方法及系统
CN114549470B (zh) 基于卷积神经网络和多粒度注意力的手骨关键性区域获取方法
CN112749675A (zh) 一种基于卷积神经网络的马铃薯病害识别方法
CN114897884A (zh) 基于多尺度边缘特征融合的无参考屏幕内容图像质量评估方法
CN117218434A (zh) 基于混合神经网络的混凝土结构表面缺陷分类方法与系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant