CN113269209B - 一种图像识别方法、系统、介质及电子设备 - Google Patents
一种图像识别方法、系统、介质及电子设备 Download PDFInfo
- Publication number
- CN113269209B CN113269209B CN202110741817.4A CN202110741817A CN113269209B CN 113269209 B CN113269209 B CN 113269209B CN 202110741817 A CN202110741817 A CN 202110741817A CN 113269209 B CN113269209 B CN 113269209B
- Authority
- CN
- China
- Prior art keywords
- loss
- characteristic
- image recognition
- feature
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Abstract
本公开提供了一种图像识别方法、系统、介质及电子设备,获取待识别的图像;对获取的图像进行预处理;对预处理后的图像进行特征提取;根据提取的特征和预设卷积神经网络,得到图像识别结果;其中,预设卷积神经网络包括特征增强模块,特征增强模块总损失为区分性损失同多样性损失与第一预设系数乘积的差值,卷积神经网络模型的总损失为特征增强总损失与第二预设系数的乘积再与交叉熵损失的加和;本公开通过设置特征增强模块,使得学习到的特征具有较好的区分性和多样性,提升了细粒度分类的精度。
Description
技术领域
本公开涉及图像处理技术领域,特别涉及一种图像识别方法、系统、介质及电子设备。
背景技术
本部分的陈述仅仅是提供了与本公开相关的背景技术,并不必然构成现有技术。
图像的细粒度分类由于其具有广泛的应用场景已受到越来越多研究者的关注。不同于传统的图像识别任务对大类(例如狗和猫的图像)进行区分,细粒度分类的重点是对大类中的小类(例如泰迪和牧羊犬的图像)进行进一步的细致分类。
传统的图像分类方法大致可以分为基于手工设计特征的方法和基于深度学习的方法。对于早期的基于手工设计特征的方法,由于特征的表述能力有限,导致分类效果难以令人满意。相比较传统的手工设计特征的方法,深度神经网路具有强大的特征学习能力,已成为图像识别的主流方法。然而目前的细粒度分类任务对于深度学习模型仍具有一定的挑战性。在细粒度分类任务中,图像具有更加相似的外观和特征,加之采集中存在姿态、视角、光照、遮挡、背景干扰等影响,导致数据呈现类间差异性大、类内差异性小的现象,从而增加了分类任务的难度。
发明人发现,现有的深度学习方法在提取特征时,大多聚焦于学习更好的目标表示,忽略了目标之间区分性信息的学习,降低了细粒度分类的精度;另外,学习多样性的特征有利于获取互补信息进一步提升分类精度,现有方法忽略了这一点,限制了分类性能的提升。
发明内容
为了解决现有技术的不足,本公开提供了一种图像识别方法、系统、介质及电子设备,通过设置特征增强模块,使得学习到的特征具有较好的区分性和多样性,提升了细粒度分类的精度。
为了实现上述目的,本公开采用如下技术方案:
本公开第一方面提供了一种图像识别方法。
一种图像识别方法,包括以下过程:
获取待识别的图像;
对获取的图像进行预处理;
对预处理后的图像进行特征提取;
根据提取的特征和预设卷积神经网络,得到图像识别结果;
其中,预设卷积神经网络包括特征增强模块,特征增强模块总损失为区分性损失同多样性损失与第一预设系数乘积的差值,卷积神经网络模型的总损失为特征增强总损失与第二预设系数的乘积再与交叉熵损失的加和。
进一步的,根据提取到的特征得到特征图,计算特征图得分最大值所对应类别为预测类别,根据预测类别与真实标签类别进行交叉熵损失计算。
进一步的,区分性损失的获取,包括:
根据提取到的特征得到特征图,将特征图输入到区分性损失函数中,首先进入到se-attention中来获得让神经网络重点关注对当前任务有用的特征通道,然后分别进入到全局最大池化与全局平均池化后,得到不同类的特征值,任两个类之间取差值的平方,得到区分性损失。
更进一步的,将经过se-attention得到的结果进行全局平均池化,获取每个通道中的特征值的均值;将经过se-attention得到的结果进行全局最大池化,得到每个通道中特征值最大的明显的特征;
将经过全局最大池化与全局平均池化获得的结果作为特征,计算任两个不同类的特征值的最小二乘,得到区分性损失。
进一步的,多样性损失的获取,包括:
根据提取到的特征得到m个类的特征图,将特征图输入到多样性损失函数中,在多样性损失函数中为每个类分配n个通道,计算其softmax值;
根据softamx值选择出满足特征值大于预设阈值的区域作为此类中第i个通道关注力大的那部分特征区域以及该区域的坐标;
根据坐标得到此类中剩余n-1个通道中相同的特征区域的softmax值,根据得到的各个特征区域的softmax值计算得到多样性损失。
更进一步的,对得到的特征图进行归一化,找到特征图的值大于预设阈值的特征点,获得的特征点组成的区域即为该通道的注意力特征;
基于同一类中的所有通道,计算多样性损失,计算每个通道中的注意力特征与其他通道对应区域特征值的最小二乘,得到多样性损失。
进一步的,对预处理后的图像进行特征提取,包括:
将预处理后的图像输入预设神经网络,经过卷积层后再使用激活函数增加非线性,然后进入池化层,得到提取后的特征。
本公开第二方面提供了一种图像识别系统。
一种图像识别系统,包括:
数据获取模块,被配置为:获取待识别的图像;
预处理模块,被配置为:对获取的图像进行预处理;
特征提取模块,被配置为:对预处理后的图像进行特征提取;
图像识别模块,被配置为:根据提取的特征和预设卷积神经网络,得到图像识别结果;
其中,预设卷积神经网络包括特征增强模块,特征增强模块总损失为区分性损失同多样性损失与第一预设系数乘积的差值,卷积神经网络模型的总损失为特征增强总损失与第二预设系数的乘积再与交叉熵损失的加和。
本公开第三方面提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本公开第一方面所述的图像识别方法中的步骤。
本公开第四方面提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开第一方面所述的图像识别方法中的步骤。
与现有技术相比,本公开的有益效果是:
1、本公开所述的方法、系统、介质或电子设备,提出了可用于任何网络的特征增强模块,可应用于各种分类网络模型,实用性和使用性相较于原来普通的网络模型有较大的提高,且对比相较于原来普通的网络模型,提高了细粒度图像分类效果。
2、本公开所述的方法、系统、介质或电子设备,无需过于复杂的网络结构和复杂的训练机制,通过引入特征增强模块即可学习更有效的特征。区分性特征学习使得各类别的每个channel学习得到的特征足够有能力进行类别区分性;多样性特征学习让模型对于数据的所有类别,不同的channels都关注到了图像的不同区域,学习多样性的特征,提升了特征的鲁棒性。
附图说明
构成本公开的一部分的说明书附图用来提供对本公开的进一步理解,本公开的示意性实施例及其说明用于解释本公开,并不构成对本公开的不当限定。
图1为本公开实施例1提供的图像识别方法的流程示意图。
图2为本公开实施例1提供的神经网络模型的训练示意图。
具体实施方式
下面结合附图与实施例对本公开作进一步说明。
应该指出,以下详细说明都是例示性的,旨在对本公开提供进一步的说明。除非另有指明,本文使用的所有技术和科学术语具有与本公开所属技术领域的普通技术人员通常理解的相同含义。
需要注意的是,这里所使用的术语仅是为了描述具体实施方式,而非意图限制根据本公开的示例性实施方式。如在这里所使用的,除非上下文另外明确指出,否则单数形式也意图包括复数形式,此外,还应当理解的是,当在本说明书中使用术语“包含”和/或“包括”时,其指明存在特征、步骤、操作、器件、组件和/或它们的组合。
在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。
实施例1:
如图1和2所示,本公开实施例1提供了一种图像识别方法,包括以下过程:
获取待识别的图像;
对获取的图像进行预处理;
对预处理后的图像进行特征提取;
根据提取的特征和预设卷积神经网络,得到图像识别结果。
卷积神经网络的训练,包括:
S1:数据集预处理
数据集主要是自然图像的数据,所以要对这些数据进行脱敏操作,且原始数据样本中可能存在图像尺寸不一致情况,不利于深度网络模型进行学习,因此需要对现有数据集进行尺度变换为统一大小。最后将部分图片数据水平翻转,随机将每个文件夹内的数据均匀分成10份,组合为10个训练集和测试集。
S2:将数据集放入网络
将数据放入网络(VGG、resnet18、resnet50等)后首先经过卷积层后再使用激活函数增加非线性,然后进入池化层,来进行特征提取。如此重复直至最终获取特征图。
S3:计算交叉熵损失
将经过分类模型获得的特征图,计算其得分最大值所对应类别为预测类别cl,将预测类别cl与真实标签类别yl进行交叉熵损失计算:
S4:计算区分性损失
将经过分类模型获得的特征图进入区分性损失函数。在区分性损失函数中首先进入到se-attention中来获得让神经网络重点关注对当前任务有用的特征通道,然后分别进入到GMP与GAP后,可以得到不同类的特征值:f1,...,fi,fi+1,...,f2i(i为类别数),任两个类之间取差值的平方,计算得到区分性损失(图2中过程a):
SE-attention,具体为:将特征图输入se-attention中,其中的“Squeeze-Excitation”的组件可以学习得到一组权重,特征明显的通道所赋予到的权重值就大,反之就很小,这使得重要特征得到加强,非重要特征得到弱化。
GAP,具体为:将经过se-attention得到的结果进行全局平均池化(GAP),获取每个通道中的特征值的均值,有效的避免过拟合的发生;
GMP,具体为:将经过se-attention得到的结果进行全局最大池化(GMP),得到每个通道中特征值最大的明显的特征。
S5:计算多样性损失
将经过分类模型获得m个类的特征图进入多样性损失函数。在多样性损失函数中为每个类分配n个通道,首先计算其softmax值,根据softamx值使用numpy中where函数选择出满足fi>T的区域作为此类中第i个通道关注力大的那部分特征区域以及该区域的坐标。根据坐标得到此类中剩余n-1个通道中相同的特征区域的softmax值f1,f2,...,fi-1,fi+1,...,fn,计算得到多样性损失:
Softmax,具体为:将一个含任意实数的4维向量的特征图,“压缩”到另一个4维实向量中,使得每一个元素的范围都在0,1之间,并且所有元素的和为1。
S6:计算特征增强总损失
以多次实验调参得出的参数γ作为多样性损失函数的系数,将区分性损失减掉多样性损失,计算得到特征增强总损失(图2中过程b):
Lossmc=Lossdis-γLossdiv
S7:计算网络模型损失
特征增强总损失与传统的交叉熵损失函数以多次实验调参得出的一个参数μ作为特征增强总损失函数的系数,然后将其结果与交叉熵损失相加计算得到网络模型的总损失(图2中过程c):
Loss=Lossce+μLossmc
S8:网络训练
将交叉熵损失和特征增强总损失加权和作为总损失,不断进行训练,直到训练轮次达到设定值。
将交叉熵损失Lossce和特征增强总损失Lossmc加权和作为总损失:
Loss=Lossce+μLossmc
其中,μ是超参数。
不断进行训练,使得Loss呈现下降趋势,直到训练轮次达到设定值或者Loss呈现平稳趋势,保存其损失值得网络模型。
如图1所示,特征向量提取利用S2中所述网络模型后提取特征得到特征图,然后进入损失函数计算损失,根据损失函数来反向传播调节网络参数,使网络达到最佳的状态。
用户输入待测试图像数据进入分类系统,分类系统内部自动进行特征向量提取、计算损失函数和计算预测类别三个过程,后输出预测类别与用户经行交互。
实施例2:
本公开实施例2提供了一种图像识别系统,包括:
数据获取模块,被配置为:获取待识别的图像;
预处理模块,被配置为:对获取的图像进行预处理;
特征提取模块,被配置为:对预处理后的图像进行特征提取;
图像识别模块,被配置为:根据提取的特征和预设卷积神经网络,得到图像识别结果;
其中,预设卷积神经网络包括特征增强模块,特征增强模块总损失为区分性损失同多样性损失与第一预设系数乘积的差值,卷积神经网络模型的总损失为特征增强总损失与第二预设系数的乘积再与交叉熵损失的加和。
所述系统的工作方法与实施例1提供的图像识别方法相同,这里不再赘述。
实施例3:
本公开实施例3提供了一种计算机可读存储介质,其上存储有程序,该程序被处理器执行时实现如本公开实施例1所述的图像识别方法中的步骤。
实施例4:
本公开实施例4提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,所述处理器执行所述程序时实现如本公开实施例1所述的图像识别方法中的步骤。
本领域内的技术人员应明白,本公开的实施例可提供为方法、系统、或计算机程序产品。因此,本公开可采用硬件实施例、软件实施例、或结合软件和硬件方面的实施例的形式。而且,本公开可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器和光学存储器等)上实施的计算机程序产品的形式。
本公开是参照根据本公开实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(RandomAccessMemory,RAM)等。
以上所述仅为本公开的优选实施例而已,并不用于限制本公开,对于本领域的技术人员来说,本公开可以有各种更改和变化。凡在本公开的精神和原则之内,所作的任何修改、等同替换、改进等,均应包含在本公开的保护范围之内。
Claims (9)
1.一种图像识别方法,其特征在于:包括以下过程:
获取待识别的图像;
对获取的图像进行预处理;
对预处理后的图像进行特征提取;
根据提取的特征和预设卷积神经网络,得到图像识别结果;
其中,预设卷积神经网络包括特征增强模块,特征增强模块总损失为区分性损失同多样性损失与第一预设系数乘积的差值,卷积神经网络模型的总损失为特征增强总损失与第二预设系数的乘积再与交叉熵损失的加和;
区分性损失的获取,包括:
根据提取到的特征得到特征图,将特征图输入到区分性损失函数中,首先进入到se-attention中来获得让神经网络重点关注对当前任务有用的特征通道,然后分别进入到全局最大池化与全局平均池化后,得到不同类的特征值,任两个类之间取差值的平方,得到区分性损失。
2.如权利要求1所述的图像识别方法,其特征在于:
根据提取到的特征得到特征图,计算特征图得分最大值所对应类别为预测类别,根据预测类别与真实标签类别进行交叉熵损失计算。
3.如权利要求1所述的图像识别方法,其特征在于:
将经过se-attention得到的结果进行全局平均池化,获取每个通道中的特征值的均值;将经过se-attention得到的结果进行全局最大池化,得到每个通道中特征值最大的明显的特征;
将经过全局最大池化与全局平均池化获得的结果作为特征,计算任两个不同类的特征值的最小二乘,得到区分性损失。
4.如权利要求1所述的图像识别方法,其特征在于:
多样性损失的获取,包括:
根据提取到的特征得到m个类的特征图,将特征图输入到多样性损失函数中,在多样性损失函数中为每个类分配n个通道,计算其softmax值;
根据softamx值选择出满足特征值大于预设阈值的区域作为此类中第i个通道关注力大的那部分特征区域以及该区域的坐标;
根据坐标得到此类中剩余n-1个通道中相同的特征区域的softmax值,根据得到的各个特征区域的softmax值计算得到多样性损失。
5.如权利要求4所述的图像识别方法,其特征在于:
对得到的特征图进行归一化,找到特征图的值大于预设阈值的特征点,获得的特征点组成的区域即为该通道的注意力特征;
基于同一类中的所有通道,计算多样性损失,计算每个通道中的注意力特征与其他通道对应区域特征值的最小二乘,得到多样性损失。
6.如权利要求1所述的图像识别方法,其特征在于:
对预处理后的图像进行特征提取,包括:
将预处理后的图像输入预设神经网络,经过卷积层后再使用激活函数增加非线性,然后进入池化层,得到提取后的特征。
7.一种图像识别系统,其特征在于:包括:
数据获取模块,被配置为:获取待识别的图像;
预处理模块,被配置为:对获取的图像进行预处理;
特征提取模块,被配置为:对预处理后的图像进行特征提取;
图像识别模块,被配置为:根据提取的特征和预设卷积神经网络,得到图像识别结果;
其中,预设卷积神经网络包括特征增强模块,特征增强模块总损失为区分性损失同多样性损失与第一预设系数乘积的差值,卷积神经网络模型的总损失为特征增强总损失与第二预设系数的乘积再与交叉熵损失的加和;
区分性损失的获取,包括:
根据提取到的特征得到特征图,将特征图输入到区分性损失函数中,首先进入到se-attention中来获得让神经网络重点关注对当前任务有用的特征通道,然后分别进入到全局最大池化与全局平均池化后,得到不同类的特征值,任两个类之间取差值的平方,得到区分性损失。
8.一种计算机可读存储介质,其上存储有程序,其特征在于,该程序被处理器执行时实现如权利要求1-6任一项所述的图像识别方法中的步骤。
9.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-6任一项所述的图像识别方法中的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110741817.4A CN113269209B (zh) | 2021-06-30 | 2021-06-30 | 一种图像识别方法、系统、介质及电子设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110741817.4A CN113269209B (zh) | 2021-06-30 | 2021-06-30 | 一种图像识别方法、系统、介质及电子设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113269209A CN113269209A (zh) | 2021-08-17 |
CN113269209B true CN113269209B (zh) | 2022-06-07 |
Family
ID=77236390
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110741817.4A Active CN113269209B (zh) | 2021-06-30 | 2021-06-30 | 一种图像识别方法、系统、介质及电子设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113269209B (zh) |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679465A (zh) * | 2017-09-20 | 2018-02-09 | 上海交通大学 | 一种基于生成网络的行人重识别数据生成和扩充方法 |
CN110197202A (zh) * | 2019-04-30 | 2019-09-03 | 杰创智能科技股份有限公司 | 一种局部特征细粒度目标检测算法 |
CN112006654A (zh) * | 2020-07-16 | 2020-12-01 | 中国科学技术大学 | 基于卷积神经网络和多重注意力机制的骨骼年龄评估方法 |
CN112465790A (zh) * | 2020-12-03 | 2021-03-09 | 天津大学 | 基于多尺度卷积和三线性全局注意力的表面缺陷检测方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10192321B2 (en) * | 2017-01-18 | 2019-01-29 | Adobe Inc. | Multi-style texture synthesis |
CN107767408B (zh) * | 2017-11-09 | 2021-03-12 | 京东方科技集团股份有限公司 | 图像处理方法、处理装置和处理设备 |
CN112215239A (zh) * | 2020-09-15 | 2021-01-12 | 浙江工业大学 | 一种视网膜病变细粒度分级方法及装置 |
CN112651438A (zh) * | 2020-12-24 | 2021-04-13 | 世纪龙信息网络有限责任公司 | 多类别图像的分类方法、装置、终端设备和存储介质 |
-
2021
- 2021-06-30 CN CN202110741817.4A patent/CN113269209B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107679465A (zh) * | 2017-09-20 | 2018-02-09 | 上海交通大学 | 一种基于生成网络的行人重识别数据生成和扩充方法 |
CN110197202A (zh) * | 2019-04-30 | 2019-09-03 | 杰创智能科技股份有限公司 | 一种局部特征细粒度目标检测算法 |
CN112006654A (zh) * | 2020-07-16 | 2020-12-01 | 中国科学技术大学 | 基于卷积神经网络和多重注意力机制的骨骼年龄评估方法 |
CN112465790A (zh) * | 2020-12-03 | 2021-03-09 | 天津大学 | 基于多尺度卷积和三线性全局注意力的表面缺陷检测方法 |
Non-Patent Citations (3)
Title |
---|
Beyond the Attention: Distinguish the Discriminative and Confusable Features For Fine-grained Image Classification;Xiruo Shi等;《Oral Session C2: Media Interpretation》;20201016;第601-609页 * |
Learning multi-attention convolutional neural network for fine-grained image recognition;Heliang Zheng等;《In proceeding of IEEE ICCV》;20171231;第5209-5217页 * |
The Devil is in the Channels: Mutual-Channel Loss for Fine-Grained Image Classification;Dongliang Chang等;《IEEE Transactions on Image Processing》;20200220;第29卷;第4683-4695页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113269209A (zh) | 2021-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108615010B (zh) | 基于平行卷积神经网络特征图融合的人脸表情识别方法 | |
CN108664924B (zh) | 一种基于卷积神经网络的多标签物体识别方法 | |
Trnovszky et al. | Animal recognition system based on convolutional neural network | |
CN106228185B (zh) | 一种基于神经网络的通用图像分类识别系统及方法 | |
CN111160269A (zh) | 一种人脸关键点检测方法及装置 | |
CN105138993A (zh) | 建立人脸识别模型的方法及装置 | |
CN111860171B (zh) | 一种大规模遥感图像中不规则形状目标的检测方法及系统 | |
CN106503727B (zh) | 一种高光谱图像分类的方法及装置 | |
Mathur et al. | Crosspooled FishNet: transfer learning based fish species classification model | |
Chuang et al. | Deep-learning based joint iris and sclera recognition with yolo network for identity identification | |
CN111339935B (zh) | 一种基于可解释cnn图像分类模型的光学遥感图片分类方法 | |
CN106295591A (zh) | 基于人脸图像的性别识别方法及装置 | |
CN110175615B (zh) | 模型训练方法、域自适应的视觉位置识别方法及装置 | |
CN107451614A (zh) | 基于空间坐标与空谱特征融合的高光谱分类方法 | |
CN109117897A (zh) | 基于卷积神经网络的图像处理方法、装置及可读存储介质 | |
CN105069774B (zh) | 基于多示例学习与图割优化的目标分割方法 | |
CN101763507A (zh) | 人脸识别方法及人脸识别系统 | |
CN104537647A (zh) | 一种目标检测方法及装置 | |
CN103400105A (zh) | 基于姿态归一化的非正面人脸表情识别方法 | |
CN110929836B (zh) | 神经网络训练及图像处理方法和装置、电子设备、介质 | |
CN113761259A (zh) | 一种图像处理方法、装置以及计算机设备 | |
CN112381142A (zh) | 基于重要特征的具有可解释性对抗样本生成方法及系统 | |
CN116229319A (zh) | 多尺度特征融合课堂行为检测方法与系统 | |
CN104978569A (zh) | 一种基于稀疏表示的增量人脸识别方法 | |
CN102254166A (zh) | 一种人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |