CN113269224A - 一种场景图像分类方法、系统及存储介质 - Google Patents

一种场景图像分类方法、系统及存储介质 Download PDF

Info

Publication number
CN113269224A
CN113269224A CN202110311736.0A CN202110311736A CN113269224A CN 113269224 A CN113269224 A CN 113269224A CN 202110311736 A CN202110311736 A CN 202110311736A CN 113269224 A CN113269224 A CN 113269224A
Authority
CN
China
Prior art keywords
training
local
network model
scene
scene image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110311736.0A
Other languages
English (en)
Other versions
CN113269224B (zh
Inventor
许勇
黎枫
全宇晖
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
South China University of Technology SCUT
Original Assignee
South China University of Technology SCUT
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by South China University of Technology SCUT filed Critical South China University of Technology SCUT
Priority to CN202110311736.0A priority Critical patent/CN113269224B/zh
Publication of CN113269224A publication Critical patent/CN113269224A/zh
Application granted granted Critical
Publication of CN113269224B publication Critical patent/CN113269224B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/048Activation functions
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Abstract

本发明公开了一种场景图像分类方法、系统及存储介质,包括获取训练和测试的场景图像,并对其进行类别划分,获得相应类别标签数据库;将场景图像数据库划分为训练集和测试集,进行预处理后作为网络模型的输入;训练局部分形统计描述网络模型,保存训练完成的网络参数,所述局部分形统计描述网络模型包括基于ResNet预训练模型的特征提取器和局部分形密度图估计分支、全局池化分支、全连接层分类器;将保存好的网络模型加载,进行验证和测试。本发明相对于其他深度学习方法,引入局部密度估计模块,能够更好的处理多种光照变化,在真实场景下分类准确率更高。

Description

一种场景图像分类方法、系统及存储介质
技术领域
本发明涉及数字图像分类,具体涉及一种场景图像分类方法、系统及存储介质。
背景技术
场景图像分类是图像分类任务中一种常见的经典任务,旨在教会算法模型能够通过局部特征描述以及构成分析等基础特征描述手段达到认知和理解图像中高层语义的目的。场景图像数据的典型特征:(1)类内差距大。场景图像,如街景等,往往在不同环境条件下以不同方式从不同视角拍摄同一个对象,因此会造成同一个街景具备多种不同的视觉呈现。(2)场景类间相似性,如街景中的路口景象与公园中的步行街路口场景具备较高的相似性。(3)富含场景纹理。不难想象到,场景图像往往具备较高相似度的场景元素,如街景中的路口场景,相同路口往往对应相同的路面纹理、建筑纹理及其他以固定形式出现在路口的物体等。
与大多数图像分类任务一致,场景图像分类模型往往通过有监督学习的方式在给定一组训练图像数据集及其相应的语义标签的基础下,通过反向传播训练得到,并最终在模型部署后只需进行前向推理,即可快速预测输入图像的所属类别。场景图像分类是图像检索、目标识别等任务的基础。在深度学习进入白热化的时代,场景图像分类驱动下诞生了大量奠基性工作,如VGGNet、GoogleNet、 ResNet及其变种等。近年以来,随着深度学习的不断深入影响,亦催生了大量基于传统模式识别任务中有效的局部特征描述子或全局空间分布统计描述方法的深度学习场景分类方法,如基于局部聚合描述子向量(Vector ofLocally Aggregated Descriptors,VLAD)的NetVLAD等。但在已有的方法中,自然场景图像中富含大量局部纹理这一特性并没有被很充分的挖掘。
发明内容
为了克服现有技术存在的缺点与不足,本发明提供一种场景图像分类方法、系统及存储介质,本发明是一种利用场景图像富含局部纹理及局部统计自相似这一特性的场景图像分类方法——深度局部密度统计描述网络,实现其基于数据集可以端到端完成模型训练并有效提高模型的分类准确率及鲁棒性。
本发明采用如下技术方案:
一种场景图像分类方法,包括:
获取训练和测试的场景图像,并对其进行类别划分,获得相应类别标签数据库;
将场景图像数据库划分为训练集和测试集,进行预处理后作为网络模型的输入;
训练局部分形统计描述网络模型,保存训练完成的网络参数,所述局部分形统计描述网络模型包括基于ResNet预训练模型的特征提取器和局部分形密度图估计分支、全局池化分支、全连接层分类器;
将保存好的网络模型加载,进行验证和测试。
进一步,所述训练局部分形统计描述网络模型,保存训练完成的网络参数,具体包括如下:
基于ResNet预训练模型的特征提取器提取输入图像的特征图;
局部分形密度图估计分支将特征图压缩成三通道并上采样为原图的2倍,然后对三通道逐一进行局部分形密度图估计模块与直方图统计描述,得到48维的局部密度统计描述向量;
全局池化分支将特征图进行全局平均池化,并通过全连接层将输出向量维度压缩到48;
采用双线性池化对局部分形密度图估计分支及全局池化分支得到的向量进行耦合得到预测向量的类别概率;
将预测向量真实类别所对应的独热编码向量进行对比,计算交叉熵损失函数,通过多次迭代,得到训练后的局部分形统计描述网络模型。
进一步,所述局部分形密度图估计模块的实现过程,具体为:
在通过多尺度卷积层及最小二乘拟合估计每个特征图像像素点密度的过程。
进一步,所述直方图统计描述具体为:将场景图像的不同构成结构通过直方图分片的方式划分至不同的特征图中,并求和计算各分片的统计值。
进一步,数据预处理包括,对每组图像进行大小调整,裁剪为224*224的尺寸,并以50%的概率随机水平翻转并进行归一化处理。
进一步,
具体是选定一组核大小为rz的最大池化层,其中rz∈ {r1,r2,r3,...,rz,...,rZ|r1<r2<…<rZ,rZ<min{W,H}},取rz∈{1,2,3,4,5},核大小为rz×rz的卷积核记为
Figure RE-GDA0003135274320000031
对于每一张输入特征图X,分别经过一组不同尺度大小的卷积运算,同时通过padding的方式使得每组卷积运算输出的结果都与输入特征图尺寸相等,具体计算如下式:
Figure RE-GDA0003135274320000032
得到
Figure RE-GDA0003135274320000033
对输出的特征图相同位置的像素值取对数,即为
Figure RE-GDA0003135274320000034
Figure RE-GDA0003135274320000035
Figure RE-GDA0003135274320000036
进行最小二乘拟合:
Figure RE-GDA0003135274320000037
求得其斜率即为所估计出的该像素点的局部分形密度估计值,最终得到输入该特征图对应的局部分形密度估计图D。
进一步,所述交叉熵损失函数为:
Figure RE-GDA0003135274320000038
其中
Figure RE-GDA0003135274320000039
一种场景图像分类系统,包括:
数据采集模块,获取训练和测试的场景图像,并对其进行类别划分,获得相应类别标签数据库;
预处理模块,用于对场景图像数据库进行划分,并预处理后作为网络模型的输入;
构建训练网络模型模块,训练局部分形统计描述网络模型,保存训练完成的网络参数,所述局部部分分形统计描述网络模型包括基于ResNet预训练模型的特征提取器和局部分形密度图估计分支、全局池化分支、全连接层分类器;
验证测试模块,用于对训练好的网络模型进行验证测试。
一种存储介质,其上存储有计算机指令,所述计算机指令被处理器执行时,实现所述的检场景图像分类方法。
本发明的有益效果;
(1)本发明针对真实场景图像分类,提出一种利用场景图像局部纹理统计自相似性的深度局部密度统计描述网络,该方法能够预测诸如医学影像的病灶区域、场景图像、地质材料图像、遥感图像等富含纹理的场景图像,适用于实际场景。
(2)本发明提出的深度局部密度统计描述网络能够有效描述场景图像的局部统计自相似性,并将其与常见的分类网络的分支进行耦合,实现端到端的嵌入网络进行训练学习。该发明可以充分运用数据集的知识来自动学习确定局部密度估计过程以及直方图统计描述过程中所需要的超参数,该方法可以即插即学的嵌入其他未考虑局部统计自相似性的图像识别网络中,提升其效果。
(3)本发明相对于其他深度学习方法,引入局部密度估计模块,能够更好的处理多种光照变化,在真实场景下分类准确率更高。
附图说明
图1为本发明的整体流程图。
图2为深度局部密度统计描述网络结构图。
图3为本发明设计的局部密度统计描述分支结构图。
图4为本发明局部密度统计描述分支的局部密度估计模块结构图。
具体实施方式
下面结合实施例及附图,对本发明作进一步地详细说明,但本发明的实施方式不限于此。
实施例1
如图1所示,一种基于深度局部密度统计描述网络的场景图像分类方法,包括如下步骤:
S1数据准备,获得用于训练和测试的场景图像及类别标签数据库;
进一步,选择下载在真实场景下采集的场景图像数据集并标注好类别,该数据集由数码相机拍摄采集。
S2训练数据划分及预处理,将场景图像数据库划分为训练集和测试集,并对其进行必要地预处理,作为网络输入。
进一步,将场景图像划分为训练集和测试集,取图像及其对应的类别标签为一组;对每组图像进行大小调整,裁剪为224*224的尺寸,并以50%的概率随机水平翻转并进行归一化处理,最后将图像像素值归一化到[0,1],才输入网络进行计算。
S3构建网络结构及训练,具体为:
如图2所示,搭建网络结构图,该网络模型由四部分组成,分别为基于ResNet 预训练模型的特征提取器和局部密度图估计分支、全局池化分支、全连接层分类器。其中,局部密度统计描述分支将ResNet预训练模型的特征提取器部分的输出特征图压缩成三通道并上采样为原图的2倍,而后对三通道逐一进行局部密度图估计模块与直方图统计描述。全局池化分支将特征图进行全局平均池化,并通过全连接层将输出向量维度压缩到48。
进一步,基于ResNet预训练模型的特征提取器(以ResNet18为例)包括:
卷积层1,其卷积核大小为7*7,卷积核个数为64,步长stride=2,padding=3;批规范化(Batch Normalization)1;ReLU激活函数;最大池化Max Pooling:核大小为3*3,步长stride=2,padding=1,dilation=1;残差模块(Residual Block, RB)1;残差模块RB2;残差模块RB3及残差模块RB4。
特征提取器也可以是其他能实现特征提取的卷积神经网络。
如图3所示,局部密度统计描述分支:包括逆卷积层1:卷积核大小为3*3,卷积核个数为512,步长stride=2;卷积层2:卷积核大小为1*1,卷积核个数为 3。
对于每个通道i,局部密度图估计模块对每个通道进行估计得到每个密度估计特征图i。
直方图统计描述模块i:Histogram Count Vector{HCVi∈R1×16})
连接层:HCV1||HCV2||HCV3。(记||为张量串连符号,下同。)
所述全局平均池化分支包括全局平均池化层及全连接层1,所述全局平均池化层的核大小为:7*7,步长为7;所述全连接层1的输入特征数512及输出特征数48。
全连接分类器,包括双线性池化(Bilinear Pooling,BP)、全连接层2、全连接层3及SoftMax层。所述全连接层2的输入特征数2304,输出特征数128;所述全连接层3的输入特征数128,输出特征为图像类别数。
训练网络模型的过程为:
S3.1激活函数ReLu函数,ReLu函数表达式为:f(x)=max(0,x),非线性激活函数能够增加模型的非线性,加快模型收敛。
S3.2局部分形密度图估计分支将特征图压缩成三通道并上采样为原图的2 倍,然后对三通道逐一进行局部分形密度图估计模块与直方图统计描述,得到48 维的局部密度统计描述向量。
局部密度图估计模块的实现计算过程
局部密度图估计模块如图4所示,旨在通过多尺度卷积层及最小二乘拟合估计每个特征图像素点密度的过程。经过该模块可以完成X∈RW×H→D∈ RW×H的局部密度计算过程。
具体是选定一组核大小为rz的最大池化层,其中rz∈ {r1,r2,r3,...,rz,...,rZ|r1<r2<…<rZ,rZ<min{W,H}}。在本书明说中,为阐述方便我们取rz∈{1,2,3,4,5}。为阐述方便,本说明书将核大小为rz×rz的卷积核记为
Figure RE-GDA0003135274320000061
对于每一张输入特征图X,分别经过一组不同尺度大小的卷积运算,同时通过padding的方式使得每组卷积运算输出的结果都与输入特征图尺寸相等,具体计算如下式:
Figure RE-GDA0003135274320000062
得到
Figure RE-GDA0003135274320000063
进一步,我们对输出的特征图相同位置的像素值取对数,即为
Figure RE-GDA0003135274320000064
我们对
Figure RE-GDA0003135274320000065
进行最小二乘拟合:
Figure RE-GDA0003135274320000066
求得其斜率即为所估计出的该像素点的局部密度估计值,最终得到输入该特征图对应的局部密度估计图D。
直方图统计描述模块的实现计算过程:
直方图统计描述模块旨在模拟直方图统计过程,将场景图像的不同组成结构通过直方图分片的方式划分至不同的特征图中,并求和计算各分片的统计值。在本发明中,我们将局部密度估计图像素点的值域范围划分为K个区间,每个区间设置一个区间中心ck,即{ck∈R,k=1,...,K}。为阐述方便本说明书前述内容以K=16为例,而实际应用中K可根据实际需求具体选定。
因此,对于每一个输入局部密度估计图D,我们计算其对应区间的直方图统计描述向量,对于每一个区间k:
Figure RE-GDA0003135274320000071
即经过直方图统计描述模块完成了局部密度估计图D∈RW×H→H∈R1×K的计算。本发明使用卷积运算实现软化后的直方图统计描述模块。其中
Figure RE-GDA0003135274320000072
Figure RE-GDA0003135274320000073
卷积核大小为1×1,bias1可学习;记P:= D-ck;则
Figure RE-GDA0003135274320000074
W2卷积核可学习,大小为1×1,bias2=0。
S3.3全局池化分支将特征图进行全局平均池化,并通过全连接层将输出向量维度压缩到48。
S3.4对于全局平均池化分支得到的特征向量g与局部统计描述分支得到的特征向量β,我们通过双线性池化进行耦合:
B=gTβ
S3.5构造损失函数
为了完成网络模型的端到端学习,让网络能够有效地学习到场景图像有效的特征描述,并完成到类别标签的分类映射,本发明使用交叉熵损失函数作为学习的目标函数。给定输入图像及其标签:{(Ij,lj)}j,其中lj为对应类别的独热编码向量,记局部密度统计描述网络为f(·;Θ),则交叉熵损失函数为:
Figure RE-GDA0003135274320000075
其中
Figure RE-GDA0003135274320000076
通过多次迭代,模型能够学习到分类结果越来越准确的模型参数。
该模型以三通道RGB场景图像作为输入,以深度残差网络(ResNet)的特征提取器部分为模型特征提取部分的基本结构并使用其在imagenet公开数据集上预训练的模型参数初始化,分别经过本发明设计的两个旁支计算过程,再经过双线性池化层对两个旁支计算得到的特征进行耦合,最后通过全连接层与 Softmax函数映射成训练数据集所对应的类别数相等的类别预测概率向量,其中概率大的向量元素所对应的索引即为预测类别。
模型测试:
在数据集中测试集读取测试图像数据,按照训练集的预处理方法进行预处理;
将测试图像输入加载的训练好的深度局部密度统计描述网络中,得到预测的类别概率向量,并计算其概率值最大位置所对应的类别。
将得到的预测类别与真实类别标签进行对比,计算预测准确率。
实施例2
一种场景图像分类系统,包括:
数据采集模块,获取训练和测试的场景图像,并对其进行类别划分,获得相应类别标签数据库;
预处理模块,用于对场景图像数据库进行划分,并预处理后作为网络模型的输入;
构建训练网络模型模块,训练局部分形统计描述网络模型,保存训练完成的网络参数,所述局部部分分形统计描述网络模型包括基于ResNet预训练模型的特征提取器和局部分形密度图估计分支、全局池化分支、全连接层分类器;
验证测试模块,用于对训练好的网络模型进行验证测试。
实施例3
一种存储介质,其上存储有计算机指令,所述计算机指令被处理器执行时,实现所述的场景图像分类方法。
上述实施例为本发明较佳的实施方式,但本发明的实施方式并不受所述实施例的限制,其他的任何未背离本发明的精神实质与原理下所作的改变、修饰、替代、组合、简化,均应为等效的置换方式,都包含在本发明的保护范围之内。

Claims (9)

1.一种场景图像分类方法,其特征在于,包括:
获取训练和测试的场景图像,并对其进行类别划分,获得相应类别标签数据库;
将场景图像数据库划分为训练集和测试集,进行预处理后作为网络模型的输入;
训练局部分形统计描述网络模型,保存训练完成的网络参数,所述局部分形统计描述网络模型包括基于ResNet预训练模型的特征提取器和局部分形密度图估计分支、全局池化分支、全连接层分类器;
将保存好的网络模型加载,进行验证和测试。
2.根据权利要求1所述的场景图像分类方法,其特征在于,所述训练局部分形统计描述网络模型,保存训练完成的网络参数,具体包括如下:
基于ResNet预训练模型的特征提取器提取输入图像的特征图;
局部分形密度图估计分支将特征图压缩成三通道并上采样为原图的2倍,然后对三通道逐一进行局部分形密度图估计模块与直方图统计描述,得到48维的局部密度统计描述向量;
全局池化分支将特征图进行全局平均池化,并通过全连接层将输出向量维度压缩到48;
采用双线性池化对局部分形密度图估计分支及全局池化分支得到的向量进行耦合得到预测向量的类别概率;
将预测向量真实类别所对应的独热编码向量进行对比,计算交叉熵损失函数,通过多次迭代,得到训练后的局部分形统计描述网络模型。
3.根据权利要求2所述的场景图像分类方法,其特征在于,所述局部分形密度图估计模块的实现过程,具体为:
在通过多尺度卷积层及最小二乘拟合估计每个特征图像像素点密度的过程。
4.根据权利要求2所述的场景图像分类方法,其特征在于,所述直方图统计描述具体为:将场景图像的不同构成结构通过直方图分片的方式划分至不同的特征图中,并求和计算各分片的统计值。
5.根据权利要求1-4任一项所述的场景图像分类方法,其特征在于,数据预处理包括,对每组图像进行大小调整,裁剪为224*224的尺寸,并以50%的概率随机水平翻转并进行归一化处理。
6.根据权利要求3所述的场景图像分类方法,其特征在于,
具体是选定一组核大小为rz的最大池化层,其中rz∈{r1,r2,r3,…,rz,…,rZ|r1<r2<…<rZ,rZ<min{W,H}},取rz∈{1,2,3,4,5},核大小为rz×rz的卷积核记为
Figure FDA0002989699070000021
对于每一张输入特征图X,分别经过一组不同尺度大小的卷积运算,同时通过padding的方式使得每组卷积运算输出的结果都与输入特征图尺寸相等,具体计算如下式:
Figure FDA0002989699070000022
得到
Figure FDA0002989699070000023
对输出的特征图相同位置的像素值取对数,即为
Figure FDA0002989699070000024
Figure FDA0002989699070000025
Figure FDA0002989699070000026
进行最小二乘拟合:
Figure FDA0002989699070000027
求得其斜率即为所估计出的该像素点的局部分形密度估计值,最终得到输入该特征图对应的局部分形密度估计图D。
7.根据权利要求2所述的场景图像分类方法,其特征在于,所述交叉熵损失函数为:
Figure FDA0002989699070000028
其中
Figure FDA0002989699070000029
8.一种场景图像分类系统,其特征在于,包括:
数据采集模块,获取训练和测试的场景图像,并对其进行类别划分,获得相应类别标签数据库;
预处理模块,用于对场景图像数据库进行划分,并预处理后作为网络模型的输入;
构建训练网络模型模块,训练局部分形统计描述网络模型,保存训练完成的网络参数,所述局部部分分形统计描述网络模型包括基于ResNet预训练模型的特征提取器和局部分形密度图估计分支、全局池化分支、全连接层分类器;
验证测试模块,用于对训练好的网络模型进行验证测试。
9.一种存储介质,其上存储有计算机指令,所述计算机指令被处理器执行时,实现权利要求1-7任一项所述的检场景图像分类方法。
CN202110311736.0A 2021-03-24 2021-03-24 一种场景图像分类方法、系统及存储介质 Active CN113269224B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110311736.0A CN113269224B (zh) 2021-03-24 2021-03-24 一种场景图像分类方法、系统及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110311736.0A CN113269224B (zh) 2021-03-24 2021-03-24 一种场景图像分类方法、系统及存储介质

Publications (2)

Publication Number Publication Date
CN113269224A true CN113269224A (zh) 2021-08-17
CN113269224B CN113269224B (zh) 2023-10-31

Family

ID=77228226

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110311736.0A Active CN113269224B (zh) 2021-03-24 2021-03-24 一种场景图像分类方法、系统及存储介质

Country Status (1)

Country Link
CN (1) CN113269224B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763373A (zh) * 2021-09-17 2021-12-07 上海交通大学 域泛化的尺度对齐翻拍图片检测系统
CN114548190A (zh) * 2022-04-27 2022-05-27 西安易诺敬业电子科技有限责任公司 一种基于自适应残差神经网络的风力涡轮机故障诊断方法
CN114782797A (zh) * 2022-06-21 2022-07-22 深圳市万物云科技有限公司 房屋场景分类方法、装置、设备及可读存储介质
CN117437459A (zh) * 2023-10-08 2024-01-23 昆山市第一人民医院 基于决策网络实现用户膝关节髌骨软化状态分析方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016183766A1 (en) * 2015-05-18 2016-11-24 Xiaogang Wang Method and apparatus for generating predictive models
CN107808132A (zh) * 2017-10-23 2018-03-16 重庆邮电大学 一种融合主题模型的场景图像分类方法
CN110334705A (zh) * 2019-06-25 2019-10-15 华中科技大学 一种结合全局和局部信息的场景文本图像的语种识别方法
US10453197B1 (en) * 2019-02-18 2019-10-22 Inception Institute of Artificial Intelligence, Ltd. Object counting and instance segmentation using neural network architectures with image-level supervision
CN111062441A (zh) * 2019-12-18 2020-04-24 武汉大学 基于自监督机制和区域建议网络的场景分类方法及装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016183766A1 (en) * 2015-05-18 2016-11-24 Xiaogang Wang Method and apparatus for generating predictive models
CN107808132A (zh) * 2017-10-23 2018-03-16 重庆邮电大学 一种融合主题模型的场景图像分类方法
US10453197B1 (en) * 2019-02-18 2019-10-22 Inception Institute of Artificial Intelligence, Ltd. Object counting and instance segmentation using neural network architectures with image-level supervision
CN110334705A (zh) * 2019-06-25 2019-10-15 华中科技大学 一种结合全局和局部信息的场景文本图像的语种识别方法
CN111062441A (zh) * 2019-12-18 2020-04-24 武汉大学 基于自监督机制和区域建议网络的场景分类方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
郭继昌;李翔鹏;: "基于卷积神经网络和密度分布特征的人数统计方法", 电子科技大学学报, no. 06, pages 8 - 15 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113763373A (zh) * 2021-09-17 2021-12-07 上海交通大学 域泛化的尺度对齐翻拍图片检测系统
CN113763373B (zh) * 2021-09-17 2023-10-13 上海交通大学 域泛化的尺度对齐翻拍图片检测系统
CN114548190A (zh) * 2022-04-27 2022-05-27 西安易诺敬业电子科技有限责任公司 一种基于自适应残差神经网络的风力涡轮机故障诊断方法
CN114782797A (zh) * 2022-06-21 2022-07-22 深圳市万物云科技有限公司 房屋场景分类方法、装置、设备及可读存储介质
CN114782797B (zh) * 2022-06-21 2022-09-20 深圳市万物云科技有限公司 房屋场景分类方法、装置、设备及可读存储介质
CN117437459A (zh) * 2023-10-08 2024-01-23 昆山市第一人民医院 基于决策网络实现用户膝关节髌骨软化状态分析方法
CN117437459B (zh) * 2023-10-08 2024-03-22 昆山市第一人民医院 基于决策网络实现用户膝关节髌骨软化状态分析方法

Also Published As

Publication number Publication date
CN113269224B (zh) 2023-10-31

Similar Documents

Publication Publication Date Title
CN109190752B (zh) 基于深度学习的全局特征和局部特征的图像语义分割方法
CN107229757B (zh) 基于深度学习和哈希编码的视频检索方法
CN107066559B (zh) 一种基于深度学习的三维模型检索方法
CN113269224A (zh) 一种场景图像分类方法、系统及存储介质
CN112541503A (zh) 基于上下文注意力机制和信息融合的实时语义分割方法
CN109753959B (zh) 基于自适应多尺度特征融合的路面交通标志检测方法
CN111523546A (zh) 图像语义分割方法、系统及计算机存储介质
CN110929736A (zh) 多特征级联rgb-d显著性目标检测方法
CN114187450A (zh) 一种基于深度学习的遥感图像语义分割方法
CN109871892A (zh) 一种基于小样本度量学习的机器人视觉认知系统
CN113988147B (zh) 基于图网络的遥感图像场景多标签分类方法及装置、多标签检索方法及装置
CN111652273B (zh) 一种基于深度学习的rgb-d图像分类方法
CN113034506B (zh) 遥感图像语义分割方法、装置、计算机设备和存储介质
CN113610144A (zh) 一种基于多分支局部注意力网络的车辆分类方法
CN104077742B (zh) 基于Gabor特征的人脸素描合成方法及系统
CN110852327A (zh) 图像处理方法、装置、电子设备及存储介质
CN113111716A (zh) 一种基于深度学习的遥感影像半自动标注方法和装置
CN116524189A (zh) 一种基于编解码索引化边缘表征的高分辨率遥感图像语义分割方法
CN117197763A (zh) 基于交叉注意引导特征对齐网络的道路裂缝检测方法和系统
CN111310820A (zh) 基于交叉验证深度cnn特征集成的地基气象云图分类方法
CN112668662B (zh) 基于改进YOLOv3网络的野外山林环境目标检测方法
CN115292538A (zh) 一种基于深度学习的地图线要素提取方法
CN116797787B (zh) 基于跨模态融合与图神经网络的遥感影像语义分割方法
CN113011506B (zh) 一种基于深度重分形频谱网络的纹理图像分类方法
CN116524352A (zh) 一种遥感图像水体提取方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant