CN116778208B - 一种基于深度网络模型的图像聚类方法 - Google Patents
一种基于深度网络模型的图像聚类方法 Download PDFInfo
- Publication number
- CN116778208B CN116778208B CN202311070150.5A CN202311070150A CN116778208B CN 116778208 B CN116778208 B CN 116778208B CN 202311070150 A CN202311070150 A CN 202311070150A CN 116778208 B CN116778208 B CN 116778208B
- Authority
- CN
- China
- Prior art keywords
- layer
- head module
- enhancer
- network model
- class
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 19
- 238000012549 training Methods 0.000 claims abstract description 34
- 238000010606 normalization Methods 0.000 claims abstract description 29
- 241000854291 Dianthus carthusianorum Species 0.000 claims abstract description 23
- 238000012360 testing method Methods 0.000 claims abstract description 22
- 230000002708 enhancing effect Effects 0.000 claims abstract description 7
- 239000000284 extract Substances 0.000 claims abstract description 7
- 238000012795 verification Methods 0.000 claims abstract description 6
- 238000005520 cutting process Methods 0.000 claims abstract description 5
- 238000012545 processing Methods 0.000 claims abstract description 5
- 239000003623 enhancer Substances 0.000 claims description 53
- 238000011176 pooling Methods 0.000 claims description 28
- 238000000605 extraction Methods 0.000 claims description 18
- 230000004913 activation Effects 0.000 claims description 12
- 208000037170 Delayed Emergence from Anesthesia Diseases 0.000 claims description 11
- 230000006870 function Effects 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 4
- 238000004519 manufacturing process Methods 0.000 claims description 3
- 230000000694 effects Effects 0.000 abstract description 7
- 238000009826 distribution Methods 0.000 description 6
- 230000009466 transformation Effects 0.000 description 3
- 238000005516 engineering process Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003321 amplification Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/762—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using clustering, e.g. of similar faces in social networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明适用于图像处理技术领域,提供了一种基于深度网络模型的图像聚类方法,包括以下步骤:对数据集进行灰度归一化预处理,将像素值统一,裁剪为统一大小;把处理后的图像数据集分成训练集、验证集和测试集,增强图像,制作数据集视图,将每个图像数据生成两种增强视图,为数据赋予伪标签;构建深度网络模型;训练深度网络模型,生成训练模型;对训练模型进行测试。本发明中深度网络模型将类内紧密性与类间差异性相互融合,得到更多尺度、更丰富的特征,在聚类头模块实现精准的聚类分配;可以准确地进行层次相似性的提取,减少了因缺少相似性信息导致的类间冲突从而导致聚类性能不佳,提高聚类效率与聚类效果。
Description
技术领域
本发明属于图像处理技术领域,尤其涉及一种基于深度网络模型的图像聚类方法。
背景技术
聚类是机器学习领域一种重要的无监督算法,是将给定的一批数据划分成两两不相干子集的过程。经过划分后的每个类中数据应该尽可能相似,不同类间差异性应尽可能大。通过划分数据集的过程寻找数据内在的分布结构与性质。经典的聚类算法有K-means和高斯混合模型等,计算效率较低,在高维数据上的性能较差。因此提出利用了降维技术,将原始数据映射到低维特征空间,可以有效提高聚类效率和效果。降维技术分为线性变换和非线性变换。线性变换如主成分分析和多维缩放,将数据从高维转至低维空间,然而线性模型难以深刻描述实际数据中蕴含的复杂分布结构。非线性映射主要有谱聚类、核方法和深度神经网络等。早期的深度聚类网络大多是利用自动编码器结构学习嵌入特征,再对嵌入特征进行聚类。近年来,自监督对比学习得到了广泛关注,它生成输入样本的增强版本,通过最小化两个增强数据点间距离,最大化与其他数据点的距离,学习到样本最具有代表性的特征表示。对比学习在很多领域,特别是计算机视觉方面得到了较大的成功,因此一些研究也尝试将对比学习用于聚类任务。例如CC,SCAN等。
利用自监督对比学习进行的聚类仍面临另一个明显的问题:遵循对比学习的基本框架,仅假设样本及其增幅在特征空间中应该是相似的,没有将潜在的类别信息纳入聚类,没有考虑到属于同一个类的不同图片之间的特征的相关性。对于聚类等无监督下游任务来讲,会比有监督的下游任务造成更严重的后果。因为拉远负对时拉远了实际上应该属于一个类的样本,可能会造成类间冲突,导致聚类效果不佳。
发明内容
本发明的目的在于提供一种基于深度网络模型的图像聚类方法 ,旨在解决上述背景技术中提出的问题。
为实现上述目的,本发明提供如下技术方案:
一种基于深度网络模型的图像聚类方法 ,包括以下步骤:
步骤A、将采集的待聚类数据作为数据集,进行数据预处理:进行灰度归一化预处理,将像素值统一到[0,1]区间,裁剪为统一大小的图片;
步骤B、把步骤A处理后的图像数据集分成三个部分,即训练集、验证集和测试集,增强步骤A处理后的图像,制作数据增强后的数据集视图,每个图像数据通过两种不同的增强方式生成两种增强视图,构建伪标签;
步骤C、构建深度网络模型;
步骤D、使用步骤B的训练集增强后视图对深度网络模型进行训练,生成训练模型;
步骤E、使用步骤B的测试集增强后视图对步骤D中生成的训练模型进行测试。
进一步的,所述步骤B中,增强方式包括进行水平翻转、旋转不同的角度、随机裁剪和缩放,每个图像数据随机选取两种增强方式生成两种增强视图。
进一步的,所述步骤C中,深度网络模型包括特征提取模块、类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块。
进一步的,所述类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块之间共享参数。
进一步的,所述步骤C的具体操作为:图像通过特征提取模块进行特征提取,将提取的特征送入类间差异性增强器头模块,类内紧密性增强器头模块提取特征,聚类头模块通过与类间差异性增强器头模块及类内紧密性增强器头模块共享参数的方式利用提取到的特征得到聚类分配。
进一步的,所述步骤C中:
在特征提取模块中,输入数据首先经过一个7x7的卷积层,卷积层的步长为2,填充为3,输出通道数为64;卷积层的输出进入一个批归一化层和ReLU层;ReLU层的输出进入池化层,池化方式为最大池化,池化窗口大小为2;然后经过4个重复的残差块,每个残差块包括首先是一个3x3的卷积层,步长为1,输出通道数为64;紧接着是一个批归一化层和ReLU激活函数;接下来是一个3x3的卷积层,步长为1,输出通道数为64;紧接着是一个批归一化层;经过两个卷积层之后将输入与第二个卷积层的输出相加,形成残差连接,并对残差连接的结果进行ReLU激活;最后一个残差块的输出进入池化层,池化方式为全局平均池化,最终得到局部特征;然后该局部特征输入到类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块中;
在类间差异性增强器头模块和类内紧密性增强器头模块中,输入特征的处理方式相同,具体为:输入特征首先经过一个线性层和一个ReLU层,ReLU层的输出再进入一个BN层和一个线性层;线性层的输出进入一个归一化层,得到局部特征;
在聚类头模块中,输入特征首先经过一个线性层和一个ReLU层,ReLU层的输出再进入一个线性层,线性层的输出进入一个归一化层,归一化层的输出进入全连接层,使用softmax激活函数生成聚类分配。
进一步的,所述步骤D的具体操作为:
D1、使用步骤B中得到的训练集增强视图,对深度网络模型进行训练,设置初始学习率0.4,学习率衰减系数为0.0001,batch_size为256;优化器为SGD优化器。
进一步的,所述步骤E的具体操作为:
使用步骤B的测试集增强后视图,对已经训练好的模型进行测试,预测聚类分配。
与现有技术相比,本发明的有益效果是:
该基于深度网络模型的图像聚类方法,通过设置由四个模块组成的深度网络模型,分别是特征提取模块、类间差异性增强器头模块、类内紧密性增强器头模块和聚类头模块。特征提取模块可以高效地通过卷积提取局部特征,类间差异性增强器头模块和类内紧密性增强器头模块进一步提取特征,聚类头模块得到聚类分配。深度网络模型将类内紧密性与类间差异性相互融合,得到更多尺度、更丰富的特征,在聚类头模块最终实现精准的聚类分配。该模型可以实现准确地进行层次相似性的提取,减少了因缺少相似性信息导致的类间冲突从而导致聚类性能不佳,提高聚类效率与聚类效果。
附图说明
图1为本发明的流程图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本发明,并不用于限定本发明。
以下结合具体实施例对本发明的具体实现进行详细描述。
本发明一个实施例提供的一种基于深度网络模型的图像聚类方法 ,包括以下步骤:
步骤A、将采集的待聚类数据作为数据集,进行数据预处理:进行灰度归一化预处理,将像素值统一到[0,1]区间,裁剪为统一大小的图片;
步骤B、把步骤A处理后的图像数据集分成三个部分,即训练集、验证集和测试集,增强步骤A处理后的图像,制作数据增强后的数据集视图,每个图像数据通过两种不同的增强方式生成两种增强视图,构建伪标签;
步骤C、构建深度网络模型;
步骤D、使用步骤B的训练集增强后视图对深度网络模型进行训练,生成训练模型;
步骤E、使用步骤B的测试集增强后视图对步骤D中生成的训练模型进行测试。
作为本发明的一种优选实施例,所述步骤B中,增强方式包括进行水平翻转、旋转不同的角度、随机裁剪和缩放,每个图像数据随机选取两种增强方式生成两种增强视图。
在本发明实施例中,优选的,步骤B增强步骤A处理后的图像,制作数据增强后的视图,将所有的图像数据进行水平翻转和旋转不同的角度以及缩放,达到得到数据集增强视图的目的。
作为本发明的一种优选实施例,所述步骤C中,深度网络模型包括特征提取模块、类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块。
作为本发明的一种优选实施例,所述类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块之间共享参数。
在本发明实施例中,优选的,类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块之间共享参数,可以使得类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块在相同的特征空间上进行操作,以便更好地利用特征表示的信息进行聚类分配。
作为本发明的一种优选实施例,所述步骤C的具体操作为:图像通过特征提取模块进行特征提取,将提取的特征送入类间差异性增强器头模块,类内紧密性增强器头模块提取特征,聚类头模块通过与类间差异性增强器头模块及类内紧密性增强器头模块共享参数的方式利用提取到的特征得到聚类分配。
在本发明实施例中,优选的,深度网络模型的输入可以是图像,输入的图像经过特征提取模块提取得到特征,然后将特征送入类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块,类间差异性增强器头模块、类内紧密性增强器头模块和聚类头模块是平行结构,这三个模块通过共享参数相互影响,聚类头模块通过共享到的参数间接利用增强器提取到的特征得到聚类分配。
作为本发明的一种优选实施例,所述步骤C中:
在特征提取模块中,输入数据首先经过一个7x7的卷积层,卷积层的步长为2,填充为3,输出通道数为64;卷积层的输出进入一个批归一化层和ReLU层;ReLU层的输出进入池化层,池化方式为最大池化,池化窗口大小为2;然后经过4个重复的残差块,每个残差块包括首先是一个3x3的卷积层,步长为1,输出通道数为64;紧接着是一个批归一化层和ReLU激活函数;接下来是一个3x3的卷积层,步长为1,输出通道数为64;紧接着是一个批归一化层;经过两个卷积层之后将输入与第二个卷积层的输出相加,形成残差连接,并对残差连接的结果进行ReLU激活;最后一个残差块的输出进入池化层,池化方式为全局平均池化,最终得到局部特征;然后该局部特征输入到类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块中;
在类间差异性增强器头模块和类内紧密性增强器头模块中,输入特征的处理方式相同,具体为:输入特征首先经过一个线性层和一个ReLU层,ReLU层的输出再进入一个BN层和一个线性层;线性层的输出进入一个归一化层,得到局部特征;
在聚类头模块中,输入特征首先经过一个线性层和一个ReLU层,ReLU层的输出再进入一个线性层,线性层的输出进入一个归一化层,归一化层的输出进入全连接层,使用softmax激活函数生成聚类分配。
作为本发明的一种优选实施例,所述步骤D的具体操作为:
D1、使用步骤B中得到的训练集增强视图,对深度网络模型进行训练,设置初始学习率0.4,学习率衰减系数为0.0001,batch_size(表示单次传递给程序用以训练的数据(样本)个数)为256;优化器为SGD优化器。
作为本发明的一种优选实施例,所述步骤E的具体操作为:
使用步骤B的测试集增强后视图,对已经训练好的模型进行测试,预测聚类分配。
实施例1、本发明一个实施例提供的一种基于深度网络模型的图像聚类方法,包括以下步骤:
A、图像预处理
对采集的所有需要聚类的数据,进行灰度归一化预处理,将像素值统一到[0,1]区间,裁剪为裁剪为统一大小的图片。
对原始数据进行增强:(a)以0.5的随机概率旋转-10-10°;(b)以0.5的概率水平翻转;(c)以0.5的概率随机缩放原始长款的90%。
B、网络搭建与训练
构建深度网络模型,深度网络模型的输入是图像,输入的图像经过特征提取模块提取局部特征,类间差异性增强器头模块和类内紧密性增强器头模块进一步提取特征,通过聚类头模块得到聚类分配。
在特征提取模块中,输入数据首先经过一个7x7的卷积层,步长为2,填充为3,输出通道数为64。卷积层的输出进入一个批归一化层和ReLU层。ReLU层的输出进入池化层,池化方式为最大池化,池化窗口大小为2。然后经过4个重复的残差块,每个残差块包括首先是一个3x3的卷积层,步长为1,输出通道数为64。紧接着是一个批归一化层和ReLU激活函数。接下来是一个3x3的卷积层,步长为1,输出通道数为64。紧接着是一个批归一化层。经过两个卷积层之后将输入与第二个卷积层的输出相加,形成残差连接,并对残差连接的结果进行ReLU激活。最后一个残差块的输出进入池化层,池化方式为全局平均池化,最终得到局部特征。然后该局部特征输入到类间差异性增强器模块、类内紧密性增强器模块以及聚类模块中。
在类间差异性增强器模块中,输入特征首先经过一个线性层和一个ReLU层,ReLU层的输出再进入一个BN层和一个线性层。线性层的输出进入一个归一化层,得到图像特征。
在类内紧密性增强器头模块中,输入特征首先经过一个线性层和一个ReLU层,ReLU层的输出进入一个BN层和一个线性层。线性层的输出进入一个归一化层,得到图像特征。
在聚类头模块中,输入特征首先经过一个线性层和一个ReLU层,ReLU层的输出再进入一个线性层。线性层的输出进入一个归一化层,归一化层的输出进入全连接层,使用softmax激活函数来生成聚类分配。
C、网络的训练
使用A中得到的训练集,对深度网络模型进行训练,设置初始学习率0.4,batch_size为256。优化器选择SGD优化器。设置训练epoch为1000,设置学习率衰减策略,衰减系数为0.0001,每训练五轮,便进行一次验证,当验证集测试效果达到收敛时,停止训练。
D、测试数据对训练的模型进行验证,确定测试效果
对测试集进行聚类分配的预测。加载训练阶段保存的模型和权重,将测试数据输入至训练好的模型中,获得测试结果。
以上仅是本发明的优选实施方式,应当指出,对于本领域的技术人员来说,在不脱离本发明构思的前提下,还可以作出若干变形和改进,这些也应该视为本发明的保护范围,这些均不会影响本发明实施的效果和专利的实用性。
Claims (4)
1.一种基于深度网络模型的图像聚类方法,其特征在于,包括以下步骤:
步骤A、将采集的待聚类数据作为数据集,进行数据预处理:进行灰度归一化预处理,将像素值统一到[0,1]区间,裁剪为统一大小的图片;
步骤B、把步骤A处理后的图像数据集分成三个部分,即训练集、验证集和测试集,增强步骤A处理后的图像,制作数据增强后的数据集视图,每个图像数据通过两种不同的增强方式生成两种增强视图,构建伪标签;
步骤C、构建深度网络模型;
步骤D、使用步骤B的训练集增强后视图对深度网络模型进行训练,生成训练模型;
步骤E、使用步骤B的测试集增强后视图对步骤D中生成的训练模型进行测试;
所述步骤C中,深度网络模型包括特征提取模块、类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块;
所述类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块之间共享参数;
所述步骤C的具体操作为:图像通过特征提取模块进行特征提取,将提取的特征送入类间差异性增强器头模块,类内紧密性增强器头模块提取特征,聚类头模块通过与类间差异性增强器头模块及类内紧密性增强器头模块共享参数的方式利用提取到的特征得到聚类分配;
所述步骤C中:
在特征提取模块中,输入数据首先经过一个7x7的卷积层,卷积层的步长为2,填充为3,输出通道数为64;卷积层的输出进入一个批归一化层和ReLU层;ReLU层的输出进入池化层,池化方式为最大池化,池化窗口大小为2;然后经过4个重复的残差块,每个残差块包括首先是一个3x3的卷积层,步长为1,输出通道数为64;紧接着是一个批归一化层和ReLU激活函数;接下来是一个3x3的卷积层,步长为1,输出通道数为64;紧接着是一个批归一化层;经过两个卷积层之后将输入与第二个卷积层的输出相加,形成残差连接,并对残差连接的结果进行ReLU激活;最后一个残差块的输出进入池化层,池化方式为全局平均池化,最终得到局部特征;然后该局部特征输入到类间差异性增强器头模块、类内紧密性增强器头模块以及聚类头模块中;
在类间差异性增强器头模块和类内紧密性增强器头模块中,输入特征的处理方式相同,具体为:输入特征首先经过一个线性层和一个ReLU层,ReLU层的输出再进入一个BN层和一个线性层;线性层的输出进入一个归一化层,得到局部特征;
在聚类头模块中,输入特征首先经过一个线性层和一个ReLU层,ReLU层的输出再进入一个线性层,线性层的输出进入一个归一化层,归一化层的输出进入全连接层,使用softmax激活函数生成聚类分配。
2.根据权利要求1所述的基于深度网络模型的图像聚类方法,其特征在于,所述步骤B中,增强方式包括进行水平翻转、旋转不同的角度、随机裁剪和缩放,每个图像数据随机选取两种增强方式生成两种增强视图。
3.根据权利要求1所述的基于深度网络模型的图像聚类方法,其特征在于,所述步骤D的具体操作为:
D1、使用步骤B中得到的训练集增强视图,对深度网络模型进行训练,设置初始学习率0.4,学习率衰减系数为0.0001,batch_size为256;优化器为SGD优化器。
4.根据权利要求1所述的基于深度网络模型的图像聚类方法,其特征在于,所述步骤E的具体操作为:
使用步骤B的测试集增强后视图,对已经训练好的模型进行测试,预测聚类分配。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311070150.5A CN116778208B (zh) | 2023-08-24 | 2023-08-24 | 一种基于深度网络模型的图像聚类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311070150.5A CN116778208B (zh) | 2023-08-24 | 2023-08-24 | 一种基于深度网络模型的图像聚类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116778208A CN116778208A (zh) | 2023-09-19 |
CN116778208B true CN116778208B (zh) | 2023-11-10 |
Family
ID=87989941
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311070150.5A Active CN116778208B (zh) | 2023-08-24 | 2023-08-24 | 一种基于深度网络模型的图像聚类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116778208B (zh) |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010206670A (ja) * | 2009-03-05 | 2010-09-16 | Nec Corp | 端末の位置分布の推定方法、移動端末、ネットワークシステム、サーバ、及びプログラム |
JP2013207626A (ja) * | 2012-03-29 | 2013-10-07 | Hiroshima City Univ | ネットワークにおける動的階層化方法 |
CN109902682A (zh) * | 2019-03-06 | 2019-06-18 | 太原理工大学 | 一种基于残差卷积神经网络的乳腺x线图像检测方法 |
CN110309868A (zh) * | 2019-06-24 | 2019-10-08 | 西北工业大学 | 结合无监督学习的高光谱图像分类方法 |
CN110738249A (zh) * | 2019-10-08 | 2020-01-31 | 陕西师范大学 | 一种基于深度神经网络的极光图像聚类方法 |
CN111860596A (zh) * | 2020-06-17 | 2020-10-30 | 长安大学 | 基于深度学习的无监督路面裂缝分类方法及模型建立方法 |
CN112613410A (zh) * | 2020-12-24 | 2021-04-06 | 江苏大学 | 基于迁移学习的寄生虫虫卵识别方法 |
CN116109719A (zh) * | 2022-12-14 | 2023-05-12 | 电子科技大学长三角研究院(衢州) | 一种基于结构化网络先验知识的公平可控图像生成方法 |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
RU2737720C1 (ru) * | 2019-11-20 | 2020-12-02 | Общество с ограниченной ответственностью "Аби Продакшн" | Извлечение полей с помощью нейронных сетей без использования шаблонов |
US11816909B2 (en) * | 2021-08-04 | 2023-11-14 | Abbyy Development Inc. | Document clusterization using neural networks |
-
2023
- 2023-08-24 CN CN202311070150.5A patent/CN116778208B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010206670A (ja) * | 2009-03-05 | 2010-09-16 | Nec Corp | 端末の位置分布の推定方法、移動端末、ネットワークシステム、サーバ、及びプログラム |
JP2013207626A (ja) * | 2012-03-29 | 2013-10-07 | Hiroshima City Univ | ネットワークにおける動的階層化方法 |
CN109902682A (zh) * | 2019-03-06 | 2019-06-18 | 太原理工大学 | 一种基于残差卷积神经网络的乳腺x线图像检测方法 |
CN110309868A (zh) * | 2019-06-24 | 2019-10-08 | 西北工业大学 | 结合无监督学习的高光谱图像分类方法 |
CN110738249A (zh) * | 2019-10-08 | 2020-01-31 | 陕西师范大学 | 一种基于深度神经网络的极光图像聚类方法 |
CN111860596A (zh) * | 2020-06-17 | 2020-10-30 | 长安大学 | 基于深度学习的无监督路面裂缝分类方法及模型建立方法 |
CN112613410A (zh) * | 2020-12-24 | 2021-04-06 | 江苏大学 | 基于迁移学习的寄生虫虫卵识别方法 |
CN116109719A (zh) * | 2022-12-14 | 2023-05-12 | 电子科技大学长三角研究院(衢州) | 一种基于结构化网络先验知识的公平可控图像生成方法 |
Also Published As
Publication number | Publication date |
---|---|
CN116778208A (zh) | 2023-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021134871A1 (zh) | 基于局部二值模式和深度学习的合成人脸图像取证方法 | |
CN116363440B (zh) | 基于深度学习的土壤中有色微塑料的识别检测方法及系统 | |
CN111259917B (zh) | 一种基于局部近邻成分分析的图像特征提取方法 | |
CN113255892B (zh) | 一种解耦合的网络结构搜索方法、设备及可读存储介质 | |
CN106886793B (zh) | 基于判别信息和流形信息的高光谱图像波段选择方法 | |
CN111371611B (zh) | 一种基于深度学习的加权网络社区发现方法及装置 | |
CN113628297A (zh) | 一种基于注意力机制和迁移学习的covid-19深度学习诊断系统 | |
CN112489168A (zh) | 一种图像数据集生成制作方法、装置、设备及存储介质 | |
CN114283285A (zh) | 交叉一致性自训练遥感图像语义分割网络训练方法及装置 | |
CN113095158A (zh) | 一种基于对抗生成网络的笔迹生成方法及装置 | |
CN114972904A (zh) | 一种基于对抗三元组损失的零样本知识蒸馏方法及系统 | |
CN111310820A (zh) | 基于交叉验证深度cnn特征集成的地基气象云图分类方法 | |
CN113516019B (zh) | 高光谱图像解混方法、装置及电子设备 | |
CN114299305A (zh) | 聚合密集和注意力多尺度特征的显著性目标检测算法 | |
CN110580507A (zh) | 一种城市肌理分类识别方法 | |
CN116778208B (zh) | 一种基于深度网络模型的图像聚类方法 | |
CN111652238B (zh) | 一种多模型集成方法及系统 | |
CN110503157B (zh) | 基于细粒度图像的多任务卷积神经网络的图像隐写分析方法 | |
CN116403090A (zh) | 一种基于动态锚框和Transformer的小尺寸目标检测方法 | |
CN116563636A (zh) | 一种合成孔径雷达图像生成方法及系统 | |
CN113344110B (zh) | 一种基于超分辨率重建的模糊图像分类方法 | |
CN114758123A (zh) | 一种遥感影像目标样本增强方法 | |
CN111340111B (zh) | 基于小波核极限学习机识别人脸图像集方法 | |
CN114332460B (zh) | 一种半监督单图像去雨处理方法 | |
CN116721302B (zh) | 一种基于轻量级网络的冰雪晶粒子图像分类方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |