CN112800262A - 一种图像自组织聚类可视化方法及装置、存储介质 - Google Patents
一种图像自组织聚类可视化方法及装置、存储介质 Download PDFInfo
- Publication number
- CN112800262A CN112800262A CN202110172482.9A CN202110172482A CN112800262A CN 112800262 A CN112800262 A CN 112800262A CN 202110172482 A CN202110172482 A CN 202110172482A CN 112800262 A CN112800262 A CN 112800262A
- Authority
- CN
- China
- Prior art keywords
- clustering
- self
- organizing
- images
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000007794 visualization technique Methods 0.000 title description 10
- 239000000463 material Substances 0.000 claims abstract description 133
- 239000013598 vector Substances 0.000 claims abstract description 74
- 230000000007 visual effect Effects 0.000 claims abstract description 69
- 238000012800 visualization Methods 0.000 claims abstract description 39
- 230000004913 activation Effects 0.000 claims abstract description 37
- 238000000034 method Methods 0.000 claims abstract description 36
- 238000013528 artificial neural network Methods 0.000 claims abstract description 14
- 238000000605 extraction Methods 0.000 claims abstract description 14
- 238000013527 convolutional neural network Methods 0.000 claims abstract description 13
- 210000002569 neuron Anatomy 0.000 claims description 20
- 238000012549 training Methods 0.000 claims description 15
- 230000008569 process Effects 0.000 claims description 14
- 238000013507 mapping Methods 0.000 claims description 8
- 238000003062 neural network model Methods 0.000 claims description 5
- 238000005457 optimization Methods 0.000 claims description 5
- 238000005516 engineering process Methods 0.000 abstract description 3
- 238000012545 processing Methods 0.000 description 7
- 238000010586 diagram Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000008878 coupling Effects 0.000 description 3
- 238000010168 coupling process Methods 0.000 description 3
- 238000005859 coupling reaction Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000006467 substitution reaction Methods 0.000 description 2
- 241000258957 Asteroidea Species 0.000 description 1
- 241001481833 Coryphaena hippurus Species 0.000 description 1
- 241000510032 Ellipsaria lineolata Species 0.000 description 1
- 241000208818 Helianthus Species 0.000 description 1
- 235000003222 Helianthus annuus Nutrition 0.000 description 1
- 241000406668 Loxodonta cyclotis Species 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000007621 cluster analysis Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 235000019800 disodium phosphate Nutrition 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/54—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/55—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本申请公开了一种图像自组织聚类可视化方法及装置、存储介质,所述方法包括:利用语义信息提取器对素材图像进行特征提取,得到素材特征向量;将提取完成的所述素材特征向量输入自组织聚类视觉布局生成器中,获取所述素材特征向量在所述自组织聚类视觉布局生成器中的激活位置;根据所述激活位置,在所述自组织聚类视觉布局生成器的输出层的二维布局平面上,视觉显示所述素材图像的聚类结果。本申请实施例语义信息提取采用基于卷积神经网络(CNN)的图像特征技术,为图像生成特征。聚类视觉布局生成器采用SOM自组织神经网络完成聚类和位置可视化。可以使用户快速对本地素材库图像完成聚类可视化,方法有效可靠。
Description
技术领域
本申请实施例涉及图像可视化技术领域,尤其涉及一种图像自组织聚类可视化方法及装置、存储介质。
背景技术
随着计算机和移动终端的普及和互联网的飞速发展,信息的传递变得更加快速,而信息量的剧增使得交流媒介已经渐渐由文本转为图片或者视频,同样的浏览时长,图片或者视频包含的信息量很更大,且更容易记忆,相较于传统的图像处理,深度学习凭借强大的数据的高速识别能力和较高的识别准确率,在国内外都引起了广泛的关注。
来自不同行业的设计师,例如界面设计师、动漫设计师等设计师,会储备大量的素材图像。而在素材库中图像越来越多的时候,如何在本地快速概览素材图像库中不同类别的分布信息,以及素材图像风格显得尤为重要,通过素材图像聚类可视化可以使用户很好的对自己本地素材进行管理。
现有技术中的图像可视化研究大多集中在使用图像的低级视觉特征,如纹理和颜色直方图来创建可视化,而没有考虑图像中更重要的语义信息。而在素材图像管理中涉及到的图像类别比较多,使用传统的图像可视化方案已经很难满足要求。
发明内容
有鉴于此,本申请实施例提供一种图像自组织聚类可视化方法及装置、存储介质。
根据本申请的第一方面,提供一种图像自组织聚类可视化方法,包括:
利用基于深度学习的语义信息提取器对素材图像进行特征提取,得到素材特征向量;
将提取完成的所述素材特征向量输入自组织聚类视觉布局生成器中,获取所述素材特征向量在所述自组织聚类视觉布局生成器中的激活位置;
根据所述激活位置,在所述聚类视觉布局生成器的输出层的二维布局平面上,视觉显示所述素材图像的聚类结果。
作为一种实现方式,所述语义信息提取器采用基于卷积神经网络的图像特征为所述素材图像生成素材特征向量。
作为一种实现方式,所述自组织聚类视觉布局生成器采用自组织特征映射神经网络SOM模型进行所述素材特征向量的聚类和位置可视化。
作为一种实现方式,所述利用语义信息提取器对素材图像进行特征提取,包括:
使用AlexNet卷积神经网络模型,将网络的嵌入空间向量作为所述素材特征向量;
加载ImageNet预训练参数或者针对用户常见的素材图像类别进行训练,使所述语义信息提取器提取到的素材特征向量代表所述素材图像。
作为一种实现方式,所述自组织聚类视觉布局生成器根据如下方式训练:
采用自组织映射神经网络SOM模型,包括输入层和竞争层;输入层神经元数为n,竞争层由m个神经元组成的二维平面阵列;具体过程如下:
对输入层各权向量初始化随机为很小的参数;
随机取一个素材特征向量作为输入样本X;
遍历竞争层中每一个节点,根据欧氏距离分别计算X与节点之间的相似度;选取欧氏距离最小的节点作为获胜节点;
根据邻域半径确定所述获胜节点的优胜邻域将包含的节点;并计算各自更新的幅度;
根据所述更新幅度更新所述优胜邻域内节点的权重系数;
逐轮进行迭代优化,直到满足设定的迭代次数;
根据所述获胜节点位置确定所述素材特征向量在所述自组织聚类视觉布局生成器中的激活位置。
作为一种实现方式,所述根据所述激活位置,在所述自组织聚类视觉布局生成器的输出层的二维布局平面上,视觉显示所述素材图像的聚类结果,包括:
将所述素材图像分别找到在所述自组织聚类视觉布局生成器中的获胜节点作为激活位置;
将所述激活位置显示在对应的布局节点中,完成所述素材图像聚类可视化。
根据本申请的第二方面,提供一种图像自组织聚类可视化装置,包括:
语义信息提取器单元,用于对素材图像进行特征提取,得到素材特征向量;
聚类视觉布局生成器单元,用于根据提取完成的所述素材特征向量获取所述素材特征向量的激活位置;
视觉显示单元,用于根据所述激活位置,在所述聚类视觉布局生成器单元的输出层的二维布局平面上,视觉显示所述素材图像的聚类结果。
作为一种实现方式,所述语义信息提取器单元,采用基于卷积神经网络的图像特征为所述素材图像生成素材特征向量。
作为一种实现方式,所述语义信息提取器单元,具体用于:
使用AlexNet卷积神经网络模型,将网络的嵌入空间向量作为所述素材特征向量;
加载ImageNet预训练参数或者针对用户常见的素材图像类别进行训练,使所述语义信息提取器提取到的素材特征向量代表所述素材图像。
作为一种实现方式,所述聚类视觉布局生成器单元,采用自组织特征映射神经网络SOM模型进行所述素材特征向量的聚类和位置可视化。
作为一种实现方式,所述聚类视觉布局生成器单元,根据如下方式训练:
采用自组织特征映射神经网络SOM模型,包括输入层和竞争层;输入层神经元数为n,竞争层由m个神经元组成的二维平面阵列;具体过程如下:
对输入层各权向量初始化随机为很小的参数;
随机取一个素材特征向量作为输入样本X;
遍历竞争层中每一个节点,根据欧氏距离分别计算X与节点之间的相似度;选取欧氏距离最小的节点作为获胜节点;
根据邻域半径确定所述获胜节点的优胜邻域将包含的节点;并计算各自更新的幅度;
根据所述更新幅度更新所述优胜邻域内节点的权重系数;
逐轮进行迭代优化,直到满足设定的迭代次数;
根据所述获胜节点位置确定所述素材特征向量在所述聚类视觉布局生成器中的激活位置。
作为一种实现方式,所述视觉显示单元,具体用于:
将所述素材图像分别找到在所述聚类视觉布局生成器单元中的获胜节点作为激活位置;将所述激活位置显示在对应的布局节点中,完成所述素材图像聚类可视化。
根据本申请的第三方面,提供一种存储介质,其上存储有可执行程序,所述可执行程序被处理器执行时实现所述的图像自组织聚类可视化方法的步骤。
本申请实施例提供的图像自组织聚类可视化方法及装置、存储介质,通过利用语义信息提取器对素材图像进行特征提取,得到素材特征向量;将提取完成的所述素材特征向量输入自组织聚类视觉布局生成器中,获取所述素材特征向量在所述自组织聚类视觉布局生成器中的激活位置;根据所述激活位置,在所述自组织聚类视觉布局生成器的输出层的二维布局平面上,视觉显示所述素材图像的聚类结果。本申请实施例语义信息提取采用基于卷积神经网络(CNN)的图像特征技术,为图像生成特征。自组织聚类视觉布局生成器采用SOM自组织神经网络完成聚类和位置可视化。可以使用户快速对本地素材库图像完成聚类可视化,方法有效可靠。能够针对大量的素材图像库完成聚类可视化显示,使用户对本地素材类别进行概览。不需要用户使用分类显示,即可显示所有类别代表图片。
附图说明
图1为本申请实施例提供的图像自组织聚类可视化方法流程示意图;
图2为本申请实施例提供的语义信息提取流程图;
图3为本申请实施例提供的自组织聚类视觉布局生成器的工作流程图;
图4为本申请实施例提供的SOM聚类视觉布局流程图;
图5为本申请实施例提供的图像自组织聚类可视化方法的一种具体示例流程图;
图6为本申请实施例提供的图像自组织聚类可视化装置的组成结构示意图;
图7为本申请实施例提供的一种自组织图像聚类可视化示例示意图;
图8为本申请实施例提供的另一种自组织图像聚类可视化示例示意图。
具体实施方式
以下结合示例,详细阐明本申请实施例的技术方案的实质。
本申请各个实施例提出了一种基于语义感知的图像聚类视觉分析系统。该系统主要由两个部分组成:语义信息提取器和聚类视觉布局生成器。语义信息提取采用基于卷积神经网络(CNN)的图像特征技术,为图像生成特征。聚类视觉布局生成器采用SOM自组织神经网络完成聚类和位置可视化。可以使用户快速对本地素材库图像完成聚类可视化,方法有效可靠。
图1为本申请实施例提供的图像自组织聚类可视化方法流程示意图,如图1所示,本申请实施例的图像自组织聚类可视化方法包括以下处理步骤:
步骤101,利用语义信息提取器对素材图像进行特征提取,得到素材特征向量。
本申请实施例中,语义信息提取器采用基于卷积神经网络的图像特征为所述素材图像生成素材特征向量。
图像的语义分为视觉层、对象层和概念层。视觉层即通常所理解的底层,即颜色、纹理和形状等等,这些特征都被称为底层特征语义;对象层即中间层,通常包含了属性特征等,就是某一对象在某一时刻的状态;概念层是高层,是图像表达出的最接近人类理解的东西。
如图2所示,为语义信息提取流程图,其中,在语义信息提取过程中,网络模型是AlexNet卷积神经网络模型。在该模型中选取网络的嵌入空间向量作为素材图像的特征向量。为了提高素材图像特征向量的准确性,在训练中,我们可以加载ImageNet预训练参数或者针对用户常见的素材图像类别进行训练,使整个语义信息提取器,提取到的素材图像特征能很好的代表该素材图像。
AlexNet神经网络拥有6000w个参数和65w的神经元,由5层卷积池化层组成,后面接3层全连接层,输出层有1000个神经元。模型由5个卷积层和3个全连接层组成,其中最后一个全连接层是softmax层,在ImageNet-1k数据集上训练,故输出1000个分类,使用分类交叉熵作为损失函数。
模型分为两部分,因为该模型在两个GPU上训练,其中按照图像数据的通道切分为两部分,两部分在特定的层通信。卷积层的第二、第四、第五层直接和同一个GPU的前一层相连,第三层则与两个GPU上的第二层相连。全连接层都和上一层的所有神经元相连。
卷积层的第一层使用96个卷积核,size=(11,11),stride=4。第二卷积层使用256个卷积核,size=(5,5)。第三卷积层使用3x3的384个卷积核,第四卷积层使用3x3的384个卷积核,第五卷积层使用3x3的256个卷积核。全连接有两层有4096个神经元局部响应归一化应用在第一和第二卷积层之后,所有层的激活函数是ReLU,Dropout应用在全连接层。
从卷积层提取完毕以后,每一张素材图像的信息转为256维的向量,也即素材特征向量。
ImageNet是一个用于视觉对象识别软件研究的大型可视化数据库。超过1400万的图像URL被ImageNet手动注释,以指示图片中的对象。在至少一百万个图像中,还提供了边界框。ImageNet包含2万多个类别。一个典型的类别包含数百个图像。第三方图像URL的注释数据库可以直接从ImageNet免费获得。
步骤102,将提取完成的所述素材特征向量输入自组织聚类视觉布局生成器中,获取所述素材特征向量在所述自组织聚类视觉布局生成器中的激活位置。
本申请实施例中,自组织聚类视觉布局生成器采用自组织映射神经网络SOM模型进行所述素材特征向量的聚类和位置可视化。
如图3所示,为自组织聚类视觉布局生成器的工作流程图,其中,在自组织聚类视觉布局流程中,采用的网络模型是SOM(Self-organizing Map)。
SOM网络结构如图3所示,它由输入层和竞争层(输出层)组成。输入层神经元数为n,竞争层由m个神经元组成的一维或者二维平面阵列,网络是全连接的,即每个输入结点都同所有的输出结点相连接。主要用于解决模式识别类的问题。SOM网络属于无监督学习算法,与K-means算法相似。所不同的是,SOM网络不需要预先提供聚类数量,类别的数据由网络自动识别出来。它的基本思想是:将距离小的个体集合划分为同一类别,而将距离大的个体集合划分为不同的类别。
如图4所示,为SOM聚类视觉布局流程图,其中,SOM算法的主要过程如下:
(1)初始化。对输入层各权向量初始化随机为很小的参数。
(2)随机取一个输入样本X。
(3)遍历竞争层中每一个节点:计算X与节点之间的相似度(通常使用欧式距离)选取距离最小的节点作为获胜节点(winner node)。
(4)根据邻域半径确定优胜邻域将包含的节点;并计算它们各自更新的幅度(基本思想是:越靠近优胜节点,更新幅度越大;越远离优胜节点,更新幅度越小)。
(5)更新优胜邻域内节点的权重系数。
(6)完成一轮迭代(迭代次数+1),返回步骤(2),直到满足设定的迭代次数。所述获胜节点位置确定所述素材特征向量在所述自组织聚类视觉布局生成器中的激活位置。
步骤103,根据所述激活位置,在所述自组织聚类视觉布局生成器的输出层的二维布局平面上,视觉显示所述素材图像的聚类结果。
本申请实施例中,将所述素材图像分别找到在所述自组织聚类视觉布局生成器中的获胜节点作为激活位置;将所述激活位置显示在对应的布局节点中,完成所述素材图像聚类可视化。
在完成以上SOM聚类视觉布局后,将素材图像库中的图像文件找到在SOM聚类视觉布局中的获胜节点,显示在对应的布局节点中,完成整个素材图像聚类可视化。
本申请实施例以素材图像为例进行说明,需要说明的是,其他图像材料一样可以使用本申请实施例的技术手段进行聚类可视化。
下面结合具体示例,对本申请实施例作进一步详细说明。
如图5所示,为本申请实施例提供的图像自组织聚类可视化流程图,其中,首先用户在加载本地素材的时,把对应的素材图像在语义信息提取器(卷积网)中,完成特征提取,并将特征提取完毕的素材特征向量保存在本地文件中。然后,将提取完成的素材特征信息输入自组织聚类视觉布局生成器中,进行多次训练,在训练过程中,调整输出层的权重参数,使相似的图像尽量拥有相同的获胜神经元或者获胜神经元位置接近。在输出层的二维布局平面上,每一个区域代表不同的神经元获胜点,相似的素材图像,神经元的获胜节点距离也比较靠近,因此在二维平面上可以看到相似的图像分布在二维平面的区域比较接近,不相似的素材图像或者素材图像特征差别比较大的在二维平面上距离比较远。到此,完成整个流程。
图6为本申请实施例提供的图像自组织聚类可视化装置的组成结构示意图,如图6所示,本申请实施例的图像聚类可视化装置包括:
语义信息提取器单元61,用于对素材图像进行特征提取,得到素材特征向量;
聚类视觉布局生成器单元62,用于根据提取完成的所述素材特征向量获取所述素材特征向量的激活位置;
视觉显示单元63,用于根据所述激活位置,在所述聚类视觉布局生成器单元62的输出层的二维布局平面上,视觉显示所述素材图像的聚类结果。
所述语义信息提取器单元61,采用基于卷积神经网络的图像特征为所述素材图像生成素材特征向量。
所述语义信息提取器单元61,具体用于:
使用AlexNet卷积神经网络模型,将网络的嵌入空间向量作为所述素材特征向量;
加载ImageNet预训练参数或者针对用户常见的素材图像类别进行训练,使所述语义信息提取器提取到的素材特征向量代表所述素材图像。
所述聚类视觉布局生成器单元62,采用自组织映射神经网络SOM模型进行所述素材特征向量的聚类和位置可视化。
所述聚类视觉布局生成器单元62,根据如下方式训练:
采用自组织映射神经网络SOM模型,包括输入层和竞争层;输入层神经元数为n,竞争层由m个神经元组成的二维平面阵列;具体过程如下:
对输入层各权向量初始化随机为很小的参数;
随机取一个素材特征向量作为输入样本X;
遍历竞争层中每一个节点,根据欧氏距离分别计算X与节点之间的相似度;选取欧氏距离最小的节点作为获胜节点;
根据邻域半径确定所述获胜节点的优胜邻域将包含的节点;并计算各自更新的幅度;
根据所述更新幅度更新所述优胜邻域内节点的权重系数;
逐轮进行迭代优化,直到满足设定的迭代次数;
根据所述获胜节点位置确定所述素材特征向量在所述聚类视觉布局生成器中的激活位置。
所述视觉显示单元63,具体用于:
将所述素材图像分别找到在所述聚类视觉布局生成器单元中的获胜节点作为激活位置;将所述激活位置显示在对应的布局节点中,完成所述素材图像聚类可视化。
在示例性实施例中,本申请实施例的图像聚类可视化装置的上述各处理单元可以被一个或多个中央处理器(CPU,Central Processing Unit)、图形处理器(GPU,GraphicsProcessing Unit)、基带处理器(BP,Base Processor)、应用专用集成电路(ASIC,Application Specific Integrated Circuit)、DSP、可编程逻辑器件(PLD,ProgrammableLogic Device)、复杂可编程逻辑器件(CPLD,Complex Programmable Logic Device)、现场可编程门阵列(FPGA,Field-Programmable Gate Array)、通用处理器、控制器、微控制器(MCU,Micro Controller Unit)、微处理器(Microprocessor)、或其他电子元件实现。
在本公开实施例中,图6示出的图像聚类可视化装置中各个处理单元执行操作的具体方式已经在有关该方法的实施例中进行了详细描述,此处将不做详细阐述说明。
本申请提供了两种具体的聚类可视化示例方案,具体参见图7和图8,其中,由图7中可以看到属于飞机,蝴蝶,海豚,大象这四类的图像通过聚类分析以后,可视化展示在图像的不同区域,相同类别的距离比较近,不同类别的距离比较远。由图8中可以看到属于摩托车,公鸡,向日葵,海星这四类的图像通过聚类分析以后,可视化展示在图像的不同区域,相同类别的距离比较近,不同类别的距离比较远。
本申请实施例还记载了一种存储介质,存储介质上存储有可执行程序,所述可执行程序被处理器执行时实现所述实施例的图像自组织聚类可视化方法的步骤。
应理解,说明书通篇中提到的“一个实施例”或“一实施例”意味着与实施例有关的特定特征、结构或特性包括在本发明的至少一个实施例中。因此,在整个说明书各处出现的“在一个实施例中”或“在实施例中”未必一定指相同的实施例。此外,这些特定的特征、结构或特性可以任意适合的方式结合在一个或多个实施例中。应理解,在本发明的各种实施例中,上述各过程的序号的大小并不意味着执行顺序的先后,各过程的执行顺序应以其功能和内在逻辑确定,而不应对本发明实施例的实施过程构成任何限定。上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
在本申请所提供的几个实施例中,应该理解到,所揭露的设备和方法,可以通过其它的方式实现。以上所描述的设备实施例仅是示意性的,例如,所述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,如:多个单元或组件可以结合,或可以集成到另一个系统,或一些特征可以忽略,或不执行。另外,所显示或讨论的各组成部分相互之间的耦合、或直接耦合、或通信连接可以是通过一些接口,设备或单元的间接耦合或通信连接,可以是电性的、机械的或其它形式的。
上述作为分离部件说明的单元可以是、或也可以不是物理上分开的,作为单元显示的部件可以是、或也可以不是物理单元;既可以位于一个地方,也可以分布到多个网络单元上;可以根据实际的需要选择其中的部分或全部单元来实现本实施例方案的目的。
另外,在本发明各实施例中的各功能单元可以全部集成在一个处理单元中,也可以是各单元分别单独作为一个单元,也可以两个或两个以上单元集成在一个单元中;上述集成的单元既可以采用硬件的形式实现,也可以采用硬件加软件功能单元的形式实现。
以上所述,仅为本发明的实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应以所述权利要求的保护范围为准。
Claims (13)
1.一种图像自组织聚类可视化方法,其特征在于,所述方法包括:
利用语义信息提取器对素材图像进行特征提取,得到素材特征向量;
将提取完成的所述素材特征向量输入自组织聚类视觉布局生成器中,获取所述素材特征向量在所述聚类视觉布局生成器中的激活位置;
根据所述激活位置,在所述自组织聚类视觉布局生成器的输出层的二维布局平面上,视觉显示所述素材图像的聚类结果。
2.根据权利要求1所述的方法,其特征在于,所述语义信息提取器采用基于卷积神经网络的图像特征为所述素材图像生成素材特征向量。
3.根据权利要求1或2所述的方法,其特征在于,所述自组织聚类视觉布局生成器采用自组织特征映射神经网络SOM模型进行所述素材特征向量的聚类和位置可视化。
4.根据权利要求1所述的方法,其特征在于,所述利用语义信息提取器对素材图像进行特征提取,包括:
使用AlexNet卷积神经网络模型,将网络的嵌入空间向量作为所述素材特征向量;
加载ImageNet预训练参数或者针对用户常见的素材图像类别进行训练,使所述语义信息提取器提取到的素材特征向量代表所述素材图像。
5.根据权利要求1所述的方法,其特征在于,所述聚类视觉布局生成器根据如下方式训练:
采用自组织特征映射神经网络SOM模型,包括输入层和竞争层;输入层神经元数为n,竞争层由m个神经元组成的二维平面阵列;具体过程如下:
对输入层各权向量初始化随机为很小的参数;
随机取一个素材特征向量作为输入样本X;
遍历竞争层中每一个节点,根据欧氏距离分别计算X与节点之间的相似度;选取欧氏距离最小的节点作为获胜节点;
根据邻域半径确定所述获胜节点的优胜邻域将包含的节点;并计算各自更新的幅度;
根据所述更新幅度更新所述优胜邻域内节点的权重系数;
逐轮进行迭代优化,直到满足设定的迭代次数;
根据所述获胜节点位置确定所述素材特征向量在所述聚类视觉布局生成器中的激活位置。
6.根据权利要求5所述的方法,其特征在于,所述根据所述激活位置,在所述自组织聚类视觉布局生成器的输出层的二维布局平面上,视觉显示所述素材图像的聚类结果,包括:
将所述素材图像分别找到在所述聚类视觉布局生成器中的获胜节点作为激活位置;
将所述激活位置显示在对应的布局节点中,完成所述素材图像聚类可视化。
7.一种图像自组织聚类可视化装置,其特征在于,所述装置包括:
语义信息提取器单元,用于对素材图像进行特征提取,得到素材特征向量;
聚类视觉布局生成器单元,用于根据提取完成的所述素材特征向量获取所述素材特征向量的激活位置;
视觉显示单元,用于根据所述激活位置,在所述聚类视觉布局生成器单元的输出层的二维布局平面上,视觉显示所述素材图像的自组织聚类结果。
8.根据权利要求7所述的装置,其特征在于,所述语义信息提取器单元,采用基于卷积神经网络的图像特征为所述素材图像生成素材特征向量。
9.根据权利要求7或8所述的装置,其特征在于,所述语义信息提取器单元,具体用于:
使用AlexNet卷积神经网络模型,将网络的嵌入空间向量作为所述素材特征向量;
加载ImageNet预训练参数或者针对用户常见的素材图像类别进行训练,使所述语义信息提取器提取到的素材特征向量代表所述素材图像。
10.根据权利要求7所述的装置,其特征在于,所述聚类视觉布局生成器单元,采用自组织特征映射神经网络SOM模型进行所述素材特征向量的自组织聚类和位置可视化。
11.根据权利要求10所述的装置,其特征在于,所述聚类视觉布局生成器单元,根据如下方式训练:
采用自组织特征映射神经网络SOM模型,包括输入层和竞争层;输入层神经元数为n,竞争层由m个神经元组成的二维平面阵列;具体过程如下:
对输入层各权向量初始化随机为很小的参数;
随机取一个素材特征向量作为输入样本X;
遍历竞争层中每一个节点,根据欧氏距离分别计算X与节点之间的相似度;选取欧氏距离最小的节点作为获胜节点;
根据邻域半径确定所述获胜节点的优胜邻域将包含的节点;并计算各自更新的幅度;
根据所述更新幅度更新所述优胜邻域内节点的权重系数;
逐轮进行迭代优化,直到满足设定的迭代次数;
根据所述获胜节点位置确定所述素材特征向量在所述聚类视觉布局生成器中的激活位置。
12.根据权利要求7所述的装置,其特征在于,所述视觉显示单元,具体用于:
将所述素材图像分别找到在所述聚类视觉布局生成器单元中的获胜节点作为激活位置;将所述激活位置显示在对应的布局节点中,完成所述素材图像自组织聚类可视化。
13.一种存储介质,其上存储有可执行程序,所述可执行程序被处理器执行时实现如求1至6任一项所述的图像自组织聚类可视化方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110172482.9A CN112800262A (zh) | 2021-02-08 | 2021-02-08 | 一种图像自组织聚类可视化方法及装置、存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110172482.9A CN112800262A (zh) | 2021-02-08 | 2021-02-08 | 一种图像自组织聚类可视化方法及装置、存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112800262A true CN112800262A (zh) | 2021-05-14 |
Family
ID=75814803
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110172482.9A Pending CN112800262A (zh) | 2021-02-08 | 2021-02-08 | 一种图像自组织聚类可视化方法及装置、存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112800262A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114066421A (zh) * | 2021-11-23 | 2022-02-18 | 深圳壹账通科技服务有限公司 | 基于人工智能的任务催办方法、装置及电子设备 |
CN115048068A (zh) * | 2022-05-25 | 2022-09-13 | 中仪英斯泰克进出口有限公司 | 一种4kled显示屏图像显示控制系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101576913A (zh) * | 2009-06-12 | 2009-11-11 | 中国科学技术大学 | 基于自组织映射神经网络的舌象自动聚类、可视化和检索系统 |
CN104766090A (zh) * | 2015-03-17 | 2015-07-08 | 山东工商学院 | 一种基于bemd和sofm的探地雷达数据可视化方法 |
CN110866140A (zh) * | 2019-11-26 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 图像特征提取模型训练方法、图像搜索方法及计算机设备 |
CN112329860A (zh) * | 2020-11-05 | 2021-02-05 | 深圳市微埃智能科技有限公司 | 混合型深度学习视觉检测方法、装置、设备及存储介质 |
-
2021
- 2021-02-08 CN CN202110172482.9A patent/CN112800262A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101576913A (zh) * | 2009-06-12 | 2009-11-11 | 中国科学技术大学 | 基于自组织映射神经网络的舌象自动聚类、可视化和检索系统 |
CN104766090A (zh) * | 2015-03-17 | 2015-07-08 | 山东工商学院 | 一种基于bemd和sofm的探地雷达数据可视化方法 |
CN110866140A (zh) * | 2019-11-26 | 2020-03-06 | 腾讯科技(深圳)有限公司 | 图像特征提取模型训练方法、图像搜索方法及计算机设备 |
CN112329860A (zh) * | 2020-11-05 | 2021-02-05 | 深圳市微埃智能科技有限公司 | 混合型深度学习视觉检测方法、装置、设备及存储介质 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114066421A (zh) * | 2021-11-23 | 2022-02-18 | 深圳壹账通科技服务有限公司 | 基于人工智能的任务催办方法、装置及电子设备 |
CN115048068A (zh) * | 2022-05-25 | 2022-09-13 | 中仪英斯泰克进出口有限公司 | 一种4kled显示屏图像显示控制系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Castellano et al. | Deep learning approaches to pattern extraction and recognition in paintings and drawings: An overview | |
Pickup et al. | Shape retrieval of non-rigid 3d human models | |
Xie et al. | Point clouds learning with attention-based graph convolution networks | |
Xiang et al. | Objectnet3d: A large scale database for 3d object recognition | |
CN108875076B (zh) | 一种基于Attention机制和卷积神经网络的快速商标图像检索方法 | |
Ahmad et al. | Data augmentation-assisted deep learning of hand-drawn partially colored sketches for visual search | |
KR20210126646A (ko) | 분자 결합 부위를 검출하기 위한 방법 및 장치, 전자 디바이스 및 저장 매체 | |
CN114996488A (zh) | 一种天网大数据决策级融合方法 | |
Islam et al. | A CNN based approach for garments texture design classification | |
CN112800262A (zh) | 一种图像自组织聚类可视化方法及装置、存储介质 | |
CN113330455A (zh) | 使用有条件的生成对抗网络查找互补的数字图像 | |
Gonthier et al. | An analysis of the transfer learning of convolutional neural networks for artistic images | |
CN113868448A (zh) | 一种细粒度场景级基于草图的图像检索方法及系统 | |
Mishra et al. | Medical image retrieval using self-organising map on texture features | |
Ribeiro et al. | Learning with capsules: A survey | |
Huang et al. | Fine-art painting classification via two-channel deep residual network | |
Chen et al. | Deep net architectures for visual-based clothing image recognition on large database | |
Bello et al. | FFPointNet: Local and global fused feature for 3D point clouds analysis | |
Ghrabat et al. | Greedy learning of deep Boltzmann machine (GDBM)’s variance and search algorithm for efficient image retrieval | |
ElAlami | Unsupervised image retrieval framework based on rule base system | |
Bhatti et al. | Contextual local primitives for binary patent image retrieval | |
Li et al. | [Retracted] Deep‐Learning‐Based 3D Reconstruction: A Review and Applications | |
Ferreira et al. | Multimodal learning for sign language recognition | |
Ufer et al. | Large-scale interactive retrieval in art collections using multi-style feature aggregation | |
Adnan et al. | Automated image annotation with novel features based on deep ResNet50-SLT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |