CN104123382B - 一种社会媒体下的图像集摘要生成方法 - Google Patents
一种社会媒体下的图像集摘要生成方法 Download PDFInfo
- Publication number
- CN104123382B CN104123382B CN201410376990.9A CN201410376990A CN104123382B CN 104123382 B CN104123382 B CN 104123382B CN 201410376990 A CN201410376990 A CN 201410376990A CN 104123382 B CN104123382 B CN 104123382B
- Authority
- CN
- China
- Prior art keywords
- formula
- point
- image
- matrix
- match point
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/54—Browsing; Visualisation therefor
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
Abstract
本发明公开了一种社会媒体下的图像集摘要生成方法,首先提取社会媒体下的图像集中图像的视觉特征;然后对提取的局部特征和全局特征进行融合和匹配;接着利用最优特征点的空间约束关系构成空间位置地图并构成简化的几何约束代表数据集,进一步滤除噪声点;其次建立基于近邻传播的自动聚类模型;最后采用聚类有效性指标查找一组最佳聚类中心。本发明能够充分利用图像的多模态特征,对社会媒体下的图像集中大量相关图像进行摘要,从而准确生成一组最优代表性图像。
Description
技术领域
本发明涉及社会媒体图像集的分析与检索领域,具体是一种社会媒体下的图像集摘要生成方法。
背景技术
随着互联网技术的飞速发展和多媒体技术的广泛应用,互联网地位不断提升,并成为人们交流和共享信息的主要平台。网络用户自发贡献图片和视频等多媒体资料,并通过分享、评价、讨论等方式传播,从而海量的图片潮水般的涌向网络。在如此浩瀚的图片海洋中,找到那个我们想要的图片并非易事。当我们发起一个查询,返回给我们的是一个庞大的多媒体图片集队列,并且有大量内容重复或部分重复的数据,同时也包含相当数量与查询内容弱相关或不相关的数据。如何快速并且准确地从这样一个充斥着大量冗余和噪声数据的大规模图片集合中浏览和获取用户所需信息,已经成为迫切需要解决的问题。
近年来,图像集摘要作为一种有效的信息处理方法,得到了学术界越来越多的关注。目前存在的图像集的摘要技术,主要使用尺度不变的局部SIFT特征作为图像的视觉特征,SIFT特征虽然有较好的稳定性,但由其特征维度较高,所以计算代价较大。
在数据挖掘领域,聚类是一种非常有效的将输入空间划分成簇的无监督模式分类方法,被广泛应用于模式识别、数据分析、信息检索等领域。聚类分析从数据集中发现数据间的相似性,并根据相似性对数据进行分类,同一簇内的数据尽可能相似,不同簇间的数据尽可能的相异,其目标是识别数据集的自然结构。但是,目前所提出的聚类分析用于图像集摘要生成时,存在以下的缺陷和不足:
第一,传统的聚类方法需要预先给定簇的个数,或者对一个基本的数据集假设一些可能的分布。这些需求具有不可操作性,因为用户在聚类分析之前可能并没有这方面的信息。很多聚类方法只能凭经验指定簇个数。簇个数越少使得计算简单但数据集划分的准确度低,簇个数越高使得数据集的划分准确度高但摘要图像有冗余。
第二、传统的聚类算法依赖于初始聚类中心,所以结果往往不稳定。
第三,一个最优的聚类算法是不存在的,没有一个聚类方法适合于所有的数据集。
发明内容
本发明的目的是提供一种社会媒体下的图像集摘要生成方法,以避免现有技术所存在的不足之处,能够充分利用图像的视觉特征,对互联网平台的社会化图像集自动生成摘要,从而准确地表示出与事件最相关的一组社会化图像。
为了达到上述目的,本发明所采用的技术方案为:
一种社会媒体下的图像集摘要生成方法,其特征在于:包括以下步骤:
(1)、提取社会媒体图像集I中图像Ii(1≤i≤n)的视觉特征,其中包括局部SURF特征、全局颜色特征和纹理特征,然后构建特征空间矩阵;
(2)、匹配特征空间,用最近邻比率找到一组最优匹配点对,构造空间地图,对于任意N个匹配点,第i个和第j个匹配点的位置关系使得空间信息表M中元素取值如公式(1)、公式(2)所示,
其中Mij为M矩阵的第i行第j列的元素,xi、yi分别是匹配点i的坐标,xj、yj分别是匹配点j的坐标,根据匹配点最近邻比率越小正确率越高的特点,挑选前T个最优匹配点,两两组合分别构造个参考坐标,对应两个匹配点a和b,且a<b,以a点为中心,a点指向b点作为x轴正方向,从而确定了坐标旋转角度β如公式(3)所示:
其中,xa、ya是a点坐标,xb、yb是b点坐标。
匹配点(x,y)在新坐标系下的坐标(xk,yk)如公式(4)所示:
那么形成了3维空间约束矩阵M如公式(5)、公式(6)所示:
其中,k∈1,2,…,K;
(3)简化随机抽样一致性拟合初始模型参数的过程,选择少数最优匹配点作为初始样本数据,可以通过设置尽量少的迭代次数来得到尽量真实的单应性矩阵参数,
选择投影变换矩阵作为图像变换模型,变换关系如公式(7)所示:
这里,(x2,y2)是原图像中点坐标(x1,y1)经过投影变换后的点坐标,h1,h2,…,h8是单应性矩阵参数,ω是尺度因子。这是8个参数的投影变换,至少需要4个匹配对来生成,利用最小二乘法求解这8个参数,如公式(8)所示:
H=-[CTC]-1CTL (8)
其中,
H=[h1 h2 h3 h4 h5 h6 h7 h8] (10)
先设ω=1,得到H的一组值,再用此值计算出ω的值,进行多次迭代求出稳定的H,
初始样本数据数目n由公式(12)所示:
n=min{N0,max{n0,n0log2μN0}} (12)
这里N0是一次匹配的匹配点数目,并且N0≥4,n0为样本数目步长,μ为比例因数;
(4)、待配准的两幅图像根据相应的匹配对分别产生空间约束矩阵M′和M,对M′和M矩阵中的异值点进行统计,生成异值矩阵W如公式(13)所示:,
为了确保匹配精度,K值选择应大于2,但考虑到运算速度,K取值又不能过大,一般选择K=3,最后得到特征点在空间约束矩阵下的错误率为di如公式(14)所示:
设模型参数变换得到匹配点坐标值与实际坐标的距离值为dj,根据式(15)进行匹配点判别,由于透视变换矩阵仅为少数数据得出,不能保证求得最精确的结果,所以采用两个约束条件相互补充,如公式(15)所示:
di·dj(1+α)<γ (15)
公式中α为比例因子,γ均为距离阈值;
(5)、建立基于近邻传播的自动聚类模型,采用对分搜索方法输出一系列簇数目的聚类结果,设定有效性指标L,通过对结果的L指标分析进而确定最佳簇数目如公式(16)所示:
其中,ACID为平均最小类间距离,ACOD为平均类间距离,如公式(17)、(18)所示:
(6)、根据有效性指标找到最优的聚类数目对应着对图像集的分类,同时获得一组聚类中心作为这个数据集的一组代表图像,并构成图像集摘要。
与已有技术相比,本发明有益效果体现在:
1、本发明提出了一种基于空间约束的快速鲁棒特征匹配优化方法。通过图像视觉特征进行统一建模,采用最近邻比率方法匹配特征点,得到的最优匹配点作为参考点生成新的坐标系,利用空间位置关系地图对每对匹配点进行编码。建立了有效的特征点的匹配模型,用于对样本进行特征降维,去除误匹配点,从而能够有效的、准确的根据匹配模型对特征点进行特征匹配。
2、本发明简化了随机抽样一致性的几何校验方法,通过选择少量的最优匹配点对作为随机抽样一致性的代表测试数据集,并由该测试数据集拟合目标投影变换矩阵。从而解决了几何校验计算成本高昂的问题,同时也提高了匹配精度。
3、本发明引入了基于有效性指标判别的自动聚类的方法,通过对分法搜索近邻传播聚类的偏向参数,利用有效性指标判别最优聚类数目,实现自动生成摘要。
附图说明
图1为本发明具体实施例中视角变化时特征匹配性能比较图。
图2为本发明具体实施例中缩放旋转变化时特征匹配性能比较图。
图3为本发明具体实施例中光照变化时特征匹配性能比较图。
图4为本发明具体实施例中图像模糊时各特征匹配性能比较图。
图5为本发明具体实施例中JPEG压缩时各特征匹配性能比较图。
具体实施方式
一种社会媒体下的图像集摘要生成方法,包括以下步骤:
(1)、提取社会媒体图像集I中图像Ii(1≤i≤n)的视觉特征,其中包括局部SURF特征、全局颜色特征和纹理特征,然后构建特征空间矩阵;
(2)、匹配特征空间,用最近邻比率找到一组最优匹配点对,构造空间地图,对于任意N个匹配点,第i个和第j个匹配点的位置关系使得空间信息表M中元素取值如公式(1)、公式(2)所示,
其中Mij为M矩阵的第i行第j列的元素,xi、yi分别是匹配点i的坐标,xj、yj分别是匹配点j的坐标,根据匹配点最近邻比率越小正确率越高的特点,挑选前T个最优匹配点,两两组合分别构造个参考坐标,对应两个匹配点a和b,且a<b,以a点为中心,a点指向b两点作为x轴正方向,从而确定了坐标旋转角度β如公式(3)所示:
其中,xa、ya是a点坐标,xb、yb是b点坐标。
匹配点(x,y)在新坐标系下的坐标(xk,yk)如公式(4)所示:
那么形成了3维空间约束矩阵M如公式(5)、公式(6)所示:
其中,k∈1,2,…,K;
(3)简化随机抽样一致性拟合初始模型参数的过程,选择少数最优匹配点作为初始样本数据,可以通过设置尽量少的迭代次数来得到尽量真实的单应性矩阵参数,
选择投影变换矩阵作为图像变换模型,变换关系如公式(7)所示:
这里,(x2,y2)是原图像中点坐标(x1,y1)经过投影变换后的点坐标,h1,h2,…,h8是单应性矩阵参数,ω是尺度因子。这是8个参数的投影变换,至少需要4个匹配对来生成,利用最小二乘法求解这8个参数,如公式(8)所示:
H=-[CTC]-1CTL (8)
其中,
H=[h1 h2 h3 h4 h5 h6 h7 h8] (10)
先设ω=1,得到H的一组值,再用此值计算出ω的值,进行多次迭代求出稳定的H,
初始样本数据数目n由公式(9)所示:
n=min{N0,max{n0,n0log2μN0}} (9)
这里N0是一次匹配的匹配点数目,并且N0≥4,n0为样本数目步长,μ为比例因数;
(4)、待配准的两幅图像根据相应的匹配对分别产生空间约束矩阵M′和M,对M′和M矩阵中的异值点进行统计,生成异值矩阵W如公式(10)所示:,
为了确保匹配精度,K值选择应大于2,但考虑到运算速度,K取值又不能过大,一般选择K=3,最后得到特征点在空间约束矩阵下的错误率为di如公式(11)所示:
设模型参数变换得到匹配点坐标值与实际坐标的距离值为dj,根据式(12)进行匹配点判别,由于透视变换矩阵仅为少数数据得出,不能保证求得最精确的结果,所以采用两个约束条件相互补充,如公式(12)所示:
di·dj(1+α)<γ (12)
公式中α为比例因子,γ均为距离阈值;
(5)、建立基于近邻传播的自动聚类模型,采用对分搜索方法输出一系列簇数目的聚类结果,设定有效性指标L,通过对结果的L指标分析进而确定最佳簇数目如公式(13)所示:
其中,ACID为平均最小类间距离,ACOD为平均类间距离,如公式(14)、(15)所示:
(6)、根据有效性指标找到最优的聚类数目对应着对图像集的分类,同时获得一组聚类中心作为这个数据集的一组代表图像,并构成图像集摘要。
本实施例中,一种基于社会媒体的图像集摘要生成方法是按如下步骤进行:
步骤1、提取社会媒体图像集I中图像Ii(1≤i≤n)的视觉特征,其中包括局部特征、全局特征,构建特征空间矩阵。所述图像局部特征采用快速鲁棒特征模型表示,所述全局特征采用颜色特征和纹理特征表示。
步骤2、对任意的图像集合中的样本图像,根据所述特征建立特征空间,并两两特征空间匹配,用最近邻比率找到一组最优匹配点对,构造空间地图。
步骤2.1、对于任意N个匹配点,第i个和第j个匹配点的位置关系使得空间信息表M中元素取值如式(1),式(2)所示,
其中Mij为M矩阵的第i行第j列的元素,xi、yi分别是匹配点i的坐标,xj、yj分别是匹配点j的坐标。
步骤2.2、根据匹配点最近邻比率越小正确率越高的特点,挑选前T个最优匹配点,两两组合分别构造个参考坐标。对应两个匹配点a和b,且a<b,以a点为中心,a点指向b点作为x轴正方向,从而确定了坐标旋转角度β
其中,xa、ya是a点坐标,xb、yb是b点坐标。
匹配点在新坐标系下的坐标为
那么形成了3维空间约束矩阵M
其中,k∈1,2,…,K。
步骤3、简化随机抽样一致性拟合初始模型参数的过程,选择少数最优匹配点作为初始样本数据,可以通过设置尽量少的迭代次数来得到尽量真实的单应性矩阵参数。
选择投影变换矩阵作为图像变换模型,变换关系为:
这里,(x2,y2)是原图像中点坐标(x1,y1)经过投影变换后的点坐标,h1,h2,…,h8是单应性矩阵参数,ω是尺度因子。这是8个参数的投影变换,至少需要4个匹配对来生成,利用最小二乘法求解这8个参数,如公式(8)所示:
H=-[CTC]-1CTL (8)
其中,
H=[h1 h2 h3 h4 h5 h6 h7 h8] (10)
先设ω=1,得到H的一组值,再用此值计算出ω的值,进行多次迭代求出稳定的H。
初始样本数据数目n由下式确定:
n=min{N0,max{n0,n0log2μN0}} (12)
这里N0是一次匹配的匹配点数目,并且N0≥4,n0为样本数目步长,μ为比例因数。
步骤4、待配准的两幅图像根据相应的匹配对分别产生空间约束矩阵M′和M,对M′和M矩阵中的异值点进行统计,生成异值矩阵W,
为了确保匹配精度,K值选择应大于2,但考虑到运算速度,K取值又不能过大,一般选择K=3。最后得到特征点在空间约束矩阵下的错误率为di,
设模型参数变换得到匹配点坐标值与实际坐标的距离值为dj,根据式(15)进行匹配点判别,由于透视变换矩阵仅为少数数据得出,不能保证求得最精确的结果,所以采用两个约束条件相互补充,
di·dj(1+α)<γ (15)
式中α为比例因子,γ均为距离阈值。
步骤5、建立基于近邻传播的自动聚类模型,采用对分搜索方法输出一系列簇数目的聚类结果。
步骤5.1、吸引度迭代函数r(t)(i,k)和归属度迭代函数a(t)(i,k):
式(16)、(17)、(18)中,λ是阻尼因子,s(i,k)表示点i与点k的相似度,并有:
s(i,k)=-d2(xi,xk)=-||xi-xk||2,i≠k (19)
步骤5.2、设定有效性指标L,通过对结果的L指标分析进而确定最佳簇数目。
式(20)中,ACID表示平均最小类间距离,ACOD表示平均类间距离,并有:
步骤6、根据有效性指标找到最优的聚类数目对应着对图像集的分类,同时获得一组聚类中心作为这个数据集的一组代表图像,并构成图像集摘要。
实施例:
为了验证本专利中方法的效果,在社交媒体网站发起100次查询,并建立了100个数据集,每个数据集包含几千张乃至几万张图像样本。采用局部SURF特征、全局颜色特征和纹理特征表示图像信息,采用空间约束矩阵和简化的随机抽样一致性对匹配对进行几何校验,并利用有效性指标判别近邻传播聚类效果,自动聚类选择一组最优的代表图像作为图像集摘要。
为了客观的评价本专利提出的方案的性能,对本发明的特征匹配SC-SURF方法性能采用召回率-准确率,对摘要图像集性能采用平均准确率,对不同实验条件下的结果进行了评测,具体结果如图1-5和表1所示:
表1基于近邻传播聚类的不同有效性指标下的测试结果
从表1中可以看出,对于UCI数据集,相比其他有效性指标,本文方法能够提高查找集合样本聚类数目的准确率,对于从社交网站查找关键词而获得的人工数据集,其正确聚类数目未知,只能人为判别效果。
Claims (1)
1.一种社会媒体下的图像集摘要生成方法,其特征在于:包括以下步骤:
(1)、提取社会媒体图像集I中图像Ii(1≤i≤n)的视觉特征,其中包括SURF(局部加速稳健特征)特征、全局颜色特征和纹理特征,然后构建特征空间矩阵;
(2)、匹配特征空间,用最近邻比率找到一组最优匹配点对,构造空间地图,对于任意N个匹配点,第i个和第j个匹配点的位置关系使得空间信息表M中元素取值如公式(1)、公式(2)所示,
其中M(i,j)为M矩阵的第i行第j列的元素,xi、yi分别是匹配点i的坐标,xj、yj分别是匹配点j的坐标,根据匹配点的最近邻比率越小匹配正确率越高的特点,匹配点按照最近邻比率排序,挑选前T个最优匹配点,两两组合分别构造个参考坐标系,对应两个匹配点a和b,若a点排序位于b点之前,则以a点为中心,a点指向b点的方向作为x轴正方向,从而确定了坐标旋转角度β如公式(3)所示:
其中,xa、ya是a点坐标,xb、yb是b点坐标,
匹配点(x,y)在新坐标系下的坐标(xk,yk)如公式(4)所示:
那么形成了3维空间约束矩阵M如公式(5)、公式(6)所示:
其中,k=1,2,…,K,i=1,2,…,N,j=1,2,…,N,i≠j,K是参考坐标系数目,N是匹配点数目;
(3)简化随机抽样一致性拟合单应性矩阵模型的过程,选择少数最优匹配点作为初始样本数据,可以通过设置尽量少的迭代次数来得到尽量真实的单应性矩阵,
选择单应性矩阵作为图像变换模型,变换关系如公式(7)所示:
这里,(x2,y2)是原图像中点坐标(x1,y1)经过变换后的点坐标,h1,h2,…,h8是单应性矩阵参数,ω为尺度因子,这是8个参数的投影变换,至少需要4个匹配对来生成,利用最小二乘法求解这8个参数,如公式(8)所示:
H=-[CTC]-1CTL (8)
其中,
H=[h1 h2 h3 h4 h5 h6 h7 h8] (10)
先设尺度因子ω=1,得到H的一组值,再用此值计算出ω的值,进行多次迭代求出稳定的H,
初始样本数据数目n由公式(12)所示:
n=min{N0,max{n0,n0log2μN0}} (12)
这里N0是一次匹配的匹配点数目,并且N0≥4,n0为样本数目步长,μ为比例因数;
(4)、待配准的两幅图像根据相应的匹配对分别产生空间约束矩阵M′和M,对M′和M矩阵中的异值点进行统计,生成异值矩阵W如公式(13)所示:
其中,k=1,2,…,K,i=1,2,…,N,j=1,2,…,N,i≠j,K是参考坐标系数目,N是匹配点数目,
为了确保匹配精度,但考虑到运算速度,K取值又不能过大,一般选择K=3,最后得到特征点在空间约束矩阵下的错误率为di如公式(14)所示:
其中,k=1,2,…,K,i=1,2,…,N,j=1,2,…,N,i≠j,K是参考坐标系数目,N是匹配点数目,
通过单应性矩阵变换得到的匹配点与原始匹配点的欧氏距离为Di,采用约束条件对匹配点进行判决,如公式(15)所示:
diDi(1+α)<γ (15)
公式中α为比例因子,γ为距离阈值;
(5)、建立基于近邻传播的自动聚类模型,设定有效性指标,通过对结果的有效性指标分析进而确定最佳聚类数目;
(6)、根据有效性指标找到最佳的聚类数目对应着图像集的分类,同时获得一组聚类中心作为这个数据集的一组代表图像,并构成图像集摘要。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410376990.9A CN104123382B (zh) | 2014-07-31 | 2014-07-31 | 一种社会媒体下的图像集摘要生成方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201410376990.9A CN104123382B (zh) | 2014-07-31 | 2014-07-31 | 一种社会媒体下的图像集摘要生成方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN104123382A CN104123382A (zh) | 2014-10-29 |
CN104123382B true CN104123382B (zh) | 2018-08-10 |
Family
ID=51768793
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201410376990.9A Active CN104123382B (zh) | 2014-07-31 | 2014-07-31 | 一种社会媒体下的图像集摘要生成方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN104123382B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106503743B (zh) * | 2016-10-31 | 2020-04-17 | 天津大学 | 一种数量多且维数高的图像局部特征点自适应聚类方法 |
CN110515525B (zh) * | 2019-08-30 | 2021-07-23 | 佳都科技集团股份有限公司 | 可视化数据处理方法、装置、设备和存储介质 |
CN113204670B (zh) * | 2021-05-24 | 2022-12-09 | 合肥工业大学 | 一种基于注意力模型的视频摘要描述生成方法及装置 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8542950B2 (en) * | 2009-06-02 | 2013-09-24 | Yahoo! Inc. | Finding iconic images |
US8599219B2 (en) * | 2009-09-18 | 2013-12-03 | Adobe Systems Incorporated | Methods and apparatuses for generating thumbnail summaries for image collections |
CN103530656A (zh) * | 2013-09-10 | 2014-01-22 | 浙江大学 | 基于隐结构学习的图像摘要生成方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9185469B2 (en) * | 2010-09-30 | 2015-11-10 | Kodak Alaris Inc. | Summarizing image collection using a social network |
-
2014
- 2014-07-31 CN CN201410376990.9A patent/CN104123382B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8542950B2 (en) * | 2009-06-02 | 2013-09-24 | Yahoo! Inc. | Finding iconic images |
US8599219B2 (en) * | 2009-09-18 | 2013-12-03 | Adobe Systems Incorporated | Methods and apparatuses for generating thumbnail summaries for image collections |
CN103530656A (zh) * | 2013-09-10 | 2014-01-22 | 浙江大学 | 基于隐结构学习的图像摘要生成方法 |
Non-Patent Citations (2)
Title |
---|
Scene Summarization for Online Image Collections;Ian Simon等;《In Proceedings of the IEEE 11也 International Conference on Computer Vision》;20071231;1-8 * |
基于空间约束的快速鲁棒特征匹配优化;赵烨 等;《电子与信息学报》;20141115;第36卷(第11期);2571-2577 * |
Also Published As
Publication number | Publication date |
---|---|
CN104123382A (zh) | 2014-10-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Xiao et al. | Davies Bouldin Index based hierarchical initialization K-means | |
Lun et al. | Elements of style: learning perceptual shape style similarity | |
Zhang et al. | Online social network profile linkage | |
Wang et al. | Sketch-based 3d shape retrieval using convolutional neural networks | |
US9330341B2 (en) | Image index generation based on similarities of image features | |
CN108280187B (zh) | 一种基于卷积神经网络深度特征的分级图像检索方法 | |
WO2018023734A1 (zh) | 一种3d图像的显著性检测方法 | |
Unar et al. | Detected text‐based image retrieval approach for textual images | |
CN110163258A (zh) | 一种基于语义属性注意力重分配机制的零样本学习方法及系统 | |
CN105701514B (zh) | 一种用于零样本分类的多模态典型相关分析的方法 | |
CN110059807A (zh) | 图像处理方法、装置和存储介质 | |
CN105354578B (zh) | 一种多目标物体图像匹配方法 | |
CN105718940B (zh) | 基于多组间因子分析的零样本图像分类方法 | |
CN106203483B (zh) | 一种基于语义相关多模态映射方法的零样本图像分类方法 | |
KR20130142191A (ko) | 비주얼 탐색을 위한 강건한 특징 매칭 | |
Wang et al. | Shape detection from raw lidar data with subspace modeling | |
CN106022241B (zh) | 一种基于小波变换及稀疏表示的人脸识别方法 | |
Weyand et al. | Visual landmark recognition from internet photo collections: A large-scale evaluation | |
CN112000763B (zh) | 兴趣点竞争关系确定方法、装置、设备和介质 | |
CN112529068B (zh) | 一种多视图图像分类方法、系统、计算机设备和存储介质 | |
CN104123382B (zh) | 一种社会媒体下的图像集摘要生成方法 | |
CN114049194A (zh) | 一种基于图片背景相似性的欺诈检测识别方法及设备 | |
CN103617609A (zh) | 基于图论的k-means非线性流形聚类与代表点选取方法 | |
CN110188864B (zh) | 基于分布表示和分布度量的小样本学习方法 | |
CN110348516B (zh) | 数据处理方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |