CN112528061A - 一种基于选择性卷积描述符聚合的多目标图像检索方法 - Google Patents
一种基于选择性卷积描述符聚合的多目标图像检索方法 Download PDFInfo
- Publication number
- CN112528061A CN112528061A CN202011086073.9A CN202011086073A CN112528061A CN 112528061 A CN112528061 A CN 112528061A CN 202011086073 A CN202011086073 A CN 202011086073A CN 112528061 A CN112528061 A CN 112528061A
- Authority
- CN
- China
- Prior art keywords
- image
- pixel
- convolution
- aggregation
- target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 46
- 230000002776 aggregation Effects 0.000 title claims abstract description 29
- 238000004220 aggregation Methods 0.000 title claims abstract description 29
- 239000012634 fragment Substances 0.000 claims abstract description 15
- 238000013507 mapping Methods 0.000 claims abstract description 8
- 238000005259 measurement Methods 0.000 claims abstract description 8
- 238000012545 processing Methods 0.000 claims abstract description 7
- 238000011176 pooling Methods 0.000 claims description 18
- 238000001914 filtration Methods 0.000 claims description 10
- 238000012216 screening Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 4
- 238000013459 approach Methods 0.000 claims description 3
- 239000003086 colorant Substances 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 3
- 239000011159 matrix material Substances 0.000 claims description 3
- 230000011218 segmentation Effects 0.000 claims description 3
- 239000013598 vector Substances 0.000 claims description 3
- 238000010187 selection method Methods 0.000 abstract description 2
- 230000006870 function Effects 0.000 description 9
- 230000000007 visual effect Effects 0.000 description 5
- 238000013528 artificial neural network Methods 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 238000013527 convolutional neural network Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000008451 emotion Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000011160 research Methods 0.000 description 1
- 230000009897 systematic effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/58—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
- G06F16/583—Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/50—Information retrieval; Database structures therefor; File system structures therefor of still image data
- G06F16/53—Querying
- G06F16/538—Presentation of query results
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Library & Information Science (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于选择性卷积描述符聚合的多目标图像检索方法,首先利用假设选择的方法选取出多目标对象图片里面的对象片段,然后对选取出来的对象片段进行处理,先分别将对象片段的卷积特征在深度方向做加和,之后获得聚合映射图片,保留关键的特征卷积描述符对图像数据库中的图像特征进行相似性度量,根据度量后的不同相似度对比,得到相似度排名。本发明不但提高了多目标对象的图像的检索精度,特别是相似度高的图片,如不同图像里面包含相同单个对象或者相同背景里面对象不同等,同时还可以适用于差别较小的物种识别。
Description
技术领域
本发明属于图像检索方法技术领域,涉及一种基于选择性卷积描述符聚合的多目标图像检索方法。
背景技术
随着数码设备的流行以及互联网的快速发展,图像对于人们的日常生活的重要性也日渐增长,大量的图片、视频数据在工业产权、医学影像、遥感系统、数字图书馆等多个领域得到了应用,从而存在了对能够有效的检索多媒体数据系统的需求。因此,用户所需图像在大量的图像中能够被快速精确地检索到的研究成为一个很有意义且需要迫切解决的课题。
图像检索实现了对图像库的有效查询和管理,它是指从大规模图像数据库中检索出与问文本查询或视觉查询相关的图像。目前图像检索主要有基于文本的图像检索(text-based image retrieval,TBIR)、基于内容的图像检索(content-based image retrieval,CBIR)和基于语义的图像检索(semantic-based image retrieval,SBIR)。基于文本的图像检索,主要是利用文本描述图像的特征,然后再通过文本匹配进行图像的检索。目前基于文本的检索技术已经发展成熟,如概率方法、Page-Rank方法、位置方法、词性标注法、聚类方法等(Cheng A,Friedman E.Manipulability of PageRank under sybil strategies[J].NetEcon,2006.)。基于内容的图像检索技术,它是对图像的内容,如图像的形状、纹理等低层特征进行查询和分析的图像检索技术。通过对图像的视觉内容进行数学描述来提取图像特征,利用这些低层特征的数学描述去反映图像本身的视觉内容。基于语义的图像检索技术,与CBIR不同的是,SBIR是基于文字的查询,包含了传统的图像检索技术和自然语言处理。SBIR是解决“语义鸿沟”的重要方法及思路,它不但考虑了低层视觉特征,而且考虑了图像的高层特征,如场景、情感和空间关系等方面的图像信息。在2012年,Krizhevsky等(Krizhevsky A,Sutskever I,Hinton G E.Imagenet clas sification with deepconvolutional neural networks[c]//Advances in neural information processingsystems,2012:1097-1105.)在ImageNet LSVRC大赛上利用AlexNet获得了最高的准确率,从那之后兴起了一些基于深度学习的图像检索算法,广泛应用在图像语义分割、目标识别、图像分类以及图像检索等领域。在深度学习算法中特别是卷积神经网络的检索效果最好,它利用多个池化层和卷积层的组合得到图像的视觉特征,并与反馈及分类技术相结合从而实现了较好的检索结果。
目前面对的问题是对于多目标对象的图像的检索精度还有待提高,特别是相似度高的图片,如不同图像里面包含相同单个对象或者相同背景里面对象不同等。因此在图像检索的时候,针对复杂图像包含的多个目标对象作相应处理,对多目标图像检索精度得到提高具有重大的意义。
发明内容
本发明的目的是提供一种基于选择性卷积描述符聚合的多目标图像检索方法,本方法能够通过对图像数据库中的图像进行识别和检索,并检索需要的图片后提取出来。
本发明所采用的技术方案是,一种基于选择性卷积描述符聚合的多目标图像检索方法,具体按以下步骤实施:
步骤1,首先根据图像包含的目标对象对原始图像进行假设提取;
步骤2,将经步骤1中提取的假设框进行筛选得到包含单个目标的对象片段;
步骤3,对步骤2筛选出来的对象片段分别处理,将对象片段的卷积特征在深度方向做加和,之后获得聚合映射图片Aggregation Map(H×W);
步骤4,分别计算出所有对象片段的二维图中的H×W个元素的均值,AggregationMap中大于m的元素位置的卷积特征需要保留;小于m的元素位置的卷积特征丢弃;
步骤5,对经步骤4保留下来的深度特征,分别做以平均和最大池化操作,之后级联组成最终的图像表示;
步骤6,利用上述步骤得到的特征对图像数据库中的图像特征进行相似性度量,根据度量后的不同相似度对比,得到相似度排名。
本发明的特点还在于:
其中步骤1具体内容包括:
采用BING和EdgeBoxs两种方法生成假设,然后使用假设选择(HS)的方法来选择假设到生成的建议,给定的图像的生成的假设包围盒作为H={h1,h2,…hn},其中n是假设数;构造一个n*亲和矩阵W,其中Wij(i;j<=n)是hi和hj之间的IoU值,定义为:
其中|·|用于测量像素的数目;
其中步骤2具体内容包括:
采用归一化分割算法将假设包围盒分组到M群中,不同的颜色指示不同的簇;过滤面积或较高的高宽或宽高比的假设;对于每个集群,选择BING或EdgeBoxes生成的预测得分最高的前1种假设,并将其调整为方形;
其中步骤2中过滤面积为过滤小于900像素的假设,过滤宽高或高宽比大于4的假设;
其中步骤3具体包括以下内容:
首先利用选择性卷积描述符聚合SCDA的方法处理步骤2筛选得到的对象片段图片;
然后将处理后的对象片段经过池化层,分别用三维的向量T(H×W×D)进行表达;将所有channel相加,然后特征图就由H×W×D变成了H×W,叫做Aggregation map A:
式中,Sn是最大池化后最后一个卷积层的激活中的第n个特征映射,每一个对象片段都做以上相同的操作得到A1,A2…An;
其中步骤4具体包括以下内容:
步骤4.1,分别计算An的平均值a作为阈值,以决定哪些位置定位对象,与An相同大小的mask map M可得:
式中,(i,j)是这些h×w位置的特定位置;
步骤4.2,使用bicubic差值方法,将M的尺寸调整成和原图大小相同,Bicubic差值方法具体如下:
假设源图像A大小为m*n,缩放K倍后的目标图像B的大小为M*N,即K=M/m,首先找出像素(X,Y)在源图像A中对应的像素(x,y),再根据源图像A距离像素(x,y)最近的16个像素点作为计算目标图像B(X,Y)处像素值的参数,利用BiCubic基函数求出16个像素点的权重,图B像素(x,y)的值就等于16个像素点的加权叠加;
根据比例关系x/X=m/M=1/K,得到B(X,Y)在A上的对应坐标为A(x,y)=A(X*(m/M),Y*(n/N))=A(X/K,Y/K);设P点就是目标图像B在(X,Y)处对应于源图像A中的位置,假设P的坐标为P(x+u,y+v),其中x,y分别表示整数部分,u,v分别表示小数部分,得到最近16个像素的位置,用a(i,j)(i,j=0,1,2,3)来表示;
构造BiCubic函数:
求出BiCubic函数中的参数x,从而获得16个像素所对应的权重W(x);
将像素点的行与列分开计算,BiCubic函数中的参数x表示该像素点到P点的距离,如a00距离P(x+u,y+v)的距离为(1+u,1+v),因此a00的横坐标权重i_0=W(1+u),纵坐标权重j_0=W(1+v),a00对B(X,Y)的贡献值为:(a00像素值)*i_0*j_0;因此,a0X的横坐标权重分别为W(1+u),W(u),W(1-u),W(2-u);ay0的纵坐标权重分别为W(1+v),W(v),W(1-v),W(2-v);B(X,Y)像素值为:
加权算法:
f(i+u,j+v)=ABCT (6)
A=[S(u+1) S(u) S(u-1)S(u-2)] (7)
A=[S(v+1) S(v) S(v-1)S(v-2)] (8)
B=f(i-1:i+2,j-1:j+2) (9)
其中S(x)为三次插值核函数,可由如下式子近似:
其中步骤5具体包括以下内容:
选用两种池化方式来聚合深度描述符,分别是平均池化pavg和最大池化pmax:
pmax=maxi,jx(i,j) (12)
式中,pavg和pmax都是1×d维,N是所选描述符的数目。
其中步骤6具体按照以下步骤实施:
利用上述步骤处理图片后,再根据输入图片的多个对象片段的特征对图像数据库中的图像特征进行相似性度量,根据度量后的不同相似度对比,得到相似度排名。
本发明的有益效果是:
本发明的一种基于选择性卷积描述符聚合的多目标图像检索方法利用假设选择的方法选取出多目标对象图片里面的对象片段,然后对选取出来的对象片段进行处理,先分别将对象片段的卷积特征在深度方向做加和,之后获得聚合映射图片,保留关键的特征卷积描述符对图像数据库中的图像特征进行相似性度量,根据度量后的不同相似度对比,得到相似度排名。在使用SCDA方法聚合描述符时,不但可以挖掘深度卷积特征,而且能够有效的定位图像主要目标,丢弃噪声背景并保留有用的深度描述符。使用的图像数据库是本发明提高了多目标对象的图像的检索精度,特别是相似度高的图片,如不同图像里面包含相同单个对象或者相同背景里面对象不同等,同时还可以适用于差别较小的物种识别。
附图说明
图1是本发明的一种基于选择性卷积描述符聚合的多目标图像检索方法中Bicubic差值方法的补充示意图;
图2是本发明的一种基于选择性卷积描述符聚合的多目标图像检索方法的示意图;
图3是是本发明的一种基于选择性卷积描述符聚合的多目标图像检索方法的具体流程图。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明提供一种基于选择性卷积描述符聚合的多目标图像检索方法,如图2和图3所示,具体按照以下步骤实施:
步骤1,如图2所示,根据图像中包含的目标对象对原始图像进行假设提取:
采用BING和EdgeBoxs两种方法生成假设,因为他们具有高的计算效率和高的对象检测召回率,尽管与一般的滑动窗口范例相比,由BING和EdgeBox生成的假设数量非常少,但对于本实验来说仍然非常大。为了解决这个问题,我们使用假设选择(HS)的方法来选择假设到生成的建议。表示给定的图像的生成的假设包围盒作为H={h1,h2,…hn},其中n是假设数。构造一个n*亲和矩阵W,其中Wij(i;j<=n)是hi和hj之间的IoU值,它可以定义为:
式中,|·|用于测量像素的数目;
步骤2,将经步骤1中提取的假设框进行筛选得到包含单个目标的对象片段:
采用归一化分割算法将假设包围盒分组到M群中,不同的颜色指示不同的簇,根据经验过滤那些面积(<900像素)或较高的高宽(或宽高)比(>4)的假设,对于每个集群,选择BING或EdgeBoxes生成的预测得分最高的前1种假设,并将其调整为方形;
步骤3,对步骤2筛选出来的对象片段分别处理,将对象片段的卷积特征在深度方向做加和,之后获得聚合映射图片Aggregation Map(H×W):
由于选取的对象片段还是具有背景或噪声,所以我们使用选择性卷积描述符聚合(SCDA)的方法处理这些片段图片,SCDA只需要用预训练模型就能够挖掘深度卷积特征,这种特征能够有效的定位图像主要目标,丢弃噪声背景并保留有用的深度描述符;
接下来将这些对象片段经过池化层,然后分别用三维的向量T(H×W×D)进行表达,这是一种分布的表达,分布表达通过卷积编码获得,在深度学习中分布表达意味着不同形式间的内在联系,每一个概念(concept)是神经网络激活的结果;每一个神经元参与多个concept的表达;一般来说单一的通道对于定位目标物体的是没有用的,但是当很多通道都在同一区域激活时,这个区域是目标物体的概率较高;所以将所有channel相加,然后特征图(feature map)就由H×W×D变成了H×W,叫做Aggregation map A
式中,Sn是最大池化后最后一个卷积层的激活中的第n个特征映射,每一个对象片段都做以上相同的操作得到A1,A2…An;
步骤4,分别计算出所有对象片段的二维图中的H×W个元素的均值,AggregationMap中大于m的元素位置的卷积特征需要保留;小于m的元素位置的卷积特征丢弃:
分别计算An的平均值a作为阈值,以决定哪些位置定位对象。与An相同大小的maskmap M可得:
式中,(i,j)是这些h×w位置的特定位置;
使用bicubic差值方法,将M的尺寸调整成和原图大小相同,Bicubic差值方法具体如下:
假设源图像A大小为m*n,缩放K倍后的目标图像B的大小为M*N,即K=M/m。A的每一个像素点是已知的,B是未知的,我们想要求出目标图像B中每一像素点(X,Y)的值,必须先找出像素(X,Y)在源图像A中对应的像素(x,y),再根据源图像A距离像素(x,y)最近的16个像素点作为计算目标图像B(X,Y)处像素值的参数,利用BiCubic基函数求出16个像素点的权重,图B像素(x,y)的值就等于16个像素点的加权叠加;
根据比例关系x/X=m/M=1/K,我们可以得到B(X,Y)在A上的对应坐标为A(x,y)=A(X*(m/M),Y*(n/N))=A(X/K,Y/K)。如图1所示P点就是目标图像B在(X,Y)处对应于源图像A中的位置,P的坐标位置会出现小数部分,所以我们假设P的坐标为P(x+u,y+v),其中x,y分别表示整数部分,u,v分别表示小数部分(大点到a11方格中小点的距离)。那么我们就可以得到如图所示的最近16个像素的位置,在这里用a(i,j)(i,j=0,1,2,3)来表示,如图1所示。构造BiCubic函数:
求出BiCubic函数中的参数x,从而获得上面所说的16个像素所对应的权重W(x);BiCubic基函数是一维的,而像素是二维的,所以我们将像素点的行与列分开计算,BiCubic函数中的参数x表示该像素点到P点的距离;
例如,a00距离P(x+u,y+v)的距离为(1+u,1+v),因此a00的横坐标权重i_0=W(1+u),纵坐标权重j_0=W(1+v),a00对B(X,Y)的贡献值为:(a00像素值)*i_0*j_0。因此,a0X的横坐标权重分别为W(1+u),W(u),W(1-u),W(2-u);ay0的纵坐标权重分别为W(1+v),W(v),W(1-v),W(2-v);B(X,Y)像素值为:
加权算法(a可以不取-0.5):
f(i+u,j+v)=ABCT (6)
A=[S(u+1) S(u) S(u-1)S(u-2)] (7)
A=[S(v+1) S(v) S(v-1)S(v-2)] (8)
B=f(i-1:i+2,j-1:j+2) (9)
其中S(x)为三次插值核函数,可由如下式子近似:
步骤5,对经步骤4保留下来的深度特征,分别做以平均和最大池化操作,之后级联组成最终的图像表示:
选用两种池化方式来聚合深度描述符,分别是平均池化pavg和最大池化pmax:
pmax=maxi,jx(i,j) (12)
式中,pavg和pmax都是1×d维,N是所选描述符的数目;
步骤6,利用上述步骤得到的特征对图像数据库中的图像特征进行相似性度量,根据度量后的不同相似度对比,得到相似度排名。
Claims (7)
1.一种基于选择性卷积描述符聚合的多目标图像检索方法,其特征在于,具体按以下步骤实施:
步骤1,首先根据图像包含的目标对象对原始图像进行假设提取;
步骤2,将经步骤1中提取的假设框进行筛选得到包含单个目标的对象片段;
步骤3,对步骤2筛选出来的对象片段分别处理,将对象片段的卷积特征在深度方向做加和,之后获得聚合映射图片Aggregation Map(H×W);
步骤4,分别计算出所有对象片段的二维图中的H×W个元素的均值,Aggregation Map中大于m的元素位置的卷积特征需要保留;小于m的元素位置的卷积特征丢弃;
步骤5,对经步骤4保留下来的深度特征,分别做以平均和最大池化操作,之后级联组成最终的图像表示;
步骤6,利用上述步骤得到的特征对图像数据库中的图像特征进行相似性度量,根据度量后的不同相似度对比,得到相似度排名。
3.根据权利要求1所述的一种基于选择性卷积描述符聚合的多目标图像检索方法,其特征在于,所述步骤2具体内容包括:
采用归一化分割算法将假设包围盒分组到M群中,不同的颜色指示不同的簇;过滤面积或较高的高宽或宽高比的假设;对于每个集群,选择BING或EdgeBoxes生成的预测得分最高的前1种假设,并将其调整为方形。
4.根据权利要求1所述的一种基于选择性卷积描述符聚合的多目标图像检索方法,其特征在于,所述步骤2中过滤面积为过滤小于900像素的假设,过滤宽高或高宽比大于4的假设。
6.根据权利要求1或5所述的一种基于选择性卷积描述符聚合的多目标图像检索方法,其特征在于,所述步骤4具体包括以下内容:
步骤4.1,分别计算An的平均值a作为阈值,以决定哪些位置定位对象,与An相同大小的mask map M可得:
式中,(i,j)是这些h×w位置的特定位置;
步骤4.2,使用bicubic差值方法,将M的尺寸调整成和原图大小相同,Bicubic差值方法具体如下:
假设源图像A大小为m*n,缩放K倍后的目标图像B的大小为M*N,即K=M/m,首先找出像素(X,Y)在源图像A中对应的像素(x,y),再根据源图像A距离像素(x,y)最近的16个像素点作为计算目标图像B(X,Y)处像素值的参数,利用BiCubic基函数求出16个像素点的权重,图B像素(x,y)的值就等于16个像素点的加权叠加;
根据比例关系x/X=m/M=1/K,得到B(X,Y)在A上的对应坐标为A(x,y)=A(X*(m/M),Y*(n/N))=A(X/K,Y/K);设P点就是目标图像B在(X,Y)处对应于源图像A中的位置,假设P的坐标为P(x+u,y+v),其中x,y分别表示整数部分,u,v分别表示小数部分,得到最近16个像素的位置,用a(i,j)(i,j=0,1,2,3)来表示;
构造BiCubic函数:
求出BiCubic函数中的参数x,从而获得16个像素所对应的权重W(x);
将像素点的行与列分开计算,BiCubic函数中的参数x表示该像素点到P点的距离,如a00距离P(x+u,y+v)的距离为(1+u,1+v),因此a00的横坐标权重i_0=W(1+u),纵坐标权重j_0=W(1+v),a00对B(X,Y)的贡献值为:(a00像素值)*i_0*j_0;因此,a0X的横坐标权重分别为W(1+u),W(u),W(1-u),W(2-u);ay0的纵坐标权重分别为W(1+v),W(v),W(1-v),W(2-v);B(X,Y)像素值为:
加权算法:
f(i+u,j+v)=ABCT (6)
A=[S(u+1) S(u) S(u-1) S(u-2)] (7)
A=[S(v+1) S(v) S(v-1) S(v-2)] (8)
B=f(i-1:i+2,j-1:j+2) (9)
其中S(x)为三次插值核函数,可由如下式子近似:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011086073.9A CN112528061B (zh) | 2020-10-12 | 2020-10-12 | 一种基于选择性卷积描述符聚合的多目标图像检索方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011086073.9A CN112528061B (zh) | 2020-10-12 | 2020-10-12 | 一种基于选择性卷积描述符聚合的多目标图像检索方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112528061A true CN112528061A (zh) | 2021-03-19 |
CN112528061B CN112528061B (zh) | 2024-05-28 |
Family
ID=74980549
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011086073.9A Active CN112528061B (zh) | 2020-10-12 | 2020-10-12 | 一种基于选择性卷积描述符聚合的多目标图像检索方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112528061B (zh) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107958073A (zh) * | 2017-12-07 | 2018-04-24 | 电子科技大学 | 一种基于粒子集群算法优化的彩色图像检索方法 |
WO2019237646A1 (zh) * | 2018-06-14 | 2019-12-19 | 清华大学深圳研究生院 | 一种基于深度学习和语义分割的图像检索方法 |
-
2020
- 2020-10-12 CN CN202011086073.9A patent/CN112528061B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107958073A (zh) * | 2017-12-07 | 2018-04-24 | 电子科技大学 | 一种基于粒子集群算法优化的彩色图像检索方法 |
WO2019237646A1 (zh) * | 2018-06-14 | 2019-12-19 | 清华大学深圳研究生院 | 一种基于深度学习和语义分割的图像检索方法 |
Non-Patent Citations (1)
Title |
---|
朱杰;张俊三;吴树芳;董宇坤;吕琳;: "基于多中心卷积特征加权的图像检索方法", 计算机应用, no. 10 * |
Also Published As
Publication number | Publication date |
---|---|
CN112528061B (zh) | 2024-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107679250B (zh) | 一种基于深度自编码卷积神经网络的多任务分层图像检索方法 | |
Chen et al. | A region-based fuzzy feature matching approach to content-based image retrieval | |
US8908997B2 (en) | Methods and apparatus for automated true object-based image analysis and retrieval | |
Afifi et al. | Image retrieval based on content using color feature | |
CN102567483B (zh) | 多特征融合的人脸图像搜索方法和系统 | |
CN107633065B (zh) | 一种基于手绘草图的识别方法 | |
Mishra et al. | Image mining in the context of content based image retrieval: a perspective | |
CN111182364A (zh) | 一种短视频版权检测方法及系统 | |
EP1402403B1 (en) | Method of and apparatus for classifying an image | |
JP2012079187A (ja) | 特徴ベクトル生成装置、特徴ベクトル生成方法及びプログラム | |
Ismail | A survey on content-based image retrieval | |
Adnan et al. | Automated image annotation with novel features based on deep ResNet50-SLT | |
Guo | Research on sports video retrieval algorithm based on semantic feature extraction | |
Khotanzad et al. | Color image retrieval using multispectral random field texture model and color content features | |
Indu et al. | Survey on sketch based image retrieval methods | |
Manoharan et al. | A comparison and analysis of soft computing techniques for content based image retrieval system | |
Seth et al. | A review on content based image retrieval | |
CN112528061B (zh) | 一种基于选择性卷积描述符聚合的多目标图像检索方法 | |
Dhanushree et al. | Static video summarization with multi-objective constrained optimization | |
Azodinia et al. | A Novel combinational relevance feedback based method for content-based image retrieval | |
Kumar et al. | Video sequence feature extraction and segmentation using likelihood regression model | |
Tamilkodi et al. | A novel framework for retrieval of image using weighted edge matching algorithm | |
Bhairnallykar et al. | Content based medical image retrieval with SVM classification and relevance feedback | |
Vijayashanthi et al. | Survey on recent advances in content based image retrieval techniques | |
Kohli et al. | Data Mining-Based CBIR System |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |