CN102592129A - 基于场景驱动的智能手机图像特征点选取方法 - Google Patents

基于场景驱动的智能手机图像特征点选取方法 Download PDF

Info

Publication number
CN102592129A
CN102592129A CN2012100086179A CN201210008617A CN102592129A CN 102592129 A CN102592129 A CN 102592129A CN 2012100086179 A CN2012100086179 A CN 2012100086179A CN 201210008617 A CN201210008617 A CN 201210008617A CN 102592129 A CN102592129 A CN 102592129A
Authority
CN
China
Prior art keywords
frame
unique point
point
cor
sigma
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN2012100086179A
Other languages
English (en)
Other versions
CN102592129B (zh
Inventor
李静
卢朝阳
孔祥
刘敏博
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xidian University
Original Assignee
Xidian University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xidian University filed Critical Xidian University
Priority to CN 201210008617 priority Critical patent/CN102592129B/zh
Publication of CN102592129A publication Critical patent/CN102592129A/zh
Application granted granted Critical
Publication of CN102592129B publication Critical patent/CN102592129B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

本发明专利公开了一种基于场景驱动的智能手机图像特征点选取方法。主要解决现有技术中没有根据场景复杂度信息来合理输出特征点数目的问题。其实现步骤是:对手机摄像头采集的视频帧进行特征点检测;对每一帧检测到的特征点生成描述矢量,并利用描述矢量进行特征点匹配;分析特征点匹配结果,在特征能够进行正常匹配和不能进行正常匹配的两种情况下,自适应的调整每一帧图像输出的特征点数目,从而实现在复杂或简单场景下都能输出具有稳定质量和数量的特征点。本发明具有运算量小,可根据场景复杂度自适应的输出稳定质量和数量的特征点数目的优点,为建立快速的智能手机特征跟踪系统奠定了重要基础。

Description

基于场景驱动的智能手机图像特征点选取方法
技术领域
本发明属于图像处理技术邻域,特别涉及图像特征点的提取方法,具体讲的是一种基于场景驱动的智能手机图像特征点快速选取方法,可应用于特征匹配,目标跟踪,物体识别,运动目标的检测和跟踪,增强现实开发等领域。
背景技术
图像的特征点提取是图像处理的基本问题,精确高效的特征点提取算法为其他问题的解决提供坚实的底层基础。
特征点也被称为兴趣点,角点,显著点等等,Harris基于Moravec对兴趣点的描述,利用亮度函数的自相关矩阵即二阶矩矩阵,实现了对特征点的检测。Mikolajczyk和Schmid利用Laplace算子检测Harris角点的尺度,构建了一种具有尺度不变性的Harris-Laplace算子,并将Harris-Laplace算子扩展为具有仿射不变性的Harris-affine算子。Lindeberg利用Laplacian算子将图像中的斑点作为兴趣点,并通过确定每一个斑点的特征尺度和形状使兴趣点具有尺度不变性和仿射不变性。Lowe利用DoG算子代替Laplacian算子从而提高了兴趣点检测的速度。还有一些算法计算图像亮度函数的高斯曲率,将曲率较大的点定位为特征点。除基于亮度的特征点算法外,还有一类算法根据Haralick对特征点的定义,在图像中度量每一点的显著性,从中筛选出一些明显有别于其他点的特殊点作为特征点,这类点也被称为显著点。
目前,基于特征点的提取的一类方法仍然是图像处理、计算机视觉领域的研究热点,而且随着我国3G网络的逐步开通和移动通信事业的飞速发展,庞大的智能手机用户群也在逐年增加,图像处理与分析在智能手机上的应用也逐渐占有越来越重要的地位。特征提取作为图像处理中的一个基本且非常关键的模块,应用到目标识别、增强现实等很多领域,在智能手机的开发应用中是必不可少的环节。
虽然现在的智能手机硬件配置一直在更新,但处理能力还是很有限,对一些图形图像需要进行复杂处理的时候很难达到实时的要求,而且在大部分特征检测算法中,并没有针对图像的背景信息自适应的调整算法所需的特征点数量,往往对于一幅背景较复杂的图像提取的特征点偏多,为下一步的图像处理比如特征描述或者图像匹配造成冗余计算量;而对于背景比较简单的图像提取的特征点偏少,不能找到足够鲁棒性的特征点,给下一步图像进行精确的描述和匹配造成困难。如何能够有效利用资源,使得算法能以较少的CPU和内存资源来达到相同的效果,是目前手机平台的算法开发上急需解决的问题。
发明内容
本发明的目的在于针对上述技术的不足,提出一种基于场景驱动的智能手机图像特征点选取方法,以提高图像处理速度,并使提取的特征点总体上更加稳定和鲁棒。
为实现上述目的,本发明包括如下步骤:
1、一种基于场景驱动的智能手机图像特征点选取方法,包括如下步骤:
(1)从手机摄像头获得移动场景的视频帧;
(2)对视频帧的第一帧图像进行灰度化处理并利用快速特征检测算法FAST进行特征点检测,得到第一帧图像所有的特征点位置和总的特征点数目M1
(3)计算第一帧图像的综合纹理特征值Z,定义视频帧图像的复杂度分为“复杂”、“一般”、“简单”三个标准,设定复杂度阈值为6.0;若综合纹理特征值Z>6.0,则将视频帧图像的复杂度判为“复杂”,若4.0<Z≤6.0,则将视频帧图像的复杂度判为“一般”,若Z≤4.0,则将视频帧图像的复杂度判为“简单”;
(4)由步骤(3)得到的复杂度计算出第一帧图像输出特征点的数目N0:若复杂度为“复杂”时,N0=M1*0.9,若复杂度为“一般”时,N0=M1*0.8,若复杂度为“简单”时,N0=M1*0.7;
(5)从M1个特征点中随机选取N0个特征点,并利用加速的鲁棒特征算法SURF对所选的N0个特征点进行描述,计算出第一帧中每一个特征点的描述矢量;
(6)读取视频帧的第二帧图像,进行灰度化处理并利用快速特征检测算法FAST,得到第二帧所有特征点的位置和总的特征点数目M2
(7)利用加速的鲁棒特征算法SURF对步骤(6)中得到的特征点进行描述,得出第二帧中每一个特征点的描述矢量;
(8)利用加速的鲁棒特征算法SURF对第一帧和第二帧中的特征点进行匹配,得到特征点匹配成功的个数Ns
(9)根据特征点匹配的个数Ns和步骤(4)得到的第一帧特征点个数N0的关系得到第二帧输出的特征点个数:如果Ns/N0≥0.75,则第二帧输出Ns个特征点;如果Ns/N0<0.75,则第二帧除了输出Ns个特征点外,还要从(M2-Ns)个特征点中随机选取(0.75*N0-Ns)个特征点;
(10)重复步骤(2)到步骤(9),直到视频帧读取结束。
本发明与现有技术相比,具有以下优点:
1)本发明由于通过分析图像场景信息来判断图像场景的复杂度,自适应调整特征点的输出,因而不论在复杂或者简单的场景中,都可以输出稳定质量和数量的特征点;
2)本发明通过利用特征点检测与特征点匹配的结果来确定每一帧特征点输出数目,从而降低后端系统中特征点检测与特征点匹配的运算量,缩短计算时间;
3)本发明在特征点跟踪性能下降时,即特征点匹配成功的个数达不到最低阈值时,通过自适应增加新的特征点使特征点数目达到最低阈值,保证系统的鲁棒性。
附图说明
图1为本发明的实现流程图;
图2为用本发明与现有快速特征检测算法FAST方法进行特征点检测的结果图。
具体实施方式
以下参照附图对本发明进行详细描述:
参照图1,本发明基于场景驱动的智能手机图像特征点选取方法,包括以下步骤:
步骤1,初始化系统环境,从手机摄像头获得移动场景视频帧;初始化系统环境包括启动手机摄像头,并为视频帧申请内存存储空间,通过启动的摄像头取得移动场景视频帧,并保存在手机内存中。
步骤2,从手机内存中读取视频帧的第一帧图像,取视频帧第一帧图像上的一点(x,y),对该点(x,y)进行灰度化,得到将灰度化后的值Gr(x,y):
Gr(x,y)=0.11R(x,y)+0.59G(x,y)+0.3B(x,y),
其中:R(x,y)为点(x,y)的红色分量值,G(x,y)为点(x,y)的绿色分量值,B(x,y)为点(x,y)的蓝色分量值;
让点(x,y)遍历第一帧图像上每一点,得到第一帧图像的灰度化图像。
步骤3,利用快速特征检测算法FAST对得到的第一帧图像的灰度化图像进行特征点检测,从而得到第一帧图像中所有的特征点位置和总的特征点数目M1,其中快速特征检测算法FAST参见(Machine learning for high-speed corner detection,E Rosten and T.Drummond,ECCV 2006)。
步骤4,计算第一帧图像的综合纹理特征值Z,定义视频帧图像的复杂度分为“复杂”、“一般”、“简单”三个标准,设定复杂度阈值为6.0;若综合纹理特征值Z>6.0,则将视频帧图像的复杂度判为“复杂”,若4.0<Z≤6.0,则将视频帧图像的复杂度判为“一般”,若Z≤4.0,则将视频帧图像的复杂度判为“简单”,完成对第一帧图像的场景分析。
步骤5,计算第一帧图像的综合纹理特征值Z:
5a)取第一帧图像上的一点(x,y),将其灰度值记为g1,取偏离该点的另一点(x+Δx,y+Δy)|Δx=1,Δy=0,将其灰度值记为g2,并把这两点的灰度值记为符号:[g1,g2];
5b)让点(x,y)遍历第一帧图像,若第一帧图像的灰度值级数为N,得到N*N个灰度值符号[g1,g2];
5c)统计每一个灰度值符号[g1,g2]出现的次数,排列生成N*N阶矩阵P,该矩阵P的第i行第j列元素值P(i,j)等于[i,j]出现的次数;
5d)对矩阵P中的每一个元素进行如下归一化处理:
P ( i , j ) = P ( i , j ) N ( N - 1 ) , 0 &le; i < N , 0 &le; j < N ;
5e)计算图像能量J为:
J = &Sigma; i = 1 N &Sigma; j = 1 N ( P ( i , j ) ) 2 ,
图像能量J是一种表示灰度分布一致性的统计量,是图像灰度分布均匀性的度量;
5f)计算图像反差G为:
G = &Sigma; i = 1 N &Sigma; j = 1 N ( i - j ) 2 P ( i , j ) ,
图像反差G是描述纹理反差即纹理粗细的统计量,它可以反映图像纹理的清晰程度;
5g)计算图像熵S为:
S = - &Sigma; i = 1 N &Sigma; j = 1 N P ( i , j ) log 2 P ( i , j ) ,
图像熵S被用来度量图像的纹理特征;
5h)计算图像逆差Q为:
Q = &Sigma; i = 1 N &Sigma; j = 1 N 1 1 + ( i - j ) 2 P ( i , j ) ,
图像逆差Q可以反映图像纹理的同质性,即可以度量图像纹理局部的变化程度;
5i)计算图像相关度COV为:
COV = [ &Sigma; i = 1 N &Sigma; j = 1 N ij * P ( i , j ) - &mu; x &mu; y ] / &sigma; x &sigma; y ,
其中μx是Px的均值,μy是Py的均值,σx是Px的方差,σy是Py的方差,是矩阵P中第i行各列元素之和,
Figure BDA0000128457340000054
是矩阵P中第j列各行元素之和;图像相关度COV用于衡量灰度共生矩阵的元素在行和列方向的相似程度,因此相关度大小反映了图像中局部灰度的相关性;
5j)综合纹理特征值Z为:
Z=G+S+Q-J-COV。
步骤6,由步骤5得到的复杂度计算出第一帧图像输出特征点的数目N0:若复杂度为“复杂”时,N0=M1*0.9,若复杂度为“一般”时,N0=M1*0.8,若复杂度为“简单”时,N0=M1*0.7。
步骤7,从M1个特征点中随机选取N0个特征点,并利用加速的鲁棒特征算法SURF对所选的N0个特征点进行描述,计算出第一帧中每一个特征点的描述矢量,其中加速的鲁棒特征算法SURF,参见(Herbert Bay,Andreas Ess,Tinne Tuytelaars,Luc VanGool,″SURF:Speeded Up Robust Features″,Computer Vision and Image Understanding(CVIU),Vol.110,No.3,pp.346--359,2008)。
步骤8,读取视频帧的第二帧图像,进行灰度化处理并利用快速特征检测算法FAST,得到第二帧所有特征点的位置和总的特征点数目M2
步骤9,利用加速的鲁棒特征算法SURF对步骤8中得到的特征点进行描述,得出第二帧中每一个特征点的描述矢量。
步骤10,利用加速的鲁棒特征算法SURF对第一帧和第二帧中的特征点进行匹配,得到特征点匹配成功的个数Ns
10a)设第一帧中特征点描述矢量表示为:{n0,n1,n2,…,n63},第二帧中特征点描述矢量表示为:{n′0,n′1,n′2,…,n′63},取第一帧第一个特征点的描述矢量和第二帧每一个特征点的描述矢量进行计算,得到第一帧中第一个描述矢量和第二帧中M2个描述矢量之间的距离:COR0,COR1,COR2,…,
Figure BDA0000128457340000061
即:
COR k = &Sigma; i = 0 63 ( n i - n i &prime; ) 2 , k &Element; [ 0 , M 2 ) ,
其中:M2为第二帧总的特征点个数;
10b)将M2个距离值COR0,COR1,COR2,…,
Figure BDA0000128457340000063
按照从小到大排序,把排序后的第一个值记为COR_F,排序后的第二个值记为COR_S;
10c)根据COR_F和COR_S判断第一帧第一个特征点在第二帧中是否有匹配的特征点,并把特征点匹配成功的个数记为N′1,如果COR_F/COR_S<0.65,即在第二帧中有与第一帧第一个特征点匹配的特征点,则N′1=1;如果COR_F/COR_S≥0.65,即在第二帧中没有与第一帧第一个特征点匹配的特征点,则N′1=0;
10d)取第一帧中第二个特征点的描述矢量,重复步骤10a)到步骤10c),直到遍历完第一帧中所有特征点的描述矢量为止,得到特征点匹配成功的总个数Ns为:
N s = N 1 &prime; + N 2 &prime; + &CenterDot; &CenterDot; &CenterDot; + N N 0 &prime; ,
其中:N0为第一帧总的特征点个数。
步骤11,根据特征点匹配的个数Ns和步骤6得到的第一帧特征点个数N0的关系得到第二帧输出的特征点个数:如果Ns/N0≥0.75,则第二帧输出Ns个特征点;如果Ns/N0<0.75,则第二帧除了输出Ns个特征点外,还要从(M2-Ns)个特征点中随机选取(0.75*N0-Ns)个特征点。
步骤12,重复步骤2到步骤11,直到视频帧读取结束。
本发明的效果可通过以下仿真实验进一步说明:
仿真使用的原始图像如图2(a)所示。
用本发明方法对图2(a)进行特征点提取,其结果如图2(b)所示。
利用现有快速特征检测算法FAST对图2(a)进行特征点提取,其结果如图2(c)所示。
从图2(b)和图2(c)可见,本发明的方法提取到的特征点在满足特征跟踪的情况下,特征点数量较现有方法有所减少,有效的减小后端系统特征匹配时的运算量。

Claims (3)

1.一种基于场景驱动的智能手机图像特征点选取方法,包括如下步骤:
(1)从手机摄像头获得移动场景的视频帧;
(2)对视频帧的第一帧图像进行灰度化处理并利用快速特征检测算法FAST进行特征点检测,得到第一帧图像所有的特征点位置和总的特征点数目M1
(3)计算第一帧图像的综合纹理特征值Z,定义视频帧图像的复杂度分为“复杂”、“一般”、“简单”三个标准,设定复杂度阈值为6.0;若综合纹理特征值Z>6.0,则将视频帧图像的复杂度判为“复杂”,若4.0<Z≤6.0,则将视频帧图像的复杂度判为“一般”,若Z≤4.0,则将视频帧图像的复杂度判为“简单”;
(4)由步骤(3)得到的复杂度计算出第一帧图像输出特征点的数目N0:若复杂度为“复杂”时,N0=M1*0.9,若复杂度为“一般”时,N0=M1*0.8,若复杂度为“简单”时,N0=M1*0.7;
(5)从M1个特征点中随机选取N0个特征点,并利用加速的鲁棒特征算法SURF对所选的N0个特征点进行描述,计算出第一帧中每一个特征点的描述矢量;
(6)读取视频帧的第二帧图像,进行灰度化处理并利用快速特征检测算法FAST,得到第二帧所有特征点的位置和总的特征点数目M2
(7)利用加速的鲁棒特征算法SURF对步骤(6)中得到的特征点进行描述,得出第二帧中每一个特征点的描述矢量;
(8)利用加速的鲁棒特征算法SURF对第一帧和第二帧中的特征点进行匹配,得到特征点匹配成功的个数Ns
(9)根据特征点匹配的个数Ns和步骤(4)得到的第一帧特征点个数N0的关系得到第二帧输出的特征点个数:如果Ns/N0≥0.75,则第二帧输出Ns个特征点;如果Ns/N0<0.75,则第二帧除了输出Ns个特征点外,还要从(M2-Ns)个特征点中随机选取(0.75*N0-Ns)个特征点;
(10)重复步骤(2)到步骤(9),直到视频帧读取结束。
2.根据权利要求1所述的基于场景驱动的智能手机图像特征点选取方法,其步骤(3)所述的计算第一帧图像的综合纹理特征值Z,按如下步骤进行:
(3a)取第一帧图像上的一点(x,y),灰度值记为g1,取偏离该点的另一点(x+Δx,y+Δy)|Δx=1,Δy=0,灰度值记为g2,把这两点的灰度值记为符号:[g1,g2];
(3b)让点(x,y)遍历第一帧图像,若第一帧图像的灰度值级数为N,得到N*N个[g1,g2];
(3c)统计每一个[g1,g2]出现的次数,排列生成N*N阶矩阵P,该矩阵P的第i行第j列元素值P(i,j)等于[i,j]出现的次数;
(3d)对矩阵P中的每一个元素进行如下归一化处理:
P ( i , j ) = P ( i , j ) N ( N - 1 ) , 0 &le; i < N , 0 &le; j < N
(3e)计算图像能量J为:
J = &Sigma; i = 1 N &Sigma; j = 1 N ( P ( i , j ) ) 2 ;
(3f)计算图像反差G为:
G = &Sigma; i = 1 N &Sigma; j = 1 N ( i - j ) 2 P ( i , j ) ;
(3g)计算图像熵S为:
S = - &Sigma; i = 1 N &Sigma; j = 1 N P ( i , j ) log 2 P ( i , j ) ;
(3h)计算图像逆差Q为:
Q = &Sigma; i = 1 N &Sigma; j = 1 N 1 1 + ( i - j ) 2 P ( i , j ) ;
(3i)计算图像相关度COV为:
COV = [ &Sigma; i = 1 N &Sigma; j = 1 N ij * P ( i , j ) - &mu; x &mu; y ] / &sigma; x &sigma; y ;
其中μx是Px的均值,μy是Py的均值,σx是Px的方差,σy是Py的方差,
Figure FDA0000128457330000027
是矩阵P中第i行各列元素之和,
Figure FDA0000128457330000028
是矩阵P中第j列各行元素之和;
(3j)综合纹理特征值Z为:
Z=G+S+Q-J-COV。
3.根据权利要求1所述的基于场景驱动的智能手机图像特征点选取方法,其步骤(8)所述的利用加速的鲁棒特征算法SURF对第一帧和第二帧中的特征点进行匹配,得到特征点匹配成功的个数Ns,按如下步骤进行:
(8a)设第一帧中特征点描述矢量表示为:{n0,n1,n2,…,n63},第二帧中特征点描述矢量表示为:{n′0,n′1,n′2,…,n′63},取第一帧第一个特征点的描述矢量和第二帧每一个特征点的描述矢量进行计算,得到第一帧中第一个描述矢量和第二帧中M2个描述矢量之间的距离:COR0,COR1,COR2,…,
Figure FDA0000128457330000031
即:
COR k = &Sigma; i = 0 63 ( n i - n i &prime; ) 2 , k &Element; [ 0 , M 2 ) ,
其中:M2为第二帧总的特征点个数;
(8b)将M2个距离值COR0,COR1,COR2,…,
Figure FDA0000128457330000033
按照从小到大排序,把排序后的第一个值记为COR_F,排序后的第二个值记为COR_S;
(8c)根据COR_F和COR_S来判断第一帧第一个特征点在第二帧中是否有匹配的特征点:把特征点匹配成功的个数记为N′1,如果COR_F/COR_S<0.65,即在第二帧中有与第一帧第一个特征点匹配的特征点,则N′1=1;如果COR_F/COR_S≥0.65,即在第二帧中没有与第一帧第一个特征点匹配的特征点,则N′1=0;
(8d)取第一帧中第二个特征点的描述矢量,重复步骤(8a)到(8c),直到遍历完第一帧中所有特征点的描述矢量为止,得到特征点匹配成功的总个数Ns为:
N s = N 1 &prime; + N 2 &prime; + &CenterDot; &CenterDot; &CenterDot; + N N 0 &prime; ;
其中:N0为第一帧总的特征点个数。
CN 201210008617 2012-01-02 2012-01-02 基于场景驱动的智能手机图像特征点选取方法 Expired - Fee Related CN102592129B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN 201210008617 CN102592129B (zh) 2012-01-02 2012-01-02 基于场景驱动的智能手机图像特征点选取方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN 201210008617 CN102592129B (zh) 2012-01-02 2012-01-02 基于场景驱动的智能手机图像特征点选取方法

Publications (2)

Publication Number Publication Date
CN102592129A true CN102592129A (zh) 2012-07-18
CN102592129B CN102592129B (zh) 2013-10-16

Family

ID=46480741

Family Applications (1)

Application Number Title Priority Date Filing Date
CN 201210008617 Expired - Fee Related CN102592129B (zh) 2012-01-02 2012-01-02 基于场景驱动的智能手机图像特征点选取方法

Country Status (1)

Country Link
CN (1) CN102592129B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318239A (zh) * 2014-11-14 2015-01-28 江南大学 基于纹理分析的快速图像特征提取方法
CN105975643A (zh) * 2016-07-22 2016-09-28 南京维睛视空信息科技有限公司 一种基于文本索引的实时图像检索方法
CN109472289A (zh) * 2018-10-09 2019-03-15 北京陌上花科技有限公司 关键点检测方法和设备
CN109978911A (zh) * 2019-02-22 2019-07-05 青岛小鸟看看科技有限公司 一种图像特征点跟踪方法和相机
CN110378379A (zh) * 2019-06-17 2019-10-25 东南大学 航空图像特征点匹配方法
CN113326856A (zh) * 2021-08-03 2021-08-31 电子科技大学 基于匹配困难度的自适应的两阶段特征点匹配方法
CN113596576A (zh) * 2021-07-21 2021-11-02 杭州网易智企科技有限公司 一种视频超分辨率的方法及装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101329736A (zh) * 2008-06-20 2008-12-24 西安电子科技大学 基于特征选择和隐马尔科夫模型的图像分割方法
CN101488188A (zh) * 2008-11-10 2009-07-22 西安电子科技大学 基于混合核函数的svm分类器的sar图像分类方法
CN101551809A (zh) * 2009-05-13 2009-10-07 西安电子科技大学 基于高斯混合模型分类的sar图像检索方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101329736A (zh) * 2008-06-20 2008-12-24 西安电子科技大学 基于特征选择和隐马尔科夫模型的图像分割方法
CN101488188A (zh) * 2008-11-10 2009-07-22 西安电子科技大学 基于混合核函数的svm分类器的sar图像分类方法
CN101551809A (zh) * 2009-05-13 2009-10-07 西安电子科技大学 基于高斯混合模型分类的sar图像检索方法

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104318239A (zh) * 2014-11-14 2015-01-28 江南大学 基于纹理分析的快速图像特征提取方法
CN105975643A (zh) * 2016-07-22 2016-09-28 南京维睛视空信息科技有限公司 一种基于文本索引的实时图像检索方法
CN105975643B (zh) * 2016-07-22 2019-08-16 南京维睛视空信息科技有限公司 一种基于文本索引的实时图像检索方法
CN109472289A (zh) * 2018-10-09 2019-03-15 北京陌上花科技有限公司 关键点检测方法和设备
CN109472289B (zh) * 2018-10-09 2022-03-29 北京陌上花科技有限公司 关键点检测方法和设备
CN109978911A (zh) * 2019-02-22 2019-07-05 青岛小鸟看看科技有限公司 一种图像特征点跟踪方法和相机
CN109978911B (zh) * 2019-02-22 2021-05-28 青岛小鸟看看科技有限公司 一种图像特征点跟踪方法和相机
CN110378379A (zh) * 2019-06-17 2019-10-25 东南大学 航空图像特征点匹配方法
CN110378379B (zh) * 2019-06-17 2023-10-13 东南大学 航空图像特征点匹配方法
CN113596576A (zh) * 2021-07-21 2021-11-02 杭州网易智企科技有限公司 一种视频超分辨率的方法及装置
CN113326856A (zh) * 2021-08-03 2021-08-31 电子科技大学 基于匹配困难度的自适应的两阶段特征点匹配方法

Also Published As

Publication number Publication date
CN102592129B (zh) 2013-10-16

Similar Documents

Publication Publication Date Title
CN102592129B (zh) 基于场景驱动的智能手机图像特征点选取方法
CN107330439B (zh) 一种图像中物体姿态的确定方法、客户端及服务器
CN112651438A (zh) 多类别图像的分类方法、装置、终端设备和存储介质
CN110210560B (zh) 分类网络的增量训练方法、分类方法及装置、设备及介质
Bi et al. Fast copy-move forgery detection using local bidirectional coherency error refinement
CN111325271B (zh) 图像分类方法及装置
US11886492B2 (en) Method of matching image and apparatus thereof, device, medium and program product
CN104063686B (zh) 作物叶部病害图像交互式诊断系统与方法
CN105590319A (zh) 一种深度学习的图像显著性区域检测方法
CN105160686B (zh) 一种基于改进sift算子的低空多视角遥感影像匹配方法
WO2020143316A1 (zh) 证件图像提取方法及终端设备
CN110427972B (zh) 证件视频特征提取方法、装置、计算机设备和存储介质
CN110210503B (zh) 一种印章识别方法和装置以及设备
CN109299305A (zh) 一种基于多特征融合的空间图像检索系统及检索方法
Buoncompagni et al. Saliency-based keypoint selection for fast object detection and matching
Jiang et al. Supervised dictionary learning for blind image quality assessment using quality-constraint sparse coding
CN110895697A (zh) 变压器铭牌信息采集方法及智能采集系统
CN114444565A (zh) 一种图像篡改检测方法、终端设备及存储介质
CN109784379B (zh) 纺织品图片特征库的更新方法和装置
Badki et al. Robust radiometric calibration for dynamic scenes in the wild
Potje et al. Extracting deformation-aware local features by learning to deform
Rana et al. Learning-based adaptive tone mapping for keypoint detection
CN106056575B (zh) 一种基于似物性推荐算法的图像匹配方法
CN109657083B (zh) 纺织品图片特征库的建立方法和装置
CN113011506B (zh) 一种基于深度重分形频谱网络的纹理图像分类方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20131016

Termination date: 20190102