CN110147828B - 一种基于语义信息的局部特征匹配方法及系统 - Google Patents
一种基于语义信息的局部特征匹配方法及系统 Download PDFInfo
- Publication number
- CN110147828B CN110147828B CN201910356650.2A CN201910356650A CN110147828B CN 110147828 B CN110147828 B CN 110147828B CN 201910356650 A CN201910356650 A CN 201910356650A CN 110147828 B CN110147828 B CN 110147828B
- Authority
- CN
- China
- Prior art keywords
- matching
- image
- feature
- deep learning
- target image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 24
- 239000013598 vector Substances 0.000 claims abstract description 154
- 238000013135 deep learning Methods 0.000 claims abstract description 107
- 238000013507 mapping Methods 0.000 claims abstract description 27
- 238000012216 screening Methods 0.000 claims abstract description 14
- 238000013528 artificial neural network Methods 0.000 claims abstract description 12
- 238000013527 convolutional neural network Methods 0.000 claims description 30
- 238000012545 processing Methods 0.000 claims description 20
- 238000000605 extraction Methods 0.000 claims description 16
- 238000010276 construction Methods 0.000 claims description 12
- 238000010586 diagram Methods 0.000 claims description 8
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000005070 sampling Methods 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 claims description 3
- 238000005516 engineering process Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于语义信息的局部特征匹配方法及系统,该方法的步骤包括:S1.获取图像,包括预先注册的标准图像和待匹配的目标图像;S2.通过卷积神经网络提取所述图像的卷积特征图,构建所述图像的深度学习特征向量;S3.对所述图像的深度学习特征向量进行特征匹配,确定最优的匹配对,将所述匹配对映射到所述图像的对应区域;S4.对所述映射的对应区域提取手工特征向量;S5.对所述手工特征向量进行基于语义信息的特征匹配,得到匹配分数,基于分数阈值条件对所述匹配分数进行筛选得到匹配结果。本发明通过结合语义信息进行特征匹配,将特征匹配的搜索范围大大缩小,提高了匹配的效率和准确率。
Description
技术领域
本发明涉及图像处理技术领域,尤其涉及一种基于语义信息的局部特征匹配方法及系统。
背景技术
局部特征匹配技术是一种利用人工设计的基于图像局部信息生成对应特征描述子并基于此类特征描述子在两帧图像之间计算对应匹配关系的技术。特征匹配目前被广泛应用于人脸识别、三维重建和机器人视觉定位等众多需要基于重叠信息的图像处理领域。
目前局部特征匹配技术主要有两大类,其一是最近邻匹配法,即对当前帧的每一个特征描述子都与参考帧中的所有描述子计算匹配距离,取参考帧中匹配距离最近的特征描述子与预设阈值进行比较,确定其是否为最优匹配;其二是基于最近邻法改进的最近邻比例法,即对当前帧的每一个特征描述子都与参考帧中的所有描述子计算匹配距离,取参考帧中匹配距离最近和匹配距离次近的比例与预设阈值进行比较,确定匹配距离最近的特征描述子是否为最优匹配。然而,上述两种匹配方法在匹配过程中,对于当前帧每个特征描述子都需要与参考帧中所有特征描述子一一计算匹配距离,因此这两种匹配方法非常耗时,且无法保证匹配的准确性。
发明内容
本发明为解决现有的局部特征匹配技术匹配效率低并且无法保证匹配的准确性等问题,提供了一种基于语义信息的局部特征匹配方法及系统。
为实现以上发明目的,而采用的技术手段是:
一种基于语义信息的局部特征匹配方法,包括:
S1.获取图像,包括预先注册的标准图像和待匹配的目标图像;
S2.通过卷积神经网络提取所述图像的卷积特征图,构建所述图像的深度学习特征向量;
S3.对所述图像的深度学习特征向量进行特征匹配,确定最优的匹配对,将所述匹配对映射到所述图像的对应区域;
S4.对所述映射的对应区域提取手工特征向量;
S5.对所述手工特征向量进行基于语义信息的特征匹配,得到匹配分数,基于分数阈值条件对所述匹配分数进行筛选得到匹配结果。
上述方案中,通过卷积神经网络提取图像的卷积特征图,并基于卷积特征图构建深度学习特征向量,对深度学习特征向量进行特征匹配确定匹配区域,然后对匹配区域提取手工特征向量并进一步基于语义信息进行特征匹配,基于分数阈值条件确定匹配结果。
优选的,所述步骤S2具体包括:
S22.构建卷积神经网络,所述卷积神经网络由N个卷积层组成,即hVgg={h1,h2,…,hN},其中N为正整数;
在本优选方案中,将目标图像Iin和标准图像Ire进行压缩提炼,得到大小为W×H,深度为D的卷积特征图,该卷积特征图中的每一个像素对应所述图像的一个区域,并用D个深度的信息来描述对应区域;
S24.利用所述目标图像Iin和标准图像Ire的卷积特征图分别构建深度学习特征向量,分别为:
优选的,所述步骤S3具体包括以下步骤:
S31.为所述目标图像Iin的每一个深度学习特征向量在所述标准图像Ire的深度学习特征向量中进行匹配,即:
记录在所述匹配中分数最高的深度学习特征向量的对应ID,得到所述目标图像Iin深度学习特征向量在所述标准图像Ire深度学习特征向量中最优的匹配对,即:
其中,m1,m2,…,mW×H∈[1,W×H];
S32.将所述匹配对映射到所述图像,具体为:
每一个所述深度学习特征向量di∈dF对应所述目标图像Iin和标准图像Ire的区域大小为:
其中所述目标图像Iin和标准图像Ire的大小为Wo×Ho,对应卷积特征图的大小为W×H;
对任意一个所述深度学习特征向量di×j∈dF,其映射到所述目标图像Iin和标准图像Ire的对应区域表示为:
优选的,所述步骤S4具体包括以下步骤:
对所述目标图像Iin和标准图像Ire的每个映射的对应区域提取手工特征向量,分别为:
。其中,k不一定等于K,m不一定等于M,n不一定等于N。
在本优选方案中,所述目标图像Iin和标准图像Ire各有W×H个区域,由于图像纹理不同,不同区域提取的手工特征向量数量不同,不同图像相同区域提取的手工特征向量也不同。其中提取手工特征向量可以提取如SIFT、HOG、DOG、ORB、SURF等特征向量。
优选的,所述步骤S5具体包括以下步骤:
S51.根据步骤S3中所述的最优的匹配对,建立基于语义信息的匹配区域:
其中,m1,m2,…,mW×H∈[1,W×H];
其中i表示第一个匹配区域的第i个手工特征向量,j表示对应匹配区域的第j个手工特征向量;
S53.选取所述匹配分数siftMatchScores每行中最大的为最优匹配,
本发明还提供了一种基于语义信息的局部特征匹配系统,包括图像采集模块、深度学习模块、深度学习特征处理模块、手工特征向量提取模块和图像识别模块;
所述图像采集模块,用于获取图像,包括预先注册的标准图像和待匹配的目标图像;
所述深度学习模块,用于通过卷积神经网络提取所述图像的卷积特征图,构建所述图像的深度学习特征向量;
所述深度学习特征处理模块,用于对所述图像的深度学习特征向量进行特征匹配,确定最优的匹配对,将所述匹配对映射到所述图像的对应区域;
所述手工特征向量提取模块,用于对所述映射的对应区域提取手工特征向量;
所述图像识别模块,用于对所述手工特征向量进行基于语义信息的特征匹配,得到匹配分数,基于分数阈值条件对所述匹配分数进行筛选得到匹配结果。
上述方案中,通过图像采集模块获取图像,经过深度学习模块中的卷积神经网络提取图像的卷积特征图,并基于卷积特征图构建深度学习特征向量,然后通过深度学习特征处理模块对深度学习特征向量进行特征匹配确定匹配区域,通过手工特征向量提取模块对匹配区域提取手工特征向量,最后由图像识别模块对所述手工特征向量进行基于语义信息的特征匹配,得到匹配分数,基于分数阈值条件对所述匹配分数进行筛选得到匹配结果。
优选的,所述深度学习模块包括图像预处理子模块、卷积神经网络构建子模块、卷积特征图提取子模块和深度学习特征向量构建子模块;
所述卷积神经网络构建子模块,用于构建卷积神经网络,所述卷积神经网络由N个卷积层组成,即hVgg={h1,h2,…,hN},其中N为正整数;
所述深度学习特征向量构建子模块,用于利用所述目标图像Iin和标准图像Ire的卷积特征图分别构建深度学习特征向量,分别为:
优选的,所述深度学习特征处理模块包括深度学习特征匹配子模块和匹配对映射子模块;
所述深度学习特征匹配子模块,用于为所述目标图像Iin的每一个深度学习特征向量在所述标准图像Ire的深度学习特征向量中进行匹配,即:
记录在所述匹配中分数最高的深度学习特征向量的对应ID,得到所述目标图像Iin深度学习特征向量在所述标准图像Ire深度学习特征向量中最优的匹配对,即:
其中,m1,m2,…,mW×H∈[1,W×H];
所述匹配对映射子模块,用于将所述匹配对映射到原始图像,具体为:
每一个所述深度学习特征向量di∈dF对应所述目标图像Iin和标准图像Ire的区域大小为:
其中所述目标图像Iin和标准图像Ire的大小为Wo×Ho,对应卷积特征图的大小为W×H;
对任意一个所述深度学习特征向量di×j∈dF,其映射到所述目标图像Iin和标准图像Ire的对应区域表示为:
优选的,所述图像识别模块包括匹配区域建立子模块、匹配分数计算子模块、匹配结果确定子模块;
所述匹配区域建立子模块,用于根据所述深度学习特征处理模块中得到的最优的匹配对,建立基于语义信息的匹配区域:
其中,m1,m2,…,mW×H∈[1,W×H];
其中i表示第一个匹配区域的第i个手工特征向量,j表示对应匹配区域的第j个手工特征向量;
所述匹配结果确定子模块,用于选取所述匹配分数siftMatchScores每行中最大的为最优匹配,
与现有技术相比,本发明技术方案的有益效果是:
本发明的方法以及系统,在图像的局部特征匹配过程,通过卷积神经网络提取图像的卷积特征图,并基于卷积特征图构建深度学习特征向量,对深度学习特征向量进行特征匹配确定匹配区域,构建了深度学习特征向量与匹配区域的一一映射关系,然后对匹配区域提取手工特征向量并进一步基于语义信息进行特征匹配,基于分数阈值条件进行筛选从而确定匹配结果。由于结合了语义信息,将特征匹配的搜索范围大大缩小,匹配过程中无需将当前帧每个特征描述子与参考帧中所有特征描述子一一计算匹配距离,极大地提高了局部特征匹配的效率以及准确率,解决了现有的局部特征匹配技术匹配效率低并且无法保证匹配的准确性等问题。
附图说明
图1为本发明方法的流程图。
图2位本发明系统的模块图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种基于语义信息的局部特征匹配方法,包括:
S1.获取图像,包括预先注册的标准图像和待匹配的目标图像;
S2.通过卷积神经网络提取所述图像的卷积特征图,构建所述图像的深度学习特征向量;其中本实施例1选用的为VggFace卷积神经网络;
S22.构建VggFace卷积神经网络,VggFace卷积神经网络由16个卷积层组成,即hVgg={h1,h2,…,h16};
S24.利用所述目标图像Iin和标准图像Ire的卷积特征图分别构建深度学习特征向量,分别为:
S3.对所述图像的深度学习特征向量进行特征匹配,确定最优的匹配对,将所述匹配对映射到所述图像的对应区域;
S31.为所述目标图像Iin的每一个深度学习特征向量在所述标准图像Ire的深度学习特征向量中进行匹配,即:
记录在所述匹配中分数最高的深度学习特征向量的对应ID,得到所述目标图像Iin深度学习特征向量在所述标准图像Ire深度学习特征向量中最优的匹配对,即:
其中,m1,m2,…,mW×H∈[1,W×H];
S32.将所述匹配对映射到所述图像,具体为:
每一个所述深度学习特征向量di∈dF对应所述目标图像Iin和标准图像Ire的区域大小为:
其中所述目标图像Iin和标准图像Ire的大小为Wo×Ho,对应卷积特征图的大小为W×H;
对任意一个所述深度学习特征向量di×j∈dF,其映射到所述目标图像Iin和标准图像Ire的对应区域表示为:
S4.对所述映射的对应区域提取手工特征向量;本实施例1提取的手工特征向量为SIFT特征向量,实际使用本发明方法时可提取其他手工特征向量,如HOG,DOG,ORB,SURF特征向量等;
其中,k不一定等于K,m不一定等于M,n不一定等于N。
S5.对所述手工特征向量进行基于语义信息的特征匹配,得到匹配分数,基于分数阈值条件对所述匹配分数进行筛选得到匹配结果。
S51.根据步骤S3中所述的最优的匹配对,建立基于语义信息的匹配区域:
其中,m1,m2,…,mW×H∈[1,W×H];
其中i表示第一个匹配区域的第i个手工特征向量,j表示对应匹配区域的第j个手工特征向量;
S53.选取所述匹配分数siftMatchScores每行中最大的为最优匹配,
本实施例1通过VggFace卷积神经网络提取图像的卷积特征图,并基于卷积特征图构建深度学习特征向量,对深度学习特征向量进行特征匹配确定匹配区域,构建了深度学习特征向量与匹配区域的一一映射关系,然后对匹配区域提取SIFT特征向量并进一步基于语义信息进行特征匹配,基于分数阈值条件进行筛选从而确定匹配结果。由于结合了语义信息,将特征匹配的搜索范围大大缩小,匹配过程中无需将当前帧每个特征描述子与参考帧中所有特征描述子一一计算匹配距离,极大地提高了局部特征匹配的效率以及准确率。
实施例2
如图2所示,一种基于语义信息的局部特征匹配系统,包括图像采集模块1、深度学习模块2、深度学习特征处理模块3、手工特征向量提取模块4和图像识别模块5;
所述图像采集模块1,用于获取图像,包括预先注册的标准图像和待匹配的目标图像;
所述深度学习模块2,用于通过卷积神经网络提取所述图像的卷积特征图,构建所述图像的深度学习特征向量;
所述深度学习特征处理模块3,用于对所述图像的深度学习特征向量进行特征匹配,确定最优的匹配对,将所述匹配对映射到所述图像的对应区域;
所述手工特征向量提取模块4,用于对所述映射的对应区域提取手工特征向量;
所述图像识别模块5,用于对所述手工特征向量进行基于语义信息的特征匹配,得到匹配分数,基于分数阈值条件对所述匹配分数进行筛选得到匹配结果。
其中,所述深度学习模块2包括图像预处理子模块、卷积神经网络构建子模块、卷积特征图提取子模块和深度学习特征向量构建子模块;
所述卷积神经网络构建子模块,用于构建卷积神经网络,所述卷积神经网络由N个卷积层组成,即hVgg={h1,h2,…,hN},其中N为正整数;
所述深度学习特征向量构建子模块,用于利用所述目标图像Iin和标准图像Ire的卷积特征图分别构建深度学习特征向量,分别为:
其中,所述深度学习特征处理模块3包括深度学习特征匹配子模块和匹配对映射子模块;
所述深度学习特征匹配子模块,用于为所述目标图像Iin的每一个深度学习特征向量在所述标准图像Ire的深度学习特征向量中进行匹配,即:
记录在所述匹配中分数最高的深度学习特征向量的对应ID,得到所述目标图像Iin深度学习特征向量在所述标准图像Ire深度学习特征向量中最优的匹配对,即:
其中,m1,m2,…,mW×H∈[1,W×H];
所述匹配对映射子模块,用于将所述匹配对映射到原始图像,具体为:
每一个所述深度学习特征向量di∈dF对应所述目标图像Iin和标准图像Ire的区域大小为:
其中所述目标图像Iin和标准图像Ire的大小为Wo×Ho,对应卷积特征图的大小为W×H;
对任意一个所述深度学习特征向量di×j∈dF,其映射到所述目标图像Iin和标准图像Ire的对应区域表示为:
其中,所述图像识别模块5包括匹配区域建立子模块、匹配分数计算子模块、匹配结果确定子模块;
所述匹配区域建立子模块,用于根据所述深度学习特征处理模块中得到的最优的匹配对,建立基于语义信息的匹配区域:
其中,m1,m2,…,mW×H∈[1,W×H];
其中i表示第一个匹配区域的第i个手工特征向量,j表示对应匹配区域的第j个手工特征向量;
所述匹配结果确定子模块,用于选取所述匹配分数siftMatchScores每行中最大的为最优匹配,
本实施例2用于进行人脸的局部特征匹配,在图像采集模块中,选用相机进行拍摄从而获取待匹配的人脸目标图像。
另外,本实施例2还增设了结果反馈模块,所述结果反馈模块用于从图像识别模块中接收匹配结果,然后通过语音提示或屏幕显示的方式反馈匹配结果。
附图中描述位置关系的用语仅用于示例性说明,不能理解为对本专利的限制;
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (6)
1.一种基于语义信息的局部特征匹配方法,其特征在于,包括步骤:
S1.获取图像,包括预先注册的标准图像和待匹配的目标图像;
S2.通过卷积神经网络提取所述图像的卷积特征图,构建所述图像的深度学习特征向量;
S3.对所述图像的深度学习特征向量进行特征匹配,确定最优的匹配对,将所述匹配对映射到所述图像的对应区域;
S4.对所述映射的对应区域提取手工特征向量;
S5.对所述手工特征向量进行基于语义信息的特征匹配,得到匹配分数,基于分数阈值条件对所述匹配分数进行筛选得到匹配结果;
所述步骤S2具体包括:
S22.构建卷积神经网络,所述卷积神经网络由N个卷积层组成,即hVgg={h1,h2,…,hN},其中N为正整数;
S24.利用所述目标图像Iin和标准图像Ire的卷积特征图分别构建深度学习特征向量,分别为:
所述步骤S5具体包括以下步骤:
S51.根据步骤S3中所述的最优的匹配对,建立基于语义信息的匹配区域:
其中,m1,m2,…,mW×H∈[1,W×H];
其中i表示第一个匹配区域的第i个手工特征向量,j表示对应匹配区域的第j个手工特征向量;
S53.选取所述匹配分数siftMatchScores每行中最大的为最优匹配,
则筛选后所述目标图像Iin所有匹配区域的手工特征向量匹配分数为:
即得到局部特征匹配的匹配结果。
2.根据权利要求1所述的局部特征匹配方法,其特征在于,所述步骤S3具体包括以下步骤:
S31.为所述目标图像Iin的每一个深度学习特征向量在所述标准图像Ire的深度学习特征向量中进行匹配,即:
记录所述匹配中分数最高的深度学习特征向量的对应ID,得到所述目标图像Iin深度学习特征向量在所述标准图像Ire深度学习特征向量中最优的匹配对,即:
其中,m1,m2,…,mW×H∈[1,W×H];
S32.将所述匹配对映射到所述图像,具体为:
每一个所述深度学习特征向量di∈dF对应所述目标图像Iin和标准图像Ire的区域大小为:
其中所述目标图像Iin和标准图像Ire的大小为Wo×Ho,对应卷积特征图的大小为W×H;
对任意一个所述深度学习特征向量di×j∈dF,其映射到所述目标图像Iin和标准图像Ire的对应区域表示为:
4.一种基于语义信息的局部特征匹配系统,其特征在于,包括图像采集模块、深度学习模块、深度学习特征处理模块、手工特征向量提取模块和图像识别模块;
所述图像采集模块,用于获取图像,包括预先注册的标准图像和待匹配的目标图像;
所述深度学习模块,用于通过卷积神经网络提取所述图像的卷积特征图,构建所述图像的深度学习特征向量;
所述深度学习特征处理模块,用于对所述图像的深度学习特征向量进行特征匹配,确定最优的匹配对,将所述匹配对映射到所述图像的对应区域;
所述手工特征向量提取模块,用于对所述映射的对应区域提取手工特征向量;
所述图像识别模块,用于对所述手工特征向量进行基于语义信息的特征匹配,得到匹配分数,基于分数阈值条件对所述匹配分数进行筛选得到匹配结果;
所述深度学习模块包括图像预处理子模块、卷积神经网络构建子模块、卷积特征图提取子模块和深度学习特征向量构建子模块;
所述卷积神经网络构建子模块,用于构建卷积神经网络,所述卷积神经网络由N个卷积层组成,即hVgg={h1,h2,…,hN},其中N为正整数;
所述深度学习特征向量构建子模块,用于利用所述目标图像Iin和标准图像Ire的卷积特征图分别构建深度学习特征向量,分别为:
所述图像识别模块包括匹配区域建立子模块、匹配分数计算子模块、匹配结果确定子模块;
所述匹配区域建立子模块,用于根据所述深度学习特征处理模块中得到的最优的匹配对,建立基于语义信息的匹配区域:
其中,m1,m2,…,mW×H∈[1,W×H];
其中i表示第一个匹配区域的第i个手工特征向量,j表示对应匹配区域的第j个手工特征向量;
所述匹配结果确定子模块,用于选取所述匹配分数siftMatchScores每行中最大的为最优匹配,
则筛选后所述目标图像Iin所有匹配区域的手工特征向量匹配分数为:
即得到局部特征匹配的匹配结果。
5.根据权利要求4所述的局部特征匹配系统,其特征在于,所述深度学习特征处理模块包括深度学习特征匹配子模块和匹配对映射子模块;
所述深度学习特征匹配子模块,用于为所述目标图像Iin的每一个深度学习特征向量在所述标准图像Ire的深度学习特征向量中进行匹配,即:
记录所述匹配中分数最高的深度学习特征向量的对应ID,得到所述目标图像Iin深度学习特征向量在所述标准图像Ire深度学习特征向量中最优的匹配对,即:
其中,m1,m2,…,mW×H∈[1,W×H];
所述匹配对映射子模块,用于将所述匹配对映射到原始图像,具体为:
每一个所述深度学习特征向量di∈dF对应所述目标图像Iin和标准图像Ire的区域大小为:
其中所述目标图像Iin和标准图像Ire的大小为Wo×Ho,对应卷积特征图的大小为W×H;
对任意一个所述深度学习特征向量di×j∈dF,其映射到所述目标图像Iin和标准图像Ire的对应区域表示为:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910356650.2A CN110147828B (zh) | 2019-04-29 | 2019-04-29 | 一种基于语义信息的局部特征匹配方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910356650.2A CN110147828B (zh) | 2019-04-29 | 2019-04-29 | 一种基于语义信息的局部特征匹配方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110147828A CN110147828A (zh) | 2019-08-20 |
CN110147828B true CN110147828B (zh) | 2022-12-16 |
Family
ID=67593894
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910356650.2A Expired - Fee Related CN110147828B (zh) | 2019-04-29 | 2019-04-29 | 一种基于语义信息的局部特征匹配方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110147828B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339343A (zh) * | 2020-02-12 | 2020-06-26 | 腾讯科技(深圳)有限公司 | 图像检索方法、装置、存储介质及设备 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101281520A (zh) * | 2007-04-05 | 2008-10-08 | 中国科学院自动化研究所 | 基于非监督学习和语义匹配特征交互式体育视频检索方法 |
CN102236798A (zh) * | 2011-08-01 | 2011-11-09 | 清华大学 | 一种图像匹配方法及其装置 |
WO2018036146A1 (zh) * | 2016-08-26 | 2018-03-01 | 东方网力科技股份有限公司 | 基于卷积神经网络的目标匹配方法、装置及存储介质 |
CN109558798A (zh) * | 2018-10-23 | 2019-04-02 | 广东工业大学 | 一种基于卷积特征图匹配的人脸识别方法及系统 |
-
2019
- 2019-04-29 CN CN201910356650.2A patent/CN110147828B/zh not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101281520A (zh) * | 2007-04-05 | 2008-10-08 | 中国科学院自动化研究所 | 基于非监督学习和语义匹配特征交互式体育视频检索方法 |
CN102236798A (zh) * | 2011-08-01 | 2011-11-09 | 清华大学 | 一种图像匹配方法及其装置 |
WO2018036146A1 (zh) * | 2016-08-26 | 2018-03-01 | 东方网力科技股份有限公司 | 基于卷积神经网络的目标匹配方法、装置及存储介质 |
CN109558798A (zh) * | 2018-10-23 | 2019-04-02 | 广东工业大学 | 一种基于卷积特征图匹配的人脸识别方法及系统 |
Also Published As
Publication number | Publication date |
---|---|
CN110147828A (zh) | 2019-08-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112818931A (zh) | 基于多粒度深度特征融合的多尺度行人重识别方法 | |
CN110969087B (zh) | 一种步态识别方法及系统 | |
CN109934195A (zh) | 一种基于信息融合的反欺骗三维人脸识别方法 | |
CN108960059A (zh) | 一种视频动作识别方法及装置 | |
CN112418041B (zh) | 一种基于人脸正面化的多姿态人脸识别方法 | |
CN113963032A (zh) | 一种融合目标重识别的孪生网络结构目标跟踪方法 | |
CN111428689B (zh) | 一种多池化信息融合的人脸图像特征提取方法 | |
CN111310633A (zh) | 基于视频的并行时空注意力行人重识别方法 | |
CN111931686B (zh) | 一种基于背景知识增强的视频卫星目标跟踪方法 | |
CN112396036B (zh) | 一种结合空间变换网络和多尺度特征提取的遮挡行人重识别方法 | |
CN114549567A (zh) | 基于全方位感知的伪装目标图像分割方法 | |
CN111881716A (zh) | 一种基于多视角生成对抗网络的行人重识别方法 | |
CN112801051A (zh) | 一种基于多任务学习的遮挡行人重识别方法 | |
CN112801945A (zh) | 基于双重注意力机制特征提取的深度高斯混合模型颅骨配准方法 | |
CN111582154A (zh) | 基于多任务骨架姿态划分部件的行人重识别方法 | |
CN114782997A (zh) | 基于多损失注意力自适应网络的行人重识别方法及系统 | |
CN110222568B (zh) | 一种基于时空图的跨视角步态识别方法 | |
CN110147828B (zh) | 一种基于语义信息的局部特征匹配方法及系统 | |
Barroso-Laguna et al. | Scalenet: A shallow architecture for scale estimation | |
CN113111797A (zh) | 一种结合自编码器与视角变换模型的跨视角步态识别方法 | |
CN111428612B (zh) | 行人重识别方法、终端、装置及存储介质 | |
CN111079585B (zh) | 图像增强结合伪孪生卷积神经网络的行人再识别方法 | |
CN116205952B (zh) | 人脸识别与跟踪的方法、装置、电子设备及存储介质 | |
CN103955708B (zh) | 一种用于人脸合成画像识别的人脸照片库快速缩减方法 | |
CN113537032A (zh) | 一种基于图片分块丢弃的分集多支路行人重识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20221216 |