CN111091144A - 基于深度伪孪生网络的图像特征点匹配方法及装置 - Google Patents

基于深度伪孪生网络的图像特征点匹配方法及装置 Download PDF

Info

Publication number
CN111091144A
CN111091144A CN201911184922.1A CN201911184922A CN111091144A CN 111091144 A CN111091144 A CN 111091144A CN 201911184922 A CN201911184922 A CN 201911184922A CN 111091144 A CN111091144 A CN 111091144A
Authority
CN
China
Prior art keywords
twin network
pseudo
training data
feature point
training
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201911184922.1A
Other languages
English (en)
Other versions
CN111091144B (zh
Inventor
于虹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Electric Power Research Institute of Yunnan Power Grid Co Ltd
Original Assignee
Electric Power Research Institute of Yunnan Power Grid Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Electric Power Research Institute of Yunnan Power Grid Co Ltd filed Critical Electric Power Research Institute of Yunnan Power Grid Co Ltd
Priority to CN201911184922.1A priority Critical patent/CN111091144B/zh
Publication of CN111091144A publication Critical patent/CN111091144A/zh
Application granted granted Critical
Publication of CN111091144B publication Critical patent/CN111091144B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T10/00Road transport of goods or passengers
    • Y02T10/10Internal combustion engine [ICE] based vehicles
    • Y02T10/40Engine management systems

Abstract

本发明公开一种基于深度伪孪生网络的图像特征点匹配方法及装置,该方法通过获取场景下第一视角图像中的目标特征点,以及场景下其他视角图像中的待匹配特征点,将目标特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到目标特征点的特征向量;将待匹配特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到待匹配特征点的特征向量,计算目标特征点的特征向量与待匹配特征点的特征向量的对比误差度量,输出最小对比误差度量所对应的待匹配特征点作为目标特征点的最佳匹配特征点,本发明采用从大量数据学习得来的深度伪孪生网络,对于图像特征点的描述可以更好的保留局部图像信息,更好的完成图像特征点匹配任务。

Description

基于深度伪孪生网络的图像特征点匹配方法及装置
技术领域
本发明涉及连续拍摄图像的特征关联技术领域,尤其涉及一种基于深度伪孪生网络的图像特征点匹配方法及装置。
背景技术
图像特征匹配通常指通过对影像内容、特征、结构、关系、纹理及灰度等的对应关系,相似性和一致性的分析,寻求相似影像目标的方法。绝大多数的图像匹配是通过一定的匹配算法在两幅或多幅影像之间识别相似点的过程。
图像特征匹配任务是一组与计算任务相关的信息,计算任务取决于具体的应用。简而言之,特征是图像信息的另一种数字表达形式。一组好的特征对于在指定任务的性能表现可能具有至关重要的作用,所以研究人员投入大量的精力对图像特征点的描述进行研究,使得设计出来的描述算法尽可能精确的描述特征点及其周围像素的信息,将特征点的匹配关系与描述的相似程度相互关联,将特征点的匹配问题转化为特征点特征空间中描述向量最近邻问题。在当前对于图像特征点的描述算法大都是人工设计的,对于图像特征的描述具有一定程度的信息丢失。
发明内容
本发明提供一种基于深度伪孪生网络的图像特征点匹配方法及装置,以解决现有图像特征点匹配方式对于图像特征的描述具有一定程度的信息丢失的问题。
第一方面,本发明提供一种基于深度伪孪生网络的图像特征点匹配方法,所述方法包括:
获取场景下第一视角图像中的目标特征点,以及所述场景下其他视角图像中的待匹配特征点;
将所述目标特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述目标特征点的特征向量;将所述待匹配特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述待匹配特征点的特征向量;
计算所述目标特征点的特征向量与所述待匹配特征点的特征向量的对比误差度量;
输出最小对比误差度量所对应的待匹配特征点作为所述目标特征点的最佳匹配特征点。
结合第一方面,在第一方面的第一种可实现方式中,获取场景下第一视角图像中的目标特征点,以及所述场景下其他视角图像中的待匹配特征点之前,所述方法还包括:
构建5层深度伪孪生网络;
筛选原始数据产生第一类训练数据,将所述第一类训练数据进行中央裁剪产生第二类训练数据;
将所述第一类训练数据和对应的第二类训练数据输入所述深度伪孪生网络中;
根据输出值与训练真值的差异,对所述深度伪孪生网络中的参数进行训练更新,得到最优的网络参数。
结合第一方面的第一种可实现方,在第一方面的第二种可实现方式中,构建5层深度伪孪生网络包括:
建立深度伪孪生网络的左支和右支,所述左支依次包括第一类训练数据图像、被中央裁剪的图像区域、深度伪孪生网络左支的第一卷积层、深度伪孪生网络左支的第二卷积层、深度伪孪生网络左支的第三卷积层、深度伪孪生网络左支的第四卷积层、深度伪孪生网络左支的第五卷积层,所述右支依次包括第二类训练数据图像、深度伪孪生网络右支的第一卷积层、深度伪孪生网络右支的第二卷积层、深度伪孪生网络右支的第三卷积层、深度伪孪生网络右支的第四卷积层、深度伪孪生网络右支的第五卷积层;
建立尺度融合层,所述尺度融合层输出与接受所述深度伪孪生网络左支和右支输入的表达式为:
out=sig((x1+x2)/2);
其中,out为尺度融合层的输出,是一个长度为128的一维向量,x1,x2分别是深度伪孪生网络左支和右支的输出,长度为128;
对所述深度伪孪生网络进行参数初始化。
结合第一方面的第一种可实现方,在第一方面的第三种可实现方式中,筛选原始训练数据产生第一类训练数据,将所述第一类训练数据进行中央裁剪产生第二类训练数据包括:
从标注了特征点对应关系的原始训练数据中选取第一类训练数据,所述原始训练数据数据中有一半数量的正向数据,有一半数量的反向数据,所述原始训练数据为一个三元数据,表示为:
Data={p1,p2,y};
其中,Data是训练数据,p1与p2为25×25像素大小的特征点临近图像;y为匹配标签;若p1与p2是从相互匹配的特征点选取的临近图像,则y=1,反之则y=0,称y取值为1的Data为一个正向数据,称y取值为0的Data为一个反向数据;
对所述第一类训练数据的图像的中心区域进行裁剪;
经过上采样得到与裁剪前大小相同的图像,裁剪得到的训练数据为所述第二类训练数据。
结合第一方面的第一种可实现方,在第一方面的第四种可实现方式中,根据输出值与训练真值的差异,对所述深度伪孪生网络中的参数进行训练更新,得到最优的网络参数包括:
设定该轮训练的学习率,表达为关于训练轮数的指数关系:εn=c×fn,其中,ε为学习率,c的取值范围为0.001≤c≤0.01,f的取值范围为0.9≤f≤0.5;
将第一类训练数据的p1和对应的第二类训练数据的p1输入深度伪孪生网络中,得到128维特征向量,称为F1;
将第一类训练数据的p2和对应的第二类训练数据的p2输入深度伪孪生网络中,得到128维特征向量,称为F2;
计算得到的对比误差向量和对比误差度量,E=F1-F2,e=||F1-F2||1,其中E为128维的对比误差向量,e为对比误差度量,是E的1范数值;
将所述对比误差度量反向传播,得到更新后的深度伪孪生网络的网络参数值;
遍历所有的训练数据为一轮训练循环,如果匹配正确率增长小于0.1%,停止训练;如果匹配正确率增长大于或等于0.1%,重复设定该轮训练的学习率的步骤。
第二方面,本发明提供一种基于深度伪孪生网络的图像特征点匹配装置,所述装置包括:
获取单元,用于获取场景下第一视角图像中的目标特征点,以及所述场景下其他视角图像中的待匹配特征点;
输入单元,用于将所述目标特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述目标特征点的特征向量;将所述待匹配特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述待匹配特征点的特征向量;
计算单元,用于计算所述目标特征点的特征向量与所述待匹配特征点的特征向量的对比误差度量;
输出单元,用于输出最小对比误差度量所对应的待匹配特征点作为所述目标特征点的最佳匹配特征点。
结合第二方面,在第二方面的第一种可实现方式中,所述装置还包括:
构建单元,用于构建5层深度伪孪生网络;
筛选单元,用于筛选原始数据产生第一类训练数据,将所述第一类训练数据进行中央裁剪产生第二类训练数据;
所述输入单元,还用于将所述第一类训练数据和对应的第二类训练数据输入所述深度伪孪生网络中;
训练单元,用于根据输出值与训练真值的差异,对所述深度伪孪生网络中的参数进行训练更新,得到最优的网络参数。
结合第二方面的第一种可实现方,在第二方面的第二种可实现方式中,所述构建单元包括:
第一建立子单元,用于建立深度伪孪生网络的左支和右支,所述左支依次包括第一类训练数据图像、被中央裁剪的图像区域、深度伪孪生网络左支的第一卷积层、深度伪孪生网络左支的第二卷积层、深度伪孪生网络左支的第三卷积层、深度伪孪生网络左支的第四卷积层、深度伪孪生网络左支的第五卷积层,所述右支依次包括第二类训练数据图像、深度伪孪生网络右支的第一卷积层、深度伪孪生网络右支的第二卷积层、深度伪孪生网络右支的第三卷积层、深度伪孪生网络右支的第四卷积层、深度伪孪生网络右支的第五卷积层;
第二建立子单元,用于建立尺度融合层,所述尺度融合层输出与接受所述深度伪孪生网络左支和右支输入的表达式为:
out=sig((x1+x2)/2);
其中,out为尺度融合层的输出,是一个长度为128的一维向量,x1,x2分别是深度伪孪生网络左支和右支的输出,长度为128;
初始化子单元,用于对所述深度伪孪生网络进行参数初始化。
结合第二方面的第一种可实现方,在第二方面的第三种可实现方式中,所述筛选单元包括:
选取子单元,用于从标注了特征点对应关系的原始训练数据中选取第一类训练数据,所述原始训练数据数据中有一半数量的正向数据,有一半数量的反向数据,所述原始训练数据为一个三元数据,表示为:
Data={p1,p2,y};
其中,Data是训练数据,p1与p2为25×25像素大小的特征点临近图像;y为匹配标签;若p1与p2是从相互匹配的特征点选取的临近图像,则y=1,反之则y=0,称y取值为1的Data为一个正向数据,称y取值为0的Data为一个反向数据;
裁剪子单元,用于对所述第一类训练数据的图像的中心区域进行裁剪;
上采样子单元,用于经过上采样得到与裁剪前大小相同的图像,裁剪得到的训练数据为所述第二类训练数据。
结合第二方面的第一种可实现方,在第二方面的第四种可实现方式中,所述训练单元包括:
设定子单元,用于设定该轮训练的学习率,表达为关于训练轮数的指数关系:εn=c×fn,其中,ε为学习率,c的取值范围为0.001≤c≤0.01,f的取值范围为0.9≤f≤0.5;
输入子单元,用于将第一类训练数据的p1和对应的第二类训练数据的p1输入深度伪孪生网络中,得到128维特征向量,称为F1;
所述输入子单元,还用于将第一类训练数据的p2和对应的第二类训练数据的p2输入深度伪孪生网络中,得到128维特征向量,称为F2;
计算子单元,用于计算得到的对比误差向量和对比误差度量,E=F1-F2,e=||F1-F2||1,其中E为128维的对比误差向量,e为对比误差度量,是E的1范数值;
反向传播子单元,用于将所述对比误差度量反向传播,得到更新后的深度伪孪生网络的网络参数值;
遍历子单元,用于遍历所有的训练数据为一轮训练循环,在匹配正确率增长小于0.1%,停止训练;在匹配正确率增长大于或等于0.1%的情况下,重复设定该轮训练的学习率的步骤。
本发明的有益效果如下:本发明提供的一种基于深度伪孪生网络的图像特征点匹配方法及装置,通过获取场景下第一视角图像中的目标特征点,以及场景下其他视角图像中的待匹配特征点,将目标特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到目标特征点的特征向量;将待匹配特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到待匹配特征点的特征向量,计算目标特征点的特征向量与待匹配特征点的特征向量的对比误差度量,输出最小对比误差度量所对应的待匹配特征点作为目标特征点的最佳匹配特征点,本发明采用深度学习的图像特征点的匹配方法,经由对特征点间对比误差度量的比较,实现对最佳匹配的特征点的筛选,可得到满足高可重复性需求的图像特征点匹配关系,从大量数据学习得来的深度伪孪生网络,对于图像特征点的描述可以更好的保留局部图像信息,更好的完成图像特征点匹配任务。
附图说明
为了更清楚地说明本发明的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,对于本领域普通技术人员而言,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种基于深度伪孪生网络的图像特征点匹配方法的流程图。
图2为本发明实施例提供的一种基于深度伪孪生网络的图像特征点匹配方法中步骤S101的流程图。
图3为本发明实施例提供的一种基于深度伪孪生网络的图像特征点匹配方法中步骤S201的流程图。
图4为本发明实施例提供的一种基于深度伪孪生网络的图像特征点匹配方法中步骤S202的流程图。
图5为本发明实施例提供的一种基于深度伪孪生网络的图像特征点匹配方法中步骤S203的流程图。
图6为本发明实施例提供的一种基于深度伪孪生网络的图像特征点匹配方法中用于图像特征点匹配的深度伪孪生网络示意图。
图7为本发明实施例提供的一种基于深度伪孪生网络的图像特征点匹配装置的示意图。
具体实施方式
为使本发明的目的、技术方案和优点更加清楚,下面将结合本发明具体实施例及相应的附图对本发明技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。以下结合附图,详细说明本发明各实施例提供的技术方案。
本发明为了得到满足高可重复性需求的图像特征点匹配关系,提出了一种采用深度学习的图像特征点的匹配方法,用以对同一场景下不同视角图像间的特征点做出匹配,经由对特征点间对比误差度量的比较,实现对最佳匹配的特征点的筛选。
请参阅图1,为本发明实施例提供的一种基于深度伪孪生网络的图像特征点匹配方法,该方法的执行主体可以是处理器,所述方法包括:
步骤S101,获取场景下第一视角图像中的目标特征点,以及所述场景下其他视角图像中的待匹配特征点。
具体地,请参阅图2,获取场景下第一视角图像中的目标特征点,以及所述场景下其他视角图像中的待匹配特征点之前,所述方法还包括:
步骤S201,构建5层深度伪孪生网络。
请参阅图3,构建5层深度伪孪生网络包括:
步骤S301,建立深度伪孪生网络的左支和右支,具体如图6所示,所述左支依次包括第一类训练数据图像1、被中央裁剪的图像区域2、深度伪孪生网络左支的第一卷积层3、深度伪孪生网络左支的第二卷积层4、深度伪孪生网络左支的第三卷积层5、深度伪孪生网络左支的第四卷积层6、深度伪孪生网络左支的第五卷积层7,所述右支依次包括第二类训练数据图像9、深度伪孪生网络右支的第一卷积层、深度伪孪生网络右支的第二卷积层、深度伪孪生网络右支的第三卷积层、深度伪孪生网络右支的第四卷积层、深度伪孪生网络右支的第五卷积层。
步骤S302,建立尺度融合层8,所述尺度融合层输出与接受所述深度伪孪生网络左支和右支输入的表达式为:
out=sig((x1+x2)/2);
其中,out为尺度融合层的输出,是一个长度为128的一维向量,x1,x2分别是深度伪孪生网络左支和右支的输出,长度为128;
步骤S303,对所述深度伪孪生网络进行参数初始化。
步骤S202,筛选原始数据产生第一类训练数据,将所述第一类训练数据进行中央裁剪产生第二类训练数据。
请参阅图4,筛选原始训练数据产生第一类训练数据,将所述第一类训练数据进行中央裁剪产生第二类训练数据包括:
步骤S401,从标注了特征点对应关系的原始训练数据中选取第一类训练数据,所述原始训练数据数据中有一半数量的正向数据,有一半数量的反向数据,所述原始训练数据为一个三元数据,表示为:
Data={p1,p2,y};
其中,Data是训练数据,p1与p2为25×25像素大小的特征点临近图像;y为匹配标签;若p1与p2是从相互匹配的特征点选取的临近图像,则y=1,反之则y=0,称y取值为1的Data为一个正向数据,称y取值为0的Data为一个反向数据;
步骤S402,对所述第一类训练数据的图像的中心区域进行裁剪;
步骤S403,经过上采样得到与裁剪前大小相同的图像,裁剪得到的训练数据为所述第二类训练数据。
步骤S203,将所述第一类训练数据和对应的第二类训练数据输入所述深度伪孪生网络中。
步骤S204,根据输出值与训练真值的差异,对所述深度伪孪生网络中的参数进行训练更新,得到最优的网络参数。
下面的表1为用于图像特征点匹配的深度伪孪生网络参数表。
表1用于图像特征点匹配的深度伪孪生网络参数表
Figure BDA0002292169130000071
请参阅图5,根据输出值与训练真值的差异,对所述深度伪孪生网络中的参数进行训练更新,得到最优的网络参数包括:
步骤S501,设定该轮训练的学习率,表达为关于训练轮数的指数关系:εn=c×fn,其中,ε为学习率,c的取值范围为0.001≤c≤0.01,f的取值范围为0.9≤f≤0.5;
步骤S502,将第一类训练数据的p1和对应的第二类训练数据的p1输入深度伪孪生网络中,得到128维特征向量,称为F1;
步骤S503,将第一类训练数据的p2和对应的第二类训练数据的p2输入深度伪孪生网络中,得到128维特征向量,称为F2;
步骤S504,计算得到的对比误差向量和对比误差度量,E=F1-F2,e=||F1-F2||1,其中E为128维的对比误差向量,e为对比误差度量,是E的1范数值;
步骤S505,将所述对比误差度量反向传播,得到更新后的深度伪孪生网络的网络参数值;
步骤S506,遍历所有的训练数据为一轮训练循环,如果匹配正确率增长小于0.1%,执行步骤S507,停止训练;如果匹配正确率增长大于或等于0.1%,重复步骤S501中设定该轮训练的学习率的步骤。
步骤S102,将所述目标特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述目标特征点的特征向量;将所述待匹配特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述待匹配特征点的特征向量。
步骤S103,计算所述目标特征点的特征向量与所述待匹配特征点的特征向量的对比误差度量。
步骤S104,输出最小对比误差度量所对应的待匹配特征点作为所述目标特征点的最佳匹配特征点。
由以上实施例可知,本发明提供的一种基于深度伪孪生网络的图像特征点匹配方法,采用5层深度伪孪生网络架构的深度学习手段,可实现对同一场景下不同视角图像间的特征点做出匹配,在深度学习的损失函数上使用对比损失函数来表征当前网络的匹配程度;对训练数据采用中央裁剪实现对于变尺度图像间特征点匹配能力的增强;在网络参数学习率选择上采用随训练轮数增长以指数形式下降的策略,若相邻两轮训练过程的匹配正确率增长小于0.1%则停止训练并固定参数,用以进行特征点匹配;通过对比不同视角图像间特征点经过深度伪孪生网络计算得到的特征向量差的1范数值,将使得特征向量差的1范数最小的特征点对作为得到匹配的一对特征点。本发明主要结合深度学习的手段训练得到深度伪孪生网络,以实现图像特征点的匹配,具有匹配的高可重复性,从大量数据学习得来的深度伪孪生网络,对于图像特征点的描述可以更好的保留局部图像信息,更好的完成图像特征点匹配任务。
如图7所示,发明还提供一种基于深度伪孪生网络的图像特征点匹配装置,所述装置包括:
获取单元701,用于获取场景下第一视角图像中的目标特征点,以及所述场景下其他视角图像中的待匹配特征点。
输入单元702,用于将所述目标特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述目标特征点的特征向量;将所述待匹配特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述待匹配特征点的特征向量。
计算单元703,用于计算所述目标特征点的特征向量与所述待匹配特征点的特征向量的对比误差度量。
输出单元704,用于输出最小对比误差度量所对应的待匹配特征点作为所述目标特征点的最佳匹配特征点。
在本实施例中,所述装置还包括:构建单元,用于构建5层深度伪孪生网络。筛选单元,用于筛选原始数据产生第一类训练数据,将所述第一类训练数据进行中央裁剪产生第二类训练数据。所述输入单元,还用于将所述第一类训练数据和对应的第二类训练数据输入所述深度伪孪生网络中。训练单元,用于根据输出值与训练真值的差异,对所述深度伪孪生网络中的参数进行训练更新,得到最优的网络参数。
进一步地,所述构建单元包括:第一建立子单元,用于建立深度伪孪生网络的左支和右支,所述左支依次包括第一类训练数据图像、被中央裁剪的图像区域、深度伪孪生网络左支的第一卷积层、深度伪孪生网络左支的第二卷积层、深度伪孪生网络左支的第三卷积层、深度伪孪生网络左支的第四卷积层、深度伪孪生网络左支的第五卷积层,所述右支依次包括第二类训练数据图像、深度伪孪生网络右支的第一卷积层、深度伪孪生网络右支的第二卷积层、深度伪孪生网络右支的第三卷积层、深度伪孪生网络右支的第四卷积层、深度伪孪生网络右支的第五卷积层。第二建立子单元,用于建立尺度融合层,所述尺度融合层输出与接受所述深度伪孪生网络左支和右支输入的表达式为:
out=sig((x1+x2)/2);
其中,out为尺度融合层的输出,是一个长度为128的一维向量,x1,x2分别是深度伪孪生网络左支和右支的输出,长度为128。初始化子单元,用于对所述深度伪孪生网络进行参数初始化。
进一步地,所述筛选单元包括:选取子单元,用于从标注了特征点对应关系的原始训练数据中选取第一类训练数据,所述原始训练数据数据中有一半数量的正向数据,有一半数量的反向数据,所述原始训练数据为一个三元数据,表示为:
Data={p1,p2,y};
其中,Data是训练数据,p1与p2为25×25像素大小的特征点临近图像;y为匹配标签;若p1与p2是从相互匹配的特征点选取的临近图像,则y=1,反之则y=0,称y取值为1的Data为一个正向数据,称y取值为0的Data为一个反向数据。裁剪子单元,用于对所述第一类训练数据的图像的中心区域进行裁剪。上采样子单元,用于经过上采样得到与裁剪前大小相同的图像,裁剪得到的训练数据为所述第二类训练数据。
进一步地,所述训练单元包括:设定子单元,用于设定该轮训练的学习率,表达为关于训练轮数的指数关系:εn=c×fn,其中,ε为学习率,c的取值范围为0.001≤c≤0.01,f的取值范围为0.9≤f≤0.5。输入子单元,用于将第一类训练数据的p1和对应的第二类训练数据的p1输入深度伪孪生网络中,得到128维特征向量,称为F1。所述输入子单元,还用于将第一类训练数据的p2和对应的第二类训练数据的p2输入深度伪孪生网络中,得到128维特征向量,称为F2。计算子单元,用于计算得到的对比误差向量和对比误差度量,E=F1-F2,e=||F1-F2||1,其中E为128维的对比误差向量,e为对比误差度量,是E的1范数值。反向传播子单元,用于将所述对比误差度量反向传播,得到更新后的深度伪孪生网络的网络参数值。遍历子单元,用于遍历所有的训练数据为一轮训练循环,在匹配正确率增长小于0.1%,停止训练;在匹配正确率增长大于或等于0.1%的情况下,重复设定该轮训练的学习率的步骤。
本发明实施例还提供一种存储介质,本发明实施例还提供一种存储介质,所述存储介质中存储有计算机程序,所述计算机程序被处理器执行时实现本发明提供的基于深度伪孪生网络的图像特征点匹配方法的各实施例中的部分或全部步骤。所述的存储介质可为磁碟、光盘、只读存储记忆体(英文:Read-OnlyMemory,简称:ROM)或随机存储记忆体(英文:RandomAccessMemory,简称:RAM)等。
本领域的技术人员可以清楚地了解到本发明实施例中的技术可借助软件加必需的通用硬件平台的方式来实现。基于这样的理解,本发明实施例中的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在存储介质中,如ROM/RAM、磁碟、光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例或者实施例的某些部分所述的方法。
本说明书中各个实施例之间相同相似的部分互相参见即可。尤其,对于基于深度伪孪生网络的图像特征点匹配装置实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例中的说明即可。
以上所述的本发明实施方式并不构成对本发明保护范围的限定。

Claims (10)

1.一种基于深度伪孪生网络的图像特征点匹配方法,其特征在于,所述方法包括:
获取场景下第一视角图像中的目标特征点,以及所述场景下其他视角图像中的待匹配特征点;
将所述目标特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述目标特征点的特征向量;将所述待匹配特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述待匹配特征点的特征向量;
计算所述目标特征点的特征向量与所述待匹配特征点的特征向量的对比误差度量;
输出最小对比误差度量所对应的待匹配特征点作为所述目标特征点的最佳匹配特征点。
2.如权利要求1所述的方法,其特征在于,获取场景下第一视角图像中的目标特征点,以及所述场景下其他视角图像中的待匹配特征点之前,所述方法还包括:
构建5层深度伪孪生网络;
筛选原始数据产生第一类训练数据,将所述第一类训练数据进行中央裁剪产生第二类训练数据;
将所述第一类训练数据和对应的第二类训练数据输入所述深度伪孪生网络中;
根据输出值与训练真值的差异,对所述深度伪孪生网络中的参数进行训练更新,得到最优的网络参数。
3.如权利要求2所述的方法,其特征在于,构建5层深度伪孪生网络包括:
建立深度伪孪生网络的左支和右支,所述左支依次包括第一类训练数据图像、被中央裁剪的图像区域、深度伪孪生网络左支的第一卷积层、深度伪孪生网络左支的第二卷积层、深度伪孪生网络左支的第三卷积层、深度伪孪生网络左支的第四卷积层、深度伪孪生网络左支的第五卷积层,所述右支依次包括第二类训练数据图像、深度伪孪生网络右支的第一卷积层、深度伪孪生网络右支的第二卷积层、深度伪孪生网络右支的第三卷积层、深度伪孪生网络右支的第四卷积层、深度伪孪生网络右支的第五卷积层;
建立尺度融合层,所述尺度融合层输出与接受所述深度伪孪生网络左支和右支输入的表达式为:
out=sig((x1+x2)/2);
其中,out为尺度融合层的输出,是一个长度为128的一维向量,x1,x2分别是深度伪孪生网络左支和右支的输出,长度为128;
对所述深度伪孪生网络进行参数初始化。
4.如权利要求2所述的方法,其特征在于,筛选原始训练数据产生第一类训练数据,将所述第一类训练数据进行中央裁剪产生第二类训练数据包括:
从标注了特征点对应关系的原始训练数据中选取第一类训练数据,所述原始训练数据数据中有一半数量的正向数据,有一半数量的反向数据,所述原始训练数据为一个三元数据,表示为:
Data={p1,p2,y};
其中,Data是训练数据,p1与p2为25×25像素大小的特征点临近图像;y为匹配标签;若p1与p2是从相互匹配的特征点选取的临近图像,则y=1,反之则y=0,称y取值为1的Data为一个正向数据,称y取值为0的Data为一个反向数据;
对所述第一类训练数据的图像的中心区域进行裁剪;
经过上采样得到与裁剪前大小相同的图像,裁剪得到的训练数据为所述第二类训练数据。
5.如权利要求2所述的方法,其特征在于,根据输出值与训练真值的差异,对所述深度伪孪生网络中的参数进行训练更新,得到最优的网络参数包括:
设定该轮训练的学习率,表达为关于训练轮数的指数关系:εn=c×fn,其中,ε为学习率,c的取值范围为0.001≤c≤0.01,f的取值范围为0.9≤f≤0.5;
将第一类训练数据的p1和对应的第二类训练数据的p1输入深度伪孪生网络中,得到128维特征向量,称为F1;
将第一类训练数据的p2和对应的第二类训练数据的p2输入深度伪孪生网络中,得到128维特征向量,称为F2;
计算得到的对比误差向量和对比误差度量,E=F1-F2,e=||F1-F2||1,其中E为128维的对比误差向量,e为对比误差度量,是E的1范数值;
将所述对比误差度量反向传播,得到更新后的深度伪孪生网络的网络参数值;
遍历所有的训练数据为一轮训练循环,如果匹配正确率增长小于0.1%,停止训练;如果匹配正确率增长大于或等于0.1%,重复设定该轮训练的学习率的步骤。
6.一种基于深度伪孪生网络的图像特征点匹配装置,其特征在于,所述装置包括:
获取单元,用于获取场景下第一视角图像中的目标特征点,以及所述场景下其他视角图像中的待匹配特征点;
输入单元,用于将所述目标特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述目标特征点的特征向量;将所述待匹配特征点的临近图像及中央裁剪图像输入深度伪孪生网络,得到所述待匹配特征点的特征向量;
计算单元,用于计算所述目标特征点的特征向量与所述待匹配特征点的特征向量的对比误差度量;
输出单元,用于输出最小对比误差度量所对应的待匹配特征点作为所述目标特征点的最佳匹配特征点。
7.如权利要求6所述的装置,其特征在于,所述装置还包括:
构建单元,用于构建5层深度伪孪生网络;
筛选单元,用于筛选原始数据产生第一类训练数据,将所述第一类训练数据进行中央裁剪产生第二类训练数据;
所述输入单元,还用于将所述第一类训练数据和对应的第二类训练数据输入所述深度伪孪生网络中;
训练单元,用于根据输出值与训练真值的差异,对所述深度伪孪生网络中的参数进行训练更新,得到最优的网络参数。
8.如权利要求7所述的装置,其特征在于,所述构建单元包括:
第一建立子单元,用于建立深度伪孪生网络的左支和右支,所述左支依次包括第一类训练数据图像、被中央裁剪的图像区域、深度伪孪生网络左支的第一卷积层、深度伪孪生网络左支的第二卷积层、深度伪孪生网络左支的第三卷积层、深度伪孪生网络左支的第四卷积层、深度伪孪生网络左支的第五卷积层,所述右支依次包括第二类训练数据图像、深度伪孪生网络右支的第一卷积层、深度伪孪生网络右支的第二卷积层、深度伪孪生网络右支的第三卷积层、深度伪孪生网络右支的第四卷积层、深度伪孪生网络右支的第五卷积层;
第二建立子单元,用于建立尺度融合层,所述尺度融合层输出与接受所述深度伪孪生网络左支和右支输入的表达式为:
out=sig((x1+x2)/2);
其中,out为尺度融合层的输出,是一个长度为128的一维向量,x1,x2分别是深度伪孪生网络左支和右支的输出,长度为128;
初始化子单元,用于对所述深度伪孪生网络进行参数初始化。
9.如权利要求7所述的装置,其特征在于,所述筛选单元包括:
选取子单元,用于从标注了特征点对应关系的原始训练数据中选取第一类训练数据,所述原始训练数据数据中有一半数量的正向数据,有一半数量的反向数据,所述原始训练数据为一个三元数据,表示为:
Data={p1,p2,y};
其中,Data是训练数据,p1与p2为25×25像素大小的特征点临近图像;y为匹配标签;若p1与p2是从相互匹配的特征点选取的临近图像,则y=1,反之则y=0,称y取值为1的Data为一个正向数据,称y取值为0的Data为一个反向数据;
裁剪子单元,用于对所述第一类训练数据的图像的中心区域进行裁剪;
上采样子单元,用于经过上采样得到与裁剪前大小相同的图像,裁剪得到的训练数据为所述第二类训练数据。
10.如权利要求7所述的装置,其特征在于,所述训练单元包括:
设定子单元,用于设定该轮训练的学习率,表达为关于训练轮数的指数关系:εn=c×fn,其中,ε为学习率,c的取值范围为0.001≤c≤0.01,f的取值范围为0.9≤f≤0.5;
输入子单元,用于将第一类训练数据的p1和对应的第二类训练数据的p1输入深度伪孪生网络中,得到128维特征向量,称为F1;
所述输入子单元,还用于将第一类训练数据的p2和对应的第二类训练数据的p2输入深度伪孪生网络中,得到128维特征向量,称为F2;
计算子单元,用于计算得到的对比误差向量和对比误差度量,E=F1-F2,e=||F1-F2||1,其中E为128维的对比误差向量,e为对比误差度量,是E的1范数值;
反向传播子单元,用于将所述对比误差度量反向传播,得到更新后的深度伪孪生网络的网络参数值;
遍历子单元,用于遍历所有的训练数据为一轮训练循环,在匹配正确率增长小于0.1%,停止训练;在匹配正确率增长大于或等于0.1%的情况下,重复设定该轮训练的学习率的步骤。
CN201911184922.1A 2019-11-27 2019-11-27 基于深度伪孪生网络的图像特征点匹配方法及装置 Active CN111091144B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201911184922.1A CN111091144B (zh) 2019-11-27 2019-11-27 基于深度伪孪生网络的图像特征点匹配方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201911184922.1A CN111091144B (zh) 2019-11-27 2019-11-27 基于深度伪孪生网络的图像特征点匹配方法及装置

Publications (2)

Publication Number Publication Date
CN111091144A true CN111091144A (zh) 2020-05-01
CN111091144B CN111091144B (zh) 2023-06-27

Family

ID=70393872

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201911184922.1A Active CN111091144B (zh) 2019-11-27 2019-11-27 基于深度伪孪生网络的图像特征点匹配方法及装置

Country Status (1)

Country Link
CN (1) CN111091144B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537379A (zh) * 2021-07-27 2021-10-22 沈阳工业大学 一种基于CGANs的立体匹配方法

Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5259038A (en) * 1989-10-13 1993-11-02 Hatachi, Ltd. Point pattern matching method and system as well as picture recognizing method and system using the same
US20170140248A1 (en) * 2015-11-13 2017-05-18 Adobe Systems Incorporated Learning image representation by distilling from multi-task networks
CN106846316A (zh) * 2017-02-10 2017-06-13 云南电网有限责任公司电力科学研究院 一种gis内部典型缺陷图像自动识别方法
CN108416811A (zh) * 2018-03-08 2018-08-17 云南电网有限责任公司电力科学研究院 一种摄影机自标定方法及装置
WO2018161775A1 (zh) * 2017-03-08 2018-09-13 腾讯科技(深圳)有限公司 一种用于图像处理的神经网络模型的训练方法、装置和存储介质
US20180268256A1 (en) * 2017-03-16 2018-09-20 Aquifi, Inc. Systems and methods for keypoint detection with convolutional neural networks
CN108805200A (zh) * 2018-06-08 2018-11-13 中国矿业大学 基于深度孪生残差网络的光学遥感场景分类方法及装置
US20180341829A1 (en) * 2017-05-26 2018-11-29 Nitto Denko Corporation Image classification system and method, classification data creation system and method, and storage medium
CN108960258A (zh) * 2018-07-06 2018-12-07 江苏迪伦智能科技有限公司 一种基于自学习深度特征的模板匹配方法
CN109117744A (zh) * 2018-07-20 2019-01-01 杭州电子科技大学 一种用于人脸验证的孪生神经网络训练方法
CN109508655A (zh) * 2018-10-28 2019-03-22 北京化工大学 基于孪生网络的不完备训练集的sar目标识别方法
US20190122378A1 (en) * 2017-04-17 2019-04-25 The United States Of America, As Represented By The Secretary Of The Navy Apparatuses and methods for machine vision systems including creation of a point cloud model and/or three dimensional model based on multiple images from different perspectives and combination of depth cues from camera motion and defocus with various applications including navigation systems, and pattern matching systems as well as estimating relative blur between images for use in depth from defocus or autofocusing applications
CN109800689A (zh) * 2019-01-04 2019-05-24 西南交通大学 一种基于时空特征融合学习的目标跟踪方法
CN109840556A (zh) * 2019-01-24 2019-06-04 浙江大学 一种基于孪生网络的图像分类识别方法
CN109978072A (zh) * 2019-04-03 2019-07-05 青岛伴星智能科技有限公司 一种基于深度学习的字符比对方法和比对系统
CN109977812A (zh) * 2019-03-12 2019-07-05 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN110097177A (zh) * 2019-05-15 2019-08-06 电科瑞达(成都)科技有限公司 一种基于伪孪生网络的网络剪枝方法
CN110210503A (zh) * 2019-06-14 2019-09-06 厦门历思科技服务有限公司 一种印章识别方法和装置以及设备
US20190294108A1 (en) * 2018-03-21 2019-09-26 The Regents Of The University Of California Method and system for phase recovery and holographic image reconstruction using a neural network
CN110309835A (zh) * 2019-06-27 2019-10-08 中国人民解放军战略支援部队信息工程大学 一种图像局部特征提取方法及装置

Patent Citations (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5259038A (en) * 1989-10-13 1993-11-02 Hatachi, Ltd. Point pattern matching method and system as well as picture recognizing method and system using the same
US20170140248A1 (en) * 2015-11-13 2017-05-18 Adobe Systems Incorporated Learning image representation by distilling from multi-task networks
CN106846316A (zh) * 2017-02-10 2017-06-13 云南电网有限责任公司电力科学研究院 一种gis内部典型缺陷图像自动识别方法
WO2018161775A1 (zh) * 2017-03-08 2018-09-13 腾讯科技(深圳)有限公司 一种用于图像处理的神经网络模型的训练方法、装置和存储介质
US20180268256A1 (en) * 2017-03-16 2018-09-20 Aquifi, Inc. Systems and methods for keypoint detection with convolutional neural networks
US20190122378A1 (en) * 2017-04-17 2019-04-25 The United States Of America, As Represented By The Secretary Of The Navy Apparatuses and methods for machine vision systems including creation of a point cloud model and/or three dimensional model based on multiple images from different perspectives and combination of depth cues from camera motion and defocus with various applications including navigation systems, and pattern matching systems as well as estimating relative blur between images for use in depth from defocus or autofocusing applications
US20180341829A1 (en) * 2017-05-26 2018-11-29 Nitto Denko Corporation Image classification system and method, classification data creation system and method, and storage medium
CN108416811A (zh) * 2018-03-08 2018-08-17 云南电网有限责任公司电力科学研究院 一种摄影机自标定方法及装置
US20190294108A1 (en) * 2018-03-21 2019-09-26 The Regents Of The University Of California Method and system for phase recovery and holographic image reconstruction using a neural network
CN108805200A (zh) * 2018-06-08 2018-11-13 中国矿业大学 基于深度孪生残差网络的光学遥感场景分类方法及装置
CN108960258A (zh) * 2018-07-06 2018-12-07 江苏迪伦智能科技有限公司 一种基于自学习深度特征的模板匹配方法
CN109117744A (zh) * 2018-07-20 2019-01-01 杭州电子科技大学 一种用于人脸验证的孪生神经网络训练方法
CN109508655A (zh) * 2018-10-28 2019-03-22 北京化工大学 基于孪生网络的不完备训练集的sar目标识别方法
CN109800689A (zh) * 2019-01-04 2019-05-24 西南交通大学 一种基于时空特征融合学习的目标跟踪方法
CN109840556A (zh) * 2019-01-24 2019-06-04 浙江大学 一种基于孪生网络的图像分类识别方法
CN109977812A (zh) * 2019-03-12 2019-07-05 南京邮电大学 一种基于深度学习的车载视频目标检测方法
CN109978072A (zh) * 2019-04-03 2019-07-05 青岛伴星智能科技有限公司 一种基于深度学习的字符比对方法和比对系统
CN110097177A (zh) * 2019-05-15 2019-08-06 电科瑞达(成都)科技有限公司 一种基于伪孪生网络的网络剪枝方法
CN110210503A (zh) * 2019-06-14 2019-09-06 厦门历思科技服务有限公司 一种印章识别方法和装置以及设备
CN110309835A (zh) * 2019-06-27 2019-10-08 中国人民解放军战略支援部队信息工程大学 一种图像局部特征提取方法及装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
贾迪;朱宁丹;杨宁华;吴思;李玉秀;赵明远;: "图像匹配方法研究综述" *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113537379A (zh) * 2021-07-27 2021-10-22 沈阳工业大学 一种基于CGANs的立体匹配方法
CN113537379B (zh) * 2021-07-27 2024-04-16 沈阳工业大学 一种基于CGANs的立体匹配方法

Also Published As

Publication number Publication date
CN111091144B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
US11551333B2 (en) Image reconstruction method and device
US6516087B1 (en) Method for real time correlation of stereo images
JPWO2019168084A1 (ja) 推論装置、畳み込み演算実行方法及びプログラム
US20200389182A1 (en) Data conversion method and apparatus
CN112712546A (zh) 一种基于孪生神经网络的目标跟踪方法
CN108921801B (zh) 用于生成图像的方法和装置
CN112767340A (zh) 基于神经网络模型对病灶区进行评估的设备和相关产品
CN114783022B (zh) 一种信息处理方法、装置、计算机设备及存储介质
JP2013511109A (ja) イメージ処理方法及びそのための装置
CN111091144A (zh) 基于深度伪孪生网络的图像特征点匹配方法及装置
EP4345771A1 (en) Information processing method and apparatus, and computer device and storage medium
EP4345770A1 (en) Information processing method and apparatus, computer device, and storage medium
Liang et al. Optimised image retargeting using aesthetic‐based cropping and scaling
JP2856661B2 (ja) 濃度変換装置
JP6725310B2 (ja) 画像処理装置及びプログラム
US11468147B1 (en) Activation function approximation in deep neural networks using rectified-linear-unit function
CN110619624B (zh) 一种图像分解方法及装置
Gao et al. Single image dehazing based on single pixel energy minimization
CN108830860B (zh) 一种基于rgb-d约束的双目图像目标分割方法和装置
US11393069B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
JP7005280B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN110827238A (zh) 一种改进的全卷积神经网络的侧扫声纳图像特征提取方法
US8483505B2 (en) Rendering piece-wise smooth image from colour values along paths
US20240135747A1 (en) Information processing method, computer device, and storage medium
CN113592970B (zh) 毛发造型的生成方法及装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant