CN116310657A - 特征点检测模型训练方法、图像特征匹配方法及装置 - Google Patents

特征点检测模型训练方法、图像特征匹配方法及装置 Download PDF

Info

Publication number
CN116310657A
CN116310657A CN202310537694.1A CN202310537694A CN116310657A CN 116310657 A CN116310657 A CN 116310657A CN 202310537694 A CN202310537694 A CN 202310537694A CN 116310657 A CN116310657 A CN 116310657A
Authority
CN
China
Prior art keywords
feature point
image
sample image
feature
detection result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202310537694.1A
Other languages
English (en)
Other versions
CN116310657B (zh
Inventor
沈铮阳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202310537694.1A priority Critical patent/CN116310657B/zh
Publication of CN116310657A publication Critical patent/CN116310657A/zh
Application granted granted Critical
Publication of CN116310657B publication Critical patent/CN116310657B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/02Affine transformations
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Multimedia (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Image Analysis (AREA)

Abstract

本公开提供了一种特征点检测模型训练方法、图像特征匹配方法及装置,涉及人工智能技术领域,具体为计算机视觉、增强现实、虚拟现实、深度学习等技术领域,可应用于元宇宙、人工智能生成内容等场景。具体实现方案为:获取第一样本图像;获取对第一样本图像进行仿射变换,生成的第二样本图像;基于特征点检测模型,获得目标样本图像的特征点检测结果;其中,目标样本图像为第一样本图像和第二样本图像中的任一图像,特征点检测结果相对于目标样本图像具有仿射等变性;基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型。采用本公开可以提高图像特征匹配的准确性。

Description

特征点检测模型训练方法、图像特征匹配方法及装置
技术领域
本公开涉及人工智能技术领域,具体为计算机视觉、增强现实、虚拟现实、深度学习等技术领域,可应用于元宇宙、人工智能生成内容等场景,具体涉及一种特征点检测模型训练方法、图像特征匹配方法、装置及电子设备。
背景技术
在图像处理的过程中,图像特征匹配是非常重要的一个环节。目前,主要是利用经过训练的残差神经网络进行特征点选取,再据此完成图像特征匹配。然而,实际应用中,一张待匹配图像通常相对于另一张待匹配图像发生过仿射变换,残差神经网络无法准确对其进行特征点选取,也即,残差神经网络针对仿射变换具有较低鲁棒性,因此,会影响图像特征匹配的准确性。
发明内容
本公开提供了一种特征点检测模型训练方法、图像特征匹配方法及装置。
根据本公开的一方面,提供了一种特征点检测模型训练方法,包括:
获取第一样本图像,第一样本图像具有对应的第一特征标签;
获取对第一样本图像进行仿射变换,生成的第二样本图像,第二样本图像具有对应的第二特征标签;
基于特征点检测模型,获得目标样本图像的特征点检测结果;其中,目标样本图像为第一样本图像和第二样本图像中的任一图像,特征点检测结果相对于目标样本图像具有仿射等变性;
基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型。
根据本公开的另一方面,提供了一种图像特征匹配方法,包括:
获取第一待匹配图像和第二待匹配图像;
基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果;其中,经过训练的特征点检测模型是通过本公开实施例提供的特征点检测模型训练方法进行训练的,目标待匹配图像为第一待匹配图像和第二待匹配图中的任一图像;
基于特征点检测结果,对第一待匹配图像和第二待匹配图像进行特征匹配。
根据本公开的另一方面,提供了一种特征点检测模型训练装置,包括:
第一样本图像获取单元,用于获取第一样本图像,第一样本图像具有对应的第一特征标签;
第二样本图像获取单元,用于获取对第一样本图像进行仿射变换,生成的第二样本图像,第二样本图像具有对应的第二特征标签;
样本图像检测单元,用于基于特征点检测模型,获得目标样本图像的特征点检测结果;其中,目标样本图像为第一样本图像和第二样本图像中的任一图像,特征点检测结果相对于目标样本图像具有仿射等变性;
模型训练单元,用于基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型。
根据本公开的另一方面,提供了一种图像特征匹配装置,包括:
待匹配图像获取单元,用于获取第一待匹配图像和第二待匹配图像;
待匹配图像检测单元,用于基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果;其中,经过训练的特征点检测模型是通过本公开实施例提供的特征点检测模型训练方法进行训练的,目标待匹配图像为第一待匹配图像和第二待匹配图中的任一图像;
图像特征匹配单元,用于基于特征点检测结果,对第一待匹配图像和第二待匹配图像进行特征匹配。
根据本公开的另一方面,提供了一种电子设备,包括:
至少一个处理器;
与该至少一个处理器通信连接的存储器;
该存储器存储有可被该至少一个处理器执行的指令,该指令被该至少一个处理器执行,以使该至少一个处理器能够执行本公开实施例提供的任一方法。
根据本公开的另一方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,该计算机指令用于使该计算机执行本公开实施例提供的任一方法。
根据本公开的另一方面,提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现本公开实施例提供的任一方法。
采用本公开可以提高图像特征匹配的准确性。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1为本公开实施例提供的一种特征点检测模型训练方法的流程示意图;
图2为本公开实施例提供的一种第一特征标签和第二特征标签的表征意义说明图;
图3A为本公开实施例提供的一种第一特征点概率检测结果的表征意义说明图;
图3B为本公开实施例提供的一种第二特征点概率检测结果的表征意义说明图;
图4为本公开实施例提供的一种特征点概率检测结果的获取过程说明图;
图5为本公开实施例提供的一种特征点方向检测结果的获取过程说明图;
图6A为本公开实施例提供的一种第一特征点方向检测结果的表征意义说明图;
图6B为本公开实施例提供的一种第二特征点方向检测结果的表征意义说明图;
图7为本公开实施例提供的一种特征匹配标签的表征意义说明图;
图8为本公开实施例提供的一种特征点检测模型训练方法的完整性流程示意图;
图9为本公开实施例提供的一种特征点检测模型训练方法的场景示意图;
图10为本公开实施例提供的一种图像特征匹配方法的流程示意图;
图11为本公开实施例提供的一种匹配特征点的确定过程说明图;
图12为本公开实施例提供的一种目标特征点的确定过程说明图;
图13为本公开实施例提供的一种图像特征匹配方法的完整性流程示意图;
图14为本公开实施例提供的一种图像特征匹配方法的场景示意图;
图15为本公开实施例提供的一种特征点检测模型训练装置的示意性结构框图;
图16为本公开实施例提供的一种图像特征匹配装置的示意性结构框图;
图17为本公开实施例提供的一种电子设备的示意性结构框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
如背景技术所述的,目前,主要是利用经过训练的残差神经网络(Resnet)进行特征点选取,再据此完成图像特征匹配。然而,实际应用中,一张待匹配图像通常相对于另一张待匹配图像发生过仿射变换,由于仿射变换的自由度较高,Resnet学习难度较大,使得Resnet无法准确对发生过仿射变换的待匹配图像进行特征点选取,也即,Resnet针对仿射变换具有较低鲁棒性,因此,会影响图像特征匹配的准确性。
基于以上背景,本公开实施例提供了一种特征点检测模型训练方法,其可以应用于电子设备。以下,将结合图1所示流程示意图,对本公开实施例提供的一种特征点检测模型训练方法进行说明。需要说明的是,虽然在流程示意图中示出了逻辑顺序,但是,在某些情况下,也可以以其他顺序执行所示出或描述的步骤。
步骤S101,获取第一样本图像,第一样本图像具有对应的第一特征标签;
步骤S102,获取对第一样本图像进行仿射变换,生成的第二样本图像,第二样本图像具有对应的第二特征标签;
步骤S103,基于特征点检测模型,获得目标样本图像的特征点检测结果;其中,目标样本图像为第一样本图像和第二样本图像中的任一图像,特征点检测结果相对于目标样本图像具有仿射等变性;
步骤S104,基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型。
其中,第一样本图像可以通过摄像装置采集获取,也可以通过网络从互联网获取,本公开实施例对此不作限制。在获取到第一样本图像之后,可以对第一样本图像进行标注,获得第一特征标签,用于表征第一样本图像中每个像素点为特征点的标注概率值。第二样本图像是对第一样本图像进行仿射变换生成的。在获取到第二样本图像之后,同样可以对第二样本图像进行标注,获得第二特征标签,用于表征第二样本图像中每个像素点为特征点的标注概率值。
请结合图2,假设,存在第一样本图像I,其包括4*4=16个像素点,对第一样本图像I进行标注,获得的第一特征标签用于表征第一样本图像I中像素点(h=1,w=1)为特征点的标注概率值为0.95,像素点(h=1,w=2)为特征点的标注概率值为0.02,像素点(h=1,w=3)为特征点的标注概率值为0.01……再假设,对第一样本图像I进行仿射变换,生成了第二样本图像I',其同样可以包括4*4=16个像素点,对第二样本图像I'进行标注,获得的第二特征标签表征第二样本图像I'中像素点(h=1,w=1)为特征点的标注概率值为0.94,像素点(h=1,w=2)为特征点的标注概率值为0.02,像素点(h=1,w=3)为特征点的标注概率值为0.01……
在获取到第一样本图像和第二样本图像之后,可以分别将第一样本图像和第二样本图像作为目标样本图像,再基于特征点检测模型,获得目标样本图像的特征点检测结果,该特征点检测结果可以包括特征点概率检测结果,用于表征目标样本图像中每个像素点为特征点的检测概率值。其中,特征点检测结果相对于目标样本图像具有仿射等变性,也即,对于目标样本图像的仿射变换,也会同样反应在特征点检测结果上,使得特征点检测结果能够与目标样本图像保持逐点对应。其中,特征点检测模型可以是以E(2)群等变可操控神经网络(General E(2)Equivariant Steerable Convolutional Neural Networks,E2CNN)作为网络骨架的神经网络模型,本公开实施例对此不作限制。
在一具体示例中,目标样本图像为图2所示的第一样本图像I,基于特征点检测模型,获得第一样本图像I的特征点检测结果包括图3A所示的第一特征点概率检测结果,用于表征第一样本图像I中像素点(h=1,w=1)为特征点的检测概率值为0.96,像素点(h=1,w=2)为特征点的检测概率值为0.02,像素点(h=1,w=3)为特征点的检测概率值为0.01……在另一具体示例中,目标样本图像为图2所示的第二样本图像I',基于特征点检测模型,获得第二样本图像I'的特征点检测结果包括图3B所示的第二特征点概率检测结果,该第二特征点概率检测结果能够与第二样本图像I'保持逐点对应。具体地,该第二特征点概率检测结果用于表征第二样本图像I'中像素点(h=1,w=1)为特征点的检测概率值为0.95,像素点(h=1,w=2)为特征点的检测概率值为0.02,像素点(h=1,w=3)为特征点的检测概率值为0.01……
在获得目标样本图像的特征点检测结果之后,可以基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型。其中,经过训练的特征点检测模型可以用于在获取到第一待匹配图像和第二待匹配图像之后,分别将第一待匹配图像和第二待匹配图像作为目标待匹配图像,获得目标样本图像的特征点检测结果,以便基于特征点检测结果,对第一待匹配图像和第二待匹配图像进行特征匹配。
采用本公开实施例提供的特征点检测模型训练方法,可以获取第一样本图像,第一样本图像具有对应的第一特征标签;对第一样本图像进行仿射变换,生成的第二样本图像,第二样本图像具有对应的第二特征标签;特征点检测模型,获得目标样本图像的特征点检测结果;其中,目标样本图像为第一样本图像和第二样本图像中的任一图像,特征点检测结果相对于目标样本图像具有仿射等变性;基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型。由于特征点检测结果相对于目标样本图像具有仿射等变性,因此,对于目标样本图像的仿射变换,也会同样反应在特征点检测结果上,使得特征点检测结果能够与目标样本图像保持逐点对应,从而提高针对仿射变换的鲁棒性,也即,在分别将第一待匹配图像和第二待匹配图像作为目标待匹配图像,获得目标待匹配图像的特征点检测结果的过程中,即使目标待匹配图像是经过仿射变换的,其对应的特征点检测结果也能够与目标待匹配图像保持逐点对应,从而提高针对仿射变换的鲁棒性,以提高图像特征匹配的准确性。
本公开实施例中,特征点检测模型可以包括特征点概率检测模型。基于此,在一些可选的实施方式中,“基于特征点检测模型,获得目标样本图像的特征点检测结果”可以包括以下步骤:
获取多个变换参数;
分别按照多个变换参数,对目标样本图像进行第一变换处理,获得多张增广图像;其中,每张增广图像对应一个变换参数,第一变换处理能够与第二变换处理组合,实现仿射变换;
基于特征点概率检测模型,对多张增广图像进行处理,获得目标样本图像的特征点概率检测结果;其中,特征点概率检测模型在标量场上具有针对第二变换处理的等变性;
其中,特征点检测结果包括特征点概率检测结果。
其中,特征点概率检测模型可以是以E2CNN作为网络骨架的神经网络模型,本公开实施例对此不作限制。特征点概率检测模型在标量场上具有针对第二变换处理的等变性,也即,对于输入图像的第二变换处理,也会同样反应在特征点概率检测模型的概率输出结果上,使得概率输出结果与经过第二变换处理的输入图像保持逐点对应。其中,概率输出结果用于表征输入图像中每个像素点为特征点的检测概率值,因此,概率输出结果可以是单通道。
本公开实施例中,第一变换处理能够与第二变换处理组合,实现仿射变换,也即,第一变换处理可以是图像拉伸处理,对应的,第二变换处理可以是图像旋转处理,那么,特征点概率检测模型在标量场上具有针对图像旋转处理的等变性,或第一变换处理可以是图像旋转处理,对应的,第二变换处理可以是图像拉伸处理,那么,特征点概率检测模型在标量场上具有针对图像拉伸处理的等变性,本公开实施例对此不作具体限制。但由于图像拉伸处理的难度小于图像旋转处理的难度,为降低特征点检测模型训练方法的复杂性,以提高模型训练效率,本公开实施例中,可以设定第一变换处理为图像拉伸处理,第二变换处理为图像旋转处理。
此外,需要说明的是,本公开实施例中,在第一变换处理为图像拉伸处理的情况下,变换参数可以是拉伸尺度参数,用于控制目标样本图像的拉伸尺度,在第一变换处理为图像旋转处理的情况下,变换参数可以是旋转尺度参数,用于控制目标样本图像的旋转尺度。还需要说明的是,本公开实施例中,多个变换参数中任两个变换参数可以不同,以保证增广图像的多样性。在获得多张增广图像之后,再基于特征点概率检测模型,对多张增广图像进行处理,获得目标样本图像的特征点概率检测结果。
请结合图4,假设,第一变换处理为沿X方向的图像拉伸处理、且存在第一样本图像I,以及对第一样本图像进行仿射变换,生成的第二样本图像I'。分别按照多个拉伸尺度参数,对第一样本图像I进行图像拉伸处理,获得了多张第一增广图像
Figure SMS_1
,以及分别按照多个拉伸尺度参数,对第二样本图像I'进行图像拉伸处理,获得了多张第二增广图像/>
Figure SMS_2
。此后,可以基于特征点概率检测模型TX,对多张第一增广图像/>
Figure SMS_3
进行处理,获得与每张第一增广图像/>
Figure SMS_4
对应的概率输出结果,并据此获得第一样本图像I的特征点概率检测结果,也即,第一特征点概率检测结果,用于表征第一样本图像I中每个像素点为特征点的检测概率值,具体如图3A所示。同时,可以基于特征点概率检测模型TX,对多张第二增广图像
Figure SMS_5
进行处理,获得与每张第二增广图像/>
Figure SMS_6
对应的概率输出结果,并据此获得第二样本图像I'的特征点概率检测结果,也即,第二特征点概率检测结果,用于表征第二样本图像I'中每个像素点为特征点的检测概率值,具体如图3B所示。
通过以上步骤,本公开实施例中,可以获取多个变换参数,再分别按照多个变换参数,对目标样本图像进行第一变换处理,获得多张增广图像,以使特征点概率检测结果相对于目标样本图像具有针对第一变换处理的等变性,此后,可以基于特征点概率检测模型,对多张增广图像进行处理,获得目标样本图像的特征点概率检测结果,由于特征点概率检测模型在标量场上具有针对第二变换处理的等变性,因此,又可以使特征点概率检测结果相对于目标样本图像具有针对第二变换处理的等变性,最终,使得特征点概率检测结果相对于目标样本图像具有仿射等变性。该过程中,特征点概率检测结果相对于目标样本图像的第一变换等变性(针对第一变换处理的等变性)是基于第一变换处理实现的,特征点概率检测结果相对于目标样本图像的第二变换等变性(针对第二变换处理的等变性)是基于特征点概率检测模型实现的,而并非完全依靠特征点概率检测模型使得特征点概率检测结果相对于目标样本图像具有仿射等变性,因此,能够降低特征点检测模型训练方法的复杂性,以提高模型训练效率。
在一些可选的实施方式中,“获取多个变换参数”可以包括以下步骤:
对预设均匀分布进行随机采样,获得多个变换参数。
在一具体示例中,第一变换处理为图像拉伸处理,变换参数为拉伸尺度参数。基于此,本公开实施例中,预设均匀分布可以表征为:
Figure SMS_7
其中,
Figure SMS_8
为预设均匀分布中的最小值,/>
Figure SMS_9
为预设均匀分布中的最大值。
对预设均匀分布进行随机采样,获得的多个拉伸尺度参数中的第i个拉伸尺度参数可以表征为
Figure SMS_10
。其中,1≤i≤n,n≥2、且为整数。基于此,/>
Figure SMS_14
用于表征按照拉伸尺度参数/>
Figure SMS_18
对第一样本图像I进行拉伸变换处理,获得的第一增广图像,/>
Figure SMS_11
用于表征按照拉伸尺度参数/>
Figure SMS_16
对第一样本图像I进行拉伸变换处理,获得的第一增广图像,/>
Figure SMS_19
用于表征按照拉伸尺度参数/>
Figure SMS_21
对第一样本图像I进行拉伸变换处理,获得的第一增广图像……/>
Figure SMS_12
用于表征按照拉伸尺度参数/>
Figure SMS_17
对第二样本图像I'进行拉伸变换处理,获得的第二增广图像,/>
Figure SMS_20
用于表征按照拉伸尺度参数/>
Figure SMS_22
对第二样本图像I'进行拉伸变换处理,获得的第二增广图像,/>
Figure SMS_13
用于表征按照拉伸尺度参数/>
Figure SMS_15
对第二样本图像I'进行拉伸变换处理,获得的第二增广图像……
通过以上步骤,本公开实施例中,可以对预设均匀分布进行随机采样,获得多个变换参数,使得在分别按照多个变换参数,对目标样本图像进行第一变换处理,获得多张增广图像之后,能够保证增广图像的多样性,从而提高模型训练效果。
在一些可选的实施方式中,“基于特征点概率检测模型,对多张增广图像进行处理,获得目标样本图像的特征点概率检测结果”可以包括以下步骤:
基于特征点概率检测模型,分别对多张增广图像进行处理,获得多张特征点概率表征图像;其中,每张特征点概率表征图像对应一张增广图像;
基于多个变换参数中与目标概率表征图像对应的第一目标处理参数,对目标概率表征图像进行第三变换处理,获得第一恢复图像;其中,目标概率表征图像为多张特征点概率表征图像中的任一图像,第三变换处理为第一变换处理的逆变换;
对获取到的多张第一恢复图像进行融合,获得目标样本图像的特征点概率检测结果。
如前所述的,本公开实施例中,特征点概率检测模型在标量场上具有针对第二变换处理的等变性,因此,针对每张增广图像,其对应的特征点概率表征图像都会与该张增广图像保持逐点对应。
在获得多张特征点概率表征图像之后,将多张特征点概率表征图像中的任一图像作为目标概率表征图像,并基于多个变换参数中与目标概率表征图像对应的第一目标处理参数,对目标概率表征图像进行第三变换处理,获得第一恢复图像。其中,第三变换处理为第一变换处理的逆变换。在一具体示例中,第一变换处理为沿X方向的图像拉伸处理、且针对某张增广图像,其对应的第一目标处理参数为
Figure SMS_23
,用于指示沿X方向对该张增广图像进行拉伸、且拉伸尺度为/>
Figure SMS_24
,那么,在基于特征点概率检测模型,对该张增广图像进行处理,获得与其对应的特征点概率表征图像之后,可以沿X反方向对该张特征点概率表征图像进行拉伸、且拉伸尺度为/>
Figure SMS_25
,以获得与该张特征点概率表征图像对应的第一恢复图像。
在获取到多张第一恢复图像之后,可以对多张第一恢复图像进行融合,获得目标样本图像的特征点概率检测结果。
假设,第一变换处理为沿X方向的图像拉伸处理、且存在第一样本图像I,以及对第一样本图像进行仿射变换,生成的第二样本图像I'。分别按照多个拉伸尺度参数,对第一样本图像I进行图像拉伸处理,获得了多张第一增广图像
Figure SMS_26
,以及分别按照多个拉伸尺度参数,对第二样本图像I'进行图像拉伸处理,获得了多张第二增广图像/>
Figure SMS_27
那么,在目标样本图像为第一样本图像I的情况下,以上步骤可以表征为:
Figure SMS_28
其中,X为第一样本图像I的特征点概率检测结果,TX为特征点概率检测模型,
Figure SMS_29
表征多张第一增广图像中的第i张第一增广图像,/>
Figure SMS_30
表征按照拉伸尺度为/>
Figure SMS_31
,对与第一增广图像/>
Figure SMS_32
对应的特征点概率表征图像进行第三变换处理,n为拉伸尺度参数的总数量,此处,也可以理解为第一增广图像的总数量。
在目标样本图像为第二样本图像I'的情况下,以上步骤可以表征为:
Figure SMS_33
其中,X'为第二样本图像I'的特征点概率检测结果,TX为特征点概率检测模型,
Figure SMS_34
表征多张第二增广图像中的第i张第二增广图像,/>
Figure SMS_35
表征按照拉伸尺度为/>
Figure SMS_36
,对与第二增广图像/>
Figure SMS_37
对应的特征点概率表征图像进行第三变换处理,n为拉伸尺度参数的总数量,此处,也可以理解为第二增广图像的总数量。
通过以上步骤,本公开实施例中,可以基于特征点概率检测模型,分别对多张增广图像进行处理,获得多张特征点概率表征图像,再将多张特征点概率表征图像中的任一图像作为目标概率标注图像,并基于多个变换参数中与目标概率表征图像对应的第一目标处理参数,对目标概率表征图像进行第三变换处理,获得第一恢复图像,最后,对获取到的多张第一恢复图像进行融合,获得目标样本图像的特征点概率检测结果。由于目标样本图像的特征点概率检测结果是通过对获取到的多张第一恢复图像进行融合获得的,因此,可以提高特征点概率检测结果的可靠性,从而进一步提高模型训练效果。
本公开实施例中,特征点检测模型还可以包括特征点方向检测模型。基于此,在一些可选的实施方式中,“基于特征点检测模型,获得目标样本图像的特征点检测结果”还可以包括以下步骤:
基于特征点方向检测模型,对多张增广图像进行处理,获得目标样本图像的特征点方向检测结果;其中,特征点方向检测模型在向量场上具有针对第二变换处理的等变性;
其中,特征点检测结果还包括特征点方向检测结果。
其中,特征点方向检测模型可以是以E2CNN作为网络骨架的神经网络模型,本公开实施例对此不作限制。特征点方向检测模型在向量场上具有针对第二变换处理的等变性,也即,对于输入图像的第二变换处理,也会同样反应在特征点方向检测模型的方向输出结果上,使得方向输出结果与经过第二变换处理的输入图像保持逐点对应。其中,方向输出结果用于表征输入图像中每个像素点的方向,具体可以是梯度方向,因此,方向输出结果可以是双通道。其中,第一个通道用于表征每个像素点在X方向上对应的方向表征值,第二个通道用于表征每个像素点在Y方向上对应的方向表征值。
请结合图5,假设,第一变换处理为沿X方向的图像拉伸处理、且存在第一样本图像I,以及对第一样本图像进行仿射变换,生成的第二样本图像I'。分别按照多个拉伸尺度参数,对第一样本图像I进行图像拉伸处理,获得了多张第一增广图像
Figure SMS_38
,以及分别按照多个拉伸尺度参数,对第二样本图像I'进行图像拉伸处理,获得了多张第二增广图像/>
Figure SMS_39
。此后,可以基于特征点方向检测模型TD,对多张第一增广图像/>
Figure SMS_40
进行处理,获得与每张第一增广图像/>
Figure SMS_41
对应的方向输出结果,并据此获得第一样本图像I的特征点方向检测结果,也即,第一特征点方向检测结果,用于表征第一样本图像I中每个像素点的方向,具体如图6A所示。同时,可以基于特征点方向检测模型Tx,对多张第二增广图像/>
Figure SMS_42
进行处理,获得与每张第二增广图像/>
Figure SMS_43
对应的方向输出结果,并据此获得第二样本图像I'的特征点方向检测结果,也即,第二特征点方向检测结果,用于表征第二样本图像I'中每个像素点的方向,具体如图6B所示。
通过以上步骤,本公开实施例中,还可以基于特征点方向检测模型,对多张增广图像进行处理,获得目标样本图像的特征点方向检测结果。由于特征点方向检测模型在向量场上具有针对第二变换处理的等变性,因此,可以使得特征点方向检测结果相对于目标样本图像具有针对第二变换处理的等变性,从而保证特征点检测结果相对于目标样本图像具有绝对的仿射等变性,这能够进一步提高针对仿射变换的鲁棒性,以提高图像特征匹配的准确性。
在一些可选的实施方式中,“基于特征点方向检测模型,对多张增广图像进行处理,获得目标样本图像的特征点方向检测结果”可以包括以下步骤:
基于特征点方向检测模型,分别对多张增广图像进行处理,获得多张特征点方向表征图像;其中,每张特征点方向表征图像对应一张增广图像;
基于多个变换参数中与目标方向表征图像对应的第二目标处理参数,对目标方向表征图像进行第四变换处理,获得第二恢复图像;其中,目标方向表征图像为多张特征点方向表征图像中的任一图像,第四变换处理为第一变换处理的逆变换;
对获取到的多张第二恢复图像进行融合,获得目标样本图像的特征点方向检测结果。
如前所述的,本公开实施例中,特征点方向检测模型在向量场上具有针对第二变换处理的等变性,因此,针对每张增广图像,其对应的特征点方向表征图像都会与该张增广图像保持逐点对应。
在获得多张特征点方向表征图像之后,将多张特征点方向表征图像中的任一图像作为目标方向表征图像,并基于多个变换参数中与目标方向表征图像对应的第二目标处理参数,对目标方向表征图像进行第四变换处理,获得第二恢复图像。其中,第四变换处理为第一变换处理的逆变换。在一具体示例中,第一变换处理为沿X方向的图像拉伸处理、且针对某张增广图像,其对应的第二目标处理参数为
Figure SMS_44
,用于指示沿X方向对该张增广图像进行拉伸、且拉伸尺度为/>
Figure SMS_45
,那么,在基于特征点方向检测模型,对该张增广图像进行处理,获得与其对应的特征点方向表征图像之后,可以沿X反方向对该张特征点方向表征图像进行拉伸、且拉伸尺度为/>
Figure SMS_46
,以获得与该张特征点方向表征图像对应的第二恢复图像。
在获取到多张第二恢复图像之后,可以对多张第二恢复图像进行融合,获得目标样本图像的特征点方向检测结果。
假设,第一变换处理为沿X方向的图像拉伸处理、且存在第一样本图像I,以及对第一样本图像进行仿射变换,生成的第二样本图像I'。分别按照多个拉伸尺度参数,对第一样本图像I进行图像拉伸处理,获得了多张第一增广图像
Figure SMS_47
,以及分别按照多个拉伸尺度参数,对第二样本图像I'进行图像拉伸处理,获得了多张第二增广图像/>
Figure SMS_48
那么,在目标样本图像为第一样本图像I的情况下,以上步骤可以表征为:
Figure SMS_49
其中,D为第一样本图像I的特征点方向检测结果,TD为特征点方向检测模型,
Figure SMS_50
表征多张第一增广图像中的第i张第一增广图像,/>
Figure SMS_51
表征按照拉伸尺度为/>
Figure SMS_52
,对与第一增广图像/>
Figure SMS_53
对应的特征点方向表征图像所对应的第一个通道进行第四变换处理,n为拉伸尺度参数的总数量,此处,也可以理解为第一增广图像的总数量。
此外,需要说明的是,本公开实施例中,在第一变换处理为沿Y方向的图像拉伸处理的情况下,
Figure SMS_54
也可以用于表征按照拉伸尺度为/>
Figure SMS_55
,对与第一增广图像/>
Figure SMS_56
对应的特征点方向表征图像所对应的第二个通道进行第四变换处理。
在目标样本图像为第二样本图像I'的情况下,以上步骤可以表征为:
Figure SMS_57
其中,D'为第二样本图像I'的特征点方向检测结果,TD为特征点方向检测模型,
Figure SMS_58
表征多张第二增广图像中的第i张第二增广图像,/>
Figure SMS_59
表征按照拉伸尺度为/>
Figure SMS_60
,对与第二增广图像/>
Figure SMS_61
对应的特征点方向表征图像所对应的第一个通道进行第四变换处理,n为拉伸尺度参数的总数量,此处,也可以理解为第二增广图像的总数量。
此外,需要说明的是,本公开实施例中,在第一变换处理为沿Y方向的图像拉伸处理的情况下,
Figure SMS_62
也可以用于表征按照拉伸尺度为/>
Figure SMS_63
,对与第二增广图像/>
Figure SMS_64
对应的特征点方向表征图像所对应的第二个通道进行第四变换处理。
通过以上步骤,本公开实施例中,可以基于特征点方向检测模型,分别对多张增广图像进行处理,获得多张特征点方向表征图像,再将多张特征点方向表征图像中的任一图像作为目标方向标注图像,并基于多个变换参数中与目标方向表征图像对应的第二目标处理参数,对目标方向表征图像进行第四变换处理,获得第二恢复图像,最后,对获取到的多张第二恢复图像进行融合,获得目标样本图像的特征点方向检测结果。由于目标样本图像的特征点方向检测结果是通过对获取到的多张第二恢复图像进行融合获得的,因此,可以提高特征点方向检测结果的可靠性,从而进一步提高模型训练效果。
本公开实施例中,在目标样本图像为第一样本图像的情况下,特征点检测结果可以仅包括第一特征点概率检测结果,对应的,在目标样本图像为第二样本图像的情况下,特征点检测结果也可以仅包括第二特征点概率检测结果。基于此,在一些可选的实施方式中,“基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型”可以包括以下步骤:
基于第一特征点概率检测结果和第一特征标签,获得第一样本图像的第一特征点概率损失;
基于第二特征点概率检测结果和第二特征标签,获得第二样本图像的第二特征点概率损失;
计算第一样本图像的第一变换损失,以及第二样本图像的第二变换损失;
根据第一特征点概率损失、第二特征点概率损失、第一变换损失和第二变换损失,对特征点检测模型进行训练,获得经过训练的特征点检测模型。
本公开实施例中,在目标样本图像为第一样本图像的情况下,特征点检测结果也可以包括第一特征点概率检测结果和第一特征点方向检测结果,对应的,在目标样本图像为第二样本图像的情况下,特征点检测结果也可以包括第二特征点概率检测结果和第二特征点方向检测结果。基于此,在一些可选的实施方式中,“基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型”可以包括以下步骤:
基于第一特征点概率检测结果和第一特征标签,获得第一样本图像的第一特征点概率损失;
基于第二特征点概率检测结果和第二特征标签,获得第二样本图像的第二特征点概率损失;
基于第一特征点方向检测结果和第二特征点方向检测结果获得第一样本图像与第二样本图像之间的特征点方向损失;
计算第一样本图像的第一变换损失,以及第二样本图像的第二变换损失;
根据第一特征点概率损失、第二特征点概率损失、特征点方向损失、第一变换损失和第二变换损失,对特征点检测模型进行训练,获得经过训练的特征点检测模型。
其中,第一特征点概率检测结果用于表征第一样本图像中每个像素点为特征点的检测概率值,第一特征标签用于表征第一样本图像中每个像素点为特征点的标注概率值,第二特征点概率检测结果用于表征第二样本图像中每个像素点为特征点的检测概率值,第二特征标签用于表征第二样本图像中每个像素点为特征点的标注概率值。
假设,存在第一样本图像I,以及对第一样本图像进行仿射变换,生成的第二样本图像I'。那么,“基于第一特征点概率检测结果和第一特征标签,获得第一样本图像的第一特征点概率损失”可以表征为:
Figure SMS_65
其中,
Figure SMS_66
为第一样本图像I的第一特征点概率损失,X为第一特征点概率检测结果,Y为第一特征标签,H为第一样本图像I的图像高度,W为第一样本图像I的图像宽度,xhw为像素点(h,w)为特征点的检测概率值,yhw为像素点(h,w)为特征点的标注概率值。其中,1≤h≤H,1≤w≤W。
“基于第二特征点概率检测结果和第二特征标签,获得第二样本图像的第二特征点概率损失”可以表征为:
Figure SMS_67
其中,
Figure SMS_68
为第二样本图像I'的第二特征点概率损失,X'为第二特征点概率检测结果,Y'为第二特征标签,H为第二样本图像I'的图像高度,W为第二样本图像I'的图像宽度,xh'w'为像素点(h',w')为特征点的检测概率值,yh'w'为像素点(h',w')为特征点的标注概率值。其中,1≤h'≤H,1≤w'≤W。
本公开实施例中,还将基于第一特征点方向检测结果和第二特征点方向检测结果获得第一样本图像与第二样本图像之间的特征点方向损失,同时,计算第一样本图像的第一变换损失,以及第二样本图像的第二变换损失。
其中,特征点方向损失用于表征第一特征点方向检测结果与第二特征点方向检测结果之间的方向检测损失,第一变换损失用于表征在特征点检测模型的训练过程中,对第一样本图像进行变换处理,造成的图像特征损失,第二变换损失用于表征在特征点检测模型的训练过程中,对第二样本图像进行变换处理,造成的图像特征损失。
最终,根据第一特征点概率损失、第二特征点概率损失、特征点方向损失、第一变换损失和第二变换损失,获得的检测结果损失可以表征为:
Figure SMS_69
其中,
Figure SMS_72
为检测结果损失,/>
Figure SMS_74
为第一样本图像I的第一特征点概率损失,/>
Figure SMS_76
为第二样本图像I'的第二特征点概率损失,/>
Figure SMS_71
为第一样本图像I与第二样本图像I'之间的特征点方向损失,/>
Figure SMS_73
为可以根据实际应用需求设定的调控参数,/>
Figure SMS_75
为第一样本图像I的第一变换损失,/>
Figure SMS_77
为第二样本图像I'的第二变换损失,/>
Figure SMS_70
为可以根据实际应用需求设定的调控参数。
在获得检测结果损失之后,可以基于检测结果损失,对特征点检测模型进行训练,也即,调整特征点检测模型中特征点概率检测模型和特征方向检测模型的模型参数,获得经过训练的特征点检测模型。
通过以上步骤,本公开实施例中,可以根据第一特征点概率损失、第二特征点概率损失、特征点方向损失、第一变换损失和第二变换损失,获得的检测结果损失,以使检测结果损失涵盖了多维度的实际损失,从而提高检测结果损失的可靠性,从而进一步提高模型训练效果。
在一些可选的实施方式中,“基于第一特征点方向检测结果和第二特征点方向检测结果获得第一样本图像与第二样本图像之间的特征点方向损失”可以包括以下步骤:
获取第一样本图像与第二样本图像之间的特征匹配标签;
基于第一特征点方向检测结果、第二特征点方向检测结果和特征匹配标签,计算第一样本图像中任一像素点与第二样本图像中每个像素点之间的像素点方向损失;
基于像素点方向损失,获得第一样本图像与第二样本图像之间的特征点方向损失。
其中,特征匹配标签用于表征第一样本图像中任一像素点,与第二样本图像中每个像素点是否匹配。
在一具体示例中,针对任两个待确定是否匹配的像素点,可以在其中第一个像素点的特征描述子与第二个像素点的特征描述子相同、且第一个像素点与第二个像素点位置对应的情况下,确定这两个像素点是匹配的。其中,特征描述子可以通过群不变特征描述提取(Group Invariant Feature Transform,GIFT)算法获取,本公开实施例对此不作赘述。
请结合图7,假设,存在第一样本图像I,以及对第一样本图像进行仿射变换,生成的第二样本图像I',第一样本图像I中的像素点(h=4,w=4)与第二样本图像I'中的像素点(h=4,w=4)匹配,属于一对正匹配样本,第一样本图像I中的像素点(h=4,w=4)与第二样本图像I'中的像素点(h=3,w=4)不匹配,属于一对负匹配样本。
“基于第一特征点方向检测结果、第二特征点方向检测结果和特征匹配标签,计算第一样本图像中任一像素点与第二样本图像中每个像素点之间的像素点方向损失;基于像素点方向损失,获得第一样本图像与第二样本图像之间的特征点方向损失”可以表征为:
Figure SMS_78
其中,有:
Figure SMS_79
Figure SMS_80
其中,
Figure SMS_81
为第一样本图像I和第二样本图像I'之间的特征点方向损失,D为第一特征点方向检测结果,D'为第二特征点方向检测结果,S为第一样本图像I与第二样本图像I'之间的特征匹配标签,H为第一样本图像I和第二样本图像I'的图像高度,W为第一样本图像I和第二样本图像I'的图像宽度,/>
Figure SMS_82
用于表征第一样本图像I中像素点(h,w)与第二样本图像中像素点(h',w')之间的像素点方向损失。/>
Figure SMS_83
为用于平衡匹配样本和负匹配样本的权重系数,其可以根据实际应用需求设定,S用于表征第一样本图像I中像素点(h,w)与第二样本图像中像素点(h',w')是否匹配,在第一样本图像I中像素点(h,w)与第二样本图像中像素点(h',w')匹配的情况下,S的取值为1,否者,S的取值为0,mp和mn为可以根据实际应用需求设定的两个间隔系数,T表征矩阵转置操作。
通过以上步骤,本公开实施例中,可以基于第一特征点方向检测结果、第二特征点方向检测结果和特征匹配标签,计算第一样本图像中任一像素点与第二样本图像中每个像素点之间的像素点方向损失,再基于像素点方向损失,获得第一样本图像与第二样本图像之间的特征点方向损失。因此,特征点方向损失相对于第一样本图像中任一像素点与第二样本图像中每个像素点之间的像素点方向损失都存在相关性,可以提高特征点方向损失的可靠性,以提高模型训练效果。
在一些可选的实施方式中,“计算第一样本图像的第一变换损失,以及第二样本图像的第二变换损失”可以包括以下步骤:
基于多个变换参数,计算第一样本图像的第一方差损失;其中,第一变换损失包括第一方差损失;
和/或,基于多个变换参数,计算第二样本图像的第二方差损失;其中,第二变换损失包括第二方差损失。
假设,存在第一样本图像I,以及对第一样本图像进行仿射变换,生成的第二样本图像I'、且第一变换处理为沿X方向的图像拉伸处理,那么,“基于多个变换参数,计算第一样本图像的第一方差损失”可以表征为:
Figure SMS_84
其中,
Figure SMS_87
为第一样本图像I的第一方差损失,也即,第一变换损失,/>
Figure SMS_89
和/>
Figure SMS_92
为可以根据实际应用需求设定的两个权重系数,TX为特征点概率检测模型,/>
Figure SMS_88
用于表征多张第一增广图像中的第i张第一增广图像,/>
Figure SMS_90
用于表征按照拉伸尺度/>
Figure SMS_93
,对与第一增广图像/>
Figure SMS_95
对应的特征点概率表征图像进行第三变换处理,TD为特征点方向检测模型,/>
Figure SMS_85
用于表征多张第一增广图像中的第i张第一增广图像,/>
Figure SMS_91
用于表征按照拉伸尺度为/>
Figure SMS_94
,对与第一增广图像/>
Figure SMS_96
对应的特征点方向表征图像所对应的第一个通道进行第四变换处理,/>
Figure SMS_86
用于表征方差损失计算。
“基于多个变换参数,计算第二样本图像的第二方差损失”可以表征为:
Figure SMS_97
其中,
Figure SMS_99
为第二样本图像I'的第二方差损失,也即,第二变换损失,/>
Figure SMS_103
和/>
Figure SMS_106
为可以根据实际应用需求设定的两个权重系数,TX为特征点概率检测模型,/>
Figure SMS_100
用于表征多张第二增广图像中的第i张第二增广图像,/>
Figure SMS_104
用于表征按照拉伸尺度为/>
Figure SMS_107
,对与第二增广图像/>
Figure SMS_109
对应的特征点概率表征图像进行第三变换处理,TD为特征点方向检测模型,
Figure SMS_98
用于表征多张第而增广图像中的第i张第二增广图像,/>
Figure SMS_102
用于表征按照拉伸尺度为/>
Figure SMS_105
,对与第一增广图像/>
Figure SMS_108
对应的特征点方向表征图像所对应的第一个通道进行第四变换处理,/>
Figure SMS_101
用于表征方差损失计算。
通过以上步骤,本公开实施例中,可以基于多个变换参数,计算第一样本图像的第一方差损失作为第一变换损失;和/或,基于多个变换参数,计算第二样本图像的第二方差损失作为第二变换损失。方差损失可以帮助找到更优的模型参数,以提高模型训练效果,同时,提高模型泛化能力。
在一些可选的实施方式中,特征点检测模型训练方法还可以包括以下步骤:
获取验证数据;
基于验证数据,对经过训练的特征点检测模型进行检测效果测试,获得测试结果;
在测试结果表征经过训练的特征点检测模型满足收敛条件的情况下,将经过训练的特征点检测模型确定为目标检测模型。
其中,验证数据包括多对验证图像,每对验证图像包括第一验证图像,以及对第一验证图像进行仿射变换,生成的第二验证图像。其中,第一验证图像具有对应的第一特征验证标签,用于表征第一验证图像中每个像素点为特征点的验证标注概率值,第二验证图像具有第二特征验证标签,用于表征第二验证图像中每个像素点为特征点的验证标注概率值。
在一具体示例中,测试结果可以包括与每对验证图像对应的检测结果损失,基于此,本公开实施例中,收敛条件可以是基于某对验证图像,对经过训练的特征点检测模型进行检测效果测试,获得的检测结果损失小于预设损失阈值。其中,预设损失阈值可以根据实际应用需求设定,本公开实施例对此不作赘述。
在另一具体示例中,测试结果可以包括针对验证数据的特征匹配准确率。例如,基于验证数据,对经过训练的特征点检测模型进行下一轮检测效果测试,获得的特征匹配准确率相对于基于验证数据,对经过训练的特征点检测模型进行上一轮检测效果测试,获得的特征匹配准确率不再提升时,认为经过训练的特征点检测模型满足收敛条件。
通过以上步骤,本公开实施例中,可以获取验证数据,再基于验证数据,对经过训练的特征点检测模型进行检测效果测试,获得测试结果,以便于在测试结果表征经过训练的特征点检测模型满足收敛条件的情况下,将经过训练的特征点检测模型确定为目标检测模型,从而保证目标检测模型的检测效果。
以下,将结合图8,对本公开实施例提供的一种特征点检测模型训练方法的完整性流程进行说明。
步骤S801,获取第一样本图像,第一样本图像具有对应的第一特征标签;
步骤S802,获取对第一样本图像进行仿射变换,生成的第二样本图像,第二样本图像具有对应的第二特征标签;
步骤S803,分别按照多个变换参数,对目标样本图像进行第一变换处理,获得多张增广图像;其中,每张增广图像对应一个变换参数,第一变换处理能够与第二变换处理组合,实现仿射变换;
步骤S804,基于特征点概率检测模型,对多张增广图像进行处理,获得目标样本图像的特征点概率检测结果;其中,特征点概率检测模型在标量场上具有针对第二变换处理的等变性;
步骤S805,基于特征点方向检测模型,对多张增广图像进行处理,获得目标样本图像的特征点方向检测结果;其中,特征点方向检测模型在向量场上具有针对第二变换处理的等变性;
步骤S806,基于特征点概率检测结果、特征点方向检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型。
请参阅图9,为本公开实施例提供的一种特征点检测模型训练方法的场景示意图。
如前所述的,本公开实施例提供的特征点检测模型训练方法应用于电子设备。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字处理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。
电子设备可以用于:
获取第一样本图像,第一样本图像具有对应的第一特征标签;
获取对第一样本图像进行仿射变换,生成的第二样本图像,第二样本图像具有对应的第二特征标签;
基于特征点检测模型,获得目标样本图像的特征点检测结果;其中,目标样本图像为第一样本图像和第二样本图像中的任一图像,特征点检测结果相对于目标样本图像具有仿射等变性;
基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型。
其中,第一样本图像可以通过摄像装置采集获取,也可以通过网络从互联网获取,本公开实施例对此不作限制。在获取到第一样本图像之后,可以对第一样本图像进行标注,获得第一特征标签,用于表征第一样本图像中每个像素点为特征点的标注概率值。第二样本图像是对第一样本图像进行仿射变换生成的。在获取到第二样本图像之后,同样可以对第二样本图像进行标注,获得第二特征标签,用于表征第二样本图像中每个像素点为特征点的标注概率值。
需要说明的是,本公开实施例中,图9所示的场景示意图仅为示意性而非限制性的,本领域技术人员可以基于图9示例进行各种显而易见的变化和/或替换,获得的技术方案仍属于本公开实施例的公开范围。
本公开实施例提供了一种图像特征匹配方法,其可以应用于电子设备。以下,将结合图10所示流程示意图,对本公开实施例提供的一种图像特征匹配方法进行说明。需要说明的是,虽然在流程示意图中示出了逻辑顺序,但是,在某些情况下,也可以以其他顺序执行所示出或描述的步骤。
步骤S1001,获取第一待匹配图像和第二待匹配图像;
步骤S1002,基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果;其中,经过训练的特征点检测模型是通过特征点检测模型训练方法进行训练的,目标待匹配图像为第一待匹配图像和第二待匹配图中的任一图像;
步骤S1003,基于特征点检测结果,对第一待匹配图像和第二待匹配图像进行特征匹配。
其中,第一待匹配图像和第二待匹配图像可以是在视觉定位、全景拼接等各种视觉任务中,获取的两张待匹配图像。
基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果,该特征点检测结果可以包括特征点概率检测结果,用于表征目标待匹配图像中每个像素点为特征点的检测概率值。在获得目标待匹配图像的特征点检测结果之后,可以基于特征点检测结果,对第一待匹配图像和第二待匹配图像进行特征匹配。
采用本公开实施例提供的图像特征匹配方法,可以获取第一待匹配图像和第二待匹配图像;基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果;其中,目标待匹配图像为第一待匹配图像和第二待匹配图中的任一图像;基于特征点检测结果,对第一待匹配图像和第二待匹配图像进行特征匹配。由于经过训练的特征点检测模型是通过特征点检测模型训练方法进行训练的,因此,可以提高针对仿射变换的鲁棒性,以提高图像特征匹配的准确性。
本公开实施例中,特征点检测模型可以包括特征点概率检测模型,因此,在目标待匹配图像为第一待匹配图像的情况下,特征点检测结果包括第一特征点概率检测结果,在目标待匹配图像为第二待匹配图像的情况下,特征点检测结果包括第二特征点概率检测结果。基于此,在一些可选的实施方式中,“基于特征点检测结果,对第一待匹配图像和第二待匹配图像进行特征匹配”可以包括以下步骤:
基于第一特征点概率检测结果,从第一待匹配图像中确定N个第一候选特征点;其中,N≥2、且为整数;
基于第二特征点概率检测结果,从第二待匹配图像中确定M个第二候选特征点;其中,M≥2、且为整数;
在M个第二候选特征点中存在与第一目标候选特征点具有相同特征描述子的第二目标候选特征点的情况下,将第一目标候选特征点与第二目标候选特征点确定为一对匹配特征点;其中,第一目标候选特征点为N个第一候选特征点中的任一特征点;
基于确定出的多对匹配特征点,对第一待匹配图像和第二待匹配图像进行特征匹配。
本公开实施例中,可以基于第一特征点概率检测结果,从第一待匹配图像中确定N个检测概率值最大的像素点,作为第一候选特征点,以及基于第二特征点概率检测结果,从第二待匹配图像中确定M个检测概率值最大的像素点,作为第二候选特征点。此后,在M个第二候选特征点中存在与第一目标候选特征点具有相同特征描述子的第二目标候选特征点的情况下,将第一目标候选特征点与第二目标候选特征点确定为一对匹配特征点,再基于确定出的多对匹配特征点,对第一待匹配图像和第二待匹配图像进行特征匹配。
其中,特征描述子可以通过GIFT算法获取,本公开实施例对此不作赘述。
请结合图11,假设,存在第一待匹配图像I和第二待匹配图像I'、且N=3,M=4,则可以基于第一特征点概率检测结果,从第一待匹配图像中确定3个检测概率值最大的像素点,作为第一候选特征点,分别记作第一候选特征点(h=1,w=1)、第一候选特征点(h=4,w=3)和第一候选特征点(h=4,w=4),同样,基于第二特征点概率检测结果,从第二待匹配图像I'中确定4个检测概率值最大的像素点,作为第二候选特征点,分别记作第二候选特征点(h'=1,w'=1)、第二候选特征点(h'=2,w=2')、第二候选特征点(h'=4,w=3')和第二候选特征点(h'=4,w=4')。
在将第一候选特征点(h=1,w=1)作为第一目标候选特征点的情况下,4个第二候选特征点中存在与第一目标候选特征点(h=1,w=1)具有相同特征描述子的第二目标候选特征点(h'=1,w'=1),因此,可以将第一目标候选特征点(h=1,w=1)与第二目标候选特征点(h'=1,w'=1)确定为一对匹配特征点,同理,可以将第一目标候选特征点(h=4,w=3)与第二候选特征点(h'=4,w=3')确定为一对匹配特征点,将第一目标候选特征点(h=4,w=4)与第二候选特征点(h'=4,w=4')确定为一对匹配特征点。
最后,基于确定出的多对匹配特征点,对第一待匹配图像I和第二待匹配图像I'进行特征匹配。
通过以上步骤,本公开实施例中,可以基于第一特征点概率检测结果,从第一待匹配图像中确定N个第一候选特征点,以及基于第二特征点概率检测结果,从第二待匹配图像中确定M个第二候选特征点,再将N个第一候选特征点中的任一特征点作为第一目标候选特征点,并在M个第二候选特征点中存在与第一目标候选特征点具有相同特征描述子的第二目标候选特征点的情况下,将第一目标候选特征点与第二目标候选特征点确定为一对匹配特征点,以便基于确定出的多对匹配特征点,直接对第一待匹配图像和第二待匹配图像进行特征匹配,从而简化图像特征匹配流程,以提高图像特征匹配效率。
本公开实施例中,特征点检测模型还可以包括特征方向概率检测模型,因此,在目标待匹配图像为第一待匹配图像的情况下,特征点检测结果还包括第一特征点方向检测结果,在目标待匹配图像为第二待匹配图像的情况下,特征点检测结果还包括第二特征点方向检测结果。基于此,在一些可选的实施方式中,“基于确定出的多对匹配特征点,对第一待匹配图像和第二待匹配图像进行特征匹配”可以包括以下步骤:
基于第一特征点方向检测结果和第二特征点方向检测结果,获得多对匹配特征点的方向偏差均值;
从多对匹配特征点中确定特征点方向偏差与方向偏差均值之间的方向差值最小的至少两对目标特征点;
基于至少两对目标特征点,对第一待匹配图像和第二待匹配图像进行特征匹配。
请结合图12,假设,存在第一待匹配图像I和第二待匹配图像I'、且从第一待匹配图像I和第二待匹配图像I'中确定三对匹配特征点,分别为第一目标候选特征点(h=1,w=1)与第二目标候选特征点(h'=1,w'=1)、第一目标候选特征点(h=4,w=3)与第二候选特征点(h'=4,w=3'),以及第一目标候选特征点(h=4,w=4)与第二候选特征点(h'=4,w=4')。此后,可以计算这三对匹配特征点的方向偏差均值,再从这三对匹配特征点中确定特征点方向偏差与方向偏差均值之间的方向差值最小的至少两对目标特征点,可以是第一目标候选特征点(h=4,w=3)与第二候选特征点(h'=4,w=3'),以及第一目标候选特征点(h=4,w=4)与第二候选特征点(h'=4,w=4'),最后,基于这两对目标特征点,对第一待匹配图像I和第二待匹配图像I'进行特征匹配。
通过以上步骤,本公开实施例中,可以基于第一特征点方向检测结果和第二特征点方向检测结果,获得多对匹配特征点的方向偏差均值,再从多对匹配特征点中确定特征点方向偏差与方向偏差均值之间的方向差值最小的至少两对目标特征点,并基于至少两对目标特征点,对第一待匹配图像和第二待匹配图像进行特征匹配。该过程中,“从多对匹配特征点中确定特征点方向偏差与方向偏差均值之间的方向差值最小的至少两对目标特征点”的目的在于剔除离群特征点,避免离群特征点对图像特征匹配产生负面影响,以进一步提高图像特征匹配的准确性。
以下,将结合图13,对本公开实施例提供的一种图像特征匹配方法的完整性流程进行说明。
步骤S1301,获取第一待匹配图像和第二待匹配图像;
步骤S1302,基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果;其中,经过训练的特征点检测模型是通过特征点检测模型训练方法进行训练的,目标待匹配图像为第一待匹配图像和第二待匹配图中的任一图像,在目标待匹配图像为第一待匹配图像的情况下,特征点检测结果包括第一特征点概率检测结果和第一特征点方向检测结果,在目标待匹配图像为第二待匹配图像的情况下,特征点检测结果包括第二特征点概率检测结果和第二特征点方向检测结果;
步骤S1303,基于第一特征点概率检测结果,从第一待匹配图像中确定N个第一候选特征点;其中,N≥2、且为整数;
步骤S1304,基于第二特征点概率检测结果,从第二待匹配图像中确定M个第二候选特征点;其中,M≥2、且为整数;
步骤S1305,在M个第二候选特征点中存在与第一目标候选特征点具有相同特征描述子的第二目标候选特征点的情况下,将第一目标候选特征点与第二目标候选特征点确定为一对匹配特征点;其中,第一目标候选特征点为N个第一候选特征点中的任一特征点;
步骤S1306,基于第一特征点方向检测结果和第二特征点方向检测结果,获得多对匹配特征点的方向偏差均值;
步骤S1307,从多对匹配特征点中确定特征点方向偏差与方向偏差均值之间的方向差值最小的至少两对目标特征点;
步骤S1308,基于至少两对目标特征点,对第一待匹配图像和第二待匹配图像进行特征匹配。
请参阅图14,为本公开实施例提供的一种图像特征匹配方法的场景示意图。
如前所述的,本公开实施例提供的图像特征匹配方法应用于电子设备。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字处理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。
电子设备可以用于:
获取第一待匹配图像和第二待匹配图像;
基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果;其中,经过训练的特征点检测模型是通过特征点检测模型训练方法进行训练的,目标待匹配图像为第一待匹配图像和第二待匹配图中的任一图像;
基于特征点检测结果,对第一待匹配图像和第二待匹配图像进行特征匹配。
其中,第一待匹配图像和第二待匹配图像可以是在视觉定位、全景拼接等各种视觉任务中,获取的两张待匹配图像。
需要说明的是,本公开实施例中,图14所示的场景示意图仅为示意性而非限制性的,本领域技术人员可以基于图14示例进行各种显而易见的变化和/或替换,获得的技术方案仍属于本公开实施例的公开范围。
为了更好地实施特征点检测模型训练方法,本公开实施例还提供一种特征点检测模型训练装置1500,其具体可以集成在电子设备中。以下,将结合图15所示结构示意图,对公开实施例提供的一种特征点检测模型训练装置1500进行说明。
特征点检测模型训练装置1500包括:
第一样本图像获取单元1501,用于获取第一样本图像,第一样本图像具有对应的第一特征标签;
第二样本图像获取单元1502,用于获取对第一样本图像进行仿射变换,生成的第二样本图像,第二样本图像具有对应的第二特征标签;
样本图像检测单元1503,用于基于特征点检测模型,获得目标样本图像的特征点检测结果;其中,目标样本图像为第一样本图像和第二样本图像中的任一图像,特征点检测结果相对于目标样本图像具有仿射等变性;
模型训练单元1504,用于基于特征点检测结果、第一特征标签和第二特征标签,对特征点检测模型进行训练,获得经过训练的特征点检测模型。
在一些可选的实施方式中,特征点检测模型包括特征点概率检测模型;样本图像检测单元1503用于:
获取多个变换参数;
分别按照多个变换参数,对目标样本图像进行第一变换处理,获得多张增广图像;其中,每张增广图像对应一个变换参数,第一变换处理能够与第二变换处理组合,实现仿射变换;
基于特征点概率检测模型,对多张增广图像进行处理,获得目标样本图像的特征点概率检测结果;其中,特征点概率检测模型在标量场上具有针对第二变换处理的等变性;
其中,特征点检测结果包括特征点概率检测结果。
在一些可选的实施方式中,样本图像检测单元1503用于:
对预设均匀分布进行随机采样,获得多个变换参数。
在一些可选的实施方式中,样本图像检测单元1503用于:
基于特征点概率检测模型,分别对多张增广图像进行处理,获得多张特征点概率表征图像;其中,每张特征点概率表征图像对应一张增广图像;
基于多个变换参数中与目标概率表征图像对应的第一目标处理参数,对目标概率表征图像进行第三变换处理,获得第一恢复图像;其中,目标概率表征图像为多张特征点概率表征图像中的任一图像,第三变换处理为第一变换处理的逆变换;
对获取到的多张第一恢复图像进行融合,获得目标样本图像的特征点概率检测结果。
在一些可选的实施方式中,特征点检测模型还包括特征点方向检测模型;样本图像检测单元1503还用于:
基于特征点方向检测模型,对多张增广图像进行处理,获得目标样本图像的特征点方向检测结果;其中,特征点方向检测模型在向量场上具有针对第二变换处理的等变性;
其中,特征点检测结果还包括特征点方向检测结果。
在一些可选的实施方式中,样本图像检测单元1503用于:
基于特征点方向检测模型,分别对多张增广图像进行处理,获得多张特征点方向表征图像;其中,每张特征点方向表征图像对应一张增广图像;
基于多个变换参数中与目标方向表征图像对应的第二目标处理参数,对目标方向表征图像进行第四变换处理,获得第二恢复图像;其中,目标方向表征图像为多张特征点方向表征图像中的任一图像,第四变换处理为第一变换处理的逆变换;
对获取到的多张第二恢复图像进行融合,获得目标样本图像的特征点方向检测结果。
在一些可选的实施方式中,第一变换处理为图像拉伸处理,第二变换处理为图像旋转处理。
在一些可选的实施方式中,在目标样本图像为第一样本图像的情况下,特征点检测结果包括第一特征点概率检测结果和第一特征点方向检测结果,在目标样本图像为第二样本图像的情况下,特征点检测结果包括第二特征点概率检测结果和第二特征点方向检测结果;模型训练单元1504用于:
基于第一特征点概率检测结果和第一特征标签,获得第一样本图像的第一特征点概率损失;
基于第二特征点概率检测结果和第二特征标签,获得第二样本图像的第二特征点概率损失;
基于第一特征点方向检测结果和第二特征点方向检测结果,获得第一样本图像与第二样本图像之间的特征点方向损失;
计算第一样本图像的第一变换损失,以及第二样本图像的第二变换损失;
根据第一特征点概率损失、第二特征点概率损失、特征点方向损失、第一变换损失和第二变换损失,对特征点检测模型进行训练,获得经过训练的特征点检测模型。
在一些可选的实施方式中,模型训练单元1504用于:
获取第一样本图像与第二样本图像之间的特征匹配标签;
基于第一特征点方向检测结果、第二特征点方向检测结果和特征匹配标签,计算第一样本图像中任一像素点与第二样本图像中每个像素点之间的像素点方向损失;
基于像素点方向损失,获得第一样本图像与第二样本图像之间的特征点方向损失。
在一些可选的实施方式中,模型训练单元1504用于:
基于多个变换参数,计算第一样本图像的第一方差损失;其中,第一变换损失包括第一方差损失;
和/或,基于多个变换参数,计算第二样本图像的第二方差损失;其中,第二变换损失包括第二方差损失。
在一些可选的实施方式中,特征点检测模型训练装置1500还包括测试单元,用于:
获取验证数据;
基于验证数据,对经过训练的特征点检测模型进行检测效果测试,获得测试结果;
在测试结果表征经过训练的特征点检测模型满足收敛条件的情况下,将经过训练的特征点检测模型确定为目标检测模型。
本公开实施例的特征点检测模型训练装置1500的各单元的具体功能和示例的描述,可以参见特征点检测模型训练方法实施例中对应步骤的相关描述,在此不作赘述。
为了更好地实施图像特征匹配方法,本公开实施例还提供一种图像特征匹配装置1600,其具体可以集成在电子设备中。以下,将结合图16所示结构示意图,对公开实施例提供的一种图像特征匹配装置1600进行说明。
图像特征匹配装置1600包括:
待匹配图像获取单元1601,用于获取第一待匹配图像和第二待匹配图像;
待匹配图像检测单元1602,用于基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果;其中,经过训练的特征点检测模型是通过特征点检测模型训练方法进行训练的,目标待匹配图像为第一待匹配图像和第二待匹配图中的任一图像;
图像特征匹配单元1603,用于基于特征点检测结果,对第一待匹配图像和第二待匹配图像进行特征匹配。
在一些可选的实施方式中,在目标待匹配图像为第一待匹配图像的情况下,特征点检测结果包括第一特征点概率检测结果,在目标待匹配图像为第二待匹配图像的情况下,特征点检测结果包括第二特征点概率检测结果;图像特征匹配单元1603用于:
基于第一特征点概率检测结果,从第一待匹配图像中确定N个第一候选特征点;其中,N≥2、且为整数;
基于第二特征点概率检测结果,从第二待匹配图像中确定M个第二候选特征点;其中,M≥2、且为整数;
在M个第二候选特征点中存在与第一目标候选特征点具有相同特征描述子的第二目标候选特征点的情况下,将第一目标候选特征点与第二目标候选特征点确定为一对匹配特征点;其中,第一目标候选特征点为N个第一候选特征点中的任一特征点;
基于确定出的多对匹配特征点,对第一待匹配图像和第二待匹配图像进行特征匹配。
在一些可选的实施方式中,在目标待匹配图像为第一待匹配图像的情况下,特征点检测结果还包括第一特征点方向检测结果,在目标待匹配图像为第二待匹配图像的情况下,特征点检测结果还包括第二特征点方向检测结果;图像特征匹配单元1603用于:
基于第一特征点方向检测结果和第二特征点方向检测结果,获得多对匹配特征点的方向偏差均值;
从多对匹配特征点中确定特征点方向偏差与方向偏差均值之间的方向差值最小的至少两对目标特征点;
基于至少两对目标特征点,对第一待匹配图像和第二待匹配图像进行特征匹配。
本公开实施例的图像特征匹配装置1600的各单元的具体功能和示例的描述,可以参见图像特征匹配方法实施例中对应步骤的相关描述,在此不作赘述。
本公开的技术方案中,所涉及的用户个人信息的获取,存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图17示出了可以用来实施本公开的实施例的示例电子设备1700的示意性框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字助理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或要求的本公开的实现。
如图17所示,设备1700包括计算单元1701,其可以根据存储在只读存储器(Read-Only Memory,ROM)1702中的计算机程序或从存储单元1708加载到随机访问存储器(RandomAccess Memory,RAM)1703中的计算机程序,来执行各种适当的动作和处理。在RAM 1703中,还可存储设备1700操作所需的各种程序和数据。计算单元1701、ROM 1702以及RAM 1703通过总线1704彼此相连。输入/输出(Input/Output,I/O)接口1705也连接至总线1704。
设备1700中的多个部件连接至I/O接口1705,包括:输入单元1706,例如键盘、鼠标等;输出单元1707,例如各种类型的显示器、扬声器等;存储单元1708,例如磁盘、光盘等;以及通信单元1709,例如网卡、调制解调器、无线通信收发机等。通信单元1709允许设备1700通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
计算单元1701可以是各种具有处理和计算能力的通用和/或专用处理组件。计算单元1701的一些示例包括但不限于中央处理单元(Central Processing Unit,CPU)、图形处理单元(Graphics Processing Unit,GPU)、各种专用的人工智能(ArtificialIntelligence,AI)计算芯片、各种运行机器学习模型算法的计算单元、数字信号处理器(Digital Signal Process,DSP)、以及任何适当的处理器、控制器、微控制器等。计算单元1701执行上文所描述的各个方法和处理,例如,特征点检测模型训练方法和/或图像特征匹配方法。例如,在一些实施例中,特征点检测模型训练方法和/或图像特征匹配方法可被实现为计算机软件程序,其被有形地包含于机器可读介质,例如存储单元1708。在一些实施例中,计算机程序的部分或全部可以经由ROM 1702和/或通信单元1709而被载入和/或安装到设备1700上。当计算机程序加载到RAM 1703并由计算单元1701执行时,可以执行上文描述的特征点检测模型训练方法和/或图像特征匹配方法的一个或多个步骤。备选地,在其他实施例中,计算单元1701可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行特征点检测模型训练方法和/或图像特征匹配方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、现场可编程门阵列(Field Programmable Gate Array,FPGA)、专用集成电路(Application Specific Integrated Circuit,ASIC)、专用标准产品(ApplicationSpecific Standard Product,ASSP)、芯片上系统的系统(System On Chip,SOC)、负载可编程逻辑设备(Complex Programmable Logic Device,CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或多个计算机程序中,该一个或多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。这些程序代码可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器或控制器执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读介质可以是机器可读信号介质或机器可读储存介质。机器可读介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、RAM、ROM、可擦除可编程只读存储器(Erasable Programmable Read-OnlyMemory,EPROM)或快闪存储器、光纤、便捷式紧凑盘只读存储器(Compact Disc Read-OnlyMemory,CD-ROM)、光学储存设备、磁储存设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,阴极射线管(Cathode Ray Tube,CRT)显示器或液晶显示器(Liquid Crystal Display,LCD));以及键盘和指向装置(例如,鼠标或轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或触觉反馈);并且可以用任何形式(包括声输入、语音输入、或触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或包括中间件部件的计算系统(例如,应用服务器)、或包括前端部件的计算系统(例如,具有图形用户界面或网络浏览器的用户计算机,用户可以通过该图形用户界面或该网络浏览器来与此处描述的系统和技术的实施方式交互)、或包括这种后台部件、中间件部件、或前端部件的任何组合的计算系统中。可以通过任何形式或介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(Local AreaNetwork,LAN)、广域网(Wide Area Network,WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,也可以为分布式系统的服务器,或是结合了区块链的服务器。
本公开实施例还提供了一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行特征点检测模型训练方法和/或图像特征匹配方法。
本公开实施例还提供了一种计算机程序产品,包括计算机程序,该计算机程序在被处理器执行时实现特征点检测模型训练方法和/或图像特征匹配方法。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开公开的技术方案所期望的结果,本文在此不进行限制。此外,本公开中,诸如“第一”、“第二”等之类的关系术语仅仅用来将一个实体或操作与另一个实体或操作区分开来,而不一定要求或暗示这些实体或操作之间存在任何这种实际的关系或顺序。此外,本公开中“多个”,可以理解为至少两个,本公开中“任一”,可以理解为任何一个。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的原则之内所作的修改、等同替换和改进等,均应包含在本公开保护范围之内。

Claims (24)

1.一种特征点检测模型训练方法,包括:
获取第一样本图像,所述第一样本图像具有对应的第一特征标签;
获取对所述第一样本图像进行仿射变换,生成的第二样本图像,所述第二样本图像具有对应的第二特征标签;
基于特征点检测模型,获得目标样本图像的特征点检测结果;其中,所述目标样本图像为所述第一样本图像和所述第二样本图像中的任一图像,所述特征点检测结果相对于所述目标样本图像具有仿射等变性;
基于所述特征点检测结果、所述第一特征标签和所述第二特征标签,对所述特征点检测模型进行训练,获得经过训练的特征点检测模型。
2.根据权利要求1所述的方法,其中,所述特征点检测模型包括特征点概率检测模型;所述基于特征点检测模型,获得目标样本图像的特征点检测结果,包括:
获取多个变换参数;
分别按照所述多个变换参数,对所述目标样本图像进行第一变换处理,获得多张增广图像;其中,每张所述增广图像对应一个所述变换参数,所述第一变换处理能够与第二变换处理组合,实现所述仿射变换;
基于所述特征点概率检测模型,对所述多张增广图像进行处理,获得所述目标样本图像的特征点概率检测结果;其中,所述特征点概率检测模型在标量场上具有针对所述第二变换处理的等变性;
其中,所述特征点检测结果包括所述特征点概率检测结果。
3.根据权利要求2所述的方法,其中,所述获取多个变换参数,包括:
对预设均匀分布进行随机采样,获得所述多个变换参数。
4.根据权利要求2所述的方法,其中,所述基于所述特征点概率检测模型,对所述多张增广图像进行处理,获得所述目标样本图像的特征点概率检测结果,包括:
基于所述特征点概率检测模型,分别对所述多张增广图像进行处理,获得多张特征点概率表征图像;其中,每张所述特征点概率表征图像对应一张所述增广图像;
基于所述多个变换参数中与目标概率表征图像对应的第一目标处理参数,对所述目标概率表征图像进行第三变换处理,获得第一恢复图像;其中,所述目标概率表征图像为所述多张特征点概率表征图像中的任一图像,所述第三变换处理为所述第一变换处理的逆变换;
对获取到的多张第一恢复图像进行融合,获得所述目标样本图像的特征点概率检测结果。
5.根据权利要求2所述的方法,其中,所述特征点检测模型还包括特征点方向检测模型;所述基于特征点检测模型,获得目标样本图像的特征点检测结果,还包括:
基于所述特征点方向检测模型,对所述多张增广图像进行处理,获得所述目标样本图像的特征点方向检测结果;其中,所述特征点方向检测模型在向量场上具有针对所述第二变换处理的等变性;
其中,所述特征点检测结果还包括所述特征点方向检测结果。
6.根据权利要求5所述的方法,其中,所述基于所述特征点方向检测模型,对所述多张增广图像进行处理,获得所述目标样本图像的特征点方向检测结果,包括:
基于所述特征点方向检测模型,分别对所述多张增广图像进行处理,获得多张特征点方向表征图像;其中,每张所述特征点方向表征图像对应一张所述增广图像;
基于所述多个变换参数中与目标方向表征图像对应的第二目标处理参数,对所述目标方向表征图像进行第四变换处理,获得第二恢复图像;其中,所述目标方向表征图像为所述多张特征点方向表征图像中的任一图像,所述第四变换处理为所述第一变换处理的逆变换;
对获取到的多张第二恢复图像进行融合,获得所述目标样本图像的特征点方向检测结果。
7.根据权利要求2~6中任一项所述的方法,其中,所述第一变换处理为图像拉伸处理,所述第二变换处理为图像旋转处理。
8.根据权利要求5所述的方法,其中,在所述目标样本图像为所述第一样本图像的情况下,所述特征点检测结果包括第一特征点概率检测结果和第一特征点方向检测结果,在所述目标样本图像为所述第二样本图像的情况下,所述特征点检测结果包括第二特征点概率检测结果和第二特征点方向检测结果;所述基于所述特征点检测结果、所述第一特征标签和所述第二特征标签,对所述特征点检测模型进行训练,获得经过训练的特征点检测模型,包括:
基于所述第一特征点概率检测结果和所述第一特征标签,获得所述第一样本图像的第一特征点概率损失;
基于所述第二特征点概率检测结果和所述第二特征标签,获得所述第二样本图像的第二特征点概率损失;
基于所述第一特征点方向检测结果和所述第二特征点方向检测结果,获得所述第一样本图像与所述第二样本图像之间的特征点方向损失;
计算所述第一样本图像的第一变换损失,以及所述第二样本图像的第二变换损失;
根据所述第一特征点概率损失、所述第二特征点概率损失、所述特征点方向损失、所述第一变换损失和所述第二变换损失,对所述特征点检测模型进行训练,获得所述经过训练的特征点检测模型。
9.根据权利要求8所述的方法,其中,所述基于所述第一特征点方向检测结果和所述第二特征点方向检测结果,获得所述第一样本图像与所述第二样本图像之间的特征点方向损失,包括:
获取所述第一样本图像与所述第二样本图像之间的特征匹配标签;
基于所述第一特征点方向检测结果、所述第二特征点方向检测结果和所述特征匹配标签,计算所述第一样本图像中任一像素点与所述第二样本图像中每个像素点之间的像素点方向损失;
基于所述像素点方向损失,获得所述第一样本图像与所述第二样本图像之间的特征点方向损失。
10.根据权利要求8所述的方法,其中,所述计算所述第一样本图像的第一变换损失,以及所述第二样本图像的第二变换损失,包括:
基于所述多个变换参数,计算所述第一样本图像的第一方差损失;其中,所述第一变换损失包括所述第一方差损失;
和/或,基于所述多个变换参数,计算所述第二样本图像的第二方差损失;其中,所述第二变换损失包括所述第二方差损失。
11.根据权利要求1所述的方法,还包括:
获取验证数据;
基于所述验证数据,对所述经过训练的特征点检测模型进行检测效果测试,获得测试结果;
在所述测试结果表征所述经过训练的特征点检测模型满足收敛条件的情况下,将所述经过训练的特征点检测模型确定为目标检测模型。
12.一种图像特征匹配方法,包括:
获取第一待匹配图像和第二待匹配图像;
基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果;其中,所述经过训练的特征点检测模型是通过权利要求1~11中任一项所述的方法进行训练的,所述目标待匹配图像为所述第一待匹配图像和所述第二待匹配图中的任一图像;
基于所述特征点检测结果,对所述第一待匹配图像和所述第二待匹配图像进行特征匹配。
13.根据权利要求12所述的方法,其中,在所述目标待匹配图像为所述第一待匹配图像的情况下,所述特征点检测结果包括第一特征点概率检测结果,在所述目标待匹配图像为所述第二待匹配图像的情况下,所述特征点检测结果包括第二特征点概率检测结果;所述基于所述特征点检测结果,对所述第一待匹配图像和所述第二待匹配图像进行特征匹配,包括:
基于所述第一特征点概率检测结果,从所述第一待匹配图像中确定N个第一候选特征点;其中,N≥2、且为整数;
基于所述第二特征点概率检测结果,从所述第二待匹配图像中确定M个第二候选特征点;其中,M≥2、且为整数;
在所述M个第二候选特征点中存在与第一目标候选特征点具有相同特征描述子的第二目标候选特征点的情况下,将所述第一目标候选特征点与所述第二目标候选特征点确定为一对匹配特征点;其中,所述第一目标候选特征点为所述N个第一候选特征点中的任一特征点;
基于确定出的多对匹配特征点,对所述第一待匹配图像和所述第二待匹配图像进行特征匹配。
14.根据权利要求13所述的方法,其中,在所述目标待匹配图像为所述第一待匹配图像的情况下,所述特征点检测结果还包括第一特征点方向检测结果,在所述目标待匹配图像为所述第二待匹配图像的情况下,所述特征点检测结果还包括第二特征点方向检测结果;所述基于确定出的多对匹配特征点,对所述第一待匹配图像和所述第二待匹配图像进行特征匹配,包括:
基于所述第一特征点方向检测结果和所述第二特征点方向检测结果,获得所述多对匹配特征点的方向偏差均值;
从所述多对匹配特征点中确定特征点方向偏差与所述方向偏差均值之间的方向差值最小的至少两对目标特征点;
基于所述至少两对目标特征点,对所述第一待匹配图像和所述第二待匹配图像进行特征匹配。
15.一种特征点检测模型训练装置,包括:
第一样本图像获取单元,用于获取第一样本图像,所述第一样本图像具有对应的第一特征标签;
第二样本图像获取单元,用于获取对所述第一样本图像进行仿射变换,生成的第二样本图像,所述第二样本图像具有对应的第二特征标签;
样本图像检测单元,用于基于特征点检测模型,获得目标样本图像的特征点检测结果;其中,所述目标样本图像为所述第一样本图像和所述第二样本图像中的任一图像,所述特征点检测结果相对于所述目标样本图像具有仿射等变性;
模型训练单元,用于基于所述特征点检测结果、所述第一特征标签和所述第二特征标签,对所述特征点检测模型进行训练,获得经过训练的特征点检测模型。
16.根据权利要求15所述的装置,其中,所述特征点检测模型包括特征点概率检测模型;所述样本图像检测单元用于:
获取多个变换参数;
分别按照所述多个变换参数,对所述目标样本图像进行第一变换处理,获得多张增广图像;其中,每张所述增广图像对应一个所述变换参数,所述第一变换处理能够与第二变换处理组合,实现所述仿射变换;
基于所述特征点概率检测模型,对所述多张增广图像进行处理,获得所述目标样本图像的特征点概率检测结果;其中,所述特征点概率检测模型在标量场上具有针对所述第二变换处理的等变性;
其中,所述特征点检测结果包括所述特征点概率检测结果。
17.根据权利要求16所述的装置,其中,所述样本图像检测单元用于:
基于所述特征点概率检测模型,分别对所述多张增广图像进行处理,获得多张特征点概率表征图像;其中,每张所述特征点概率表征图像对应一张所述增广图像;
基于所述多个变换参数中与目标概率表征图像对应的第一目标处理参数,对所述目标概率表征图像进行第三变换处理,获得第一恢复图像;其中,所述目标概率表征图像为所述多张特征点概率表征图像中的任一图像,所述第三变换处理为所述第一变换处理的逆变换;
对获取到的多张第一恢复图像进行融合,获得所述目标样本图像的特征点概率检测结果。
18.根据权利要求16所述的装置,其中,所述特征点检测模型还包括特征点方向检测模型;所述样本图像检测单元还用于:
基于所述特征点方向检测模型,对所述多张增广图像进行处理,获得所述目标样本图像的特征点方向检测结果;其中,所述特征点方向检测模型在向量场上具有针对所述第二变换处理的等变性;
其中,所述特征点检测结果还包括所述特征点方向检测结果。
19.根据权利要求18所述的装置,其中,所述样本图像检测单元用于:
基于所述特征点方向检测模型,分别对所述多张增广图像进行处理,获得多张特征点方向表征图像;其中,每张所述特征点方向表征图像对应一张所述增广图像;
基于所述多个变换参数中与目标方向表征图像对应的第二目标处理参数,对所述目标方向表征图像进行第四变换处理,获得第二恢复图像;其中,所述目标方向表征图像为所述多张特征点方向表征图像中的任一图像,所述第四变换处理为所述第一变换处理的逆变换;
对获取到的多张第二恢复图像进行融合,获得所述目标样本图像的特征点方向检测结果。
20.根据权利要求18所述的装置,其中,在所述目标样本图像为所述第一样本图像的情况下,所述特征点检测结果包括第一特征点概率检测结果和第一特征点方向检测结果,在所述目标样本图像为所述第二样本图像的情况下,所述特征点检测结果包括第二特征点概率检测结果和第二特征点方向检测结果;所述模型训练单元用于:
基于所述第一特征点概率检测结果和所述第一特征标签,获得所述第一样本图像的第一特征点概率损失;
基于所述第二特征点概率检测结果和所述第二特征标签,获得所述第二样本图像的第二特征点概率损失;
基于所述第一特征点方向检测结果和所述第二特征点方向检测结果,获得所述第一样本图像与所述第二样本图像之间的特征点方向损失;
计算所述第一样本图像的第一变换损失,以及所述第二样本图像的第二变换损失;
根据所述第一特征点概率损失、所述第二特征点概率损失、所述特征点方向损失、所述第一变换损失和所述第二变换损失,对所述特征点检测模型进行训练,获得所述经过训练的特征点检测模型。
21.一种图像特征匹配装置,包括:
待匹配图像获取单元,用于获取第一待匹配图像和第二待匹配图像;
待匹配图像检测单元,用于基于经过训练的特征点检测模型,获得目标待匹配图像的特征点检测结果;其中,所述经过训练的特征点检测模型是通过权利要求1~11中任一项所述的方法进行训练的,所述目标待匹配图像为所述第一待匹配图像和所述第二待匹配图中的任一图像;
图像特征匹配单元,用于基于所述特征点检测结果,对所述第一待匹配图像和所述第二待匹配图像进行特征匹配。
22.一种电子设备,包括:
至少一个处理器;
与所述至少一个处理器通信连接的存储器;
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1~14中任一项所述的方法。
23.一种存储有计算机指令的非瞬时计算机可读存储介质,其中,所述计算机指令用于使所述计算机执行根据权利要求1~14中任一项所述的方法。
24.一种计算机程序产品,包括计算机程序,所述计算机程序在被处理器执行时实现根据权利要求1~14中任一项所述的方法。
CN202310537694.1A 2023-05-12 2023-05-12 特征点检测模型训练方法、图像特征匹配方法及装置 Active CN116310657B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202310537694.1A CN116310657B (zh) 2023-05-12 2023-05-12 特征点检测模型训练方法、图像特征匹配方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202310537694.1A CN116310657B (zh) 2023-05-12 2023-05-12 特征点检测模型训练方法、图像特征匹配方法及装置

Publications (2)

Publication Number Publication Date
CN116310657A true CN116310657A (zh) 2023-06-23
CN116310657B CN116310657B (zh) 2023-09-01

Family

ID=86781816

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202310537694.1A Active CN116310657B (zh) 2023-05-12 2023-05-12 特征点检测模型训练方法、图像特征匹配方法及装置

Country Status (1)

Country Link
CN (1) CN116310657B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952223A (zh) * 2017-03-17 2017-07-14 北京邮电大学 图像配准方法及装置
CN110263795A (zh) * 2019-06-04 2019-09-20 华东师范大学 一种基于隐式形状模型与图匹配的目标检测方法
CN112560619A (zh) * 2020-12-06 2021-03-26 国网江苏省电力有限公司常州供电分公司 一种基于多聚焦图像融合的多距离鸟类精准识别方法
WO2023040679A1 (zh) * 2021-09-16 2023-03-23 百果园技术(新加坡)有限公司 人脸图片的融合方法、装置、设备及存储介质
CN115879004A (zh) * 2022-12-21 2023-03-31 北京百度网讯科技有限公司 目标模型的训练方法、装置、电子设备、介质和程序产品

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106952223A (zh) * 2017-03-17 2017-07-14 北京邮电大学 图像配准方法及装置
CN110263795A (zh) * 2019-06-04 2019-09-20 华东师范大学 一种基于隐式形状模型与图匹配的目标检测方法
CN112560619A (zh) * 2020-12-06 2021-03-26 国网江苏省电力有限公司常州供电分公司 一种基于多聚焦图像融合的多距离鸟类精准识别方法
WO2023040679A1 (zh) * 2021-09-16 2023-03-23 百果园技术(新加坡)有限公司 人脸图片的融合方法、装置、设备及存储介质
CN115879004A (zh) * 2022-12-21 2023-03-31 北京百度网讯科技有限公司 目标模型的训练方法、装置、电子设备、介质和程序产品

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
黄友文;殷策;: "一种基于学习的误匹配特征点剔除算法", 科技广场, no. 02 *

Also Published As

Publication number Publication date
CN116310657B (zh) 2023-09-01

Similar Documents

Publication Publication Date Title
CN108229296B (zh) 人脸皮肤属性识别方法和装置、电子设备、存储介质
WO2020006961A1 (zh) 用于提取图像的方法和装置
CN114186632B (zh) 关键点检测模型的训练方法、装置、设备、存储介质
CN113971751A (zh) 训练特征提取模型、检测相似图像的方法和装置
US20200334287A1 (en) Image retrieval method, image retrieval apparatus, image retrieval device and medium
JP6997369B2 (ja) プログラム、測距方法、及び測距装置
WO2018082308A1 (zh) 一种图像处理方法及终端
CN112861830B (zh) 特征提取方法、装置、设备、存储介质以及程序产品
CN114511041B (zh) 模型训练方法、图像处理方法、装置、设备和存储介质
CN113177449B (zh) 人脸识别的方法、装置、计算机设备及存储介质
CN115861462B (zh) 图像生成模型的训练方法、装置、电子设备及存储介质
CN113705362A (zh) 图像检测模型的训练方法、装置、电子设备及存储介质
CN115147680B (zh) 目标检测模型的预训练方法、装置以及设备
CN113569855A (zh) 一种舌象分割方法、设备及存储介质
KR101700030B1 (ko) 사전 정보를 이용한 영상 물체 탐색 방법 및 이를 수행하는 장치
CN114549904B (zh) 视觉处理及模型训练方法、设备、存储介质及程序产品
CN110210314B (zh) 人脸检测方法、装置、计算机设备及存储介质
JP6244886B2 (ja) 画像処理装置、画像処理方法および画像処理プログラム
CN113610016A (zh) 视频帧特征提取模型的训练方法、系统、设备及存储介质
CN114120454A (zh) 活体检测模型的训练方法、装置、电子设备及存储介质
CN116129228B (zh) 图像匹配模型的训练方法、图像匹配方法及其装置
CN116402914B (zh) 用于确定风格化图像生成模型的方法、装置及产品
JP5500404B1 (ja) 画像処理装置及びそのプログラム
CN117315758A (zh) 面部表情的检测方法、装置、电子设备及存储介质
CN115937993B (zh) 活体检测模型训练方法、活体检测方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant