CN114078258A - 一种应用于指纹识别的图像匹配方法及相关装置 - Google Patents

一种应用于指纹识别的图像匹配方法及相关装置 Download PDF

Info

Publication number
CN114078258A
CN114078258A CN202010762013.8A CN202010762013A CN114078258A CN 114078258 A CN114078258 A CN 114078258A CN 202010762013 A CN202010762013 A CN 202010762013A CN 114078258 A CN114078258 A CN 114078258A
Authority
CN
China
Prior art keywords
image
template
information
detected
recognized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202010762013.8A
Other languages
English (en)
Inventor
雷文超
常冰
龙水平
石腾
赵晓娜
黄庆超
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN202010762013.8A priority Critical patent/CN114078258A/zh
Priority to PCT/CN2021/107689 priority patent/WO2022022365A1/zh
Publication of CN114078258A publication Critical patent/CN114078258A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/13Sensors therefor

Landscapes

  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本申请提供一种图像匹配方法及相关装置,其中,方法包括:根据待检测对象的形态特征信息,确定待识别图像的属性信息,其中,待识别图像用于识别待检测对象;根据待识别图像的属性信息,对至少一个模板图像进行筛选;筛选后的模板图像的属性信息与待识别图像的属性信息之间满足属性相关性条件;在筛选后的模板图像中,查询与待识别图像相匹配的图像。本申请提供的技术方案能够提高图像识别的效率。

Description

一种应用于指纹识别的图像匹配方法及相关装置
技术领域
本申请涉及图像识别技术领域,特别涉及一种应用于指纹识别的图像匹配方法及相关装置。
背景技术
随着计算机技术的不断发展,图像识别技术已广泛应用于人们生活的各个场景。例如,在身份识别技术领域、指纹识别技术领域,均采用了基于图像匹配的识别技术。
图像匹配可以包括模板图像采集阶段和图像匹配阶段,在进行图像匹配之前,预先采集一些模板图像,在采集待识别图像后,在预先采集的模板图像中查询是否存在与待识别图像相匹配的图像,该相匹配的图像可以是与待识别图像相同或者相似度较高的图像。在图像匹配成功时,将相匹配的图像对应的对象信息作为图像识别的结果。
在预先采集的模板图像数量较大时,查询相匹配的图像的效率较低。
发明内容
本申请提供了一种应用于指纹识别的图像匹配方法及相关装置,能够提高图像匹配的效率。
第一方面,本申请实施例提供一种应用于指纹识别的图像匹配方法,所述方法包括:
根据待检测对象的形态特征信息,确定待识别图像的属性信息,其中,所述待识别图像用于识别所述待检测对象;
根据所述待识别图像的属性信息,对至少一个模板图像进行筛选;筛选后的模板图像的属性信息与所述待识别图像的属性信息之间满足属性相关性条件;
在筛选后的模板图像中,查询与所述待识别图像相匹配的图像。
其中,形态特征信息可以包括待检测对象的静态和动态的形态特征信息。
在一种可选的实施方式中,所述待检测对象的形态特征信息可以包括以下信息中至少一种:所述待检测对象的轮廓信息、位置信息、运动学信息;
所述待识别图像的属性信息包括以下信息中至少一种:所述待检测对象的对象类型,所述待检测对象的习惯姿态信息,以及,所述待识别图像与所述待检测对象的轮廓信息之间的全局位置信息。
在一种可选的实施方式中,在所述根据所述待检测对象的形态特征信息,确定所述待识别图像的属性信息之前,包括:
获取所述待识别图像;
获取所述待检测对象的触控信号;
根据所述待检测对象的触控信号,确定所述待检测对象的形态特征信息;
其中,获取所述待识别图像的时刻与获取所述待检测对象的触控信号的时刻之间的时间差小于时间偏差阈值。
在一种可选的实施方式中,所述待检测对象的触控信号为通过触控装置采集的;
在所述根据所述待检测对象的触控信息,确定所述待检测对象的形态特征信息之前,还包括:通过姿态传感器获取所述触控装置的三维位置信息;
所述根据待检测对象的形态特征信息,确定待识别图像的属性信息,包括:根据所述待检测对象的形态特征信息和所述触控装置的三维位置信息,确定所述待识别图像的属性信息。
在一种可选的实施方式中,所述待检测对象为待识别指纹部;所述待识别图像为通过指纹传感器采集的所述待识别指纹部的指纹图像。
在一种可选的实施方式中,所述待检测对象的对象类型包括以下至少一种:左右手信息,手指类型。
在一种可选的实施方式中,所述待识别图像与所述待检测对象的轮廓信息之间的全局位置信息包括以下至少一种:位于轮廓中线的左侧区域,位于轮廓中线的右侧区域,以轮廓信息为参照系的区域位置信息。
在一种可选的实施方式中,所述待检测对象的习惯姿态信息,包括以下至少一种:所述待检测对象的全局方向信息,所述待检测对象的速度,所述待识别图像中所述待检测对象的移动方向,所述待识别图像中所述待检测对象的移动轨迹;
和/或,
所述待识别图像与所述待检测对象的轮廓信息之间的全局位置信息,包括:在所述待识别图像为所述待检测对象的局部图像时,所述待识别图像在所述待检测对象的轮廓信息中对应的区域位置标识。
在一种可选的实施方式中,所述属性相关性条件,包括以下至少一种:
在所述待识别图像的属性信息包括所述待识别图像对应的对象类型时,筛选后的模板图像对应的对象类型与所述待识别图像对应的对象类型相同;
在所述待识别图像的属性信息包括所述待识别图像对应的姿态信息时,筛选后的模板图像对应的习惯姿态信息与所述待识别图像对应的习惯姿态信息相同;
在所述待识别图像的属性信息包括所述待识别图像对应的全局位置信息时,筛选后的模板图像对应的全局位置信息与所述待识别图像对应的全局位置信息满足位置临近条件;
其中,所述位置临近条件包括:所述筛选后的模板图像对应的全局位置信息所表示的区域包含所述待识别图像对应的全局位置信息,或者,所述筛选后的模板图像对应的全局位置信息所表示的区域与所述待识别图像对应的全局位置信息存在交集,或者,所述筛选后的模板图像对应的全局位置信息所表示的区域与所述待识别图像对应的全局位置信息所表示的区域之间的距离小于邻近区域距离阈值。
在一种可选的实施方式中,所述待识别图像的属性信息的数量为至少两个;
所述根据所述待识别图像的属性信息,对至少一个模板图像进行筛选,包括:根据所述待识别图像的至少两个属性信息以及各个属性信息的权重,对所述至少一个模板图像进行筛选。
在一种可选的实施方式中,在筛选后的模板图像的数量为0,或者,在筛选后的模板图像中,未查询到与所述待识别图像相匹配的目标模板图像时,所述方法还包括:
在所述至少一个模板图像中除所述筛选后的模板图像中的其他模板图像中,查询与所述待识别图像相匹配的目标模板图像。
在一种可选的实施方式中,在筛选后的模板图像的数量为0,或者,在筛选后的模板图像中,未查询到与所述待识别图像相匹配的目标模板图像时,所述方法还包括:
根据所述至少一个模板图像对应的历史匹配成功率排序,在所述至少一个模板图像中,查询与所述待识别图像相匹配的图像。
在一种可选的实施方式中,所述方法还包括:
在查询到与所述待识别图像相匹配的目标模板图像时,获取所述目标模板图像对应的模板实体标识和/或使用权限;
在所述至少一个模板图像中未查询到与所述待识别图像相匹配的目标模板图像时,确定所述待匹配图像对应的待检测对象不具有使用权限。
在一种可选的实施方式中,在所述根据所述待识别图像的属性信息,对至少一个模板图像进行筛选之前,包括:
获取所述至少一个模板图像以及各个模板图像对应的模板对象的形态特征信息;各个模板图像与各个模板对象一一对应;
根据各个模板图像对应的模板对象的形态特征信息,确定各个模板图像的属性信息。
在一种可选的实施方式中,所述待检测对象为待识别指纹部;所述待检测对象的形态特征信息为所述待识别指纹部的轮廓信息;所述待识别图像为所述待识别指纹部的局部指纹图像;
所述根据待检测对象的形态特征信息,确定待识别图像的属性信息,包括:根据所述所述待识别指纹部的轮廓信息,确定所述局部指纹图像在所述待识别指纹部的轮廓信息中的区域位置标识;将所述区域位置标识作为所述局部指纹图像的属性信息。
在一种可选的实施方式中,所述获取所述至少一个模板图像以及各个模板图像对应的模板对象的形态特征信息,包括:获取第一模板对象的P-1个第一模板图像,以及,所述P-1个第一模板图像对应的所述第一模板对象的轮廓信息;
所述根据各个模板图像对应的模板对象的形态特征信息,确定各个模板图像的属性信息,包括:分别根据各个第一模板图像对应的所述第一模板对象的轮廓信息,确定各个第一模板图像在对应的轮廓信息中的区域位置标识;
所述方法还包括:判断所述P-1个第一模板图像对应的区域位置标识的集合是否满足覆盖条件;若未满足,获取所述第一模板对象的第P个第一模板图像;
其中,所述覆盖条件包括:覆盖所述第一模板对象的至少一个局部区域,或者,覆盖所述第一模板对象的边缘区域的边缘覆盖条件,或者,满足覆盖所述第一模板对象的轮廓信息的全局覆盖条件;P为大于或者等于2的整数。
第二方面,本申请还提供一种应用于指纹识别的图像匹配方法,所述方法包括:
获取模板对象的至少一个第一模板图像;
获取所述模板对象的轮廓信息,其中,所述模板对象的轮廓信息用于确定所述至少一个第一模板图像在所述模板对象的轮廓信息中的区域位置标识;
在所述至少一个第一模板图像对应的区域位置标识的集合未满足覆盖条件时,采集所述模板对象的第二模板图像;
其中,所述至少一个第一模板图像和所述第二模板图像用于查询与待识别图像相匹配的图像。
在一种可选的实施方式中,所述覆盖条件包括以下至少一种:
覆盖所述模板对象的至少一个局部区域;
覆盖所述模板对象的边缘区域超过预设覆盖比例;
覆盖所述模板对象的轮廓信息超过预设覆盖比例。
在本申请实施例中,覆盖条件还可以包括模板图像的预设数量阈值,例如,覆盖条件可以包括覆盖所述模板对象的边缘区域超过预设覆盖比例且模板图像的数量大于预设数量阈值,或者,覆盖条件可以包括覆盖所述模板对象的全局区域超过预设覆盖比例且模板图像的数量大于预设数量阈值。
在一种可选的实施方式中,所述获取所述模板对象的轮廓信息,包括:通过电子设备的触摸屏获取所述模板对象的轮廓信息;
所述获取模板对象的至少一个第一模板图像,包括:通过指纹传感器采集所述至少一个第一模板图像;
所述指纹传感器位于所述触摸屏靠近所述电子设备的本体的一侧。
在一种可选的实施方式中,在所述采集所述模板对象的第二模板图像之前,所述方法还包括:
根据所述至少一个第一模板图像对应的区域位置标识的集合和所述覆盖条件,确定补采区;
输出提示信息,所述提示信息用于提示录入包含所述补采区的所述模板对象的第二模板图像。
第三方面,本申请提供一种应用于指纹识别的图像匹配装置,包括:
确定模块,用于根据待检测对象的形态特征信息,确定待识别图像的属性信息,其中,所述待识别图像用于识别所述待检测对象;
匹配模块,用于根据待识别图像的属性信息,对至少一个模板图像进行筛选,其中,筛选后的模板图像的属性信息与所述待识别图像的属性信息之间满足属性相关性条件;以及,在筛选后的模板图像中,查询与所述待识别图像相匹配的图像。
在一种可选的实施方式中,所述装置还包括:
获取模块,用于获取所述待识别图像,以及,获取所述待检测对象的触控信号;以及,根据所述待检测对象的触控信号,确定所述待检测对象的形态特征信息;其中,获取所述待识别图像的时刻与获取所述待检测对象的触控信号的时刻之间的时间差小于时间偏差阈值。
在一种可选的实施方式中,所述匹配模块,具体用于根据所述待识别图像的至少两种属性信息以及各个属性信息的权重,对所述至少一个模板图像进行筛选。
在一种可选的实施方式中,所述匹配模块,还用于在筛选后的模板图像的数量为0,或者,在筛选后的模板图像中,未查询到与所述待识别图像相匹配的目标模板图像时,在所述至少一个模板图像中除所述筛选后的模板图像中的其他模板图像中,查询与所述待识别图像相匹配的图像。
在一种可选的实施方式中,所述匹配模块,还用于在筛选后的模板图像的数量为0,或者,在筛选后的模板图像中,未查询到与所述待识别图像相匹配的目标模板图像时,根据所述至少一个模板图像对应的历史匹配成功率排序,在所述至少一个模板图像中,查询与所述待识别图像相匹配的图像。
在一种可选的实施方式中,所述匹配模块,还用于在查询到与所述待识别图像相匹配的目标模板图像时,获取所述目标模板图像对应的模板实体标识和/或使用权限;以及,在未查询到与所述待识别图像相匹配的目标模板图像时,确定所述待匹配图像对应的待检测对象不具有使用权限。
在一种可选的实施方式中,所述获取模块,还用于在所述根据所述待识别图像的属性信息,对至少一个模板图像进行筛选之前,获取所述至少一个模板图像以及各个模板图像对应的模板对象的形态特征信息;各个模板图像与各个模板对象一一对应;
所述确定模块,还用于根据各个模板图像对应的模板对象的形态特征信息,确定各个模板图像的属性信息。
在一种可选的实施方式中,所述获取模块,具体用于获取第一模板对象的P-1个第一模板图像,以及,所述P-1个第一模板图像对应的所述第一模板对象的轮廓信息;
所述确定模块,具体用于分别根据各个第一模板图像对应的所述第一模板对象的轮廓信息,确定各个第一模板图像在对应的轮廓信息中的区域位置标识;
所述确定模块,还用于判断所述P-1个第一模板图像对应的区域位置标识的集合是否满足覆盖条件;若未满足,指示所述获取模块获取所述第一模板对象的第P个第一模板图像;其中,所述覆盖条件包括:覆盖所述第一模板对象的边缘区域的边缘覆盖条件,或者,满足覆盖所述第一模板对象的轮廓信息的全局覆盖条件;P为大于或者等于2的整数。
第四方面,本申请提供一种应用于指纹识别的图像匹配装置,包括:
获取模块,用于获取模板对象的至少一个第一模板图像;以及,获取所述模板对象的轮廓信息,其中,所述模板对象的轮廓信息用于确定所述至少一个第一模板图像在所述模板对象的轮廓信息中的区域位置标识;
确定模块,用于确定所述至少一个第一模板图像对应的区域位置标识的集合是否满足覆盖条件,在未满足覆盖条件时,指示所述获取模块获取所述模板对象的第二模板图像;其中,所述至少一个第一模板图像和所述第二模板图像用于查询与待识别图像相匹配的图像。
在一种可选的实施方式中,所述覆盖条件包括以下至少一种:
覆盖所述模板对象的至少一个局部区域;
覆盖所述模板对象的边缘区域超过预设覆盖比例;
覆盖所述模板对象的轮廓信息超过预设覆盖比例。
在一种可选的实施方式中,所述确定模块,还用于根据所述至少一个第一模板图像对应的区域位置标识的集合和所述覆盖条件,确定补采区;
所述装置还包括:输出模块,用于输出提示信息,所述提示信息用于提示录入包含所述补采区的所述模板对象的第二模板图像。
第五方面,本申请提供一种电子设备,包括:
图像采集装置,用于采集待识别图像,其中,所述待识别图像用于识别待检测对象;
形态特征采集装置,用于采集所述待检测对象的形态特征信息;
处理器,用于根据所述待检测对象的形态特征信息,确定所述待识别图像的属性信息;以及,根据待识别图像的属性信息,对至少一个模板图像进行筛选,其中,筛选后的模板图像的属性信息与所述待识别图像的属性信息之间满足属性相关性条件;以及,在筛选后的模板图像中,查询与所述待识别图像相匹配的图像。
在一种可选的实施方式中,所述形态特征采集装置为触控装置。
在一种可选的实施方式中,所述形态特征采集装置为触摸屏,所述图像采集装置为指纹传感器,所述指纹传感器设置于所述触摸屏靠近所述电子设备的本体的一侧。
第六方面,本申请提供一种电子设备,包括:
图像采集装置,用于采集模板对象的至少一个第一模板图像;以及,在所述至少一个第一模板图像对应的区域位置标识的集合未满足覆盖条件时,采集所述模板对象的第二模板图像;其中,所述至少一个第一模板图像和所述第二模板图像用于查询与待识别图像相匹配的图像;
触控装置,用于获取所述模板对象的轮廓信息,其中,所述模板对象的轮廓信息用于确定所述至少一个第一模板图像在所述模板对象的轮廓信息中的区域位置标识。
在一种可选的实施方式中,所述图像采集装置为指纹传感器;所述触控装置为电子设备中的触摸屏;所述指纹传感器设置于所述触摸屏靠近所述电子设备的本体的一侧。
在一种可选的实施方式中,所述触控装置,还用于在所述至少一个第一模板图像对应的区域位置标识的集合未满足覆盖条件时,输出提示信息,所述提示信息用于提示通过所述图像采集装置输入所述模板对象的第二模板图像。
在又一方面,本申请提供一种电子设备,包括:处理器和存储器,所述存储器用于存储指令,所述处理器用于执行所述指令以使得所述电子设备执行第一方面至第二方面中任一项所述方法。
在又一方面,本申请提供一种计算机存储介质,包括计算机程序,所述计算机程序在计算机上被执行时,使得所述计算机执行第一方面至第二方面中任一项所述的方法。
附图说明
图1A为本申请实施例提供的图像匹配方法的处理过程的示意图;
图1B为本申请实施例提供的图像匹配方法的应用场景的示意图一;
图1C为本申请实施例提供的图像匹配方法的应用场景的示意图二;
图1D为本申请实施例提供的图像匹配方法中待识别图像在待检测对象的轮廓信息中的全局位置信息的示意图;
图2A为本申请实施例提供的图像匹配方法的录入阶段的流程示意图;
图2B为本申请实施例中根据触控信号确定形态特征信息的示意图;
图2C为本申请实施例中推断左右手类型的示意图;
图2D为本申请实施例中推断手指类型的示意图;
图2E为本申请实施例中推断全局位置信息和全局方向信息的示意图;
图3A为本申请实施例提供的图像匹配方法的识别阶段的流程示意图;
图3B为本申请实施例中推断大致区域的示意图;
图3C为本申请实施例中模板匹配的示意图;
图4为本申请实施例提供的图像匹配方法的流程示意图二;
图5A为本申请实施例提供的图像匹配方法中边缘区域的模板图像的位置示意图;
图5B为本申请实施例提供的图像匹配方法的应用场景的示意图三;
图6为本申请实施例提供的图像匹配方法中指纹录入阶段的处理流程的示意图。
图7为本申请实施例提供的图像匹配方法中指纹识别阶段的处理流程的示意图。
图8为本申请实施例提供的图像匹配装置的结构示意图一;
图9为本申请实施例提供的图像匹配装置的结构示意图二;
图10为本申请实施例提供的电子设备的结构示意图。
具体实施方式
本申请的实施方式部分使用的术语仅用于对本申请的具体实施例进行解释,而非旨在限定本申请。
本申请实施例提供的图像匹配方法可应用于各种对象识别场景,如指纹识别场景、人脸识别场景等用户身份识别场景。示例性地,待识别图像可以为指纹图像。
在本申请实施例中,图像匹配方法可以涉及:录入阶段和识别阶段。其中,录入阶段的处理包括:在图像数据库中录入模板图像,即建立图像数据库。识别阶段的处理包括:对待检测对象采集待识别图像,在图像数据库的模板图像中,查询与待识别图像相匹配的目标模板图像。在本申请实施例中,图像匹配的结果可以用于确定采集待识别图像的待检测对象对应的实体标识或使用权限等一种或多种对象信息。
图1A为本申请实施例提供的图像匹配方法的处理过程的示意图。
如图1A所示,在本申请实施例提供的图像匹配方法中,在录入阶段,在对模板对象采集模板图像时,还可以采集模板对象的形态特征信息,之后,根据模板对象的形态特征信息确定模板图像对应的一种或多种属性信息,然后,将模板图像与对应的属性信息存入图像数据库中。在识别阶段,在对待检测对象采集待识别图像时,还可以采集待检测对象的形态特征信息,之后,根据待检测对象的形态特征信息确定待识别图像对应的一种或多种属性信息,然后,可以利用待识别图像的属性信息对图像数据库中的众多模板图像进行筛选,在筛选后的模板图像中查询与待识别图像相匹配的模板图像,能够提高图像匹配的效率。
举例来说,模板对象的形态特征信息可以包括用于表示模板对象的形状、大小、位置、方向、速度等状态的至少一种信息,例如,模板对象的轮廓信息、模板对象相对于电子设备的位置信息或者在大地坐标系中的位置信息、运动学信息等。模板图像对应的属性信息可以是根据对应的模板对象的形态特征信息确定的,例如,模板对象的对象类型、模板图像在模板对象的轮廓信息中的全局位置信息、模板对象的当前姿态、移动轨迹等。举例来说,图1D为本申请实施例提供的图像匹配方法中待识别图像在待检测对象的轮廓信息中的全局位置信息的示意图。如图1D所示,待识别的局部指纹图像在对应的待检测的手指的轮廓信息中的位置。在本申请实施例中,将结合实际应用对形态特征信息和属性信息以及根据形态特征信息确定属性信息的处理步骤进行详细说明,此处不再赘述。
下面对本申请实施例提供的图像匹配方法的实际应用场景进行示例性说明。
在本申请实施例中,图像匹配方法可部署于具有图像采集装置的电子设备。其中,电子设备可以是手机、平板电脑、手持式识别装置、可穿戴设备等具有图像采集装置的终端。图像采集装置可以是摄像装置或者传感器。以指纹识别场景为例,图像采集装置可以为指纹传感器,指纹传感器可用于在录入阶段采集模板图像,以及,在识别阶段采集待识别图像。
在本申请实施例中,电子设备上还可以设置触控装置。触控装置可以用于在录入阶段获取模板对象的形态特征信息,以及,在识别阶段获取待检测对象的形态特征信息。
图1B为本申请实施例提供的图像匹配方法的应用场景的示意图一。如图1B所示,触控装置可以是电子设备上的触摸屏。
在一示例中,指纹传感器可以设置在电子设备的触摸屏的下方(如图1B所示)。图1C为本申请实施例提供的图像匹配方法的应用场景的示意图二。以录入阶段为例,模板对象可以是用户手指的指纹部。当用户手指按压在指纹传感器的采集区域(如图1C所示) 时,指纹传感器可以透过触摸屏采集指纹图像。在另一示例中,指纹传感器也可以设置在电子设备的表面上未被触摸屏覆盖的其他区域。
以模板对象和待检测对象为用户手指的指纹部为例,触摸屏可以在当前手指接触触摸屏时,获取接触点的坐标集合,生成触控信号,每帧触控信号可以包括由接触点的坐标集合确定的触控图像。在本申请实施例中,每帧触控信号还可以包括接触点上的接触压力(touch pressure,TP)数值等信息。在本申请实施例中,触摸屏可以在当前手指接触触摸屏期间,生成多帧触控信号。多帧触控信号可以组成一个触控信号序列,触控信号序列可简称为触控序列。
在本申请其他实施例中,触摸屏还可以在检测到当前手指距离触摸屏小于预设的感应距离时,生成触控信号。以感应距离为1厘米为例,在当前手指进入触摸屏上方1厘米的感应空间时,触摸屏可以生成一帧或多帧触控信号,触摸屏可以获取在触摸屏上与用户手指距离小于感应距离的点的坐标集合,每帧触控信号可以包括由这些点的坐标集合所确定的触控图像以及用户手指与这些点之间的距离等信息。当用户手指持续停留在感应空间时,触摸屏可以产生多帧的触控信号。
需要说明的是,形态特征信息也可以通过摄像装置或者传感器等其他形态特征采集装置采集。
在本申请实施例中,电子设备上还可以设置有姿态传感器(图中未示出),姿态传感器可以用于获取电子设备在大地坐标系中的三维位置信息。示例性地,姿态传感器可以是陀螺仪或者重力加速度计。在实际应用中,可以结合触控装置和姿态传感器采集的数据,来确定模板对象的属性信息。在下面的实施例中将对结合触控装置和姿态传感器采集的数据来确定模板对象的属性信息的处理步骤进行详细说明。
本申请实施例中涉及的图像数据库可以部署在电子设备上,也可以单独部署。本申请实施例对此不做限制。
本申请实施例提供的图像匹配方法中的录入阶段和识别阶段的技术方案也可以采用不同的电子设备实施,任一阶段所采用的电子设备可以包括上述图像采集装置、触控装置、姿态传感器等。下面对本申请实施例提供的图像匹配方法进行示例性说明。
实施例一
本申请实施例提供图像匹配方法的录入阶段的一种可选的实施方式。图2A为本申请实施例提供的图像匹配方法的录入阶段的流程示意图。
如图2A所示,录入阶段的步骤可以包括:
S101,获取模板图像。
在本申请实施例中,可以通过图像采集装置对模板对象采集模板图像。举例来说,模板对象为指纹部时,可以利用指纹传感器对待识别指纹部采集待识别的指纹图像。
S102,获取模板对象的触控信号。
在本申请实施例中,可以通过触控装置采集待检测对象的触控信号。在一示例中,触控装置可以为电子设备上的触摸屏。触控装置与图像采集装置的相对位置可以是预先确定的,可参看图1B所示。
需要说明的是,步骤S101和步骤S102可以同时执行,即,可以在模板对象按压在触摸屏上时同时采集模板对象的触控信号和模板图像。在实际应用中,可以设置在较短的时间段内完成步骤S101和S102,例如,可以设置获取待识别图像的时刻与获取待检测对象的触控信号的时刻之间的时间差小于时间偏差阈值。
在本申请实施例中,在检测到模板对象接触触摸屏后,可以获取模板对象的一帧或者多帧触控信号。图2B为本申请实施例中根据触控信号确定形态特征信息的示意图。以待确定的形态特征信息为手指轮廓信息为例,从手指按压在触摸屏产生触控信号开始,获取一段时间内的一组连续的触控信号作为触控序列,例如,如图2B所示,可以获取20 帧的触控信号作为一个触控序列,其中,每一帧触控信号包含由在采集当前帧触控信号时的接触点的坐标集合所确定的触控图像(如图2B上部所示)。
S103,根据模板对象的触控信号,确定模板对象的形态特征信息。
在本申请实施例中,举例来说,可以根据模板对象的一帧或多帧触控信号,确定模板对象的形态特征信息。
在本申请实施例中,模板对象的形态特征信息可以是模板对象的轮廓信息、位置信息、运动学信息等。需要说明的是,采集模板图像的图像采集装置的位置和采集触控信号的触摸屏的相对位置是确定的,因此,模板图像的形态特征信息可以为以图像采集装置的位置为参照物的轮廓信息、位置信息、运动学信息。其中,轮廓信息可以是模板对象在一平面(如触控装置所在屏幕)内的投影点的集合,或者,三维坐标系中的点集;位置信息可以是模板对象相对于图像采集装置的相对位置,运动学信息可以为模板对象的移动方向、移动速度、移动轨迹等。
以待确定的形态特征信息为手指的轮廓信息为例,可参看图2B所示,可以分别对每一帧触控信号进行归一化等预处理后的轮廓图进行边缘检测,得到每帧触控信号对应的一组表示手指轮廓的边缘点,其中,边缘检测可以使用Sobel算法;然后,综合多帧的触控信号的边缘检测结果,对检测到的手指轮廓进行集合求并,得到当前录入手指的轮廓信息。例如,首先,确定每帧触控信号的中心点,其中,从中心点为起点的任意一条射线会经过当前帧的手指轮廓中的至少一个边缘点,然后,分别从各个帧的触控图像中选择从中心点为起点的一条基准射线,每个帧的基准射线的斜率相同,比较各个帧的手指轮廓中基准射线所经过的边缘点的坐标,选择距离对应的中心点最远的点为最终的边缘坐标点,之后,按照预设的旋转间隔角旋转基准射线,比较各个帧的触控图像中旋转后的射线所经过的边缘点的坐标,选择距离对应的中心点最远的点为最终的边缘坐标点,之后,多次旋转基准射线并获得相应的边缘坐标点,直至基准射线旋转一周,最后,将所有边缘坐标点的集合确定为当前按压的手指的轮廓信息。在本申请实施例中,可以使用还可以采用Laplacian算子、Canny算子等边缘检测方法,或者,机器学习方法等计算机视觉算法对触控图像帧数据进行轮廓检测。预处理可以包括归一化、图形化及时间序列分析等方法。例如,将坐标点的数值限制在区间[0,255]之内,或者,利用Kalman滤波方法对触控信号序列按照时间进行滤波等。
在本申请其他实施例中,当触摸屏支持获取模板对象进入感应控制生成的触控信号时,触控信号中还可以包含模板对象与触摸屏之间的相对位置信息,由于触摸屏与图像采集装置的相对位置是固定的,因此,可以根据触控信号获得的模板对象相对于触摸屏的相对位置信息,转换为待检测对象相对于图像采集装置的位置信息,例如,触控信号可以包含由一组三维坐标系中的点集所确定的触控图像。此外,当获取的触控信号包括多帧触控信号时,根据多帧触控信号中的相对位置信息的变化规律,还可以确定模板对象的移动速度、移动轨迹等模板对象的运动学信息。
上述根据触控信号确定模板对象的形态特征信息的方法仅为示例,本申请实施例对此不做限制。
在本申请其他实施例中,在根据待检测对象的触控信息,确定待检测对象的形态特征信息之前,还可以包括:通过姿态传感器获取触控装置的三维位置信息;相应地,步骤S103根据待检测对象的形态特征信息,确定待识别图像的属性信息,可以包括:根据待检测对象的形态特征信息和触控装置的三维位置信息,确定待识别图像的属性信息。在本申请其他实施例中将对利用姿态传感器修正待识别图像的属性信息进行详细说明。
S104,根据模板对象的形态特征信息,确定模板图像的属性信息。
在本申请实施例中,模板图像的属性信息可以是模板对象的对象类型、模板对象的习惯姿态信息、模板图像在模板对象的轮廓信息中的全局位置信息等。
在本申请实施例中,对象类型可以为以下任一种。在一示例中,模板对象的对象类型可以包括以下至少一种:指纹部、掌纹部、左右手信息、手指类型。在另一示例中,模板对象的对象类型还可以包括其他通过轮廓信息能够辨别的对象的类型,例如,耳朵部、嘴唇部、头部、足底部。在本申请其他实施例中,模板对象的对象类型也可以是由用户录入的。
在本申请实施例中,习惯姿态信息可以包括移动轨迹类型、移动速度类型、全局方向信息、移动方向信息中至少一种。
其中,移动轨迹类型可以用于表示用户手指向触摸屏靠近时是沿直线移动或者沿弧线移动等轨迹类型;移动速度类型可以包括按压下降速度类型和按压停留时长类型,按压下降速度类型可以表示用户手指按压时靠近触摸屏的速度的快慢等级,按压停留时长类型可以表示用户手指按压在触摸屏上时停留的时长的长短等级。全局方向信息可以表示用户手指按压触摸屏时手指顶端的朝向,例如,顶端向左倾斜等。移动方向信息可以是用户手指靠近触摸屏至接触触摸屏时的手指的滑动方向。
在本申请实施例中,模板图像在模板对象的轮廓信息中的全局位置信息可以包括以下至少一种:与模板对象的轮廓信息中的参考点之间的距离,以模板对象的轮廓信息为参照系的区域位置标识。其中,区域位置标识可以为中心区域、边缘区域、上半区域、下半区域、以区域中心的坐标值标识的区域等。
在本申请实施例中,根据模板对象的形态特征信息,确定模板图像的属性信息可以包括以下一种或多种实施方式。
在确定属性信息的一种可选的实施方式中,步骤S104可以包括:根据模板对象的轮廓信息,确定模板对象的对象类型;将模板对象的对象类型作为模板图像的属性信息。其中,在一示例中,模板对象的对象类型可以包括以下至少一种:指纹部、掌纹部、左右手信息、手指类型。在另一示例中,模板对象的对象类型还可以包括其他通过轮廓信息能够辨别的对象的类型,例如,耳朵部、嘴唇部、头部、足底部。在又一示例中,模板对象的对象类型还可以是通过轮廓信息能够辨别的其他物体。例如,在轮廓信息所表示的待检测对象的形状接近椭圆形且最大尺寸小于6平方厘米时,可以认为对象为指纹部。
在本申请实施例中,对手指对象类型的推断有多种方式。可以使用数据分析手段或者基于机器学习的方法,结合姿态传感器数据,根据触控信号的分布特征,判断当前录入手指的类型。在一种推断对象类型的实施方式中,可以构建手指类型识别系统,其中手指类型的特征提取可使用基于机器学习的特征提取网络(如Res-Net)。在另一种推断手指类型的实施方式中,可直接基于大数据构建分类网络(如SVM、CNN等经典框架)来判断手指的类型。此外,还可以直接根据手指触控信号和姿态传感器数据进行理论推导和统计分析来推断手指对象类型。这里,以理论推导和统计分析来推断手指对象类型进行示例性说明。
在一示例中,手指对象类型可以包括左右手类型,图2C为本申请实施例中推断左右手类型的示意图。
如图2C所示,首先,以屏幕垂直中线为参考纵轴,屏幕底线为横轴,提取多帧触控信号的边缘轮廓并求并集,通过曲线拟合等方法对求并集后的边缘轮廓进行光滑化处理,以轮廓曲率最大两点连线为长轴代表手指按压方向,如图2C左图中倾斜的虚线。然后,计算位于屏幕纵轴右侧的按压方向中横坐标大于0的虚线与屏幕纵轴正向的夹角θ1。若按压方向与屏幕纵轴正向之间的夹角为钝角,可以推测当前手指的左右手类型为右手,如图2C中左图所示,若为锐角,可以推测当前手指的左右手类型为左手,如图2C中右图所示。
此外,根据电子设备自身的姿态传感器数据,可以估计触控面板此时的三维姿态信息,其中,姿态传感器数据可以用于估计触控面板的延伸平面的纵轴和横轴在大地坐标系中相对于地表的倾斜角度和延伸平面的朝向等。例如,可以计算出触控面板的横轴相对于地表的倾斜角度θ2。之后,结合触控面板横轴倾斜角度θ2,对θ1进行修正。例如,若θ1-θ2>0,则将θ1修正为θ1-θ2,若θ1-θ2<0,则可以将θ1修正为180-θ2+θ1。最后,根据修正后的角度推断手指左右手类型。例如,当θ2=0时,如图2C中左图所示,修正值为钝角,则推测当前手指的左右手类型为右手,又如,当θ2=0,如图2C中右图所示,推测当前手指的左右手类型为左手。
在另一示例中,手指对象类型可以包括拇指、食指、中指等手指类型,图2D为本申请实施例中推断手指类型的示意图。
如图2D所示,其中,左图为左手拇指的接触压力(touch pressure,TP)数值的时序图示意,右图为右手食指或中指的TP数值时序图示意。在本申请实施例中,依据预先采集的各种手指类型的手指对应的TP数值的时序图,可以得到各种手指类型的TP数值的分布规律。然后,根据手指类型的TP数值的分布规律可以推断当前手指的手指类型。
举例来说,在确定当前手指的手指类型之前,首先采集各种手指类型的触控信号序列。示例性地,可以取20帧触控信号组成的触控序列,其中,每个触控信号包括当前手指在8*8 区域内接触的像素点上的TP数值。然后,绘制8x8区域内每个像素点的时序图,共得到64 条时序线,其中,每个像素点对应一条曲线,该曲线表示在一段时间内某一像素点上的TP 数值随时间变化的规律。之后,统计某个时间区间内TP数值大于预设TP数值阈值的时序线在总时序线数中的占比。示例性地,从图2D中左图和右图可以比较得出,在时间段[0.05,0.10] 中,左图中示出的拇指的时序线中,TP数值高于175的时序线的数量,明显比右图中示出的食指和中指的时序线多,如图2D中虚线框交叉区域所示。
基于此,在录入阶段,可采集当前手指的触控信号序列,并绘制TP数值的时序图,若当前手指的时序图中时间段[0.05,0.10]内TP数值高于TP数值阈值的时序线占比高于预设的分类比例阈值,则可以推断当前手指的手指类型为拇指,否则,可以推断当前手指的手指类型为食指或中指。以分类比例阈值为5/64为例,当占比大于分类比例阈值,则可以推断当前手指为拇指,若占比小于或者二等于分类比例阈值,可以推断当前手指为食指或中指。需要说明的是,在本申请实施例的识别阶段的步骤中,也可以采用类似的方式确定识别阶段采集的当前手指的手指类型。
在又一示例中,手指对象类型可以包括左右手类型和手指类型,例如,右手拇指、左手食指、左手中指。可以联合前面的示例推断当前手指的手指对象类型。例如,可以根据图2C 和图2D,联合推断出手指1为右手拇指,手指2为左手食指或中指。在确定属性信息的另一种可选的实施方式中,步骤S104可以包括:根据模板对象的轮廓信息,确定模板图像在模板对象的轮廓信息中的全局位置信息;将模板图像对应的全局位置信息作为模板图像的属性信息。其中,模板图像在模板对象的轮廓信息中的全局位置信息可以包括以下至少一种:与模板对象的轮廓信息中的参考点之间的距离,以模板对象的轮廓信息为参照系的区域位置标识。示例性地,区域可以为矩形,区域的中心可以是参照系中的坐标点,矩形的长和宽可以为预设的长度值和宽度值。
图2E为本申请实施例中推断全局位置信息和全局方向信息的示意图。如图2E所示,根据触控信号提取的触控像素的位置,可以确定当前手指的手指轮廓在屏幕中的位置。然后,由于指纹采集器的采集区域的位置在硬件设计时固定,模板图像的全局位置信息可以由模板图像在指纹轮廓中的相对位置经坐标变换确定。
举例来说,可参看图2E所示,将光滑化处理后的手指总轮廓(图2E中椭圆形)的长短轴确定为手指坐标系的手指X轴和手指Y轴,其中,手指总轮廓的长轴可以根据轮廓曲率最大的两点的连线确定。然后,取模板图像中心的坐标(xi,yi)为模板图像的全局位置信息。然后,取模板图像的对角线与手指X轴的夹角θi为全局方向信息。其中,可参看图2E所示,模板图像的对角线为经过模板图像中心的虚线。
在确定属性信息的又一种可选的实施方式中,步骤S104可以包括:根据模板对象的轮廓信息、位置信息、运动学信息中至少一种形态特征信息,确定模板对象的习惯姿态信息;将模板对象的习惯姿态信息作为模板图像的属性信息。其中,模板对象的习惯姿态信息,包括以下至少一种:模板对象的全局方向信息,模板对象的速度或者速度等级,模板对象的移动方向,模板对象的移动轨迹。举例来说,模板对象的全局方向信息包括以下至少一种:顶端向左倾斜,顶端向右倾斜。
举例来说,模板对象为指纹,模板对象的形态特征信息可以为模板对象的运动学信息,例如,移动速度低于0.01米/秒、全局方向信息为顶端向左倾斜等。可以将模板对象的移动速度和全局方向信息作为模板图像的属性信息。S105,将模板图像和模板图像的属性信息,加入图像数据库。
其中,图像数据库中可以存储至少一个模板图像以及各个模板图像的属性信息,此外,图像数据库中还可以存储各个模板图像对应的模板对象对应的对象标识或者实体标识或者使用权限等对象信息。
表1为图像数据库中存储数据的一种示意。
表1
Figure RE-GDA0002765785390000121
Figure RE-GDA0002765785390000131
其中,使用权限可以是解锁屏幕、开机、登录系统、以实体标识对应的账户信息登陆某一应用(Application,APP)、实体标识对应的应用或者数据的其他使用权限等的中一种或多种使用权限,可参见表1中的示例,本申请对此不做限制。
采用本申请实施例的技术方法构建图像数据库,能够提供模板图像和模板图像对应的属性信息,之后,可以根据模板图像的属性信息筛选与待识别图像的属性信息满足属性信息相似度条件的模板图像,在筛选后的模板图像中查询与待识别图像相匹配的目标模板图像,能够提高图像匹配的消息。
实施例二
下面对识别阶段的实施方式进行示例性说明。
本申请实施例提供图像匹配方法的识别阶段的一种可选的实施方式。
图3A为本申请实施例提供的图像匹配方法的识别阶段的流程示意图。如图3A所示,识别阶段的步骤可以包括:
S201,获取待识别图像。
其中,待识别图像为待检测对象的图像。以待检测对象为用户手指的指纹部为例,待识别图像可以为指纹图像。获取待识别图像的方式与获取模板图像的方式类似,可参看步骤S101中的相关说明。
S202,获取待检测对象的形态特征信息。
其中,获取待检测对象的形态特征信息的方式与获取模板对象的形态特征信息的方式类似,可参看步骤S102中的相关说明。
S203,根据待检测对象的形态特征信息,确定待识别图像的属性信息。
其中,该步骤的实施方式与步骤S103类似,可参看S103中的相关说明。
S204,根据待识别图像的属性信息,对至少一个模板图像进行筛选。
其中,筛选后的模板图像的属性信息与待识别图像的属性信息之间满足属性相关性条件。
在本申请实施例中,各个模板图像的属性信息可以为采用实施例一中提及的任一方法获得的。本申请实施例还可以采用其他实施方式录入模板图像的属性信息。例如,在采集模板图像的同时,电子设备可以提示用户在电子设备的输入设备中选择或者输入各个模板图像对应的属性信息。在一示例中,可以电子设备的图形用户界面中提示用户输入右手大拇指的指纹,并将采集到的指纹图像和对应的属性信息“右手大拇指”添加到图像数据库中。在另一示例中,还可以提示用户录入全局位置信息为边缘区域的模板图像,并将采集到的指纹图像和对应的属性信息“边缘区域”添加到图像数据库中。本申请对此不做限制。
在本申请实施例中,待识别图像的属性信息的数量为可以为一种或多种。当待识别图像的属性信息为至少两种时,上述步骤S204可以包括:根据待识别图像的至少两种属性信息以及各个属性信息的权重,对至少一个模板图像进行筛选。举例来说,可以选择属性信息的相似度较高的模板图像。
示例性地,属性信息的相似度可以根据如下公式计算:
属性信息相似度百分比=权重1*两图像相似度百分比-权重2*两图像全局位置信息的距离-权重3*两图像全局方向信息的差值
需要说明的是,在一些场景中,也可以将权重2、权重3设置为0
在本申请实施例中,针对不同的属性信息,步骤204中的属性相关性条件可以包括以下一种实施或多种实施方式的组合。
在属性相关性条件的一种可选的实施方式中,在待识别图像的属性信息包括待识别图像对应的对象类型时,筛选后的模板图像对应的对象类型可以与待识别图像对应的对象类型相同。举例来说,待检测对象的形态特征信息可以为待识别的指纹部的轮廓信息,根据待检测对象的轮廓信息可以确定待检测对象的对象类型为左手手指,之后,将对象类型作为待识别图像的属性信息,先在图像数据库中筛选对象类型为左手手指的模板图像。
在属性相关性条件的另一种可选的实施方式中,在待识别图像的属性信息包括待识别图像对应的姿态信息时,筛选后的模板图像对应的习惯姿态信息可以与待识别图像对应的习惯姿态信息相同。举例来说,举例来说,待检测对象为指纹,待检测对象的形态特征信息可以为待检测对象的运动学信息,例如,移动速度低于0.01米/秒、全局方向信息为顶端朝左。可以将待检测对象的移动速度和全局方向信息作为待识别图像的属性信息,在图像数据库中筛选对应的移动速度为低于0.01米/秒、全局方向信息为顶端朝左的模板图像,然后在筛选后的模板中查询相匹配的目标模板图像。在属性相关性条件的又一种可选的实施方式中,在待识别图像的属性信息包括待识别图像对应的全局位置信息时,筛选后的模板图像对应的全局位置信息与待识别图像对应的全局位置信息满足位置临近条件。
其中,位置临近条件可以包括:筛选后的模板图像对应的全局位置信息所表示的位置包含待识别图像对应的全局位置信息所表示的位置,或者,筛选后的模板图像对应的全局位置信息所表示的位置与待识别图像对应的全局位置信息所表示的位置存在交集,或者,筛选后的模板图像对应的全局位置信息所表示的位置与待识别图像对应的全局位置信息所表示的位置之间的距离小于邻近区域距离阈值。
举例来说,待识别图像的属性信息包括对象类型和全局位置信息,待识别图像的对象类型为左手食指,待识别图像在待检测对象的轮廓信息中的区域位置标识为区域1,则可以从至少一个模板图像中筛选出一组模板图像,筛选出的模板图像的对象类型为左手食指,且模板图像在对应的模板对象的轮廓信息中的区域位置标识为区域2,其中,区域 2包含区域1,或者,区域2与区域1存在交集,或者,区域2与区域1之间的距离小于邻近区域距离阈值。
在实际应用的一种示例中,若待检测对象为待识别的指纹部,图像采集装置采集的待识别图像为用户手指按压在指纹采集区域内的指纹图像,可称为局部图像或者局部拓扑。待检测对象的形态特征信息可以为待检测对象的轮廓信息,可称为全局图像或者全局拓扑;根据待检测对象的轮廓信息和指纹采集区域的位置可以确定局部图像在全局图像中的全局位置信息。示例性地,可参看图1D所示,全局图像可以为右手拇指对应的椭圆图形,局部图像可以位于椭圆图形的长轴中轴线的左侧,即图中Y轴的左侧。之后,将待识别图像在待检测对象的轮廓信息中对应的全局位置信息作为待识别图像的属性信息,对图像数据库中的众多模板图像进行筛选。示例性地,可以筛选全局位置信息为位于长轴中轴线左侧的模板图像,并在筛选出的模板图像中查询与待识别图像相匹配的目标模板图像。
在实际应用中又一种实施例中,可参看图1A所示,待识别图像的属性信息可以包括待识别图像在待检测对象的完整轮廓中的全局位置信息,在一示例中,待识别图像对应的该属性信息的属性值可以为“边缘区域”,则可以在模板图像中筛选出相应属性信息为“边缘区域”的模板图像,并在筛选出的模板图像中查询与待识别图像相匹配的目标模板图像。
在实际应用中另一种实施例中,当位置邻近条件为筛选后的模板图像对应的全局位置信息所表示的位置与待识别图像对应的全局位置信息所表示的位置之间的距离小于邻近区域距离阈值时。可以根据待识别图像的全局位置信息推断其所属的大致区域,之后,筛选对应的全局位置信息位于推断的所属大致区域中模板图像,并在筛选出的模板图像中查询与待识别图像相匹配的目标模板图像。所属大致区域可以称为推断区域或者推断模板区域。
图3B为本申请实施例中推断大致区域的示意图。如图3B所示,示例性地,可以取待识别指纹图像的中心的坐标为推测的大致区域的中心,将该中心周围预设半径内的区域确定为大致区域,如图3B中虚线所示的圆形区域。举例来说,计算模板库中模板图像的中心位置与当前待识别指纹的中心位置的欧式距离,在距离小于指定半径时,可判定该模板图像位于所属大致区域。基于这一判断原则,图3B中与待识别图像相邻的两个模板图像属于推断区域内,而中心为(xk,yk)的模板图像则不在推断区域内。在本申请实施例中,该大致区域还可以是以待识别指纹图像在指纹轮廓中的全局位置为中心的其他固定形状的区域。其中,固定形状例如可以是正六边形、椭圆、长方形等。
S205,在筛选后的模板图像中,查询与待识别图像相匹配的目标模板图像。
其中,与待识别图像相匹配的目标模板图像可以为与待识别图像的图像相似度达到相似度阈值的目标模板图像。
在本申请实施例中,步骤S205在筛选后的模板图像中,查询与待识别图像相匹配的目标模板图像,可以包括:将筛选后的模板图像与待识别图像进行相似度比较,将相似度大于相似度阈值的模板图像作为相匹配的目标模板图像。在一示例中,当筛选后的模板图像的数量为多个时,在进行相似度比较之前,还可以按照筛选后的模板图像的历史匹配成功率由高到低对筛选后的模板图像进行排序,然后,按照顺序逐个对筛选后的模板图像和待识别图像进行相似度比较。
在本申请实施例中,利用待识别图像的一种或多种属性信息,对图像数据库中的模板图像进行筛选,并在筛选后的模板图像中,查询与待识别图像相匹配的目标模板图像能够提供图像匹配的效率。
在本申请实施例中,在步骤S204得到的筛选后的模板图像的数量为0,或者,步骤S205 在筛选后的模板图像中,未查询到与待识别图像相匹配的目标模板图像时,在步骤S205 之后,还可以包括步骤S206。
S206,在至少一个模板图像中除筛选后的模板图像的其他模板图像中,查询与待识别图像相匹配的目标模板图像。
在一示例中,可以按照历史匹配成功率由高到低对上述其他模板图像进行排序,然后,按照顺序对各个其他模板图像和待识别图像进行相似度比较。
采用步骤S206时,可以当在筛选后的模板图像中未查询到相匹配的目标模板图像时,继续在图像数据库中的其他模板图像中查询相匹配的目标模板图像,提高图像识别的成功率。
举例来说,在实际应用中,图3C为本申请实施例中模板匹配的示意图。如图3C中分支1 所示,首先,将全局模板库中属于推断手指类型且位于推断的大致区域内的模板三元组,示例性地,如图3C中全局位置信息为(xj,yj)的模板三元组,与当前按压所提取的待识别图像进行匹配。其中,该范围内的匹配顺序可依据历史统计排序信息决定,匹配公式可按前述实施方式中S204中给出的属性信息相似度计算公式计算。若相似度百分比大于相似度匹配成功阈值,则在推断手指类型和推断区域内匹配成功,更新历史统计排序信息,在输出设备中提示用户指纹识别成功;若在推断手指类型和推断模板区域内的模板图像中匹配失败,可以分两种策略进行后续流程。
在实际应用中,上述筛选及筛选后的匹配过程的匹配策略有多种方式。表2为匹配策略的一组示意。
表2
Figure RE-GDA0002765785390000161
其中,推断手指类型即根据待识别对象的形态特征信息确定的待识别对象的手指左右手类型和手指类型,推断模板区域为根据待识别图像在待检测对象的轮廓信息中的全局位置信息确定的所属大致区域。在优先匹配推断手指类型及推断模板区域的模板图像,但匹配失败后可以采用第一种策略或者第二种策略。
在第一种策略的示例中,可以尝试与非推断手指类型下的推断模板区域的模板图像进行匹配,若仍然失败,则进入第二种策略或者尝试与非推断手指类型下非推断模板区域的模板图像进行匹配。若该阶段匹配成功,则更新历史统计排序信息并进入在输出设备中提示用户指纹识别成功。其中,该范围内的匹配顺序仍可依据历史统计排序信息决定。
在第二种策略的示例中,可以尝试与推断手指类型下的非推断模板区域的模板图像进行匹配,若仍然失败,则进入第一种策略或者尝试与非推断手指类型下非推断模板区域的模板图像进行匹配。若该阶段匹配成功,则更新历史统计排序信息并进入在输出设备中提示用户指纹识别成功。其中,该范围内的匹配顺序仍可依据历史统计排序信息决定。需要说明的是,若先执行第一种策略,再执行第二种策略,则在执行第二种策略后若仍然识别失败,则直接进入尝试与非推断手指类型下非推断模板区域的模板图像进行匹配。
在本申请实施例中,在步骤S205或者S206之后,匹配识别阶段的步骤还可以包括步骤S207、S208。
S207,在查询到与待识别图像相匹配的目标模板图像时,获取目标模板图像对应的模板实体标识和/或使用权限。
S208,在未查询到与待识别图像相匹配的目标模板图像时,确定待识别图像对应的待检测对象不具有使用权限。
其中,模板实体标识可以为用户身份信息,使用权限可以是解锁屏幕、开机、登录系统、登录APP等。
在本申请实施例中,为了进一步提升图像匹配的成功率。在录入阶段,还可以根据模板图像对应的全局位置信息,来尽量保证对模板对象采集足够的模板图像。例如,可以在采集模板图像时,采集覆盖模板对象的边缘部分的模板图像,或者,通过对模板对象采集多个模板图像,来保证模板对象对应的多个模板图像能够覆盖模板对象的轮廓信息。在本申请其他实施例中将进行详细说明。
在本申请实施例提供的图像匹配方法中,通过待检测对象的形态特征信息确定待识别图像的属性信息,并根据待识别图像的属性信息对至少一个模板图像进行筛选,然后,在筛选后的模板图像中查询与待识别图像相匹配的目标模板图像,能够提升图像匹配的效率。
实施例三
本申请实施例还提供图像匹配方法的录入阶段的一种可选的实施方式。其中,在录入阶段,采集模板图像以及模板对象的形态特征信息,并根据模板对象的形态特征信息确定模板图像的属性信息,之后,在识别阶段,可以不限定在采集待识别图像时必须采集待检测对象的形态特征信息。
举例来说,在识别阶段,一种方式是既获取待识别图像,也获取待检测对象的形态特征信息,然后,根据由待检测对象的形态特征信息确定的待识别图像的属性信息对至少一个模板图像进行筛选。另一种方式,可以仅获取待识别图像,当仅获取待识别图像时,可以不对模板图像进行筛选,直接在模板图像的全集中查询与待识别图像相匹配的目标模板图像。
需要说明的是,在录入阶段,将模板图像和模板图像对应的属性信息加入图像数据库时,可以对每种属性信息采集具有该属性信息的各种取值的模板图像。采用这种方式,可以采集尽可能丰富的模板图像,进而能够提高图像识别的成功率。
下面以形态特征信息为轮廓信息为例,进行示例性说明。
图4为本申请实施例提供的图像匹配方法的流程示意图二。如图4所示,本申请实施例的步骤可以包括:
S401,获取模板对象的至少一个第一模板图像。
其中,可以通过图像采集装置采集模板对象的至少一个第一模板图像
S402,获取模板对象的轮廓信息。
其中,可以通过触控装置获取模板对象的轮廓信息,模板对象的轮廓信息用于确定至少一个第一模板图像在模板对象的轮廓信息中的区域位置标识。
在本申请实施例中,举例来说,模板对象可以为第一模板对象,例如,用户1的右手食指的指纹部。采集模板图像的方式、获取模板对象的轮廓信息的方式,以及确定区域位置标识的方式,可参见本申请其他实施例中的描述。
S403,根据模板对象的轮廓信息确定各个第一模板图像在模板对象的轮廓信息中的区域位置标识。
在本申请实施例中,确定区域位置标识的方式,可参见本申请其他实施例中的描述。
S404,在至少一个第一模板图像对应的区域位置标识的集合未满足覆盖条件时,采集模板对象的第二模板图像。
其中,至少一个第一模板图像和第二模板图像用于查询与待识别图像相匹配的目标模板图像。
在本申请实施例中,上述覆盖条件可以包括:覆盖模板对象的至少一个局部区域;覆盖模板对象的边缘区域超过预设覆盖比例的边缘覆盖条件,或者,覆盖模板对象的轮廓信息超过预设覆盖比例的全局覆盖条件。在一示例中,预设覆盖比例可以是50%、90%等。
图5A为本申请实施例提供的图像匹配方法中边缘区域的模板图像的位置示意图。如图5A所示,例如,可以检查已采集到的模板图像是否覆盖了模板对象的边缘区域,或者,是否完整覆盖了模板对象的全部区域。当未采集到足够的模板图像时,可以提示用户继续采集未覆盖区域的模板图像。采用这种方式能够提高图像匹配的成功率。
在其他一些实施例中,在步骤S404之前,本申请实施例的步骤还可以包括:
S405,根据至少一个第一模板图像对应的区域位置标识的集合和覆盖条件,确定补采区。
其中,补采区可以为至少一个第一模板图像未满足覆盖条件的区域。例如,覆盖条件为覆盖中心区域和第一边缘区域,至少一个第一模板图像仅覆盖中心区域,则补采区可以为第一边缘区域。
S406,输出提示信息,提示信息用于提示录入包含补采区的模板对象的第二模板图像。
在实际应用中,举例来说,图像采集装置可以为指纹传感器;触控装置为电子设备中的触摸屏;指纹传感器设置于触摸屏靠近电子设备的本体的一侧,可参看图1C所示。输出提示信息可以通过触摸屏提示,也可以通过音响等装置提示。
图5B为本申请实施例提供的图像匹配方法的应用场景的示意图三。在实际应用中,如图5B所示为用户在指纹录入系统的指纹录入界面上录入指纹。若已经采集该手指的一个或多个指纹,但已采集的指纹图像没有覆盖到指纹轮廓的左侧边缘时,可以在触摸屏上显示提示信息“已采集指纹未覆盖指纹轮廓的左侧边缘,请您旋转手指,继续录入指纹”。
需要说明的是,步骤S405和S406不是本申请实施例必须执行的步骤。
在步骤S403之前,本申请实施例的步骤还可以包括:通过姿态传感器采集电子设备的三维姿态信息,之后,可以根据利用触控装置获取的模板对象的轮廓信息修正各个第一模板对象在模板对象的轮廓信息中的区域位置标识。可参看本申请其他实施例中的详细描述。
在实际应用中,举例来说,在模板图像的录入阶段的步骤可以包括:对第一模板对象采集第P-1个模板图像和第P-1个模板图像对应的第一模板对象的第P-1个轮廓信息;其中,P 可以为大于或者等于2的整数。根据第P-1个轮廓信息确定第P-1个模板图像在第P-1个轮廓信息中的区域位置标识。若第一模板对象的第1个至第P-1个模板图像对应的第1个至第 P-1个区域位置标识的集合未能满足全局覆盖条件。可以继续对第一模板对象采集第P个模板图像和第P个模板图像对应的第一模板对象的第P个轮廓信息。若第1个至第P个模板图像对应的第1个至第P个区域位置标识的结合仍未能满足全局覆盖条件,还可以继续对第一模板对象采集第P+1个模板图像和第P+1个模板图像对应的第一模板对象的第P+1个轮廓信息。当已采集的第一模板对象的模板图像对应区域位置标识的集合达到全局覆盖条件时,可以结束录入。采用这种方式得到的图像数据库中可以至少包括第一模板对象的P个模板图像。需要说明的是,获取相对应的第一模板图像的时刻与获取第一模板对象的轮廓信息的时刻之间的时间差值小于预设的时间偏差阈值;示例性地,可以同时获取相对应的第一模板图像以及获取第一模板对象的轮廓信息。
采用本申请实施例提供的图像匹配方法,可以在模板图像的录入阶段,采集尽量充分的模板图像,例如,采集包含边缘区域的模板图像,或者,通过采集多张模板图像以覆盖模板对象的轮廓信息,即构建全局指纹模板库,从而可以避免由于待识别图像为位于待检测对象的边缘位置或者某些特殊位置的图像时导致的识别失败的问题。
实施例四
在实际应用中,举例来说,图像数据库中可以存储每个模板图像对应的模板三元组,示例性地,模板三元组可以包括模板图像、全局位置信息和上述用户姿态信息中的全局方向信息。其中,全局位置信息可以简称为模板位置,全局方向信息可以简称为模板方向。
在本申请实施例中,在录入阶段,可以多次执行步骤S101至S105,以录入多个模板图像以及模板图像的属性信息。其中,对于一个对象标识采集多个模板图像和对应的属性信息时,还可以设置停止录入条件。下面对录入阶段的处理流程进行示例性说明。
本申请实施例提供的技术方案可应用于指纹识别技术领域,指纹识别技术是一种生物特征识别技术,生物特征识别可以通过传感器设备将生物特征捕获为数字信号。本申请实施例提供的图像匹配方法可以用于提供指纹识别系统。指纹识别系统可以为包括指纹图像获取、预处理、特征提取、比对等模块的模式识别系统,可用于需要人员身份确认的场所,例如手机解锁、笔记本解锁、移动支付、银行内部处理、门禁系统及考勤系统等场景。可参看图1C,在智能终端设备上部署指纹识别系统时,可以将指纹识别器设置在屏幕下面,识别器透过屏幕对用户的指纹进行信息采集和匹配识别。指纹识别器可结合光学识别、电容识别以及超声波识别等多种方式来进行。屏下指纹识别技术主要采用屏下光学指纹识别和屏下超声波识别。
与前述实施例所示方法类似,本申请实施例提供的图像匹配方法可以包括:指纹录入阶段和指纹识别阶段。
其中,指纹录入阶段可以针对用户手指构建全局指纹模板库。全局指纹模板库可简称为全局模板库,指纹模板图像可简称为指纹模板。全局模板库可以包含每份指纹模板的属性信息。示例性地,每份指纹模板的属性信息可以包括每份指纹模板在用户手指整体指纹中的全局位置信息和全局方向信息、模板库对应的全局指纹轮廓以及对应的手指类型,例如:左右手、拇指、食指及中指等。
全局指纹模板库可以包括指纹图像和指纹图像对应的属性信息,一组指纹图像和指纹图像对应的属性信息可以称为一个指纹模板,每个指纹模板可以包括指纹图像、全局位置信息、全局方向信息,也可以称为指纹模板三元组。
需要说明的是,利用捕获的触控信号序列、姿态传感器数据,一方面,能够估计出当前录入手指的轮廓和类型信息。另一方面,根据轮廓信息、指纹图像采集器相对于触控屏的硬件位置信息以及屏幕触控点阵的像素信息,可以估计出被捕获指纹图像在手指整体指纹中的全局位置信息、全局方向信息。
图6为本申请实施例提供的图像匹配方法中指纹录入阶段的处理流程的示意图。
如图6所示,在实际应用中,录入阶段的处理流程可以包括:
第一步,提示用户在指定区域录入指纹。
其中,若为录入开始阶段,可以将全局指纹模板库及其对应的指纹轮廓和类型设置为空。若全局指纹模板库中已经存储有该手指的指纹模板,则根据设备存储区中模板库的现有信息,判断目前还需用户录入的指纹区域,并以图像展示的形式在显示装置上提示用户录入手指指定区域的指纹。可参看图5B所示的图形用户界面的示意。
第二步,捕获指纹图像和触控信号。
其中,指纹认证系统可以在收到触控信号后分别获取指纹图像、触控信号序列及姿态传感器数据。该步骤的实施方式可参看步骤S101和S102中的相关说明。
第三步,提取模板图像,并确定手指轮廓、类型。
其中,使用第二步获取的多帧触控信号以及姿态传感器数据等信息,估计当前录入手指的轮廓和类型。该步骤的实施方式可参看步骤S103中根据触控信号确定形态特征信息以及 S104根据形态特征信息的属性信息的相关说明
第四步,确定模板三元组,其中包括模板图像、模板位置、模板方向。
其中,根据提取的模板图像对应的触控信号,定位指纹模板在手指轮廓中的全局位置信息和方向信息。举例来说,在推断出录入手指轮廓后,每个录入指纹模板均可以根据屏幕触控点阵的像素位置信息和指纹传感器采集区域在屏幕上的绝对位置信息,计算出采集的指纹模板在手指轮廓中的全局位置信息和全局方向信息。可参看图1D所示,示例性地,可以基于指纹部的轮廓确定参考坐标系,然后在参考坐标系中标识采集的指纹模板在手指轮廓信息中的区域位置标识、全局方向信息等。该步骤的实施方式可参看步骤S104中确定模板图像在模板对象的轮廓信息中的全局位置信息的详细说明。
第五步,判断当前模板三元组是否已存在于全局模板库,若是,执行第一步,若否,执行第六步。
其中,将提取的模板图像与全局模板库中模板图像进行属性信息的相似度比较,来判断提取的模板图像是否存在于全局模板库。示例性地,属性信息的相似度可以根据如下公式计算:
属性信息相似度百分比=权重1*两图像相似度百分比-权重2*两图像全局位置信息的距离-权重3*两图像全局方向信息的差值
需要说明的是,在一些场景中,也可以将权重2、权重3设置为0。
第六步,将当前模板三元组加入全局模板库。
其中,以指纹模板图像信息、全局位置信息、全局方向信息为三元组存入全局指纹模板库,更新手指编号、类型并丰富全局手指轮廓。
举例来说,将从当次录入提取出的指纹图像信息、全局位置信息和全局方向信息合并为三元组,与现有指纹全局模板库中存在的模板进行相似度比对。若相似度大于某阈值,则判断当前提取的模板三元组已在全局模板库中。此时,可以根据提取的模板全局位置信息判断用户录入的指纹位置是否为第一步要求的录入区域,如果不满足录入区域的要求,则请求用户再次录入要求的区域,并转入第一步。若相似度小于或者等于某阈值,则判断当前提取的模板三元组是否不存在于已构建的全局指纹模板库中,若不存在,将其加入全局指纹模板库,并使用当前录入提取到的手指轮廓和类型更新当前全局指纹模板库对应的手指轮廓的覆盖程度信息和类型。在一示例中,可以将指纹模板图像信息、全局位置信息、全局方向信息为三元组存入全局指纹模板库,并更新手指编号、类型并丰富全局手指轮廓的覆盖程度信息。需要说明的是,当本次录入为第一次录入时,可以使用当前录入提取到的手指轮廓和类型更新当前全局指纹模板库对应的手指轮廓和类型。若为第一次录入,由于第一次录入时全局模板库为空,可以跳过第五步的比对步骤。
第七步,判断是否结束录入,若不结束,转入第一步。
其中,可以采用判断全局模板库是否完整,或者,判断录入次数是否达到录入次数上限,或者,组合判断的方式来判断是否结束录入。
举例来说,可以判断录入次数是否满足录入次数上限。若满足录入次数上限,则提示用户指纹录入完成。若未达到录入次数上限,根据已保存指纹模板库中的全局位置信息判断部分区域的模板信息是否缺失较多,例如,可以判断覆盖轮廓信息的覆盖百分比是否低于预设的覆盖比例阈值。若缺失较多,则确定全局指纹模板库仍不完整,输出提示信息,提示用户录入缺失区域的指纹。若部分区域的模板信息不缺失或者缺失较少,可以进一步判断全局手指轮廓内的模板信息是否满足预设的模板数量阈值。若模板数量未达到模板数量阈值,则全局指纹模板库仍不完整,可以进一步提示用户录入模板数量较少的区域。若模板数量达到模板数量阈值,则可以确定全局指纹模板库已构建完成,为当前录入手指编号并绑定其相应的全局指纹轮廓和类型,提示用户指纹录入完成。示例性地,可以将指纹轮廓划分为若干区域,例如,中心区域和边缘区域,每个区域的模板数量不小于1张。
在一种可选的实施方式中,示例性地,指纹识别阶段的主要过程包括:首先,推断当前待识别的指纹的属性信息。示例性地,指纹的属性信息可以包括指纹所属手指类型及在全局指纹模板库中的大致区域。然后,将指纹模板三元组中的全局位置信息和全局方向信息,与推断的轮廓结合,估计出当前待识别指纹在全局模板库中的大致区域。然后,在指纹匹配阶段,优先匹配推断手指类型的模板图像和推断的模板大致区域内的模板图像。借助于全局模板库中已保存的手指类型信息和各个模板图像的全局位置信息,在推断出当前待识别指纹所属手指的类型和全局位置信息所属大致区域后,即可筛选出全局模板库中手指类型相符合、全局位置信息位于推断大致区域内的模板三元组,将筛选出的至少一个模板三元组与当前待识别指纹的三元组进行优先匹配,能够实现精准匹配,从而提升指纹识别的速度。
采用本申请实施例提供的技术方案,若当前按压的指纹属于模板库中手指的指纹,通过该手段,可在短时间内完成指纹的匹配过程,加速屏下指纹识别过程,提升用户体验。
图7为本申请实施例提供的图像匹配方法中指纹识别阶段的处理逻辑的示意图。
如图7所示,在实际应用中,识别阶段的处理流程可以包括:
第一步,获取待识别指纹图像和触控信号。
其中,该步骤类似于指纹录入阶段的第二步。指纹认证系统在收到触控信号后,判断是否为手指按压,若为手指按压,则获取当前按压过程产生的指纹图像、触控信号序列以及额外的姿态传感器数据。
第二步,提取待识别指纹图像,并确定当前手指轮廓、类型。
其中,类似于指纹录入阶段的第三步。根据多帧触控信号和姿态传感器数据,估计当前录入手指的轮廓和类型。根据触控信号定位待识别指纹图像在手指轮廓中的全局位置信息和全局方向信息。
第三步,推断待识别指纹图像三元组以及所属大致区域。
其中,该步骤可参看步骤。
第四步,优先匹配推断手指及推断区域的模板图像。
第五步,判断在推断手指类型或者推断区域的模板图像中是否均未匹配成功,若否,执行第六步,若是,确认认证成功。
其中,在推断手指类型或者推断区域的模板图像中均未匹配成功时,有可能是推断手指类型或者推断的大致区域不准确导致匹配不成功,此时,后续还可以匹配全局模板库中的其他模板图像。
第六步:按历史统计排序信息匹配全局模板库的其他模板图像。
第七步,判断在全局模板库的其他模板图像中是否匹配成功,若否,确认认证失败,若是,确认认证成功。
其中,在认证成功后,指纹识别系统可以更新历史统计排序信息,提示用户指纹识别成功,在认证识别时,可以提示用户指纹识别失败。
举例来说,在全局指纹模板库中,每个指纹模板均对应有相应的手指类型和全局位置信息、全局方向信息等信息。首先,根据第二步中推断的当前按压手指类型,将优先匹配范围限制为全局模板库中手指类型为推断手指的模板图像。其次,通过计算全局模板库中保存的模板三元组中全局位置信息与当前待识别指纹的三元组位置信息之间的某种距离度量,判断全局模板库中的模板图像是否位于第三步推断的当前待识别指纹所属大致区域。在一示例中,若距离度量值小于第三步的详细描述中指定的半径,则判断该模板图像位于该大致区域之内。进而,在进行模板匹配时,优先匹配属于该大致区域的模板图像。
需要说明的是,此处优先匹配推断手指类型及推断区域可以采用如下两种情形的匹配流程:
一示例中,先执行第四步优先匹配推断手指类型的推断区域的模板图像,其次匹配推断手指类型的非推断区域的模板图像,再匹配非推断手指类型的推断区域的模板图像,最后转入第五步,根据历史统计排序信息匹配非推断手指类型的非推断模板区域。若在其中任何一步匹配成功则终止匹配。
在另一示例中,先执行第四步优先匹配推断手指类型的推断区域的模板图像,其次匹配非推断手指类型的推断区域的模板图像,再匹配推断手指类型的非推断模板区域,最后转入第五步,根据历史统计排序信息匹配非推断手指类型的非推断模板区域;若在其中任何一步匹配成功则终止匹配。
采用优先基于置信度较高的推断手指类型以及推断区域的模板图像进行匹配的方式,由于大多数指纹识别过程均可在第四步中成功认证,因而能够尽量避免后续匹配其他模板图像的过程,可有效加速受信指纹的识别速度,提升指纹认证的速度,并能够一定程度地降低功耗。
基于上述指纹录入阶段和指纹匹配识别阶段的技术方案,本申请实施例提供的图像匹配方法,能够解决指纹识别场景中的多种技术问题。
一方面,在指纹录入阶段,建立手指的全局指纹模板库,能够避免由于模板不全导致识别失败或者识别效率低问题。指纹模板库主要用于在用户使用指纹认证时,判断按压指纹是否存在于模板库中,或者,与模板库中的模板图像的相似度足够高,即前述实施例提到的按照图像相似度进行匹配的过程。
在指纹录入阶段为受信任的用户保存足够充分的指纹模板库,能够提升后期指纹识别阶段用户的解锁精度,并且有助于后期指纹识别阶段中快速定位模板库中与捕捉到的指纹图像相关的模板图像。例如,相对于模板库中的信息仅包含从每次录入指纹图片中提取的局部图像信息(或者称为局部拓扑),并不包含指纹图像(或者称为局部指纹)在录入手指指纹(或者称为全局指纹)中的绝对位置信息(或者称为全局拓扑)的情况,本申请实施例提供的方法能够快速进行模板图像的筛选和匹配,从而提高匹配的效率。又如,本申请实施例提供的技术方案能够帮助指纹系统判断当前构建的模板库是否足够充分以使得用户能够有效地解锁,例如,模板库是否包含用户的边缘指纹。
另一方面,在指纹识别阶段,通过对模板图像进行筛选,能够解决由于模板图像较多,导致匹配速率较低的问题。特别的是,通过快速定位捕获的指纹图像在全局指纹模板库中的位置,能够减少需要判断是否相匹配的模板图像的数量,从而提升匹配的效率,同时,基于全局模板库成功率。其中,例如,在指纹认证时,主要是认证速度和准确度影响用户的体验。本申请实施例提供的技术方案快速地精准定位指纹图像在指纹模板库中的位置以进行迅速地匹配,从而加速指纹识别速度。此外,借助于全局拓扑下的指纹模板库,可以尽可能地最大化指纹识别准确度,避免用户的边缘指纹被指纹识别系统拒认。
此外,本申请实施例提供的基于手指按压屏幕的触控信号来加速屏下指纹识别的方案,不需要增加专门用于图像处理的硬件模块,就能够提升屏下指纹识别速度和解锁精度。另外,由于识别时匹配多项属性信息,例如,模板匹配成功需同时保证指纹图像信息、全局位置信息和全局方向信息的相似度均高于一定阈值,即使用三元组信息进行匹配,因此,本申请实施例提供的技术方案还能够在不影响用户体验的前提下,提升屏下指纹识别的安全性。
实施例五
本申请实施例提供的图像匹配方法可以部署于具有图像采集装置的电子设备。
在一示例中,电子设备可以包括如下部件:输入单元、处理器单元、通信单元、存储单元、输出单元及电源等电子设备。
其中,输入单元包括指纹图像采集器、姿态传感器以及触控面板。指纹图像采集器包括能提取指纹信息的传感器,但不限于电容式指纹传感器、光学指纹传感器亦或是超声波式指纹传感器。姿态传感器是基于MEMS技术的高性能三维运动姿态测量系统。它包含三轴陀螺仪、三轴加速度计,三轴电子罗盘等运动传感器。该传感器主要用来捕获触控面板的姿态信息,在实际屏下指纹识别系统中,该设备为可选设备。触控面板也称为触摸屏或触控屏,可收集用户在其上触摸或接近的操作动作。比如用户使用手指、触笔等任何适合的物体或附件在触控面板上或接近触控面板的位置的操作动作,并根据预先设定的程式驱动相应的连接装置。可选的,触控面板可包括触摸检测装置和触摸控制器两个部分。其中,触摸检测装置检测用户的触摸操作,并将检测到的触摸操作转换为电信号,以及将电信号传送给触摸控制器;触摸控制器从触摸检测装置上接收电信号,并将它转换成触点坐标,再送给处理单元。触摸控制器还可以接收处理单元发来的命令并执行。此外,可以采用电阻式、电容式、红外线 (Infrared)以及表面声波等多种类型实现触控面板。
处理器单元为电子设备的控制中心,利用各种接口和线路连接整个电子设备的各个部分,通过运行或执行存储在存储单元内的软件程序和/或模块,以及调用存储在存储单元内的数据,以执行电子设备的各种功能和/或处理数据。处理器单元可以由集成电路(Integrated Circuit,简称IC)组成,例如可以由单颗封装的IC所组成,也可以由连接多颗相同功能或不同功能的封装IC而组成。举例来说,处理器单元可以仅包括中央处理器(Central Processing Unit,简称CPU),也可以是GPU、数字信号处理器(Digital SignalProcessor,简称DSP)、及通信单元中的控制芯片(例如基带芯片)的组合。本实施中,处理器单元主要用来运行指纹录入、识别系统。
通信单元用于建立通信信道,使电子设备通过通信信道以连接至远程服务器,并从远程服务器下媒体数据。
输出单元包括但不限于影像输出单元和声音输出单元。影像输出单元用于输出文字、图片和/或视频。影像输出单元可包括显示面板,例如采用LCD(Liquid CrystalDisplay,液晶显示器)、OLED(Organic Light-Emitting Diode,有机发光二极管)、场发射显示器(field emission display,简称FED)等形式来配置的显示面板。或者影像输出单元可以包括反射式显示器,例如电泳式(electrophoretic)显示器,或利用光干涉调变技术(Interferometric Modulation of Light) 的显示器。影像输出单元可以包括单个显示器或不同尺寸的多个显示器。在本发明的具体实施方式中,上述输入单元所采用的触控面板亦可同时作为输出单元的显示面板。例如,当触控面板检测到在其上的触摸或接近的手势操作后,传送给处理单元以确定触摸事件的类型,随后处理单元根据触摸事件的类型在显示面板上提供相应的视觉输出。
存储单元可用于存储软件程序以及模块,处理单元通过运行存储在存储单元的软件程序以及模块,从而执行电子设备的各种功能应用以及实现数据处理。
电源用于给电子设备的不同部件进行供电以维持其运行。示例性地,电源可以是内置的电池,例如常见的锂离子电池、镍氢电池等,也包括直接向电子设备供电的外接电源,例如 AC适配器等。
实施例六
本申请实施例还提供一种图像匹配装置。图8为本申请实施例提供的图像匹配装置的结构示意图一。如图8所示,本申请提供一种图像匹配装置1000,包括:
确定模块1001,用于根据待检测对象的形态特征信息,确定待识别图像的属性信息,其中,待识别图像用于识别待检测对象;
匹配模块1002,用于根据待识别图像的属性信息,对至少一个模板图像进行筛选,其中,筛选后的模板图像的属性信息与待识别图像的属性信息之间满足属性相关性条件;以及,在筛选后的模板图像中,查询与待识别图像相匹配的图像。
在一种可选的实施方式中,装置1000还可以包括:获取模块1003,用于获取待识别图像,以及,获取待检测对象的触控信号;以及,根据待检测对象的触控信号,确定待检测对象的形态特征信息;其中,获取待识别图像的时刻与获取待检测对象的触控信号的时刻之间的时间差小于时间偏差阈值。
在一种可选的实施方式中,匹配模块1002,具体用于根据待识别图像的至少两种属性信息以及各个属性信息的权重,对至少一个模板图像进行筛选。
在一种可选的实施方式中,匹配模块1002,还用于在筛选后的模板图像的数量为0,或者,在筛选后的模板图像中,未查询到与待识别图像相匹配的目标模板图像时,在至少一个模板图像中除筛选后的模板图像中的其他模板图像中,查询与待识别图像相匹配的图像。
在一种可选的实施方式中,匹配模块1002,还用于在筛选后的模板图像的数量为0,或者,在筛选后的模板图像中,未查询到与待识别图像相匹配的目标模板图像时,根据至少一个模板图像对应的历史匹配成功率排序,在至少一个模板图像中,查询与待识别图像相匹配的图像。
在一种可选的实施方式中,匹配模块1002,还用于在查询到与待识别图像相匹配的目标模板图像时,获取目标模板图像对应的模板实体标识和/或使用权限;以及,在未查询到与待识别图像相匹配的目标模板图像时,确定待匹配图像对应的待检测对象不具有使用权限。
在一种可选的实施方式中,获取模块1003,还用于在根据待识别图像的属性信息,对至少一个模板图像进行筛选之前,获取至少一个模板图像以及各个模板图像对应的模板对象的形态特征信息;各个模板图像与各个模板对象一一对应;确定模块1001,还用于根据各个模板图像对应的模板对象的形态特征信息,确定各个模板图像的属性信息。
在一种可选的实施方式中,获取模块1003,具体用于获取第一模板对象的P-1个第一模板图像,以及,P-1个第一模板图像对应的第一模板对象的轮廓信息;确定模块1001,具体用于分别根据各个第一模板图像对应的第一模板对象的轮廓信息,确定各个第一模板图像在对应的轮廓信息中的区域位置标识;确定模块1001,还用于判断P-1个第一模板图像对应的区域位置标识的集合是否满足覆盖条件;若未满足,指示获取模块1003获取第一模板对象的第P个第一模板图像;其中,覆盖条件包括:覆盖第一模板对象的边缘区域的边缘覆盖条件,或者,满足覆盖第一模板对象的轮廓信息的全局覆盖条件;P为大于或者等于2的整数。
在一种可选的实施方式中,确定模块1001,还用于根据至少一个第一模板图像对应的区域位置标识的集合和覆盖条件,确定补采区;装置还包括:输出模块1004,用于输出提示信息,提示信息用于提示录入包含补采区的第一模板对象的模板图像。
本申请实施例提供的图像匹配装置可以用于执行前述实施例中的方法,本申请实施例的其他技术方案细节和技术效果可参见本申请其他实施例中的描述。
本申请实施例还提供一种图像匹配装置。图9为本申请实施例提供的图像匹配装置的结构示意图一。如图9所示,本申请提供一种图像匹配装置1100,包括:
获取模块1103,用于获取模板对象的至少一个第一模板图像;以及,获取模板对象的轮廓信息,其中,模板对象的轮廓信息用于确定至少一个第一模板图像在模板对象的轮廓信息中的区域位置标识;
确定模块1101,用于确定至少一个第一模板图像对应的区域位置标识的集合是否满足覆盖条件,在未满足覆盖条件时,指示获取模块获取模板对象的第二模板图像;其中,至少一个第一模板图像和第二模板图像用于查询与待识别图像相匹配的图像。
在一种可选的实施方式中,装置1100还可以包括匹配模块1102,用于在至少一个第一模板图像和第二模板图像中查询与待识别图像相匹配的图像。
在一种可选的实施方式中,覆盖条件包括以下至少一种:覆盖模板对象的至少一个局部区域;覆盖模板对象的边缘区域超过预设覆盖比例;覆盖模板对象的轮廓信息超过预设覆盖比例。
在一种可选的实施方式中,确定模块1101,还用于根据至少一个第一模板图像对应的区域位置标识的集合和覆盖条件,确定补采区;装置还包括:输出模块1104,用于输出提示信息,提示信息用于提示录入包含补采区的模板对象的第二模板图像。
本申请实施例提供的图像匹配装置可以用于执行前述实施例中的方法,本申请实施例的其他技术方案细节和技术效果可参见本申请其他实施例中的描述。
图10为本申请实施例提供的电子设备的结构示意图。如图10所示,本申请实施例提供一种电子设备1200,包括:处理器1210,存储器1220和输入输出设备1230;其中:
处理器1210,可用于执行执行指令以使得电子设备执行前述实施例中任一的图像匹配方法。
存储器1220,可用于存储前述实施例中任一图像匹配方法涉及的程序指令和数据。
输入输出设备1230,可以包括数据输入输入输出设备和数据输出输入输出设备。输入输出设备1230可以用于获取或者输出执行上述图像匹配方法涉及的各种信息。
举例来说,输入输出设备1230可以包括:图像采集装置和形态特征采集装置。
其中,形态特征采集装置可以为触控装置,示例性的,可以为触摸屏。图像采集装置可以为用于采集指纹图像的指纹传感器、指纹采集器等。在一示例中,指纹传感器位于触摸屏靠近电子设备的本体的一侧。此外,触摸屏还可以用于输出提示信息。可参看图1C所示。
在电子设备的第一种可选的实施方式中:
图像采集装置,可用于对待检测对象采集待识别图像;
形态特征采集装置,可用于采集待检测对象的形态特征信息;
处理器,用于根据待检测对象的形态特征信息,确定待识别图像的属性信息;以及,根据待识别图像的属性信息,对至少一个模板图像进行筛选,其中,筛选后的模板图像的属性信息与待识别图像的属性信息之间满足属性相关性条件;以及,在筛选后的模板图像中,查询与待识别图像相匹配的图像。
在电子设备的第二种可选的实施方式中:
图像采集装置,可用于采集模板对象的至少一个第一模板图像;以及,在至少一个第一模板图像对应的区域位置标识的集合未满足覆盖条件时,采集模板对象的第二模板图像;其中,至少一个第一模板图像和第二模板图像用于查询与待识别图像相匹配的图像;
触控装置,可用于获取模板对象的轮廓信息,其中,模板对象的轮廓信息用于确定至少一个第一模板图像在模板对象的轮廓信息中的区域位置标识。
在一种可选的实施方式中,触控装置,还用于在至少一个第一模板图像对应的区域位置标识的集合未满足覆盖条件时,输出提示信息,提示信息用于提示通过图像采集装置输入模板对象的第二模板图像。
本申请实施例提供的电子设备可以用于执行前述实施例中任一的图像匹配方法。
本申请实施例的其他技术方案细节和技术效果可参见本申请其他实施例中的描述。
在上述实施例中,可以全部或部分地通过软件、硬件、固件或者其任意组合来实现。当使用软件实现时,可以全部或部分地以计算机程序产品的形式实现。计算机程序产品包括一个或多个计算机指令。在计算机上加载和执行计算机程序指令时,全部或部分地产生按照本申请的流程或功能。计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。计算机指令可以存储在计算机可读存储介质中,或者从一个计算机可读存储介质向另一个计算机可读存储介质传输,例如,计算机指令可以从一个网站站点、计算机、服务器或数据中心通过有线(例如同轴电缆、光纤、数字用户线)或无线(例如红外、无线、微波等) 方式向另一个网站站点、计算机、服务器或数据中心进行传输。计算机可读存储介质可以是计算机能够存取的任何可用介质或者是包含一个或多个可用介质集成的服务器、数据中心等数据存储设备。可用介质可以是磁性介质,(例如,软盘、硬盘、磁带)、光介质(例如,DVD)、或者半导体介质(例如固态硬盘Solid State Disk)等。

Claims (21)

1.一种应用于指纹识别的图像匹配方法,其特征在于,所述方法包括:
根据待检测对象的形态特征信息,确定待识别图像的属性信息,其中,所述待识别图像用于识别所述待检测对象;
根据所述待识别图像的属性信息,对至少一个模板图像进行筛选;筛选后的模板图像的属性信息与所述待识别图像的属性信息之间满足属性相关性条件;
在筛选后的模板图像中,查询与所述待识别图像相匹配的图像。
2.根据权利要求1所述的方法,其特征在于,在所述根据所述待检测对象的形态特征信息,确定所述待识别图像的属性信息之前,包括:
获取所述待识别图像;
获取所述待检测对象的触控信号;
根据所述待检测对象的触控信号,确定所述待检测对象的形态特征信息;
其中,获取所述待识别图像的时刻与获取所述待检测对象的触控信号的时刻之间的时间差小于时间偏差阈值。
3.根据权利要求2所述的方法,其特征在于,所述待检测对象的触控信号为通过触控装置采集的;
在所述根据所述待检测对象的触控信息,确定所述待检测对象的形态特征信息之前,还包括:获取所述触控装置在大地坐标系中的三维位置信息;
所述根据所述待检测对象的形态特征信息,确定所述待识别图像的属性信息,包括:根据所述待检测对象的形态特征信息和所述触控装置的三维位置信息,确定所述待识别图像的属性信息。
4.根据权利要求1-3任一所述的方法,其特征在于,所述待检测对象的形态特征信息包括以下信息中至少一种:所述待检测对象的轮廓信息、位置信息、运动学信息;
所述待识别图像的属性信息包括以下信息中至少一种:所述待检测对象的对象类型,所述待识别图像在所述待检测对象的轮廓信息中的全局位置信息,以及,所述待检测对象的习惯姿态信息。
5.根据权利要求1-4任一所述的方法,其特征在于,所述待检测对象为待识别指纹部;所述待识别图像为通过指纹传感器采集的所述待识别指纹部的指纹图像。
6.根据权利要求1-5任一所述的方法,其特征在于,所述根据所述待检测对象的形态特征信息,确定所述待识别图像的属性信息,包括:根据所述待检测对象的轮廓信息,确定所述待检测对象的对象类型;将所述待检测对象的对象类型作为所述待识别图像的属性信息;
其中,所述待检测对象的对象类型包括以下至少一种:左右手信息,手指类型。
7.根据权利要求1-6任一所述的方法,其特征在于,所述根据所述待检测对象的形态特征信息,确定所述待识别图像的属性信息,包括:根据所述待检测对象的轮廓信息,确定所述待识别图像在所述待检测对象的轮廓信息中的全局位置信息;将所述待识别图像对应的全局位置信息作为所述待识别图像的属性信息;
其中,所述待识别图像在所述待检测对象的轮廓信息中的全局位置信息包括以下至少一种:与所述待检测对象的轮廓信息中的参考点之间的距离,以所述待检测对象的轮廓信息为参照系的区域位置标识。
8.根据权利要求1-7任一所述的方法,其特征在于,所述根据所述待检测对象的形态特征信息,确定所述待识别图像的属性信息,包括:根据所述待检测对象的轮廓信息、位置信息、运动学信息中至少一种形态特征信息,确定所述待检测对象的习惯姿态信息;将所述待检测对象的习惯姿态信息作为所述待识别图像的属性信息;
其中,所述待检测对象的习惯姿态信息,包括以下至少一种:所述待检测对象的全局方向信息,所述待检测对象的速度,所述待检测对象的移动方向,所述待检测对象的移动轨迹。
9.根据权利要求1-5任一所述的方法,其特征在于,所述属性相关性条件,包括以下至少一种:
在所述待识别图像的属性信息包括所述待识别图像对应的对象类型时,筛选后的模板图像对应的对象类型与所述待识别图像对应的对象类型相同;
在所述待识别图像的属性信息包括所述待识别图像对应的姿态信息时,筛选后的模板图像对应的习惯姿态信息与所述待识别图像对应的习惯姿态信息相同;
在所述待识别图像的属性信息包括所述待识别图像对应的全局位置信息时,筛选后的模板图像对应的全局位置信息与所述待识别图像对应的全局位置信息满足位置临近条件;
其中,所述位置临近条件包括:所述筛选后的模板图像对应的全局位置信息所表示的位置包含所述待识别图像对应的全局位置信息所表示的位置,或者,所述筛选后的模板图像对应的全局位置信息所表示的位置与所述待识别图像对应的全局位置信息所表示的位置存在交集,或者,所述筛选后的模板图像对应的全局位置信息所表示的位置与所述待识别图像对应的全局位置信息所表示的位置之间的距离小于邻近区域距离阈值。
10.根据权利要求1-9任一所述的方法,其特征在于,所述待识别图像的属性信息的数量为至少两种;
所述根据所述待识别图像的属性信息,对至少一个模板图像进行筛选,包括:根据所述待识别图像的至少两种属性信息以及各个属性信息的权重,对所述至少一个模板图像进行筛选。
11.根据权利要求1-10任一所述的方法,其特征在于,在筛选后的模板图像的数量为0,或者,在筛选后的模板图像中,未查询到与所述待识别图像相匹配的目标模板图像时,所述方法还包括:
在所述至少一个模板图像中除所述筛选后的模板图像中的其他模板图像中,查询与所述待识别图像相匹配的图像。
12.根据权利要求1-10任一所述的方法,其特征在于,在筛选后的模板图像的数量为0,或者,在筛选后的模板图像中,未查询到与所述待识别图像相匹配的目标模板图像时,所述方法还包括:
根据所述至少一个模板图像对应的历史匹配成功率排序,在所述至少一个模板图像中,查询与所述待识别图像相匹配的图像。
13.根据权利要求1-12任一所述的方法,其特征在于,所述方法还包括:
在查询到与所述待识别图像相匹配的目标模板图像时,获取所述目标模板图像对应的模板实体标识和/或使用权限;
在未查询到与所述待识别图像相匹配的目标模板图像时,确定所述待匹配图像对应的待检测对象不具有使用权限。
14.根据权利要求1-13任一所述的方法,其特征在于,在所述根据所述待识别图像的属性信息,对至少一个模板图像进行筛选之前,包括:
获取所述至少一个模板图像以及各个模板图像对应的模板对象的形态特征信息;各个模板图像与各个模板对象一一对应;
根据各个模板图像对应的模板对象的形态特征信息,确定各个模板图像的属性信息。
15.根据权利要求14所述的方法,其特征在于,
所述获取所述至少一个模板图像以及各个模板图像对应的模板对象的形态特征信息,包括:获取第一模板对象的P-1个第一模板图像,以及,所述P-1个第一模板图像对应的所述第一模板对象的轮廓信息;
所述根据各个模板图像对应的模板对象的形态特征信息,确定各个模板图像的属性信息,包括:分别根据各个第一模板图像对应的所述第一模板对象的轮廓信息,确定各个第一模板图像在对应的轮廓信息中的区域位置标识;
所述方法还包括:判断所述P-1个第一模板图像对应的区域位置标识的集合是否满足覆盖条件;若未满足,获取所述第一模板对象的第P个第一模板图像;
其中,所述覆盖条件包括:覆盖所述第一模板对象的边缘区域的边缘覆盖条件,或者,满足覆盖所述第一模板对象的轮廓信息的全局覆盖条件;P为大于或者等于2的整数。
16.一种应用于指纹识别的图像匹配方法,其特征在于,包括:
获取模板对象的至少一个第一模板图像;
获取所述模板对象的轮廓信息,其中,所述模板对象的轮廓信息用于确定所述至少一个第一模板图像在所述模板对象的轮廓信息中的区域位置标识;
在所述至少一个第一模板图像对应的区域位置标识的集合未满足覆盖条件时,采集所述模板对象的第二模板图像;
其中,所述至少一个第一模板图像和所述第二模板图像用于查询与待识别图像相匹配的图像。
17.根据权利要求16所述的方法,其特征在于,所述覆盖条件包括以下至少一种:
覆盖所述模板对象的至少一个局部区域;
覆盖所述模板对象的边缘区域超过预设覆盖比例;
覆盖所述模板对象的轮廓信息超过预设覆盖比例。
18.根据权利要求16或17所述的方法,其特征在于,所述获取所述模板对象的轮廓信息,包括:通过电子设备的触摸屏获取所述模板对象的轮廓信息;
所述获取模板对象的至少一个第一模板图像,包括:通过指纹传感器采集所述至少一个第一模板图像;
所述指纹传感器位于所述触摸屏靠近所述电子设备的本体的一侧。
19.根据权利要求17或18所述的方法,其特征在于,在所述采集所述模板对象的第二模板图像之前,所述方法还包括:
根据所述至少一个第一模板图像对应的区域位置标识的集合和所述覆盖条件,确定补采区;
输出提示信息,所述提示信息用于提示录入包含所述补采区的所述模板对象的第二模板图像。
20.一种电子设备,其特征在于,包括:处理器和存储器,所述存储器用于存储指令,所述处理器用于执行所述指令以使得所述电子设备执行权利要求1-19任一项所述方法。
21.一种计算机存储介质,其特征在于,包括计算机程序,所述计算机程序在电子设备上被执行时,使得所述电子设备执行权利要求1-19中任一项所述的方法。
CN202010762013.8A 2020-07-31 2020-07-31 一种应用于指纹识别的图像匹配方法及相关装置 Pending CN114078258A (zh)

Priority Applications (2)

Application Number Priority Date Filing Date Title
CN202010762013.8A CN114078258A (zh) 2020-07-31 2020-07-31 一种应用于指纹识别的图像匹配方法及相关装置
PCT/CN2021/107689 WO2022022365A1 (zh) 2020-07-31 2021-07-21 一种应用于指纹识别的图像匹配方法及相关装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010762013.8A CN114078258A (zh) 2020-07-31 2020-07-31 一种应用于指纹识别的图像匹配方法及相关装置

Publications (1)

Publication Number Publication Date
CN114078258A true CN114078258A (zh) 2022-02-22

Family

ID=80037097

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010762013.8A Pending CN114078258A (zh) 2020-07-31 2020-07-31 一种应用于指纹识别的图像匹配方法及相关装置

Country Status (2)

Country Link
CN (1) CN114078258A (zh)
WO (1) WO2022022365A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117391708B (zh) * 2023-12-12 2024-03-26 深圳市深讯科科技有限公司 一种基于生物体征的移动支付身份认证方法及系统

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108241843A (zh) * 2016-12-26 2018-07-03 北京小米移动软件有限公司 指纹识别方法及装置
CN107358144A (zh) * 2017-05-20 2017-11-17 深圳信炜科技有限公司 图像识别系统及电子装置
CN109543492A (zh) * 2017-09-21 2019-03-29 比亚迪股份有限公司 指纹录入方法和装置
CN111079467B (zh) * 2018-10-18 2023-08-18 北京小米移动软件有限公司 指纹识别方法及装置、电子设备、存储介质
CN109740520B (zh) * 2018-12-29 2020-12-22 Oppo广东移动通信有限公司 指纹识别方法及相关设备
CN110298277B (zh) * 2019-06-19 2021-08-31 Oppo广东移动通信有限公司 指纹识别方法及相关产品

Also Published As

Publication number Publication date
WO2022022365A1 (zh) 2022-02-03

Similar Documents

Publication Publication Date Title
CN108615247B (zh) 相机姿态追踪过程的重定位方法、装置、设备及存储介质
CN110517319B (zh) 一种相机姿态信息确定的方法及相关装置
CN107748869B (zh) 3d人脸身份认证方法与装置
CN107633165B (zh) 3d人脸身份认证方法与装置
CN109829368B (zh) 手掌特征的识别方法、装置、计算机设备及存储介质
CN102662473B (zh) 基于眼部动作识别来实现人机信息交互的装置及方法
CN110232311A (zh) 手部图像的分割方法、装置及计算机设备
JP6815707B2 (ja) 顔姿勢検出方法、装置及び記憶媒体
CN108139856B (zh) 签名认证方法、终端、手写笔及系统
CN104700013A (zh) 生物认证装置和生物认证方法
CN105849673A (zh) 基于自然三维手势的人机导览方法
US9880634B2 (en) Gesture input apparatus, gesture input method, and program for wearable terminal
CN107545252A (zh) 基于多姿态人脸模型的视频中人脸识别方法及装置
CN110490186B (zh) 车牌识别方法、装置及存储介质
US9785863B2 (en) Fingerprint authentication
CN108833774A (zh) 拍照控制方法、装置和无人机系统
CN106980527A (zh) 启动指纹识别的方法、装置以及智能终端
CN109976615A (zh) 指纹图像处理方法及相关装置
CN113515987A (zh) 掌纹识别方法、装置、计算机设备及存储介质
CN114078258A (zh) 一种应用于指纹识别的图像匹配方法及相关装置
CN103949054A (zh) 红外光枪定位方法及系统
JP2017191426A (ja) 入力装置、入力制御方法、コンピュータプログラム、及び記憶媒体
WO2018068484A1 (zh) 三维手势解锁方法、获取手势图像的方法和终端设备
CN117008491A (zh) 一种智能手势控制系统及方法
CN106406507B (zh) 图像处理方法以及电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination