CN117350737B - 一种基于掌纹识别的支付方法及系统 - Google Patents
一种基于掌纹识别的支付方法及系统 Download PDFInfo
- Publication number
- CN117350737B CN117350737B CN202311614986.7A CN202311614986A CN117350737B CN 117350737 B CN117350737 B CN 117350737B CN 202311614986 A CN202311614986 A CN 202311614986A CN 117350737 B CN117350737 B CN 117350737B
- Authority
- CN
- China
- Prior art keywords
- fuzzy
- fuzzy rule
- palm print
- palmprint
- membership
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q20/00—Payment architectures, schemes or protocols
- G06Q20/38—Payment protocols; Details thereof
- G06Q20/40—Authorisation, e.g. identification of payer or payee, verification of customer or shop credentials; Review and approval of payers, e.g. check credit lines or negative lists
- G06Q20/401—Transaction verification
- G06Q20/4014—Identity check for transactions
- G06Q20/40145—Biometric identity checks
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B5/00—Measuring for diagnostic purposes; Identification of persons
- A61B5/01—Measuring temperature of body parts ; Diagnostic temperature sensing, e.g. for malignant or inflamed tissue
- A61B5/015—By temperature mapping of body part
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/0022—Radiation pyrometry, e.g. infrared or optical thermometry for sensing the radiation of moving bodies
- G01J5/0025—Living bodies
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01J—MEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
- G01J5/00—Radiation pyrometry, e.g. infrared or optical thermometry
- G01J5/48—Thermography; Techniques using wholly visual means
- G01J5/485—Temperature profile
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N5/00—Computing arrangements using knowledge-based models
- G06N5/04—Inference or reasoning models
- G06N5/048—Fuzzy inferencing
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/13—Sensors therefor
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1347—Preprocessing; Feature extraction
- G06V40/1359—Extracting features related to ridge properties; Determining the fingerprint type, e.g. whorl or loop
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1365—Matching; Classification
- G06V40/1376—Matching features related to ridge properties or fingerprint texture
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/15—Biometric patterns based on physiological signals, e.g. heartbeat, blood flow
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/12—Fingerprints or palmprints
- G06V40/1382—Detecting the live character of the finger, i.e. distinguishing from a fake or cadaver finger
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Software Systems (AREA)
- Business, Economics & Management (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Accounting & Taxation (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Medical Informatics (AREA)
- Evolutionary Computation (AREA)
- Heart & Thoracic Surgery (AREA)
- Computing Systems (AREA)
- Automation & Control Theory (AREA)
- Mathematical Physics (AREA)
- Databases & Information Systems (AREA)
- Finance (AREA)
- Cardiology (AREA)
- Computer Security & Cryptography (AREA)
- Strategic Management (AREA)
- Fuzzy Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Physiology (AREA)
- General Business, Economics & Management (AREA)
- Pathology (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Public Health (AREA)
- Veterinary Medicine (AREA)
Abstract
本发明涉及一种基于掌纹识别的支付方法及系统。步骤包括:支付时,获取掌纹数据及手掌的热图像,从掌纹数据中提取掌纹特征,从热图像中提取手掌皮肤的热学特征,将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配以得到匹配结果,通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中,并根据评估分数动态调整匹配阈值,以得到最终匹配阈值,根据匹配结果及最终匹配阈值作出是否授权支付的判断。本发明通过模糊逻辑和动态调整机制,可以更灵活地应对掌纹和热学特征的变化,能够面对掌纹发生细小变化的情况下做出正确的判断,从而减少误拒情况的发生,从而提高掌纹支付系统的准确性和容错性。
Description
技术领域
本发明属于掌纹识别支付技术领域,尤其涉及一种基于掌纹识别的支付方法及系统。
背景技术
掌纹识别技术作为一种生物识别手段,在支付领域得到了应用。一些支付系统采用了掌纹识别技术作为用户身份验证的一部分,以实现更安全和便捷的支付体验。掌纹识别支付主要在金融、支付、门禁、考勤等领域得到了广泛应用,在一些高安全性要求的场所,掌纹识别可以作为一种可靠的身份验证手段。尽管掌纹识别在生物识别领域具有独特的优势,但仍然面临一些技术挑战。
传统的掌纹识别技术容错率低,很容易出现识别出错的情况,从而给掌纹识别支付技术带来一些缺点和挑战:由于手部可能受到外部因素的影响,例如部分手掌部位受伤、发生皮肤病变、脱皮或受潮皱褶,使得掌纹的纹路容易发生细小变化,从而导致注册时的掌纹特征与变化后的掌纹特征不完全匹配,使得系统错误地将合法用户拒绝访问,这样不仅影响掌纹识别技术的准确性,还给用户带来了极大的不便。
发明内容
本发明提供一种基于掌纹识别的支付方法及系统,旨在解决上述背景技术提到的问题。
本发明是这样实现的,提供一种基于掌纹识别的支付方法,掌纹扫描设备中内置有热图传感器,步骤包括:
目标用户支付时,通过掌纹扫描设备实时扫描目标用户手掌并获取掌纹数据及手掌的热图像;
从掌纹数据中提取掌纹特征,掌纹特征包括掌纹的纹线模式、形状特征和纹理信息;
从热图像中提取手掌皮肤的热学特征,热学特征包括皮肤温度分布、热点数量、温度梯度和异常热点信息;
将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配以得到匹配结果;
通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中,并根据评估分数动态调整匹配阈值,以得到最终匹配阈值,最终匹配阈值=基础匹配阈值+调整系数x评估分数,其中,皮肤状态信息包括掌纹特征和热学特征;
根据匹配结果及最终匹配阈值作出是否授权支付的判断。
更进一步的,若热学特征为异常热点信息,所述从热图像中提取手掌皮肤的热学特征的步骤包括:
对热图像进行预处理,包括去噪和增强对比度;
基于热度阈值将热图像分割成两个区域,分别为异常区域和正常区域,以得到异常区域的二值图像;
提取异常热点的轮廓,并计算轮廓的形状特征,轮廓的形状特征包括面积、周长和紧凑度;
将异常区域的二值图像转换为灰度图像,并对灰度图像进行边缘检测以得到边缘图像;
根据异常区域的二值图像生成一个掩膜;
对边缘图像和异常区域的掩膜进行按位与操作并得到结果图像;
对结果图像使用OpenCV库中的findContours函数来查找轮廓并建立轮廓列表;
遍历轮廓列表,获取每个轮廓的信息,以得到异常热点的轮廓信息;
根据异常热点的轮廓信息对异常热点信息进行计算,异常热点信息包括但不限于面积和周长。
更进一步的,所述通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中的步骤包括:
定义一系列模糊规则并构建模糊规则库,每个模糊规则用于表示输入变量与输出变量之间的模糊关系;
对各个皮肤状态信息进行归一化处理以得到各个皮肤状态信息的数值;
将每个皮肤状态信息定为一个输入变量,并根据隶属函数将每个输入变量的数值模糊化以得到每个输入变量的隶属度;
调用模糊规则库,并对模糊化后的输入变量的隶属度进行模糊规则匹配,以确定模糊规则库中每个模糊规则的适用度;
根据模糊规则的适用度,进行模糊推理以计算输出变量的模糊集合;
将输出变量的模糊集合进行解模糊化,以得到评估分数。
更进一步的,所述将皮肤状态信息定为输入变量,并将每个输入变量的数值模糊化为其隶属函数的隶属度的步骤包括:
对每个输入变量,根据其隶属函数,将输入变量的数值转换为输入变量的模糊值,以得到输入变量的隶属度,
公式为:输入变量的模糊值=μ(x)(v),其中,x为每个输入变量,v为输入变量的数值,μ(x) (v)为数值为v的输入变量x的隶属函数,输入变量的模糊值用于表示输入变量的隶属度。
更进一步的,所述调用模糊规则库,并对模糊化后的输入变量的隶属度进行模糊规则匹配,以确定模糊规则库中每个模糊规则的适用度的步骤包括:
建立模糊规则库,其中,模糊规则库中包含一系列的模糊规则;
对于模糊规则库中的每个模糊规则,对相应模糊规则中所有输入变量的隶属度取最小值以计算得到模糊规则的适用度,模糊规则的适用度=min(μ(x1) (v1),μ(x2)(v2),…,μ(xn) (vn)),其中,x1、x2、…、xn均为输入变量,μ(x1) (v1)、μ(x2) (v2)、…、μ(xn)(vn)分别为输入变量x1、x2、…、xn的隶属度,模糊规则的适用度用于表示输入变量的隶属度和相应模糊规则中所有其他输入变量隶属度的交集。
更进一步的,所述根据模糊规则的适用度,进行模糊推理来计算输出变量的模糊集合的步骤包括:
对于每个模糊规则,确定模糊规则的输出变量及输出变量的隶属度函数;
将模糊规则的适用度与输出变量的隶属度函数进行模糊AND运算,以获得模糊规则的模糊输出,模糊规则Ri的模糊输出=模糊规则Ri的适用度ANDμoutput,其中,μoutput为输出变量的隶属度函数,模糊规则Ri的模糊输出为第i个模糊规则的模糊输出,模糊规则Ri的适用度为第i个模糊规则的适用度;
对所有模糊规则的模糊输出进行模糊OR运算,以获得最终的输出变量的模糊集合,最终的输出变量的模糊集合=模糊规则R1的模糊输出OR模糊规则R2的模糊输出OR … OR模糊规则Rn的模糊输出。
更进一步的,所述将输出变量的模糊集合进行解模糊化,以得到评估分数的步骤包括:
对输出变量的模糊集合进行加权平均以得到评估分数,评估分数=∑(输出变量的模糊值×点的位置)/∑输出变量的模糊值,其中,输出变量的模糊值是输出变量的模糊集合中各个点的隶属度值,点的位置是输出变量的模糊集合中各个点的位置。
更进一步的,所述根据匹配结果及最终匹配阈值作出是否授权支付的判断的步骤包括:
匹配结果以匹配得分的形式表示;
若匹配得分高于最终匹配阈值,则判定为匹配成功,目标用户被授权支付;
若匹配得分低于或等于最终匹配阈值,则判定为匹配失败,目标用户被拒绝支付。
更进一步的,所述目标用户支付时,通过掌纹扫描设备实时扫描目标用户手掌并获取掌纹数据及手掌的热图像的步骤前还包括:
注册时,采集用户的掌纹数据,并从掌纹数据中提取掌纹特征;
将用户的掌纹特征与用户的身份标识进行关联并存储至安全服务器中。
本发明还提供一种基于掌纹识别的支付系统,用于执行基于掌纹识别的支付方法,掌纹扫描设备中内置有热图传感器,包括:
扫描模块:用于目标用户支付时,通过掌纹扫描设备实时扫描目标用户手掌并获取掌纹数据及手掌的热图像;
掌纹特征提取模块:用于从掌纹数据中提取掌纹特征,掌纹特征包括掌纹的纹线模式、形状特征和纹理信息;
热学特征提取模块:用于从热图像中提取手掌皮肤的热学特征,热学特征包括皮肤温度分布、热点数量、温度梯度和异常热点信息;
匹配模块:用于将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配以得到匹配结果;
匹配阈值调整模块:用于通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中,并根据评估分数动态调整匹配阈值,以得到最终匹配阈值,最终匹配阈值=基础匹配阈值+调整系数x评估分数,其中,皮肤状态信息包括掌纹特征和热学特征;
支付模块:用于根据匹配结果及最终匹配阈值作出是否授权支付的判断。
本发明的有益效果在于,与现有技术相比,本发明的基于掌纹识别的支付方法及系统,通过将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配,并结合模糊逻辑定义的皮肤状态评估函数,将各个皮肤状态信息融合到一个评估分数中,再动态调整匹配阈值,使系统能够根据实时的评估分数来灵活地调整支付判别的严格程度。通过引入热学特征及采用模糊逻辑,使得支付系统更有可能在面对掌纹发生细小变化的情况下做出正确的判断,从而减少误拒情况的发生。整个过程通过模糊逻辑和动态调整机制,可以更灵活地应对掌纹和热学特征的变化,从而提高掌纹支付系统的准确性和容错性。
通过模糊逻辑定义的皮肤状态评估函数融合多个皮肤状态信息(掌纹特征和热学特征),形成一个综合的评估分数,由于模糊逻辑允许对输入变量的模糊信息进行处理,使得评估分数不是严格的二元决策,而是柔性的、模糊的值,这有助于处理现实世界中生物特征存在的复杂性和不确定性。而得到的评估分数反映的是目标用户手掌的整体状态,不仅仅依赖于单一的特征,而是通过综合考虑多个因素形成的一个综合指标,这种综合性能够更全面地反映目标用户的生物特征状态,从而增加了支付系统对用户身份的综合了解。
再根据评估分数动态调整匹配阈值,由于评估分数是基于实时获取的手掌信息计算的,所以匹配阈值能够实时地根据用户当前的生理状态和环境变化进行调整,使支付系统更具实时性。其中,高评估分数可能对应着正常的、健康的手掌状态,此时提高匹配阈值可以增加系统的安全性,减少对于异常情况的容忍度,降低欺诈的风险;而在评估分数较低的情况下,降低匹配阈值可以提高系统的容错性,更容忍一些匹配误差,避免在面对各种突发情况时,如用户手部受伤、温度变化、皮肤病变、脱皮等,支付系统对手掌生理波动的过度敏感而导致的误拒或误识别问题,使得系统更加稳健地运行,提高了支付的可靠性。
附图说明
图1是本发明提供的基于掌纹识别的支付方法的流程示意图;
图2是本发明提供的基于掌纹识别的支付系统的系统框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
实施例一
参考图1,实施例一提供一种基于掌纹识别的支付方法,掌纹扫描设备中内置有热图传感器,包括步骤S101~S106:
S101,目标用户支付时,通过掌纹扫描设备实时扫描目标用户手掌并获取掌纹数据及手掌的热图像。
需要说明的是,掌纹扫描设备对手掌进行扫描,并获取掌纹数据。可以使用光学传感器、摄像头或其他专用传感器来捕捉手掌表面的纹理和形状信息。掌纹数据可以包括掌纹的纹线模式、形状特征和纹理信息。
同时,掌纹扫描设备还通过内置的热图传感器获取手掌的热图像,这个热图像反映了手掌表面的温度分布,包括可能存在的异常热点信息。
获取的掌纹数据和热图像被传输到系统的后台处理单元,在后台,系统进行进一步的图像处理和数据分析,以提取有关掌纹和皮肤状态的关键特征。
具体的,所述目标用户支付时,通过掌纹扫描设备实时扫描目标用户手掌并获取掌纹数据及手掌的热图像的步骤前还包括:
注册时,采集用户的掌纹数据,并从掌纹数据中提取掌纹特征;
将用户的掌纹特征与用户的身份标识进行关联并存储至安全服务器中。
需要说明的是,注册时采集的掌纹特征将用于与用户支付时获取的掌纹特征进行匹配,从而判断用户的身份是否合法。
在注册时,系统通过掌纹扫描设备实时扫描用户的手掌,获取掌纹数据。
从采集到的掌纹数据中提取掌纹特征,掌纹特征可以包括掌纹的纹线模式、形状特征和纹理信息等,这些特征用于后续的掌纹识别和匹配。
将用户的掌纹特征与用户的身份标识进行关联,并将这些关联信息存储至安全服务器中,这样,系统就建立了用户身份和相应掌纹特征之间的映射关系,以便后续的支付识别过程中使用。
S102,从掌纹数据中提取掌纹特征,掌纹特征包括掌纹的纹线模式、形状特征和纹理信息。
需要说明的是,从掌纹数据中提取掌纹特征,包括掌纹的纹线模式、形状特征和纹理信息,通常需要经过一系列的图像处理和特征提取步骤。
掌纹数据通常以图像的形式存在,首先需要对图像进行预处理,以减少噪声、增强对比度和使图像更易处理,预处理步骤可以包括图像平滑、边缘增强、灰度化等。
掌纹图像中可能包含其他无关信息,如手背、指甲等,因此,在提取掌纹特征之前,需要进行掌纹的分割,以将掌纹区域从图像中提取出来。
纹线模式是掌纹的主要特征之一,在掌纹区域内,可以使用图像处理技术,例如方向滤波器、Gabor滤波器等来提取纹线的方向信息,这有助于描述掌纹的走向和分布。
形状特征可以包括掌纹的整体形状、长度、宽度等,一种常见的方法是使用形状描述符,如Hu矩、Zernike矩等,来捕捉掌纹的整体形状信息。
纹理信息描述掌纹表面的细节和纹理,常见的纹理特征提取方法包括局部二值模式、灰度共生矩阵等。
提取的纹线模式、形状特征和纹理信息可以组成一个综合的特征向量,以便后续的特征匹配和识别,这个特征向量可以作为掌纹的唯一表示,用于与注册时的掌纹特征进行比对。
S103,从热图像中提取手掌皮肤的热学特征,热学特征包括皮肤温度分布、热点数量、温度梯度和异常热点信息。
需要说明的是,热学特征是个体生物信息的一种独特表达,手掌的温度分布、热点数量、温度梯度等特征在不同的个体间存在差异,这为个体识别提供了一种独特的生物特征,因此,通过热学特征的分析,可以实现对个体的唯一性识别。
热学特征反映了手掌皮肤的温度状态,而手掌皮肤的温度状态受到多种因素的影响,包括血液循环、新陈代谢、神经系统等,异常热点信息通常与皮肤病变、损伤或其他生理异常有关,通过对热学特征的分析,可以对手掌皮肤的健康状态进行初步评估,提高系统对手掌异常情况的敏感性。
因此,在综合考虑掌纹特征和热学特征的情况下,能够更全面地反映个体的生物信息和健康状态,提高掌纹识别系统的准确性和可靠性。通过模糊逻辑定义的皮肤状态评估函数,将各个皮肤状态信息综合考虑,使得系统更加灵活,能够适应不同个体和不同环境下的掌纹识别需求。
从热图像中提取手掌皮肤的热学特征涉及到对温度分布、热点数量、温度梯度和异常热点信息的分析。整个过程需要依赖于热学图像处理和计算机视觉的技术,以确保对手掌皮肤的热学特征进行准确而全面的提取。这些特征提取后可形成一个热学特征向量,用于后续的综合分析和评估。
通过掌纹扫描设备中的热图传感器获取手掌的热图像。
再对热图像进行预处理以减少噪声并增强特征,预处理可以包括平滑处理、直方图均衡化等,以确保后续分析基于清晰的热图像。
通过对整个手掌区域的温度进行分析,可以得到皮肤温度的分布情况,可以将手掌区域划分为若干个小区域,并计算每个区域的平均温度。
通过检测热图像中的局部高温区域,可以得到热点的数量,可以通过设置阈值来识别高温区域,或者使用一些检测算法,如连通区域分析等。
温度梯度描述了温度随空间位置的变化率,可以通过计算不同区域之间的温度梯度来得到手掌的温度梯度分布,这有助于了解手掌的整体温度变化情况。
异常热点通常表示热图像中温度显著偏高或偏低的区域,可能是异常情况的指示。检测异常热点可以使用图像分割和异常检测算法,以便进一步分析这些区域。
其中,若热学特征为异常热点信息,所述从热图像中提取手掌皮肤的热学特征的步骤包括:
对热图像进行预处理,包括去噪和增强对比度;
基于热度阈值将热图像分割成两个区域,分别为异常区域和正常区域,以得到异常区域的二值图像;
提取异常热点的轮廓,并计算轮廓的形状特征,轮廓的形状特征包括面积、周长和紧凑度;
将异常区域的二值图像转换为灰度图像,并对灰度图像进行边缘检测以得到边缘图像,可以通过边缘检测算法如Sobel、Canny、Scharr等;
根据异常区域的二值图像生成一个掩膜;
对边缘图像和异常区域的掩膜进行按位与操作并得到结果图像,这样,只有在异常区域内,对应位置上的边缘信息才会被保留,其他区域将被置零;
对结果图像使用OpenCV库中的findContours函数来查找轮廓并建立轮廓列表;
遍历轮廓列表,获取每个轮廓的信息,以得到异常热点的轮廓信息;
根据异常热点的轮廓信息对异常热点信息进行计算,异常热点信息包括但不限于面积和周长。
面积的计算:对异常热点轮廓内的像素数量进行统计计算以得到异常热点的面积;
周长的计算:对异常热点的轮廓边界上的像素数量进行统计计算以得到异常热点的周长。
S104,将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配以得到匹配结果。
需要说明的是,将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配是掌纹识别支付系统中的核心步骤,它涉及到两个关键阶段:注册阶段和支付阶段。
在注册阶段:用户在注册时,通过掌纹扫描设备扫描手掌,获取掌纹数据,并从这些数据中,提取掌纹特征,包括纹线模式、形状特征和纹理信息。
提取的掌纹特征被用于建立用户的掌纹模型,这个模型可以存储在系统的数据库中,并与用户的身份信息关联。
在支付阶段:在用户进行支付时,系统通过掌纹扫描设备实时扫描用户手掌,获取支付时的掌纹数据,并从支付时获取的掌纹数据中提取掌纹特征,同样包括纹线模式、形状特征和纹理信息。
再将支付时提取的掌纹特征与注册时建立的用户模型中的掌纹特征进行匹配,匹配过程可以采用各种算法,例如模式匹配、特征匹配等。
根据匹配的程度,系统得到一个匹配结果,匹配结果通常以匹配分数的形式表示,表明支付时的掌纹特征与注册时的掌纹特征的相似度或匹配度。
匹配结果的准确性和可靠性直接影响着系统的安全性和性能,通过注册时建立的用户模型,系统能够验证用户的身份,确保支付时的掌纹特征与注册时的特征一致,匹配的成功与否将决定是否授权支付。
S105,通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中,并根据评估分数动态调整匹配阈值,以得到最终匹配阈值,最终匹配阈值=基础匹配阈值+调整系数x评估分数,其中,皮肤状态信息包括掌纹特征和热学特征。
需要说明的是,该步涉及了模糊逻辑系统的应用,主要目的是综合考虑掌纹特征和热学特征,并基于这些信息动态调整匹配阈值,以适应不同的手掌皮肤情况。通过这种方式,系统在支付时能够更灵活地根据实时的皮肤状态信息调整匹配阈值,从而提高整个系统在各种情况下的准确性和适应性,使得掌纹识别支付系统更具鲁棒性,能够更好地应对用户手部皮肤状态的变化。
模糊逻辑定义的皮肤状态评估函数的设计是为了将掌纹特征和热学特征融合到一个评估分数中,这个函数可以基于一系列的模糊规则,每个规则连接输入变量(掌纹特征和热学特征)的模糊集合及输出变量的模糊集合,可以通过数据驱动的方式学习得到。
模糊逻辑系统根据输入变量的隶属度和模糊规则的适用度计算出各个输出变量的模糊值,这些模糊值表示了不同输出变量在当前皮肤状态下的程度或置信度。
计算得到的各个输出变量的模糊值通过权重和的方式进行综合,形成最终的评估分数,这个分数可以被视为当前皮肤状态的综合指标。接着,根据这个评估分数,通过调整系数,动态地调整基础匹配阈值,以获得最终匹配阈值。这样的调整机制允许系统在不同的皮肤状态下有不同的匹配灵敏度。
最终匹配阈值是基础匹配阈值和调整系数与评估分数的乘积的和,这个阈值将用于后续的匹配结果判断,影响是否授权支付。在评估分数较高时,匹配阈值会相应上调,提高了匹配的要求;而在评估分数较低时,匹配阈值下调,降低了匹配的要求,以适应不同的皮肤状态。
具体的,所述通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中的步骤包括:
定义一系列模糊规则并构建模糊规则库,每个模糊规则用于表示输入变量与输出变量之间的模糊关系;
对各个皮肤状态信息进行归一化处理以得到各个皮肤状态信息的数值;
将每个皮肤状态信息定为一个输入变量,并根据隶属函数将每个输入变量的数值模糊化以得到每个输入变量的隶属度;
调用模糊规则库,并对模糊化后的输入变量的隶属度进行模糊规则匹配,以确定模糊规则库中每个模糊规则的适用度;
根据模糊规则的适用度,进行模糊推理以计算输出变量的模糊集合;
将输出变量的模糊集合进行解模糊化,以得到评估分数。
需要说明的是,系统需要事先明确定义一系列的模糊规则,每个规则用于表示输入变量(各个皮肤状态信息)与输出变量(评估分数)之间的模糊关系,这些规则可以基于专家知识或通过数据驱动的方式得到。
皮肤状态信息可能具有不同的尺度和范围,为了确保它们在模糊逻辑系统中的有效性,需要进行归一化处理,以将它们映射到相同的数值范围内。
将每个皮肤状态信息看作一个输入变量,通过隶属函数将其数值转换成隶属度,隶属度表示该皮肤状态信息在模糊集合中的程度。
使用归一化和模糊化后的输入变量,通过模糊规则库进行匹配,每个模糊规则都会基于输入变量的隶属度和规则的定义确定一个适用度值。
通过将适用度值与模糊规则库中相应规则的输出变量模糊集合进行模糊AND操作,得到每个规则对应的模糊输出,对这些模糊输出进行OR操作,将综合得到输出变量的模糊集合。
利用解模糊化技术,将模糊集合转换为具体的数值,即评估分数,这个分数反映了当前皮肤状态下各个皮肤状态信息对于评估的贡献程度。
通过这个过程,系统能够将各个皮肤状态信息综合考虑,得到一个综合的评估分数,这个分数反映了当前用户的皮肤状态,这个分数可以用于后续的匹配阈值调整,从而做出是否授权支付的决定。
更具体的,所述将皮肤状态信息定为输入变量,并将每个输入变量的数值模糊化为其隶属函数的隶属度的步骤包括:
对每个输入变量,根据其隶属函数,将输入变量的数值转换为输入变量的模糊值,以得到输入变量的隶属度,
公式为:输入变量的模糊值=μ(x)(v),其中,x为每个输入变量,v为输入变量的数值,μ(x) (v)为数值为v的输入变量x的隶属函数,输入变量的模糊值用于表示输入变量的隶属度。
需要说明的是,该步的目的是将输入变量的数值通过隶属函数转换为模糊值,进而表示输入变量的隶属度。
首先,为每个输入变量(皮肤状态信息)定义一个对应的隶属函数,这个隶属函数通常由领域专家或通过数据分析确定,该函数描述了输入变量在模糊集合中的隶属度分布。
对于每个输入变量,使用其隶属函数μ(x)(v)将实际的数值v转换为一个模糊值,这个模糊值表示了该数值对应于输入变量的隶属度,即输入变量在模糊集合中的程度,这个值在[0,1]范围内,0表示不隶属于该模糊集合,1表示完全隶属于该模糊集合。
更具体的,所述调用模糊规则库,并对模糊化后的输入变量的隶属度进行模糊规则匹配,以确定模糊规则库中每个模糊规则的适用度的步骤包括:
建立模糊规则库,其中,模糊规则库中包含一系列的模糊规则;
对于模糊规则库中的每个模糊规则,对相应模糊规则中所有输入变量的隶属度取最小值以计算得到模糊规则的适用度,模糊规则的适用度=min(μ(x1) (v1),μ(x2)(v2),…,μ(xn) (vn)),其中,x1、x2、…、xn均为输入变量,μ(x1) (v1)、μ(x2) (v2)、…、μ(xn)(vn)分别为输入变量x1、x2、…、xn的隶属度,模糊规则的适用度用于表示输入变量的隶属度和相应模糊规则中所有其他输入变量隶属度的交集。
需要说明的是,该步用来通过模糊规则库对模糊化后的输入变量进行匹配,以确定每个模糊规则的适用度。
在系统设计阶段,领域专家或通过数据分析建立一系列的模糊规则,每个规则连接输入变量的模糊集合及输出变量的模糊集合,这些规则用于描述输入变量与输出变量之间的模糊关系。
遍历模糊规则库,对于每个模糊规则,执行以下步骤:
对于每个输入变量,取其在相应模糊规则中的隶属度与其他输入变量在相同规则下的隶属度之间的最小值,这表示模糊规则中所有输入变量的隶属度的交集。
将得到的最小隶属度值作为该规则的适用度,这个值表示了模糊规则在当前输入条件下的适用度,即规则的"成真程度"。
更具体的,所述根据模糊规则的适用度,进行模糊推理来计算输出变量的模糊集合的步骤包括:
对于每个模糊规则,确定模糊规则的输出变量及输出变量的隶属度函数;
将模糊规则的适用度与输出变量的隶属度函数进行模糊AND运算,以获得模糊规则的模糊输出,模糊规则Ri的模糊输出=模糊规则Ri的适用度ANDμoutput,其中,μoutput为输出变量的隶属度函数,模糊规则Ri的模糊输出为第i个模糊规则的模糊输出,模糊规则Ri的适用度为第i个模糊规则的适用度;
对所有模糊规则的模糊输出进行模糊OR运算,以获得最终的输出变量的模糊集合,最终的输出变量的模糊集合=模糊规则R1的模糊输出OR模糊规则R2的模糊输出OR … OR模糊规则Rn的模糊输出。
需要说明的是,该步是通过模糊规则的适用度和输出变量的隶属度函数,计算得到输出变量的模糊集合。涉及的模糊AND和模糊OR运算用于将模糊信息进行合成。
对模糊规则库中的每一条模糊规则执行以下步骤:
每个模糊规则都连接一个或多个输入变量和一个输出变量,确定当前模糊规则的输出变量以及该输出变量的隶属度函数。
将当前模糊规则的适用度与输出变量的隶属度函数进行逐点的模糊AND运算,这表示考虑适用度对输出变量的影响,得到当前规则的模糊输出。
再对所有模糊规则的模糊输出进行逐点的模糊OR运算,这表示考虑所有模糊规则的贡献,得到最终的输出变量的模糊集合。
更具体的,所述将输出变量的模糊集合进行解模糊化,以得到评估分数的步骤包括:
对输出变量的模糊集合进行加权平均以得到评估分数,评估分数=∑(输出变量的模糊值×点的位置)/∑输出变量的模糊值,其中,输出变量的模糊值是输出变量的模糊集合中各个点的隶属度值,点的位置是输出变量的模糊集合中各个点的位置。
需要说明的是,该步是将模糊集合的模糊值进行解模糊化,得到一个具体的评估分数,用于衡量目标用户的皮肤状态,这个分数可以在后续的决策过程中用于判断是否授权支付。
在前一步骤中,已经得到了输出变量的模糊集合,这是一个在输出变量值范围内的模糊分布,每个点的模糊值表示该点对应的隶属度。
输出变量的模糊值是输出变量的模糊集合中各个点的隶属度值,点的位置表示输出变量的模糊集合中各个点的位置,即输出变量的可能取值。
评估分数=∑(输出变量的模糊值×点的位置)/∑输出变量的模糊值,公式中表示对所有模糊集合中的点,按照其隶属度值进行加权平均。分子部分是各个点的隶属度值与其对应点的位置的乘积之和,分母部分是所有点的隶属度值之和。
S106,根据匹配结果及最终匹配阈值作出是否授权支付的判断。
需要说明的是,支付系统将匹配结果与最终匹配阈值进行比较,以决定是否授权支付。通过动态调整匹配阈值得到最终匹配阈值,系统可以根据实时的皮肤状态评估情况灵活地调整匹配的严格程度,以便适应用户的生理和环境变化,提高系统的鲁棒性和适应性。整个过程通过模糊逻辑和动态调整机制,可以更灵活地应对掌纹和热学特征的变化,从而提高掌纹支付系统的准确性和容错性。
具体的,所述根据匹配结果及最终匹配阈值作出是否授权支付的判断的步骤包括:
匹配结果以匹配得分的形式表示;
若匹配得分高于最终匹配阈值,则判定为匹配成功,目标用户被授权支付;
若匹配得分低于或等于最终匹配阈值,则判定为匹配失败,目标用户被拒绝支付。
需要说明的是,匹配结果以匹配得分的形式表示,这个得分可以通过比较目标用户支付时的掌纹特征与注册时的掌纹特征之间的相似度计算得到。
将匹配得分与最终匹配阈值进行比较。如果匹配得分高于最终匹配阈值,系统判定为匹配成功。这表示目标用户的掌纹特征与注册时的掌纹特征相似度较高,系统认为是合法用户,授权支付。
如果匹配得分低于或等于最终匹配阈值,系统判定为匹配失败。这可能意味着目标用户的掌纹特征与注册时的掌纹特征相似度不足,系统可能认为是非法用户,拒绝支付。
本实施例充分利用了模糊逻辑定义的皮肤状态评估函数和动态调整机制,可以更灵活地适应掌纹和热学特征的变化,提高了系统对用户身份的准确性和鲁棒性。
本发明的基于掌纹识别的支付方法及系统,通过将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配,并结合模糊逻辑定义的皮肤状态评估函数,将各个皮肤状态信息融合到一个评估分数中,再动态调整匹配阈值,使系统能够根据实时的评估分数来灵活地调整支付判别的严格程度。通过引入热学特征及采用模糊逻辑,使得支付系统更有可能在面对掌纹发生细小变化的情况下做出正确的判断,从而减少误拒情况的发生。整个过程通过模糊逻辑和动态调整机制,可以更灵活地应对掌纹和热学特征的变化,从而提高掌纹支付系统的准确性和容错性。
通过模糊逻辑定义的皮肤状态评估函数融合多个皮肤状态信息(掌纹特征和热学特征),形成一个综合的评估分数,由于模糊逻辑允许对输入变量的模糊信息进行处理,使得评估分数不是严格的二元决策,而是柔性的、模糊的值,这有助于处理现实世界中生物特征存在的复杂性和不确定性。而得到的评估分数反映的是目标用户手掌的整体状态,不仅仅依赖于单一的特征,而是通过综合考虑多个因素形成的一个综合指标,这种综合性能够更全面地反映目标用户的生物特征状态,从而增加了支付系统对用户身份的综合了解。
再根据评估分数动态调整匹配阈值,由于评估分数是基于实时获取的手掌信息计算的,所以匹配阈值能够实时地根据用户当前的生理状态和环境变化进行调整,使支付系统更具实时性。其中,高评估分数可能对应着正常的、健康的手掌状态,此时提高匹配阈值可以增加系统的安全性,减少对于异常情况的容忍度,降低欺诈的风险;而在评估分数较低的情况下,降低匹配阈值可以提高系统的容错性,更容忍一些匹配误差,避免在面对各种突发情况时,如用户手部受伤、温度变化、皮肤病变、脱皮等,支付系统对手掌生理波动的过度敏感而导致的误拒或误识别问题,使得系统更加稳健地运行,提高了支付的可靠性。
实施例二
参考图2,实施例二提供一种基于掌纹识别的支付系统,掌纹扫描设备中内置有热图传感器,包括:
扫描模块:用于目标用户支付时,通过掌纹扫描设备实时扫描目标用户手掌并获取掌纹数据及手掌的热图像;
掌纹特征提取模块:用于从掌纹数据中提取掌纹特征,掌纹特征包括掌纹的纹线模式、形状特征和纹理信息;
热学特征提取模块:用于从热图像中提取手掌皮肤的热学特征,热学特征包括皮肤温度分布、热点数量、温度梯度和异常热点信息;
匹配模块:用于将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配以得到匹配结果;
匹配阈值调整模块:用于通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中,并根据评估分数动态调整匹配阈值,以得到最终匹配阈值,最终匹配阈值=基础匹配阈值+调整系数x评估分数,其中,皮肤状态信息包括掌纹特征和热学特征;
支付模块:用于根据匹配结果及最终匹配阈值作出是否授权支付的判断。
以上所述仅为本发明的较佳实施例而已,并不用以限制本发明,凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明的保护范围之内。
Claims (7)
1.一种基于掌纹识别的支付方法,其特征在于,掌纹扫描设备中内置有热图传感器,步骤包括:
目标用户支付时,通过掌纹扫描设备实时扫描目标用户手掌并获取掌纹数据及手掌的热图像;
从掌纹数据中提取掌纹特征,掌纹特征包括掌纹的纹线模式、形状特征和纹理信息;
从热图像中提取手掌皮肤的热学特征,热学特征包括皮肤温度分布、热点数量、温度梯度和异常热点信息;
将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配以得到匹配结果;
通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中,并根据评估分数动态调整匹配阈值,以得到最终匹配阈值,最终匹配阈值=基础匹配阈值+调整系数x评估分数,其中,皮肤状态信息包括掌纹特征和热学特征;
根据匹配结果及最终匹配阈值作出是否授权支付的判断;
其中,所述通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中的步骤包括:
定义一系列模糊规则并构建模糊规则库,每个模糊规则用于表示输入变量与输出变量之间的模糊关系;
对各个皮肤状态信息进行归一化处理以得到各个皮肤状态信息的数值;
将每个皮肤状态信息定为一个输入变量,并根据隶属函数将每个输入变量的数值模糊化以得到每个输入变量的隶属度;
调用模糊规则库,并对模糊化后的输入变量的隶属度进行模糊规则匹配,以确定模糊规则库中每个模糊规则的适用度;
根据模糊规则的适用度,进行模糊推理以计算输出变量的模糊集合;
将输出变量的模糊集合进行解模糊化,以得到评估分数;
所述将每个皮肤状态信息定为一个输入变量,并将每个输入变量的数值模糊化为其隶属函数的隶属度的步骤包括:
对每个输入变量,根据其隶属函数,将输入变量的数值转换为输入变量的模糊值,以得到输入变量的隶属度,
公式为:输入变量的模糊值=μ(x)(v),其中,x为每个输入变量,v为输入变量的数值,μ(x) (v)为数值为v的输入变量x的隶属函数,输入变量的模糊值用于表示输入变量的隶属度;
所述调用模糊规则库,并对模糊化后的输入变量的隶属度进行模糊规则匹配,以确定模糊规则库中每个模糊规则的适用度的步骤包括:
建立模糊规则库,其中,模糊规则库中包含一系列的模糊规则;
对于模糊规则库中的每个模糊规则,对相应模糊规则中所有输入变量的隶属度取最小值以计算得到模糊规则的适用度,模糊规则的适用度=min(μ(x1) (v1),μ(x2) (v2),…,μ(xn) (vn)),其中,n为输入变量的数量,x1、x2、…、xn均为输入变量,v1、v2、…、vn分别为输入变量x1、x2、…、xn的数值,μ(x1) (v1)、μ(x2) (v2)、…、μ(xn) (vn)分别为输入变量x1、x2、…、xn的隶属度,模糊规则的适用度用于表示输入变量的隶属度和相应模糊规则中所有其他输入变量隶属度的交集。
2.根据权利要求1所述的基于掌纹识别的支付方法,其特征在于,若热学特征为异常热点信息,所述从热图像中提取手掌皮肤的热学特征的步骤包括:
对热图像进行预处理,包括去噪和增强对比度;
基于热度阈值将热图像分割成两个区域,分别为异常区域和正常区域,以得到异常区域的二值图像;
提取异常热点的轮廓,并计算轮廓的形状特征,轮廓的形状特征包括面积、周长和紧凑度;
将异常区域的二值图像转换为灰度图像,并对灰度图像进行边缘检测以得到边缘图像;
根据异常区域的二值图像生成一个掩膜;
对边缘图像和异常区域的掩膜进行按位与操作并得到结果图像;
对结果图像使用OpenCV库中的findContours函数来查找轮廓并建立轮廓列表;
遍历轮廓列表,获取每个轮廓的信息,以得到异常热点的轮廓信息;
根据异常热点的轮廓信息对异常热点信息进行计算,异常热点信息包括但不限于面积和周长。
3.根据权利要求1所述的基于掌纹识别的支付方法,其特征在于,所述根据模糊规则的适用度,进行模糊推理来计算输出变量的模糊集合的步骤包括:
对于每个模糊规则,确定模糊规则的输出变量及输出变量的隶属度函数;
将模糊规则的适用度与输出变量的隶属度函数进行模糊AND运算,以获得模糊规则的模糊输出,模糊规则Ri的模糊输出=模糊规则Ri的适用度ANDμoutput,其中,μoutput为输出变量的隶属度函数,模糊规则Ri的模糊输出为第i个模糊规则的模糊输出,模糊规则Ri的适用度为第i个模糊规则的适用度;
对所有模糊规则的模糊输出进行模糊OR运算,以获得最终的输出变量的模糊集合,最终的输出变量的模糊集合=模糊规则R1的模糊输出OR模糊规则R2的模糊输出OR … OR模糊规则Rn的模糊输出。
4.根据权利要求3所述的基于掌纹识别的支付方法,其特征在于,所述将输出变量的模糊集合进行解模糊化,以得到评估分数的步骤包括:
对输出变量的模糊集合进行加权平均以得到评估分数,评估分数=∑(输出变量的模糊值×点的位置)/∑输出变量的模糊值,其中,输出变量的模糊值是输出变量的模糊集合中各个点的隶属度值,点的位置是输出变量的模糊集合中各个点的位置。
5.根据权利要求1所述的基于掌纹识别的支付方法,其特征在于,所述根据匹配结果及最终匹配阈值作出是否授权支付的判断的步骤包括:
匹配结果以匹配得分的形式表示;
若匹配得分高于最终匹配阈值,则判定为匹配成功,目标用户被授权支付;
若匹配得分低于或等于最终匹配阈值,则判定为匹配失败,目标用户被拒绝支付。
6.根据权利要求1所述的基于掌纹识别的支付方法,其特征在于,所述目标用户支付时,通过掌纹扫描设备实时扫描目标用户手掌并获取掌纹数据及手掌的热图像的步骤前还包括:
注册时,采集用户的掌纹数据,并从掌纹数据中提取掌纹特征;
将用户的掌纹特征与用户的身份标识进行关联并存储至安全服务器中。
7.一种基于掌纹识别的支付系统,其特征在于,掌纹扫描设备中内置有热图传感器,包括:
扫描模块:用于目标用户支付时,通过掌纹扫描设备实时扫描目标用户手掌并获取掌纹数据及手掌的热图像;
掌纹特征提取模块:用于从掌纹数据中提取掌纹特征,掌纹特征包括掌纹的纹线模式、形状特征和纹理信息;
热学特征提取模块:用于从热图像中提取手掌皮肤的热学特征,热学特征包括皮肤温度分布、热点数量、温度梯度和异常热点信息;
匹配模块:用于将目标用户支付时的掌纹特征与注册时的掌纹特征进行匹配以得到匹配结果;
匹配阈值调整模块:用于通过模糊逻辑定义的皮肤状态评估函数将各个皮肤状态信息融合到一个评估分数中,并根据评估分数动态调整匹配阈值,以得到最终匹配阈值,最终匹配阈值=基础匹配阈值+调整系数x评估分数,其中,皮肤状态信息包括掌纹特征和热学特征;
支付模块:用于根据匹配结果及最终匹配阈值作出是否授权支付的判断;
其中,匹配阈值调整模块还用于:
定义一系列模糊规则并构建模糊规则库,每个模糊规则用于表示输入变量与输出变量之间的模糊关系;
对各个皮肤状态信息进行归一化处理以得到各个皮肤状态信息的数值;
将每个皮肤状态信息定为一个输入变量,并根据隶属函数将每个输入变量的数值模糊化以得到每个输入变量的隶属度;
调用模糊规则库,并对模糊化后的输入变量的隶属度进行模糊规则匹配,以确定模糊规则库中每个模糊规则的适用度;
根据模糊规则的适用度,进行模糊推理以计算输出变量的模糊集合;
将输出变量的模糊集合进行解模糊化,以得到评估分数;
匹配阈值调整模块还用于:
对每个输入变量,根据其隶属函数,将输入变量的数值转换为输入变量的模糊值,以得到输入变量的隶属度,
公式为:输入变量的模糊值=μ(x)(v),其中,x为每个输入变量,v为输入变量的数值,μ(x) (v)为数值为v的输入变量x的隶属函数,输入变量的模糊值用于表示输入变量的隶属度;
匹配阈值调整模块还用于:
建立模糊规则库,其中,模糊规则库中包含一系列的模糊规则;
对于模糊规则库中的每个模糊规则,对相应模糊规则中所有输入变量的隶属度取最小值以计算得到模糊规则的适用度,模糊规则的适用度=min(μ(x1) (v1),μ(x2) (v2),…,μ(xn) (vn)),其中,n为输入变量的数量,x1、x2、…、xn均为输入变量,v1、v2、…、vn分别为输入变量x1、x2、…、xn的数值,μ(x1) (v1)、μ(x2) (v2)、…、μ(xn) (vn)分别为输入变量x1、x2、…、xn的隶属度,模糊规则的适用度用于表示输入变量的隶属度和相应模糊规则中所有其他输入变量隶属度的交集。
Priority Applications (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202311614986.7A CN117350737B (zh) | 2023-11-29 | 2023-11-29 | 一种基于掌纹识别的支付方法及系统 |
Applications Claiming Priority (1)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| CN202311614986.7A CN117350737B (zh) | 2023-11-29 | 2023-11-29 | 一种基于掌纹识别的支付方法及系统 |
Publications (2)
| Publication Number | Publication Date |
|---|---|
| CN117350737A CN117350737A (zh) | 2024-01-05 |
| CN117350737B true CN117350737B (zh) | 2024-05-14 |
Family
ID=89357844
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| CN202311614986.7A Active CN117350737B (zh) | 2023-11-29 | 2023-11-29 | 一种基于掌纹识别的支付方法及系统 |
Country Status (1)
| Country | Link |
|---|---|
| CN (1) | CN117350737B (zh) |
Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CN103793642A (zh) * | 2014-03-03 | 2014-05-14 | 哈尔滨工业大学 | 移动互联网掌纹身份认证方法 |
| CN104951940A (zh) * | 2015-06-05 | 2015-09-30 | 西安理工大学 | 一种基于掌纹识别的移动支付验证方法 |
| CN105184216A (zh) * | 2015-07-24 | 2015-12-23 | 山东大学 | 一种心二区掌纹的数字提取方法 |
| US9405800B1 (en) * | 2004-12-13 | 2016-08-02 | Iqor Holdings Inc. | Apparatuses, methods and systems for a universal payment integrator |
| CN107122700A (zh) * | 2017-03-02 | 2017-09-01 | 华南理工大学 | 一种基于视频的掌纹掌脉联合注册和识别方法 |
| CN113901940A (zh) * | 2021-10-21 | 2022-01-07 | 华南理工大学 | 基于手掌温度信息的掌纹掌静脉动态融合识别方法及系统 |
| CN114220130A (zh) * | 2021-11-02 | 2022-03-22 | 华南理工大学 | 非接触式手势与掌纹、掌静脉融合的身份识别系统及方法 |
| CN117058723A (zh) * | 2023-10-11 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 掌纹识别方法、装置及存储介质 |
-
2023
- 2023-11-29 CN CN202311614986.7A patent/CN117350737B/zh active Active
Patent Citations (8)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| US9405800B1 (en) * | 2004-12-13 | 2016-08-02 | Iqor Holdings Inc. | Apparatuses, methods and systems for a universal payment integrator |
| CN103793642A (zh) * | 2014-03-03 | 2014-05-14 | 哈尔滨工业大学 | 移动互联网掌纹身份认证方法 |
| CN104951940A (zh) * | 2015-06-05 | 2015-09-30 | 西安理工大学 | 一种基于掌纹识别的移动支付验证方法 |
| CN105184216A (zh) * | 2015-07-24 | 2015-12-23 | 山东大学 | 一种心二区掌纹的数字提取方法 |
| CN107122700A (zh) * | 2017-03-02 | 2017-09-01 | 华南理工大学 | 一种基于视频的掌纹掌脉联合注册和识别方法 |
| CN113901940A (zh) * | 2021-10-21 | 2022-01-07 | 华南理工大学 | 基于手掌温度信息的掌纹掌静脉动态融合识别方法及系统 |
| CN114220130A (zh) * | 2021-11-02 | 2022-03-22 | 华南理工大学 | 非接触式手势与掌纹、掌静脉融合的身份识别系统及方法 |
| CN117058723A (zh) * | 2023-10-11 | 2023-11-14 | 腾讯科技(深圳)有限公司 | 掌纹识别方法、装置及存储介质 |
Non-Patent Citations (2)
| Title |
|---|
| 基于掌印红外热图像的分类识别技术研究;于胜龙;《计算机软件及计算机应用信息科技辑》;第1-54页 * |
| 基于数字图像技术的掌纹识别算法研究;姜辉;《计算机软件及计算机应用信息科技辑》;第1-51页 * |
Also Published As
| Publication number | Publication date |
|---|---|
| CN117350737A (zh) | 2024-01-05 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Halici et al. | Introduction to fingerprint recognition | |
| US7599530B2 (en) | Methods for matching ridge orientation characteristic maps and associated finger biometric sensor | |
| CN100414558C (zh) | 基于模板学习的自动指纹识别系统和方法 | |
| US7881524B2 (en) | Information processing apparatus and information processing method | |
| Olsen et al. | Finger image quality assessment features–definitions and evaluation | |
| EP2495698A1 (en) | Biometric information processing device, biometric information processing method, and computer program for biometric information processing | |
| WO2008008591A2 (en) | Method and apparatus for determining print image quality | |
| Yang et al. | A new mixed-mode biometrics information fusion based-on fingerprint, hand-geometry and palm-print | |
| Serafim et al. | A method based on convolutional neural networks for fingerprint segmentation | |
| Ahmed et al. | Security system based on hand geometry and palmprint for user authentication in E-correction system | |
| CN117350737B (zh) | 一种基于掌纹识别的支付方法及系统 | |
| Khokher et al. | Footprint identification: Review of an emerging biometric trait | |
| CN118885085B (zh) | 一种迷你电脑运行状态信息交互控制方法及系统 | |
| WO2002080088A1 (fr) | Procede d'identification de particularites biologiques chez l'homme | |
| Nandakumar et al. | Incorporating ancillary information in multibiometric systems | |
| Gupta et al. | Multimodal biometrics system for efficient human recognition | |
| JP2007524143A (ja) | 掌紋認証の方法 | |
| Vijayarajan | Multi-biometric system based on the fusion of fingerprint and finger-vein | |
| JP7315884B2 (ja) | 認証方法、認証プログラム、および情報処理装置 | |
| Yao et al. | Fingerprint quality assessment | |
| Abd Hamid et al. | A secure online voting system using face recognition technology | |
| Chen et al. | Fingerprint Quality Assessment based on Texture and Geometric Features. | |
| Daramola et al. | Algorithm for fingerprint verification system | |
| Karri et al. | Fingerprint Image Segmentation Using Local Radial Transformations | |
| Oladele et al. | SECURITY AND PERSONAL IDENTIFICATION AUTOMATIC BI-MODAL HUMAN IMAGE RECOGNITION SYSTEM. |
Legal Events
| Date | Code | Title | Description |
|---|---|---|---|
| PB01 | Publication | ||
| PB01 | Publication | ||
| SE01 | Entry into force of request for substantive examination | ||
| SE01 | Entry into force of request for substantive examination | ||
| GR01 | Patent grant | ||
| GR01 | Patent grant |