CN107301686A - 一种基于指纹识别的考勤系统 - Google Patents

一种基于指纹识别的考勤系统 Download PDF

Info

Publication number
CN107301686A
CN107301686A CN201710453941.4A CN201710453941A CN107301686A CN 107301686 A CN107301686 A CN 107301686A CN 201710453941 A CN201710453941 A CN 201710453941A CN 107301686 A CN107301686 A CN 107301686A
Authority
CN
China
Prior art keywords
mrow
msub
msup
pixel
fingerprint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201710453941.4A
Other languages
English (en)
Other versions
CN107301686B (zh
Inventor
李健斌
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Inner Mongolia Bo Microcomputer Co ltd
Original Assignee
Shenzhen City Creative Industry Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenzhen City Creative Industry Technology Co Ltd filed Critical Shenzhen City Creative Industry Technology Co Ltd
Priority to CN201710453941.4A priority Critical patent/CN107301686B/zh
Publication of CN107301686A publication Critical patent/CN107301686A/zh
Application granted granted Critical
Publication of CN107301686B publication Critical patent/CN107301686B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C1/00Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
    • G07C1/10Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1347Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/12Fingerprints or palmprints
    • G06V40/1365Matching; Classification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Other Investigation Or Analysis Of Materials By Electrical Means (AREA)
  • Collating Specific Patterns (AREA)

Abstract

本发明涉及一种基于指纹识别的考勤系统,包括指纹识别模块、体温监测模块和考勤模块,所述指纹识别模块用于获取目标指纹图像,并对指纹图像进行识别,输出指纹识别结果;所述体温监测模块与所述指纹识别模块关联,用于体温的实时检测;所述考勤模块用于在指纹识别结果为已经识别时,记录考勤时间和体温检测结果。本发明采用基于指纹识别的考勤系统,具有监测员工体温的功能,考勤精确度更高,更人性化。

Description

一种基于指纹识别的考勤系统
技术领域
本发明涉及一种考勤系统,具体涉及一种基于指纹识别的考勤系统。
背景技术
现在企、事业管理的一项重要组成部分就是其人事考勤制度,它的好坏直接影响到单位的经济、社会效益以及员工的薪资等诸多方面。因此,对单位员工的出勤情况进行有效、科学地管理已经成为每个单位面临的重要课题。传统的考勤方式如手工签到、打卡钟、IC卡或磁卡考勤方式,经常出现代打卡现象。即便采用人工干预方式,但由于受到技术手段本身的限制,这就决定了传统考勤方式是一种低效率、难管理、易假冒、高人情的不科学管理手段,因此考勤管理起不到较好的效果。
相关技术中,采用对指纹图像进行预处理的方式获取质量更高的图像信息。对指纹图像进行预处理,可以消除在传输的过程中产生的噪声,同时突显指纹图像的边缘信息,提高了指纹图像的质量。目前,形态成分分析(MCA)是一种基于稀疏表示的图像分解方法。该方法的思想是假设图像的每一个原信号,在合适的自殿下都有相对应的一个稀疏向量,且该字典对其他的内容不具有稀疏性。在稀疏分解中,采用匹配跟踪算法获得图像稀疏的表示,并且从一个冗余的字典中选择出最适合当前待分解图像的原子集合,并根据该集合将图像进行分解。该图像分解方法对图像的预处理有着良好的效果。
发明内容
针对上述问题,本发明旨在提供一种基于指纹识别的考勤系统。
本发明的目的采用以下技术方案实现:
一种基于指纹识别的考勤系统,包括指纹识别模块、体温监测模块和考勤模块,所述指纹识别模块用于获取目标指纹图像,并对指纹图像进行识别,输出指纹识别结果;所述体温监测模块与所述指纹识别模块关联,用于体温的实时检测;所述考勤模块用于在指纹识别结果为已经识别时,记录考勤时间和体温检测结果。
本发明的有益效果为:采用基于指纹识别的考勤系统,能够更准确的获取员工信息,使考勤系统准确性更高,另外考勤系统具有实时体温检测功能,能有效地检测员工的身体健康状况。
附图说明
利用附图对本发明作进一步说明,但附图中的实施例不构成对本发明的任何限制,对于本领域的普通技术人员,在不付出创造性劳动的前提下,还可以根据以下附图获得其它的附图。
图1是本发明的框架结构图;
图2是本发明指纹识别模块的框架结构图。
附图标记:
指纹识别模块1、体温检测模块2、考勤模块3、结果显示模块4、指纹库10、指纹图像采集单元11、指纹图像预处理单元12、指纹图像分割单元13、指纹图像特征提取单元14、指纹图像匹配单元15。
具体实施方式
结合以下应用场景对本发明作进一步描述。
参见图1,本实施例的一种基于指纹识别的考勤系统,包括指纹识别模块1、体温监测模块2和考勤模块3,所述指纹识别模块1用于获取目标指纹图像,并对指纹图像进行识别,输出指纹识别结果;所述体温监测模块2与所述指纹识别模块关联,用于体温的实时检测;所述考勤模块3用于在指纹识别结果为已经识别时,记录考勤时间和体温检测结果。
优选地,还包括考勤结果显示模块4,该考勤结果显示模块在指纹识别结果为已经识别时,通过屏幕显示考勤成功,在指纹识别结果为识别失败时,通过屏幕显示考勤失败。
优选地,所述考勤模块在记录体温检测结果时,当体温检测结果超出预设的范围,将该体温检测结果标记为异常。
优选地,参考图2,所述指纹识别模块包括指纹库10、指纹图像采集单元11、指纹图像预处理单元12、指纹图像分割单元13、指纹图像特征提取单元14和指纹图像匹配单元15;
本发明上述实施例,采用基于指纹识别的考勤系统,能够更准确的获取员工信息,使考勤系统准确性更高,另外考勤系统具有实时体温检测功能,能有效地检测员工的身体健康状况。
优选地,所述指纹库10中存有预先录入的标准指纹图像。
优选地,所述指纹图像采集单元11用于获取目标指纹图像。
优选地,所述指纹图像预处理单元12用于对获取的目标指纹图像进行预处理,包括:
首先对目标指纹图像进行形态成分分析(MCA)分解,得到目标指纹图像的平滑部分和细节部分,对于每个细节部分Pn,按照下列除噪声公式进行除噪,定义除噪声公式为:
式中,P‘n(x,y)是第n个细节部分像素点(x,y)的像素值,n=1,2,…i,i表示细节部分的数量,Pn(x-x’,y-y’)表示第n个细节部分像素点(x-x’,y-y’)的像素值,x’和y’分别表示平面内像素点(x-x’,y-y’)与像素点(x,y)的水平距离和垂直距离, 表示设定的除噪因子,fp(x-x’,y-y’)表示除噪时像素点(x-x’,y-y’)对像素点(x,y)的像素值的影响因子,σL和σk分别表示所有像素点(x-x’,y-y’)与像素点(x,y)的距离和灰度值差的标准偏差,q(x,y)和q(x-x’,y-y’)分别表示像素点(x,y)和(x-x’,y-y’)的灰度值,ω表示设定的灰度比重;
然后将处理过的细节部分与图像的平滑部分进行图像重构,得到预处理后的目标指纹图像;
其中,形态成分分析(MCA)是一种基于稀疏表示的图像分解方法。该方法的思想是假设图像的每一个原信号,在合适的字典下都有相对应的一个稀疏向量,且该字典对其他的内容不具有稀疏性。在稀疏分解中,采用匹配跟踪算法获得图像稀疏的表示,并且从一个冗余的字典中选择出最适合当前待分解图像的原子集合,并根据该集合将图像进行分解。
本优选实施例,设置指纹图像预处理单元12,对采集到的目标指纹图像进行预处理,采用自定义除噪声公式,能够有效地去除目标指纹图像于无线传输过程中产生的噪声,同时有效地保留了目标指纹图像的细节特征,为后续的指纹识别奠定基础,提高了考勤系统的精确度。
优选地,所述指纹分割单元13用于对预处理后的目标指纹图像进行分割处理,包括:
首先使用高斯金字塔对预处理后的指纹图像进行多尺度分离,得到不同尺度下的子图像,并且将每一个尺度下的子图像,使用三通道分离方法进行RGB分离,得到分离后三通道子图像,分别为R、G和B子图像,利用自定义磨光函数分别对R、G和B子图像进行磨光处理,自定义磨光函数为:
式中,E′(x,y)表示磨光处理后像素点(x,y)的灰度值,E(x-x1,y-y1)表示像素点(x-x1,y-y1)的灰度值,x1和y1分别表示平面内像素点(x-x1,y-y1)和像素点(x,y)的水平距离和垂直距离,x1,y1∈[-fv,fv],fv表示设定的磨光因子,fh表示设定的平滑因子;
然后根据磨光处理后的子图像,计算R,G,B子图像的梯度值,采用的梯度计算公式为:
式中,U(x,y)表示像素点(x,y)的梯度值,E′(x,y),E′(x+1,y),E′(x,y+1)分别表示根据磨光函数计算得到的像素点(x,y),(x+1,y),(x,y+1)的灰度值;
之后将R,G,B子图像的梯度值相加,得到子尺度图像的梯度值,定义梯度叠加的计算公式为:
式中,Dk(x,y)表示第k个尺度图像像素点的梯度值,k=1,2,3,…,K,K为设定的尺度数量,UR(x,y),UG(x,y),UB(x,y)分别表示根据所述的梯度计算公式计算得到的R,G,B子图像像素点(x,y)的梯度值,α1,α2,α3为设定的R、G、B权重因子;
接着把每个子尺度图像对应像素点的梯度值相加,得到综合梯度值,采用的综合叠加公式为:
式中,D′(x,y)表示预处理后的指纹图像像素点(x,y)的综合梯度值,Dk(x,y)表示根据所述的梯度叠加公式计算得到的第k个子尺度下的子尺度图像像素点(x,y)的梯度值,γk表示第k个子尺度下的权重,k=1,2,3,…,K,K为设定的尺度数量;
最后将综合梯度值大于设定阈值的像素点作为边缘点,分割边缘点内的图像作为目标指纹图像的特征部分进行进一步筛选。
本优选实施例,采用自定义磨光函数,能够有效地突出图像的边缘特征信息,提高了边缘检测和分割处理的精确度;同时,对预处理后的目标指纹图像进行多尺度下的分R、G、B通道的边缘检测处理,能够更灵活地选的所需的边缘信息进行提取和分割,有利于后续的指纹识别,提高了考勤系统对员工身份识别的精确度。
优选地,所述指纹图像特征提取单元用于获取所述目标指纹图像特征部分的目标指纹特征,包括:
首先获取目标指纹图像特征部分中每个像素点的灰度值,然后采用自定义指纹特征值函数计算指纹特征值,自定义指纹特征值函数为:
式中,Q0(x,y)表示像素点(x,y)的局部灰度差异值,C(a)表示二值化函数,H(x,y)和H(x-xs,y-ys)分别表示像素点(x,y)和(x-xs,y-ys)的灰度值,xs和ys分别表示平面内像素点(x-xs,y-ys)与像素点(x,y)的水平距离和垂直距离,且需满足|xs|+|ys|≤L,L表示设定的距离阈值,Q1(x,y)表示像素点(x,y)的灰度的梯度差异值,θ1表示像素点(x,y)的局部灰度差异的平均值,其中Q2(x,y)表示像素点(x,y)的灰度水平,θ2表示整个图像特征部分中所有像素点的灰度平均值;
最后分别统计Q0、Q1和Q2的直方图作为指纹特征。
本优选实施例,采用自定义指纹特征值函数对进行指纹特征提取,能够有效、准确地描述出指纹特征,函数中引入了局部灰度差异的平均值作为参考因子,克服了由于亮度分布不均带来的指纹特征描述不准确的问题,从而提高了指纹识别的精确度,不仅提高了考勤系统的工作效率,而且使得考勤系统对员工的身份识别更加准确。
优选地,所述指纹图像匹配单元15用于对比指纹库中所有标准指纹图像与目标指纹图像的指纹特征,输出指纹识别结果。
最后应当说明的是,以上实施例仅用以说明本发明的技术方案,而非对本发明保护范围的限制,尽管参照较佳实施例对本发明作了详细地说明,本领域的普通技术人员应当理解,可以对本发明的技术方案进行修改或者等同替换,而不脱离本发明技术方案的实质和范围。

Claims (7)

1.一种基于指纹识别的考勤系统,其特征是,包括指纹识别模块、体温监测模块和考勤模块,所述指纹识别模块用于获取目标指纹图像,并对指纹图像进行识别,输出指纹识别结果;所述体温监测模块与所述指纹识别模块关联,用于体温的实时检测;所述考勤模块用于在指纹识别结果为已经识别时,记录考勤时间和体温检测结果。
2.根据权利要求1所述的基于指纹识别的考勤系统,其特征是,还包括考勤结果显示模块,该考勤结果显示模块在指纹识别结果为已经识别时,通过屏幕显示考勤成功,在指纹识别结果为识别失败时,通过屏幕显示考勤失败。
3.根据权利要求1所述的基于指纹识别的考勤系统,其特征是,所述考勤模块在记录体温检测结果时,当体温检测结果超出预设的范围,将该体温检测结果标记为异常。
4.根据权利要求1所述的基于指纹识别的考勤系统,其特征是,所述指纹识别模块包括指纹库、指纹图像采集单元、指纹图像预处理单元、指纹图像分割单元、指纹图像特征提取单元和指纹图像匹配单元。
5.根据权利要求4所述的基于指纹识别的考勤系统,其特征是,所述指纹图像预处理单元用于对获取的目标指纹图像进行预处理,包括:
首先对目标指纹图像进行形态成分分析(MCA)分解,得到目标指纹图像的平滑部分和细节部分,对于每个细节部分Pn,按照下列除噪声公式进行除噪,定义除噪声公式为:
<mrow> <msub> <mi>f</mi> <mi>p</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <msup> <mi>x</mi> <mo>,</mo> </msup> <mo>,</mo> <mi>y</mi> <mo>-</mo> <msup> <mi>y</mi> <mo>,</mo> </msup> <mo>)</mo> </mrow> <mo>=</mo> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mi>&amp;omega;</mi> <mfrac> <mrow> <mo>|</mo> <mi>q</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <mi>q</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <msup> <mi>x</mi> <mo>,</mo> </msup> <mo>,</mo> <mi>y</mi> <mo>-</mo> <msup> <mi>y</mi> <mo>,</mo> </msup> <mo>)</mo> </mrow> <mo>|</mo> </mrow> <mrow> <mn>2</mn> <msub> <mi>&amp;sigma;</mi> <mi>k</mi> </msub> </mrow> </mfrac> <mo>-</mo> <mfrac> <msqrt> <mrow> <msup> <mi>x</mi> <mrow> <mo>,</mo> <mn>2</mn> </mrow> </msup> <mo>+</mo> <msup> <mi>y</mi> <mrow> <mo>,</mo> <mn>2</mn> </mrow> </msup> </mrow> </msqrt> <mrow> <mn>2</mn> <msub> <mi>&amp;sigma;</mi> <mi>L</mi> </msub> </mrow> </mfrac> <mo>)</mo> </mrow> </mrow>
式中,P‘n(x,y)是第n个细节部分像素点(x,y)的像素值,n=1,2,…i,i表示细节部分的数量,Pn(x-x’,y-y’)表示第n个细节部分像素点(x-x’,y-y’)的像素值,x’和y’分别表示平面内像素点(x-x’,y-y’)与像素点(x,y)的水平距离和垂直距离, 表示设定的除噪因子,fp(x-x’,y-y’)表示除噪时像素点(x-x’,y-y’)对像素点(x,y)的像素值的影响因子,σL和σk分别表示所有像素点(x-x’,y-y’)与像素点(x,y)的距离和灰度值差的标准偏差,q(x,y)和q(x-x’,y-y’)分别表示像素点(x,y)和(x-x’,y-y’)的灰度值,ω表示设定的灰度比重;
然后将处理过的细节部分与图像的平滑部分进行图像重构,得到预处理后的目标指纹图像。
6.根据权利要求5所述的基于指纹识别的考勤系统,其特征是,所述指纹分割单元用于对预处理后的目标指纹图像进行分割处理,包括:
首先使用高斯金字塔对预处理后的指纹图像进行多尺度分离,得到不同尺度下的子图像,并且将每一个尺度下的子图像,使用三通道分离方法进行RGB分离,得到分离后三通道子图像,分别为R、G和B子图像,利用自定义磨光函数分别对R、G和B子图像进行磨光处理,自定义磨光函数为:
<mrow> <msup> <mi>E</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>=</mo> <mo>-</mo> <msub> <mi>f</mi> <mi>v</mi> </msub> </mrow> <msub> <mi>f</mi> <mi>v</mi> </msub> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>=</mo> <mo>-</mo> <msub> <mi>f</mi> <mi>v</mi> </msub> </mrow> <msub> <mi>f</mi> <mi>v</mi> </msub> </munderover> <mfrac> <mn>1</mn> <mrow> <mn>2</mn> <msub> <mi>&amp;pi;f</mi> <mi>h</mi> </msub> </mrow> </mfrac> <mi>exp</mi> <mrow> <mo>(</mo> <mo>-</mo> <mfrac> <mrow> <msup> <msub> <mi>x</mi> <mn>1</mn> </msub> <mn>2</mn> </msup> <mo>+</mo> <msup> <msub> <mi>y</mi> <mn>1</mn> </msub> <mn>2</mn> </msup> </mrow> <mrow> <msup> <msub> <mi>f</mi> <mi>v</mi> </msub> <mn>2</mn> </msup> </mrow> </mfrac> <mo>-</mo> <mfrac> <msqrt> <mrow> <msup> <msub> <mi>x</mi> <mn>1</mn> </msub> <mn>2</mn> </msup> <mo>+</mo> <msup> <msub> <mi>y</mi> <mn>1</mn> </msub> <mn>2</mn> </msup> </mrow> </msqrt> <mrow> <mn>2</mn> <msub> <mi>f</mi> <mi>h</mi> </msub> </mrow> </mfrac> <mo>)</mo> </mrow> <mi>E</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mn>1</mn> </msub> <mo>,</mo> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mn>1</mn> </msub> <mo>)</mo> </mrow> </mrow> 1
式中,E′(x,y)表示磨光处理后像素点(x,y)的灰度值,E(x-x1,y-y1)表示像素点(x-x1,y-y1)的灰度值,x1和y1分别表示平面内像素点(x-x1,y-y1)和像素点(x,y)的水平距离和垂直距离,x1,y1∈[-fv,fv],fv表示设定的磨光因子,fh表示设定的平滑因子;
然后根据磨光处理后的子图像,计算R,G,B子图像的梯度值,采用的梯度计算公式为:
<mrow> <mi>U</mi> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfrac> <mrow> <mo>|</mo> <msup> <mi>E</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mi>E</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> <mrow> <msup> <mi>E</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>+</mo> <mn>1</mn> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>&amp;times;</mo> <msup> <mi>E</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> </mfrac> <mo>+</mo> <mfrac> <mrow> <mo>|</mo> <msup> <mi>E</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>-</mo> <msup> <mi>E</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>|</mo> </mrow> <mrow> <msup> <mi>E</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>+</mo> <mn>1</mn> <mo>)</mo> </mrow> <mo>&amp;times;</mo> <msup> <mi>E</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow>
式中,U(x,y)表示像素点(x,y)的梯度值,E′(x,y),E′(x+1,y),E′(x,y+1)分别表示根据磨光函数计算得到的像素点(x,y),(x+1,y),(x,y+1)的灰度值;
之后将同一子尺度下的R,G,B子图像的梯度值相加,得到该子尺度图像的梯度值,定义梯度叠加的计算公式为:
<mrow> <msub> <mi>D</mi> <mi>k</mi> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <msqrt> <mrow> <mfrac> <mn>1</mn> <msub> <mi>&amp;alpha;</mi> <mn>1</mn> </msub> </mfrac> <msub> <mi>U</mi> <mi>R</mi> </msub> <msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mfrac> <mn>1</mn> <msub> <mi>&amp;alpha;</mi> <mn>2</mn> </msub> </mfrac> <msub> <mi>U</mi> <mi>G</mi> </msub> <msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <mfrac> <mn>1</mn> <msub> <mi>&amp;alpha;</mi> <mn>3</mn> </msub> </mfrac> <msub> <mi>U</mi> <mi>B</mi> </msub> <msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>
式中,Dk(x,y)表示第k个尺度图像像素点的梯度值,k=1,2,3,…,K,K为设定的尺度数量,UR(x,y),UG(x,y),UB(x,y)分别表示根据所述的梯度计算公式计算得到的R,G,B子图像像素点(x,y)的梯度值,α1,α2,α3为设定的R、G、B权重因子;
接着把每个子尺度图像对应像素点的梯度值相加,得到综合梯度值,采用的综合叠加公式为:
<mrow> <msup> <mi>D</mi> <mo>&amp;prime;</mo> </msup> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <msqrt> <mrow> <munderover> <mo>&amp;Sigma;</mo> <mrow> <mi>k</mi> <mo>=</mo> <mn>1</mn> </mrow> <mi>K</mi> </munderover> <msub> <mi>&amp;gamma;</mi> <mi>k</mi> </msub> <mo>&amp;times;</mo> <msup> <mrow> <mo>(</mo> <msub> <mi>D</mi> <mi>k</mi> </msub> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> <mo>)</mo> </mrow> <mn>2</mn> </msup> </mrow> </msqrt> </mrow>
式中,D′(x,y)表示预处理后的指纹图像像素点(x,y)的综合梯度值,Dk(x,y)表示根据所述的梯度叠加公式计算得到的第k个子尺度下的子尺度图像像素点(x,y)的梯度值,γk表示第k个子尺度下的权重,k=1,2,3,…,K,K为设定的尺度数量;
最后将综合梯度值大于设定阈值的像素点作为边缘点,分割边缘点内的图像作为目标指纹图像的特征部分进行进一步筛选。
7.根据权利要求6所述的基于指纹识别的考勤系统,其特征是,所述指纹图像特征提取单元用于获取所述目标指纹图像特征部分的目标指纹特征,包括:
首先获取目标指纹图像特征部分中每个像素点的灰度值,然后采用自定义指纹特征值函数计算指纹特征值,自定义指纹特征值函数为:
<mrow> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <msub> <mi>Q</mi> <mn>0</mn> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>L</mi> </mrow> <mi>L</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>L</mi> </mrow> <mi>L</mi> </munderover> <mi>C</mi> <mo>(</mo> <mrow> <mi>H</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>H</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mfrac> <mrow> <mi>H</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>H</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> </mrow> <mo>)</mo> </mrow> </mrow> <mrow> <mi>H</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> </mrow> <mo>+</mo> <mi>H</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> </mrow> <mo>)</mo> </mrow> </mrow> </mfrac> </mrow> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Q</mi> <mn>1</mn> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>L</mi> </mrow> <mi>L</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>L</mi> </mrow> <mi>L</mi> </munderover> <mi>C</mi> <mo>(</mo> <mrow> <mi>H</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <mi>H</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>,</mo> <mi>y</mi> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&amp;theta;</mi> <mn>1</mn> </msub> </mrow> <mo>)</mo> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <msub> <mi>Q</mi> <mn>2</mn> </msub> <mrow> <mo>(</mo> <mi>x</mi> <mo>,</mo> <mi>y</mi> <mo>)</mo> </mrow> <mo>=</mo> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>L</mi> </mrow> <mi>L</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>L</mi> </mrow> <mi>L</mi> </munderover> <mi>C</mi> <mo>(</mo> <mrow> <mfrac> <mn>1</mn> <mrow> <msup> <mrow> <mo>(</mo> <mrow> <mi>L</mi> <mo>+</mo> <mn>1</mn> </mrow> <mo>)</mo> </mrow> <mn>2</mn> </msup> <mo>+</mo> <msup> <mi>L</mi> <mn>2</mn> </msup> </mrow> </mfrac> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>L</mi> </mrow> <mi>L</mi> </munderover> <munderover> <mo>&amp;Sigma;</mo> <mrow> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>=</mo> <mo>-</mo> <mi>L</mi> </mrow> <mi>L</mi> </munderover> <mi>H</mi> <mrow> <mo>(</mo> <mrow> <mi>x</mi> <mo>-</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>,</mo> <mi>y</mi> <mo>-</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> </mrow> <mo>)</mo> </mrow> <mo>-</mo> <msub> <mi>&amp;theta;</mi> <mn>2</mn> </msub> </mrow> <mo>)</mo> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>,</mo> </mrow> 2
<mrow> <mo>|</mo> <msub> <mi>x</mi> <mi>s</mi> </msub> <mo>|</mo> <mo>+</mo> <mo>|</mo> <msub> <mi>y</mi> <mi>s</mi> </msub> <mo>|</mo> <mo>&amp;le;</mo> <mi>L</mi> <mo>,</mo> <mi>C</mi> <mrow> <mo>(</mo> <mi>a</mi> <mo>)</mo> </mrow> <mo>=</mo> <mfenced open = "{" close = ""> <mtable> <mtr> <mtd> <mrow> <mn>1</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>a</mi> <mo>&amp;GreaterEqual;</mo> <mn>0</mn> </mrow> </mtd> </mtr> <mtr> <mtd> <mrow> <mn>0</mn> <mo>,</mo> </mrow> </mtd> <mtd> <mrow> <mi>a</mi> <mo>&lt;</mo> <mn>0</mn> </mrow> </mtd> </mtr> </mtable> </mfenced> <mo>;</mo> </mrow>
式中,Q0(x,y)表示像素点(x,y)的局部灰度差异值,C(a)表示二值化函数,H(x,y)和H(x-xs,y-ys)分别表示像素点(x,y)和(x-xs,y-ys)的灰度值,xs和ys分别表示平面内像素点(x-xs,y-ys)与像素点(x,y)的水平距离和垂直距离,且需满足|xs|+|ys|≤L,L表示设定的距离阈值,Q1(x,y)表示像素点(x,y)的灰度的梯度差异值,θ1表示像素点(x,y)的局部灰度差异的平均值,其中Q2(x,y)表示像素点(x,y)的灰度水平,θ2表示整个图像特征部分中所有像素点的灰度平均值;
最后分别统计Q0、Q1和Q2的直方图作为指纹特征。
CN201710453941.4A 2017-06-15 2017-06-15 一种基于指纹识别的考勤系统 Expired - Fee Related CN107301686B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710453941.4A CN107301686B (zh) 2017-06-15 2017-06-15 一种基于指纹识别的考勤系统

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710453941.4A CN107301686B (zh) 2017-06-15 2017-06-15 一种基于指纹识别的考勤系统

Publications (2)

Publication Number Publication Date
CN107301686A true CN107301686A (zh) 2017-10-27
CN107301686B CN107301686B (zh) 2019-05-24

Family

ID=60136429

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710453941.4A Expired - Fee Related CN107301686B (zh) 2017-06-15 2017-06-15 一种基于指纹识别的考勤系统

Country Status (1)

Country Link
CN (1) CN107301686B (zh)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095999A (ja) * 2009-10-29 2011-05-12 Shimizu Corp 作業環境モニタシステム
CN104464009A (zh) * 2014-12-23 2015-03-25 北海激活商贸有限责任公司 一种基于指纹识别的考勤系统
CN104680609A (zh) * 2015-03-26 2015-06-03 山东工商学院 基于虚拟现实技术的多功能考勤装置及使用其的方法
CN104966327A (zh) * 2015-06-15 2015-10-07 北京智联新科信息技术有限公司 一种基于物联网健康监测与签到系统和方法
CN105788013A (zh) * 2014-12-15 2016-07-20 西安星云网络有限公司 一种带体温测量功能的考勤机

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011095999A (ja) * 2009-10-29 2011-05-12 Shimizu Corp 作業環境モニタシステム
CN105788013A (zh) * 2014-12-15 2016-07-20 西安星云网络有限公司 一种带体温测量功能的考勤机
CN104464009A (zh) * 2014-12-23 2015-03-25 北海激活商贸有限责任公司 一种基于指纹识别的考勤系统
CN104680609A (zh) * 2015-03-26 2015-06-03 山东工商学院 基于虚拟现实技术的多功能考勤装置及使用其的方法
CN104966327A (zh) * 2015-06-15 2015-10-07 北京智联新科信息技术有限公司 一种基于物联网健康监测与签到系统和方法

Also Published As

Publication number Publication date
CN107301686B (zh) 2019-05-24

Similar Documents

Publication Publication Date Title
CN104866829B (zh) 一种基于特征学习的跨年龄人脸验证方法
CN104166841B (zh) 一种视频监控网络中指定行人或车辆的快速检测识别方法
CN103324944B (zh) 一种基于svm和稀疏表示的假指纹检测方法
CN110852283A (zh) 一种基于改进YOLOv3的安全帽佩戴检测与跟踪方法
CN110097034A (zh) 一种智能人脸健康程度的识别与评估方法
CN109671068B (zh) 一种基于深度学习的腹部肌肉标注方法及装置
CN104835175B (zh) 一种基于视觉注意机制的核环境中目标检测方法
CN104794440B (zh) 一种基于多分块多尺度lbp的假指纹检测方法
CN106611160A (zh) 一种基于卷积神经网络的图像头发识别方法及其装置
CN103116763A (zh) 一种基于hsv 颜色空间统计特征的活体人脸检测方法
CN103218603B (zh) 一种人脸自动标注方法及系统
CN104881865A (zh) 基于无人机图像分析的森林病虫害监测预警方法及其系统
CN105976392B (zh) 基于最大输出概率的车辆轮胎检测方法及装置
CN107358260A (zh) 一种基于表面波cnn的多光谱图像分类方法
CN103263278A (zh) 一种从超声图像上自动测量胎儿颈背透明物厚度的图像处理方法
CN109214439A (zh) 一种基于多特征融合的红外图像结冰河流检测方法
CN104123543A (zh) 一种基于人脸识别的眼球运动识别方法
CN103390151B (zh) 人脸检测方法及装置
CN103034865A (zh) 一种基于多尺度相对熵的视觉显著区域提取方法
CN106650623A (zh) 一种基于人脸检测的出入境人证核实的方法
CN107909009A (zh) 一种基于路面学习的障碍物检测方法与装置
CN104077568A (zh) 一种高精度的驾驶员行为识别与监控方法及系统
CN105678735A (zh) 一种用于雾天图像的目标显著性检测方法
CN109902550A (zh) 行人属性的识别方法和装置
CN106485710A (zh) 一种元件错件检测方法和装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
TA01 Transfer of patent application right
TA01 Transfer of patent application right

Effective date of registration: 20190412

Address after: 010010 seat 1106, Kangdu A, Xijie University, Saihan District, Hohhot City, Inner Mongolia Autonomous Region

Applicant after: Inner Mongolia Bo Microcomputer Co.,Ltd.

Address before: 518000 West Tower 1708, Nanshan Software Park, Nanshan Digital Culture Industry Base, 10128 Shennan Avenue, Nanshan Street, Nanshan District, Shenzhen City, Guangdong Province

Applicant before: SHENZHEN CHUANGYI INDUSTRIAL TECHNOLOGY CO.,LTD.

GR01 Patent grant
GR01 Patent grant
DD01 Delivery of document by public notice
DD01 Delivery of document by public notice

Addressee: Wei Wenting

Document name: Deemed no notice

CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20190524