CN105913507B - 一种考勤方法及系统 - Google Patents
一种考勤方法及系统 Download PDFInfo
- Publication number
- CN105913507B CN105913507B CN201610290659.4A CN201610290659A CN105913507B CN 105913507 B CN105913507 B CN 105913507B CN 201610290659 A CN201610290659 A CN 201610290659A CN 105913507 B CN105913507 B CN 105913507B
- Authority
- CN
- China
- Prior art keywords
- attendance
- user characteristics
- user
- image
- personnel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C1/00—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
- G07C1/10—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
- Collating Specific Patterns (AREA)
Abstract
本公开涉及一种考勤方法及系统,其中,所述方法通过摄像头输出的上下班出入口处的视频,服务器实时获取所述待考勤人员的若干张图像,通过对获取的图像提取用户特征和时间信息,结合用户特征库中存储的待考勤人员的用户特征信息来实现一种无需待考勤人员专门就考勤付出时间的、非接触式考勤,既可以有效的提高考勤效率,也能克服考勤代签的问题,提高了考勤的实时性和有效性。基于所述方法,本公开还实现了相应的系统。
Description
技术领域
本公开涉及一般的控制或监视技术领域,特别涉及一种考勤方法及系统。
背景技术
考勤签到是目前公司和企业必不可少的一项工作,最原始的签到方式无疑是人手签到,但是这种方式可以很容易代签,可靠性不强。随后又出现了很多考勤签到方式,例如打卡签到、指纹签到等等,但是这些方式仍然可以代签。因此,在考勤方面更需要一种具有不可复制且不可替代性的签到手段。
发明内容
针对上述问题,本公开提供了一种考勤方法及系统。
一种考勤方法,所述方法包括下述步骤:
S100、建立所有T名待考勤人员的用户特征库,所述用户特征库存储待考勤人员Ui的用户标识IDi,和用户标识IDi所对应的Mi个用户特征,其中,i的取值范围从1到T,Mi为正整数;
S200、对于待考勤人员Ui,至少通过摄像头输出的上下班出入口处的视频,服务器实时获取所述待考勤人员Ui的Ni张图像和所述Ni张图像的时间信息,并基于每张图像提取1个用户特征,以获得该待考勤人员的Ni个用户特征,其中,Ni为正整数;
S300、对于待考勤人员Ui,利用步骤S200中所述Ni个用户特征和所述Ni张图像的时间信息,以及步骤S100中所述用户特征库,对所述待考勤人员Ui的上下班进行考勤。
基于所述方法,实现了一种考勤系统,所述系统包括用户特征库、图像用户特征获得模块、考勤模块;其中:
用户特征库,用于:存储待考勤人员Ui的用户标识IDi,和用户标识IDi所对应的Mi个用户特征,其中,i的取值范围从1到T,Mi为正整数;T为带考勤人员总数;
图像用户特征获得模块,用于:对待考勤人员Ui,至少通过摄像头输出的上下班出入口处的视频,服务器实时获取所述待考勤人员Ui的Ni张图像和所述Ni张图像的时间信息,并基于每张图像提取1个用户特征,以获得该待考勤人员的Ni个用户特征,其中,Ni为正整数;
考勤模块,用于:对待考勤人员Ui,利用所述用户特征提取模块提取的所述Ni个用户特征和所述Ni张图像的时间信息,以及所述用户特征库,对所述待考勤人员Ui的上下班进行考勤。
本公开通过摄像头输出的上下班出入口处的视频,服务器实时获取所述待考勤人员的若干张图像,通过对获取的图像提取用户特征和时间信息,结合用户特征库中存储的待考勤人员的用户特征信息来对待考勤人员的上下班进行非接触式考勤,可以有效的避免考勤中人员代签的现象。
附图说明
图1为本公开一个实施例中的考勤方法流程图;
图2为本公开一个实施例中步骤S300在有用户标识情况下的一种实施方式流程图;
图3为本公开一个实施例中步骤S300在没有用户标识情况下的一种实施方式流程图;
图4为本公开一个实施例中将步骤S302B进一步分解的流程图;
图5为本公开一个实施例中将步骤S303B进一步分解的流程图;
图6为本公开一个实施例中的结构图;
图7为本公开一个实施例中的一种结构图;
图8为本公开一个实施例中的一种结构图;
图9为本公开一个实施例中的一种结构图;
图10为本公开一个实施例中的一种结构图;
图11为本公开一个实施例中的一种结构图。
具体实施方式
在一个基础的实施例中,提供了一种考勤方法,所述方法流程图如图1所示,该方法包括下述步骤:
S100、建立所有T名待考勤人员的用户特征库,所述用户特征库存储待考勤人员Ui的用户标识IDi,和用户标识IDi所对应的Mi个用户特征,其中,i的取值范围从1到T,Mi为正整数;
S200、对于待考勤人员Ui,至少通过摄像头输出的上下班出入口处的视频,服务器实时获取所述待考勤人员Ui的Ni张图像和所述Ni张图像的时间信息,并基于每张图像提取1个用户特征,以获得该待考勤人员的Ni个用户特征,其中,Ni为正整数;
S300、对于待考勤人员Ui,利用步骤S200中所述Ni个用户特征和所述Ni张图像的时间信息,以及步骤S100中所述用户特征库,对所述待考勤人员Ui的上下班进行考勤。
本公开由于通过摄像头输出的上下班出入口处的视频,服务器实时获取所述待考勤人员的若干张图像,通过对获取的图像提取用户特征和时间信息,结合用户特征库中存储的待考勤人员的用户特征信息来实现考勤,很好的克服了考勤代签问题。同时,由于是一种非接触式考勤,无需待考勤人员专门就考勤付出时间,因此本公开方法可以有效的提高考勤效率。在应用时,由于使用用户标识来获取考勤人员图像,加速了用户特征匹配速度,提高了考勤的实时性和有效性。其中,所述客户端可以是手机、平板、定制带有人员标识的卡片、以及指纹识别器等能够向服务器发送用户标识的电子设备。
在一个实施例中,揭示了步骤S100中用户标识IDi的生成方式,即:
所述待考勤人员Ui的用户标识IDi是自动生成的,或被人为设置的,或基于每个待考勤人员的客户端而获得的;
所述用户标识IDi所对应的Mi个用户特征是基于预先获得的待考勤人员Ui的Mi个图像来提取的。
在一个实施例中,步骤S300还包括考勤结果提示,所述相似性匹配结果提示的内容形式包括采用下述一种或任意多种方式的组合形式:静态文字、图案或动态文字、动态图案、声音。所述提示包括具体的考勤人员或者访客。本公开可以实时显示视频与识别结果,当考勤人员被识别时,会给出相应提示。
在一个实施例中,揭示了步骤S300在有用户标识情况下的一种实施方式,如图2所示,所述步骤S300进一步包括下述步骤:
S301A、对于与服务器在同一空间区域的、待考勤人员Ui的客户端,服务器与该客户端进行通信以获得该待考勤人员Ui的用户标识IDi,并记录相应通信时间;
S302A、基于该用户标识IDi,获取存储在所述用户特征库的该用户标识IDi对应的Mi个用户特征;
S303A、将步骤S302A获取的Mi个用户特征与步骤S200获取的Ni个用户特征分别进行相似度比对;
S304A、若存在一次比对结果满足相似度比对的阈值要求,且步骤S301A中的通信时间与步骤S200中的所述Ni张图像的时间信息满足考勤的时间要求,则该用户标识所属用户的考勤被判定为有效;否则,考勤被判定为无效。
特别地,若服务器接收到与其不在同一区域客户端发送的用户标识,则不进行任何操作。这种方式对于使用移动设备发送用户标识的情况,可以有效避免不在考勤区域客户端就发送用户标识,服务器就在视频图像中匹配考勤人员,进而影响实际的考勤效率。
在一个实施例中,还揭示了步骤S300在没有用户标识情况下的一种实施方式。即:在没有用户标识情况时,服务器也可以根据获取的实时视频图像进行用户考勤,同时还能区别是考勤人员还是访客。在这种情况下,如图3所示,所述步骤S300进一步包括下述步骤:
S301B、将步骤S200中获得的Ni个用户特征作为一个整体检索条件,并以此整体检索条件检索所述用户特征库;
S302B、从所述用户特征库中获取与该Ni个用户特征最相似的Ki个相似用户特征,以及所述Ki个相似用户特征所对应的待考勤人员的用户标识;
S303B、将Ni个用户特征和所述Ki个相似用户特征分别进行相似度比对;
S304B、若存在一次比对结果满足相似度比对的阈值要求,且步骤S200中的所述Ni张图像的时间信息满足考勤的时间要求,则:
该次比对所对应的相似用户被识别为待考勤人员,且该Ni个用户特征所属用户的考勤被判定为有效;
否则,该Ni个用户特征所属用户被识别为访客。
在一个实施例中,如图4所示,步骤S302B进一步包括下述步骤来获取与该Ni个用户特征最相似的Ki个相似用户特征:
S302B1、通过Ki个相似用户特征来建立KD树,其中,Ki≥Mi;
S302B2、对所述KD树进行遍历,每层选取用户特征中的一维进行比较,以确定下一层检索的分支,最后选取最相似的Ki个相似用户特征;
S302B3、进一步获取所述Ki个相似用户特征所对应的用户标识,以此作为可能的相似用户。
所述KD树的每一层可以为人脸特征的一维,在查找相似特征向量时,可以减少比较次数加速比对过程。在搜索相似特征时,通过遍历基于人脸特征的KD树实现,每层选取人脸特征的一维进行比较以确定下一层检索的分支。
在一个实施例中,如图5所示,步骤S303B中所述将Ni个用户特征和所述Ki个相似用户特征分别进行相似度比对,进一步包括下述步骤:
S303B1、定义相似度矩阵Si,userj,i∈[1,Ni],j∈[1,Ki];
S303B2、对Ni张图像,根据正脸、清晰度计算一个质量分值qi,i∈[1,Ni];
S303B3、按照下式计算步骤S302B3中所述用户标识所对应的每个用户的Mi个用户特征与步骤S200中的Ni个用户特征的相似度得分:
S303B4、,基于步骤S303B3的相似度得分,获得最大相似度及其所属该次比对所对应的用户标识,以此作为可能的相似用户。
为了能够准确识别出用户,将所述用户特征包括人脸特征和/或步态特征。在应用时,可以单独使用人脸特征或者步态特征,也可以是两者结合使用。为了方便检索,所述用户特征在存储时采用分布式存储方式,以便进行并行检索,提高检索速度。优选的,所述人脸特征包括类间变化和类内变化,所述类间变化是指不同人之间的人脸差异;所述类内变化是指一个人在不同条件下人脸之间的差异。在一个实施例中,列举了产生类内变化的不同条件,即所述不同条件包括表情、光线、年龄所相关的条件。在其它实施例中,不同条件包括表情、光线、年龄、发型、化妆与否等相关的条件。在一个实施例中,不同条件包括性别、年龄、是否戴眼镜、帽子、口罩等,并将这些不同条件作为检索条件,为检索查询提供帮助。
优选的,所述人脸特征通过深度学习方法对人脸特征所属图像中的人脸进行特征提取。在一个实施例中,使用深度学习方法提取约180维的人脸特征,更能有效地在不同条件下产生的类内变化与由于不同人脸产生的类间变化进行区分。深度学习方法可以通过非线性变换得到新的特征表示:该特征在尽可能多地去掉类内变化的同时,保留类间变化。通过深度学习方法提取每张人脸个性化的特征,能很大提高人脸识别的准确性。在一个实施例中,给出了深度学习采用的具体函数,即:所述深度学习方法使用非线性变换sigmoid函数:
优选的,所述步态特征通过步态特征矢量表示,所述步态特征矢量通过下述步骤获得:
S111、获取用户步态的周期性特征矢量;
S112、基于周期性特征矢量的处理获取步态特征矢量。
所述周期性特征矢量相当于被检测对象的在时间维度上的特征,所述步态特征矢量相当于被检测对象在空间维度上的特征,在周期性特征矢量的基础上获得的不同特征矢量具有较高的鲁棒性。而由于不需要对每一帧图像都进行步态特征矢量提取,能够进行较快的识别判断。所述步态特征矢量至少需要表达下述内容:脚的摆动区域、腿的摆动区域、手臂的摆动区域和躯干的摆动区域。在识别时,当检测对象的不同特征矢量和用户特征库中存储的匹配达到设定阈值时,则认为匹配成功。
在一个实施例中,所述周期性特征矢量通过主成分分析方法获得。所述步骤S112中处理采用的方法是一种基于主成分分析和线性判别分析的联合处理方法。采用这种全局的方法来获得反应人体形态特征的步态特征矢量,对图像品质要求较低,这一优点使本公开方法在通过摄像头获取的动态人员的图像时进行步态识别的场景中尤为重要。
在一个实施例中,步骤S200还包括下述步骤:
S201、将实时获取的所述Ni张图像,和从每张图像中提取的用户特征,以及所述Ni张图像的时间信息分别进行存储;
S202、进一步对每张图像中的地点进行识别,并将所述地点进行存储。
在这个实施例中,将实时获取的Ni张图像、从每张图像中提取的用户特征及图像获取时间、地点进行存储。对多个摄像头在监控区域拍摄到的人脸,系统在线自动构建一个人脸库,记录该人脸访问时间、出现地点、外观特征等,对外提供人脸查询检索功能。用户可以使用人脸图片在库中进行检索,查询该人是否在监控区域出现过并得到其相关访问信息或行走轨迹。
利用存储的信息,可以统计每天进入公司的员工人数,其中重复客户只计算一次,还可以将访客的相关信息进行保存以用于查询;而利用保存的时间信息可以统计每个进出公司的时间和次数。
在步骤S200中服务器实时获取所述待考勤人员Ui的Ni张图像时,为提高匹配的准确性,服务器自动挑选高质量的人脸图像,优选的,所述质量判断包括下述步骤:
S211、对每个检测到的人脸图像,首先判断两眼间距是否满足设定要求,若满足要求则执行步骤S212;否则,舍弃该检测到的人脸图像;
S212、计算检测到的人脸图像的人脸置信度得分是否满足设定要求,若满足要求则执行步骤S213;否则,舍弃该检测到的人脸图像;
S213、计算正脸得分是否满足设定要求,如满足,则认为该人脸图像能够用于识别人脸;否则,舍弃该检测到的人脸图像。
可选的,所述跟踪通过比较当前跟踪位置处的人脸与已检测到的人脸面积重合度来判断是否为同一目标。在一个实施例中,比较所定位的人脸与当前跟踪位置处的“人脸”的面积重合度,如果重合度大于阈值,比如0.6,则认为是同一个目标,如果所定位的人脸没有与跟踪的人脸重合或者重合度小于阈值,则认为不是同一目标。
根据上述方法,可建立相应的考勤系统,所述系统结构示意图如图6所示,所述系统包括用户特征库、图像用户特征获得模块、考勤模块;其中:
用户特征库,用于:存储待考勤人员Ui的用户标识IDi,和用户标识IDi所对应的Mi个用户特征,其中,i的取值范围从1到T,Mi为正整数;T为带考勤人员总数;
图像用户特征获得模块,用于:对待考勤人员Ui,至少通过摄像头输出的上下班出入口处的视频,服务器实时获取所述待考勤人员Ui的Ni张图像和所述Ni张图像的时间信息,并基于每张图像提取1个用户特征,以获得该待考勤人员的Ni个用户特征,其中,Ni为正整数;
考勤模块,用于:对待考勤人员Ui,利用所述用户特征提取模块提取的所述Ni个用户特征和所述Ni张图像的时间信息,以及所述用户特征库,对所述待考勤人员Ui的上下班进行考勤。
特别地,所述用户特征库中存储的待考勤人员Ui的用户标识IDi是是自动生成的,或被人为设置的,或基于每个待考勤人员的客户端而获得的;所述用户标识IDi所对应的Mi个用户特征是基于预先获得的待考勤人员Ui的Mi个图像来提取的。
在一个实施例中,所述系统结构示意图如图7所示,所述图像用户特征获得模块还包括下述单元:
地点识别单元,用于:对每张图像中的地点进行识别;
信息存储单元,用于:将实时获取的所述Ni张图像,和从每张图像中提取的用户特征,以及所述Ni张图像的时间信息分别进行存储;对每张图像中识别出的地点进行存储。
在一个实施例中,如图8所示,所述考勤模块包括下述单元来实现对所述待考勤人员Ui的上下班进行考勤:
用户标识获取单元,用于:对与服务器在同一空间区域的、待考勤人员Ui的客户端,服务器与该客户端进行通信以获得该待考勤人员Ui的用户标识IDi,记录相应通信时间;并将所述用户标识IDi输出给第一检索单元,将所述通信时间输出给第一考勤判断单元;
第一检索单元,用于:利用接收的用户标识IDi,获取存储在所述用户特征库的该用户标识IDi对应的Mi个用户特征;并将所述用户标识IDi以及其对应的Mi个用户特征输出给相似度对比单元;
第一相似度对比单元,用于:接收所述第一检索单元的Mi个用户特征,将其与所述图像用户特征获得模块获取的Ni个用户特征分别进行相似度比对,并将比对结果输出给第一考勤判断单元;
第一考勤判断单元,用于:接收所述用户标识获取单元的通信时间以及所述第一相似度对比单元的对比结果;若存在一次比对结果满足相似度比对的阈值要求,且接收的通信时间与所述图像用户特征获得模块获取的所述Ni张图像的时间信息满足考勤的时间要求,则该用户标识所属用户的考勤被判定为有效;否则,考勤被判定为无效。
在一个实施例中,如图9所示,所述考勤模块包括下述单元来实现对所述待考勤人员Ui的上下班进行考勤:
第二检索单元,用于:将所述图像用户特征获得模块获取的Ni个用户特征作为整体检索条件,并以此整体检索条件检索所述用户特征库,并将获取的与该Ni个用户特征最相似的Ki个相似用户特征,以及所述Ki个相似用户特征所对应的待考勤人员的用户标识作为检索结果输出给第二相似比对单元;
第二相似比对单元,用于:将接收的Ni个用户特征和所述Ki个相似用户特征分别进行相似度比对,并将比对结果输出给第二考勤判断单元;
第二考勤判断单元,用于:接收第二相似比对单元输出的比对结果;若存在一次比对结果满足相似度比对的阈值要求,且步骤S200中的所述Ni张图像的时间信息满足考勤的时间要求,则:该次比对所对应的相似用户被识别为待考勤人员,且该Ni个用户特征所属用户的考勤被判定为有效;否则,该Ni个用户特征所属用户被识别为访客。
在一个实施例中,所述第二检索单元包括KD树;
所述KD树通过Ki个相似用户特征来构建,其中Ki≥Mi;每层是用户特征中的一维。
在一个实施例中,如图10所示,所述第二相似比对单元包括相似度矩阵、质量评估器、相似度得分计算器、比较器;
所述相似度矩阵,其每个元素表示一个作为检索条件的用户特征和作为检索结果的一个用户特征之间的相似度;所述相似矩阵的列向量表示一个检索结果的用户特征与不同检索条件的用户特征的相似度分量;
所述质量评估器,用于:根据正脸、清晰度计算一张图像的质量分值;并将属于同一用户的图像的质量分值,按照所述相似度矩阵中作为检索条件的用户特征对应的图像顺序写入到第一行向量;
所述相似度得分计算器,用于:将所述第一行向量与所述相似度矩阵相乘,得到相似度得分结果向量;
所述比较器,用于:从所述相似度得分结果向量元素中选择最高的相似度得分,并将该相似度得分对应的检索结果用户作为可能的相似用户。
在一个实施例中,所述图像用户特征获得模块包括人脸特征提取子模块和/或步态特征提取子模块;
所述人脸特征提取子模块,用于提取图像中的人脸特征;
所述步态特征提取子模块,用于提取图像中的步态特征。
进一步地,如图11所示,所述图像步态特征提取子模块包括主成分分析单元、步态特征提取单元;所述主成分分析单元,使用主成分分析方法提取服务器实时获取所述待考勤人员Ui的Ni张图像中的周期性特征矢量,并输出给所述步态特征提取单元;所述步态特征提取单元对所述主成分分析单元输出的周期性特征矢量采用一种基于主成分分析和线性判别分析的联合处理方法来获得步态特征矢量。
以上对本公开进行了详细介绍,本文中应用了具体个例对本公开的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本公开的方法及其核心思想;同时,对于本领域技术人员,依据本公开的思想,在具体实施方式及应用范围上均会有改变之处,综上所述,本说明书内容不应理解为对本公开的限制。
Claims (11)
1.一种考勤方法,其特征在于,所述方法包括下述步骤:
S100、建立所有T名待考勤人员的用户特征库,所述用户特征库存储待考勤人员Ui的用户标识IDi,和用户标识IDi所对应的Mi个用户特征,其中,i的取值范围从1到T,Mi为正整数;
S200、对于待考勤人员Ui,至少通过摄像头输出的上下班出入口处的视频,服务器实时获取所述待考勤人员Ui的Ni张图像和所述Ni张图像的时间信息,并基于每张图像提取1个用户特征,以获得该待考勤人员的Ni个用户特征,其中,Ni为正整数;并将所述Ni个用户特征作为一个整体检索条件,并以此整体检索条件检索所述用户特征库;
S300、对于待考勤人员Ui,利用步骤S200中所述Ni个用户特征和所述Ni张图像的时间信息,以及步骤S100中所述用户特征库,对所述待考勤人员Ui的上下班进行考勤。
2.根据权利要求1所述的方法,其特征在于,步骤S100中:
所述待考勤人员Ui的用户标识IDi是自动生成的,或被人为设置的,或基于每个待考勤人员的客户端而获得的;
所述用户标识IDi所对应的Mi个用户特征是基于预先获得的待考勤人员Ui的Mi个图像来提取的。
3.根据权利要求1所述的方法,其特征在于,步骤S200还包括下述步骤:
S201、将实时获取的所述Ni张图像,和从每张图像中提取的用户特征,以及所述Ni张图像的时间信息分别进行存储;
S202、进一步对每张图像中的地点进行识别,并将所述地点进行存储。
4.根据权利要求1所述的方法,其特征在于,步骤S300包括下述步骤:
S302B、从所述用户特征库中获取与该Ni个用户特征最相似的Ki个相似用户特征,以及所述Ki个相似用户特征所对应的待考勤人员的用户标识;
S303B、将Ni个用户特征和所述Ki个相似用户特征分别进行相似度比对;
S304B、若存在一次比对结果满足相似度比对的阈值要求,且步骤S200中的所述Ni张图像的时间信息满足考勤的时间要求,则:
该次比对所对应的相似用户被识别为待考勤人员,且该Ni个用户特征所属用户的考勤被判定为有效;
否则,该Ni个用户特征所属用户被识别为访客。
5.根据权利要求4所述的方法,其特征在于,所述S302B包括下述步骤:
S302B1、通过Ki个相似用户特征来建立KD树,其中,Ki≥Mi;
S302B2、对所述KD树进行遍历,每层选取用户特征中的一维进行比较,以确定下一层检索的分支,最后选取最相似的Ki个相似用户特征;
S302B3、进一步获取所述Ki个相似用户特征所对应的用户标识,以此作为可能的相似用户。
6.根据权利要求5所述的方法,其特征在于,所述S303B包括下述步骤:
S303B1、定义相似度矩阵Si,userj,i∈[1,Ni],j∈[1,Ki];
S303B2、对Ni张图像,根据正脸、清晰度计算一个质量分值qi,i∈[1,Ni];
S303B3、按照下式计算步骤S302B3中所述用户标识所对应的每个用户的Mi个用户特征与步骤S200中的Ni个用户特征的相似度得分:
S303B4、基于S303B3的相似度得分,获得最大相似度及其所属该次比对所对应的用户标识,以此作为可能的相似用户。
7.根据权利要求1所述的方法,其特征在于:
所述用户特征包括人脸特征和/或步态特征。
8.根据权利要求7所述的方法,其特征在于:
所述步态特征通过步态特征矢量表示,所述步态特征矢量通过下述步骤获得:
S111、获取用户步态的周期性特征矢量;
S112、基于周期性特征矢量的处理获取步态特征矢量。
9.根据权利要求8所述的方法,其特征在于,所述周期性特征矢量通过主成分分析方法获得。
10.根据权利要求8所述的方法,其特征在于,所述步骤S112中处理采用的方法是一种基于主成分分析和线性判别分析的联合处理方法。
11.一种考勤系统,其特征在于:
所述系统包括用户特征库、图像用户特征获得模块、考勤模块;其中:
用户特征库,用于:存储待考勤人员Ui的用户标识IDi,和用户标识IDi所对应的Mi个用户特征,其中,i的取值范围从1到T,Mi为正整数;T为带考勤人员总数;
图像用户特征获得模块,用于:对待考勤人员Ui,至少通过摄像头输出的上下班出入口处的视频,服务器实时获取所述待考勤人员Ui的Ni张图像和所述Ni张图像的时间信息,并基于每张图像提取1个用户特征,以获得该待考勤人员的Ni个用户特征,其中,Ni为正整数;
考勤模块,用于:对待考勤人员Ui,利用所述用户特征提取模块提取的所述Ni个用户特征和所述Ni张图像的时间信息,以及所述用户特征库,对所述待考勤人员Ui的上下班进行考勤;
所述考勤模块包括下述单元对所述待考勤人员Ui的上下班进行考勤:
第二检索单元,用于:将所述图像用户特征获得模块获取的Ni个用户特征作为整体检索条件,并以此整体检索条件检索所述用户特征库。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610290659.4A CN105913507B (zh) | 2016-05-03 | 2016-05-03 | 一种考勤方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610290659.4A CN105913507B (zh) | 2016-05-03 | 2016-05-03 | 一种考勤方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105913507A CN105913507A (zh) | 2016-08-31 |
CN105913507B true CN105913507B (zh) | 2018-10-12 |
Family
ID=56752461
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610290659.4A Active CN105913507B (zh) | 2016-05-03 | 2016-05-03 | 一种考勤方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105913507B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107818099B (zh) * | 2016-09-12 | 2021-12-14 | 阿里巴巴集团控股有限公司 | 一种基于照片的地点配置方法及装置 |
CN107506983A (zh) * | 2017-08-31 | 2017-12-22 | 济南浪潮高新科技投资发展有限公司 | 一种考勤系统及考勤方法 |
CN110969713A (zh) * | 2018-09-30 | 2020-04-07 | 上海小蚁科技有限公司 | 考勤统计方法、装置及系统、可读存储介质 |
CN110119673B (zh) * | 2019-03-27 | 2021-01-12 | 广州杰赛科技股份有限公司 | 无感人脸考勤方法、装置、设备及存储介质 |
CN110322579A (zh) * | 2019-06-25 | 2019-10-11 | 佳都新太科技股份有限公司 | 考勤方法、系统、装置、对应设备、服务器和存储介质 |
CN111160200B (zh) * | 2019-12-23 | 2023-06-16 | 浙江大华技术股份有限公司 | 一种路人库的建立方法及装置 |
CN111325865A (zh) * | 2020-03-20 | 2020-06-23 | 广州美电恩智电子科技有限公司 | 一种无感考勤方法和装置以及设备 |
CN112017319B (zh) * | 2020-08-21 | 2022-03-25 | 中建二局第一建筑工程有限公司 | 一种智能巡更安防方法、装置、系统及存储介质 |
CN113241078A (zh) * | 2021-05-10 | 2021-08-10 | 杭州魔点科技有限公司 | 基于考勤机的语音识别的方法和系统 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014017398A1 (ja) * | 2012-07-24 | 2014-01-30 | 日本電気株式会社 | 出退勤管理装置、そのデータ処理方法、およびプログラム |
CN104376022B (zh) * | 2013-08-16 | 2021-04-13 | 联想(北京)有限公司 | 一种数据处理方法和装置 |
CN103985165A (zh) * | 2014-05-12 | 2014-08-13 | 深圳市威富多媒体有限公司 | 一种基于移动终端、语音及人脸识别的考勤方法及装置 |
CN105095703A (zh) * | 2014-05-13 | 2015-11-25 | 上海豪普森生物识别应用科技有限公司 | 一种多媒体显示及身份识别装置及系统 |
CN104463745A (zh) * | 2014-12-23 | 2015-03-25 | 北海和思科技有限公司 | 一种实时监督学生考勤状态的家校通系统 |
-
2016
- 2016-05-03 CN CN201610290659.4A patent/CN105913507B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN105913507A (zh) | 2016-08-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105913507B (zh) | 一种考勤方法及系统 | |
Muhammad et al. | A facial-expression monitoring system for improved healthcare in smart cities | |
Takalkar et al. | A survey: facial micro-expression recognition | |
Wang et al. | Facial recognition system using LBPH face recognizer for anti-theft and surveillance application based on drone technology | |
CN112348117B (zh) | 场景识别方法、装置、计算机设备和存储介质 | |
Liong et al. | Evaluation of the spatio-temporal features and gan for micro-expression recognition system | |
US7529411B2 (en) | Interactive system for recognition analysis of multiple streams of video | |
US20070174272A1 (en) | Facial Recognition in Groups | |
Lai et al. | Visual speaker identification and authentication by joint spatiotemporal sparse coding and hierarchical pooling | |
CN110929570B (zh) | 虹膜快速定位装置及其定位方法 | |
Wu et al. | Hierarchical dynamic depth projected difference images–based action recognition in videos with convolutional neural networks | |
Singh et al. | Performance enhancement of salient object detection using superpixel based Gaussian mixture model | |
CN112183167B (zh) | 考勤方法、认证方法、活体检测方法、装置及设备 | |
Viedma et al. | Relevant features for gender classification in NIR periocular images | |
Sarin et al. | Cnn-based multimodal touchless biometric recognition system using gait and speech | |
Uddin et al. | An indoor human activity recognition system for smart home using local binary pattern features with hidden markov models | |
Asmitha et al. | Improved multiview biometric object detection for anti spoofing frauds | |
Galdi et al. | PROTECT: Pervasive and useR fOcused biomeTrics bordEr projeCT–a case study | |
CN109117800A (zh) | 基于卷积神经网络的人脸性别识别方法及系统 | |
US11783587B2 (en) | Deep learning tattoo match system based | |
Zheng et al. | A novel pedestrian detection algorithm based on data fusion of face images | |
Granda et al. | Face recognition systems in math classroom through computer vision traditional techniques | |
Santosh et al. | Recent Trends in Image Processing and Pattern Recognition: Third International Conference, RTIP2R 2020, Aurangabad, India, January 3–4, 2020, Revised Selected Papers, Part I | |
CN113762237A (zh) | 文本图像处理方法、装置、设备及存储介质 | |
Sainthillier et al. | Skin capillary network recognition and analysis by means of neural algorithms |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |