CN106611447A - 一种考勤方法和装置 - Google Patents
一种考勤方法和装置 Download PDFInfo
- Publication number
- CN106611447A CN106611447A CN201611271048.1A CN201611271048A CN106611447A CN 106611447 A CN106611447 A CN 106611447A CN 201611271048 A CN201611271048 A CN 201611271048A CN 106611447 A CN106611447 A CN 106611447A
- Authority
- CN
- China
- Prior art keywords
- work attendance
- attendance
- user
- signal
- key word
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C1/00—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
- G07C1/10—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明提供了一种考勤方法和装置。其中,该方法包括通过考勤设备中的音频采集装置接收用户的声音信号;判断声音信号中是否包含预设的考勤请求关键词;如果是,通过考勤设备中的摄像装置获取用户的当前的面部图像信号;其中,该面部图像信号包括面部灰度信号、面部肤色信号和面部纹理信号中的一种或多种;对面部图像信号进行特征提取,生成用户的实际特征数据;将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,根据比对结果设置用户的考勤信息;其中,该考勤信息包括用户姓名和/或用户编码,以及当前时间。本发明可以快速准确地识别用户的身份,进而提高考勤的便捷性。
Description
技术领域
本发明涉及计算机技术领域,尤其是涉及一种考勤方法和装置。
背景技术
考勤,即通过某种方式来获得员工、学生或者某些团体、个人在某个特定的场所及特定的时间段内的出勤情况,包括上下班、上下学、迟到、早退、病假、婚假、丧假、公休、工作时间、加班情况等。通过对各个阶段内出勤情况的研究,进行后续阶段的统筹、安排等。
传统的考勤方法大多是采用接触式的指纹签到,该方式在考勤人员手指脱皮等异常情况下易导致考勤失败;同时,传统的考勤方法需要人工统计分析考勤人员的考勤情况,该方式工作内容繁复,且工作量较大,易造成人力资源的浪费。
针对现有的接触式考勤方式便捷性较差的问题,尚未提出有效的解决方案。
发明内容
有鉴于此,本发明的目的在于提供一种考勤方法和装置,以快速准确地识别用户的身份,进而提高考勤的便捷性。
第一方面,本发明实施例提供了一种考勤方法,包括:通过考勤设备中的音频采集装置接收用户的声音信号;判断声音信号中是否包含预设的考勤请求关键词;如果是,通过考勤设备中的摄像装置获取用户的当前的面部图像信号;其中,该面部图像信号包括面部灰度信号、面部肤色信号和面部纹理信号中的一种或多种;对面部图像信号进行特征提取,生成用户的实际特征数据;将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,根据比对结果设置用户的考勤信息;其中,该考勤信息包括用户姓名和/或用户编码,以及当前时间。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,上述方法还包括:判断声音信号中是否包含预设的查询请求关键词;其中,该查询请求关键词包括查询对象和查询时间段;如果是,从预先保存的考勤信息数据库中查找与查询请求关键词相匹配的考勤信息;其中,该考勤信息包括查询对象和查询对象在查询时间段内的考勤统计结果;显示和/或播放考勤信息。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,上述判断声音信号中是否包含预设的考勤请求关键词包括:提取声音信号的音频特征数据;其中,该音频特征数据包括音频时域特征数据和/或音频频域特征数据;判断音频特征数据与预先存储的考勤请求关键词的音频特征数据的差值是否在预设的范围内;如果是,确定声音信号中包含预设的考勤请求关键词。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,上述获取用户的当前的面部图像信号包括:采用红外线感应和/或移动侦测的方法,检测距离摄像装置预设的范围内是否存在用户的面部图像;如果是,获取用户的面部图像信号。
结合第一方面,本发明实施例提供了第一方面的第四种可能的实施方式,其中,上述将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对包括:采用深度卷积神经网络的方法,将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对。
第二方面,本发明实施例提供了一种考勤装置,包括:声音信号接收模块,用于通过考勤设备中的音频采集装置接收用户的声音信号;第一判断模块,用于判断声音信号中是否包含预设的考勤请求关键词;图像信号获取模块,用于如果声音信号中包含预设的考勤请求关键词,通过考勤设备中的摄像装置获取用户的当前的面部图像信号;其中,该面部图像信号包括面部灰度信号、面部肤色信号和面部纹理信号中的一种或多种;特征提取模块,用于对面部图像信号进行特征提取,生成用户的实际特征数据;比对模块,用于将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,根据比对结果设置用户的考勤信息;其中,该考勤信息包括用户姓名和/或用户编码,以及当前时间。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,上述装置还包括:第二判断模块,用于判断声音信号中是否包含预设的查询请求关键词;其中,该查询请求关键词包括查询对象和查询时间段;查找模块,用于如果声音信号中包含预设的查询请求关键词,从预先保存的考勤信息数据库中查找与查询请求关键词相匹配的考勤信息;其中,该考勤信息包括查询对象和查询对象在查询时间段内的考勤统计结果;显示播放模块,用于显示和/或播放考勤信息。
结合第二方面,本发明实施例提供了第二方面的第二种可能的实施方式,其中,上述第一判断模块包括:数据提取单元,用于提取声音信号的音频特征数据;其中,该音频特征数据包括音频时域特征数据和/或音频频域特征数据;判断单元,用于判断音频特征数据与预先存储的考勤请求关键词的音频特征数据的差值是否在预设的范围内;确定单元,用于如果音频特征数据与预先存储的考勤请求关键词的音频特征数据的差值在预设的范围内,确定声音信号中包含预设的考勤请求关键词。
结合第二方面,本发明实施例提供了第二方面的第三种可能的实施方式,其中,上述图像信号获取模块包括:检测单元,用于采用红外线感应和/或移动侦测的装置,检测距离摄像装置预设的范围内是否存在用户的面部图像;图像信号获取单元,用于如果距离摄像装置预设的范围内存在用户的面部图像,获取用户的面部图像信号。
结合第二方面,本发明实施例提供了第二方面的第四种可能的实施方式,其中,上述比对模块还用于采用深度卷积神经网络的装置,将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对。
本发明实施例带来了以下有益效果:
本发明实施例提供的一种考勤方法和装置,通过考勤设备中的音频采集装置接收用户的声音信号;当该声音信号中包含预设的考勤请求关键词时,通过考勤设备中的摄像装置获取用户的当前的面部图像信号,并对该面部图像信号进行特征提取,可以获得用户的实际特征数据;通过将该实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,可以设置该用户的考勤信息;上述方式可以快速准确地识别用户的身份,进而提高了考勤的便捷性。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的一种考勤方法的流程图;
图2为本发明实施例提供的另一种考勤方法的流程图;
图3为本发明实施例提供的一种学生考勤方法的流程图;
图4为本发明实施例提供的一种考勤装置的结构示意图;
图5为本发明实施例提供的另一种考勤装置的结构示意图。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
考虑到现有的接触式考勤方式便捷性较差的问题,本发明实施例提供了一种考勤方法和装置,该技术可以应用于学生、员工的签到和考勤中,也可以应用于其他需要进行身份识别的技术环境中;该技术可以采用相关的软件和硬件实现,下面通过实施例进行描述。
实施例一:
参见图1所示的一种考勤方法的流程图,该方法可以由与考勤设备连接的云端服务器执行,该方法包括如下步骤:
步骤S102,通过考勤设备中的音频采集装置接收用户的声音信号;其中,该音频采集装置可以为话筒;
步骤S104,判断声音信号中是否包含预设的考勤请求关键词;
所述预设的考勤请求关键词可以包括考勤、签到等;当用户需要进行考勤操作时,可以站立在考勤设备面前,对着考勤设备说“考勤”或者“签到”,音频采集装置接收到该声音信号后,将该声音信号与预先存储的考勤请求关键词进行比对,如果比对成功,则说明该用户发出考勤请求;如果比对失败,则说明该用户没有发出考勤请求,不启动后续的操作。可以理解,上述声音信号中可以仅包含考勤请求关键词,也可以包含有其他词汇,例如“需要考勤”或“需要签到”等。另外,当没有接收到声音信号,或者接收到的声音信号中不包含考勤请求关键词时,上述音频采集装置始终处于等待接收声音信号的状态。
步骤S106,如果是,通过考勤设备中的摄像装置获取用户的当前的面部图像信号;其中,该面部图像信号包括面部灰度信号、面部肤色信号和面部纹理信号中的一种或多种;
在具体实现时,当没有接收到声音信号,或者接收到的声音信号中不包含考勤请求关键词时,上述考勤设备中的摄像装置可以处于休眠状态;当从用户的声音信号中获取到考勤请求关键词时,上述摄像装置启动。
上述面部图像信号可以为通过面部的原始图像直接获取、或简单计算、简单处理得到的信号,除上述面部灰度信号、面部肤色信号和面部纹理信号外,还可以包括与面部五官相关的信号,例如,由眼睛、鼻子、嘴、下巴等构成的几何特征信号等。
步骤S108,对面部图像信号进行特征提取,生成用户的实际特征数据;
该特征提取的方式可以包括多种,例如,统计方法、弹性图匹配方法、神经网络方法、支持向量机方法、隐马尔可夫模型法等。
步骤S110,将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,根据比对结果设置用户的考勤信息;其中,该考勤信息包括用户姓名和/或用户编码,以及当前时间。
在实际实现时,上述预先建立的特征数据库中保存了可能会参加考勤的用户的身份信息和面部图像特征数据;当根据用户当前的面部图像信号获取到的实际特征数据与保存的理想特征数据相同,或者差异在预设的范围内时,则说明请求考勤的用户与该理想特征数据对应的用户身份相同,该请求考勤的用户考勤成功。
进一步地,为了使用户知晓自己是否考勤成功,在设置用户的考勤信息之后,可以通过文字显示或音频播放的方式告知用户是否考勤成功,以及考勤的类型,例如,准时考勤、迟到、早退等。
本发明实施例提供的一种考勤方法,通过考勤设备中的音频采集装置接收用户的声音信号;当该声音信号中包含预设的考勤请求关键词时,通过考勤设备中的摄像装置获取用户的当前的面部图像信号,并对该面部图像信号进行特征提取,可以获得用户的实际特征数据;通过将该实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,可以设置该用户的考勤信息;上述方式可以快速准确地识别用户的身份,进而提高了考勤的便捷性。
进一步地,上述判断声音信号中是否包含预设的考勤请求关键词包括如下步骤:(1)提取声音信号的音频特征数据;其中,该音频特征数据包括音频时域特征数据和/或音频频域特征数据;(2)判断音频特征数据与预先存储的考勤请求关键词的音频特征数据的差值是否在预设的范围内;(3)如果是,确定声音信号中包含预设的考勤请求关键词。
为了提高身份识别的准确性,上述获取用户的当前的面部图像信号包括:(1)采用红外线感应和/或移动侦测的方法,检测距离摄像装置预设的范围内是否存在用户的面部图像;(2)如果是,获取用户的面部图像信号。由于在获取面部图像信号时,用户与摄像装置的距离与面部图像信号的清晰度关联较大,所以需要预先判断用户是否在摄像装置预设的范围内;如果用户超出了该范围,获取到的面部图像可能过小,导致身份识别失败。上述方式保证了获取到的面部图像信号具有较高的清晰度,提高了身份识别的准确性,保证了考勤成功率。
优选地,上述将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,可以以下述方式实现:采用深度卷积神经网络的方法,将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对。
参见图2所示的另一种考勤方法的流程图,该方法在上述图1所示一种考勤方法的基础上,可以在步骤S102之后执行,该方法包括如下步骤:
步骤S202,判断声音信号中是否包含预设的查询请求关键词;其中,该查询请求关键词包括查询对象和查询时间段;具体地,该查询对象可以为一个用户的姓名,该查询时间段可以为“10月份”、“最近一个月”或者“最近一周”等。
步骤S204,如果是,从预先保存的考勤信息数据库中查找与查询请求关键词相匹配的考勤信息;其中,该考勤信息包括查询对象和查询对象在查询时间段内的考勤统计结果;为了方便用户查询,上述考勤统计结果中主要包含该查询对象的考勤异常信息,例如,迟到次数和时间、早退次数和时间、旷课次数和时间等。
步骤S206,显示和/或播放考勤信息。具体地,可以通过文字显示或音频播放的方式告知用户查询对象的考勤信息。
上述方式可以使用户快速地知晓考勤统计结果,避免了用户导出考勤记录后进行人工统计或人工查询的方式,提高了考勤统计工作的效率。
实施例二:
为了对上述实施例一中提供的考勤方法进行详细地说明,参见图3所示的一种学生考勤方法的流程图,该方法包括如下步骤:
步骤S302,接收音频;
步骤S304,通过语音识别模块进行音频识别;该步骤中,为了保证较高的识别率,需要考勤人员吐字清晰。
步骤S306,判断识别结果是否含有“签到”、“考勤”等关键词;如果是,执行步骤S308;如果否,执行步骤S302;
步骤S308,开启摄像机,捕获人脸图像;该步骤中,为了保证人脸图像的清晰度,要求签到的人脸距离摄像头在5m以内。
步骤S310,采用漏斗型级联结构进行人脸检测,并采用自编码器网络进行面部特征点定位;其中,上述漏斗型级联结构(Funnel-Structured Cascade,FuSt)专门针对多姿态人脸检测而设计,其中引入了由粗到精的设计理念,兼顾了速度和精度的平衡;同时为了提高准确度,要求头部的旋转角度在45度以内;上述自编码器网络可以由粗到精的求解人脸表观到人脸形状的复杂的非线性映射过程。
步骤S312,采用深度卷积神经网络进行人脸特征提取与对比,得到比对结果;
步骤S314,记录比对结果中的姓名、学号和考勤时间;其中,考勤时间的格式为:年-月-日时:分:秒,即,YY-MM-DD HH:MM:SS。
当用户需要对考勤数据进行统计分析时,可以以下述方式实现:
(1)根据全国小学生的作息时间将时间进行具体划分,具体为每周一到周五,其中每天分为:8:40--9:20、9:50--10:30、10:40--11:20、14:10--14:50、15:05--15:45、15:55—16:35六个上课时间段(随不同季节的时令可更改)。
(2)设定一系列变量;设上课时间为classbeg[i],其中i∈[1,6];设下课时间为classend[j],其中j∈[1,6];设签到时间为sign_intime[k],其中k∈[1,6];设系统时间为pretime;设迟到时间为latetime;设签到标志signflag为布尔值变量;设上课前五分钟设定为签到时间段。
(3)设置考勤统计规则;当sign_intime[k]在签到时间段时属于按时签到,否则记为迟到并记录迟到时长latetime,不论是否迟到签到标志signflag都为true;若第一节课未签到,则当视为旷课并记录签到标志signflag为false。
(4)每个月初生成全班学生上个月的考勤统计,包含内容有出勤天数,迟到次数(总时间),旷课次数等。
(5)用户通过语音交互来了解考情情况;例如:李同学10月份的迟到次数。
上述统计分析过程中涉及到的时间变量,除了迟到时长latetime外格式均为YY-MM-DD HH:MM:SS;时间变量在计算过程中均换算为秒数。签到时间sign_intime[k]数组变量初始值为0,用来记录每天应有的六次签到时间。当系统当前时间pretime等于下课时间classend[k]时,检测sign_intime[k]是否为0,若为0则代表旷课,同时将其改为1,并且设置签到标志signflag都为false。
本发明实施例提供的一种学生考勤方法,首先语音输入一段音频,然后通过语音识别技术检测所输入的音频是否含有“签到”、“考勤”等关键词;如果有,则进入考勤系统,否则继续识别输入的音频;当进入考勤系统后,系统自动打开摄像机来捕获学生的人脸图像,然后通过SeetaFace人脸识别引擎进行人脸识别,并记录学生考勤信息,其中信息包括:学生姓名,学号,性别,签到时间,最后通过语音交互来反馈是否签到成功,判定是否迟到。上述方式解决了传统接触式指纹考勤方法中,因手指脱皮严重而无法考勤的问题;解决了人工进行考勤统计分析的麻烦,将教师从枯燥乏味的考勤统计分析工作中解放出来;本发明的考勤方法准确率高,操作简便,同时有良好的语音交互性、识别精度高、使用方便等优点。
实施例三:
对应于上述方法实施例,参见图4所示的一种考勤装置的结构示意图,该装置包括如下部分:
声音信号接收模块402,用于通过考勤设备中的音频采集装置接收用户的声音信号;
第一判断模块404,用于判断声音信号中是否包含预设的考勤请求关键词;
图像信号获取模块406,用于如果声音信号中包含预设的考勤请求关键词,通过考勤设备中的摄像装置获取用户的当前的面部图像信号;其中,该面部图像信号包括面部灰度信号、面部肤色信号和面部纹理信号中的一种或多种;
特征提取模块408,用于对面部图像信号进行特征提取,生成用户的实际特征数据;
比对模块410,用于将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,根据比对结果设置用户的考勤信息;其中,该考勤信息包括用户姓名和/或用户编码,以及当前时间。
本发明实施例提供的一种考勤装置,通过考勤设备中的音频采集装置接收用户的声音信号;当该声音信号中包含预设的考勤请求关键词时,通过考勤设备中的摄像装置获取用户的当前的面部图像信号,并对该面部图像信号进行特征提取,可以获得用户的实际特征数据;通过将该实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,可以设置该用户的考勤信息;上述方式可以快速准确地识别用户的身份,进而提高了考勤的便捷性。
进一步地,上述第一判断模块包括如下部分:(1)数据提取单元,用于提取声音信号的音频特征数据;其中,该音频特征数据包括音频时域特征数据和/或音频频域特征数据;(2)判断单元,用于判断音频特征数据与预先存储的考勤请求关键词的音频特征数据的差值是否在预设的范围内;(3)确定单元,用于如果音频特征数据与预先存储的考勤请求关键词的音频特征数据的差值在预设的范围内,确定声音信号中包含预设的考勤请求关键词。
为了提高身份识别的准确性,上述图像信号获取模块包括:(1)检测单元,用于采用红外线感应和/或移动侦测的装置,检测距离摄像装置预设的范围内是否存在用户的面部图像;(2)图像信号获取单元,用于如果距离摄像装置预设的范围内存在用户的面部图像,获取用户的面部图像信号。上述方式保证了获取到的面部图像信号具有较高的清晰度,提高了身份识别的准确性,保证了考勤成功率。
优选地,上述比对模块还用于采用深度卷积神经网络的装置,将实际特征数据与预先建立的特征数据库中的理想特征数据进行比对。
参见图5所示的另一种考勤装置的结构示意图,该装置在上述图4所示一种考勤装置的基础上,可以与声音信号接收模块402连接,该装置包括如下部分:
第二判断模块502,用于判断声音信号中是否包含预设的查询请求关键词;其中,该查询请求关键词包括查询对象和查询时间段;
查找模块504,用于如果声音信号中包含预设的查询请求关键词,从预先保存的考勤信息数据库中查找与查询请求关键词相匹配的考勤信息;其中,该考勤信息包括查询对象和查询对象在查询时间段内的考勤统计结果;
显示播放模块506,用于显示和/或播放考勤信息。
上述方式可以使用户快速地知晓考勤统计结果,避免了用户导出考勤记录后进行人工统计或人工查询的方式,提高了考勤统计工作的效率。
本发明实施例所提供的一种考勤方法和装置的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。
Claims (10)
1.一种考勤方法,其特征在于,包括:
通过考勤设备中的音频采集装置接收用户的声音信号;
判断所述声音信号中是否包含预设的考勤请求关键词;
如果是,通过所述考勤设备中的摄像装置获取所述用户的当前的面部图像信号;其中,所述面部图像信号包括面部灰度信号、面部肤色信号和面部纹理信号中的一种或多种;
对所述面部图像信号进行特征提取,生成所述用户的实际特征数据;
将所述实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,根据比对结果设置所述用户的考勤信息;其中,所述考勤信息包括用户姓名和/或用户编码,以及当前时间。
2.根据权利要求1所述的方法,其特征在于,所述方法还包括:
判断所述声音信号中是否包含预设的查询请求关键词;其中,所述查询请求关键词包括查询对象和查询时间段;
如果是,从预先保存的考勤信息数据库中查找与所述查询请求关键词相匹配的考勤信息;其中,所述考勤信息包括所述查询对象和所述查询对象在所述查询时间段内的考勤统计结果;
显示和/或播放所述考勤信息。
3.根据权利要求1所述的方法,其特征在于,所述判断所述声音信号中是否包含预设的考勤请求关键词包括:
提取所述声音信号的音频特征数据;其中,所述音频特征数据包括音频时域特征数据和/或音频频域特征数据;
判断所述音频特征数据与预先存储的所述考勤请求关键词的音频特征数据的差值是否在预设的范围内;
如果是,确定所述声音信号中包含预设的考勤请求关键词。
4.根据权利要求1所述的方法,其特征在于,所述获取所述用户的当前的面部图像信号包括:
采用红外线感应和/或移动侦测的方法,检测距离所述摄像装置预设的范围内是否存在所述用户的面部图像;
如果是,获取所述用户的面部图像信号。
5.根据权利要求1所述的方法,其特征在于,所述将所述实际特征数据与预先建立的特征数据库中的理想特征数据进行比对包括:
采用深度卷积神经网络的方法,将所述实际特征数据与预先建立的特征数据库中的理想特征数据进行比对。
6.一种考勤装置,其特征在于,包括:
声音信号接收模块,用于通过考勤设备中的音频采集装置接收用户的声音信号;
第一判断模块,用于判断所述声音信号中是否包含预设的考勤请求关键词;
图像信号获取模块,用于如果所述声音信号中包含预设的考勤请求关键词,通过所述考勤设备中的摄像装置获取所述用户的当前的面部图像信号;其中,所述面部图像信号包括面部灰度信号、面部肤色信号和面部纹理信号中的一种或多种;
特征提取模块,用于对所述面部图像信号进行特征提取,生成所述用户的实际特征数据;
比对模块,用于将所述实际特征数据与预先建立的特征数据库中的理想特征数据进行比对,根据比对结果设置所述用户的考勤信息;其中,所述考勤信息包括用户姓名和/或用户编码,以及当前时间。
7.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第二判断模块,用于判断所述声音信号中是否包含预设的查询请求关键词;其中,所述查询请求关键词包括查询对象和查询时间段;
查找模块,用于如果所述声音信号中包含预设的查询请求关键词,从预先保存的考勤信息数据库中查找与所述查询请求关键词相匹配的考勤信息;其中,所述考勤信息包括所述查询对象和所述查询对象在所述查询时间段内的考勤统计结果;
显示播放模块,用于显示和/或播放所述考勤信息。
8.根据权利要求6所述的装置,其特征在于,所述第一判断模块包括:
数据提取单元,用于提取所述声音信号的音频特征数据;其中,所述音频特征数据包括音频时域特征数据和/或音频频域特征数据;
判断单元,用于判断所述音频特征数据与预先存储的所述考勤请求关键词的音频特征数据的差值是否在预设的范围内;
确定单元,用于如果所述音频特征数据与预先存储的所述考勤请求关键词的音频特征数据的差值在预设的范围内,确定所述声音信号中包含预设的考勤请求关键词。
9.根据权利要求6所述的装置,其特征在于,所述图像信号获取模块包括:
检测单元,用于采用红外线感应和/或移动侦测的装置,检测距离所述摄像装置预设的范围内是否存在所述用户的面部图像;
图像信号获取单元,用于如果距离所述摄像装置预设的范围内存在所述用户的面部图像,获取所述用户的面部图像信号。
10.根据权利要求6所述的装置,其特征在于,所述比对模块还用于采用深度卷积神经网络的装置,将所述实际特征数据与预先建立的特征数据库中的理想特征数据进行比对。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611271048.1A CN106611447A (zh) | 2016-12-30 | 2016-12-30 | 一种考勤方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201611271048.1A CN106611447A (zh) | 2016-12-30 | 2016-12-30 | 一种考勤方法和装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN106611447A true CN106611447A (zh) | 2017-05-03 |
Family
ID=58636992
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201611271048.1A Pending CN106611447A (zh) | 2016-12-30 | 2016-12-30 | 一种考勤方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN106611447A (zh) |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107741784A (zh) * | 2017-10-09 | 2018-02-27 | 济南大学 | 一种适用于重度瘫痪病人的娱乐交互方法 |
CN107958501A (zh) * | 2017-11-24 | 2018-04-24 | 合肥博焱智能科技有限公司 | 一种人工智能签到打卡方法及系统 |
CN109117752A (zh) * | 2018-07-24 | 2019-01-01 | 广州市国锐科技有限公司 | 一种基于灰度及rgb的面部识别方法 |
CN109461220A (zh) * | 2018-10-22 | 2019-03-12 | 杭州闪宝科技有限公司 | 签到方法、装置及系统 |
CN109559399A (zh) * | 2018-12-18 | 2019-04-02 | 深圳市致善科技有限公司 | 用户签到方法、系统及存储介质和终端设备 |
CN109684372A (zh) * | 2018-11-13 | 2019-04-26 | 平安科技(深圳)有限公司 | 考勤数据处理方法、装置、终端及存储介质 |
CN109767369A (zh) * | 2019-01-16 | 2019-05-17 | 河北工业职业技术学院 | 一种考勤统计方法、系统及终端设备 |
CN109801393A (zh) * | 2018-12-27 | 2019-05-24 | 广州师盛展览有限公司 | 一种基于声音识别的人工智能展会签到系统 |
CN110443187A (zh) * | 2019-07-31 | 2019-11-12 | 上海秒针网络科技有限公司 | 特征信息的记录方法及装置 |
CN113096263A (zh) * | 2021-03-16 | 2021-07-09 | 普联技术有限公司 | 一种人脸打卡的展示方法、装置、设备及存储介质 |
CN114038077A (zh) * | 2021-10-29 | 2022-02-11 | 金陵科技学院 | 一种教室用疫情防控专用签到测温系统 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014017398A1 (ja) * | 2012-07-24 | 2014-01-30 | 日本電気株式会社 | 出退勤管理装置、そのデータ処理方法、およびプログラム |
CN105488859A (zh) * | 2015-11-24 | 2016-04-13 | 苏州铭冠软件科技有限公司 | 基于人脸识别和语音识别的考勤系统 |
CN105976445A (zh) * | 2016-04-29 | 2016-09-28 | 北京奔影网络科技有限公司 | 打卡方法及装置 |
CN106250747A (zh) * | 2016-08-01 | 2016-12-21 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
-
2016
- 2016-12-30 CN CN201611271048.1A patent/CN106611447A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2014017398A1 (ja) * | 2012-07-24 | 2014-01-30 | 日本電気株式会社 | 出退勤管理装置、そのデータ処理方法、およびプログラム |
CN105488859A (zh) * | 2015-11-24 | 2016-04-13 | 苏州铭冠软件科技有限公司 | 基于人脸识别和语音识别的考勤系统 |
CN105976445A (zh) * | 2016-04-29 | 2016-09-28 | 北京奔影网络科技有限公司 | 打卡方法及装置 |
CN106250747A (zh) * | 2016-08-01 | 2016-12-21 | 联想(北京)有限公司 | 一种信息处理方法及电子设备 |
Non-Patent Citations (1)
Title |
---|
网络作者: "《开源人脸识别引擎SeetaFace(一)》", 18 October 2016 * |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107741784A (zh) * | 2017-10-09 | 2018-02-27 | 济南大学 | 一种适用于重度瘫痪病人的娱乐交互方法 |
CN107958501A (zh) * | 2017-11-24 | 2018-04-24 | 合肥博焱智能科技有限公司 | 一种人工智能签到打卡方法及系统 |
CN109117752A (zh) * | 2018-07-24 | 2019-01-01 | 广州市国锐科技有限公司 | 一种基于灰度及rgb的面部识别方法 |
CN109461220A (zh) * | 2018-10-22 | 2019-03-12 | 杭州闪宝科技有限公司 | 签到方法、装置及系统 |
CN109684372A (zh) * | 2018-11-13 | 2019-04-26 | 平安科技(深圳)有限公司 | 考勤数据处理方法、装置、终端及存储介质 |
CN109559399A (zh) * | 2018-12-18 | 2019-04-02 | 深圳市致善科技有限公司 | 用户签到方法、系统及存储介质和终端设备 |
CN109801393A (zh) * | 2018-12-27 | 2019-05-24 | 广州师盛展览有限公司 | 一种基于声音识别的人工智能展会签到系统 |
CN109767369A (zh) * | 2019-01-16 | 2019-05-17 | 河北工业职业技术学院 | 一种考勤统计方法、系统及终端设备 |
CN110443187A (zh) * | 2019-07-31 | 2019-11-12 | 上海秒针网络科技有限公司 | 特征信息的记录方法及装置 |
CN110443187B (zh) * | 2019-07-31 | 2022-08-26 | 上海秒针网络科技有限公司 | 特征信息的记录方法及装置 |
CN113096263A (zh) * | 2021-03-16 | 2021-07-09 | 普联技术有限公司 | 一种人脸打卡的展示方法、装置、设备及存储介质 |
CN114038077A (zh) * | 2021-10-29 | 2022-02-11 | 金陵科技学院 | 一种教室用疫情防控专用签到测温系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN106611447A (zh) | 一种考勤方法和装置 | |
Song et al. | Spectral representation of behaviour primitives for depression analysis | |
CN107818798B (zh) | 客服服务质量评价方法、装置、设备及存储介质 | |
CN107704834B (zh) | 微表情面审辅助方法、装置及存储介质 | |
CN108566565A (zh) | 弹幕展示方法及装置 | |
CN110619568A (zh) | 风险评估报告的生成方法、装置、设备及存储介质 | |
CN109145145A (zh) | 一种数据更新方法、客户端及电子设备 | |
CN108537017B (zh) | 一种用于管理游戏用户的方法与设备 | |
CN109801105A (zh) | 基于人工智能的服务评分方法、装置、设备及存储介质 | |
CN106648082A (zh) | 一种模拟真人互动的智能服务设备及方法 | |
CN101506828A (zh) | 媒体辨识 | |
CN108446320A (zh) | 一种数据处理方法、装置和用于数据处理的装置 | |
CN112233690B (zh) | 双录方法、装置、终端及存储介质 | |
CN109766419A (zh) | 基于语音分析的产品推荐方法、装置、设备及存储介质 | |
CN111599359A (zh) | 人机交互方法、服务端、客户端及存储介质 | |
CN109462603A (zh) | 基于盲检测的声纹认证方法、设备、存储介质及装置 | |
Mustakim et al. | Face recognition system based on raspberry Pi platform | |
CN110264243A (zh) | 基于活体检测的产品推广方法、装置、设备及存储介质 | |
CN109739354A (zh) | 一种基于声音的多媒体交互方法及装置 | |
CN111275444A (zh) | 基于合同签署的双录方法、装置、终端及存储介质 | |
CN111445252A (zh) | 一种生物特征库的建立方法、装置及设备 | |
CN206672635U (zh) | 一种基于图书服务机器人的语音交互装置 | |
CN114639152A (zh) | 基于人脸识别的多模态语音交互方法、装置、设备及介质 | |
CN103443772A (zh) | 基于多模态信息的人口统计分析的系统和方法 | |
CN108305629B (zh) | 一种场景学习内容获取方法、装置、学习设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20170503 |
|
RJ01 | Rejection of invention patent application after publication |