CN110555349B - 一种工作时长统计方法和装置 - Google Patents
一种工作时长统计方法和装置 Download PDFInfo
- Publication number
- CN110555349B CN110555349B CN201810558559.4A CN201810558559A CN110555349B CN 110555349 B CN110555349 B CN 110555349B CN 201810558559 A CN201810558559 A CN 201810558559A CN 110555349 B CN110555349 B CN 110555349B
- Authority
- CN
- China
- Prior art keywords
- skeleton point
- skeleton
- target
- feature vector
- video frames
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/10—Office automation; Time management
- G06Q10/109—Time management, e.g. calendars, reminders, meetings or time accounting
- G06Q10/1091—Recording time for administrative or management purposes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
Landscapes
- Engineering & Computer Science (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Entrepreneurship & Innovation (AREA)
- Strategic Management (AREA)
- General Physics & Mathematics (AREA)
- Marketing (AREA)
- Operations Research (AREA)
- Quality & Reliability (AREA)
- Tourism & Hospitality (AREA)
- Data Mining & Analysis (AREA)
- General Business, Economics & Management (AREA)
- Economics (AREA)
- Educational Administration (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本申请提供一种工作时长统计方法和装置,该方法为:获取目标员工在连续t个视频帧内的人体运动图像序列,并对人体运动图像序列进行人体骨架点提取,得到骨架点坐标序列;从骨架点坐标序列中筛选出关键部位的骨架点坐标序列,关键部位根据目标员工的职业确定;根据关键部位的骨架点坐标序列构造骨架点特征向量;从模板库中获取与目标员工的职业对应的参考骨架点特征向量,计算参考骨架点特征向量与构造得到的骨架点特征向量之间的相似度;若相似度满足设定要求,则将该t个视频帧对应的时长计入该目标员工的工作时长。该方法通过对员工姿态进行分析,判断员工的行为是工作行为还是非工作行为,并对员工执行工作行为的时长计入工作时长。
Description
技术领域
本申请涉及计算机视觉领域,尤其涉及一种工作时长统计方法和装置。
背景技术
目前绝大部分企业是通过考勤系统来统计员工的上下班时间,进而统计员工的工作时长。但这种传统方式不仅准确率低(例如可能存在代打卡现象),而且对于员工的工作效果的测评效果也欠佳。因而,一套能够实时跟踪评测员工的有效工作时长的设备显得非常重要和迫切。
发明内容
有鉴于此,本申请提供一种工作时长统计方法和装置,用以对员工真正在执行工作行为时的有效工作时长进行统计。
具体地,本申请是通过如下技术方案实现的:
本申请第一方面,提供了一种工作时长统计方法,包括:
获取目标员工在连续t个视频帧内的人体运动图像序列;
对所述人体运动图像序列进行人体骨架点提取,得到骨架点坐标序列;
从所述骨架点坐标序列中筛选出关键部位的骨架点坐标序列,所述关键部位根据所述目标员工的职业确定;
根据所述关键部位的骨架点坐标序列构造骨架点特征向量;
从模板库中获取与所述目标员工的职业对应的参考骨架点特征向量,计算所述参考骨架点特征向量与构造得到的骨架点特征向量之间的相似度;
若所述相似度满足设定要求,则将所述t个视频帧对应的时长计入所述目标员工的工作时长。
本申请第二方面,提供了一种工作时长统计装置,具有实现上述第一方面提供的方法的功能。所述功能可以通过硬件实现,也可以通过硬件执行相应的软件实现。所述硬件或软件包括一个或多个与上述功能相对应的模块或单元。
一种实现方式中,所述装置可以包括:
图像序列获取模块,用于取目标员工在连续t个视频帧内的人体运动图像序列;
骨架点提取模块,用于对所述人体运动图像序列进行人体骨架点提取,得到骨架点坐标序列;
筛选模块,用于从所述骨架点坐标序列中筛选出关键部位的骨架点坐标序列,所述关键部位根据所述目标员工的职业确定;
特征向量构造模块,用于根据所述关键部位的骨架点坐标序列构造骨架点特征向量;
计算模块,用于从模板库中获取与所述目标员工的职业对应的参考骨架点特征向量,计算所述参考骨架点特征向量与构造得到的骨架点特征向量之间的相似度;
工作时长统计模块,用于若所述相似度满足设定要求,则将所述t个视频帧对应的时长计入所述目标员工的工作时长。
另一种实现方式中,所述装置可以包括处理器、存储器和总线,所述处理器和所述存储器之间通过总线相互连接;所述存储器中存储机器可读指令,所述处理器通过调用所述机器可读指令,执行本申请第一方面提供的方法。
本申请第三方面,提供了一种机器可读存储介质,所述机器可读存储介质存储有机器可读指令,所述机器可读指令在被处理器调用和执行时,所述机器可读指令促使所述处理器实现本申请第一方面提供的方法。
本申请采用深度学习算法直接从视频流中提取员工的骨架点,并且对不关注的骨架点进行删除,可以更准确地判断员工的行为是否为工作行为,并对员工执行工作行为的时长计入该员工的工作时长,实现了对员工有效工作时长的统计,解决了使用出勤系统难以分析员工的有效工作时长的问题。
附图说明
图1是本申请实施例提供的方法流程图;
图2是本申请实施例提供的人体运动图像序列的示意图;
图3是本申请实施例提供的从人体运动图像序列提取骨架点坐标的示意图;
图4是本申请实施例提供的装置模块框图。
具体实施方式
为了使本发明的目的、技术方案和优点更加清楚,下面结合附图和具体实施例对本发明进行详细描述。
为分析员工的行为是工作行为还是非工作行为,以及统计员工的有效工作时长,本申请提供了如图1所示的流程:
参见图1,图1为本申请提供的工作时长统计方法的示范性实施例流程图。该方法可应用于监控相机,也可以应用于连接监控相机的后端服务器,其中这里的监控相机可以是枪式摄像机或者智能球摄像机,这些监控相机安装在能够拍摄到员工行为的位置处,一般而言,以能够拍摄到员工的正面和侧面为佳。
下面在介绍该方法的各个步骤之前,先对执行该方法前的准备工作,即建立模板库的过程进行说明,该过程可以包括以下步骤:
第一步,针对待检测职业,拍摄从事该待检测职业的员工在执行工作行为时的视频流,该待检测职业满足以下条件:工作场景(即办公地点)固定,工作行为固定。
比如,多数技术岗位职业(如程序员、检测员等)、生产岗位职业(如流水线操作工、纺织工人等)、财务与会计岗位职业、行政管理岗位职业等都属于本申请所关注的待检测职业范围;而类似保洁员、房地产销售这些工作场景、工作行为不固定的职业,则不属于本申请的关注范围。
第二步,从拍摄的视频流中截取n个连续的视频帧,对截取的n个视频帧执行以下处理,包括:人体运动图像序列获取、人体骨架点提取、关键部位的人体骨架点筛选和骨架点特征向量构造。至于这些处理的具体实现方式在后文描述,这里暂不描述。
这里,对n个视频帧执行上述处理后,可以得到一个n维的向量,本申请将这个向量称之为骨架点特征向量。本申请固定截取n个视频帧的目的,是为了方便向量之间的比较:由于模板库中的参考骨架点特征向量是基于n个视频帧的视频流得到的,所以得到的参考骨架点特征向量的维数也是n维;那么实际应用中只要处理得到表征员工行为的、同样是n维的实际骨架点特征向量,便可以计算二者之间的相似度。
第三步,将执行上述处理后得到的骨架点特征向量作为该待检测职业的参考骨架点特征向量存储到模板库中。
考虑到每个职业的工作行为的多样性,比如对于程序员而言,其工作行为至少包括敲击键盘、滑动鼠标、写字等;因此,对于每一待检测职业,我们可以拍摄多个视频流,并对这多个视频流进行处理得到对应的骨架点特征向量存储到模板库中。
这里的模板库可以由设备厂商建立,模板库中保存了多种待检测职业对应的参考骨架点特征向量,后续设备厂商可以通过发布新版本对模板库进行更新。或者,设备厂商也可以提供说明教程,由使用方根据自己的需求建立模板库。
接下来,对图1包括的各个步骤进行介绍,需要注意的是,图1所示的方法仅是本申请提出的工作时长统计方法的一个片段,本申请正是通过不断重复这个片段,达到累计员工的工作时长的目的。每个片段包括如下步骤:
步骤101:获取目标员工在连续t个视频帧内的人体运动图像序列。
人体运动图像序列由多帧静止的人体图像组成,如图2所示即为一人体运动图像序列。
在一种实现方式中,可以通过如下步骤得到目标员工在连续t个视频帧内的人体运动图像序列;对目标视频流中的视频帧进行检测,目标视频流是监控工作区域得到的视频流;当从目标视频流中检测到目标员工时,跟踪该目标员工,如果在连续的t个视频帧内均检测到该目标员工,则获取该连续t个视频帧,并对该t个视频帧进行相关处理,如目标检测、运动景物分割、目标跟踪以及识别等,最终得到目标员工在该t个视频帧内的人体运动图像序列,得到的人体运动图像序列包括t帧静止的人体图像。
在另一种情况下,如果没有从连续的t个视频帧内均检测到该目标员工,则意味着该目标员工中途从工作区域离开了,这时不再执行后续步骤102-106,而是结束这个片段,等待再次从视频流中检测到该目标员工时,重新统计是否在连续的t个视频帧内均检测到该目标员工。
由于视频画面中可以包括多个员工,所以这里对同一视频流片段进行目标检测等处理,可能得到对应不同员工的多组人体运动图像序列。针对每组人体运动图像序列,分别进行以下步骤:
步骤102:对人体运动图像序列进行人体骨架点提取,得到骨架点坐标序列。
在应用中,步骤102可以通过已有的骨架点提取算法实现,这里不作详述。
参考图3,即简单示意出了从人体运动图像序列,到提取人体骨架点,再到获得骨架点坐标的过程。假设某组人体运动图像序列共包括t帧静止的人体图像,每帧人体图像包括m个骨架点,每个骨架点的坐标可以表示成一个二维坐标(x,y),则该人体运动图像序列可以形成一个包括t组骨架点坐标的骨架点坐标序列,其中每组骨架点坐标包括m个骨架点;该骨架点坐标序列可以转换成一个t*2m维的矩阵。
步骤103:从骨架点坐标序列中筛选出关键部位的骨架点坐标序列,该关键部位根据目标员工的职业确定。
这里筛选出的关键部位的骨架点坐标是与目标员工的职业具有高相关性的坐标。举例来说,对于纺织工人而言,一般只需关注手部骨架点,腿部等下半身骨架点则无需关注。每个职业对应的关键部位可以在建立模板库时便配置好。
在一个例子中,可以简单地将每个职业对应的关键部位分为:上半身、下半身或者全身。
假设筛选前的骨架点坐标序列共包括t组骨架点坐标,每组骨架点坐标包括m个骨架点,每个骨架点的坐标是(x,y);那么筛选后的骨架点坐标序列包括的骨架点坐标的组数不变,但每组骨架点坐标包括的骨架点数量有所减少,假设减少为k,那么筛选后的骨架点坐标序列包括t组骨架点坐标,每组骨架点坐标包括k个骨架点;可以认为筛选后的骨架点坐标序列包括了t个2k维向量,这t个2k维向量可以转换成如下所示的t*2k维矩阵:
步骤104:根据关键部位的骨架点坐标序列构造骨架点特征向量。
在一个例子中,可以通过对t*2k维的关键部位的骨架点坐标序列进行降维,得到n维骨架点特征向量(A1,A2,A3,…An)。这里以PCA降维算法为例,介绍如何根据骨架点坐标序列构造骨架点特征向量:
在一种情况下,如果n=t(这里的n,为模板库中存储的参考骨架点特征向量的维数),那么经过一次PCA降维,即可得到n维的骨架点特征向量,具体如下:
1)将关键部位的骨架点坐标序列按列组成t行2k列的矩阵X;其中t为该关键部位的骨架点坐标序列所包括的骨架点坐标的组数,k表示其中每组骨架点坐标包括的关键部位的骨架点点数,2表示每个骨架点坐标是一个二维坐标,具体形式可以参见上文的矩阵(1)所示。
2)将矩阵X的每一行进行零均值化,即减去这一行的均值,得到X’。
3)求矩阵X的协方差矩阵C。
4)求协方差矩阵C的特征值及对应的特征向量r,这个时候可以得到t个特征向量r。
5)将特征向量r按对应特征值的大小从上到下按行排列成矩阵,取前1行形成向量P。
6)将P乘以X’,得到t*1(也即n*1)维的矩阵,这个t*1维的矩阵就是骨架点特征向量。
在另一种情况下,如果n<t,那么便需要经过两次PCA降维,比如可以先对关键部位的骨架点坐标序列所对应的t*2k维矩阵进行降维,得到t*1维矩阵,然后针对该t*1维矩阵再执行一次上述1-6步,最终得到n维的骨架点特征向量;或者,可以先对t*2k维矩阵进行降维,得到n*2k维矩阵,然后针对该n*2k维矩阵再执行一次降维,最终得到n维的骨架点特征向量。
作为一个实施例,在建立模板库时,可以将经常被降维的坐标所对应的骨架点,或者特征值较小的骨架点从关键部位中剔除。
步骤105:从模板库中获取与目标员工的职业对应的参考骨架点特征向量,计算该参考骨架点特征向量与构造得到的骨架点特征向量之间的相似度。
步骤106:若计算得到的相似度满足设定要求,则将该t个视频帧对应的时长计入目标员工的工作时长。
在一个例子中,可以计算参考骨架点特征向量与构造得到的骨架点特征向量之间的余弦距离,若该余弦距离小于设定阈值,则将该t个视频帧对应的时长计入目标员工的工作时长。
具体的,假设参考骨架点特征向量A=(A1,A2,…An),构造得到的骨架点特征向量B=(B1,B,…Bn),则二者之间的余弦距离可以通过以下公式计算得到:
其中,计算得到的余弦距离值越小,表示二者之间的相似度越大。
在一个例子中,若模板库中与目标员工的职业对应的参考骨架点特征向量有多个,则可以分别计算构造得到的骨架点特征向量与这多个参考骨架点特征向量中的每个参考骨架点特征向量之间的余弦距离,并将计算得到的多个余弦距离中的最小值作为最终的余弦距离。
当余弦距离小于设定阈值时,可以将该t视频帧对应的时长计入目标员工的工作时长;比如,假设该t个视频帧在目标视频流中对应的时长是10分钟,则可以将目标员工的工作时长累加10分钟。
本申请中,可以通过重复上述步骤101-106,分析员工的行为是工作行为还是非工作行为,进而对目标员工的有效工作时长进行统计。
至此,完成图1所示的流程。
通过图1所示的流程可以看出,本申请通过对员工在工作时间的姿态进行分析,判断员工的行为是工作行为还是非工作行为,并对员工执行工作行为的时长计入该员工的工作时长。
进一步地,本申请采用深度学习算法直接从视频流中提取员工的骨架点,并且对不关注的骨架点进行删除,可以更准确地判断员工当前的姿态是否为工作姿态,解决了使用出勤系统难以分析员工的有效工作时长的问题。
以上对本申请提供的方法进行了描述。下面对本申请提供的装置进行描述。
参见图4,图4为本申请提供的工作时长统计装置的功能模块图。如图4所示,该装置包括:
图像序列获取模块401,用于获取目标员工在连续t个视频帧内的人体运动图像序列;
骨架点提取模块402,用于对所述人体运动图像序列进行人体骨架点提取,得到骨架点坐标序列;
筛选模块403,用于从所述骨架点坐标序列中筛选出关键部位的骨架点坐标序列,所述关键部位根据所述目标员工的职业确定;
特征向量构造模块404,用于根据所述关键部位的骨架点坐标序列构造骨架点特征向量;
计算模块405,用于从模板库中获取与所述目标员工的职业对应的参考骨架点特征向量,计算所述参考骨架点特征向量与构造得到的骨架点特征向量之间的相似度;
工作时长统计模块406,用于若所述相似度满足设定要求,则将所述t个视频帧对应的时长计入所述目标员工的工作时长。
在其中一种实施方式中,所述图像序列获取模块401,用于对目标视频流中的视频帧进行检测,所述目标视频流是监控工作区域得到的视频流;当检测到目标员工时,跟踪所述目标员工,如果在连续的t个视频帧内均检测到所述目标员工,则获取目标员工在所述连续的t个视频帧内的人体运动图像序列。
在其中一种实施方式中,所述装置还可以包括:模板库构建模块,用于针对待检测职业,拍摄从事该待检测职业的员工执行工作行为时的视频流,所述待检测职业的工作场景和工作行为固定;从拍摄的视频流中截取n个视频帧,n≤t;对截取的n个视频帧执行以下处理:人体运动图像序列获取、人体骨架点提取、关键部位的人体骨架点筛选和骨架点特征向量构造;将执行所述处理后得到的骨架点特征向量作为该待检测职业的参考骨架点特征向量存储到模板库中。
在其中一种实施方式中,所述特征向量构造模块404,用于对t*2k维的关键部位的骨架点坐标序列进行降维,得到n维的骨架点特征向量;k表示关键部位的骨架点坐标序列中的每组骨架点坐标所包括的关键部位的骨架点点数。
在其中一种实施方式中,所述计算模块405,用于计算所述参考骨架点特征向量与构造得到的所述骨架点特征向量之间的余弦距离;
所述工作时长统计模块406,用于若所述余弦距离小于设定阈值,则将所述t个视频帧对应的时长计入所述目标员工的工作时长。
需要说明的是,本申请实施例中对单元的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。在本申请的实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
上述装置中各个单元的功能和作用的实现过程具体详见上述方法中对应步骤的实现过程,在此不再赘述。
至此,完成图4所示装置的描述。
本申请还提供一种工作时长统计装置,包括处理器、存储器和总线,所述处理器和所述存储器之间通过总线相互连接;所述存储器中存储机器可读指令,所述处理器通过调用所述机器可读指令,以实现如图1所示的方法。
此外,本申请还提供了一种机器可读存储介质,所述机器可读存储介质存储有机器可读指令,所述机器可读指令在被处理器调用和执行时,所述机器可执行指令促使所述处理器实现图1所示的方法。
以上所述仅为本申请的较佳实施例而已,并不用以限制本申请,凡在本申请的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本申请保护的范围之内。
Claims (12)
1.一种工作时长统计方法,其特征在于,包括:
响应于在目标视频流中的连续t个视频帧内均成功检测到目标员工的检测结果,获取所述目标员工在所述连续t个视频帧内的人体运动图像序列,所述目标视频流是监控工作区域得到的视频流;
对所述人体运动图像序列进行人体骨架点提取,得到m个骨架点的骨架点坐标序列;
从m个骨架点的所述骨架点坐标序列中,筛选出关键部位的k个骨架点的骨架点坐标序列,所述关键部位根据所述目标员工的职业确定;
根据所述关键部位的k个骨架点的骨架点坐标序列构造骨架点特征向量;
从模板库中获取与所述目标员工的职业对应的参考骨架点特征向量,计算所述参考骨架点特征向量与构造得到的骨架点特征向量之间的相似度;
若所述相似度满足设定要求,则将所述t个视频帧对应的时长累加计入所述目标员工的工作时长。
2.如权利要求1所述的工作时长统计方法,其特征在于,进一步包括:
响应于从所述连续t个视频帧内未全部检测到所述目标员工的检测结果,等待再次从所述目标视频流中检测到所述目标员工时,重新执行所述目标视频流中的连续t个视频帧内是否均成功检测到所述目标员工的统计。
3.如权利要求1所述的工作时长统计方法,其特征在于,所述模板库通过以下步骤构建:
针对待检测职业,拍摄从事该待检测职业的员工执行工作行为时的视频流,所述待检测职业的工作场景和工作行为固定;
从拍摄的视频流中截取n个视频帧,n≤t;
对截取的n个视频帧执行以下处理:人体运动图像序列获取、人体骨架点提取、关键部位的人体骨架点筛选和骨架点特征向量构造;
将执行所述处理后得到的骨架点特征向量作为该待检测职业的参考骨架点特征向量存储到模板库中。
4.如权利要求3所述的工作时长统计方法,其特征在于,根据所述关键部位的骨架点坐标序列构造骨架点特征向量,包括:
对t*2k维的关键部位的骨架点坐标序列进行降维,得到n维的骨架点特征向量;k表示关键部位的骨架点坐标序列中的每组骨架点坐标所包括的关键部位的骨架点点数。
5.如权利要求1所述的工作时长统计方法,其特征在于,计算所述参考骨架点特征向量与构造得到的所述骨架点特征向量之间的相似度,若所述相似度满足设定要求,则将所述t个视频帧对应的时长计入所述目标员工的工作时长,包括:
计算所述参考骨架点特征向量与构造得到的所述骨架点特征向量之间的余弦距离;
若所述余弦距离小于设定阈值,则将所述t个视频帧对应的时长计入所述目标员工的工作时长。
6.一种工作时长统计装置,其特征在于,包括:
图像序列获取模块,用于响应于在目标视频流中的连续t个视频帧内均成功检测到目标员工的检测结果,获取所述目标员工在所述连续t个视频帧内的人体运动图像序列,所述目标视频流是监控工作区域得到的视频流;
骨架点提取模块,用于对所述人体运动图像序列进行人体骨架点提取,得到m个骨架点的骨架点坐标序列;
筛选模块,用于从m个骨架点的所述骨架点坐标序列中筛选出关键部位的k个骨架点的骨架点坐标序列,所述关键部位根据所述目标员工的职业确定;
特征向量构造模块,用于根据所述关键部位的骨架点坐标序列构造骨架点特征向量;
计算模块,用于从模板库中获取与所述目标员工的职业对应的参考骨架点特征向量,计算所述参考骨架点特征向量与构造得到的骨架点特征向量之间的相似度;
工作时长统计模块,用于若所述相似度满足设定要求,则将所述t个视频帧对应的时长累加计入所述目标员工的工作时长。
7.如权利要求6所述的工作时长统计装置,其特征在于,
所述图像序列获取模块进一步用于响应于从所述连续t个视频帧内未全部检测到所述目标员工的检测结果,等待再次从所述目标视频流中检测到所述目标员工时,重新执行所述目标视频流中的连续t个视频帧内是否均成功检测到所述目标员工的统计。
8.如权利要求6所述的工作时长统计装置,其特征在于,所述装置还包括:
模板库构建模块,用于针对待检测职业,拍摄从事该待检测职业的员工执行工作行为时的视频流,所述待检测职业的工作场景和工作行为固定;从拍摄的视频流中截取n个视频帧,n≤t;对截取的n个视频帧执行以下处理:人体运动图像序列获取、人体骨架点提取、关键部位的人体骨架点筛选和骨架点特征向量构造;将执行所述处理后得到的骨架点特征向量作为该待检测职业的参考骨架点特征向量存储到模板库中。
9.如权利要求8所述的工作时长统计装置,其特征在于,
所述特征向量构造模块,用于对t*2k维的关键部位的骨架点坐标序列进行降维,得到n维的骨架点特征向量;k表示关键部位的骨架点坐标序列中的每组骨架点坐标所包括的关键部位的骨架点点数。
10.如权利要求6所述的工作时长统计装置,其特征在于,
所述计算模块,用于计算所述参考骨架点特征向量与构造得到的所述骨架点特征向量之间的余弦距离;
所述工作时长统计模块,用于若所述余弦距离小于设定阈值,则将所述t个视频帧对应的时长计入所述目标员工的工作时长。
11.一种工作时长统计装置,其特征在于,包括处理器、存储器和总线,所述处理器和所述存储器之间通过总线相互连接;
所述存储器中存储机器可读指令,所述处理器通过调用所述机器可读指令,执行如权利要求1至5任一项所述的方法。
12.一种机器可读存储介质,其特征在于,所述机器可读存储介质存储有机器可读指令,所述机器可读指令在被处理器调用和执行时,所述机器可读指令促使所述处理器实现权利要求1至5任一项所述的方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810558559.4A CN110555349B (zh) | 2018-06-01 | 2018-06-01 | 一种工作时长统计方法和装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810558559.4A CN110555349B (zh) | 2018-06-01 | 2018-06-01 | 一种工作时长统计方法和装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110555349A CN110555349A (zh) | 2019-12-10 |
CN110555349B true CN110555349B (zh) | 2023-05-02 |
Family
ID=68734879
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810558559.4A Active CN110555349B (zh) | 2018-06-01 | 2018-06-01 | 一种工作时长统计方法和装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110555349B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112132465A (zh) * | 2020-09-23 | 2020-12-25 | 创新奇智(青岛)科技有限公司 | 工件加工耗时统计方法、装置、电子设备及可读存储介质 |
CN112950801B (zh) * | 2021-02-08 | 2022-11-01 | 中国联合网络通信集团有限公司 | 远程办公考勤记录方法及装置 |
CN113435648A (zh) * | 2021-06-28 | 2021-09-24 | 青岛海尔工业智能研究院有限公司 | 产能预测方法、装置、电子设备、及存储介质 |
CN113489954A (zh) * | 2021-07-06 | 2021-10-08 | 北京市商汤科技开发有限公司 | 生产作业报告的生成方法、装置、电子设备及存储介质 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930767A (zh) * | 2016-04-06 | 2016-09-07 | 南京华捷艾米软件科技有限公司 | 一种基于人体骨架的动作识别方法 |
CN106203363A (zh) * | 2016-07-15 | 2016-12-07 | 中国科学院自动化研究所 | 人体骨架运动序列行为识别方法 |
CN107844779A (zh) * | 2017-11-21 | 2018-03-27 | 重庆邮电大学 | 一种视频关键帧提取方法 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007164301A (ja) * | 2005-12-09 | 2007-06-28 | Sony Computer Entertainment Inc | 情報処理装置、データ解析方法、プログラム及び情報記憶媒体 |
CN105373810B (zh) * | 2015-11-12 | 2020-01-17 | 清华大学 | 一种用于建立动作识别模型的方法及系统 |
US10051343B2 (en) * | 2016-11-22 | 2018-08-14 | Sap Se | Match video marking |
CN107169988A (zh) * | 2017-05-12 | 2017-09-15 | 江苏大学 | 一种基于余弦距离层次聚类的关键帧提取方法 |
CN107194616A (zh) * | 2017-06-29 | 2017-09-22 | 惠国征信服务股份有限公司 | 企业产能统计系统和方法 |
-
2018
- 2018-06-01 CN CN201810558559.4A patent/CN110555349B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930767A (zh) * | 2016-04-06 | 2016-09-07 | 南京华捷艾米软件科技有限公司 | 一种基于人体骨架的动作识别方法 |
CN106203363A (zh) * | 2016-07-15 | 2016-12-07 | 中国科学院自动化研究所 | 人体骨架运动序列行为识别方法 |
CN107844779A (zh) * | 2017-11-21 | 2018-03-27 | 重庆邮电大学 | 一种视频关键帧提取方法 |
Also Published As
Publication number | Publication date |
---|---|
CN110555349A (zh) | 2019-12-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110555349B (zh) | 一种工作时长统计方法和装置 | |
Patruno et al. | People re-identification using skeleton standard posture and color descriptors from RGB-D data | |
CN105989608B (zh) | 一种面向智能机器人的视觉捕捉方法及装置 | |
CN110569731A (zh) | 一种人脸识别方法、装置及电子设备 | |
US10063843B2 (en) | Image processing apparatus and image processing method for estimating three-dimensional position of object in image | |
CN112465855B (zh) | 客流统计方法、装置、存储介质及设备 | |
CN111209774A (zh) | 目标行为识别及显示方法、装置、设备、可读介质 | |
Vezzani et al. | HMM based action recognition with projection histogram features | |
CN111263955A (zh) | 一种目标对象的移动轨迹确定方法和装置 | |
CN114049378A (zh) | 一种排队分析方法和装置 | |
CN110991397A (zh) | 一种行进方向确定方法及相关设备 | |
CN102314591B (zh) | 静止前景物体的检测方法和设备 | |
CN115223239B (zh) | 一种手势识别方法、系统、计算机设备以及可读存储介质 | |
CN111814690A (zh) | 一种目标重识别方法、装置和计算机可读存储介质 | |
CN116071790A (zh) | 掌静脉图像质量评估方法、装置、设备及存储介质 | |
CN116264004A (zh) | 基于工人重新识别和个人防护装备分类对现场安全合规性进行的基于视觉的监测 | |
Ranganatha et al. | A novel fused algorithm for human face tracking in video sequences | |
Karim et al. | A region-based deep learning algorithm for detecting and tracking objects in manufacturing plants | |
CN109523573A (zh) | 目标对象的跟踪方法和装置 | |
CN113221812A (zh) | 人脸关键点检测模型的训练方法和人脸关键点检测方法 | |
Liu et al. | An effective approach to crowd counting with CNN-based statistical features | |
Musa et al. | Crowd reckoning towards preventing the repeat of ‘2015 Hajj pilgrims stampede’ | |
Kumar et al. | New approach for action recognition using motion based features | |
CN111160314B (zh) | 一种暴力分拣的识别方法及装置 | |
Liu et al. | An iris recognition approach with SIFT descriptors |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |