CN116452878B - 一种基于深度学习算法与双目视觉的考勤方法及系统 - Google Patents
一种基于深度学习算法与双目视觉的考勤方法及系统 Download PDFInfo
- Publication number
- CN116452878B CN116452878B CN202310424550.5A CN202310424550A CN116452878B CN 116452878 B CN116452878 B CN 116452878B CN 202310424550 A CN202310424550 A CN 202310424550A CN 116452878 B CN116452878 B CN 116452878B
- Authority
- CN
- China
- Prior art keywords
- attendance
- staff
- deep learning
- camera
- card
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 52
- 238000000034 method Methods 0.000 title claims abstract description 26
- 238000004080 punching Methods 0.000 claims abstract description 90
- 238000001514 detection method Methods 0.000 claims abstract description 61
- 230000006870 function Effects 0.000 claims abstract description 30
- 238000012549 training Methods 0.000 claims abstract description 21
- 238000003384 imaging method Methods 0.000 claims abstract description 13
- 238000012545 processing Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000006243 chemical reaction Methods 0.000 claims description 8
- 238000013519 translation Methods 0.000 claims description 7
- 239000013598 vector Substances 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 7
- 238000010276 construction Methods 0.000 claims description 6
- 230000003287 optical effect Effects 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 6
- 238000010586 diagram Methods 0.000 description 4
- 230000002159 abnormal effect Effects 0.000 description 3
- 238000006467 substitution reaction Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000009826 distribution Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000005242 forging Methods 0.000 description 2
- 238000002372 labelling Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000007547 defect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000003203 everyday effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000001737 promoting effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
- 239000002699 waste material Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/761—Proximity, similarity or dissimilarity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C1/00—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people
- G07C1/10—Registering, indicating or recording the time of events or elapsed time, e.g. time-recorders for work people together with the recording, indicating or registering of other data, e.g. of signs of identity
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02T—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
- Y02T10/00—Road transport of goods or passengers
- Y02T10/10—Internal combustion engine [ICE] based vehicles
- Y02T10/40—Engine management systems
Abstract
本发明公开了一种基于深度学习算法与双目视觉的考勤方法及系统,该方法包括:获取员工的打卡拍照图片;引入最大熵正则化项和平均方差相似度函数,构建基于YOLO‑9000的深度学习目标检测模型;对深度学习目标检测模型进行训练并进行目标识别,识别出打卡拍照图片中的员工目标;基于非平行配置的双目视觉成像原理获取打卡拍照图片中的员工目标的坐标值;根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息。能够通过改进的YOLO‑9000算法的定点双目视觉三维位置反演考勤从而有效缩短考勤时间提高考勤检测精度。本发明作为一种基于深度学习算法与双目视觉的考勤方法及系统,可广泛应用于计算机视觉技术领域。
Description
技术领域
本发明涉及计算机视觉技术领域,尤其涉及一种基于深度学习算法与双目视觉的考勤方法及系统。
背景技术
现代企业的管理模式要求企业实现信息化的管理,一套合理的企业互联网考勤系统对于提升企业的管理能力有很重要的作用,随着企业规模的快速扩张,考勤管理工作的复杂性日益加大,支撑企业考勤管理工作的需要也日益迫切,现在大部分企业都拥有一套较为成熟的考勤管理制度,其中包括:人工签到、证件刷卡、指纹识别、面部识别等;但这些技术都存在着一定的弊端,人工签到比较耗费时间,统计的员工数据会出现不准确,如漏记、多记等情况,且存在严重的代签情况;证件刷卡的考勤方式由于“只认卡、不认人”所以容易出现代刷卡,伪造员工考勤的情况;指纹识别机等接触式设备进行员工考勤时,虽然不会出现造假,但由于个人原因会造成考勤机无法识别指纹影响考勤率,而且遇到企业人员较多时,需要排队,考勤效率低下,面部识别考勤同样也不会出现员工伪造打卡的情况,但是会受光线的限制,且同指纹识别一样,在企业员工多的情况下,需要排队,浪费等待时间,况且指纹签到、人脸打卡签到需要采集很多的标签信息,所需成本较高。
发明内容
为了解决上述技术问题,本发明的目的是提供一种基于深度学习算法与双目视觉的考勤方法及系统,能够通过改进的YOLO-9000算法的定点双目视觉三维位置反演考勤从而有效缩短考勤时间提高考勤检测精度。
本发明所采用的第一技术方案是:一种基于深度学习算法与双目视觉的考勤方法,包括以下步骤:
获取员工的打卡拍照图片;
引入最大熵正则化项和平均方差相似度函数,构建基于YOLO-9000的深度学习目标检测模型;
对深度学习目标检测模型进行训练并将员工的打卡拍照图片输入至训练后的深度学习目标检测模型进行目标识别,识别出打卡拍照图片中的员工目标及打卡背景图案;
基于非平行配置的双目视觉成像原理获取打卡拍照图片中的员工目标的坐标值;
根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息。
进一步,所述引入最大熵正则化项和平均方差相似度函数,构建基于YOLO-9000的深度学习目标检测模型这一步骤,其具体包括:
引入最大熵正则化项和平均方差相似度函数作为深度学习目标检测模型的损失函数,其中,所述最大熵正则化项用于增加分类器的不确定性,平均方差相似度函数用于增加类别之间的相似性;
所述构建基于YOLO-9000的深度学习目标检测模型包括15层卷积层,其中第一卷积层、第二卷积层、第三卷积层、第六卷积层及第九卷积层后均连接有最大池化层,且每个最大池化层后接入dropout层。
进一步,所述对深度学习目标检测模型进行训练这一步骤,其具体包括:
YOLO9000网络将输入图像缩放至416×416,然后在图上运行卷积网络,预测是否存在目标;
在每个方格中预测n个边界方框,确定各边界方框是所需检测目标的置信度,其中,置信度表示为:
上式中,confidence表示置信度,Pr(Object)表示每个边界方框中包含检测目标的概率,表示预测的边界方框和输入的矩形框的重叠率;
对于每一个方格,预测其包含某一类检测目标的条件概率Pr(Classi|Object),其中,Pr(Classi|Object)表示在假定某一方格包含有所需检测目标的情况下,所包含的检测目标是第i类检测目标的概率;
将得到的目标的置信度与得到的检测目标的条件概率进行相乘,得到每个边界方框对于每个具体类别的置信度;
通过损失函数进行计算,得出每个检测目标的定位框,输出13×13×1024的图片结构。
进一步,所述将员工的打卡拍照图片输入至训练后的深度学习目标检测模型进行目标识别,识别出打卡拍照图片中的员工目标这一步骤,其具体包括:
采集用于训练YOLO9000网络的包含打卡区的考勤图像;
对采集到的所述考勤图像进行数据增强;
将采集到的所述考勤图像及数据增强后得到的图像中的考勤图案用矩形框进行标注,获取所述矩形框的坐标与所述矩形框所包含图案的种类;
根据采集到的所述考勤图像及数据增强后得到的图像,及获取的所述矩形框的坐标与所述矩形框所包含图案的种类对YOLO9000网络进行训练;
实时采集待检测的员工考勤图像,根据训练好的YOLO9000网络和实时采集到的待检测的员工考勤图像,实时检测员工考勤图像中的图案,并对检测到的图案进行分类和定位。
进一步,所述基于非平行配置的双目视觉成像原理为非平行配置视觉系统中的两台相机的光轴满足相交于一点,而相机的位置和方位不对非平行配置视觉系统产生影响,其中,所述两台相机中的一台相机表示公司固定的打卡相机,另一台相机表示员工打卡拍照相机。
进一步,所述基于非平行配置的双目视觉成像原理获取打卡拍照图片中的员工目标的坐标值这一步骤,其具体包括:
分别获取公司固定的打卡相机和员工打卡拍照相机的坐标值,分别记为第一相机坐标值与第二相机坐标值;
获取对应第一相机坐标值与第二相机坐标值下的旋转矩阵、平移向量以及相机的焦距;
设定打卡区中心点,根据打卡区中心点获取第一相机的平面投影像素点坐标与第二相机的平面投影像素点坐标;
根据第一相机坐标值的旋转矩阵与平移向量获取第一相机与第二相机的坐标转换关系;
根据第一相机的平面投影像素点坐标与第二相机的平面投影像素点坐标获取对应的平面投影像素点坐标与打卡区中心点的坐标关系;
将平面投影像素点坐标与打卡区中心点的坐标关系代入至第一相机与第二相机的坐标转换关系并进行矩阵表示,获取打卡拍照图片中的员工目标的坐标值。
进一步,所述第一相机与第二相机的坐标转换关系的表达式为:
上式中,P(X,Y,Z)表示打卡区中心点,P'(X',Y',Z')表示打卡区中心点在第二相机坐标系下的坐标,R表示两个相机坐标系间的旋转矩阵,t表示两个相机的平移向量。
进一步,所述考勤定位预警判别指标包括员工考勤时间状态指标和员工考勤范围指标。
进一步,所述根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息这一步骤,其具体包括:
设定员工考勤时间范围,获取考勤时间状态时间序列数据并与设定员工考勤时间范围进行比较,若所述考勤时间状态时间序列数据不属于所述设定员工考勤时间范围,则标记为非正常考勤打卡时间,若所述考勤时间状态时间序列数据属于所述设定员工考勤时间范围,则标记为正常考勤打卡时间;
设定员工打卡拍照区域,将打卡拍照图片中的员工目标的坐标值与设定员工打卡拍照区域进行比较,若所述打卡拍照图片中的员工目标的坐标值不属于所述设定员工打卡拍照区域,则标记为非正常考勤打卡范围,若所述打卡拍照图片中的员工目标的坐标值属于所述设定员工打卡拍照区域,则标记为正常考勤打卡范围;
将同时存在标记正常考勤打卡时间与正常考勤打卡范围判定为正常打卡。
本发明所采用的第二技术方案是:一种基于深度学习算法与双目视觉的考勤系统,包括:
获取模块,用于获取员工的打卡拍照图片;
构建模块,用于引入最大熵正则化项和平均方差相似度函数,构建基于YOLO-9000的深度学习目标检测模型;
识别模块,用于对深度学习目标检测模型进行训练并将员工的打卡拍照图片输入至训练后的深度学习目标检测模型进行目标识别,识别出打卡拍照图片中的员工目标及打卡背景图案;
视觉处理模块,基于非平行配置的双目视觉成像原理获取打卡拍照图片中的员工目标的坐标值;
判定模块,用于根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息。
本发明方法及系统的有益效果是:本发明通过获取员工的打卡拍照图片,并针对目标识别检测算法进行改进,改进的YOLO-9000模型的核心思想是将分类和检测任务结合起来,通过同时训练分类和检测网络,从而提高检测的精度。在每个最大池化层后接入dropout层,以防止过拟合,使得体量更加轻便适合目标识别的需求,并在模型训练过程中,应用最大熵正则化来正则化训练,最大熵正则化在交叉熵损失中添加一个负熵项,使用最大熵正则化与平均方差相似度函数联合作为损失函数这种做法可以增加类间变异,减少类内变异,从而获得更好的分类性能,进一步在目标点在空间坐标系中的位置坐标已知的情况下,反演得到拍照者的位置坐标,最后通过构建考勤指标来判断员工考勤是否合格。
附图说明
图1是本发明一种基于深度学习算法与双目视觉的考勤方法的步骤流程图;
图2是本发明一种基于深度学习算法与双目视觉的考勤系统的结构框图;
图3是传统的指纹打卡、人脸打卡等串行打卡方式的示意图;
图4是本发明并发式考勤方法场景示意图;
图5是本发明非平行配置视觉成像模型示意图;
图6是本发明改进的YOLO-9000深度学习算法的目标检测网络模型的结构示意图;
图7是本发明基于改进的YOLO-9000算法的定点双目视觉三维位置反演考勤方法的流程示意图。
具体实施方式
下面结合附图和具体实施例对本发明做进一步的详细说明。对于以下实施例中的步骤编号,其仅为了便于阐述说明而设置,对步骤之间的顺序不做任何限定,实施例中的各步骤的执行顺序均可根据本领域技术人员的理解来进行适应性调整。
如图3所示,为传统的指纹打卡、人脸打卡等串行打卡方式,指纹识别机等接触式设备进行员工考勤时,虽然不会出现造假,但由于个人原因会造成考勤机无法识别指纹影响考勤率,而且遇到企业人员较多时,需要排队,考勤效率低下,面部识别考勤同样也不会出现员工伪造打卡的情况,但是会受光线的限制,且同指纹识别一样,在企业员工多的情况下,需要排队,浪费等待时间,且指纹识别和面部识别还存在着隐私泄露的风险,这些数据若因保管不善被泄露或是被黑客侵入,则会被不法分子利用,产生危害结果,同时指纹签到、人脸打卡签到且需要采集很多的标签信息,所需成本较高;
如图4所示,为本发明并发式考勤方法场景图,员工只需要通过使用自己的手机拍一张包含打卡区(打卡区的考勤标志每天更换、可以设置手写的汉字、英文字符、或者图案等)的照片上传到系统,系统通过双目视觉技术计算员工位置即可完成打卡,可以有效避免考勤时间排队的问题,节省考勤时间,且无需购买考勤设备,如:指纹打卡机、人脸打卡机等,且采集的标签信息少,节约公司成本。
参照图1和图7,本发明提供了一种基于深度学习算法与双目视觉的考勤方法,该方法包括以下步骤:
S1、获取员工的打卡拍照图片;
S2、引入最大熵正则化项和平均方差相似度函数,构建基于YOLO-9000的深度学习目标检测模型;
具体地,参照图6,本发明基于改进的YOLO-9000深度学习算法,使用了最大熵正则化项和平均方差相似度函数作为损失函数,可以有效地增加类间变异,减少类内变异,从而提高分类性能,在传统的交叉熵损失函数中,分类器只关注正确分类的概率,而忽略了分类器的不确定性和类别之间的相似性,而最大熵正则化项可以增加分类器的不确定性,平均方差相似度函数可以增加类别之间的相似性,从而使分类器更加鲁棒和准确,通过将这两种损失函数结合使用,可以得到更好的特征分类效果;
在考勤目标识别中,本发明希望模型能够准确地识别出员工拍照上传的图片中符合考勤打卡的目标,但是如果模型过于复杂,可能会出现过拟合的情况,导致模型在训练集上表现很好,但是在测试集上表现不佳,为了避免这种情况,因此,可以对模型输出的熵进行正则化,表达式如下:
上式中,H(p)表示模型输出的熵,c表示事件可能发生的情况总数,pi表示真实分布;
当概率分布是均匀分布时,熵达到最大值,而在其他情况下,熵都小于最大值。因此,通过最大化熵的负值,可以实现最大熵正则化,表达式如下:
LMER=-H(p)
LRER=-LCE+λLMER
上式中,λ表示超参数,LREG表示回归的损失函数,由负熵(即熵的相反数)λLMER,与交叉熵函数LCE累加组成;
MER降低了交叉熵损失造成的极端置信值,在目标识别中,通常使用交叉熵损失函数来衡量模型预测结果与真实结果之间的差距,交叉熵损失函数的导数与输出分数直接相关,因此正则化损失对输出分数的导数也与模型直接相关,表达式如下:
根据链式法则可得,梯度可以是正的或负的,在更新模型参数时需要根据梯度的方向来决定参数的调整方向,如果梯度是正的,就需要减小参数的值;如果梯度是负的,就需要增加参数的值,在更多分布的分数下,概率也不会完全趋向于0或1,而是会在一定范围内波动;
改进的YOLO-9000模型结合了YOLOv2和GoogleNet的构建思想,保留了通过预训练和进行多分类的能力,同时通过数据采集与数据标注,利用带标注的分类数据集量比较大的特点进行预训练,改进模型又15层卷积层,通过减少瓶颈结构的卷积的构造,删除了两层1×1卷积及瓶颈卷积,原本的检测头从9个卷积层减少到6个,同时在每个最大池化层后接入dropout层,以防止过拟合,使得体量更加轻便适合目标识别的需求。
S3、对深度学习目标检测模型进行训练并将员工的打卡拍照图片输入至训练后的深度学习目标检测模型进行目标识别,识别出打卡拍照图片中的员工目标及打卡背景图案;
具体地,采集用于训练YOLO9000网络的包含打卡区的考勤图像;对采集到的所述考勤图像进行数据增强;将采集到的所述考勤图像及数据增强后得到的图像中的考勤图案用矩形框进行标注,获取所述矩形框的坐标与所述矩形框所包含图案的种类;根据采集到的所述考勤图像及数据增强后得到的图像,及获取的所述矩形框的坐标与所述矩形框所包含图案的种类对YOLO9000网络进行训练;实时采集待检测的员工考勤图像,根据训练好的YOLO9000网络和实时采集到的待检测的员工考勤图像,实时检测员工考勤图像中的图案,并对检测到的图案进行分类和定位;
所述根据生成的数据集对YOLO9000网络进行训练包括:
YOLO9000网络将输入图像缩放至416×416,然后在图上运行卷积网络,预测是否存在目标;
在每个方格中预测n个边界方框,确定各边界方框是所需检测目标的置信度,其中,置信度表示为:
上式中,confidence表示置信度,Pr(Object)表示每个边界方框中包含检测目标的概率,表示预测的边界方框和输入的矩形框的重叠率;
对于每一个方格,预测其包含某一类检测目标的条件概率Pr(Classi|Object),其中,Pr(Classi|Object)表示在假定某一方格包含有所需检测目标的情况下,所包含的检测目标是第i类检测目标的概率;
将得到的目标的置信度与得到的检测目标的条件概率进行相乘,得到每个边界方框对于每个具体类别的置信度;
通过损失函数进行计算,得出每个检测目标的定位框,输出13×13×1024的图片结构。
S4、基于非平行配置的双目视觉成像原理获取打卡拍照图片中的员工目标的坐标值;
具体地,参照图5,双目视觉测距是依据三角形相似原理,得出被测物体与相机之间的距离,由于无法保证员工在拍照的时候相机光心与公司固定相机光心位于同一水平面,因此本提案采取非平行配置的双目视觉成像原理,非平行配置视觉系统中的两台相机的光轴只要相交于一点即可,相机的位置和方位不对系统产生影响,以一位员工的考勤为例;
已知Ol-xlylzl和Or-xryrzr分别为两个相机坐标系,均为正交坐标系,设左相机坐标系为世界坐标系,假设打卡区中心点P(X,Y,Z)在两个像平面上的投影分别为Pl(ul,vl),Pr(ur,vr),这两个点坐标均以像素为单位,已知两个相机坐标系间的旋转矩阵R、平移向量t以及相机的焦距fl,fr(以像素为单位),其中flu=fl·Du,flv=fl·Dv,fru=fr·Du,frv=fr·Dv,Du是沿图像坐标系x方向每毫米像素个数,Dv是沿图像坐标系y方向每毫米像素个数,(u0,v0)是图像光心坐标;
设P(X,Y,Z)在右相机坐标系下的坐标为P'(X',Y',Z'),那么这两个坐标之间的转换关系如下所示:
三维空间点和对应的二维图像坐标点之间的对应关系如下:
那么(ur,vr)与P'(X',Y',Z')之间的关系可以表示为:
可以得到:
将(ur,vr)与P'(X',Y',Z')之间的关系带入两个坐标之间的转换关系中可得到:
在本设计方案中,左相机是固定且位置是已知的,打卡中心点P(X,Y,Z)在以左相机坐标系为世界坐标系中的坐标位置是已知的,则Pl(ul,vl)也已知,可通过代入后的式子得到Pr(ur,vr):
则右相机坐标系与像面坐标系间的关系可用矩阵表示为:
将右摄像机即第一相机看作世界坐标系中的一点,摄像机的摆放位置可以以世界坐标系原点为基准通过坐标系的平移旋转表示:
即可得到右相机位置,以右相机的位置作为员工在空间坐标系中的坐标。
S5、根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息。
S51、员工考勤时间状态指标;
具体地,员工考勤的时间一般在白天(τ1,τ2)时段内,在该时间段内,员工具有考勤打卡的可能性,记为1;而在其它时段内不做考勤预警,记为0,定义如下:
从而获取考勤时间状态时间序列数据Ti,ti是指第i位员工考勤的时间。
S52、员工考勤范围指标;
具体地,员工打卡一般都会集中在一定的区域拍照打卡,人工选定打卡区域D作为考勤定位预警和异常预警判别指标之一,如果在打卡区域D内打卡,记为1;如果不在打卡区域D内,则记为0,定义如下:
从而获取员工考勤时间序列数据Ei,i=0,1,…,n,Pi是指第i位员工考勤的位置。
设定员工考勤坐标在x,y,z轴上的阈值均为δ,假设一位员工上传的照片得到其位置是Pi(xi,yi,zi),以Pi为球心,以阈值δ为半径做一个球,若另一位员工上传的照片得到的位置坐标Pi+1(xi+1,yi+1,zi+1)在球面外则打卡成功,记为1;反之,则打卡不成功,记为0,具体如下所示:
参照图2,一种基于深度学习算法与双目视觉的考勤系统,包括:
获取模块,用于获取员工的打卡拍照图片;
构建模块,用于引入最大熵正则化项和平均方差相似度函数,构建基于YOLO-9000的深度学习目标检测模型;
识别模块,用于对深度学习目标检测模型进行训练并将员工的打卡拍照图片输入至训练后的深度学习目标检测模型进行目标识别,识别出打卡拍照图片中的员工目标及打卡背景图案;
视觉处理模块,基于非平行配置的双目视觉成像原理获取打卡拍照图片中的员工目标的坐标值;
判定模块,用于根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息。
上述方法实施例中的内容均适用于本系统实施例中,本系统实施例所具体实现的功能与上述方法实施例相同,并且达到的有益效果与上述方法实施例所达到的有益效果也相同。
以上是对本发明的较佳实施进行了具体说明,但本发明创造并不限于所述实施例,熟悉本领域的技术人员在不违背本发明精神的前提下还可做作出种种的等同变形或替换,这些等同的变形或替换均包含在本申请权利要求所限定的范围内。
Claims (8)
1.一种基于深度学习算法与双目视觉的考勤方法,其特征在于,包括以下步骤:
获取员工的打卡拍照图片;
引入最大熵正则化项和平均方差相似度函数,构建基于YOLO-9000的深度学习目标检测模型;
对深度学习目标检测模型进行训练并将员工的打卡拍照图片输入至训练后的深度学习目标检测模型进行目标识别,识别出打卡拍照图片中的员工目标及打卡背景图案;
基于非平行配置的双目视觉成像原理获取打卡拍照图片中的员工目标的坐标值;
根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息;
所述根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息这一步骤,包括:
设定员工考勤时间状态指标,表达式为:
其中,ti是指第i位员工考勤的时间;Ti表示考勤时间状态时间序列数据;(τ1,τ2)表示是预设的考勤时间段;
设定员工考勤范围指标,表达式为:
其中,Pi表示指第i位员工考勤的位置;Ei表示员工考勤范围序列数据;D表示预设打卡区域;
设定员工考勤坐标在x,y,z轴上的阈值均为δ,假设一位员工上传的照片得到其位置是Pi(xi,yi,zi),以Pi为球心,以阈值δ为半径做一个球,若另一位员工上传的照片得到的位置坐标Pi+1(xi+1,yi+1,zi+1)在球面外则打卡成功,记为1;反之,则打卡不成功,记为0,具体如下表达式所示:
将同时存在标记正常考勤打卡时间与正常考勤打卡范围判定为正常打卡。
2.根据权利要求1所述一种基于深度学习算法与双目视觉的考勤方法,其特征在于,所述引入最大熵正则化项和平均方差相似度函数,构建基于YOLO-9000的深度学习目标检测模型这一步骤,其具体包括:
引入最大熵正则化项和平均方差相似度函数作为深度学习目标检测模型的损失函数,其中,所述最大熵正则化项用于增加分类器的不确定性,平均方差相似度函数用于增加类别之间的相似性;
所述构建基于YOLO-9000的深度学习目标检测模型包括15层卷积层,其中第一卷积层、第二卷积层、第三卷积层、第六卷积层及第九卷积层后均连接有最大池化层,且每个最大池化层后接入dropout层。
3.根据权利要求2所述一种基于深度学习算法与双目视觉的考勤方法,其特征在于,所述对深度学习目标检测模型进行训练这一步骤,其具体包括:
YOLO9000网络将输入图像缩放至416×416,然后在图上运行卷积网络,预测是否存在目标;
在每个方格中预测n个边界方框,确定各边界方框是所需检测目标的置信度,其中,置信度表示为:
上式中,confidence表示置信度,Pr(Object)表示每个边界方框中包含检测目标的概率,表示预测的边界方框和输入的矩形框的重叠率;
对于每一个方格,预测其包含某一类检测目标的条件概率Pr(Classi|Object),其中,Pr(Classi|Object)表示在假定某一方格包含有所需检测目标的情况下,所包含的检测目标是第i类检测目标的概率;
将得到的目标的置信度与得到的检测目标的条件概率进行相乘,得到每个边界方框对于每个具体类别的置信度;
通过损失函数进行计算,得出每个检测目标的定位框,输出13×13×1024的图片结构。
4.根据权利要求3所述一种基于深度学习算法与双目视觉的考勤方法,其特征在于,所述将员工的打卡拍照图片输入至训练后的深度学习目标检测模型进行目标识别,识别出打卡拍照图片中的员工目标及打卡背景图案这一步骤,其具体包括:
采集用于训练YOLO9000网络的包含打卡区的考勤图像;
对采集到的所述考勤图像进行数据增强;
将采集到的所述考勤图像及数据增强后得到的图像中的考勤图案用矩形框进行标注,获取所述矩形框的坐标与所述矩形框所包含图案的种类;
根据采集到的所述考勤图像及数据增强后得到的图像,及获取的所述矩形框的坐标与所述矩形框所包含图案的种类对YOLO9000网络进行训练;
实时采集待检测的员工考勤图像,根据训练好的YOLO9000网络和实时采集到的待检测的员工考勤图像,实时检测员工考勤图像中的图案,并对检测到的图案进行分类和定位。
5.根据权利要求4所述一种基于深度学习算法与双目视觉的考勤方法,其特征在于,所述基于非平行配置的双目视觉成像原理为非平行配置视觉系统中的两台相机的光轴满足相交于一点,而相机的位置和方位不对非平行配置视觉系统产生影响,其中,所述两台相机中的一台相机表示公司固定的打卡相机,另一台相机表示员工打卡拍照相机。
6.根据权利要求5所述一种基于深度学习算法与双目视觉的考勤方法,其特征在于,所述基于非平行配置的双目视觉成像原理获取打卡拍照图片中的员工目标的坐标值这一步骤,其具体包括:
分别获取公司固定的打卡相机和员工打卡拍照相机的坐标值,分别记为第一相机坐标值与第二相机坐标值;
获取对应第一相机坐标值与第二相机坐标值下的旋转矩阵、平移向量以及相机的焦距;
设定打卡区中心点,根据打卡区中心点获取第一相机的平面投影像素点坐标与第二相机的平面投影像素点坐标;
根据第一相机坐标值的旋转矩阵与平移向量获取第一相机与第二相机的坐标转换关系;
根据第一相机的平面投影像素点坐标与第二相机的平面投影像素点坐标获取对应的平面投影像素点坐标与打卡区中心点的坐标关系;
将平面投影像素点坐标与打卡区中心点的坐标关系代入至第一相机与第二相机的坐标转换关系并进行矩阵表示,获取打卡拍照图片中的员工目标的坐标值。
7.根据权利要求6所述一种基于深度学习算法与双目视觉的考勤方法,其特征在于,所述第一相机与第二相机的坐标转换关系的表达式为:
上式中,P(X,Y,Z)表示打卡区中心点,P'(X',Y',Z')表示打卡区中心点在第二相机坐标系下的坐标,R表示两个相机坐标系间的旋转矩阵,t表示两个相机的平移向量。
8.一种基于深度学习算法与双目视觉的考勤系统,其特征在于,包括以下模块:
获取模块,用于获取员工的打卡拍照图片;
构建模块,用于引入最大熵正则化项和平均方差相似度函数,构建基于YOLO-9000的深度学习目标检测模型;
识别模块,用于对深度学习目标检测模型进行训练并将员工的打卡拍照图片输入至训练后的深度学习目标检测模型进行目标识别,识别出打卡拍照图片中的员工目标及打卡背景图案;
视觉处理模块,基于非平行配置的双目视觉成像原理获取打卡拍照图片中的员工目标的坐标值;
判定模块,用于根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息;
所述根据考勤定位预警判别指标对打卡拍照图片中的员工目标的坐标值进行判别处理,将判别结果作为员工考勤信息这一步骤,包括:
设定员工考勤时间状态指标,表达式为:
其中,ti是指第i位员工考勤的时间;Ti表示考勤时间状态时间序列数据;(τ1,τ2)表示是预设的考勤时间段;
设定员工考勤范围指标,表达式为:
其中,Pi表示指第i位员工考勤的位置;Ei表示员工考勤范围序列数据;D表示预设打卡区域;
设定员工考勤坐标在x,y,z轴上的阈值均为δ,假设一位员工上传的照片得到其位置是Pi(xi,yi,zi),以Pi为球心,以阈值δ为半径做一个球,若另一位员工上传的照片得到的位置坐标Pi+1(xi+1,yi+1,zi+1)在球面外则打卡成功,记为1;反之,则打卡不成功,记为0,具体如下表达式所示:
将同时存在标记正常考勤打卡时间与正常考勤打卡范围判定为正常打卡。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310424550.5A CN116452878B (zh) | 2023-04-20 | 2023-04-20 | 一种基于深度学习算法与双目视觉的考勤方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310424550.5A CN116452878B (zh) | 2023-04-20 | 2023-04-20 | 一种基于深度学习算法与双目视觉的考勤方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN116452878A CN116452878A (zh) | 2023-07-18 |
CN116452878B true CN116452878B (zh) | 2024-02-02 |
Family
ID=87119919
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310424550.5A Active CN116452878B (zh) | 2023-04-20 | 2023-04-20 | 一种基于深度学习算法与双目视觉的考勤方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN116452878B (zh) |
Citations (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082996A (zh) * | 2007-07-09 | 2007-12-05 | 北京邮电大学 | 基于移动终端的考勤管理系统及其实现方法 |
CN104281148A (zh) * | 2013-07-07 | 2015-01-14 | 哈尔滨点石仿真科技有限公司 | 基于双目立体视觉的移动机器人自主导航方法 |
WO2015024407A1 (zh) * | 2013-08-19 | 2015-02-26 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
CN104899952A (zh) * | 2015-06-18 | 2015-09-09 | 阿里巴巴集团控股有限公司 | 基于即时通讯应用的考勤方法及装置 |
WO2016176919A1 (zh) * | 2015-05-04 | 2016-11-10 | 中兴通讯股份有限公司 | 一种实现考勤的方法和考勤服务端 |
CN106548328A (zh) * | 2016-11-30 | 2017-03-29 | 北京恒华伟业科技股份有限公司 | 考勤统计系统及方法 |
CN107610259A (zh) * | 2017-08-24 | 2018-01-19 | 深圳双创科技发展有限公司 | 一种基于周围环境标识物的考勤方法和装置 |
CN107728633A (zh) * | 2017-10-23 | 2018-02-23 | 广州极飞科技有限公司 | 获取目标物位置信息方法及装置、移动装置及其控制方法 |
WO2018223354A1 (zh) * | 2017-06-09 | 2018-12-13 | 深圳市乃斯网络科技有限公司 | 基于定位的考勤记录方法及系统 |
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
CN109697604A (zh) * | 2018-12-29 | 2019-04-30 | 海南指间易购电子商务有限公司 | 一种考勤管理系统 |
CN109714708A (zh) * | 2019-01-10 | 2019-05-03 | 平安科技(深圳)有限公司 | 基于位置信息的app打卡方法、装置、设备及存储介质 |
WO2019100392A1 (zh) * | 2017-11-27 | 2019-05-31 | 齐心商用设备(深圳)有限公司 | 远程考勤的控制方法和系统 |
CN110321853A (zh) * | 2019-07-05 | 2019-10-11 | 杭州巨骐信息科技股份有限公司 | 基于视频智能检测的分布式电缆防外破系统 |
CN110516639A (zh) * | 2019-08-30 | 2019-11-29 | 成都索贝数码科技股份有限公司 | 一种基于视频流自然场景的人物三维位置实时计算方法 |
CN110569809A (zh) * | 2019-09-11 | 2019-12-13 | 淄博矿业集团有限责任公司 | 一种基于深度学习的煤矿动态人脸识别考勤方法及系统 |
CN110595433A (zh) * | 2019-08-16 | 2019-12-20 | 太原理工大学 | 一种基于双目视觉的输电杆塔倾斜的测量方法 |
CN110992500A (zh) * | 2019-10-12 | 2020-04-10 | 平安科技(深圳)有限公司 | 考勤方法、装置及存储介质、服务器 |
CN111210202A (zh) * | 2020-01-08 | 2020-05-29 | 中冶赛迪重庆信息技术有限公司 | 一种判断异常考勤数据的方法 |
CN111210192A (zh) * | 2019-12-26 | 2020-05-29 | 中国科学院自动化研究所 | 一种基于多模态特征分析的智能考勤系统 |
WO2020107687A1 (zh) * | 2018-11-27 | 2020-06-04 | 邦鼓思电子科技(上海)有限公司 | 一种基于视觉的工作区域边界的检测系统、方法及机器设备 |
CN111260309A (zh) * | 2020-01-08 | 2020-06-09 | 久微信息技术无锡有限公司 | 一种自动化考勤的考勤方法 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN111721259A (zh) * | 2020-06-24 | 2020-09-29 | 江苏科技大学 | 基于双目视觉的水下机器人回收定位方法 |
CN111751136A (zh) * | 2020-06-29 | 2020-10-09 | 伯肯森自动化技术(上海)有限公司 | 一种基于双目视觉组件的pos机测试系统 |
CN111950473A (zh) * | 2020-08-14 | 2020-11-17 | 安徽硖石智能装备科技有限公司 | 一种工程智能管理用刷卡控制系统 |
CN112819986A (zh) * | 2021-02-03 | 2021-05-18 | 广东共德信息科技有限公司 | 一种考勤系统和方法 |
CN113034478A (zh) * | 2021-03-31 | 2021-06-25 | 太原科技大学 | 一种基于深度学习网络的焊缝缺陷识别定位方法、系统 |
CN113591703A (zh) * | 2021-07-30 | 2021-11-02 | 山东建筑大学 | 一种教室内人员定位方法及教室综合管理系统 |
CN113837086A (zh) * | 2021-09-24 | 2021-12-24 | 南通大学 | 一种基于深度卷积神经网络的水库钓鱼人检测方法 |
CN113920606A (zh) * | 2021-10-09 | 2022-01-11 | 中国银行股份有限公司 | 考勤打卡方法、后台服务器及员工移动终端 |
CN114387697A (zh) * | 2021-12-30 | 2022-04-22 | 龙尚科技(上海)有限公司 | 一种考勤方法、装置、设备和存储介质 |
CN114529911A (zh) * | 2021-12-29 | 2022-05-24 | 浪潮通信信息系统有限公司 | 基于改进yolo9000算法的验证码识别方法及系统 |
CN114882605A (zh) * | 2022-03-28 | 2022-08-09 | 无锡蓝鲨信息科技有限公司 | 一种基于互联网的智慧考勤管理系统及方法 |
CN114973436A (zh) * | 2021-12-23 | 2022-08-30 | 广东轻工职业技术学院 | 考勤方法、装置、智能考勤终端及存储介质 |
CN115797461A (zh) * | 2022-11-11 | 2023-03-14 | 中国消防救援学院 | 基于双目视觉的火焰空间定位系统标定与校正方法 |
CN115880368A (zh) * | 2022-09-30 | 2023-03-31 | 国网湖南省电力有限公司 | 一种电网巡检无人机障碍物检测方法、系统及存储介质 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11159909B2 (en) * | 2008-02-05 | 2021-10-26 | Victor Thomas Anderson | Wireless location establishing device |
US9767440B2 (en) * | 2014-04-10 | 2017-09-19 | School Innovations & Achievement, Inc. | System and method for student attendance management |
US20210073430A1 (en) * | 2019-09-06 | 2021-03-11 | BeamUp, Ltd. | Structural design systems and methods for optimizing equipment selection in floorplans using modeling and simulation |
-
2023
- 2023-04-20 CN CN202310424550.5A patent/CN116452878B/zh active Active
Patent Citations (37)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101082996A (zh) * | 2007-07-09 | 2007-12-05 | 北京邮电大学 | 基于移动终端的考勤管理系统及其实现方法 |
CN104281148A (zh) * | 2013-07-07 | 2015-01-14 | 哈尔滨点石仿真科技有限公司 | 基于双目立体视觉的移动机器人自主导航方法 |
WO2015024407A1 (zh) * | 2013-08-19 | 2015-02-26 | 国家电网公司 | 基于电力机器人的双目视觉导航系统及方法 |
WO2016176919A1 (zh) * | 2015-05-04 | 2016-11-10 | 中兴通讯股份有限公司 | 一种实现考勤的方法和考勤服务端 |
CN104899952A (zh) * | 2015-06-18 | 2015-09-09 | 阿里巴巴集团控股有限公司 | 基于即时通讯应用的考勤方法及装置 |
CN106548328A (zh) * | 2016-11-30 | 2017-03-29 | 北京恒华伟业科技股份有限公司 | 考勤统计系统及方法 |
WO2018223354A1 (zh) * | 2017-06-09 | 2018-12-13 | 深圳市乃斯网络科技有限公司 | 基于定位的考勤记录方法及系统 |
CN107610259A (zh) * | 2017-08-24 | 2018-01-19 | 深圳双创科技发展有限公司 | 一种基于周围环境标识物的考勤方法和装置 |
CN107728633A (zh) * | 2017-10-23 | 2018-02-23 | 广州极飞科技有限公司 | 获取目标物位置信息方法及装置、移动装置及其控制方法 |
WO2019100392A1 (zh) * | 2017-11-27 | 2019-05-31 | 齐心商用设备(深圳)有限公司 | 远程考勤的控制方法和系统 |
CN109084724A (zh) * | 2018-07-06 | 2018-12-25 | 西安理工大学 | 一种基于双目视觉的深度学习障碍物测距方法 |
WO2020107687A1 (zh) * | 2018-11-27 | 2020-06-04 | 邦鼓思电子科技(上海)有限公司 | 一种基于视觉的工作区域边界的检测系统、方法及机器设备 |
CN109697604A (zh) * | 2018-12-29 | 2019-04-30 | 海南指间易购电子商务有限公司 | 一种考勤管理系统 |
CN109714708A (zh) * | 2019-01-10 | 2019-05-03 | 平安科技(深圳)有限公司 | 基于位置信息的app打卡方法、装置、设备及存储介质 |
WO2020181685A1 (zh) * | 2019-03-12 | 2020-09-17 | 南京邮电大学 | 一种基于深度学习的车载视频目标检测方法 |
CN110321853A (zh) * | 2019-07-05 | 2019-10-11 | 杭州巨骐信息科技股份有限公司 | 基于视频智能检测的分布式电缆防外破系统 |
CN110595433A (zh) * | 2019-08-16 | 2019-12-20 | 太原理工大学 | 一种基于双目视觉的输电杆塔倾斜的测量方法 |
CN110516639A (zh) * | 2019-08-30 | 2019-11-29 | 成都索贝数码科技股份有限公司 | 一种基于视频流自然场景的人物三维位置实时计算方法 |
CN110569809A (zh) * | 2019-09-11 | 2019-12-13 | 淄博矿业集团有限责任公司 | 一种基于深度学习的煤矿动态人脸识别考勤方法及系统 |
CN110992500A (zh) * | 2019-10-12 | 2020-04-10 | 平安科技(深圳)有限公司 | 考勤方法、装置及存储介质、服务器 |
CN111210192A (zh) * | 2019-12-26 | 2020-05-29 | 中国科学院自动化研究所 | 一种基于多模态特征分析的智能考勤系统 |
CN111210202A (zh) * | 2020-01-08 | 2020-05-29 | 中冶赛迪重庆信息技术有限公司 | 一种判断异常考勤数据的方法 |
CN111260309A (zh) * | 2020-01-08 | 2020-06-09 | 久微信息技术无锡有限公司 | 一种自动化考勤的考勤方法 |
CN111721259A (zh) * | 2020-06-24 | 2020-09-29 | 江苏科技大学 | 基于双目视觉的水下机器人回收定位方法 |
CN111751136A (zh) * | 2020-06-29 | 2020-10-09 | 伯肯森自动化技术(上海)有限公司 | 一种基于双目视觉组件的pos机测试系统 |
CN111950473A (zh) * | 2020-08-14 | 2020-11-17 | 安徽硖石智能装备科技有限公司 | 一种工程智能管理用刷卡控制系统 |
CN112819986A (zh) * | 2021-02-03 | 2021-05-18 | 广东共德信息科技有限公司 | 一种考勤系统和方法 |
CN113034478A (zh) * | 2021-03-31 | 2021-06-25 | 太原科技大学 | 一种基于深度学习网络的焊缝缺陷识别定位方法、系统 |
CN113591703A (zh) * | 2021-07-30 | 2021-11-02 | 山东建筑大学 | 一种教室内人员定位方法及教室综合管理系统 |
CN113837086A (zh) * | 2021-09-24 | 2021-12-24 | 南通大学 | 一种基于深度卷积神经网络的水库钓鱼人检测方法 |
CN113920606A (zh) * | 2021-10-09 | 2022-01-11 | 中国银行股份有限公司 | 考勤打卡方法、后台服务器及员工移动终端 |
CN114973436A (zh) * | 2021-12-23 | 2022-08-30 | 广东轻工职业技术学院 | 考勤方法、装置、智能考勤终端及存储介质 |
CN114529911A (zh) * | 2021-12-29 | 2022-05-24 | 浪潮通信信息系统有限公司 | 基于改进yolo9000算法的验证码识别方法及系统 |
CN114387697A (zh) * | 2021-12-30 | 2022-04-22 | 龙尚科技(上海)有限公司 | 一种考勤方法、装置、设备和存储介质 |
CN114882605A (zh) * | 2022-03-28 | 2022-08-09 | 无锡蓝鲨信息科技有限公司 | 一种基于互联网的智慧考勤管理系统及方法 |
CN115880368A (zh) * | 2022-09-30 | 2023-03-31 | 国网湖南省电力有限公司 | 一种电网巡检无人机障碍物检测方法、系统及存储介质 |
CN115797461A (zh) * | 2022-11-11 | 2023-03-14 | 中国消防救援学院 | 基于双目视觉的火焰空间定位系统标定与校正方法 |
Non-Patent Citations (2)
Title |
---|
"基于特征融合的深度学习目标检测算法研究";黄剑航等;《广东工业大学学报》;第38卷(第4期);第52-58页 * |
"非平行双目视觉系统水下标定与测量";解则晓等;《光学学报》;第39卷(第9期);第1-10页 * |
Also Published As
Publication number | Publication date |
---|---|
CN116452878A (zh) | 2023-07-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Gou et al. | Vehicle license plate recognition based on extremal regions and restricted Boltzmann machines | |
CN109558823B (zh) | 一种以图搜图的车辆识别方法及系统 | |
US8750573B2 (en) | Hand gesture detection | |
US8792722B2 (en) | Hand gesture detection | |
CN108280477B (zh) | 用于聚类图像的方法和装置 | |
CN105138998B (zh) | 基于视角自适应子空间学习算法的行人重识别方法及系统 | |
US11455831B2 (en) | Method and apparatus for face classification | |
CN110689043A (zh) | 一种基于多重注意力机制的车辆细粒度识别方法及装置 | |
CN112016464A (zh) | 检测人脸遮挡的方法、装置、电子设备及存储介质 | |
CN111709313B (zh) | 基于局部和通道组合特征的行人重识别方法 | |
Zhang et al. | License plate localization in unconstrained scenes using a two-stage CNN-RNN | |
CN108108760A (zh) | 一种快速人脸识别方法 | |
Gu et al. | Embedded and real-time vehicle detection system for challenging on-road scenes | |
CN116543261A (zh) | 用于图像识别的模型训练方法、图像识别方法设备及介质 | |
Wang et al. | Research on face recognition algorithm based on deep learning | |
CN110619280A (zh) | 一种基于深度联合判别学习的车辆重识别方法及装置 | |
CN116704490B (zh) | 车牌识别方法、装置和计算机设备 | |
CN111488811B (zh) | 人脸识别方法、装置、终端设备及计算机可读介质 | |
CN116452878B (zh) | 一种基于深度学习算法与双目视觉的考勤方法及系统 | |
Bairagi et al. | A real-time face recognition smart attendance system with haar cascade classifiers | |
CN113111888B (zh) | 一种图片判别方法及装置 | |
CN115205155A (zh) | 一种畸变图像的矫正方法、装置及终端设备 | |
CN109472279B (zh) | 基于图像处理的物品识别方法和装置 | |
Peng et al. | Deep learning-based autonomous real-time digital meter reading recognition method for natural scenes | |
CN113111833B (zh) | 人工智能系统的安全性检测方法、装置及终端设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |