CN110211679A - 一种自助体检机视力检测智能化处理方法及装置 - Google Patents
一种自助体检机视力检测智能化处理方法及装置 Download PDFInfo
- Publication number
- CN110211679A CN110211679A CN201910441433.3A CN201910441433A CN110211679A CN 110211679 A CN110211679 A CN 110211679A CN 201910441433 A CN201910441433 A CN 201910441433A CN 110211679 A CN110211679 A CN 110211679A
- Authority
- CN
- China
- Prior art keywords
- examinee
- human body
- key position
- attitude data
- physical examination
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H40/00—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
- G16H40/60—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
- G16H40/63—ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Biomedical Technology (AREA)
- General Business, Economics & Management (AREA)
- Public Health (AREA)
- Primary Health Care (AREA)
- Medical Informatics (AREA)
- Epidemiology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Ophthalmology & Optometry (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
Abstract
本发明实施例公开了一种自助体检机视力检测智能化处理方法及装置,其特征在于,包括:获取体检舱内监控视频信息;基于人体姿态识别模型对所述视频信息进行人体关键部位识别,获得人体姿态数据;对所述人体姿态数据进行若干次筛选,并识别体检舱内体检人数;确定所述体检人的眼镜配戴情况和眼部遮挡情况;对所述体检人进行视力检测。本发明实施例提供一种采用人工智能的方法,自动完成舱内人数检测、是否配戴眼镜识别、遮眼方式是否正确一系列操作,提高了视力检测的自动化程度,节省了人力,同时提高了检测的准确度。
Description
技术领域
本发明实施例涉及交管自助体检技术领域,具体涉及一种自助体检机视力检测智能化处理方法及装置。
背景技术
适龄人员申请驾驶证时需要按照《机动车驾驶证申领和使用规定(2016版)》目前该体检多采用人工方式进行,少部分地区开始尝试采用自助体检设备,进入无人化的体检。但是市面上的自助体检设备,其智能化水平不能满足真实案例的需求,在视力检测的过程中,进入体检舱内的人员身体状况参差不齐,有正常体检人的同时还有身体残缺或者畸形的人士也会参与体检,还会存在体检人身上的衣服影响体检准确性的问题存在。另外,此类自助设备也无法智能判定被检测是否有多人同舱、是否配戴眼镜、是否按照正常方式进行体检等情况,当体检过程中出现如中途换人、他人介入行为时,也无法适时停止体检或阻止此类作弊行为的发生。需要工作人员在体检过程中进行实时监控查看或结束后统一回看视频和抓拍照片进行判断,此方式不仅影响效率,检测结果还会受到监控的角度、时间、审核人员主观因素等影响,体检过程的有效性和结果的准确度会大大打折扣。
发明内容
为此,本发明实施例提供一种自助体检机视力检测智能化处理方法,以解决现有技术中由于在进行视力检测时,体检人身体残缺或畸形、体检人操作不规范、体检人衣饰图案干扰等因素影响体检准确性的问题。
为了实现上述目的,本发明实施例提供一种采用人工智能的方法,自动完成舱内人数检测、是否配戴眼镜识别、遮眼方式是否正确等一系列操作,提高了视力检测的自动化程度,节省了人力,同时在体检过程中,对需要体检的体检人进行多次筛选,且需要对体检人进行一个精确定位,提高了检测的准确度。具体技术方案如下:
根据本发明实施例提供一种自助体检机视力检测智能化处理方法,其特征在于,包括:
获取体检舱内监控视频信息;
基于人体姿态识别模型对所述视频信息进行人体关键部位识别,获得人体姿态数据;其中,所述人体姿态数据包括脸部关键部位姿态数据和躯体关键部位姿态数据;所述关键部位姿态数据包括关键部位的坐标信息和分值信息;
对所述人体姿态数据进行若干次筛选,并识别体检舱内体检人数;
确定所述体检人的眼镜配戴情况和眼部遮挡情况;
对所述体检人进行视力检测。
进一步地,分析所述人体姿态数据与体检固定区域之间的比例,初步筛选不符合预设比例范围的体检人;
分析脸部关键部位与躯体关键部位之间的位置及比例关系,对所述体检人进行二次筛选。
进一步地,还包括,对所述体检人的脸部关键部位进行计算和分析,判断所述体检人是否为活体人;其中所述脸部关键部位包括体检人的眼睛、鼻子、耳朵。
进一步地,对所述体检人的脸部关键部位进行计算和分析,根据体检人的身体是否发生位移、扭头和眨眼来判断所述体检人是否为活体人;根据体检人的耳朵和肩部之间的角度关系,判断所述体检人是否扭头。
进一步地,人体姿态识别模型为基于OpenPose的人体姿态识别模型。
本发明实施例具有如下优点:
本发明采用人工智能的处理方法,完成对体检仓内体检人数的自动识别,对体检人的眼镜佩戴情况、体检人的眼部遮挡情况的自动确定,在满足前面所有一切条件的情况下,对体检人进行视力检测。全程无需人工参与,自助体检机自动化处理一切流程。节省了人力,同时提高了检测的准确度。
进一步地,本发明采用人体姿态识别模型对人体关键部位进行识别,获得人体姿态数据,并对人体姿态数据进行多次筛选,进而再识别出体检舱内的体检人数。根据人体姿态数据确定体检人数量,更能准确的确定体检舱内的人数。在识别之前进行多次筛选,将身体存在残缺或者是在固定区域之外的体检人都筛选过滤掉,减小了后期识别算法开发的难度,保证了识别准确性。
进一步地,本发明识别人数后对体检人的脸部关键部位进行计算和分析,判断体检人是否是活体人,过滤出真实可信的人体姿态数据,防止衣服上的人物图像对后续人数判定产生影响。
本发明实施例的另一方面提供一种自助体检机视力检测智能化处理装置,其特征在于,包括,获取模块、人体姿态数据识别模块、筛选识别模块、眼镜佩戴识别及眼部遮挡识别模块、视力检测模块;
其中,所述获取模块用于获取体检舱内监控视频信息;
所述人体姿态数据识别模块用于基于人体姿态识别模型对所述视频信息进行人体关键部位识别,获得人体姿态数据;其中,所述人体姿态数据包括脸部关键部位姿态数据和躯体关键部位姿态数据;所述关键部位姿态数据包括关键部位的坐标信息和分值信息;
所述筛选识别模块用于对所述人体姿态数据进行若干次筛选,并识别体检舱内体检人数;
所述眼镜佩戴识别及眼部遮挡识别模块用于确定所述体检人的眼镜配戴情况和眼部遮挡情况;
所述视力检测模块用于对所述体检人进行视力检测。
进一步地,所述筛选识别模块包括初步筛选模块和二次筛选模块;
其中,所述初步筛选模块用于分析所述人体姿态数据与体检固定区域之间的比例,初步筛选不符合预设比例范围的体检人;
所述二次筛选模块用于分析脸部关键部位与躯体关键部位之间的位置及比例关系,对所述体检人进行二次筛选,并识别体检舱内体检人数;
进一步地,还包括活体人判断模块,所述活体人判断模块用于对所述体检人的脸部关键部位进行计算和分析,判断所述体检人是否为活体人;其中所述脸部关键部位包括体检人的眼睛、鼻子、耳朵。
进一步地,根据体检人的身体是否发生位移、扭头和眨眼来判断所述体检人是否为活体人;根据体检人的耳朵和肩部之间的角度关系,判断所述体检人是否扭头。
进一步地,人体姿态识别模型为基于OpenPose的人体姿态识别模型。
附图说明
为了更清楚地说明本发明的实施方式或现有技术中的技术方案,下面将对实施方式或现有技术描述中所需要使用的附图作简单地介绍。显而易见地,下面描述中的附图仅仅是示例性的,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据提供的附图引伸获得其它的实施附图。
本说明书所绘示的结构、比例、大小等,均仅用以配合说明书所揭示的内容,以供熟悉此技术的人士了解与阅读,并非用以限定本发明可实施的限定条件,故不具技术上的实质意义,任何结构的修饰、比例关系的改变或大小的调整,在不影响本发明所能产生的功效及所能达成的目的下,均应仍落在本发明所揭示的技术内容得能涵盖的范围内。
图1为本发明实施例1提供的一种自助体检机视力检测智能化处理方法流程框图;
图2为本发明实施例2提供的一种自助体检机视力检测智能化处理方法流程的优选的实施方式流程图;
图3为体检人眼部关键部位图片;
图4为眼睛宽高比的高低变化图;
图5为人体姿态数据模拟图。
具体实施方式
以下由特定的具体实施例说明本发明的实施方式,熟悉此技术的人士可由本说明书所揭露的内容轻易地了解本发明的其他优点及功效,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
参见图1是本发明实施例1提供的一种自助体检机视力检测智能化处理方法流程框图,包括:
获取体检舱内监控视频信息;
识别体检舱内体检人数;
确定所述体检人的眼镜配戴情况;
确定所述体检人的眼部遮挡情况;
对所述体检人进行视力检测。
本发明对体检舱内的监控视频信息进行一系列人工智能算法计算,包括对体检舱内的体检人数的识别、对眼镜佩戴情况的确定以及对体检人的眼部遮挡情况的确定,在这些条件都符合预设条件的情况下,对体检人的视力进行检测,实现了视力检测的智能化处理。
上述对体检舱内体检人数的识别包括如下步骤:
按照预设视频帧速,基于人体姿态识别模型对所述视频信息进行人体关键部位识别,获得人体姿态数据;
分析所述人体姿态数据,判断体检舱内体检人数,完成体检人数的识别。
出于数据处理的快速和高效性的考虑,对舱内的视频进行每秒25帧的实时分析,上述人体姿态识别模型可以是Facebook研究所公布的DensePose,也可以是AlphaPose。优选的,本发明基于开源的人体姿态识别框架OpenPose,对视频信息中的人体关键部位进行识别,获得人体姿态数据。OpenPose是一个开源的人体姿态识别框架,会对人体的关键部位进行一个预估,范围是0到1,越接近1越可信。
基于OpenPose对舱内视频进行每秒25帧的实时分析,对出现在每帧图像中的人体图像进行人体关键点识别,由于人体多样性,如体检人衣服上的人体图像,舱门打开时,门外的非体检人图像,所以需要对OpenPose框架计算出来的姿态数据进行过滤,去除干扰数据。
上述人体姿态数据包括身体关键部位的坐标信息和分值信息,身体关键部位包括脸部关键部位和躯体关键部位,也即所述人体姿态数据包括脸部关键部位姿态数据和躯体关键部位姿态数据;所述关键部位姿态数据包括关键部位的坐标信息和分值信息;
计算得到人体姿态数据后,对人体姿态数据进行若干次筛选,优选的,本发明对上述人体姿态数据进行两次筛选。首先分析人体姿态数据与体检固定区域之间的比例,初步筛选不符合预设比例范围的体检人。
具体的,先对人体姿态数据进行比例筛选。由于正常人的肩宽、头部的长度,会同体检舱选定的固定区域有一个比例范围(比例范围根据选定区域具体大小的不同而不同),根据这个比例范围对人体姿态数据进行初步的筛选。
其次,分析脸部关键部位姿态数据与躯体关键部位之间的位置和比例关系,对体检人进行二次筛选。具体的,由于正常的体检人,身体关键部位都符合生理结构,比如头在双肩之上,头的宽度与双肩宽度也存在一个比例范围,根据这个生理构造的比例范围,对体检人进行二次筛选。
对体检人进行两次筛选过后,再对剩余的人体姿态数据的个数进行判别,以此,可识别出体检舱内的体检人数。通过两次对人体姿态数据体检人的人体姿态数据的筛选,过滤掉不符合检测要求的或者是身体存在畸形的特殊人群,保证参加体检的人都是正常的体检人,保证了自助体检的检测准确度。
本发明采用人体姿态识别模型对人体关键部位进行识别,获得人体姿态数据,并对人体姿态数据进行多次筛选,进而再识别出体检舱内的体检人数。根据人体姿态数据确定体检人数量,更能准确的确定体检舱内的人数。在识别之前进行多次筛选,将身体存在残缺或者是在固定区域之外的体检人都筛选过滤掉,减小了算法开发的难度,保证了识别准确性。
当识别出此时体检舱内的人体姿态数据只有一人时,对该体检人的眼镜佩戴情况进行检测。包括如下步骤:
获取体检舱内所述监控视频信息中所述体检人的人脸图像信息;
将所述人脸图像信息输入至预先训练的分类模型,预测所述体检人是否配戴眼镜,确定所述体检人的眼镜配戴情况。
先基于Google Inception V3分类模型,训练是否佩戴眼镜的分类模型。具体的,以真实体检舱背板环境为背景,获取一定数量的配戴眼镜和不佩戴眼镜,两种正反数据集,我们使用一万张正样本图片,即佩戴眼镜图像,一万张负样本图片,即不戴眼镜图像,两千张验证图像。然后对数据进行预处理,将眼部区域提取出来作为Inception V3分类模型的输入,提取Inception V3计算出的特征值,输入到戴眼镜和不戴眼镜的全连接层,对是否配戴眼镜进行分类,得到分类精度达到预设要求的精度时Inception V3的各项参数,进而得到眼镜佩戴分类模型。
需要说明的是,我们训练出来的模型,在不断的使用过程中,识别正确率会不断提高,每在实际环境中检测一张图片,此图片会加入训练模型库中,根据实际结果不断优化出新的佩戴眼镜的训练模型,以此类推,识别准确率稳健增长。
然后提取监控视频信息中的体检人的人脸图像信息,将该人脸图像信息输入至上述眼镜佩戴分类模型,可以准确判断出体检人是否配戴眼镜。若体检人的眼镜佩戴情况与体检人预先选择的眼镜佩戴情况一致(需要说明的是,体检人在进入体检舱内进行视力检测时,在体检机上会预先选择自己是否配戴眼镜),则进入到下一检测环节,即对体检人的眼部遮挡情况进行判断。
确定所述体检人的眼部遮挡情况包括:
确定被遮挡的眼部位置;
将所述监控视频信息中的人脸图像信息输入至预先训练的基于Faster R-CNN的遮掩板位置模型,预测遮眼板的位置;
计算所述被遮挡的眼部位置与所述遮掩板的位置之间的比值,记为ration;
若所述ration大于预设阈值,所述体检人的眼部遮挡正确。
当体检人的头部端正时,基于OpenPose计算体检人的脸部关键部位,再利用最小二乘法对脸部关键部位姿态数据进行拟合,得出头部中线函数;以筛选出的眼部关键部位为基准位置,依据头部中线函数映射出被遮挡的眼部关键部位,以此确定被遮挡的眼部位置。计算最小二乘法残差平方和的计算公式如下:
通过Q来确定头部中线函数,最终通过求导得到β0、β1,头部中线函数计算公式如下:
计算出头部中线函数的两个参数β0、β1,便可计算出头部中线函数的数学表达式,在此不做赘述。
基于Faster R-CNN,训练遮眼板位置模型,预测遮眼板的位置。具体的,由于遮眼板外形特征稳定,即可使用物品检测模型进行检测。首先获取一定数量的体检人使用遮眼板的图片,即可使用物品检测模型进行检测。首先获取一定数量的体检人使用遮眼板的图片,以脸部作为遮眼板背景,趋于真实检测场景,可降低遮眼板的误检率。然后对照片集进行遮眼板的边界标记,由于遮眼板主要区域在上面的遮掩区域,因此只对遮眼板的上半部分进行边界标记,然后将图片集送入Faster R-CNN,训练出遮眼板检测模型。
得到遮眼板检测模型后,将监控视频信息中的人脸图像信息输入至训练好的遮掩板位置模型,预测遮眼板的位置。为了提高检测的准确性,对于每一帧待识别的人脸图像信息进行三次识别,输出至多三次遮眼板预测位置。
最后,将预测的三个遮眼板的预测位置分别与被遮挡的眼部位置进行比值计算,比值记为ration,其计算公式如下:若存在其中一个遮眼板预测位置与眼部遮眼板位置的比值大于预设的阈值时,所述预设的阈值优选为0.85,则认为遮挡是正确的。
需要说明的是,为了确保准确找出眼部遮挡位置,本发明在确定被遮挡眼部位置之前,基于OpenPose对体检人的头部姿态数据和躯体姿态数据进行进一步的综合判定,判断体检人是否处于歪头姿态,如果是处于歪头姿态,则提示用户头部姿势不准确或者重新回到自助体检的最初状态,重新完成体检人数的识别、眼镜佩戴情况的确定及眼部遮挡情况的判定等流程。
参见图2,是本发明实施例2提供的一种自助体检机视力检测智能化处理方法流程的优选的实施方式流程图。所述优选实施方式包括如下步骤:
获取体检舱内监控视频信息;
按照预设视频帧速,基于人体姿态识别模型对所述视频信息进行人体关键部位识别,获得人体姿态数据;其中,所述人体姿态数据包括脸部关键部位姿态数据和躯体关键部位姿态数据;所述关键部位姿态数据包括关键部位的坐标信息和分值信息;
分析所述人体姿态数据,判断体检舱内体检人数,完成体检人数的识别;
对所述体检人的脸部关键部位进行计算和分析,判断所述体检人是否为活体人;其中所述脸部关键部位包括体检人的眼睛、鼻子、耳朵;
确定所述体检人的眼镜配戴情况;
确定所述体检人的眼部遮挡情况;
每隔预订时间段对所述体检人进行人脸比对;
对所述体检人进行视力检测。
为了使本发明更加优化,在实施例1的基础上,对体检舱内的体检人是否为活体进行识别。在对人体姿态数据经过两次筛选和分析后,识别出体检舱内的人数为1人时,在连续的监控视频信息中对视频帧进行一个活体验证,即验证识别出的人为一个真实的体检人。通过提示体检人身体发生位移、扭头和眨眼等动作来判断体检人是否是活体。当体检人身体未发生明显的位移,并且扭头和眨眼,则视为活体。其判断过程如下:
参见图3,是体检人眼部关键部位的图片,眼部关键部位一般有6个关键点,如图3中的P1、P2、P3、P4、P5、P6。基于OpenPose对面部进行68个关键点计算,其中每个眼睛有6个关键点,当进行眨眼行为时,眼睛的宽高比会有规律的高低变化,(参见图4),图像帧数越多,变化曲线越平滑。一秒25帧时,一次眨眼行为,dif的变化趋势图,最低点时即为闭眼。
眼睛的宽高比Dif可通过如下计算公式得到:
Dif=(||p2-p6||+||p3-p5||)/2||p1-p4||
参见图5,为人体姿态数据模拟图,可根据该图判断体检人是否扭头。一般情况下,正常人处于端正姿态时,其耳朵和肩部之间都有一定的角度,当体检人向右扭头时,左耳、右肩、左肩构成的角度a会持续增大,同理,向左扭头时,右耳、左肩、右肩构成的角度b也会持续增大,通过检测角度a、角度b的大小变化来确定体检人是否扭头,进而判断体检人是否为活体。
本发明自助体检流程,体检人都将在体检舱内完成,为防止中途换人或旁边有人在门口进行提示,在识别出体检人数,并确定只有一人时,就不再采用固定区域,而是采用拍摄的全镜头区域,进行人体姿态分析。当体检舱门未关闭,门口位置检测到人体姿态数据,则认为发生非正常体检,回到体检时的初始状态,重新完成体检人数的识别、眼镜佩戴情况的确定及眼部遮挡情况的判定等流程。当体检舱门关闭时,检测到人体姿态为一人,则对其面部进行每秒一次的特征比对,保证整个体检过程中体检人的一致性。
人脸比对的过程如下:
首先根据截取出的体检人的脸部图像信息,放入预先训练好的FaceNet的模型来提取人脸128维特征向量,并进行保存记录。其中FaceNet的模型,是根据收集得到1w张图片训练出来的。
其次根据实时检测出的人脸图片,放入训练好的FaceNet的模型得到128维特征向量,保存记录;
最后计算上面2个向量的欧式距离值,若是同一个人,此值小于1.05,若是两张一样的人脸图片,得到的距离会是0,其中1.05是我们由多次实验验证和欧式距离原理结合得出的一个合适阈值。
本发明实施例2在识别人数后对体检人的脸部关键部位进行计算和分析,判断体检人是否是活体人,过滤出真实可信的人体姿态数据,防止衣服上的人物图像对后续人数判定产生影响。
进一步地,在完成人脸识别后,若识别出体检舱内体检人数为单个人时,每隔预订时间段对所述体检人进行人脸比对。在上面确定完毕体检人后,防止中途换人或旁人在门口进行提示,对体检人的面部进行每秒一次的特征值比对,保证整个体检过程中,体检人的一致性,确保检测结果的真实性和准确性。
本发明实施例的另一方面提供一种自助体检机视力检测智能化处理装置,其特征在于,包括,获取模块、人体姿态数据识别模块、筛选识别模块、眼镜佩戴识别及眼部遮挡识别模块、视力检测模块;
其中,所述获取模块用于获取体检舱内监控视频信息;
所述人体姿态数据识别模块用于基于人体姿态识别模型对所述视频信息进行人体关键部位识别,获得人体姿态数据;其中,所述人体姿态数据包括脸部关键部位姿态数据和躯体关键部位姿态数据;所述关键部位姿态数据包括关键部位的坐标信息和分值信息;
所述筛选识别模块用于对所述人体姿态数据进行若干次筛选,并识别体检舱内体检人数;
所述眼镜佩戴识别及眼部遮挡识别模块用于确定所述体检人的眼镜配戴情况和眼部遮挡情况;
所述视力检测模块用于对所述体检人进行视力检测。
进一步地,所述筛选识别模块包括初步筛选模块和二次筛选模块;
其中,所述初步筛选模块用于分析所述人体姿态数据与体检固定区域之间的比例,初步筛选不符合预设比例范围的体检人;
所述二次筛选模块用于分析脸部关键部位与躯体关键部位之间的位置及比例关系,对所述体检人进行二次筛选,并识别体检舱内体检人数;
进一步地,还包括活体人判断模块,所述活体人判断模块用于对所述体检人的脸部关键部位进行计算和分析,判断所述体检人是否为活体人;其中所述脸部关键部位包括体检人的眼睛、鼻子、耳朵。
进一步地,根据体检人的身体是否发生位移、扭头和眨眼来判断所述体检人是否为活体人;根据体检人的耳朵和肩部之间的角度关系,判断所述体检人是否扭头。
进一步地,人体姿态识别模型为基于OpenPose的人体姿态识别模型。
虽然,上文中已经用一般性说明及具体实施例对本发明作了详尽的描述,但在本发明基础上,可以对之作一些修改或改进,这对本领域技术人员而言是显而易见的。因此,在不偏离本发明精神的基础上所做的这些修改或改进,均属于本发明要求保护的范围。
Claims (10)
1.一种自助体检机视力检测智能化处理方法,其特征在于,包括:
获取体检舱内监控视频信息;
基于人体姿态识别模型对所述视频信息进行人体关键部位识别,获得人体姿态数据;其中,所述人体姿态数据包括脸部关键部位姿态数据和躯体关键部位姿态数据;所述关键部位姿态数据包括关键部位的坐标信息和分值信息;
对所述人体姿态数据进行若干次筛选,并识别体检舱内体检人数;
确定所述体检人的眼镜配戴情况和眼部遮挡情况;
对所述体检人进行视力检测。
2.根据权利要求1所述的方法,其特征在于,分析所述人体姿态数据与体检固定区域之间的比例,初步筛选不符合预设比例范围的体检人;
分析脸部关键部位与躯体关键部位之间的位置及比例关系,对所述体检人进行二次筛选。
3.根据权利要求1所述的方法,其特征在于,还包括,对所述体检人的脸部关键部位进行计算和分析,判断所述体检人是否为活体人;其中所述脸部关键部位包括体检人的眼睛、鼻子、耳朵。
4.根据权利要求3所述的方法,其特征在于,对所述体检人的脸部关键部位进行计算和分析,根据体检人的身体是否发生位移、扭头和眨眼来判断所述体检人是否为活体人;根据体检人的耳朵和肩部之间的角度关系,判断所述体检人是否扭头。
5.根据权利要求1-4任一所述的方法,其特征在于,人体姿态识别模型为基于OpenPose的人体姿态识别模型。
6.一种自助体检机视力检测智能化处理装置,其特征在于,包括,获取模块、人体姿态数据识别模块、筛选识别模块、眼镜佩戴识别及眼部遮挡识别模块、视力检测模块;
其中,所述获取模块用于获取体检舱内监控视频信息;
所述人体姿态数据识别模块用于基于人体姿态识别模型对所述视频信息进行人体关键部位识别,获得人体姿态数据;其中,所述人体姿态数据包括脸部关键部位姿态数据和躯体关键部位姿态数据;所述关键部位姿态数据包括关键部位的坐标信息和分值信息;
所述筛选识别模块用于对所述人体姿态数据进行若干次筛选,并识别体检舱内体检人数;
所述眼镜佩戴识别及眼部遮挡识别模块用于确定所述体检人的眼镜配戴情况和眼部遮挡情况;
所述视力检测模块用于对所述体检人进行视力检测。
7.根据权利要求6所述的装置,其特征在于,所述筛选识别模块包括初步筛选模块和二次筛选模块;
其中,所述初步筛选模块用于分析所述人体姿态数据与体检固定区域之间的比例,初步筛选不符合预设比例范围的体检人;
所述二次筛选模块用于分析脸部关键部位与躯体关键部位之间的位置及比例关系,对所述体检人进行二次筛选,并识别体检舱内体检人数。
8.根据权利要求6所述的装置,其特征在于,还包括活体人判断模块,所述活体人判断模块用于对所述体检人的脸部关键部位进行计算和分析,判断所述体检人是否为活体人;其中所述脸部关键部位包括体检人的眼睛、鼻子、耳朵。
9.根据权利要求8所述的装置,其特征在于,根据体检人的身体是否发生位移、扭头和眨眼来判断所述体检人是否为活体人;根据体检人的耳朵和肩部之间的角度关系,判断所述体检人是否扭头。
10.根据权利要求6-9任一所述的装置,其特征在于,人体姿态识别模型为基于OpenPose的人体姿态识别模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910441433.3A CN110211679A (zh) | 2019-05-24 | 2019-05-24 | 一种自助体检机视力检测智能化处理方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201910441433.3A CN110211679A (zh) | 2019-05-24 | 2019-05-24 | 一种自助体检机视力检测智能化处理方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN110211679A true CN110211679A (zh) | 2019-09-06 |
Family
ID=67788623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201910441433.3A Pending CN110211679A (zh) | 2019-05-24 | 2019-05-24 | 一种自助体检机视力检测智能化处理方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN110211679A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339920A (zh) * | 2020-02-24 | 2020-06-26 | 上海眼控科技股份有限公司 | 加钞行为检测方法、装置、系统、存储介质及电子终端 |
CN113408354A (zh) * | 2021-05-19 | 2021-09-17 | 珠海方图智能科技有限公司 | 一种驾驶人身体条件检测方法、系统及终端机 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150116859A1 (en) * | 2013-10-29 | 2015-04-30 | International Business Machines Corporation | Writing and reading data having multiple access patterns on tape media |
CN106530633A (zh) * | 2016-09-28 | 2017-03-22 | 中国人民解放军国防科学技术大学 | 一种智能事中处置的安防方法及系统 |
CN107909005A (zh) * | 2017-10-26 | 2018-04-13 | 西安电子科技大学 | 基于深度学习的监控场景下人物姿态识别方法 |
CN108876504A (zh) * | 2017-09-12 | 2018-11-23 | 北京旷视科技有限公司 | 一种无人售卖系统及其控制方法 |
CN109410466A (zh) * | 2018-12-25 | 2019-03-01 | 云车行网络科技(北京)有限公司 | 驾驶人员自助体检设备 |
CN109558814A (zh) * | 2018-11-14 | 2019-04-02 | 常州大学 | 一种三维矫正和加权相似性度量学习的无约束人脸验证方法 |
-
2019
- 2019-05-24 CN CN201910441433.3A patent/CN110211679A/zh active Pending
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150116859A1 (en) * | 2013-10-29 | 2015-04-30 | International Business Machines Corporation | Writing and reading data having multiple access patterns on tape media |
CN106530633A (zh) * | 2016-09-28 | 2017-03-22 | 中国人民解放军国防科学技术大学 | 一种智能事中处置的安防方法及系统 |
CN108876504A (zh) * | 2017-09-12 | 2018-11-23 | 北京旷视科技有限公司 | 一种无人售卖系统及其控制方法 |
CN107909005A (zh) * | 2017-10-26 | 2018-04-13 | 西安电子科技大学 | 基于深度学习的监控场景下人物姿态识别方法 |
CN109558814A (zh) * | 2018-11-14 | 2019-04-02 | 常州大学 | 一种三维矫正和加权相似性度量学习的无约束人脸验证方法 |
CN109410466A (zh) * | 2018-12-25 | 2019-03-01 | 云车行网络科技(北京)有限公司 | 驾驶人员自助体检设备 |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111339920A (zh) * | 2020-02-24 | 2020-06-26 | 上海眼控科技股份有限公司 | 加钞行为检测方法、装置、系统、存储介质及电子终端 |
CN113408354A (zh) * | 2021-05-19 | 2021-09-17 | 珠海方图智能科技有限公司 | 一种驾驶人身体条件检测方法、系统及终端机 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108427503B (zh) | 人眼追踪方法及人眼追踪装置 | |
CN105631439B (zh) | 人脸图像处理方法和装置 | |
CN105426827B (zh) | 活体验证方法、装置和系统 | |
CN109840565A (zh) | 一种基于眼部轮廓特征点纵横比的眨眼检测方法 | |
CN106997452B (zh) | 活体验证方法及装置 | |
CN101558431B (zh) | 脸认证设备 | |
CN110223322B (zh) | 图像识别方法、装置、计算机设备和存储介质 | |
CN109886244A (zh) | 一种人脸识别活体检测方法及装置 | |
EP3680794B1 (en) | Device and method for user authentication on basis of iris recognition | |
CN106874830B (zh) | 一种基于rgb-d相机和人脸识别的视障人士辅助方法 | |
CN108875485A (zh) | 一种底图录入方法、装置及系统 | |
CN103514440A (zh) | 面部识别 | |
EP3542211A1 (de) | Verfahren und vorrichtung sowie computerprogramm zum ermitteln einer repräsentation eines brillenglasrands | |
CA2452188A1 (en) | Individual recognizing apparatus and individual recognizing method | |
CN111460950A (zh) | 自然驾驶通话行为中基于头-眼证据融合的认知分心方法 | |
CN110309813A (zh) | 一种基于深度学习的人眼状态检测的模型训练方法、检测方法、装置、移动端设备及服务器 | |
CN110226913A (zh) | 一种自助体检机视力检测智能化处理方法及装置 | |
CN110032970A (zh) | 高准确率的活体检测方法、装置、计算机设备及存储介质 | |
CN108875469A (zh) | 活体检测与身份认证的方法、装置及计算机存储介质 | |
CN110211679A (zh) | 一种自助体检机视力检测智能化处理方法及装置 | |
CN105138967A (zh) | 基于人眼区域活动状态的活体检测方法和装置 | |
Rigas et al. | Gaze estimation as a framework for iris liveness detection | |
CN110222608A (zh) | 一种自助体检机视力检测智能化处理方法 | |
CN103839056B (zh) | 一种人眼状态识别方法和装置 | |
CN113989788A (zh) | 一种基于深度学习和多指标融合的疲劳检测方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20190906 |