CN112069917B - 一种用于固定场景的人脸识别系统 - Google Patents
一种用于固定场景的人脸识别系统 Download PDFInfo
- Publication number
- CN112069917B CN112069917B CN202010820689.8A CN202010820689A CN112069917B CN 112069917 B CN112069917 B CN 112069917B CN 202010820689 A CN202010820689 A CN 202010820689A CN 112069917 B CN112069917 B CN 112069917B
- Authority
- CN
- China
- Prior art keywords
- area
- image
- human body
- event occurs
- abnormal event
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000002159 abnormal effect Effects 0.000 claims abstract description 39
- 238000001514 detection method Methods 0.000 claims description 15
- 238000007781 pre-processing Methods 0.000 claims description 11
- 239000003086 colorant Substances 0.000 claims description 6
- 238000001914 filtration Methods 0.000 claims description 4
- 238000005286 illumination Methods 0.000 claims description 4
- 238000012795 verification Methods 0.000 description 36
- 238000000034 method Methods 0.000 description 19
- 230000009471 action Effects 0.000 description 10
- 230000004397 blinking Effects 0.000 description 9
- 230000008859 change Effects 0.000 description 7
- 238000012545 processing Methods 0.000 description 6
- 230000007613 environmental effect Effects 0.000 description 4
- 210000001747 pupil Anatomy 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 210000003128 head Anatomy 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 201000009310 astigmatism Diseases 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 230000011514 reflex Effects 0.000 description 2
- 230000000638 stimulation Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000004888 barrier function Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000005336 cracking Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 210000000887 face Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 108090000623 proteins and genes Proteins 0.000 description 1
- 210000001525 retina Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/18—Eye characteristics, e.g. of the iris
- G06V40/193—Preprocessing; Feature extraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
- G06V40/45—Detection of the body part being alive
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02B—CLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO BUILDINGS, e.g. HOUSING, HOUSE APPLIANCES OR RELATED END-USER APPLICATIONS
- Y02B20/00—Energy efficient lighting technologies, e.g. halogen lamps or gas discharge lamps
- Y02B20/40—Control techniques providing energy savings, e.g. smart controller or presence detection
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Ophthalmology & Optometry (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Artificial Intelligence (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Collating Specific Patterns (AREA)
Abstract
本发明公开了一种用于固定场景的人脸识别系统,属于人脸识别技术领域,包括:图像采集单元,用于获取固定场景区域内的第一图像和第二图像;背景区域识别单元,用于识别所述第二图像去除人体区域后的背景区域;图片识别单元,用于将所述背景区域与所述第一图像进行比对,根据比对的结果判断是否有异常事件发生。通过背景区域与第一图像的环境进行比对,能够比较精确的判断出所处的环境是否相同,根据环境是否相同来判断是否有异常事件发生。
Description
技术领域
本发明属于人脸识别技术领域,更具体地,涉及一种用于固定场景的人脸识别系统。
背景技术
身份验证是人们在日常生活中经常遇到的问题。在电子信息技术飞速发展的今天,电子商务、网上银行、公共安全等领域对身份证的可靠度和方式提出了新的要求,传统的身份验证方法已经不能满足这些要求。人脸作为面部特征具有不易伪造、不会遗失和随身携带的特点,与指纹、视网膜、虹膜、基因等其它人体生物特征识别系统相比,人脸图像识别更加直接、友好,使用者无任何心理障碍。
随着人工智能,科学技术的发展,活体验证应用在各个方面,由于人的脸部是一种外在属性,自己的脸部图像很容易被他人获取,而常用的人脸识别算法是从脸部图像中提取特征进而用于人脸比对,如果不采取防范措施,人脸识别系统就很容易被欺骗,常见的欺骗手段有照片、视频回放、三维(3D)人脸模型、3D人脸面具或头套等。
现有技术中,一般根据获取到的深度脸部图像中脸部区域的深度信息进行脸部的活体检测,该方案直接根据深度脸部图像确定脸部区域,脸部区域的精度不高,且虽然对于照片、视频等平面假冒人脸,很容易就可以根据深度信息判断该人脸是否为活体人脸,但是对于3D人脸模型、3D人脸面具或头套等立体假冒人脸,若单纯地根据获取到的脸部图像的深度信息去检测,会很容易产生误判,导致脸部活体检测的准确性低;现有技术中还有通过使用提示信息判断用户动作是否与提示信息相对应以及使用红外摄像头判断温度是否与人体相同等方式进行活体验证,但是上述验证容易被视频图像破解,或是3D机器模型进行破解,存在一定的安全隐患。
发明内容
本发明的目的是为了至少解决现有的人脸识别系统检测信息不精确以及容易被破解而导致的存在安全隐患的技术问题。
为了实现上述目的,本发明提供一种用于固定场景的人脸识别系统,包括:
图像采集单元,用于获取固定场景区域内的第一图像和第二图像;
背景区域识别单元,用于识别所述第二图像去除人体区域后的背景区域;
图片识别单元,用于对所述背景区域与所述第一图像进行比对,根据比对的结果判断是否有异常事件发生。
进一步的,所述图片识别单元用于:
检测人体特征点以及所述背景区域的特征点,通过检测所述人体特征点之间的距离变化以及所述人体特征点与所述背景区域的特征点之间的距离变化来判断是否有异常事件发生。
进一步的,还包括:
人体识别单元,用于识别人体区域和肢体区域并检测出人体和肢体的数量以及所述肢体区域和所述人体区域的相对位置来判断是否有异常事件发生。
进一步的,还包括:
电子产品识别单元,用于识别人体周围是否存在规则区域以及人体是否处于规则区域内来判断是否有异常事件发生。
进一步的,所述规则区域为矩形区域、正方形区域或圆形区域的一种,且围成所述规则区域的边缘是多种颜色交替组成。
进一步的,还包括:
机器人识别单元/3D模型识别单元,用于识别人体的眼部区域并获取眼部的区域信息来判断是否有异常事件发生。
进一步的,还包括:摄像头和红外传感器,
所述红外传感器用于检测固定环境中是否有人,摄像头根据所述红外传感器检测的结果拍摄第一图像和第二图像。
进一步的,所述摄像头采用阵列摄像头。
进一步的,还包括:LED灯,所述LED灯包括照明LED灯和指向性LED灯,通过调节所述指向性LED灯的角度,向其眼部区域发射闪光,所述机器人识别单元/3D模型识别单元能够获取眼部是否有眨眼动作且是否在闪光之后预定时间内进行眨眼的信息来判断是否有异常事件发生。
进一步的,还包括预处理单元,所述预处理单元用于图像灰度化、图像滤波去噪、图像增强和图像边缘锐化。
本发明的有益效果:
通过图像采集单元用于获取固定场景区域内的第一图像和第二图像,通过图片识别单元对背景区域与第一图像进行比对,能够比较精确的判断出所处的环境是否相同,根据环境是否相同来判断是否有异常事件发生。
进一步的,通过图片识别单元检测人体特征点以及背景区域的特征点,通过检测人体特征点之间的距离变化以及人体特征点与背景区域特征点之间的距离变化来判断是否有异常事件发生。通过检测各特征点之间的距离变化情况可排除掉照片等虚假验证。
进一步的,通过人体识别单元,能够识别出人体区域和肢体区域,精确的判断出是否有多余的人体或者肢体以及肢体位置与待识别人体位置是否异常,当不法分子如果使用手拿着照片或电子装置时,就能准确判断出为非法验证。
进一步的,通过电子产品识别单元,能够用于识别人体周围是否存在规则区域以及人体是否处于规则区域内来判断是否有异常事件发生,通过识别出人体周围是否存在规则区域以及人体是否处于规则区域内能够防止不法分子使用电子设备播放视频以欺骗验证系统,因此如果人体处于规则区域范围内则很有可能是在欺骗验证系统,能够判断出为非法验证。
进一步的,通过机器人识别单元/3D模型识别单元,能够用于识别人体的眼部区域并获取眼部的区域信息来判断是否有异常事件发生,通过获取眼部的区域信息能够识别出是3D机器或者3d模型。
本发明的其它特征和优点将在随后具体实施方式部分予以详细说明。
附图说明
通过结合附图对本发明示例性实施方式进行更详细的描述,本发明的上述以及其它目的、特征和优势将变得更加明显,其中,在本发明示例性实施方式中,相同的参考标号通常代表相同部件。
图1示出了本实施例1的一种用于固定场景的人脸识别系统的结构示意图;
图2示出了本实施例2的一种用于固定场景的人脸识别系统的结构示意图。
具体实施方式
下面将更详细地描述本发明的优选实施方式。虽然以下描述了本发明的优选实施方式,然而应该理解,可以以各种形式实现本发明而不应被这里阐述的实施方式所限制。相反,提供这些实施方式是为了使本发明更加透彻和完整,并且能够将本发明的范围完整地传达给本领域的技术人员。
一种用于固定场景的人脸识别系统,包括:
图像采集单元,用于获取固定场景区域内的第一图像和第二图像;
背景区域识别单元,用于识别第二图像去除人体区域后的背景区域;
图片识别单元,用于对背景区域与第一图像进行比对,根据比对的结果判断是否有异常事件发生。
需要说明的是,本技术方案的人体是指待检测的活体验证的人,人体区域是指除了环境以外的所有物体,包括人体以及多出的其它物体,比如多出的其它人体、肢体或者人体所携带的物品等。
第一图像是当检测到无人时获取到的,第二图像是当有人进入到固定场景时获取的,通过将第一图像和背景区域进行比对,能够精确判断出人体所处的环境和固定场景是否相同,从而判断是否有异常事件发生。由于环境会发生变化,第一图像会每隔一段时间进行一次更新。
作为一种优选方案,图片识别单元进一步用于:
检测人体特征点以及背景区域的特征点,通过检测人体特征点之间的距离变化以及人体特征点与背景区域特征点之间的距离变化来判断是否有异常事件发生。
人体特征点包括头部、肩部、手臂、手、肩等部位,背景区域的特征点包括任一方便识别的部位。
需要说明的是,由于人体特征点和背景区域的特征点需要找出多个,因此此过程需要获取多张第二图像,分别检测出每张第二图像中人体特征点之间的距离以及人体特征点与第二图像中的背景区域的特征点之间距离;本领域技术人员应当知道,正常的人体以及人体的各个部位都是在不断运动的,因此人体的各个部位与背景区域的特征点的距离也是不等距且变化的,利用该技术方案,如果不法分子使用照片进行验证,显然人体的各个特征点之间的距离是不变的,人体的特征点与背景区域的特征点之间的距离是等距的,因此通过检测各特征点之间的距离变化情况即可排除掉照片等虚假验证。
作为一种优选方案,还包括:
人体识别单元,用于识别人体区域和肢体区域并检测出人体和肢体的数量以及肢体区域和人体区域的相对位置来判断是否有异常事件发生。
需要说明的是,人体区域和肢体区域的计算方法是通过采用卷积神经网络算法识别出来的,人体识别单元能够判断是否出现多余的肢体,且肢体与人体区域的位置是否出现异常情况。
本技术方案通过检测是否有除人体之外的其它肢体,且该肢体有异常动作时则判断为非法验证,比如有其他肢体手的部位靠近人体而肩膀远离人体,因此不法分子如果使用手拿着照片或电子装置则无法使手不被拍摄到,就能判断出为非法验证。
作为一种优选方案,还包括:
电子产品识别单元,用于识别人体周围是否存在规则区域以及人体是否处于规则区域内来判断是否有异常事件发生。
需要说明的是,该规则区域可以使用边缘识别算法得出,该步骤用于防止不法分子使用电子设备播放视频以欺骗验证系统,因此如果人体处于规则区域范围内则很有可能是在欺骗验证系统,能够判断出为非法验证。
作为一种优选方案,规则区域为矩形区域、正方形区域或圆形区域的一种,且围成规则区域的边缘是多种颜色交替组成。
需要说明的是,一般的电子装置都是规则的形状且边缘部分有相同颜色的也有不同颜色的。
作为一种优选方案,还包括:
机器人识别单元/3D模型识别单元,用于识别人体的眼部区域并获取眼部的区域信息来判断是否有异常事件发生。
需要说明的是,眼部的区域信息为是否有眨眼动作且是否在光线刺激后的预定时间内进行眨眼;如果是则验证通过,如果不是则判断为非法验证。
一般人在受到光线刺激时都会发生眨眼等动作,如果是3D机器人则不会受到强光影响,则就可以通过光线刺激排除掉机器人脸或3d模型。
通常,人受到光线刺激由于条件反射作用会进行眨眼,且眨眼开始时间是在光线刺激之后预定时间内,因此要判断眨眼是否在光线刺激之后且在预定时间范围内开始眨眼的以防止由于机器人模拟眨眼巧合验证通过。该方法的优点还在于,现有技术中通过检测人眼的瞳孔或虹膜变化来识别,通过瞳孔或虹膜识别人体需要人体靠近设备,而且摄像头拍摄的角度也需要与虹膜或瞳孔平行或对齐,识别要求比较高,本技术方案通过识别眨眼动作检查环节要求低,适用范围更广,检测更精确,并可以与其它技术方案进行结合,使得验证更加的精准。
作为一种优选方案,还包括:摄像头和红外传感器,
红外传感器用于检测固定场景中是否有人,摄像头根据红外传感器检测的结果拍摄无人时的第一图像和有人时的第二图像。
作为一种优选方案,摄像头采用阵列摄像头。
阵列摄像头能够拍摄较宽的视野范围,结合检测设备能够获取大于180度的视野范围,这样在后续人体识别时就可以识别人体周围是否有其它人在播放视频、或者使用照片等方式来骗取验证系统。
作为一种优选方案,还包括:LED灯,LED灯包括照明LED灯和指向性LED灯,通过调节指向性LED灯的角度,向其眼部区域发射闪光,机器人识别单元/3D模型识别单元能够获取眼部是否有眨眼动作且是否在闪光之后预定时间内进行眨眼的信息来判断是否有异常事件发生。
LED灯为角度和焦距可调的LED灯,在这里有两个用途,当环境信息较暗时,可以使用LED灯发出散光进行照明,当用于人体验证时,使LED灯发出平行光具有指向性功能。
作为一种优选方案,还包括预处理单元,预处理单元用于图像灰度化、图像滤波去噪、图像增强和图像边缘锐化。
预处理单元用于对图像采集单元获取到的图像进行预处理去噪,使得去噪后的图像更清晰准确。
实施例1
参考图1,一种用于固定场景的人脸识别系统,包括摄像头、红外传感器、处理单元和存储单元,还包括:图像采集单元,用于获取固定场景区域内无人时的第一图像和有人时的第二图像;背景区域识别单元,用于识别第二图像去除人体区域后的背景区域;图片识别单元,用于对获取的背景区域与第一图像进行比对,根据比对的结果判断是否有异常事件发生。
红外传感器可以是红外摄像头,也可以是普通的红外温度传感器,用于检测固定场景中是否有接近人体温度的物体,当检测到无人时获取第一图像,当检测到有人进入固定场景中时,获取第二图像;第一图像可以间隔一段时间采集一次,因为应用的环境一般都是会经常改变所以需要定期更新环境照片,便于人体检测过程中更能精确的比对第一图像和背景区域,能够精确判断出人体所处的环境和固定场景是否不同,从而判断是否有异常事件发生。
实施例2
参考图2,一种用于固定场景的人脸识别系统,包括阵列摄像头、红外传感器、LED灯、预处理单元、处理单元和存储单元,存储单元用于存储处理单元获取的信息,还包括:图像采集单元,用于获取固定场景区域内无人时的第一图像和有人时的第二图像;背景区域识别单元,用于识别第二图像去除人体区域后的背景区域;图片识别单元,用于对获取的背景区域与第一图像进行比对,根据比对的结果判断是否有异常事件发生。
阵列摄像头用于拍摄图像,使用阵列摄像头能够拍摄较宽的视野范围,结合检测设备能够获取大于180度的视野范围,这样在后续人体识别时就可以识别出是否有人在播放视频、或者使用照片等方式来骗取验证系统;红外传感器可以是红外摄像头,也可以是普通的红外温度传感器,用于检测固定场景中是否有接近人体温度的物体,当没有时,图像采集单元获取第一图像,当有人进入时,获取第二图像;第一图像可以间隔一段时间采集一次,因为应用的环境一般都是会经常改变所以需要定期更新环境照片,便于人体检测过程中更能精确的比对第一图像和背景区域,能够精确判断出人体所处的环境和固定场景是否不同,从而判断是否有异常事件发生;处理器用于处理各项数据运算,存储器用于存储处理程序、拍摄的照片以及中间处理数据;预处理单元,用于对采集到的图像进行预处理去噪;其中,预处理单元包括图像灰度化、图像滤波去噪、图像增强、图像边缘锐化等,使得去噪图像更清晰准确;LED灯包括照明LED灯和指向性LED灯。
如果第一图像和背景区域的比对结果属于正常,则进行下一步验证:通过识别单元检测人体特征点以及背景区域的特征点,通过检测人体特征点之间的距离变化以及人体特征点与背景区域特征点之间的距离变化来判断是否有异常事件发生。
人体特征点包括头部、肩部、手臂、手、肩等部位,背景区域的特征点包括任一方便识别的部位。通过图像采集单元获取多张第二图像,通过对每一张人体特征点之间的距离进行检测以及人体特征点与背景区域的距离进行检测来综合判断以上特征点之间的距离变化情况,进一步的判断出是否有异常事件的发生。
检测人体各个特征点之间的距离、人体图像特征点与背景区域特征点之间的距离,如果各个特征点之间的距离变化大小皆不相等或大部分距离不相等则认为验证通过。
需要说明的是:大部分距离不相等是超过半数特征点之间的距离不相等;比如人体特征点有5个,背景区域的特征点为3个,则人体特征点之间的距离个数为C2 5=10个,人体特征点与背景区域的特征点之间的距离为5X3=15个,一共有25个特征点之间的距离数据,如果这25个距离数据均不相同或者一半以上不相同,则验证通过。
需要说明的是,背景区域是指人体所处的环境区域,人体区域是指除了环境以外的所有物体,包括检测的人体以及多出的其它物体,比如多出的人体、人体所携带的物品或者肢体等,本技术方案在做特征点比对时,是比对人体特征点与背景区域的距离,因此在比对时背景区域不包括人体区域的部分;本领域技术人员应当知道,正常的人体以及人体的各个部位都是在不断运动的,因此人体的各个部位与背景区域的特征点的距离也是不等距且变化的,利用该技术方案,如果不法分子使用照片进行验证,显然人体的各个特征点之间的距离是不变的,人体的特征点与背景区域的特征点之间的距离是等距的,因此通过检测各特征点之间的距离变化情况即可排除掉照片等虚假验证。
如果以上检测属于正常,则进行下一步验证:通过人体识别单元识别人体区域和肢体区域并检测出人体和肢体的数量以及肢体区域和人体区域的相对位置来判断是否有异常事件发生。
人体区域和肢体区域的计算方法是通过采用卷积神经网络算法识别出来的,人体识别单元能够判断是否出现多余的肢体,且肢体与人体区域的位置是否出现异常情况。
本技术方案通过检测是否有除人体之外的其它肢体,且该肢体有异常动作时则判断为非法验证,比如有手的部位靠近人体而肩膀远离人体,因此不法分子如果使用手拿着照片或电子装置则无法使手不被拍摄到,就能判断出为非法验证。
如果以上检测属于正常,则进行下一步验证:通过电子产品识别单元,识别人体周围是否存在规则区域以及人体是否处于规则区域内来判断是否有异常事件发生,规则区域为矩形区域、正方形区域或圆形区域的一种,且围成规则区域的边缘可以是多种颜色交替组成。
需要说明的是,该规则区域可以使用边缘识别算法得出,一般的电子装置都是规则的形状且边缘部分有相同颜色的也有不同颜色的,该步骤用于防止不法分子使用电子设备播放视频以欺骗验证系统,因此如果人体处于规则区域范围内则很有可能是在欺骗验证系统,能够判断出为非法验证。
如果以上检测属于正常,则进行下一步验证:
机器人识别单元/3D模型识别单元,用于识别人体的眼部区域并获取眼部的区域信息来判断是否有异常事件发生。
需要说明的是,眼部的区域信息为是否有眨眼动作且是否在光线刺激后的预定时间内进行眨眼;如果是则验证通过,如果不是则判断为非法验证。
一般人在受到光线刺激时都会发生眨眼等动作,如果是3D机器人则不会受到强光影响,则就可以通过光线刺激排除掉机器人脸或3d模型。
通常,人受到光线刺激由于条件反射作用会进行眨眼,且眨眼开始时间是在光线刺激之后的预定时间内,因此要判断眨眼是否在光线刺激之后且在预定时间范围内开始眨眼的以防止由于机器人模拟眨眼巧合验证通过。该方法的优点还在于,现有技术中通过检测人眼的瞳孔或虹膜变化来识别,通过瞳孔或虹膜识别人体需要人体靠近设备,而且摄像头拍摄的角度也需要与虹膜或瞳孔平行或对齐,识别要求比较高,本技术方案通过识别眨眼动作检查环节要求低,适用范围更广,检测更精确,并可以与其它技术方案进行结合,使得验证更加的精准。
在本实施例中,LED灯的角度和焦距均可调,有两个用途,当环境信息较暗时,可以使用LED灯发出散光进行照明,当用于人体识别时,LED灯发出平行光具有指向性功能,通过调节指向性LED灯的角度,向其眼部区域发射闪光,机器人识别单元/3D模型识别单元能够获取眼部是否有眨眼动作且是否在闪光之后的预定时间内进行眨眼的信息来判断是否有异常事件发生。
本实施例通过采用四个识别单元对人脸进行识别,能够排除掉现有技术中不法分子可能使用照片、视频、机器人/3D模型等方式进行欺骗验证的手段,比较精确的对人体进行识别,并且本技术方案不需要采用昂贵的红外摄像头,节约了成本,仅使用普通摄像头及普通红外传感器即可,既经济效果又好。
以上已经描述了本发明的各实施例,上述说明是示例性的,并非穷尽性的,并且也不限于所披露的各实施例。在不偏离所说明的各实施例的范围和精神的情况下,对于本技术领域的普通技术人员来说许多修改和变更都是显而易见的。
Claims (3)
1.一种用于固定场景的人脸识别系统,其特征在于,包括:
图像采集单元,用于获取固定场景区域内的第一图像和第二图像;第一图像是当检测到无人时获取到的,第二图像是当有人进入到固定场景时获取的,通过将第一图像和背景区域进行比对,能够精确判断出人体所处的环境和固定场景是否相同,从而判断是否有异常事件发生,由于环境会发生变化,第一图像会每隔一段时间进行一次更新;
背景区域识别单元,用于识别所述第二图像去除人体区域后的背景区域;
图片识别单元,用于将所述背景区域与所述第一图像进行比对,根据比对的结果判断是否有异常事件发生;
所述图片识别单元还用于:
检测人体特征点以及所述背景区域的特征点,通过检测所述人体特征点之间的距离变化以及所述人体特征点与所述背景区域的特征点之间的距离变化来判断是否有异常事件发生;
人体识别单元,用于识别人体区域和肢体区域并检测出人体和肢体的数量以及所述肢体区域和所述人体区域的相对位置来判断是否有异常事件发生;
电子产品识别单元,用于识别人体周围是否存在规则区域以及人体是否处于规则区域内来判断是否有异常事件发生;
所述规则区域为矩形区域、正方形区域或圆形区域的一种,且围成所述规则区域的边缘是多种颜色交替组成的;
机器人识别单元/3D模型识别单元,用于识别人体的眼部区域并获取眼部的区域信息来判断是否有异常事件发生;
LED灯,所述LED灯包括照明LED灯和指向性LED灯,通过调节所述指向性LED灯的角度,向其眼部区域发射闪光,所述机器人识别单元/3D模型识别单元能够获取眼部是否有眨眼动作且是否在闪光之后预定时间内进行眨眼的信息来判断是否有异常事件发生;
摄像头和红外传感器,所述红外传感器用于检测固定环境中是否有人,摄像头根据所述红外传感器检测的结果拍摄第一图像和第二图像。
2.根据权利要求1所述的一种用于固定场景的人脸识别系统,其特征在于,所述摄像头采用阵列摄像头。
3.根据权利要求1所述的一种用于固定场景的人脸识别系统,其特征在于,还包括预处理单元,所述预处理单元用于图像灰度化、图像滤波去噪、图像增强和图像边缘锐化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010820689.8A CN112069917B (zh) | 2020-08-14 | 2020-08-14 | 一种用于固定场景的人脸识别系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010820689.8A CN112069917B (zh) | 2020-08-14 | 2020-08-14 | 一种用于固定场景的人脸识别系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112069917A CN112069917A (zh) | 2020-12-11 |
CN112069917B true CN112069917B (zh) | 2024-02-02 |
Family
ID=73661830
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010820689.8A Active CN112069917B (zh) | 2020-08-14 | 2020-08-14 | 一种用于固定场景的人脸识别系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112069917B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1748227A (zh) * | 2003-02-13 | 2006-03-15 | 日本电气株式会社 | 伪装检测装置及伪装检测方法 |
JP2007241402A (ja) * | 2006-03-06 | 2007-09-20 | Sharp Corp | 顔認証におけるなりすまし判定装置およびそれを用いた顔認証装置 |
CN101702198A (zh) * | 2009-11-19 | 2010-05-05 | 浙江大学 | 基于背景比对的视频和活体人脸的鉴别方法 |
JP2014219704A (ja) * | 2013-04-30 | 2014-11-20 | セコム株式会社 | 顔認証システム |
KR20160009972A (ko) * | 2014-07-17 | 2016-01-27 | 크루셜텍 (주) | 허위 안면 이미지 분류가 가능한 홍채 인식 장치 |
CN106241533A (zh) * | 2016-06-28 | 2016-12-21 | 西安特种设备检验检测院 | 基于机器视觉的电梯乘员综合安全智能监控方法 |
CN106295522A (zh) * | 2016-07-29 | 2017-01-04 | 武汉理工大学 | 一种基于多角度人脸和环境信息的两级防欺骗检测方法 |
CN109086645A (zh) * | 2017-06-13 | 2018-12-25 | 阿里巴巴集团控股有限公司 | 人脸识别方法、装置以及虚假用户的识别方法、装置 |
CN111428570A (zh) * | 2020-02-27 | 2020-07-17 | 深圳壹账通智能科技有限公司 | 非活体人脸的检测方法、装置、计算机设备及存储介质 |
-
2020
- 2020-08-14 CN CN202010820689.8A patent/CN112069917B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1748227A (zh) * | 2003-02-13 | 2006-03-15 | 日本电气株式会社 | 伪装检测装置及伪装检测方法 |
JP2007241402A (ja) * | 2006-03-06 | 2007-09-20 | Sharp Corp | 顔認証におけるなりすまし判定装置およびそれを用いた顔認証装置 |
CN101702198A (zh) * | 2009-11-19 | 2010-05-05 | 浙江大学 | 基于背景比对的视频和活体人脸的鉴别方法 |
JP2014219704A (ja) * | 2013-04-30 | 2014-11-20 | セコム株式会社 | 顔認証システム |
KR20160009972A (ko) * | 2014-07-17 | 2016-01-27 | 크루셜텍 (주) | 허위 안면 이미지 분류가 가능한 홍채 인식 장치 |
CN106241533A (zh) * | 2016-06-28 | 2016-12-21 | 西安特种设备检验检测院 | 基于机器视觉的电梯乘员综合安全智能监控方法 |
CN106295522A (zh) * | 2016-07-29 | 2017-01-04 | 武汉理工大学 | 一种基于多角度人脸和环境信息的两级防欺骗检测方法 |
CN109086645A (zh) * | 2017-06-13 | 2018-12-25 | 阿里巴巴集团控股有限公司 | 人脸识别方法、装置以及虚假用户的识别方法、装置 |
CN111428570A (zh) * | 2020-02-27 | 2020-07-17 | 深圳壹账通智能科技有限公司 | 非活体人脸的检测方法、装置、计算机设备及存储介质 |
Also Published As
Publication number | Publication date |
---|---|
CN112069917A (zh) | 2020-12-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109558764B (zh) | 人脸识别方法及装置、计算机设备 | |
CN106407914B (zh) | 用于检测人脸的方法、装置和远程柜员机系统 | |
CN105612533B (zh) | 活体检测方法、活体检测系统以及计算机程序产品 | |
CN109670390B (zh) | 活体面部识别方法与系统 | |
CN111344703B (zh) | 基于虹膜识别的用户认证设备和方法 | |
CN109886080A (zh) | 人脸活体检测方法、装置、电子设备及可读存储介质 | |
CN103678984A (zh) | 一种利用摄像头实现用户身份验证的方法 | |
US8933783B2 (en) | Detection of fraud for access control system of biometric type | |
US11610437B2 (en) | Face liveness detection systems and methods | |
US20120249297A1 (en) | Consent Biometrics | |
US20160366317A1 (en) | Apparatuses and methods for image based biometric recognition | |
US11682235B2 (en) | Iris authentication device, iris authentication method and recording medium | |
WO2020079741A1 (ja) | 虹彩認証装置、虹彩認証方法および記録媒体 | |
Kant et al. | Fake face recognition using fusion of thermal imaging and skin elasticity | |
JP5730044B2 (ja) | 顔画像認証装置 | |
Rigas et al. | Gaze estimation as a framework for iris liveness detection | |
TW202036372A (zh) | 應用於安全防護之影像辨識系統 | |
WO2020065954A1 (ja) | 認証装置、認証方法および記憶媒体 | |
CN106557752A (zh) | 一种基于虹膜识别的安防控制系统及其方法 | |
CN112069915B (zh) | 一种具有人脸识别系统的atm机 | |
Bal et al. | Biometric authentication and tracking system for online examination system | |
Ramsoful et al. | Feature extraction techniques for dorsal hand vein pattern | |
WO2015181729A1 (en) | Method of determining liveness for eye biometric authentication | |
CN112069917B (zh) | 一种用于固定场景的人脸识别系统 | |
CN111582145A (zh) | 生物识别方法、电子设备以及计算机可读存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |