CN111783674A - 一种基于ar眼镜的人脸识别方法和系统 - Google Patents
一种基于ar眼镜的人脸识别方法和系统 Download PDFInfo
- Publication number
- CN111783674A CN111783674A CN202010628541.4A CN202010628541A CN111783674A CN 111783674 A CN111783674 A CN 111783674A CN 202010628541 A CN202010628541 A CN 202010628541A CN 111783674 A CN111783674 A CN 111783674A
- Authority
- CN
- China
- Prior art keywords
- glasses
- face
- face recognition
- neural network
- mobile terminal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 239000011521 glass Substances 0.000 title claims abstract description 159
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000003062 neural network model Methods 0.000 claims abstract description 53
- 238000013135 deep learning Methods 0.000 claims abstract description 19
- 238000013138 pruning Methods 0.000 claims description 12
- 230000006855 networking Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims description 10
- 238000001514 detection method Methods 0.000 claims description 10
- 230000006835 compression Effects 0.000 claims description 9
- 238000007906 compression Methods 0.000 claims description 9
- 238000004821 distillation Methods 0.000 claims description 9
- 238000000605 extraction Methods 0.000 claims description 9
- 238000013139 quantization Methods 0.000 claims description 7
- 238000012549 training Methods 0.000 claims description 4
- 239000004984 smart glass Substances 0.000 claims description 3
- 238000013528 artificial neural network Methods 0.000 description 18
- 230000008569 process Effects 0.000 description 12
- 238000010586 diagram Methods 0.000 description 11
- 238000005516 engineering process Methods 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000012545 processing Methods 0.000 description 7
- 238000004891 communication Methods 0.000 description 6
- 210000000887 face Anatomy 0.000 description 6
- 238000012544 monitoring process Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 5
- 238000011002 quantification Methods 0.000 description 5
- 238000012512 characterization method Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 210000000056 organ Anatomy 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000087 stabilizing effect Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 210000004709 eyebrow Anatomy 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B27/0172—Head mounted characterised by optical features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B27/00—Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
- G02B27/01—Head-up displays
- G02B27/017—Head mounted
- G02B2027/0178—Eyeglass type
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Multimedia (AREA)
- Human Computer Interaction (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Optics & Photonics (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
本发明给出了一种基于AR眼镜的人脸识别方法和系统,包括在AR眼镜上部署第一人脸特征库以及用于人脸识别的第一压缩神经网络模型,并利用AR眼镜上的图像采集终端实时抓拍人脸图像;响应于AR眼镜未接入网络,利用压缩神经网络模型进行人脸图像的人脸识别;响应于AR眼镜与移动终端建立联系,将人脸图像传输至移动终端,并利用移动终端上部署的第二压缩神经网络模型进行人脸图像的人脸识别;响应于AR眼镜接入网络,将人脸图像传输至后台服务器,并利用后台服务器上部署的深度学习的神经网络模型进行人脸图像的人脸识别;在AR眼镜上示出人脸识别的匹配结果。该基于AR眼镜的人脸识别方法和系统可根据不同使用环境切换工作模式,快速完成识别工作。
Description
技术领域
本发明涉及人脸识别的技术领域,尤其是一种基于AR眼镜的人脸识别方法和系统。
背景技术
近年来,随着人工智能的飞速发展,人脸识别技术被广泛应用于视频监控领域。目前大多数监控设备都是固定式摄像头,监控范围有限,无法覆盖到监控区域内的边边角角。运用了人脸识别技术的可穿戴式AR眼镜在一定程度上可以解决这一问题,提高监控的覆盖率。AR眼镜通过摄像头实时抓拍人脸,并通过移动网络发至后台服务端识别比对,结果快速回传并显示到AR眼镜上,佩戴人员可对识别结果迅速做出响应,对抓捕在逃人员、稳定社会秩序起到极大的作用。
对于AR眼镜与后台服务器之间的相互通讯来说,移动网络的延迟与不稳定性是一大风险。由于运营商网络通道容量有限,当单位面积内用户数量过多,容易导致网络阻塞,移动信号较弱。在大型的活动中(如演唱会、音乐节等),安保区域内往往人数众多,AR眼镜与后台服务器的通讯无法得到有效保障。其次,在农村及偏远地区,移动网络信号覆盖率较低。且在布控人脸库较少时,也需要后台服务器,成本高昂。而可穿戴设备还存在存储空间和算力有限的瓶颈,无法应用较大的网络模型。
发明内容
为了解决现有技术中AR眼镜与后台服务器的通讯无法得到有效保障、移动网络信号覆盖率较低、后台服务器成本高昂、可穿戴设备还存在存储空间和算力有限的瓶颈,无法应用较大的网络模型的技术问题,本发明提出了一种基于AR眼镜的人脸识别方法和系统,用以解决上述问题。
在一个方面,本发明提出了一种基于AR眼镜的人脸识别方法,包括以下步骤:
S1:在AR眼镜上部署第一人脸特征库以及用于人脸识别的第一压缩神经网络模型,并利用AR眼镜上的图像采集终端实时抓拍人脸图像;
S2:响应于AR眼镜未接入网络,利用第一压缩神经网络模型进行人脸图像的人脸识别;
S3:响应于AR眼镜与移动终端建立联系,将人脸图像传输至移动终端,并利用移动终端上部署的第二压缩神经网络模型进行人脸图像的人脸识别;
S4:响应于AR眼镜接入网络,将人脸图像传输至后台服务器,并利用后台服务器上部署的深度学习的神经网络模型进行人脸图像的人脸识别;以及
S5:在AR眼镜上示出人脸识别的匹配结果。
优选的,利用蒸馏、剪枝和量化的压缩方式将第一压缩神经网络模型和第二压缩神经网络模型分别部署于AR眼镜和移动终端上。凭借神经网络剪枝、量化以及蒸馏等模型压缩技术,使得较高精度的神经网络模型可以运行在AR眼镜上。
进一步优选的,第一压缩神经网络模型和第二压缩神经网络模型中的蒸馏的方式具体为在训练阶段采用教师网络和学生网络一同训练的方式。该设置可以提高学生网络的精确度。
进一步优选的,第一压缩神经网络模型和第二压缩神经网络模型中的剪枝和量化的方式具体采用通道剪枝和int8量化进行神经网络模型的压缩。凭借该压缩方式能够将已训练网络模型压缩至原来的四分之一大小。
进一步优选的,第二压缩神经网络模型的规模大于第一压缩神经网络模型的规模。移动终端上的神经网络模型更大,有利于进行更大运算能力的人脸识别任务。
优选的,移动终端和后台服务器上分别部署第二人脸特征库和第三人脸特征库,且第一人脸特征库、第二人脸特征库和第三人脸特征库的数据量依次递增。有针对性地设置不同规模的人脸特征库,能够满足不同使用场景下的人脸识别任务。
优选的,移动终端包括手机、平板和笔记本电脑,AR眼镜为基于Android或ios的智能眼镜。多设备的支持可以保证在各种设备上均可以进行人脸识别任务。
优选的,人脸识别依次包括对人脸图像进行人脸检测对齐、人脸质量判断、人脸特征提取和与特征库的人脸比对。凭借该配置可以保证人脸识别的准确性。
优选的,步骤S2、步骤S3、步骤S4依据AR眼镜所处的网络环境自动切换。根据网络环境自动切换不同模式提高了人脸识别任务的准确性。
根据本发明的第二方面,提出了一种计算机可读存储介质,其上存储有一或多个计算机程序,该一或多个计算机程序被计算机处理器执行时实施上述方法。
根据本发明的第三方面,提出了一种基于AR眼镜的人脸识别系统,该系统包括:
AR眼镜:其上部署有第一人脸特征库以及用于人脸识别的第一压缩神经网络模型,并配置有用于实时抓拍人脸图像的图像采集终端,利用压缩神经网络模型进行人脸图像的人脸识别,并在AR眼镜上示出人脸识别的匹配结果;
移动终端:配置用于响应于AR眼镜与移动终端建立联系,接收AR眼镜传输的人脸图像,并利用移动终端上部署的第二压缩神经网络模型进行人脸图像的人脸识别;
后台服务器:配置用于响应于AR眼镜接入网络,接收AR眼镜传输的人脸图像,并利用后台服务器上部署的深度学习的神经网络模型进行人脸图像的人脸识别。
优选的,AR眼镜包括离线检测、与移动终端联机以及与后台服务器联网三种人脸识别模式。AR眼镜具有不同的工作模式可满足不同识别要求的使用需求。
进一步优选的,三种人脸识别模式依据AR眼镜所处的网络环境自动切换。根据网络环境自动切换不同模式提高了人脸识别任务的准确性。
优选的,移动终端包括手机、平板和笔记本电脑,AR眼镜为基于Android或ios的智能眼镜。多设备的支持可以保证在各种设备上均可以进行人脸识别任务。
本发明提出一种基于AR眼镜的人脸识别方法和系统,在联网人脸识别模式的基础上,增加离线和联机两种工作模式;同时,对两种工作模式下的网络模型应用剪枝、量化以及蒸馏等模型压缩方法,使高精度的网络模型也能部署于AR眼镜以及移动终端上。当移动网络顺畅时,使用联网人脸识别模式,人脸图片发至后台服务端,依靠服务器强大的处理能力,能运行较为复杂的基于深度学习的神经网络人脸识别算法,并与庞大的人脸库比对,得到精确的比对结果。当移动网络较差时,可根据布控人脸库的数量大小,选择使用离线人脸识别模式或联机人脸识别模式,布控人脸库较少时,使用离线人脸识别模式直接在AR眼镜上做人脸识别,与部署在AR眼镜上少量的重点人脸库进行比对;布控人脸库较多时,使用联机人脸识别模式,AR眼镜通过无线网络实时将抓拍的人脸发送至移动终端上提取人脸特征,并与部署在移动终端上的重点人脸库进行比对。通过三种工作模式的结合,根据服务器、移动终端和AR眼镜的不同运算能力,分别运行大、中、小三种基于深度学习的神经网络人脸识别算法,并搭配不同规模的布控人脸库。当需要布控的人脸较少时,使用离线和联机模式即可,无需动用大型服务器,降低成本;需要比对结果较精确时,使用联网模式。使用者能根据当前的网络状况、环境状况以及布控人脸库的规模选择最佳的工作模式。同时系统也可根据网络状况自动切换工作模式。
附图说明
包括附图以提供对实施例的进一步理解并且附图被并入本说明书中并且构成本说明书的一部分。附图图示了实施例并且与描述一起用于解释本发明的原理。将容易认识到其它实施例和实施例的很多预期优点,因为通过引用以下详细描述,它们变得被更好地理解。通过阅读参照以下附图所作的对非限制性实施例所作的详细描述,本申请的其它特征、目的和优点将会变得更明显:
图1是本申请的一个实施例的一种基于AR眼镜的人脸识别方法的流程图;
图2是本申请的一个具体的实施例的离线人脸识别模式的流程图;
图3是本申请的一个具体的实施例的联机人脸识别模式的流程图;
图4是本申请的一个具体的实施例的联网人脸识别模式的流程图;
图5是本申请的一个实施例的一种基于AR眼镜的人脸识别系统的框架图;
图6是适于用来实现本申请实施例的电子设备的计算机系统的结构示意图。
具体实施方式
下面结合附图和实施例对本申请作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释相关发明,而非对该发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与有关发明相关的部分。
需要说明的是,在不冲突的情况下,本申请中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本申请。
根据本申请的一个实施例的基于AR眼镜的人脸识别方法,图1示出了根据本申请的实施例的基于AR眼镜的人脸识别方法的流程图。如图1所示,该方法包括以下步骤:
S101:在AR眼镜上部署第一人脸特征库以及用于人脸识别的第一压缩神经网络模型,并利用AR眼镜上的图像采集终端实时抓拍人脸图像。其中,第一压缩神经网络模型使得AR眼镜能够离线实现实时的人脸比对,能够最快地对识别结果做出响应。
在具体的实施例中,第一压缩神经网络模型的压缩方式具体如下:在训练阶段采用蒸馏的方式对神经网络进行处理,具体方式为采用教师网络和学生网络一同训练的方式,使学生网络可以学到教师网络的“知识”,从而可以实现提高学生网络的精确度。在压缩阶段,采用采用通道剪枝和int8量化技术,实现在基本不影响原网络精确度的基础上,将已训练网络模型压缩至原来的四分之一大小。
在具体的实施例中,AR眼镜为基于于Android或ios等具有独立操作系统的智能眼镜,其可通过语音或动作操控完成添加日程、地图导航、与好友互动、拍摄照片和视频、与朋友展开视频通话等功能,并可以通过移动通讯网络来实现无线网络接入。眼镜内置有图像采集终端(例如摄像头或相机)、显示屏及WIFI模块。
S102:响应于AR眼镜未接入网络,利用第一压缩神经网络模型进行人脸图像的人脸识别。上述第一压缩神经网络模型可以通过离线运行的方式在AR眼镜上的基于深度学习并且经过剪枝、量化以及蒸馏等技术压缩后的小型神经网络算法提取人脸特征进行比对。因为无需进行网络传输,不受网络因素影响,可做到实时的人脸比对,在三种模式下识别的速度最快,能最快地对识别结果做出响应。但受限于AR眼镜的运算能力,布控的人脸库规模只能达到几千人。
S103:响应于AR眼镜与移动终端建立联系,将人脸图像传输至移动终端,并利用移动终端上部署的第二压缩神经网络模型进行人脸图像的人脸识别。移动终端上的第二压缩神经网络模型具有更大规模的运算能力,能够满足更大范围的人脸识别工作。其同样利用上述的蒸馏、剪枝和量化处理实现神经网络的压缩,此处不再赘述。
在具体的实施例中,AR眼镜与移动终端建立联系后可以利用AR眼镜实时地检测人脸,将检测到的人脸图片通过无线网络(例如WIFI)发送至手机上,通过运行在手机上的经过剪枝、量化以及蒸馏等技术压缩后的中型神经网络算法提取人脸特征进行比对。手机相对于AR眼镜运算能力有较大的提升,布控的人脸库规模可达到几万人,且精度比离线模式有所提升,但速度略有下降。应当认识到,移动终端除了手机之外,还可以为平板和笔记本电脑等便携式终端设备,同样能够实现本发明的技术效果。
S104:响应于AR眼镜接入网络,将人脸图像传输至后台服务器,并利用后台服务器上部署的深度学习的神经网络模型进行人脸图像的人脸识别。后台服务器的大数据量的运算处理能力能够实现更大规模的人脸识别任务。
在具体的实施例中,通过AR眼镜将检测到人脸抠取出发至后台服务端,依靠服务器强大的处理能力,运行基于深度学习的神经网络人脸识别算法,并与上亿级别的人脸库进行比对,最终可得到最精确的比对结果。但由于AR眼镜与服务端通过移动网络进行传输,受网络因素影响较大,无法实时获取比对结果。
在具体的实施例中,AR眼镜、移动终端和后台服务器上布控的人脸特征库的规模依次递增,所运行的基于深度学习的神经网络人脸识别算法的规模也依次增大,当需要布控的人脸较少时,使用AR眼镜的离线识别或与移动终端的联机模式即可,无需动用大型服务器,降低成本;需要比对结果较精确时,使用与后台服务器联网模式。使用者能根据当前的网络状况、环境状况以及布控人脸库的规模选择最佳的工作模式,同时系统也可根据网络状况自动切换不同的工作模式,以实现最优化的人脸识别的工作状态。
在具体的实施例中,基于深度学习的神经网络人脸识别算法具体包括有人脸检测对齐、人脸质量判断、人脸特征提取等多种算法,人脸对齐即根据输入的人脸图像,自动定位出面部关键特征点,如眼睛、鼻尖、嘴角点、眉毛以及人脸各部件轮廓点。人脸质量判断可以通过对人脸图像的遮挡范围、模糊度范围、光照范围、姿态角度、人脸完整度和人脸大小等多方面进行衡量,基于不同字段和对应阈值,进行质量检测的判断,以保证人脸质量符合后续业务操作要求,例如对于模糊度范围Blur(0~1),0是最清晰,1是最模糊,设定阈值小于0.7为质量合格的人脸图像、对于人脸完整度completeness(0或1),0代表完整,1代表不完整,设定阈值小于0.4为质量合格的人脸图像等。通过人脸检测对齐以及人脸质量判断可以过滤并筛选出有效的人脸图像,便于进行后续的人脸特征提取。
在具体的实施例中,人脸特征提取是对人脸进行特征建模的过程。人脸特征提取的方法包括两大类:一种是基于知识的表征方法;另外一种是基于代数特征或统计学习的表征方法。基于知识的表征方法主要是根据人脸器官的形状描述以及他们之间的距离特性来获得有助于人脸分类的特征数据,其特征分量通常包括特征点间的欧氏距离、曲率和角度等。人脸由眼睛、鼻子、嘴、下巴等局部构成,对这些局部和它们之间结构关系的几何描述,可作为识别人脸的重要几何特征。基于知识的人脸表征主要包括基于几何特征的方法和模板匹配法。根据提取的人脸图像的特征数据与数据库中存储的特征模板进行搜索匹配,通过设定一个阈值,当相似度超过这一阈值,则把匹配得到的结果输出,获得该人脸在人脸库中的对应信息。
S105:在AR眼镜上示出人脸识别的匹配结果。利用AR眼镜的识别和显示功能将结果快速回传并显示到AR眼镜上,佩戴人员可对识别结果迅速做出响应,对抓捕在逃人员、稳定社会秩序起到极大的作用。
图2示出了根据本申请的一个具体的实施例的离线人脸识别模式的流程图,如图2所示,该离线人脸识别模式包括以下步骤:
S201:开始。
S202:导入人脸库到AR眼镜;将少量重点人脸库以及压缩后的小型神经网络算法引擎导入至AR眼镜,方便直接进行离线人脸识别。
S203:AR眼镜实时抓拍照片;利用AR眼镜的图像采集设备实时获取包含人脸的图像,用于进行人脸识别任务。
S204:判断是否检测到人脸;若检测到人脸,继续进行步骤S205,若否,则返回继续进行步骤S203。
S205:人脸对齐、特征提取,与人脸比对;通过人脸对齐、特征提取,与人脸比对在人脸库中进行比对。
S206:判断是否比对命中;若命中则进入步骤S207,若否,则返回步骤S203。
S207:AR眼镜显示结果、发出提示、保存结果;在AR眼镜上直接显示出结果、发出提示,并保存结果,能够直观的向佩戴者给出人脸识别的结果,方便佩戴者根据结果做出相应的反应动作。
S208:结束。
上述离线人脸识别模式因为无需进行网络传输,不受网络因素影响,可做到实时的人脸比对,识别的速度最快,能最快地对识别结果做出响应。但受限于AR眼镜的运算能力,布控的人脸库规模只能达到几千人。
图3示出了根据本发明的一个具体的实施例的联机人脸识别模式的流程图,如图3所示,该联机人脸识别模式包括以下步骤:
S301:开始。
S302:导入人脸库到手机;在手机上可以部署相对较大的人脸库以及压缩的中型神经网络算法。
S303:AR眼镜通过WIFI连接手机;通过连接手机可以便于将图片传输至手机进行识别工作。
S304:AR眼镜实时抓拍照片;利用AR眼镜的图像采集设备实时获取包含人脸的图像,用于进行人脸识别任务。
S305:判断是否检测到人脸;若检测到人脸,继续进行步骤S306,若否,则返回继续进行步骤S304。
S306:通过WIFI发送至手机;利用WIFI将AR眼镜实时抓拍的照片发送至手机端。
S307:手机人脸对齐、特征提取,与人脸比对;手机端通过人脸对齐、特征提取,与人脸比对在人脸库中进行比对。
S308:判断是否比对命中;若命中则进入步骤S309,若否,则返回步骤S304。
S309:手机发送结果至AR眼镜;手机端将匹配的结果通过网络发送至AR眼镜。
S310:AR眼镜显示结果、发出提示、保存结果;在AR眼镜上直接显示出手机端识别的结果、发出提示,并保存结果,能够直观的向佩戴者给出人脸识别的结果,方便佩戴者根据结果做出相应的反应动作。
S311:结束。
上述联机人脸识别模式中,利用手机作为人脸识别算法以及人脸库的载体,手机相对于AR眼镜运算能力有较大的提升,布控的人脸库规模可达到几万人,且精度比离线模式有所提升,但速度略有下降。
继续参考图4,图4示出了根据本发明的一个具体的实施例的联网人脸识别模式的流程图,如图4所示,联网人脸识别模式具体包括以下步骤:
S401:开始。
S402:服务端布控人脸库;服务端的人脸库可以布控上亿级别的人脸库以及深度学习的神经网络人脸识别算法引擎,实现大范围的人脸识别工作。
S403:AR眼镜通过WIFI连接无线路由器;利用WIFI可以将AR眼镜实时抓拍的照片发送至后台服务器端。
S404:AR眼镜实时抓拍照片;利用AR眼镜的图像采集设备实时获取包含人脸的图像,用于进行人脸识别任务。
S405:判断是否检测到人脸;若检测到人脸则进入步骤S406,若否则返回步骤S404。
S406:判断网络是否顺畅;若网络顺畅则进如步骤S408,若否则进入步骤S407。
S407:切换离线模式;离线模式即为图2所示的流程图。
S408:发送人脸照片至服务端比对;利用WIFI将AR眼镜实时抓拍的照片发送至服务端。
S409:判断是否比对命中;若命中则进入步骤S410,若否,则返回步骤S404。
S410:服务端发送结果至AR眼镜;服务端将匹配的结果通过网络发送至AR眼镜。
S411:AR眼镜显示结果、发出提示、保存结果。在AR眼镜上直接显示出服务端识别的结果、发出提示,并保存结果,能够直观的向佩戴者给出人脸识别的结果,方便佩戴者根据结果做出相应的反应动作。
S412:结束。
上述联网人脸识别模式中,AR眼镜将检测到的人脸抠取出发至后台服务端,依靠服务器强大的处理能力,运行基于深度学习的神经网络人脸识别算法,并与上亿级别的人脸库进行比对,可得到最精确的比对结果。但由于AR眼镜与服务端通过移动网络进行传输,受网络因素影响较大,无法实时获取比对结果。
综上,基于AR眼镜的人脸识别方法利用离线模式、联机模式与联网模式三种人脸识别工作模式的结合,根据服务器、手机和AR眼镜的不同运算能力,分别运行大、中、小三种基于深度学习的神经网络人脸识别算法,并搭配不同规模的布控人脸库。当需要布控的人脸较少时,使用离线和联机模式即可,无需动用大型服务器,降低成本;需要比对结果较精确时,使用联网模式。使用者能根据当前的网络状况、环境状况以及布控人脸库的规模选择最佳的工作模式,同时也可根据网络状况自动切换工作模式。灵活的模式切换,可应对实际运用中的各种复杂的网络环境,快速的检测识别人脸。
继续参考图5,图5示出了根据本发明的实施例的一种基于AR眼镜的人脸识别系统的框架图。该系统具体包括AR眼镜501、移动终端502和后台服务器503,其中AR眼镜501分别与移动终端502和后台服务器503建立数据传输的联系。
在具体的实施例中,AR眼镜501其上部署有第一人脸特征库以及用于人脸识别的第一压缩神经网络模型,并配置有用于实时抓拍人脸图像的图像采集终端,利用压缩神经网络模型进行人脸图像的人脸识别,并在AR眼镜上示出人脸识别的匹配结果;移动终端502配置用于响应于AR眼镜与移动终端建立联系,接收AR眼镜传输的人脸图像,并利用移动终端上部署的第二压缩神经网络模型进行人脸图像的人脸识别;后台服务器503配置用于响应于AR眼镜接入网络,接收AR眼镜传输的人脸图像,并利用后台服务器上部署的深度学习的神经网络模型进行人脸图像的人脸识别。
在具体的实施例中,AR眼镜501包括离线检测、与移动终端联机以及与后台服务器联网三种人脸识别模式。通过三种工作模式的结合,根据后台服务器503、移动终端502和AR眼镜501的不同运算能力,分别运行大、中、小三种基于深度学习的神经网络人脸识别算法,并搭配不同规模的布控人脸库。当需要布控的人脸较少时,使用离线和联机模式即可,无需动用大型服务器,降低成本;需要比对结果较精确时,使用联网模式。使用者能根据当前的网络状况、环境状况以及布控人脸库的规模选择最佳的工作模式。同时系统也可根据网络状况自动切换工作模式。
在具体的实施例中,移动终端502包括手机、平板和笔记本电脑,AR眼镜501为基于Android或ios的智能眼镜。人脸识别系统使用基于深度学习的神经网络人脸检测识别算法,同时运用神经网络剪枝、量化以及蒸馏等模型压缩技术,使得较高精度的神经网络模型可以运行在Android或IOS等嵌入式设备上,支持复杂背景下的人脸检测,具有识别距离远、识别准确率度高和识别速度快等特点。能广泛应用于安防、移动巡逻执法、大型安保活动,为外线侦查员识别目标人物提供辅助支持。
下面参考图6,其示出了适于用来实现本申请实施例的电子设备的计算机系统600的结构示意图。图6示出的电子设备仅仅是一个示例,不应对本申请实施例的功能和使用范围带来任何限制。
如图6所示,计算机系统600包括中央处理单元(CPU)601,其可以根据存储在只读存储器(ROM)602中的程序或者从存储部分608加载到随机访问存储器(RAM)603中的程序而执行各种适当的动作和处理。在RAM 603中,还存储有系统600操作所需的各种程序和数据。CPU 601、ROM 602以及RAM 603通过总线604彼此相连。输入/输出(I/O)接口605也连接至总线604。
以下部件连接至I/O接口605:包括键盘、鼠标等的输入部分606;包括诸如液晶显示器(LCD)等以及扬声器等的输出部分607;包括硬盘等的存储部分608;以及包括诸如LAN卡、调制解调器等的网络接口卡的通信部分609。通信部分609经由诸如因特网的网络执行通信处理。驱动器610也根据需要连接至I/O接口605。可拆卸介质611,诸如磁盘、光盘、磁光盘、半导体存储器等等,根据需要安装在驱动器610上,以便于从其上读出的计算机程序根据需要被安装入存储部分608。
特别地,根据本公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本公开的实施例包括一种计算机程序产品,其包括承载在计算机可读存储介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在这样的实施例中,该计算机程序可以通过通信部分609从网络上被下载和安装,和/或从可拆卸介质611被安装。在该计算机程序被中央处理单元(CPU)601执行时,执行本申请的方法中限定的上述功能。需要说明的是,本申请的计算机可读存储介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本申请中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本申请中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读存储介质,该计算机可读存储介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读存储介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本申请的操作的计算机程序代码,程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言—诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
附图中的流程图和框图,图示了按照本申请各种实施例的系统、方法和计算机程序产品的可能实现的体系架构、功能和操作。在这点上,流程图或框图中的每个方框可以代表一个模块、程序段、或代码的一部分,该模块、程序段、或代码的一部分包含一个或多个用于实现规定的逻辑功能的可执行指令。也应当注意,在有些作为替换的实现中,方框中所标注的功能也可以以不同于附图中所标注的顺序发生。例如,两个接连地表示的方框实际上可以基本并行地执行,它们有时也可以按相反的顺序执行,这依所涉及的功能而定。也要注意的是,框图和/或流程图中的每个方框、以及框图和/或流程图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
描述于本申请实施例中所涉及到的模块可以通过软件的方式实现,也可以通过硬件的方式来实现。
作为另一方面,本申请还提供了一种计算机可读存储介质,该计算机可读存储介质可以是上述实施例中描述的电子设备中所包含的;也可以是单独存在,而未装配入该电子设备中。上述计算机可读存储介质承载有一个或者多个程序,当上述一个或者多个程序被该电子设备执行时,使得该电子设备:在AR眼镜上部署第一人脸特征库以及用于人脸识别的第一压缩神经网络模型,并利用AR眼镜上的图像采集终端实时抓拍人脸图像;响应于AR眼镜未接入网络,利用压缩神经网络模型进行人脸图像的人脸识别;响应于AR眼镜与移动终端建立联系,将人脸图像传输至移动终端,并利用移动终端上部署的第二压缩神经网络模型进行人脸图像的人脸识别;响应于AR眼镜接入网络,将人脸图像传输至后台服务器,并利用后台服务器上部署的深度学习的神经网络模型进行人脸图像的人脸识别;在AR眼镜上示出人脸识别的匹配结果。
以上描述仅为本申请的较佳实施例以及对所运用技术原理的说明。本领域技术人员应当理解,本申请中所涉及的发明范围,并不限于上述技术特征的特定组合而成的技术方案,同时也应涵盖在不脱离上述发明构思的情况下,由上述技术特征或其等同特征进行任意组合而形成的其它技术方案。例如上述特征与本申请中公开的(但不限于)具有类似功能的技术特征进行互相替换而形成的技术方案。
Claims (14)
1.一种基于AR眼镜的人脸识别方法,其特征在于,包括:
S1:在所述AR眼镜上部署第一人脸特征库以及用于人脸识别的第一压缩神经网络模型,并利用所述AR眼镜上的图像采集终端实时抓拍人脸图像;
S2:响应于所述AR眼镜未接入网络,利用所述第一压缩神经网络模型进行所述人脸图像的人脸识别;
S3:响应于所述AR眼镜与移动终端建立联系,将所述人脸图像传输至移动终端,并利用所述移动终端上部署的第二压缩神经网络模型进行所述人脸图像的人脸识别;
S4:响应于所述AR眼镜接入网络,将所述人脸图像传输至后台服务器,并利用所述后台服务器上部署的深度学习的神经网络模型进行所述人脸图像的人脸识别;以及
S5:在所述AR眼镜上示出所述人脸识别的匹配结果。
2.根据权利要求1所述的基于AR眼镜的人脸识别方法,其特征在于,利用蒸馏、剪枝和量化的压缩方式将所述第一压缩神经网络模型和所述第二压缩神经网络模型分别部署于所述AR眼镜和所述移动终端上。
3.根据权利要求2所述的基于AR眼镜的人脸识别方法,其特征在于,所述第一压缩神经网络模型和所述第二压缩神经网络模型中的蒸馏的方式具体为在训练阶段采用教师网络和学生网络一同训练的方式。
4.根据权利要求2所述的基于AR眼镜的人脸识别方法,其特征在于,所述第一压缩神经网络模型和所述第二压缩神经网络模型中的剪枝和量化的方式具体采用通道剪枝和int8量化进行神经网络模型的压缩。
5.根据权利要求2-4中任一项所述的基于AR眼镜的人脸识别方法,其特征在于,所述第二压缩神经网络模型的规模大于所述第一压缩神经网络模型的规模。
6.根据权利要求1所述的基于AR眼镜的人脸识别方法,其特征在于,所述移动终端和所述后台服务器上分别部署第二人脸特征库和第三人脸特征库,且所述第一人脸特征库、所述第二人脸特征库和所述第三人脸特征库的数据量依次递增。
7.根据权利要求1所述的基于AR眼镜的人脸识别方法,其特征在于,所述移动终端包括手机、平板和笔记本电脑,所述AR眼镜为基于Android或ios的智能眼镜。
8.根据权利要求1所述的基于AR眼镜的人脸识别方法,其特征在于,所述人脸识别依次包括对所述人脸图像进行人脸检测对齐、人脸质量判断、人脸特征提取和与特征库的人脸比对。
9.根据权利要求1所述的基于AR眼镜的人脸识别方法,其特征在于,所述步骤S2、步骤S3、步骤S4依据所述AR眼镜所处的网络环境自动切换。
10.一种计算机可读存储介质,其上存储有一或多个计算机程序,其特征在于,该一或多个计算机程序被计算机处理器执行时实施权利要求1至9中任一项所述的方法。
11.一种基于AR眼镜的人脸识别系统,其特征在于,所述人脸识别系统包括:
AR眼镜:其上部署有第一人脸特征库以及用于人脸识别的第一压缩神经网络模型,并配置有用于实时抓拍人脸图像的图像采集终端,利用所述压缩神经网络模型进行所述人脸图像的人脸识别,并在所述AR眼镜上示出所述人脸识别的匹配结果;
移动终端:配置用于响应于所述AR眼镜与移动终端建立联系,接收所述AR眼镜传输的所述人脸图像,并利用所述移动终端上部署的第二压缩神经网络模型进行所述人脸图像的人脸识别;
后台服务器:配置用于响应于所述AR眼镜接入网络,接收所述AR眼镜传输的所述人脸图像,并利用所述后台服务器上部署的深度学习的神经网络模型进行所述人脸图像的人脸识别。
12.根据权利要求11所述的基于AR眼镜的人脸识别系统,其特征在于,所述AR眼镜包括离线检测、与所述移动终端联机以及与所述后台服务器联网三种人脸识别模式。
13.根据权利要求12所述的基于AR眼镜的人脸识别系统,其特征在于,所述三种人脸识别模式依据所述AR眼镜所处的网络环境自动切换。
14.根据权利要求11所述的基于AR眼镜的人脸识别系统,其特征在于,所述移动终端包括手机、平板和笔记本电脑,所述AR眼镜为基于Android或ios的智能眼镜。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010628541.4A CN111783674A (zh) | 2020-07-02 | 2020-07-02 | 一种基于ar眼镜的人脸识别方法和系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010628541.4A CN111783674A (zh) | 2020-07-02 | 2020-07-02 | 一种基于ar眼镜的人脸识别方法和系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111783674A true CN111783674A (zh) | 2020-10-16 |
Family
ID=72758237
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010628541.4A Pending CN111783674A (zh) | 2020-07-02 | 2020-07-02 | 一种基于ar眼镜的人脸识别方法和系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111783674A (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113095251A (zh) * | 2021-04-20 | 2021-07-09 | 清华大学深圳国际研究生院 | 一种人体姿态估计方法及系统 |
CN113391695A (zh) * | 2021-06-11 | 2021-09-14 | 山东浪潮科学研究院有限公司 | 一种基于TinyML的低功耗人脸识别方法 |
CN115064023A (zh) * | 2022-05-06 | 2022-09-16 | 中国人民解放军陆军防化学院 | 基于ar眼镜的便携式终端教学训练系统 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106682650A (zh) * | 2017-01-26 | 2017-05-17 | 北京中科神探科技有限公司 | 基于嵌入式深度学习技术的移动终端人脸识别方法和系统 |
CN107463910A (zh) * | 2017-08-09 | 2017-12-12 | 中国电子科技集团公司第二十八研究所 | 基于GoogleGlass的目标识别增强现实系统 |
CN107918771A (zh) * | 2017-12-07 | 2018-04-17 | 河北工业大学 | 人物识别方法和佩戴式人物识别系统 |
WO2018124707A1 (ko) * | 2016-12-27 | 2018-07-05 | 삼성전자 주식회사 | 신경망 연산을 이용한 입력 처리 방법 및 이를 위한 장치 |
WO2019100608A1 (zh) * | 2017-11-21 | 2019-05-31 | 平安科技(深圳)有限公司 | 摄像装置、人脸识别的方法、系统及计算机可读存储介质 |
CN209543389U (zh) * | 2019-04-17 | 2019-10-25 | 安徽睿极智能科技有限公司 | 基于智能眼镜、智能手表和智能手机的人脸比对系统 |
CN110705684A (zh) * | 2019-08-22 | 2020-01-17 | 中国科学院计算技术研究所 | 基于端云协同的环境自适应学习方法及系统 |
-
2020
- 2020-07-02 CN CN202010628541.4A patent/CN111783674A/zh active Pending
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018124707A1 (ko) * | 2016-12-27 | 2018-07-05 | 삼성전자 주식회사 | 신경망 연산을 이용한 입력 처리 방법 및 이를 위한 장치 |
CN106682650A (zh) * | 2017-01-26 | 2017-05-17 | 北京中科神探科技有限公司 | 基于嵌入式深度学习技术的移动终端人脸识别方法和系统 |
CN107463910A (zh) * | 2017-08-09 | 2017-12-12 | 中国电子科技集团公司第二十八研究所 | 基于GoogleGlass的目标识别增强现实系统 |
WO2019100608A1 (zh) * | 2017-11-21 | 2019-05-31 | 平安科技(深圳)有限公司 | 摄像装置、人脸识别的方法、系统及计算机可读存储介质 |
CN107918771A (zh) * | 2017-12-07 | 2018-04-17 | 河北工业大学 | 人物识别方法和佩戴式人物识别系统 |
CN209543389U (zh) * | 2019-04-17 | 2019-10-25 | 安徽睿极智能科技有限公司 | 基于智能眼镜、智能手表和智能手机的人脸比对系统 |
CN110705684A (zh) * | 2019-08-22 | 2020-01-17 | 中国科学院计算技术研究所 | 基于端云协同的环境自适应学习方法及系统 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113095251A (zh) * | 2021-04-20 | 2021-07-09 | 清华大学深圳国际研究生院 | 一种人体姿态估计方法及系统 |
CN113391695A (zh) * | 2021-06-11 | 2021-09-14 | 山东浪潮科学研究院有限公司 | 一种基于TinyML的低功耗人脸识别方法 |
CN115064023A (zh) * | 2022-05-06 | 2022-09-16 | 中国人民解放军陆军防化学院 | 基于ar眼镜的便携式终端教学训练系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111914812B (zh) | 图像处理模型训练方法、装置、设备及存储介质 | |
US10691928B2 (en) | Method and apparatus for facial recognition | |
CN111368685B (zh) | 关键点的识别方法、装置、可读介质和电子设备 | |
WO2020224479A1 (zh) | 目标的位置获取方法、装置、计算机设备及存储介质 | |
US11436863B2 (en) | Method and apparatus for outputting data | |
CN111783674A (zh) | 一种基于ar眼镜的人脸识别方法和系统 | |
US20210073577A1 (en) | Image processing method and device, electronic device and storage medium | |
CN112149615B (zh) | 人脸活体检测方法、装置、介质及电子设备 | |
CN112052186A (zh) | 目标检测方法、装置、设备以及存储介质 | |
CN114612987B (zh) | 一种表情识别方法及装置 | |
CN115699082A (zh) | 缺陷检测方法及装置、存储介质及电子设备 | |
CN111950570B (zh) | 目标图像提取方法、神经网络训练方法及装置 | |
CN113111782A (zh) | 基于显著对象检测的视频监控方法及装置 | |
US20230036338A1 (en) | Method and apparatus for generating image restoration model, medium and program product | |
CN114882437A (zh) | 一种识别模型的训练方法、装置、电子设备和存储介质 | |
CN111881740B (zh) | 人脸识别方法、装置、电子设备及介质 | |
CN112287945A (zh) | 碎屏确定方法、装置、计算机设备及计算机可读存储介质 | |
EP3885934A1 (en) | Video search method and apparatus, computer device, and storage medium | |
CN111126159A (zh) | 用于实时跟踪行人的方法、装置、电子设备和介质 | |
CN110069996A (zh) | 头部动作识别方法、装置和电子设备 | |
CN114140839B (zh) | 用于人脸识别的图像发送方法、装置、设备及存储介质 | |
CN110321829A (zh) | 一种人脸识别方法及装置、电子设备和存储介质 | |
CN111310595B (zh) | 用于生成信息的方法和装置 | |
CN115410240A (zh) | 智能人脸的痘痘和色斑分析方法、装置及存储介质 | |
CN112036307A (zh) | 图像处理方法及装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20201016 |
|
RJ01 | Rejection of invention patent application after publication |