CN113392763B - 一种人脸识别方法、装置以及设备 - Google Patents
一种人脸识别方法、装置以及设备 Download PDFInfo
- Publication number
- CN113392763B CN113392763B CN202110661431.2A CN202110661431A CN113392763B CN 113392763 B CN113392763 B CN 113392763B CN 202110661431 A CN202110661431 A CN 202110661431A CN 113392763 B CN113392763 B CN 113392763B
- Authority
- CN
- China
- Prior art keywords
- face
- user
- face image
- point cloud
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 76
- 238000012545 processing Methods 0.000 claims abstract description 47
- 238000001514 detection method Methods 0.000 claims abstract description 24
- 230000001680 brushing effect Effects 0.000 claims description 38
- 239000013598 vector Substances 0.000 claims description 19
- 238000005070 sampling Methods 0.000 claims description 13
- 230000008859 change Effects 0.000 claims description 10
- 230000004927 fusion Effects 0.000 claims description 6
- 238000007499 fusion processing Methods 0.000 claims description 4
- 230000001960 triggered effect Effects 0.000 claims 5
- 230000003370 grooming effect Effects 0.000 claims 2
- 230000008569 process Effects 0.000 description 27
- 238000010586 diagram Methods 0.000 description 16
- 230000000694 effects Effects 0.000 description 16
- 238000003384 imaging method Methods 0.000 description 10
- 230000006872 improvement Effects 0.000 description 10
- 230000006870 function Effects 0.000 description 9
- 238000004590 computer program Methods 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 210000000697 sensory organ Anatomy 0.000 description 5
- 230000015572 biosynthetic process Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 238000007781 pre-processing Methods 0.000 description 3
- 238000004364 calculation method Methods 0.000 description 2
- 210000001508 eye Anatomy 0.000 description 2
- 210000000887 face Anatomy 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004075 alteration Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000012937 correction Methods 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 238000002310 reflectometry Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
Landscapes
- Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Computer Graphics (AREA)
- Geometry (AREA)
- Software Systems (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Image Analysis (AREA)
- Collating Specific Patterns (AREA)
Abstract
本说明书实施例公开了一种人脸识别方法、装置以及设备。方案包括:在用户人脸处于预定的人脸检测位置后,针对用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;对2D人脸图进行3D重建处理,得到3D人脸重建结果;根据3D人脸重建结果和第一3D人脸图,生成第二3D人脸图;根据第二3D人脸图,对用户进行识别。
Description
技术领域
本说明书涉及计算机技术领域,尤其涉及一种人脸识别方法、装置以及设备。
背景技术
随着计算机和互联网技术的发展,很多业务采用人脸识别的方式对用户进行身份验证,比如,刷脸支付、刷脸门禁等。
人脸识别通常包括两种形式,2D人脸识别和3D人脸识别。对于3D人脸识别,需要通过3D摄像头采集用户的3D人脸图,通过该3D人脸图对用户进行人脸识别。3D摄像头包括多种类型,比如,结构光3D摄像头、ToF3D摄像头等。以应用较为广泛的结构光3D摄像头为例,在一些特殊场景中(比如,强光环境、用户距离摄像头较远时),结构光3D摄像头所采集到的3D人脸图的成像效果往往较差。
基于此,需要一种更可靠的人脸识别方案。
发明内容
本说明书一个或多个实施例提供一种人脸识别方法、装置、设备以及存储介质,用以解决如下技术问题:需要一种更可靠的人脸识别方案。
为解决上述技术问题,本说明书一个或多个实施例是这样实现的:
本说明书一个或多个实施例提供的一种人脸识别方法,包括:
在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
根据所述第二3D人脸图,对所述用户进行识别。
本说明书一个或多个实施例提供的一种人脸识别装置,包括:
采集模块,在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
3D重建模块,对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
3D人脸图生成模块,根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
识别模块,根据所述第二3D人脸图,对所述用户进行识别。
本说明书一个或多个实施例提供的一种人脸识别设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
根据所述第二3D人脸图,对所述用户进行识别。
本说明书一个或多个实施例提供的一种非易失性计算机存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
根据所述第二3D人脸图,对所述用户进行识别。
本说明书一个或多个实施例采用的上述至少一个技术方案能够达到以下有益效果:
通过2D人脸图进行3D人脸重建,即使第一3D人脸图成像效果较差,也能够利用3D人脸重建结果对第一3D人脸图进行调整,提高第二3D人脸图的成像效果,进而通过成像效果更佳的人脸图进行人脸识别,减少了由于环境问题导致人脸识别失败情况的发生,增加了人脸识别时的可靠性。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本说明书中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书一个或多个实施例提供的一种人脸识别方法的流程示意图;
图2a为本说明书一个或多个实施例提供的,一种应用场景下较优成像效果下的2D人脸图和3D人脸图;
图2b为本说明书一个或多个实施例提供的,一种应用场景下较差成像效果下的3D人脸图;
图3为本说明书一个或多个实施例提供的,一种应用场景下3D重建处理过程的示意图;
图4为本说明书一个或多个实施例提供的,一种应用场景下的第二3D人脸图的生成流程示意图;
图5为本说明书一个或多个实施例提供的,一种应用场景下的人脸识别的详细流程示意图;
图6为本说明书一个或多个实施例提供的一种人脸识别装置的结构示意图;
图7为本说明书一个或多个实施例提供的一种人脸识别设备的结构示意图。
具体实施方式
本说明书实施例提供一种人脸识别方法、装置、设备以及存储介质。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本说明书实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都应当属于本申请保护的范围。
图1为本说明书一个或多个实施例提供的一种人脸识别方法的流程示意图。该方法可以应用于不同的业务领域,比如,需要进行人脸识别业务的领域(比如刷脸支付领域、刷脸门禁领域)、互联网金融业务领域、电商业务领域、即时通讯业务领域、游戏业务领域、公务业务领域等。该流程可以由相应领域的计算设备(比如,支付业务对应的智能客服服务器或者智能移动终端等)执行,流程中的某些输入参数或者中间结果允许人工干预调节,以帮助提高准确性。
更具体地,本说明书一个或多个实施例还提供了一种应用场景下的人脸识别的详细流程示意图(参见图5),在该详细流程中采用了一些可选的比较典型的技术手段,以便于更直观地理解图1的发明构思,下面结合该详细流程对图1中所示的人脸识别流程进行解释说明。
图1中的流程可以包括以下步骤:
S102:在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图。
用户在执行业务(比如,刷脸支付、刷脸门禁)的过程中,触发了人脸识别,需要采集用户的人脸图。若用户在智能手机、个人PC等自有终端上触发人脸识别时,人脸检测位置通常指的是摄像头前方,用户可以通过移动终端使人脸处于人脸检测位置。若用户在一些公用的刷脸设备(比如,刷脸售货机、自助刷脸点餐机、刷脸门禁设备)上触发人脸识别时,由于刷脸设备的位置通常较为固定,用户难以移动该设备,此时刷脸设备所能够采集到的视野范围相对固定,人脸检测位置在空间中的位置也相对固定。
图2a为本说明书一个或多个实施例提供的,一种应用场景下较优成像效果下的2D人脸图和3D人脸图,其中,这里的2D人脸图是示例性地用线框图表示的,在实际应用中,可以采用真实的用户人脸照片,后面一些图中也是同理,不再重复解释。3D人脸图中的灰度高低反映了深度及其变化情况,则深度本身就是平面以外的第三维信息,因此,该图才可以称为3D人脸图,需要说明的是,该图只是3D人脸图的形式之一,还可以直接用三维坐标来呈现图像,如此更加准确;图2b为本说明书一个或多个实施例提供的,一种应用场景下较差成像效果下的3D人脸图。从图中可以看出,由于所在环境的因素(比如,当前处于强光环境)、用户自身(比如,用户与摄像头距离太远、用户脸上携带有眼镜等反射率)等原因,最终采集到第一3D人脸图可能会像图2b中所示的人脸图一样,其中部分区域的信息并不完整。
在本说明书一个或多个实施例中,采集到的2D人脸图通常指具有RGB信息的2D图像。采集到的第一3D人脸图,可以是在三维空间中生成的立体人脸图,其能够存储并向用户展示该人脸图在三维空间内各个方向上的形状,此时该3D人脸图当然存储有在各个面上的深度信息。但是在实际应用时,如果3D人脸图都采用这种形式,会占用大量的存储空间和计算资源。因此,通常采用携带有深度信息的2D图像的形式,来采集和存储第一3D人脸图,此时,不仅能够满足3D人脸图的识别、计算需求,而且占用的存储空间和计算资源相对更少。
在本说明书一个或多个实施例中,虽然是以结构光3D摄像头为例进行解释说明,但是在实际应用时,无论是哪种类型的3D摄像头,均可采用本说明书实施例中所提及到的人脸识别方法,并不仅局限于结构光3D摄像头,或者成像效果较差的3D摄像头。如果3D摄像头采集到的第一3D人脸图成像效果较差,则可以通过本说明书实施例中所提及到的人脸识别方法进行更准确可靠的人脸识别。即使3D摄像头采集到的第一3D人脸图成像效果较优,仍然可以通过本说明书实施例中所提及到的人脸识别方法对人脸识别的准确度、可靠性进行进一步增强。
S104:对所述2D人脸图进行3D重建处理,得到3D人脸重建结果。
在本说明书一个或多个实施例中,在对2D人脸图进行3D重建处理之前,先对2D人脸图进行图像预处理,比如,对2D人脸图进行人脸检测,检测人脸所在区域。若是检测到多个人脸区域,则需要选择出用户对应的人脸区域,并该人脸区域进行剪裁等预处理操作。
类似地,在采集到第一3D人脸图后,对第一3D人脸图进行图像预处理,比如,对第一3D人脸图进行人脸剪裁后,进行点云旋转校正、距离量化等,以便于后续对第一3D人脸图进行相应处理。
图3为本说明书一个或多个实施例提供的,一种应用场景下3D重建处理过程的示意图,通过三维形变模型(3DMorphable Model,3DMM)进行3D重建处理。利用深度学习训练神经网络模型,从输入的2D人脸图中预测出3DMM模型参数,全连接层利用预测出的参数(比如图3中所示的Snew、Tnew)将3DMM平均脸调整至与2D人脸图中的人脸误差最小,从而实现从2D人脸图中大致恢复3D人脸信息的目的。
进一步地,对于不同地区(比如,不同国家、一个国家内的不同地域等)、不同性别的用户,其脸型、五官等可能具有较大区别。因此,可以预先针对不同地区、不同性别设置有相应的平均脸,使得平均脸能够更加匹配用户真实的样子,增加恢复的3D人脸信息的准确度。
S106:根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图。
在本说明书一个或多个实施例中,3D人脸重建结果无论是立体图的形式,还是与携带有深度信息的2D图的形式,其中均携带有深度信息,可以通过深度信息直接将3D人脸重建结果和第一3D人脸图进行结合,生成第二3D人脸图。当然,为了增加生成过程中的准确度,可以将第一3D人脸图通过坐标变换生成立体的第一3D人脸点云,并通过3D人脸重建结果获得立体的第二3D人脸点云,然后通过将第一3D人脸点云和第二3D人脸点云结合,生成第二3D人脸图。
具体地,可以基于实际需求、处理能力等因素,选择相应的方式生成第二3D人脸图。比如,可以通过融合、置换或者提纯等方式,将3D人脸重建结果和第一3D人脸图结合生成第二3D人脸图。
例如,可以选择融合的方式,将第一3D人脸点云和第二3D人脸点云融合在一起,生成第二3D人脸图。当然,若是第一3D人脸图中,部分区域十分清晰,采集了较为完整的人脸信息,而剩余部分区域却很不清晰,则可以采用置换的方式,对第一3D人脸点云中的部分区域不进行处理,而将剩余部分区域置换为第二3D人脸点云中对应的区域。当然,还可以在结合过程中,通过减少点的数量,对有效的点(通常指代五官等人脸关键区域所对应的点)进行提纯,最终只得到一个简约人脸对应的第二3D人脸图,能够在保证用户的人脸特征的基础上,减少处理过程中资源的消耗。
S108:根据所述第二3D人脸图,对所述用户进行识别。
在第二3D人脸图中提取出3D人脸特征,在数据库中进行检索对比,可以确定用户的身份,实现对用户的身份识别。数据库中存储有多个用户的3D人脸特征,无需留存用户的2D人脸图,即可对用户进行身份识别,相比于2D人脸图,3D人脸图具有肉眼辨认性低、隐私安全性高的特点,能够起到对用户隐私保护的效果。
图4为本说明书一个或多个实施例提供的,一种应用场景下的第二3D人脸图的生成流程示意图,在将第一3D人脸图通过坐标变换生成第一3D人脸点云、将2D人脸图通过3DMM模型得到3D人脸重建结果后,将第一3D人脸点云与第二3D人脸点云进行融合,得到融合点云。在融合点云中确定出重要程度不同的多个区域,然后采用加权采样的方式得到采样点云。比如,对于五官所在的区域,或者人脸的边界区域(深度信息的变化越大,表示其是边界区域的可能性越高),其重要程度较高,对于其他区域,重要程度则相对较低。在采样过程中,对于重要程度越高的区域,在该区域内采样的点的数量也越多,由此可以在突出人脸中的关键信息的前提下,减少所需要处理的点的数量。在得到采样点云后,即可根据其对应的深度信息,向平面进行正交投影,得到第二3D人脸图。
进一步地,在融合处理的过程中,若只根据第一3D人脸点云和第二3D人脸点云两者之间点之间的距离进行匹配,则容易将不同位置点匹配到一起,陷入局部最优的情况,使得融合效果较差。
基于此,分别确定第一3D人脸点云中的第一点,和第二3D人脸点云中的第二点的位置坐标,并通过位置坐标计算两者之间的距离。位置坐标可以通过角向量、三维坐标等形式来表达。协方差矩阵能够表示点集各轴之间的相关性,通过计算协方差矩阵的特征值及对应的特征向量,可以清楚的描述点集特征,其中最小特征值对应的特征向量,就表示曲面的法向量,还可以通过协方差矩阵中的参数计算得到各点对应的曲面的曲率。
若是第一点和第二点之间的距离、曲率之差、法向量角度之差均满足相应的阈值约束(比如,小于预设阈值),且法向量为良定义的法向量,则认为第一点与第二点为相互匹配的点,根据相互匹配的点进行形变贴合,完成第一3D人脸图和第二3D人脸图的融合。当然,在形变贴合的过程中,可以根据不同的需求,或者对于点云中的不同的点,选择相应的贴合方式。比如,将第一点或第二点的位置固定,使得另一点向该点靠近。或者选取相对中间的位置,第一点和第二点均向该中间位置靠近。
在本说明书一个或多个实施例中,3D摄像头在采集人脸图时,若是由于外部环境的原因导致第一3D人脸图的成像效果较差,则可能会由于外部环境的原因导致同一时间采集的2D人脸图的成像效果不佳。基于此,在通过2D人脸图进行3D重建处理之前,可以先通过采集到的第一3D人脸图对2D人脸图进行图像增强处理,以提高2D人脸图中关键特征的辨识度,进而提高3D人脸重建效果。
具体地,在3D人脸图中,从一个区域过渡至另一个区域时(比如,从鼻子区域到两侧的脸颊区域),其深度信息的变化速度较快,可以通过相邻的像素点之间的深度信息的差值来判断深度信息的变化速度。基于此,通过深度信息的变化速度是否高于预设阈值,在第一3D人脸图中确定出边界区域,并在2D人脸图中确定出边界区域对应的位置。边界区域通常承载有更多的信息,对五官等区域的划分起到重要的作用,因此,在2D人脸图中,将边界区域所对应的位置进行图像增强,以达到对2D人脸图中的关键信息进行增强的目的。比如,在2D图像中,通过二值化或者调整灰度值等方式,来对图像进行增强处理。
在本说明书一个或多个实施例中,通过3D重建以及3D人脸图的结合能够增加人脸识别时的可靠性,但是相对地,由于增加了处理过程,导致了人脸识别速度的降低,容易对用户的体验造成影响。比如,用户在进行刷脸支付业务,人脸识别过程相比于传统的方式时间更长,在这段时间内就需要用户一直保持人脸在摆放位置上,降低该用户的体验。若是该用户在超市的刷脸设备、刷脸售货机等设备上进行刷脸支付时,甚至还有可能降低后续排队的其他用户的体验。
基于此,若是用户在刷脸支付时触发了人脸识别,则可以在根据所述第二3D人脸图,对用户进行识别的识别结果确定之前,就对用户发出预通知,表示本次刷脸支付已经支付成功(实际上可能还在处理过程中,未必已经成功,但已经为刷脸支付流程收集了足够的数据),更可靠地,可以先直接识别2D人脸图(相比于进行3D识别往往速度更快,有助于及时响应用户,从用户体验上看基本无需等待),若对2D人脸图识别通过,才发出预通知。用户收到预通知后即可关闭手机的人脸识别界面,或者在超市、刷脸售货机上获取到相应的商品。此时,相应的刷脸设备终端或服务端可以进一步地执行接下来的人脸识别过程。当然,如果最终人脸识别失败,则可以进行相应的业务处理。比如,针对用户本次刷脸支付的支付渠道,通过相应的客户端向用户发出重新刷脸请求,若是本次刷脸支付为用户本人发起的,由于采集的人脸图的质量导致的人脸识别失败,则可以通过重新刷脸来完成本次的支付过程。并且在实际的应用场景中,尤其是在公共场合中,用户如果通过3D欺骗等方式进行盗刷,可能需要佩戴面具等,此时超市的服务员、周围的其他用户容易通过肉眼进行辨别,进而使得出现盗刷事件的概率较小,如果用户是通过智能手机等终端进行盗刷,则可以通过记录智能手机的手机标识,在下次碰到该智能手机发起的人脸识别时,不再通过预通知的方式通知支付成功。如此,即使偶尔出现一两起盗刷事件,其盗刷金额通常也是可控的,相比于缩短的时间带来的用户体验的提升,暂时损失的价值是在可以接受范围内,而且后续也可以进行追回,从而防止给用户带来实质的利益损失。
在本说明书一个或多个实施例中,当用户在公用的刷脸设备进行刷脸支付或刷脸门禁等业务时,刷脸设备由于设置在公共环境中,用户在刷脸过程中,容易导致隐私暴露。
基于此,在进行3D重建处理时,通过人脸检测位置来确定2D图中的人脸关键区域(比如,五官所在的区域、边界区域等)。由于刷脸设备的位置通常是固定的,因此其对应的人脸检测位置也通常固定(比如,刷脸售货机上的摄像头所能够采集的视野范围,就是人脸检测位置)。此时,可以通过该人脸检测位置,大致提取出2D人脸图中的人脸区域,并在人脸区域中提取出人脸关键区域,然后将人脸关键区域之外的区域作为非关键区域,并使用该刷脸设备的历史用户(比如,上一个用户)对应的非关键区域来代替该用户对应的非关键区域,通过替换后的2D人脸图进行3D重建处理。非关键区域可以只包括人脸区域中的其他区域,或者包括人脸区域中的其他区域以及背景区域。由于非关键区域中所包含的特征信息较少,即使使用上一个用户的非关键区域进行替换,对人脸识别结果也不会产生太大影响。并且由于对非关键区域进行了替换,使得他人难以通过该替换后的2D人脸图得到用户的真实面貌、所在环境等隐私数据,在不妨碍人脸识别的基础上,对用户的隐私进行了保护。
基于同样的思路,本说明书一个或多个实施例还提供了上述方法对应的装置和设备,如图6、图7所示。
图6为本说明书一个或多个实施例提供的一种人脸识别装置的结构示意图,所述装置包括:
采集模块602,在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
3D重建模块604,对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
3D人脸图生成模块606,根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
识别模块608,根据所述第二3D人脸图,对所述用户进行识别。
可选地,所述3D人脸图生成模块606包括人脸点云生成子模块6062、3D人脸图生成子模块6064;
所述人脸点云生成子模块6062,根据所述第一3D人脸图,生成第一3D人脸点云;
根据所述3D人脸重建结果,获得第二3D人脸点云;
所述3D人脸图生成子模块6064,根据所述第一3D人脸点云和第二3D人脸点云,生成第二3D人脸图。
可选地,所述3D人脸图生成子模块6064,对所述第一3D人脸点云和第二3D人脸点云进行融合处理,得到融合点云;
在所述融合点云中确定重要程度不同的多个区域;
根据所述重要程度,在多个区域中进行加权采样,得到采样点云;
根据所述采样点云的深度信息,向平面进行正交投影,得到第二3D人脸图。
可选地,所述3D人脸图生成子模块6064,确定所述第一3D人脸点云中的第一点、所述第二3D人脸点云中的第二点分别对应的位置坐标;
根据所述位置坐标,确定所述第一点与所述第二点之间的距离;并确定所述第一点、所述第二点分别对应的曲率和法向量;
若所述距离、所述曲率和所述法向量均满足相应的阈值约束,且所述法向量为良定义的法向量,则将所述第一点和所述第二点作为相互匹配的点;
根据所述相互匹配的点将所述第一3D人脸点云与所述第二3D人脸点云进行形变贴合,得到融合点云。
可选地,还包括:
图像增强模块610,在所述第一3D人脸图中,将所述深度信息的变化速度高于预设阈值的区域作为边界区域;
在所述2D人脸图中确定所述边界区域对应的位置,并将所述对应的位置进行图像增强处理。
可选地,所述用户在进行刷脸支付时触发了所述人脸识别;
所述装置还包括预通知模块612、业务处理模块614;
所述预通知模块612,在根据所述第二3D人脸图,对所述用户进行识别的识别结果确定之前,直接识别所述2D人脸图,若对所述2D人脸图识别通过,则向所述用户发出预通知,以表示所述刷脸支付已支付成功;
所述业务处理模块614,若对所述用户的所述人脸识别失败,则进行相应的业务处理。
可选地,所述用户在公用的刷脸设备上触发了所述人脸识别;
所述3D重建模块604,根据所述人脸检测位置,确定所述2D人脸图中的人脸关键区域;
将所述人脸关键区域之外的区域作为非关键区域,并使用所述公用的刷脸设备的历史用户的非关键区域替换该用户的非关键区域;
对所述替换后的所述2D人脸图进行3D重建处理。
图7为本说明书一个或多个实施例提供的一种人脸识别设备的结构示意图,所述设备包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
根据所述第二3D人脸图,对所述用户进行识别。
处理器与存储器之间可以通过总线通信,设备还可以包括与其他设备通信的输入/输出接口。
基于同样的思路,本说明书一个或多个实施例还提供了对应于上述方法的一种非易失性计算机存储介质,存储有计算机可执行指令,所述计算机可执行指令设置为:
在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
根据所述第二3D人脸图,对所述用户进行识别。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(Field Programmable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(Advanced Boolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(Java Hardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(RubyHardware Description Language)等,目前最普遍使用的是VHDL(Very-High-SpeedIntegrated Circuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本说明书时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本说明书实施例可提供为方法、系统、或计算机程序产品。因此,本说明书实施例可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本说明书实施例可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本说明书是参照根据本说明书实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本说明书可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本说明书,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于装置、设备、非易失性计算机存储介质实施例而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。
以上所述仅为本说明书的一个或多个实施例而已,并不用于限制本说明书。对于本领域技术人员来说,本说明书的一个或多个实施例可以有各种更改和变化。凡在本说明书的一个或多个实施例的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本说明书的权利要求范围之内。
Claims (15)
1.一种人脸识别方法,包括:
在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
根据所述第二3D人脸图,对所述用户进行识别;
所述用户在进行刷脸支付时触发了所述人脸识别,所述刷脸支付需要所述用户在公共场合中排队;
在根据所述第二3D人脸图,对所述用户进行识别的识别结果确定之前,所述方法还包括:
对用户发出预通知,表示本次刷脸支付已经支付成功,用户收到预通知后即可关闭人脸识别界面,以及获取到相应的商品;
所述根据所述第二3D人脸图,对所述用户进行识别之后,所述方法还包括:
若对所述用户的所述人脸识别失败,则针对用户本次刷脸支付的支付渠道,通过相应的客户端向用户发出重新刷脸请求。
2.如权利要求1所述的方法,所述根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图,具体包括:
根据所述第一3D人脸图,生成第一3D人脸点云;
根据所述3D人脸重建结果,获得第二3D人脸点云;
根据所述第一3D人脸点云和第二3D人脸点云,生成第二3D人脸图。
3.如权利要求2所述的方法,所述根据所述第一3D人脸点云和第二3D人脸点云,生成第二3D人脸图,具体包括:
对所述第一3D人脸点云和第二3D人脸点云进行融合处理,得到融合点云;
在所述融合点云中确定重要程度不同的多个区域;
根据所述重要程度,在多个区域中进行加权采样,得到采样点云;
根据所述采样点云的深度信息,向平面进行正交投影,得到第二3D人脸图。
4.如权利要求3所述的方法,所述对所述第一3D人脸点云和第二3D人脸点云进行融合处理,得到融合点云,具体包括:
确定所述第一3D人脸点云中的第一点、所述第二3D人脸点云中的第二点分别对应的位置坐标;
根据所述位置坐标,确定所述第一点与所述第二点之间的距离;并确定所述第一点、所述第二点分别对应的曲率和法向量;
若所述距离、所述曲率和所述法向量均满足相应的阈值约束,且所述法向量为良定义的法向量,则将所述第一点和所述第二点作为相互匹配的点;
根据所述相互匹配的点将所述第一3D人脸点云与所述第二3D人脸点云进行形变贴合,得到融合点云。
5.如权利要求1所述的方法,所述对所述2D人脸图进行3D重建处理,得到3D人脸重建结果之前,所述方法还包括:
在所述第一3D人脸图中,将所述深度信息的变化速度高于预设阈值的区域作为边界区域;
在所述2D人脸图中确定所述边界区域对应的位置,并将所述对应的位置进行图像增强处理。
6.如权利要求1所述的方法,所述用户在进行刷脸支付时触发了所述人脸识别;
在根据所述第二3D人脸图,对所述用户进行识别的识别结果确定之前,所述方法还包括:
直接识别所述2D人脸图,若对所述2D人脸图识别通过,则向所述用户发出预通知,以表示所述刷脸支付已支付成功;
所述根据所述第二3D人脸图,对所述用户进行识别之后,所述方法还包括:
若对所述用户的所述人脸识别失败,则进行相应的业务处理。
7.如权利要求1所述的方法,所述用户在公用的刷脸设备上触发了所述人脸识别;
所述对所述2D人脸图进行3D重建处理,具体包括:
根据所述人脸检测位置,确定所述2D人脸图中的人脸关键区域;
将所述人脸关键区域之外的区域作为非关键区域,并使用所述公用的刷脸设备的历史用户的非关键区域替换该用户的非关键区域;
对所述替换后的所述2D人脸图进行3D重建处理。
8.一种人脸识别装置,包括:
采集模块,在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
3D重建模块,对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
3D人脸图生成模块,根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
识别模块,根据所述第二3D人脸图,对所述用户进行识别;
所述用户在进行刷脸支付时触发了所述人脸识别,所述刷脸支付需要所述用户在公共场合中排队;
在根据所述第二3D人脸图,对所述用户进行识别的识别结果确定之前,还包括:
对用户发出预通知,表示本次刷脸支付已经支付成功,用户收到预通知后即可关闭人脸识别界面,以及获取到相应的商品;
所述根据所述第二3D人脸图,对所述用户进行识别之后,还包括:
若对所述用户的所述人脸识别失败,则针对用户本次刷脸支付的支付渠道,通过相应的客户端向用户发出重新刷脸请求。
9.如权利要求8所述的装置,所述3D人脸图生成模块包括人脸点云生成子模块、3D人脸图生成子模块;
所述人脸点云生成子模块,根据所述第一3D人脸图,生成第一3D人脸点云;
根据所述3D人脸重建结果,获得第二3D人脸点云;
所述3D人脸图生成子模块,根据所述第一3D人脸点云和第二3D人脸点云,生成第二3D人脸图。
10.如权利要求9所述的装置,所述3D人脸图生成子模块,对所述第一3D人脸点云和第二3D人脸点云进行融合处理,得到融合点云;
在所述融合点云中确定重要程度不同的多个区域;
根据所述重要程度,在多个区域中进行加权采样,得到采样点云;
根据所述采样点云的深度信息,向平面进行正交投影,得到第二3D人脸图。
11.如权利要求10所述的装置,所述3D人脸图生成子模块,确定所述第一3D人脸点云中的第一点、所述第二3D人脸点云中的第二点分别对应的位置坐标;
根据所述位置坐标,确定所述第一点与所述第二点之间的距离;并确定所述第一点、所述第二点分别对应的曲率和法向量;
若所述距离、所述曲率和所述法向量均满足相应的阈值约束,且所述法向量为良定义的法向量,则将所述第一点和所述第二点作为相互匹配的点;
根据所述相互匹配的点将所述第一3D人脸点云与所述第二3D人脸点云进行形变贴合,得到融合点云。
12.如权利要求8所述的装置,还包括:
图像增强模块,在所述第一3D人脸图中,将所述深度信息的变化速度高于预设阈值的区域作为边界区域;
在所述2D人脸图中确定所述边界区域对应的位置,并将所述对应的位置进行图像增强处理。
13.如权利要求8所述的装置,所述用户在进行刷脸支付时触发了所述人脸识别;
所述装置还包括预通知模块、业务处理模块;
所述预通知模块,在根据所述第二3D人脸图,对所述用户进行识别的识别结果确定之前,直接识别所述2D人脸图,若对所述2D人脸图识别通过,则向所述用户发出预通知,以表示所述刷脸支付已支付成功;
所述业务处理模块,若对所述用户的所述人脸识别失败,则进行相应的业务处理。
14.如权利要求8所述的装置,所述用户在公用的刷脸设备上触发了所述人脸识别;
所述3D重建模块,根据所述人脸检测位置,确定所述2D人脸图中的人脸关键区域;
将所述人脸关键区域之外的区域作为非关键区域,并使用所述公用的刷脸设备的历史用户的非关键区域替换该用户的非关键区域;
对所述替换后的所述2D人脸图进行3D重建处理。
15.一种人脸识别设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
在用户人脸处于预定的人脸检测位置后,针对所述用户人脸,采集2D人脸图以及基于深度信息采集第一3D人脸图;
对所述2D人脸图进行3D重建处理,得到3D人脸重建结果;
根据所述3D人脸重建结果和所述第一3D人脸图,生成第二3D人脸图;
根据所述第二3D人脸图,对所述用户进行识别;
所述用户在进行刷脸支付时触发了所述人脸识别,所述刷脸支付需要所述用户在公共场合中排队;
在根据所述第二3D人脸图,对所述用户进行识别的识别结果确定之前,还包括:
对用户发出预通知,表示本次刷脸支付已经支付成功,用户收到预通知后即可关闭人脸识别界面,以及获取到相应的商品;
所述根据所述第二3D人脸图,对所述用户进行识别之后,还包括:
若对所述用户的所述人脸识别失败,则针对用户本次刷脸支付的支付渠道,通过相应的客户端向用户发出重新刷脸请求。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110661431.2A CN113392763B (zh) | 2021-06-15 | 2021-06-15 | 一种人脸识别方法、装置以及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110661431.2A CN113392763B (zh) | 2021-06-15 | 2021-06-15 | 一种人脸识别方法、装置以及设备 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113392763A CN113392763A (zh) | 2021-09-14 |
CN113392763B true CN113392763B (zh) | 2022-11-11 |
Family
ID=77621053
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110661431.2A Active CN113392763B (zh) | 2021-06-15 | 2021-06-15 | 一种人脸识别方法、装置以及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113392763B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114511911A (zh) * | 2022-02-25 | 2022-05-17 | 支付宝(杭州)信息技术有限公司 | 一种人脸识别方法、装置以及设备 |
CN114898431B (zh) * | 2022-05-10 | 2024-09-06 | 支付宝(杭州)信息技术有限公司 | 一种刷脸支付意愿识别方法、装置以及设备 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107845212B (zh) * | 2017-11-02 | 2020-11-17 | 华北理工大学 | 基于身份识别的智能购物系统 |
CN107862521A (zh) * | 2017-12-20 | 2018-03-30 | 华东交通大学 | 一种基于物联网的超市购物支付系统及方法 |
CN108564041B (zh) * | 2018-04-17 | 2020-07-24 | 云从科技集团股份有限公司 | 一种基于rgbd相机的人脸检测和修复方法 |
WO2020148658A2 (en) * | 2019-01-18 | 2020-07-23 | Rathod Yogesh | Methods and systems for displaying on map current or nearest and nearby or searched and selected location(s), geo-fence(s), place(s) and user(s) and identifying associated payments and account information for enabling to make and receive payments |
CN110532746B (zh) * | 2019-07-24 | 2021-07-23 | 创新先进技术有限公司 | 人脸校验方法、装置、服务器及可读存储介质 |
CN111325558A (zh) * | 2020-02-24 | 2020-06-23 | 支付宝(杭州)信息技术有限公司 | 一种刷脸支付方法、装置和设备 |
CN111523398A (zh) * | 2020-03-30 | 2020-08-11 | 西安交通大学 | 一种融合2d人脸检测和3d人脸识别的方法及装置 |
CN111612897B (zh) * | 2020-06-05 | 2023-11-10 | 腾讯科技(深圳)有限公司 | 三维模型的融合方法、装置、设备及可读存储介质 |
CN111710035B (zh) * | 2020-07-16 | 2023-11-07 | 腾讯科技(深圳)有限公司 | 人脸重建方法、装置、计算机设备及存储介质 |
-
2021
- 2021-06-15 CN CN202110661431.2A patent/CN113392763B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN113392763A (zh) | 2021-09-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110570200B (zh) | 一种支付方法及装置 | |
EP3872699B1 (en) | Face liveness detection method and apparatus, and electronic device | |
CN113392763B (zh) | 一种人脸识别方法、装置以及设备 | |
US20200074148A1 (en) | Method, apparatus, and system for resource transfer | |
US10984225B1 (en) | Masked face recognition | |
US20130272609A1 (en) | Scene segmentation using pre-capture image motion | |
CN111523431B (zh) | 一种面部识别的方法、装置及设备 | |
CN109829396B (zh) | 人脸识别运动模糊处理方法、装置、设备及存储介质 | |
JP5776323B2 (ja) | 角膜反射判定プログラム、角膜反射判定装置および角膜反射判定方法 | |
CN111292092A (zh) | 刷脸支付方法、装置及电子设备 | |
CN114238904B (zh) | 身份识别方法、双通道超分模型的训练方法及装置 | |
CN111723707A (zh) | 一种基于视觉显著性的注视点估计方法及装置 | |
CN111325698A (zh) | 图像处理方法、装置及系统、电子设备 | |
CN114519877A (zh) | 人脸识别方法、人脸识别装置、计算机设备及存储介质 | |
Choi et al. | Eye pupil localization algorithm using convolutional neural networks | |
WO2022272230A1 (en) | Computationally efficient and robust ear saddle point detection | |
CN113724302B (zh) | 一种个性化眼镜定制方法及定制系统 | |
CN112464827B (zh) | 口罩佩戴识别方法、装置、设备及存储介质 | |
CN115546908A (zh) | 一种活体检测方法、装置及设备 | |
Fan et al. | Adaptive dual motion model for facial micro-expression generation | |
CN114677620A (zh) | 对焦方法、电子设备和计算机可读介质 | |
CN114511911A (zh) | 一种人脸识别方法、装置以及设备 | |
CN113609966A (zh) | 一种人脸识别系统的训练样本的生成方法及装置 | |
CN113553905A (zh) | 图像识别方法、装置及系统 | |
CN112950670A (zh) | 眼睛跟踪方法和眼睛跟踪设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |