CN117649703A - 一种目标用户检测方法、装置及设备 - Google Patents
一种目标用户检测方法、装置及设备 Download PDFInfo
- Publication number
- CN117649703A CN117649703A CN202311453922.3A CN202311453922A CN117649703A CN 117649703 A CN117649703 A CN 117649703A CN 202311453922 A CN202311453922 A CN 202311453922A CN 117649703 A CN117649703 A CN 117649703A
- Authority
- CN
- China
- Prior art keywords
- face
- user
- candidate user
- candidate
- depth
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 title claims abstract description 80
- 238000013507 mapping Methods 0.000 claims abstract description 39
- 238000000034 method Methods 0.000 claims description 49
- 238000012216 screening Methods 0.000 claims description 4
- 238000010586 diagram Methods 0.000 description 12
- 238000003860 storage Methods 0.000 description 12
- 238000012545 processing Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 10
- 238000004590 computer program Methods 0.000 description 9
- 238000005516 engineering process Methods 0.000 description 9
- 230000006872 improvement Effects 0.000 description 8
- 230000008569 process Effects 0.000 description 6
- 230000003287 optical effect Effects 0.000 description 5
- 238000007639 printing Methods 0.000 description 5
- 238000003384 imaging method Methods 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000004080 punching Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 230000005055 memory storage Effects 0.000 description 1
- 238000012634 optical imaging Methods 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 229920001296 polysiloxane Polymers 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
- 239000010979 ruby Substances 0.000 description 1
- 229910001750 ruby Inorganic materials 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本说明书实施例中公开了一种目标用户检测方法、装置及设备。该方案可以包括:当需要从目标区域处检测出所需获取服务的目标用户时,可以先确定出针对该目标区域采集的二维图像内的各个候选用户的人脸位置信息,以便于根据采集时刻一致的深度图像与该二维图像之间的映射关系,去确定出各个候选用户的人脸区域的深度差异程度,进而从人脸区域的深度差异程度大于预设程度的候选用户中,确定出所需获取服务的目标用户。
Description
技术领域
本申请涉及目标检测技术领域,尤其涉及一种目标用户检测方法、装置及设备。
背景技术
随着计算机技术以及光学成像技术的发展,基于人脸识别技术的目标用户检测方式正在日渐普及。由于在部分应用场景中,针对目标用户进行检测时所采集到的图像中可能存在多个用户的人脸图像,但其中往往仅有一个用户属于当前需要获取服务的目标用户的人脸图像,因此,如何提升针对需要获取服务的用户的识别准确性及效率,成为了亟待解决的技术问题。
发明内容
本说明书实施例提供的一种目标用户检测方法、装置及设备,可以提升针对需要获取服务的用户的识别准确性及效率。
为解决上述技术问题,本说明书实施例是这样实现的:
本说明书实施例提供的一种目标用户检测方法,包括:
获取针对目标区域采集的二维图像及深度图像;所述二维图像与所述深度图像的采集时刻一致。
针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息。
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度。
从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户。
本说明书实施例提供的一种目标用户检测装置,包括:
获取模块,用于获取针对目标区域采集的二维图像及深度图像;所述二维图像与所述深度图像的采集时刻一致。
人脸检测模块,用于针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息。
第一确定模块,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度。
第二确定模块,用于从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户。
本说明书实施例提供的一种目标用户检测设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取针对目标区域采集的二维图像及深度图像;所述二维图像与所述深度图像的采集时刻一致。
针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息。
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度。
从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户。
本说明书中提供的至少一个实施例能够实现以下有益效果:
由于活体人脸相较于印刷在平面承载物上的人脸图像而言深度差异程度较大,因此,当需要从目标区域处检测出所需获取服务的目标用户时,可以先确定出针对该目标区域采集的二维图像内的各个候选用户的人脸位置信息,以便于根据采集时刻一致的深度图像与该二维图像之间的映射关系,去确定出各个候选用户的人脸区域的深度差异程度,进而通过从人脸区域的深度差异程度大于预设程度的候选用户中,确定出所需获取服务的目标用户,以避免将印刷在承载物上的人脸图像错误的识别为所需获取服务的目标用户,从而有利于针对需要获取服务的用户的识别准确性。同时,由于无需针对人脸进行三维建模处理或者其他复杂的检测处理,就能有效过滤掉印刷在承载物上的人脸图像带来的干扰,从而也有利于提升针对需要获取服务的目标用户的识别效率。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请中记载的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本说明书实施例提供的一种目标用户检测方法的应用场景示意图;
图2为本说明书实施例提供的一种目标用户检测方法的流程示意图;
图3为本说明书实施例提供的一种二维图像示意图;
图4为本说明书实施例提供的对应于图2中的目标用户检测方法的泳道流程示意图;
图5为本说明书实施例提供的对应于图2的一种目标用户检测装置的结构示意图;
图6为本说明书实施例提供的对应于图2的一种目标用户检测设备的结构示意图。
具体实施方式
为使本说明书一个或多个实施例的目的、技术方案和优点更加清楚,下面将结合本说明书具体实施例及相应的附图对本说明书一个或多个实施例的技术方案进行清楚、完整地描述。显然,所描述的实施例仅是本说明书的一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本说明书一个或多个实施例保护的范围。
以下结合附图,详细说明本说明书各实施例提供的技术方案。
现有技术中,在部分应用场景中,针对需要获取服务的目标用户进行检测时所采集到的图像中,可能存在多个用户的人脸图像,但其中往往仅有一个用户属于当前需要获取服务的目标用户的人脸图像,因此需要从多个用户中准确筛选出当前需要获取服务的目标用户。例如,在线下机具处的刷脸支付场景中,当消费者的衣着或身旁广告牌上印刷有人脸图案时,若直接将设备采集图像中的面积最大或者最居中的人脸图像所属用户,确定为需要获取服务的目标用户,则可能导致将消费者的衣着或身旁广告牌上印刷的人脸图案确定为需要获取服务的目标用户的人脸图像,从而使得目标用户检测结果的准确性较差。而若此时采用人脸三维建模方式或者其他复杂的检测方式,去过滤消费者的衣着或身旁广告牌上印刷的人脸图案,则需要消耗大量时间,影响目标用户检测效率。
为了解决现有技术中的缺陷,本方案给出了以下实施例:
图1为本说明书实施例提供的一种目标用户检测方法的应用场景示意图。
如图1所示,可以利用图像采集装置101针对目标区域进行图像采集,以得到目标区域处的采集时刻一致的二维图像及深度图像。其中,目标区域处可以具有一个或多个用户,例如,用户102及用户103等,在图1给出的示例中,用户102的衣着上还可以印刷有其他人脸图像;以及,目标区域处还可以具有印刷有其他人脸图像的物体,例如,物体104等。
当需要确定出当前所需获取服务的目标用户时,可以针对图像采集装置101采集到的二维图像进行人脸检测,以得到候选用户的人脸位置信息;后续还可以根据图像采集装置101获取到的采集时刻一致的深度图像与该二维图像之间的映射关系,去确定出各个候选用户的人脸区域的深度差异程度。
由于活体人脸相较于印刷在承载物上的人脸图像而言深度差异程度较大,因此,可以通过从人脸区域的深度差异程度大于预设程度的候选用户中,确定出所需获取服务的目标用户,以避免将印刷在承载物上的人脸图像错误的识别为所需获取服务的目标用户,从而有利于针对需要获取服务的用户的识别准确性。同时,由于无需针对人脸进行三维建模处理或者其他复杂的检测处理,就能有效过滤掉印刷在承载物上的人脸图像带来的干扰,从而也有利于提升针对需要获取服务的目标用户的识别效率。
接下来,将针对说明书实施例提供的一种目标用户检测方法结合附图进行具体说明:
图2为本说明书实施例提供的一种目标用户检测方法的流程示意图。从程序角度而言,该流程的执行主体可以为目标用户检测设备,或者,目标用户检测设备处搭载的应用程序。其中,该目标用户检测设备既可以为设置于目标区域处的设备,或者也可以为设置于其他区域处,但能够获取到针对目标区域采集的二维图像及深度图像的设备,例如,服务端设备、云端设备等,对此不作具体限定。如图2所示,该流程可以包括以下步骤:
步骤202:获取针对目标区域采集的二维图像及深度图像;所述二维图像与所述深度图像的采集时刻一致。
本说明书实施例中,目标区域通常为需要获取服务的用户所需处于的区域。例如,在线下机具处的刷脸支付场景中,目标区域可以为线下机具的前方区域。在签到打卡设备处的身份核验场景中,目标区域可以为签到打卡设备的前方区域。或者,在门禁闸机处的通行场景中,目标区域可以为门禁闸机的外侧区域等,对此不作具体限定。
本说明书实施例中,需要基于活体人脸相较于印刷在承载物上的人脸图像而言深度差异程度较大的原理,去筛选出需要获取服务的目标用户,因此,需要获取到用户的人脸图像信息及人脸深度信息。以及,为便于准确确定出用户的人脸图像信息及相匹配的人脸深度信息,还应保障针对目标区域采集到的二维图像及深度图像的采集时刻极为接近。
基于此,需要在目标区域处设置图像采集装置去获取采集时刻一致的二维图像及深度图像。其中,二维图像(2D images)可以指不包含深度信息的平面图像,二维图像中像素的像素值通常用于反映所采集的场景中各点的色彩、亮度、灰度等信息。而深度图像(Depth Images)也被称为距离影像(Range Images),深度图像中像素的像素值通常用于反映所采集的场景中各点与图像采集装置之间的距离(深度)信息。
在实际应用中,二维图像可以由携带有光学镜头的摄像机、照相机等图像采集装置采集得到。而深度图像可以使用具有深度感知功能的图像采集装置采集得到,对此不作具体限定。以及,所谓的二维图像及深度图像采集时刻一致,既可以指二维图像与深度图像的采集时刻相同,或者,也可以指二维图像与深度图像的采集时刻的差值小于阈值,对此也不作具体限定。
步骤204:针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息。
本说明书实施例中,通常需要确定出二维图像中存在人脸的区域,以便于确定人脸区域的深度差异程度。基于此,可以利用现有的人脸检测技术,针对所述二维图像进行人脸检测,得到用于反映候选用户的人脸图像在所述二维图像中所处的区域位置的信息,作为候选用户的人脸位置信息。例如,当使用目标检测算法或者人脸检测模型对所述二维图像进行人脸检测时,确定出的置信度最高的人脸候选框的位置信息,可以作为候选用户的人脸位置信息。其中,所述人脸候选框的形状既可以是矩形的,也可以是其他形状,例如,圆形、椭圆形、不规则多边形等,对此不作具体限定。
其中,所述候选用户可以为针对目标区域采集所述二维图像时,处于目标区域处的用户,且所述候选用户的数量通常大于等于一。当然,若所述候选用户的数量为0时,通常可以直接确当前不具有所需获取服务的目标用户,从而也可以不执行候选步骤,而直接跳转至结束,有利于节省设备资源。
步骤206:基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度。
本说明书实施例中,在确定出所述二维图像中的候选用户的人脸位置信息后,就可以确定出候选用户的人脸所在区域了,后续,则需要根据所述二维图像与所述深度图像之间的映射关系,确定出候选用户的人脸所在区域处的各个位置的深度信息,进而确定候选用户的人脸区域的深度差异程度。其中,所述深度差异程度越大,则可以表示候选用户的人脸所在区域处的各个位置的深度差异较大,即候选用户的人脸位置信息所对应的所述二维图像内的人脸图像属于平面印刷人脸的可能性越低。而所述深度差异程度越小,则可以表示候选用户的人脸所在区域处的各个位置的深度差异较小,即候选用户的人脸位置信息所对应的所述二维图像内的人脸图像属于平面印刷人脸的可能性越高。
步骤208:从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户。
本说明书实施例中,可以预先根据实际情况,确定出活体人脸应具有的最小的深度差异程度作为预设程度,若候选用户的人脸区域的深度差异程度大于和/或等于该预设程度,则可以表示该候选用户的人脸位置信息所对应的所述二维图像内的人脸图像不属于平面印刷人脸,从而可以进一步检测该候选用户是否为所需获取服务的目标用户。而若候选用户的人脸区域的深度差异程度小于该预设程度,则可以表示该候选用户的人脸位置信息所对应的所述二维图像内的人脸图像属于平面印刷人脸,此时,应禁止将该候选用户确定为所需获取服务的目标用户,从而有效避免将印刷在承载物上的人脸图像错误的识别为所需获取服务的目标用户的人脸图像。
图2中的方法,基于活体人脸相较于印刷在承载物上的人脸图像而言深度差异程度较大的原理,去根据采集时刻一致的深度图像与该二维图像之间的映射关系,计算出各个候选用户的人脸区域的深度差异程度,以便于通过从人脸区域的深度差异程度大于预设程度的候选用户中,确定出所需获取服务的目标用户,去避免将印刷在承载物上的人脸图像错误的识别为所需获取服务的目标用户,有利于针对需要获取服务的用户的识别准确性。同时,由于无需针对人脸进行三维建模处理或者其他复杂的检测处理,就能有效过滤掉印刷在承载物上的人脸图像带来的干扰,从而也有利于提升针对需要获取服务的目标用户的识别效率。
基于图2中的方法,本说明书实施例还提供了该方法的一些具体实施方案,下面进行说明。
本说明书实施例中,图像采集装置的视场角的大小决定了光学仪器的视野范围,并且由于镜头焦平面上不同区域对影像的放大率不同,因而形成的画面会存在扭曲变形现象,这种变形的程度从画面中心至画面边缘依次递增,从而使得图像采集装置针对视野范围内采集到的二维图像的边缘处携带的图像信息往往并不可靠,以及,由于用户在需要获取服务时往往会处于图像采集装置的视野范围内较为靠近中心位置的区域,这也使得二维图像的边缘处的人脸图像往往并不属于需要获取服务的目标用户,因此,二维图像的边缘区域属于图像无效采集区域,二维图像的其他区域则属于图像有效采集区域。
基于此,可以从二维图像的图像有效采集区域内包含的人脸图像所属的用户中,去确定出所需获取服务的目标用户,有利于提升目标用户检测结果的准确性。
具体的步骤204:针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息,可以包括:
针对所述二维图像中的预设区域进行人脸检测,得到候选用户的人脸位置信息;其中,所述预设区域是基于所述二维图像的图像采集装置的视场角确定出的图像有效采集区域。
或者,
针对所述二维图像进行人脸检测,得到待选用户的人脸位置信息。
基于所述待选用户的人脸位置信息,判断所述待选用户的人脸图像是否位于所述预设区域内,得到第一判断结果。
若所述第一判断结果表示所述待选用户的人脸图像位于所述预设区域内,则将所述待选用户的人脸位置信息,确定为候选用户的人脸位置信息。
本说明书实施例中,可以将所述二维图像中包含的全部人脸图像作为待选用户的人脸图像,但是,仅有位于所述二维图像中的预设区域(即图像有效采集区域)内的人脸图像才可以作为候选用户的人脸图像,以剔除二维图像中的图像有效采集区域以外的区域包含的人脸图像造成的干扰。
其中,所述二维图像中的图像有效采集区域可以为:基于采集到到所述二维图像的图像采集装置的视场角,确定出的剔除掉至少部分图像边缘区域后剩下的区域。
具体的,所述预设区域可以为:与所述二维图像的左侧边的距离大于第一阈值,与所述二维图像的右侧边的距离大于第二阈值,与所述二维图像的顶边的距离大于第三阈值,且与所述二维图像的底边的距离大于第四阈值的区域;其中,所述第一阈值与所述第二阈值之和小于所述二维图像的长度,所述第三阈值与所述第四阈值之和小于所述二维图像的宽度。在实际应用中,所述所述第一阈值、所述第二阈值、所述第三阈值与所述第四阈值中的至多三种数值可以为0。
为便于理解,对此进行举例说明。例如,假定,根据图像采集装置的视场角确定出二维图像的横向图像有效采集区域为横向分辨率的80%,纵向图像有效采集区域为纵向分辨率的100%,则所述第一阈值与所述第二阈值可以均为所述二维图像的横向分辨率的10%,或者,也可以令所述第一阈值与所述第二阈值分别为所述二维图像的横向分辨率的5%、15%,而所述第三阈值与所述第四阈值可以均为0。
或者,根据图像采集装置的视场角确定出二维图像的横向图像有效采集区域为横向分辨率的90%,纵向图像有效采集区域为纵向分辨率的70%,则所述第一阈值与所述第二阈值可以均为所述二维图像的横向分辨率的5%,所述第三阈值与所述第四阈值分别为所述二维图像的纵向分辨率的15%、15%,或者,也可以为10%、20%;对此不作具体限定。
本说明书实施例中,在确定确定出候选用户的人脸位置信息时可以采用的实现方式可以有多种。
实现方式一:可以先从所述二维图像中确定出图像有效采集区域,并仅针对图像有效采集区域进行人脸检测,而不对图像无效采集区域进行人脸检测,以直接检测得到的候选用户的人脸位置信息。
实现方式二:可以针对完整的所述二维图像进行人脸检测,在得到各个待选用户的人脸位置信息后,再挑选出人脸图像位于图像有效采集区域的待选用户,以得到候选用户,进而确定出候选用户的人脸位置信息。
在实际应用中,仅需采用上述两种方式中的任意一种去确定出候选用户的人脸位置信息,对此不作赘述。
在实际应用中,既可以要求用户的人脸图像均处于所述二维图像的图像有效采集区域内时,才认为该用户属于候选用户,或者,也可以在用户的人脸图像中处于所述二维图像的图像有效采集区域内的面积占比大于预设值(例如,70%、80%等)时,就认为该用户属于候选用户,对此不作具体限定。
为便于理解,图3为本说明书实施例提供的一种二维图像示意图,如图3所示,二维图像中可以包含人脸301、人脸302、人脸303、人脸304、人脸305、人脸306等6位待选用户的人脸图像。由于人脸306并未处于所述二维图像的图像有效采集区域内,因此,禁止将人脸306的位置信息作为候选用户的人脸位置信息,而可以将人脸301至人脸305等的位置信息作为候选用户的人脸位置信息。
本说明书实施例中,为便于理解,还给出了确定候选用户的人脸区域的深度差异程度的实现方式。
具体的,步骤206:基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度,具可以包括:
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域内的各个像素点对应的深度值。
根据所述候选用户的人脸区域内的各个像素点对应的深度值,确定所述候选用户的人脸区域处的第一深度差异指标值;所述第一深度差异指标值包括:深度值方差或者深度值标准差。
对应的,步骤208:从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户,具体包括:
从所述第一深度差异指标值大于第五阈值的所述候选用户中,确定所需获取服务的目标用户。
本说明书实施例中,所述二维图像与所述深度图像之间的映射关系,通过能够反映所述二维图像与所述深度图像处的像素之间的对应关系,由于所述深度图像处的第一像素的像素值用于反映与该第一像素对应的所述二维图像中的第二像素反映的主体与图像采集装置之间的距离(深度),因此,可以先根据所述候选用户的人脸位置信息,确定出所述二维图像中的候选用户的人脸图像内的各个第二像素。然后,根据所述二维图像与所述深度图像之间的映射关系,确定出所述深度图像处的与候选用户的人脸图像内的各个第二像素对应的第一像素的像素值,从而得到所述候选用户的人脸区域内的各个像素点对应的深度值。
在实际应用中,所述二维图像与所述深度图像之间的映射关系可以采用现有技术实现,对此不作具体限定。以及,所述二维图像与所述深度图像的图像分辨率既可以相同,又可以不同。当所述二维图像的分辨率大于所述深度图像的分辨率时,可能存在所述深度图像处的1个第二像素对应所述二维图像处的多个第二像素情况,此时,需要将这一第二像素的像素值确定为与其对应的多个第二像素对应的深度值。而若所述二维图像的分辨率小于所述深度图像的分辨率时,可能存在所述深度图像处的多个第二像素对应所述二维图像处的同一第二像素情况,此时,可以将多个第二像素的像素值的均值确定为与其对应的这一第二像素对应的深度值。对此不作具体限定。
本说明书实施例中,由于方差(variance)及标注差(standard deviation)是反映一组数据离散程度最常用的一种量化形式,因此,可以利用方差与标注差作为候选用户的人脸区域处的深度差异指标值,从而确定候选用户的人脸区域的深度差异程度。其中,方差可以为各个数据与其算术平均数的离差平方和的平均数,而标准差可以为方差的算术平方根。
基于此,可以先计算候选用户的人脸区域内的各个像素点对应的深度值的平均值,在计算各个像素点对应的深度值与该平均值之差的平方和的平均值,得到深度值方差,从而作为所述候选用户的人脸区域处的第一深度差异指标值;和/或,计算上述深度值方差的算术平方根,得到深度值标准差,从而作为所述候选用户的人脸区域处的第一深度差异指标值,对此不作赘述。
由于第一深度差异指标值越大,则可以表示候选用户的人脸区域的深度差异程度越大,即候选用户的人脸位置信息所对应的所述二维图像内的人脸图像不属于平面印刷人脸的可能性越大。从而可以根据实际需求预先设置活体人脸区域的第一深度差异指标值所需达到的第五阈值,若候选用户的人脸区域处的第一深度差异指标值大于第五阈值,则可以表示该候选用户在所述二维图像中的人脸图像为活体人脸图像,而不属于平面印刷人脸,从而通过从所述第一深度差异指标值大于第五阈值的所述候选用户中,确定所需获取服务的目标用户,以提升确定出的目标用户的准确性。
目前,由于受到用户体型的影响,部分衣着上印刷的人脸所在区域也可能会具有一定的深度差异程度,但由于平面印刷人脸外侧附近区域仍旧为较为平坦的用户衣着区域,而活体人脸外侧附件区域通常为距离较远的背景区域,从而可以对所述二维图像处的被检测出的人脸区域向外稍微扩展一定尺寸,通过考虑人脸及周边区域的整体深度差异程度,以进一步滤除平面印刷人脸造成的干扰。
基于此,所述从所述第一深度差异指标值大于第五阈值的所述候选用户中,确定所需获取服务的目标用户之前,还可以包括:
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸扩展区域内的各个像素点对应的深度值;其中,所述人脸扩展区域内包含所述人脸区域,且所述人脸扩展区域与所述人脸区域的面积比值大于一。
根据所述候选用户的人脸扩展区域内的各个像素点对应的深度值,确定所述候选用户的人脸扩展区域处的第二深度差异指标值;所述第二深度差异指标值包括:深度值方差或者深度值标准差。
对应的,所述从所述第一深度差异指标值大于第五阈值的所述候选用户中,确定所需获取服务的目标用户,具体可以包括:
从所述第一深度差异指标值大于第五阈值且所述第二深度差异指标值大于第六阈值的所述候选用户中,确定所需获取服务的目标用户。
本说明书实施例中,所述候选用户的人脸扩展区域可以是通过对所述候选用户的人脸区域向外侧(上侧、下侧、左侧、右侧中的至少一种)扩展一定尺寸所确定出的区域,即所述候选用户的人脸区域为所述候选用户的人脸扩展区域内部的子区域。
为便于理解,结合图3中示出的内容,对于候选用户的人脸区域与人脸扩展区域进行举例说明。如图3所示,二维图像中包含有候选用户的人脸301的图像,利用人脸检测算法或模型对二维图像进行人脸检测后,得到的候选用户的人脸301的人脸位置信息可以为用于反映候选用户的人脸301所在区域307的信息,基于此,可以将区域307作为该候选用户的人脸区域,通过从上、下、左、右等各个方向均进行扩展,就可以得到该候选用户的人脸扩展区域308。在实际应用中,针对该候选用户的人脸区域从上侧及下侧所向外扩展的尺寸既可以相同,也可以不同;以及,针对该候选用户的人脸区域从左侧及右侧所向外扩展的尺寸既可以相同,也可以不同,对此均不作具体限定。
候选用户的人脸区域处的第一深度差异指标值与候选用户的人脸扩展区域处的第二深度差异指标值都可以采用深度值方差或者深度值标准差实现,因此,可以基于与第一深度差异指标值一致的计算原理,去计算得到候选用户的人脸扩展区域处的第二深度差异指标值。对此不作赘述。
由于第二深度差异指标值越大,则可以表示候选用户的人脸与周边区域的深度差异程度越大,即可以表示候选用户的人脸区域的深度差异程度越大,此时,候选用户的人脸位置信息所对应的所述二维图像内的人脸图像不属于平面印刷人脸的可能性越大。从而可以根据实际需求预先设置活体人脸扩大区域的第二深度差异指标值所需达到的第六阈值,若候选用户的人脸扩展区域处的第二深度差异指标值大于第六阈值,则可以表示该候选用户在所述二维图像中的人脸图像为活体人脸图像,而不属于平面印刷人脸,从而通过从所述第二深度差异指标值大于第六阈值的所述候选用户中,确定所需获取服务的目标用户,以进一步提升确定出的目标用户的准确性。
目前,由于所需获取服务的目标用户通常距离图像采集装置较近,而当用户与图像采集装置之间的距离过大时,该用户通常并不属于所需获取服务的目标用户。基于此,还可以根据用户与图像采集装置之间的距离,去筛选出所需获取服务的目标用户。
实现方式一,可以先计算出全部候选用户的人脸区域的深度差异程度,并基于该深度差异程度滤除平面印刷人脸后,再针对剩余活体人脸与图像采集装置之间的距离,筛选出目标用户。方便快捷。
基于此,步骤208:从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户,具体可以包括:
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述深度差异程度大于预设程度的所述候选用户的第一人脸深度均值。
基于所述第一人脸深度均值,从所述深度差异程度大于预设程度的所述候选用户中,确定出目标候选用户集合;所述目标候选用户集合中包括:所述第一人脸深度均值的最小值对应的第一候选用户,以及,与所述第一候选用户的所述第一人脸深度均值之差小于第七阈值的第二候选用户。
若所述目标候选用户集合中的所述候选用户的数量等于一,则将所述第一候选用户,确定为所需获取服务的目标用户。
若所述目标候选用户集合中的所述候选用户的数量大于一,则确定所述目标候选用户集合中的各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
将所述距离的最小值对应的所述候选用户,确定为所需获取服务的目标用户。
本说明书实施例中,由于基于所述二维图像与所述深度图像之间的映射关系,可以确定出候选用户的人脸图像中的各个像素点对应的深度值,通过求候选用户的人脸图像中的各个像素点对应的深度值的平均值,即可得到候选用户的第一人脸深度均值。所述第一人脸深度均值可以表示候选用户的人脸与图像采集装置之间的平均距离,因此,所述第一人脸深度均值越小,可以表示候选用户与图像采集装置之间越靠近,此时,候选用户属于所需获取服务的目标用户的概率也会越大。
在实际应用中,由于可能存在多个既不属于平面印刷人脸,且与图像采集装置相距较近的候选用户,并且这些候选用户的第一人脸深度均值也可能较为接近,此时,由于所需获取服务的目标用户的人脸通常应较为靠近二维图像的中心区域,因此,还可以将这些候选用户中的与二维图像的成像中心位置距离最近的用户确定为目标用户,以提升目标用户检测结果的准确性。
基于此,可以先从人脸区域的深度差异程度大于预设程度的候选用户中,确定出所述第一人脸深度均值的最小值对应的第一候选用户(即与图像采集装置距离最近的用户),以及,与所述第一候选用户的第一人脸深度均值之差小于第七阈值的第二候选用户(即与第一候选用户距离较近的用户),得到目标候选用户集合。
若目标候选用户集合内仅包含1个候选用户,其就是第一候选用户,此时,可以直接将第一候选用户确定为目标用户。或者,也可以在第一候选用户的第一人脸深度均值小于指定值(即所需获取服务的用户与图像采集装置之间被允许的最大距离)之后再确定为目标用户。
而若目标候选用户集合内包含多个候选用户,则需要将多个候选用户中人脸区域与二维图像的成像中心位置之间的距离最小的候选用户确定为目标用户。当然,也可以在筛选出的所述距离最小的候选用户的第一人脸深度均值小于指定值(即所需获取服务的用户与图像采集装置之间被允许的最大距离)之后再确定为目标用户。对此不作赘述。
实现方式二,可以先计算用户人脸与图像采集装置之间的距离,优先计算距离图像采集装置较近的部分候选用户的人脸区域的深度差异程度,并基于该深度差异程度滤除平面印刷人脸,以得到目标用户。由于该实现方式往往无需计算出全部候选用户的人脸区域的深度差异程度,从而有利于减少计算量。
基于此,步骤206:基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度,具体可以包括:
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的第二人脸深度均值。
按照对应的所述第二人脸深度均值从小到大的顺序,计算至少部分所述候选用户的人脸区域的深度差异程度,直至确定出首个所述深度差异程度大于预设程度的所述候选用户,得到第三候选用户。
步骤208:从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户,具体可以包括:
判断是否存在与所述第三候选用户的所述第二人脸深度均值之差小于第八阈值的第四候选用户,得到第二判断结果。
若所述第二判断结果表示不存在所述第四候选用户,则将所述第三候选用户确定为所需获取服务的目标用户。
本说明书实施例中,计算候选用户的第二人脸深度均值与计算候选用户的第一人脸深度均值所采集的原理可以是相同,对此不作赘述。
本说明书实施例中,第三候选用户其实是按照第二人脸深度均值从小到大的顺序的各个候选用户中的,首个人脸区域的深度差异程度大于预设程度的候选用户,即首个活体人脸所属的候选用户。此时,若第二判断结果表示不存与第三候选用户的第二人脸深度均值之差小于第八阈值的第四候选用户,则可以表示不具有与第三候选用户距离较近的其他用户,从而可以直接将第三候选用户确定为所需获取服务的目标用户。
而若具有第四候选用户,则还需要从第四候选用户与第三候选用户中进一步去确定出目标用户。基于此,图2中的方法,还可以包括:
若所述第二判断结果表示存在所述第四候选用户,则从所述第三候选用户及所述第四候选用户中,确定出目标候选用户集合;所述目标候选用户集合中包括:所述第三候选用户,以及,所述人脸区域的深度差异程度大于预设程度的所述第四候选用户。
若所述目标候选用户集合中的所述候选用户的数量等于一,则将所述第三候选用户,确定为所需获取服务的目标用户。
若所述目标候选用户集合中的所述候选用户的数量大于一,则确定所述目标候选用户集合中的各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
将所述距离的最小值对应的所述候选用户,确定为所需获取服务的目标用户。
本说明书实施例中,当存在与第三候选用户相距较近的第四候选用户时,还需要确定出所述人脸区域的深度差异程度大于预设程度的所述第四候选用户,得到人脸图像属于活体人脸的第四候选用户。进而从人脸图像属于活体人脸的第四候选用户与第三候选用户中,将人脸区域与二维图像的成像中心位置之间的距离最小的候选用户确定为目标用户。当然,也可以在筛选出的所述距离最小的候选用户的第二人脸深度均值小于指定值(即所需获取服务的用户与图像采集装置之间被允许的最大距离)之后再确定为目标用户。对此不作赘述。
由于在部分情况下,也可能存在无法采集到目标区域处的深度图像的情况。此时,可以优先将人脸面积较大的用户,确定为所需获取服务的目标用户。
基于此,步骤208:从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户之前,还可以包括:
判断是否未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,得到第三判断结果。
若所述第三判断结果表示未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,则根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的面积。
根据所述候选用户的人脸区域的面积,从所述候选用户中,确定所需获取服务的目标用户。
由于在实际应用中,用户人脸越靠近二维图像的成像中心位置,则用户属于所需获取服务的目标用户的可能性也会更高,基于此,图2中的方法,还可以包括:
若所述第三判断结果表示未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,则确定各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
对应的,所述根据所述候选用户的人脸区域的面积,从所述候选用户中,确定所需获取服务的目标用户,具体可以包括:
根据所述候选用户的人脸区域的面积,以及,所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离,从所述候选用户中,确定所需获取服务的目标用户。
为便于理解,在此还给出了计算候选用户的人脸区域与所述二维图像的成像中心位置之间的距离的多种实现方式。
实现方式一,可以计算候选用户的人脸区域的中心点位置与二维图像的图像中心点之间的直线距离,作为候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
基于此,所述确定所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离,具体可以包括:
根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的中心点位置。
计算所述候选用户的人脸区域的中心点位置与所述二维图像的图像中心点之间的第一距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
本说明书实施例中,由于二维图像通常为矩形,因此,二维图像的图像中心点可以为二维图像的纵向中心线与二维图像的横向中心线之间的交点。参考图3,其中示出了二维图像的纵向中心线310与二维图像的横向中心线309,两者的交点3311即为二维图像的图像中心点。
实现方式二,也可以将候选用户的人脸区域的中心点位置与二维图像的纵向中心线之间的第二距离,或者,与二维图像的横向中心线之间的第二距离,直接作为候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。再或者,也可以按照预设权重,计算第二距离以及第三距离的加权和,作为候选用户的人脸区域与所述二维图像的成像中心位置之间的距离,灵活性好。
基于此,所述确定所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离,具体可以包括:
根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的中心点位置。
计算所述候选用户的人脸区域的中心点位置与所述二维图像的纵向中心线之间的第二距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。或者,
确定所述候选用户的人脸区域的中心点位置与所述二维图像的横向中心线之间的第三距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。或者,
确定所述第二距离以及所述第三距离的加权和,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
图4为本说明书实施例提供的对应于图2中的目标用户检测方法的泳道流程示意图。如图4所示,该目标用户检测流程可以涉及图像采集装置与目标用户检测设备等执行主体。
在图像采集阶段,可以利用图像采集装置针对目标区域进行图像采集,以得到目标区域处的采集时刻一致的二维图像与深度图像,并将该目标区域处的采集时刻一致的二维图像与深度图像发送至目标用户检测设备。
在目标用户检测阶段,目标用户检测设备可以针对二维图像进行人脸检测,得到待选用户的人脸位置信息。基于待选用户的人脸位置信息,若确定待选用户的人脸图像位于基于图像采集装置的视场角确定出的图像有效采集区域内,则将待选用户的人脸位置信息确定为候选用户的人脸位置信息,否则,禁止将待选用户的人脸位置信息确定为候选用户的人脸位置信息。
目标用户检测设备还可以基于二维图像与深度图像之间的映射关系,以及候选用户的人脸位置信息,确定出候选用户的人脸区域与人脸扩展区域中的至少一种处的各个像素点对应的深度值。从而便于根据候选用户的人脸区域/人脸扩展区域内的各个像素点对应的深度值,确定候选用户的人脸区域/人脸扩展区域处的深度值方差或者深度值标准差,得到候选用户的人脸的深度差异程度。
针对深度差异程度大于预设程度的候选用户,可以基于这些候选用户的人脸区域内的各个像素点对应的深度值,计算得到这些深度差异程度大于预设程度的候选用户的人脸深度均值。从而能够从深度差异程度大于预设程度的候选用户中,确定出人脸深度均值的最小值对应的第一候选用户,以及,与第一候选用户的人脸深度均值之差小于阈值的第二候选用户,得到目标候选用户集合。
若目标候选用户集合中的候选用户的数量等于一,则可以直接将第一候选用户,确定为所需获取服务的目标用户。而若目标候选用户集合中的候选用户的数量大于一,则需要确定目标候选用户集合中的各个候选用户的人脸区域与二维图像的成像中心位置之间的距离,以将目标候选用户集合中,人脸区域与二维图像的成像中心位置之间的距离的最小值对应的候选用户,确定为所需获取服务的目标用户。
基于同样的思路,本说明书实施例还提供了上述方法对应的装置。图5为本说明书实施例提供的对应于图2的一种目标用户检测装置的结构示意图。如图5所示,该装置可以包括:
获取模块502,用于获取针对目标区域采集的二维图像及深度图像;所述二维图像与所述深度图像的采集时刻一致。
人脸检测模块504,用于针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息。
第一确定模块506,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度。
第二确定模块508,用于从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户。
基于图5的装置,本说明书实施例还提供了该装置的一些具体实施方案,下面进行说明。
可选的,所述人脸检测模块504,可以包括:
第一人脸检测单元,用于针对所述二维图像中的预设区域进行人脸检测,得到候选用户的人脸位置信息;其中,所述预设区域是基于所述二维图像的图像采集装置的视场角确定出的图像有效采集区域。或者,
第二人脸检测单元,用于针对所述二维图像进行人脸检测,得到待选用户的人脸位置信息。
第一判断单元,用于基于所述待选用户的人脸位置信息,判断所述待选用户的人脸图像是否位于所述预设区域内,得到第一判断结果。
候选用户确定单元,用于若所述第一判断结果表示所述待选用户的人脸图像位于所述预设区域内,则将所述待选用户的人脸位置信息,确定为候选用户的人脸位置信息。
可选的,所述第一确定模块506,可以包括:
第一深度值确定单元,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域内的各个像素点对应的深度值。
第一指标值确定单元,用于根据所述候选用户的人脸区域内的各个像素点对应的深度值,确定所述候选用户的人脸区域处的第一深度差异指标值;所述第一深度差异指标值包括:深度值方差或者深度值标准差。
对应的,所述第二确定模块508,可以包括:
目标用户确定单元,用于从所述第一深度差异指标值大于第五阈值的所述候选用户中,确定所需获取服务的目标用户。
可选的,所述第一确定模块506,还可以包括:
第二深度值确定单元,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸扩展区域内的各个像素点对应的深度值;其中,所述人脸扩展区域内包含所述人脸区域,且所述人脸扩展区域与所述人脸区域的面积比值大于一。
第二指标值确定单元,用于根据所述候选用户的人脸扩展区域内的各个像素点对应的深度值,确定所述候选用户的人脸扩展区域处的第二深度差异指标值;所述第二深度差异指标值包括:深度值方差或者深度值标准差。
所述目标用户确定单元,具体可以用于:从所述第一深度差异指标值大于第五阈值且所述第二深度差异指标值大于第六阈值的所述候选用户中,确定所需获取服务的目标用户。
可选的,所述第二确定模块508,可以包括:
第一均值确定单元,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述深度差异程度大于预设程度的所述候选用户的第一人脸深度均值。
第一用户集合确定单元,用于基于所述第一人脸深度均值,从所述深度差异程度大于预设程度的所述候选用户中,确定出目标候选用户集合;所述目标候选用户集合中包括:所述第一人脸深度均值的最小值对应的第一候选用户,以及,与所述第一候选用户的所述第一人脸深度均值之差小于第七阈值的第二候选用户。
第一用户确定单元,用于若所述目标候选用户集合中的所述候选用户的数量等于一,则将所述第一候选用户,确定为所需获取服务的目标用户。
距离确定单元,用于若所述目标候选用户集合中的所述候选用户的数量大于一,则确定所述目标候选用户集合中的各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
第二用户确定单元,用于将所述距离的最小值对应的所述候选用户,确定为所需获取服务的目标用户。
可选的,所述第一确定模块506,可以包括:
第二均值确定单元,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的第二人脸深度均值。
计算单元,用于按照对应的所述第二人脸深度均值从小到大的顺序,计算至少部分所述候选用户的人脸区域的深度差异程度,直至确定出首个所述深度差异程度大于预设程度的所述候选用户,得到第三候选用户。
对应的,所述第二确定模块508,具体可以包括:
第二判断单元,用于判断是否存在与所述第三候选用户的所述第二人脸深度均值之差小于第八阈值的第四候选用户,得到第二判断结果。
第三用户确定单元,用于若所述第二判断结果表示不存在所述第四候选用户,则将所述第三候选用户确定为所需获取服务的目标用户。
可选的,所述第二确定模块508,还可以包括:
第二用户集合确定单元,用于若所述第二判断结果表示存在所述第四候选用户,则从所述第三候选用户及所述第四候选用户中,确定出目标候选用户集合;所述目标候选用户集合中包括:所述第三候选用户,以及,所述人脸区域的深度差异程度大于预设程度的所述第四候选用户。
第四用户确定单元,用于若所述目标候选用户集合中的所述候选用户的数量等于一,则将所述第三候选用户,确定为所需获取服务的目标用户。
距离确定单元,用于若所述目标候选用户集合中的所述候选用户的数量大于一,则确定所述目标候选用户集合中的各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
第五用户确定单元,用于将所述距离的最小值对应的所述候选用户,确定为所需获取服务的目标用户。
图5中的装置,还可以包括:第三确定模块;所述第三确定模块,具体可以包括:
第三判断单元,用于判断是否未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,得到第三判断结果。
面积确定单元,用于若所述第三判断结果表示未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,则根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的面积。
目标用户筛选单元,用于根据所述候选用户的人脸区域的面积,从所述候选用户中,确定所需获取服务的目标用户。
可选的,所述第三确定模块,还可以包括:
距离确定单元,用于若所述第三判断结果表示未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,则确定各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
所述目标用户筛选单元,具体可以用于:
根据所述候选用户的人脸区域的面积,以及,所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离,从所述候选用户中,确定所需获取服务的目标用户。
可选的,所述距离确定单元,具体可以用于:
根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的中心点位置。
计算所述候选用户的人脸区域的中心点位置与所述二维图像的图像中心点之间的第一距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
可选的,所述距离确定单元,具体可以用于:
根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的中心点位置。
计算所述候选用户的人脸区域的中心点位置与所述二维图像的纵向中心线之间的第二距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;或者,
确定所述候选用户的人脸区域的中心点位置与所述二维图像的横向中心线之间的第三距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;或者,
确定所述第二距离以及所述第三距离的加权和,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
基于同样的思路,本说明书实施例还提供了上述方法对应的设备。
图6为本说明书实施例提供的对应于图2的一种目标用户检测设备的结构示意图。如图6所示,设备600可以包括:
至少一个处理器610;以及,
与所述至少一个处理器通信连接的存储器630;其中,
所述存储器630存储有可被所述至少一个处理器610执行的指令620,所述指令被所述至少一个处理器610执行,以使所述至少一个处理器610能够:
获取针对目标区域采集的二维图像及深度图像;所述二维图像与所述深度图像的采集时刻一致。
针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息。
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度。
从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户。
本说明书中的各个实施例均采用递进的方式描述,各个实施例之间相同相似的部分互相参见即可,每个实施例重点说明的都是与其他实施例的不同之处。尤其,对于图6所示的设备而言,由于其基本相似于方法实施例,所以描述的比较简单,相关之处参见方法实施例的部分说明即可。
在20世纪90年代,对于一个技术的改进可以很明显地区分是硬件上的改进(例如,对二极管、晶体管、开关等电路结构的改进)还是软件上的改进(对于方法流程的改进)。然而,随着技术的发展,当今的很多方法流程的改进已经可以视为硬件电路结构的直接改进。设计人员几乎都通过将改进的方法流程编程到硬件电路中来得到相应的硬件电路结构。因此,不能说一个方法流程的改进就不能用硬件实体模块来实现。例如,可编程逻辑器件(Programmable Logic Device,PLD)(例如现场可编程门阵列(FieldProgrammable GateArray,FPGA))就是这样一种集成电路,其逻辑功能由用户对器件编程来确定。由设计人员自行编程来把一个数字系统“集成”在一片PLD上,而不需要请芯片制造厂商来设计和制作专用的集成电路芯片。而且,如今,取代手工地制作集成电路芯片,这种编程也多半改用“逻辑编译器(logic compiler)”软件来实现,它与程序开发撰写时所用的软件编译器相类似,而要编译之前的原始代码也得用特定的编程语言来撰写,此称之为硬件描述语言(Hardware Description Language,HDL),而HDL也并非仅有一种,而是有许多种,如ABEL(AdvancedBoolean Expression Language)、AHDL(Altera Hardware DescriptionLanguage)、Confluence、CUPL(Cornell University Programming Language)、HDCal、JHDL(JavaHardware Description Language)、Lava、Lola、MyHDL、PALASM、RHDL(Ruby HardwareDescription Language)等,目前最普遍使用的是VHDL(Very-High-Speed IntegratedCircuit Hardware Description Language)与Verilog。本领域技术人员也应该清楚,只需要将方法流程用上述几种硬件描述语言稍作逻辑编程并编程到集成电路中,就可以很容易得到实现该逻辑方法流程的硬件电路。
控制器可以按任何适当的方式实现,例如,控制器可以采取例如微处理器或处理器以及存储可由该(微)处理器执行的计算机可读程序代码(例如软件或固件)的计算机可读介质、逻辑门、开关、专用集成电路(Application Specific Integrated Circuit,ASIC)、可编程逻辑控制器和嵌入微控制器的形式,控制器的例子包括但不限于以下微控制器:ARC 625D、Atmel AT91SAM、Microchip PIC18F26K20以及Silicone Labs C8051F320,存储器控制器还可以被实现为存储器的控制逻辑的一部分。本领域技术人员也知道,除了以纯计算机可读程序代码方式实现控制器以外,完全可以通过将方法步骤进行逻辑编程来使得控制器以逻辑门、开关、专用集成电路、可编程逻辑控制器和嵌入微控制器等的形式来实现相同功能。因此这种控制器可以被认为是一种硬件部件,而对其内包括的用于实现各种功能的装置也可以视为硬件部件内的结构。或者甚至,可以将用于实现各种功能的装置视为既可以是实现方法的软件模块又可以是硬件部件内的结构。
上述实施例阐明的系统、装置、模块或单元,具体可以由计算机芯片或实体实现,或者由具有某种功能的产品来实现。一种典型的实现设备为计算机。具体的,计算机例如可以为个人计算机、膝上型计算机、蜂窝电话、相机电话、智能电话、个人数字助理、媒体播放器、导航设备、电子邮件设备、游戏控制台、平板计算机、可穿戴设备或者这些设备中的任何设备的组合。
为了描述的方便,描述以上装置时以功能分为各种单元分别描述。当然,在实施本申请时可以把各单元的功能在同一个或多个软件和/或硬件中实现。
本领域内的技术人员应明白,本发明的实施例可提供为方法、系统、或计算机程序产品。因此,本发明可采用完全硬件实施例、完全软件实施例、或结合软件和硬件方面的实施例的形式。而且,本发明可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本发明是参照根据本发明实施例的方法、设备(系统)、和计算机程序产品的流程图和/或方框图来描述的。应理解可由计算机程序指令实现流程图和/或方框图中的每一流程和/或方框、以及流程图和/或方框图中的流程和/或方框的结合。可提供这些计算机程序指令到通用计算机、专用计算机、嵌入式处理机或其他可编程数据处理设备的处理器以产生一个机器,使得通过计算机或其他可编程数据处理设备的处理器执行的指令产生用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的装置。
这些计算机程序指令也可存储在能引导计算机或其他可编程数据处理设备以特定方式工作的计算机可读存储器中,使得存储在该计算机可读存储器中的指令产生包括指令装置的制造品,该指令装置实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能。
这些计算机程序指令也可装载到计算机或其他可编程数据处理设备上,使得在计算机或其他可编程设备上执行一系列操作步骤以产生计算机实现的处理,从而在计算机或其他可编程设备上执行的指令提供用于实现在流程图一个流程或多个流程和/或方框图一个方框或多个方框中指定的功能的步骤。
在一个典型的配置中,计算设备包括一个或多个处理器(CPU)、输入/输出接口、网络接口和内存。
内存可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。内存是计算机可读介质的示例。
计算机可读介质包括永久性和非永久性、可移动和非可移动媒体可以由任何方法或技术来实现信息存储。信息可以是计算机可读指令、数据结构、程序的模块或其他数据。计算机的存储介质的例子包括,但不限于相变内存(PRAM)、静态随机存取存储器(SRAM)、动态随机存取存储器(DRAM)、其他类型的随机存取存储器(RAM)、只读存储器(ROM)、电可擦除可编程只读存储器(EEPROM)、快闪记忆体或其他内存技术、只读光盘只读存储器(CD-ROM)、数字多功能光盘(DVD)或其他光学存储、磁盒式磁带,磁带磁盘存储或其他磁性存储设备或任何其他非传输介质,可用于存储可以被计算设备访问的信息。按照本文中的界定,计算机可读介质不包括暂存电脑可读媒体(transitory media),如调制的数据信号和载波。
还需要说明的是,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、商品或者设备不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、商品或者设备所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括所述要素的过程、方法、商品或者设备中还存在另外的相同要素。
本领域技术人员应明白,本申请的实施例可提供为方法、系统或计算机程序产品。因此,本申请可采用完全硬件实施例、完全软件实施例或结合软件和硬件方面的实施例的形式。而且,本申请可采用在一个或多个其中包含有计算机可用程序代码的计算机可用存储介质(包括但不限于磁盘存储器、CD-ROM、光学存储器等)上实施的计算机程序产品的形式。
本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
以上所述仅为本申请的实施例而已,并不用于限制本申请。对于本领域技术人员来说,本申请可以有各种更改和变化。凡在本申请的精神和原理之内所作的任何修改、等同替换、改进等,均应包含在本申请的权利要求范围之内。
Claims (24)
1.一种目标用户检测方法,包括:
获取针对目标区域采集的二维图像及深度图像;所述二维图像与所述深度图像的采集时刻一致;
针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息;
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度;
从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户。
2.如权利要求1所述的方法,所述针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息,具体包括:
针对所述二维图像中的预设区域进行人脸检测,得到候选用户的人脸位置信息;其中,所述预设区域是基于所述二维图像的图像采集装置的视场角确定出的图像有效采集区域;或者,
针对所述二维图像进行人脸检测,得到待选用户的人脸位置信息;
基于所述待选用户的人脸位置信息,判断所述待选用户的人脸图像是否位于所述预设区域内,得到第一判断结果;
若所述第一判断结果表示所述待选用户的人脸图像位于所述预设区域内,则将所述待选用户的人脸位置信息,确定为候选用户的人脸位置信息。
3.如权利要求2所述的方法,所述预设区域具体为与所述二维图像的左侧边的距离大于第一阈值,与所述二维图像的右侧边的距离大于第二阈值,与所述二维图像的顶边的距离大于第三阈值,且与所述二维图像的底边的距离大于第四阈值的区域;
其中,所述第一阈值与所述第二阈值之和小于所述二维图像的长度,所述第三阈值与所述第四阈值之和小于所述二维图像的宽度。
4.如权利要求1所述的方法,所述基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度,具体包括:
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域内的各个像素点对应的深度值;
根据所述候选用户的人脸区域内的各个像素点对应的深度值,确定所述候选用户的人脸区域处的第一深度差异指标值;所述第一深度差异指标值包括:深度值方差或者深度值标准差;
所述从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户,具体包括:
从所述第一深度差异指标值大于第五阈值的所述候选用户中,确定所需获取服务的目标用户。
5.如权利要求4所述的方法,所述从所述第一深度差异指标值大于第五阈值的所述候选用户中,确定所需获取服务的目标用户之前,还包括:
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸扩展区域内的各个像素点对应的深度值;其中,所述人脸扩展区域内包含所述人脸区域,且所述人脸扩展区域与所述人脸区域的面积比值大于一;
根据所述候选用户的人脸扩展区域内的各个像素点对应的深度值,确定所述候选用户的人脸扩展区域处的第二深度差异指标值;所述第二深度差异指标值包括:深度值方差或者深度值标准差;
所述从所述第一深度差异指标值大于第五阈值的所述候选用户中,确定所需获取服务的目标用户,具体包括:
从所述第一深度差异指标值大于第五阈值且所述第二深度差异指标值大于第六阈值的所述候选用户中,确定所需获取服务的目标用户。
6.如权利要求1所述的方法,所述从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户,具体包括:
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述深度差异程度大于预设程度的所述候选用户的第一人脸深度均值;
基于所述第一人脸深度均值,从所述深度差异程度大于预设程度的所述候选用户中,确定出目标候选用户集合;所述目标候选用户集合中包括:所述第一人脸深度均值的最小值对应的第一候选用户,以及,与所述第一候选用户的所述第一人脸深度均值之差小于第七阈值的第二候选用户;
若所述目标候选用户集合中的所述候选用户的数量等于一,则将所述第一候选用户,确定为所需获取服务的目标用户;
若所述目标候选用户集合中的所述候选用户的数量大于一,则确定所述目标候选用户集合中的各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;
将所述距离的最小值对应的所述候选用户,确定为所需获取服务的目标用户。
7.如权利要求1所述的方法,所述基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度,具体包括:
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的第二人脸深度均值;
按照对应的所述第二人脸深度均值从小到大的顺序,计算至少部分所述候选用户的人脸区域的深度差异程度,直至确定出首个所述深度差异程度大于预设程度的所述候选用户,得到第三候选用户;
所述从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户,具体包括:
判断是否存在与所述第三候选用户的所述第二人脸深度均值之差小于第八阈值的第四候选用户,得到第二判断结果;
若所述第二判断结果表示不存在所述第四候选用户,则将所述第三候选用户确定为所需获取服务的目标用户。
8.如权利要求7所述的方法,还包括:
若所述第二判断结果表示存在所述第四候选用户,则从所述第三候选用户及所述第四候选用户中,确定出目标候选用户集合;所述目标候选用户集合中包括:所述第三候选用户,以及,所述人脸区域的深度差异程度大于预设程度的所述第四候选用户;
若所述目标候选用户集合中的所述候选用户的数量等于一,则将所述第三候选用户,确定为所需获取服务的目标用户;
若所述目标候选用户集合中的所述候选用户的数量大于一,则确定所述目标候选用户集合中的各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;
将所述距离的最小值对应的所述候选用户,确定为所需获取服务的目标用户。
9.如权利要求1所述的方法,所述从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户之前,还包括:
判断是否未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,得到第三判断结果;
若所述第三判断结果表示未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,则根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的面积;
根据所述候选用户的人脸区域的面积,从所述候选用户中,确定所需获取服务的目标用户。
10.如权利要求9所述的方法,还包括:
若所述第三判断结果表示未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,则确定各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;
所述根据所述候选用户的人脸区域的面积,从所述候选用户中,确定所需获取服务的目标用户,具体包括:
根据所述候选用户的人脸区域的面积,以及,所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离,从所述候选用户中,确定所需获取服务的目标用户。
11.如权利要求6、8或者10中任意一项所述的方法,所述确定所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离,具体包括:
根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的中心点位置;
计算所述候选用户的人脸区域的中心点位置与所述二维图像的图像中心点之间的第一距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
12.如权利要求6、8或者10中任意一项所述的方法,所述确定所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离,具体包括:
根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的中心点位置;
计算所述候选用户的人脸区域的中心点位置与所述二维图像的纵向中心线之间的第二距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;或者,
确定所述候选用户的人脸区域的中心点位置与所述二维图像的横向中心线之间的第三距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;或者,
确定所述第二距离以及所述第三距离的加权和,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
13.一种目标用户检测装置,包括:
获取模块,用于获取针对目标区域采集的二维图像及深度图像;所述二维图像与所述深度图像的采集时刻一致;
人脸检测模块,用于针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息;
第一确定模块,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度;
第二确定模块,用于从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户。
14.如权利要求13所述的装置,所述人脸检测模块,包括:
第一人脸检测单元,用于针对所述二维图像中的预设区域进行人脸检测,得到候选用户的人脸位置信息;其中,所述预设区域是基于所述二维图像的图像采集装置的视场角确定出的图像有效采集区域;或者,
第二人脸检测单元,用于针对所述二维图像进行人脸检测,得到待选用户的人脸位置信息;
第一判断单元,用于基于所述待选用户的人脸位置信息,判断所述待选用户的人脸图像是否位于所述预设区域内,得到第一判断结果;
候选用户确定单元,用于若所述第一判断结果表示所述待选用户的人脸图像位于所述预设区域内,则将所述待选用户的人脸位置信息,确定为候选用户的人脸位置信息。
15.如权利要求12所述的装置,所述第一确定模块,包括:
第一深度值确定单元,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域内的各个像素点对应的深度值;
第一指标值确定单元,用于根据所述候选用户的人脸区域内的各个像素点对应的深度值,确定所述候选用户的人脸区域处的第一深度差异指标值;所述第一深度差异指标值包括:深度值方差或者深度值标准差;
所述第二确定模块,包括:
目标用户确定单元,用于从所述第一深度差异指标值大于第五阈值的所述候选用户中,确定所需获取服务的目标用户。
16.如权利要求15所述的装置,所述第一确定模块,还包括:
第二深度值确定单元,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸扩展区域内的各个像素点对应的深度值;其中,所述人脸扩展区域内包含所述人脸区域,且所述人脸扩展区域与所述人脸区域的面积比值大于一;
第二指标值确定单元,用于根据所述候选用户的人脸扩展区域内的各个像素点对应的深度值,确定所述候选用户的人脸扩展区域处的第二深度差异指标值;所述第二深度差异指标值包括:深度值方差或者深度值标准差;
所述目标用户确定单元,具体用于:
从所述第一深度差异指标值大于第五阈值且所述第二深度差异指标值大于第六阈值的所述候选用户中,确定所需获取服务的目标用户。
17.如权利要求13所述的装置,所述第二确定模块,包括:
第一均值确定单元,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述深度差异程度大于预设程度的所述候选用户的第一人脸深度均值;
第一用户集合确定单元,用于基于所述第一人脸深度均值,从所述深度差异程度大于预设程度的所述候选用户中,确定出目标候选用户集合;所述目标候选用户集合中包括:所述第一人脸深度均值的最小值对应的第一候选用户,以及,与所述第一候选用户的所述第一人脸深度均值之差小于第七阈值的第二候选用户;
第一用户确定单元,用于若所述目标候选用户集合中的所述候选用户的数量等于一,则将所述第一候选用户,确定为所需获取服务的目标用户;
距离确定单元,用于若所述目标候选用户集合中的所述候选用户的数量大于一,则确定所述目标候选用户集合中的各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;
第二用户确定单元,用于将所述距离的最小值对应的所述候选用户,确定为所需获取服务的目标用户。
18.如权利要求13所述的装置,所述第一确定模块,包括:
第二均值确定单元,用于基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的第二人脸深度均值;
计算单元,用于按照对应的所述第二人脸深度均值从小到大的顺序,计算至少部分所述候选用户的人脸区域的深度差异程度,直至确定出首个所述深度差异程度大于预设程度的所述候选用户,得到第三候选用户;
所述第二确定模块,具体包括:
第二判断单元,用于判断是否存在与所述第三候选用户的所述第二人脸深度均值之差小于第八阈值的第四候选用户,得到第二判断结果;
第三用户确定单元,用于若所述第二判断结果表示不存在所述第四候选用户,则将所述第三候选用户确定为所需获取服务的目标用户。
19.如权利要求18所述的装置,所述第二确定模块,还包括:
第二用户集合确定单元,用于若所述第二判断结果表示存在所述第四候选用户,则从所述第三候选用户及所述第四候选用户中,确定出目标候选用户集合;所述目标候选用户集合中包括:所述第三候选用户,以及,所述人脸区域的深度差异程度大于预设程度的所述第四候选用户;
第四用户确定单元,用于若所述目标候选用户集合中的所述候选用户的数量等于一,则将所述第三候选用户,确定为所需获取服务的目标用户;
距离确定单元,用于若所述目标候选用户集合中的所述候选用户的数量大于一,则确定所述目标候选用户集合中的各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;
第五用户确定单元,用于将所述距离的最小值对应的所述候选用户,确定为所需获取服务的目标用户。
20.如权利要求13所述的装置,还包括:第三确定模块;所述第三确定模块,具体包括:
第三判断单元,用于判断是否未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,得到第三判断结果;
面积确定单元,用于若所述第三判断结果表示未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,则根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的面积;
目标用户筛选单元,用于根据所述候选用户的人脸区域的面积,从所述候选用户中,确定所需获取服务的目标用户。
21.如权利要求20所述的装置,所述第三确定模块,还包括:
距离确定单元,用于若所述第三判断结果表示未采集到所述深度图像,或者,采集到的所述深度图像中各个所述候选用户的人脸区域的深度值均为零,则确定各个所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;
所述目标用户筛选单元,具体用于:
根据所述候选用户的人脸区域的面积,以及,所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离,从所述候选用户中,确定所需获取服务的目标用户。
22.如权利要求17、19或者21中任意一项所述的装置,所述距离确定单元,具体用于:
根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的中心点位置;
计算所述候选用户的人脸区域的中心点位置与所述二维图像的图像中心点之间的第一距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
23.如权利要求17、19或者21中任意一项所述的装置,所述距离确定单元,具体用于:
根据所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的中心点位置;
计算所述候选用户的人脸区域的中心点位置与所述二维图像的纵向中心线之间的第二距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;或者,
确定所述候选用户的人脸区域的中心点位置与所述二维图像的横向中心线之间的第三距离,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离;或者,
确定所述第二距离以及所述第三距离的加权和,得到所述候选用户的人脸区域与所述二维图像的成像中心位置之间的距离。
24.一种目标用户检测设备,包括:
至少一个处理器;以及,
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够:
获取针对目标区域采集的二维图像及深度图像;所述二维图像与所述深度图像的采集时刻一致;
针对所述二维图像进行人脸检测,得到候选用户的人脸位置信息;
基于所述二维图像与所述深度图像之间的映射关系,以及所述候选用户的人脸位置信息,确定所述候选用户的人脸区域的深度差异程度;
从所述人脸区域的深度差异程度大于预设程度的所述候选用户中,确定所需获取服务的目标用户。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311453922.3A CN117649703A (zh) | 2023-11-01 | 2023-11-01 | 一种目标用户检测方法、装置及设备 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311453922.3A CN117649703A (zh) | 2023-11-01 | 2023-11-01 | 一种目标用户检测方法、装置及设备 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117649703A true CN117649703A (zh) | 2024-03-05 |
Family
ID=90046871
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311453922.3A Pending CN117649703A (zh) | 2023-11-01 | 2023-11-01 | 一种目标用户检测方法、装置及设备 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117649703A (zh) |
-
2023
- 2023-11-01 CN CN202311453922.3A patent/CN117649703A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9754160B2 (en) | Method and device for detecting gathering of objects based on stereo vision as well as non-transitory computer-readable medium | |
CN111311709B (zh) | 一种生成高精地图的方法及装置 | |
CN110675407B (zh) | 一种图像实例分割方法、装置、电子设备及存储介质 | |
CN113887608B (zh) | 一种模型训练的方法、图像检测的方法及装置 | |
CN106295640A (zh) | 一种智能终端的物体识别方法和装置 | |
CN112508989A (zh) | 一种图像处理方法、装置、服务器以及介质 | |
CN114440903A (zh) | 一种高精地图构建方法、装置、存储介质及电子设备 | |
CN116051736A (zh) | 一种三维重建方法、装置、边缘设备和存储介质 | |
CN115600157A (zh) | 一种数据处理的方法、装置、存储介质及电子设备 | |
CN110008802B (zh) | 从多个脸部中选择目标脸部及脸部识别比对方法、装置 | |
CN117197781B (zh) | 一种交通标志识别的方法、装置、存储介质及电子设备 | |
CN111967365B (zh) | 影像连接点的提取方法和装置 | |
CN112818968A (zh) | 一种目标物分类方法及装置 | |
CN116543258A (zh) | 一种目标检测方法、装置及相关设备 | |
CN117649703A (zh) | 一种目标用户检测方法、装置及设备 | |
CN112184901B (zh) | 一种深度图确定方法及装置 | |
CN114511911A (zh) | 一种人脸识别方法、装置以及设备 | |
CN111104908A (zh) | 一种道路边沿确定方法及装置 | |
CN116740197B (zh) | 一种外参的标定方法、装置、存储介质及电子设备 | |
CN113640823B (zh) | 一种基于激光反射率底图进行地图绘制的方法及装置 | |
CN110503109B (zh) | 图像特征提取方法和装置、图像处理方法和装置 | |
CN116363390B (zh) | 一种红外弱小目标检测方法、装置、存储介质及电子设备 | |
CN116188919B (zh) | 一种测试方法、装置、可读存储介质及电子设备 | |
CN116740114B (zh) | 一种基于凸包检测的目标物边界拟合方法及装置 | |
CN115359460B (zh) | 用于车辆的图像识别方法、装置、车辆和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |