CN108885692A - 在面部识别过程中识别面部并且提供反馈 - Google Patents
在面部识别过程中识别面部并且提供反馈 Download PDFInfo
- Publication number
- CN108885692A CN108885692A CN201780020591.0A CN201780020591A CN108885692A CN 108885692 A CN108885692 A CN 108885692A CN 201780020591 A CN201780020591 A CN 201780020591A CN 108885692 A CN108885692 A CN 108885692A
- Authority
- CN
- China
- Prior art keywords
- face
- user
- instruction
- feature
- rendering
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims description 41
- 230000001815 facial effect Effects 0.000 claims description 95
- 238000009877 rendering Methods 0.000 claims description 41
- 238000003860 storage Methods 0.000 description 22
- 238000005516 engineering process Methods 0.000 description 21
- 230000006870 function Effects 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 238000012545 processing Methods 0.000 description 6
- 230000005540 biological transmission Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 230000004044 response Effects 0.000 description 3
- 239000004065 semiconductor Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000000712 assembly Effects 0.000 description 2
- 238000000429 assembly Methods 0.000 description 2
- 238000013475 authorization Methods 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000010438 heat treatment Methods 0.000 description 2
- 230000014759 maintenance of location Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 238000005057 refrigeration Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 210000004204 blood vessel Anatomy 0.000 description 1
- 239000011449 brick Substances 0.000 description 1
- 239000003990 capacitor Substances 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 210000003127 knee Anatomy 0.000 description 1
- 230000002045 lasting effect Effects 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 239000004570 mortar (masonry) Substances 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 231100000241 scar Toxicity 0.000 description 1
- 229910052710 silicon Inorganic materials 0.000 description 1
- 239000010703 silicon Substances 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/60—Static or dynamic means for assisting the user to position a body part for biometric acquisition
- G06V40/67—Static or dynamic means for assisting the user to position a body part for biometric acquisition by interactive indications to the user
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- General Health & Medical Sciences (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
- User Interface Of Digital Computer (AREA)
- Image Processing (AREA)
Abstract
捕获包括用户的面部的一个或多个图像,并且将这些图像中的至少一个显示给所述用户。面部识别算法使用这些图像来辨识或识别图像中的面部。面部识别算法识别面部的各种特征,并且在执行面部识别算法时显示这些特征中的至少一个的指示。特征的这些指示可以是例如在所捕获的图像上显示的点。额外地,对面部识别算法的进展的指示被显示在用户的面部附近。对面部识别算法的进展的该指示可以是例如用户的面部的至少一部分位于其中的正方形或其他几何形状。
Description
背景技术
随着计算技术已经得到了发展,计算机已经变得越来越司空见惯。由于大量数据能够被存储在计算机上,以及计算机提供对各种资源或功能的访问,因此用户常常期望保护他们的计算机以使其不能被他人使用。
发明内容
提供了该发明内容以用简化的形式引入了在以下的具体实施方式中进一步描述的概念的选择。该发明内容不旨在标识要求保护的主题的关键特征或本质特征,也不旨在用于限制要求保护的主题的范围。
根据一个或多个方面,获得面部的图像并且开始对面部的特征进行识别的面部识别算法。结合对面部的特征进行识别,对所述特征的指示被显示在对面部的渲染上。对面部识别算法的进展的指示被显示在对面部的渲染附近。
附图说明
参考附图描述了具体实施方式。在图中,附图标记的最左边的数字标识了该附图标记第一次出现所在的图。在描述以及图中的不同实例中使用的相同附图标记可以指代相似或相同的项。在图中表示的实体可以指示一个或多个实体,并且因此可以在讨论中对实体的单数或复数形式可互换地进行引用。
图1示出了根据一个或多个实现的、实现了在面部识别过程中识别面部并且提供反馈的示例系统。
图2、3、4、5、6、7、8、和9示出了根据一个或多个实现的、由显示模块对用户的面部的显示的示例。
图10是示出了根据一个或多个实施例的用于在面部识别过程中识别面部并且提供反馈的示例过程的流程图。
图11一般性地示出了示例系统,该示例系统包括代表可以实现在本文中描述的各种技术的一个或多个系统和/或设备的示例计算设备。
具体实施方式
在本文中描述了用于在面部识别过程中识别面部以及提供反馈的技术。用户可以使得他或她的面部被计算设备或系统识别和使用。所述设备或系统可以将所识别的面部用作例如用于执行特定任务(例如,登录到设备或系统中、针对账单或其他交易的支付)的认证或授权、用户的记录等。
捕获包括用户的面部的一个或多个图像,并且可以由多个相机或者可替代地由同一相机来捕获所述一个或多个图像。将所捕获的这些图像中的至少一个图像显示给用户。所捕获的一个或多个图像可以例如是视频的帧。这些图像由面部识别算法用来辨识或识别图像中的面部。相比被显示给用户的图像,由面部识别算法所使用的图像可以是由不同的相机所捕获的,或者可替代地,由相机所捕获并且被显示给用户的图像也能够由面部识别算法来使用。
面部识别算法识别面部的各种特征,并且在执行所述面部识别算法的同时显示对那些特征中的至少一个特征的指示。这些对特征的指示可以例如是在所捕获的图像上显示的点。额外地,对面部识别算法的进展的指示被显示在用户的面部附近。对面部识别算法的进展的该指示可以是例如用户的面部的至少一部分位于其中的方形或其他几何形状的绘制、用户的面部的至少一部分位于其中的边界框或其他几何形状的填充等。
在本文中所讨论的技术关于面部识别算法的进展以及由面部识别算法使用的用户的面部的特征来向用户提供反馈。这向用户提供了以下有价值的反馈:面部识别算法正在操作,使得用户保持适当地定位且降低用于识别用户的面部所花费的时间,并且因此降低了能量使用且改进了计算设备的电池寿命。
图1示出了根据一个或多个实现的、实现了在面部识别过程中识别面部并且提供反馈的示例系统100。系统100包括面部识别系统102,其包括图像捕获设备104、面部识别模块106、以及显示模块108。面部识别系统102可以被实现为单个计算设备或者跨多个计算设备被实现。可以使用多种不同类型的设备来实现相机面部识别系统102,例如台式计算机、服务器计算机、膝上型或笔记本计算机、移动设备(例如,平板或平板手机设备、蜂窝或其他无线电话(例如,智能电话)、记事本计算机、移动站)、可穿戴设备(例如,眼镜、手表、手环、头戴显示器)、娱乐设备(例如,娱乐家电、可通信地耦合至显示设备的机顶盒、游戏控制器)、电视机或其他显示设备、汽车计算机、物联网(IoT)设备等。
图像捕获设备104可以是在可见光谱、红外(IR)谱等中捕获图像的多种不同类型的图像捕获设备中的任何一种。例如,图像捕获设备104可以是IR相机、RGB(红绿蓝)相机等。在一个或多个实施例中,图像捕获设备104包括IR相机和RGB相机两者。额外地或替代地,面部识别系统102可以包括多个图像捕获设备104,其中至少一个包括IR相机而其中至少另一个包括RGB相机。图像捕获设备104可以是单传感器相机或立体相机,并且可以使用各种数字成像技术(例如,电荷耦合器件(CCD)、互补金属氧化物半导体(CMOS)传感器等)。图像捕获设备104还可选地包括各种软件和/或固件(或者与其相关联以用于在不同的设备上运行)。
在一个或多个实现中,图像捕获设备104和用户面部识别模块106和显示模块108被实现为同一设备的部分,例如移动设备的部分。可替代地,图像捕获设备104以及用户面部识别模块106和显示模块108中的一个或两者被实现为分别的设备。例如,图像捕获设备104可以被实现为可穿戴设备的部分,而面部识别模块106和显示模块108可以被实现为移动设备的部分;图像捕获设备104可以被实现为独立的相机,而面部识别模块106和显示模块108可以被实现为台式设备的部分;图像捕获设备可以被实现为独立的相机,而面部识别模块106可以被实现为移动或可穿戴设备,且显示模块108可以被实现为分别的监视器或屏幕等。当被实现为分别的设备时,实现图像捕获设备104、面部识别模块106、和/或显示模块108的设备可以经由有线或无线连接来与彼此通信,所述有线或无线连接例如是USB(通用串行总线)连接、无线USB连接、红外连接、蓝牙连接、DisplayPort(显示端口)连接、快速PCI(外围组件互连)连接等。图像捕获设备104、面部识别模块106、和/或显示模块108可以可替代地或者额外地经由诸如个域网之类的数据网络而连接至彼此。
在一个或多个实施例中,面部识别系统102是认证模块110的部分或者与其进行通信。这样的认证模块110可以用于限制对特定设备、资源、位置等的访问。例如,面部识别系统102可以与认证模块110一起使用,认证模块110限制哪些用户能够访问(例如,登录或解锁)特定的设备、哪些用户能够访问(例如,进入)特定的建筑、哪些用户可以访问(例如,登录)特定的网络、哪些用户可以访问特定设备的功能(例如,加热和制冷系统)等。这样的认证模块110还可以限制对特定服务的访问,例如远程服务(例如,经由互联网访问的网站)、本地支付终端(例如,在实体店授权来自电子钱包或其他支付源的支付)。例如,使用计算设备的孩子可以向父母发送要购买应用或其他项目的请求,并且认证模块110在获得父母对购买的批准时对父母进行认证。作为另一示例,孩子可以将他或她的计算设备递交给父母,并且该计算设备上的认证模块110在获得父母对购买的批准时对父母进行认证。
图像捕获设备104捕获多个图像,每个包括用户112的面部的至少一部分。在一个或多个实施例中,这些多个图像是视频的帧(例如,以每秒30帧捕获的)。所述图像包括用户的面部的各种特征。用户的面部的特征是指能够用于将用户彼此区分的用户的面部的特性。例如,特征可以是眼睛的至少一部分的位置或大小、鼻子的至少一部分的位置或大小、血管的至少一部分的位置或图案、皮肤上的疤(或其他印记)的至少一部分的位置或大小、各种面部特征的测量(例如,面部特征之间的距离)等。可以由认证模块110分析用户的各种不同特征以对用户112进行认证,例如用户的面部的特征、用户的眼睛的特征、用户的虹膜的特征等。
面部识别模块106使用由图像捕获设备104捕获的一个或多个图像来识别用户112的面部。识别用户112的面部是指例如基于用户的面部的特征来生成使得该用户的面部与其他人(例如,其他用户)的面部相区别的各种数据。在一个或多个实施例中,面部识别模块106使用用户112的面部的单个图像,而可替代地,面部识别模块106使用用户112的面部的多个图像。面部识别模块106实现多种不同的公共和/或专用面部识别算法中的任何一个以识别用户112的面部,如在由图像捕获设备104捕获的图像中所指示的。例如,可以使用的面部识别算法可以是线性判别分析算法、隐藏Markov模型算法等。
在一个或多个实施例中,面部识别模块102将用户112的面部数据114存储在数据存储设备116中。用户的面部数据114包括这样的数据,该数据与用户的面部的特征和/或由面部识别模块106在识别用户112的面部时使用的其他设置或标准相关,并且可以随后被访问且与随后的用户(其可以或可以不与其面部数据114被存储的用户是同一用户)的检测到的特征进行比较以确定该随后的用户是否是由面部数据114所识别的用户。可替代地,认证模块110基于由面部识别模块106识别的面部以及面部数据114来确定是否对该用户进行认证,而不是将面部数据114存储在数据存储设备116中。
显示模块108显示用户112的面部(也在本文中被讨论或称为显示模块108渲染用户112的面部)。对用户112的面部的显示可以例如是由图像捕获设备104所捕获的图像中的至少一个。在一个或多个实施例中,显示模块108以图像被图像捕获设备104所捕获的相同的格式来显示所述图像(例如,RGB捕获的图像被显示模块108显示为RGB图像)。显示模块108可以显示由图像捕获设备104所捕获的单个图像(例如,由面部识别模块106所使用的单个图像),或者可替代地,显示模块108可以显示多个图像。例如,图像捕获设备104可以捕获用户112的视频(例如,每秒30个图像或帧),并且显示模块108可以显示所捕获的视频。无论显示模块108显示了多少个图像,面部识别模块106可以分析所捕获的视频的帧中的多个帧或者可替代地分析所捕获的视频的单个帧,以识别用户112的面部。因此,例如,显示模块108可以显示用户112的视频,即使该视频的仅单个帧或图像由面部识别模块106使用以识别用户112的面部。
在一个或多个实施例中,图像捕获设备104包括两种不同类型的相机(例如,IR相机和RGB相机)。由IR相机所捕获的一个或多个图像被提供至面部识别模块106,面部识别模块106使用IR图像来识别用户的面部。然而,由RGB相机所捕获的一个或多个图像被提供至显示模块108以用于向用户显示(例如,用于渲染用户的面部)。
显示模块108还显示对由面部识别模块106所使用的用户112的面部的特征的指示。可以由显示模块108以不同的方式例如从面部识别模块106获得对由面部识别模块106所使用的面部的特征的位置的指示。针对不同的用户由面部识别模块106所使用的特征可以是相同的,或者针对不同的用户可以使用不同的特征(或特征的组合)。在一个或多个实施例中,由显示模块108所显示的指示是点(例如,覆盖所述特征的小正方形、圆形、或者其他几何形状)。例如,显示模块108可以通过以下方式来在对用户112的面部的渲染上显示对特征的指示:在对面部的渲染上将一个或多个点显示在用户的面部的眼睛、用户的面部的鼻子、用户的面部的嘴等中的至少一个的旁边(例如,在阈值距离内)。
额外地或可替代地,由显示模块108所显示的对特征的指示可以采取其他形式,例如特征的亮度或颜色的改变(例如,增加在屏幕或显示设备上显示用户112的面部的特征的位置的亮度)、特征的轮廓(例如,大体上或者至少部分地围绕所述特征来显示线条或几何形状)等。
额外地或可替代地,由显示模块108所显示的对特征的指示可以是如由显示模块108所显示的大体上覆盖用户的面部的图形。大体上覆盖用户的面部的图形包括覆盖用户的面部的至少阈值百分比(例如,75%或80%)的图形。所述图形可以是正方形、矩形、椭圆、圆形、或者其他几何形状。所述图形可以具有多条内部线条,也被称为网格。在一个或多个实施例中,在面部识别模块106执行面部识别的开始时,由显示模块108所显示的对特征的指示是大体上覆盖用户的面部的图形。由于用户的面部的个体特征被面部识别模块106所识别,因此显示模块停止显示该图形并且开始在用户的面部的个体特征旁边(和/或覆盖所述个体特征)显示点。从显示图形到显示点的转换可以是突然的或者平滑的转换(例如,图形可以淡出和/或点可以淡入)。因此,尽管显示了用户的面部,但是显示模块108从显示图形转换为在用户的面部的个体特征旁边(和/或覆盖所述个体特征)显示点。
在一个或多个实施例中,在面部识别模块106从第一类型的相机(例如,IR相机)所捕获的一个或多个图像中识别用户的面部,并且显示模块108显示由第二类型的相机(例如,RGB相机)所捕获的一个或多个图像的情况下,由面部识别系统102(例如,由面部识别模块106和/或显示模块108)进行从第一类型的相机到第二类型的相机的转换。因为在该情况下使用了两种不同类型的相机,因此所捕获的图像是关于稍微不同的区域的(例如,由于相机被指向有几度不同的方向、由于相机处于不同的位置中(例如,它们可以相隔几英寸)等)。转换考虑到该因素,使得面部识别系统102知道由第一类型的相机所捕获的哪些像素对应于第二类型的相机的哪些像素。例如,面部识别系统102可以容易地确定由第一类型的相机所捕获的图像中的一组像素对应于特定特征(例如,用户的嘴角),并且使用转换来确定由第二类型的相机所捕获的图像的哪些像素对应于由第一类型的相机所捕获的图像中的所述一组像素,并且因此由第二类型的相机所捕获的图像中的哪些像素对应于该特定特征(例如,用户的嘴角)。
该转换可以使用多种公共和/或私有技术中的任何一种来执行。在一个或多个实施例中,该转换是通过将由第一类型的相机所捕获的图像中的位置归一化来执行的。将由第一类型的相机所捕获的图像中的特征的位置归一化,并且通过将经归一化的位置乘以由第二类型的相机所捕获的图像在其中显示的帧或显示区域的宽度和高度,从而确定在由第二类型的相机所捕获并且由面部识别系统102(例如,由显示模块108)所显示的图像中的对应的位置。该乘法得出位置的x、y坐标,该位置是对由面部识别模块106所使用的用户112的面部的特征的指示在由第二类型的相机所捕获并且由面部识别系统102所显示的图像中的位置。
面部识别系统102(例如,显示模块108)向用户提供与面部识别模块106在识别用户112的面部时进行的进展有关的各种反馈。该反馈让用户112知道面部识别过程在进行中,以及面部识别模块106在对其工作。该反馈还让用户112知道面部识别系统102依赖于与用户有关的信息中的至少一些信息。例如,矩形、正方形、或者其他几何形状接近于用户的面部的显示而被显示(例如,在阈值数量的像素内),以将面部识别系统102正在使用的作为用户的面部的图像中的区域通知给用户。作为另一示例,显示对由面部识别模块106所使用的用户112的面部的特征的指示,以让用户知道面部识别系统102在哪里识别出用户的面部的各种特征(例如,用户的嘴、眼睛等)。
图2-9示出了根据一个或多个实现的、由显示模块108对用户的面部的显示的示例。诸如对由面部识别算法所使用的特征的指示和/或面部识别算法的进展之类的各种不同的额外信息也被显示,如参考图2-9中的个体的图所讨论的。图2-9是利用对图1的元件的额外引用而讨论的。在一个或多个实施例中,图2-8示出了在面部识别模块106识别用户的面部时由显示模块所显示的各种指示的进展。进展的顺序是以图号为顺序的,因此首先显示图2的显示,接着是图3的显示,接着是图4的显示,以此类推。然而,应当理解的是,图2-8中的显示不是详尽的——可以在图2-8中的任何两个之间显示多个额外显示。
图2示出了用户的面部的示例显示202。显示202例如是由图像捕获设备104所捕获的用户的图像。
图3示出了用户的面部的示例显示302,显示302包括大体上覆盖用户的面部的图形304。如在图3中所示出的,图形304是具有内部网格线的正方形。在一个或多个实施例中,显示302是在显示202被显示之后并且在面部识别模块106已经识别出用户的面部的近似边界之后被显示的。在一个或多个实施例中,图形304的显示向用户提供了他或她的面部的近似边界已经被面部识别模块106识别了的指示,并且可选地提供了在用户的面部内对特征的识别将开始(或者最近已经开始)的指示。
图4示出了用户的面部的示例显示402,显示402包括对由面部识别模块106所使用的特征的多个指示。特征的这些指示被示出为点,例如点404(在用户的眼角处)和点406(在用户的嘴角处)。如在图4中所示出的,所述点可以是相同或不同的大小,并且可以是相同或不同的亮度(或强度)。此外,如在图4中所示出的,图3的图形304也不再被显示(或者被淡出)。在一个或多个实施例中,显示402在显示302被显示之后并且在面部识别模块106已经识别出用户的面部的至少阈值数量(例如,至少一个)的特征之后被显示。在一个或多个实施例中,对点的显示和/或停止对图形304的显示向用户提供关于以下的指示:用户的面部的一个或多个特征已被识别出以及基于这些特征对用户的识别将开始(或者最近已经开始)。
返回图1,在一个或多个实施例中,显示模块108随着时间来改变对特征的指示(例如,图4中的点)的显示。该改变可以是所显示的指示的大小、亮度、强度、颜色等的改变。在一个或多个实施例中,对特征的指示的显示进行改变,以便看起来在用户的面部上移动或经过。
显示模块108还与对用户112的面部的一个或多个图像的显示同时地显示对面部识别模块106的进展的指示。该指示被显示在由显示模块108所显示的用户的面部附近(例如,在阈值距离内)。由显示模块108获得对预期面部识别模块106识别用户112的面部所花费的时间量的指示,并且显示模块108使用该时间量的指示来更新对面部识别模块106的进展的指示。
可以以多种不同的方式来确定预期面部识别模块106识别用户112的面部所花费的时间量。在一个或多个实施例中,面部识别模块106和/或显示模块108被配置有该时间量(例如,如由面部识别模块106的开发者或设计者所确定的,面部识别模块106花费的平均时间量)。额外地或可替代地,面部识别模块106可以基于各种不同的标准(例如,面部识别模块106识别用户112的面部的特征所花费的时间量、面部识别模块106已经识别的用户112的面部的特征的数量和/或类型等)来动态地确定识别用户112的面部的期望的时间量,并且将所确定的期望的时间量提供至显示模块108。
显示模块108基于识别用户112的面部的预期的时间量以及自从对用户的面部进行的面部识别开始起已经经过的时间量来显示对面部识别模块106的进展的指示(例如,如由面部识别模块106向显示模块108所指示的)。在一个或多个实施例中,所述指示是随着面部识别的进展而被填充或完成的线、条形、或者其他对象。该完成或填充可以被近似线性地(例如,在线性的阈值量内)执行,以使得当对用户的面部的识别完成10%时,线、条形、或其他对象被填充或完成10%,当对用户的面部的识别完成40%时,线、条形、或其他对象被填充或完成40%,当对用户的面部的识别完成80%时,线、条形、或其他对象被填充或完成80%,以此类推。
额外地或者可替代地,面部识别模块106可以随着面部识别模块106进展以识别用户的面部而向显示模块108提供对面部识别模块106的进展的指示。例如,面部识别模块106可以向显示模块108提供对以下的指示:何时面部识别模块106完成10%、何时面部识别模块106完成15%、何时面部识别模块106完成20%,等等。
在一个或多个实施例中,显示模块108将对面部识别模块106的进展的指示显示在由显示模块108所显示的用户的面部的附近(例如,在阈值距离内)。在一个或多个实施例中,对面部识别模块106的进程的指示是用户的面部的至少一部分(例如,大体上围绕着用户的面部(例如,围绕着用户的面部的至少阈值百分比(例如,75%或80%))的部分)位于其中的正方形或者其他几何形状(例如,矩形、椭圆形等)。该正方形或其他几何形状可以是例如大体上覆盖用户的面部的图形(例如,图3的图形304)的边(例如,周长)。
图5示出了用户的面部的示例显示502。显示502包括对由面部识别模块106所使用的特征的多个指示以及对面部识别模块106的进展的指示两者。所述对特征的指示被示出为点(例如,如在上文中关于图4所讨论的)。如在图5中所示出的,图3的图形304也不再被显示。此外,如在图5中所示出的,对面部识别模块106的进展的指示被显示为用户的面部附近的正方形。在图5中示出了正方形的一个边504和另一个边的部分506,以指示面部识别模块106的进展完成了稍稍多于25%。在一个或多个实施例中,显示502在显示402被显示之后并且在面部识别模块106考虑到所识别的特征已经开始了面部识别过程(例如,如由所显示的点所指示的)之后被显示。
图6示出了用户的面部的示例显示602。显示602包括对由面部识别模块106所使用的特征的多个指示以及对面部识别模块106的进展的指示两者。所述对特征的指示被示出为点(例如,如在上文中关于图4所讨论的)。如在图6中所示出的,对面部识别模块106的进展的指示被显示为用户的面部附近的正方形。在图6中示出了正方形的两个边604和606以及另一个边的部分608,以指示面部识别模块106的进展完成了稍稍多于50%。在一个或多个实施例中,显示602在显示502被显示并且在面部识别模块106在识别用户的面部有进展了之后被显示。
图7示出了用户的面部的示例显示702。显示702包括对由面部识别模块106所使用的特征的多个指示以及对面部识别模块106的进展的指示两者。所述对特征的指示被示出为点(例如,如在上文中关于图4所讨论的)。如在图7中所示出的,对面部识别模块106的进展的指示被显示为用户的面部附近的正方形。在图7中示出了正方形的两个边704和706以及另一个边的部分708,以指示面部识别模块106的进展完成了大约65%。在一个或多个实施例中,显示702在显示602被显示并且在面部识别模块106在识别用户的面部有进展了之后被显示。
图8示出了用户的面部的示例显示802。显示802包括对面部识别模块106的进展的指示。如在图8中所示出的,对面部识别模块106的进展的指示被显示为用户的面部附近的正方形。正方形被示出为完整的(例如,所有四条边已经被绘制或显示),以指示面部识别模块106的进展已经完成。在一个或多个实施例中,显示802在显示702被显示并且在面部识别模块106已经完成了识别用户的面部之后被显示。由面部识别模块106所使用的特征的指示不被包括在显示802中,以提供面部识别模块106已经完成了识别用户的面部的进一步的指示。
应当理解的是,尽管被示出为围绕着用户的面部的至少一部分的正方形,但对面部识别模块106的进展的指示可以以其他方式被显示。例如,可以显示除了正方形之外的几何形状。作为另一示例,如由显示模块108所显示的用户的面部附近(例如,在阈值距离内)的竖直或水平的条形可以被填充或完成。这样的竖直或水平的条形可以邻近于用户的面部的侧面、顶部、或底部,可以跨用户的面部被显示,等等。作为另一示例,几何形状可以利用中空的边被完全绘出,并且接着所述边被填充以示出由面部识别模块106所取得的进展,而不是随着面部识别模块106在识别面部方面取得进展而绘制几何形状。
例如,图9示出了用户的面部的示例显示902。显示902包括对由面部识别模块106所使用的特征的多个指示以及对面部识别模块106的进展的指示两者。所述对特征的指示被示出为点(例如,如在上文中关于图4所讨论的)。显示902类似于图6的显示602,不同在于对面部识别模块106的进展的指示被显示为具有绘制在其上的不透明的进展条形的边界框,所述边界框随着面部识别模块106在识别面部方面取得进展而被填充。
如在图9中所示出的,对面部识别模块106的进展的指示被显示为用户的面部附近的边界框904。边界框被填充(如由斜条纹所示出的)了稍多于50%,以指示面部识别模块106的进展完成了稍多于50%。边界框904被完全填充指示面部识别模块106已经完成了面部识别过程。因此,对面部识别模块106的进展的指示可以由不透明的进展条形来示出,而不是由绘制在用户的面部周围以如在图5-8中所示出的那样示出对面部识别模块106的进展的指示的方框或其他几何形状来示出。
在图2-9所示出的示例中,示出了个体的图像。然而,应当注意的是,当用户的面部被识别时,显示模块108可以显示多个图像(例如,视频的帧)而不是显示用户的单个图像。图形(如在图3中所示出的)、对特征的指示(例如,在图4中所示出的点)、以及对进展的指示(例如,正方形在用户的面部周围被绘制或者边界框被填充)被显示在多个图像中的个体图像(例如,视频的个体帧)上。如果用户112在面部识别过程中移动,则显示模块在适当时相应地更新图形的位置、对特征的指示、以及对进展的指示,以使得图形继续大体上覆盖用户的面部,对特征的指示继续在所述特征在一个或多个图像中被显示的位置处被显示,以及对进展的指示继续在用户的面部附近被显示。
在本文的讨论中,对识别用户的面部进行参考。应当理解的是,除了或替代识别用户的面部,在本文中所讨论的技术可以类似地应用于识别用户的其他对象或特性。例如,在本文中所讨论的技术可以用于识别用户的眼睛或虹膜,以及显示对眼睛或虹膜的特征的指示并且显示对眼睛或虹膜的识别的进展的指示。作为另一示例,在本文中所讨论的技术可以用于识别用户的指纹或手印,以及显示对指纹或手印的特征的指示并且显示对指纹或手印的识别的进展的指示。
图10是示出了根据一个或多个实施例的用于在面部识别过程中识别面部并且提供反馈的示例过程1000的流程图。过程1000是由诸如图1的面部识别系统102之类的面部识别系统实行的,并且可以以软件、固件、硬件、或其组合来实现。过程1000被示出为一组动作并且不限于所示出的用于执行各种动作的操作的顺序。过程1000是用于在面部识别过程中识别面部并且提供反馈的示例过程;关于不同的附图对在面部识别过程中识别面部并且提供反馈的额外的讨论被包括在本文中。
在过程1000中,获得用户的面部的图像(动作1002)。该图像是由如在上文中所讨论的各种不同的图像捕获设备中的一个或多个捕获的。
开始对面部的一个或多个特征进行识别的面部识别算法(动作1004)。面部识别算法是例如由图1的面部识别模块106实现的。用户的面部的各种不同特征可以如在上文中所讨论的那样被识别。在动作1004中还显示大体上覆盖用户的面部的图形(例如,响应于识别出用户的面部的近似边界)。
结合对用户的面部的特征进行识别,对特征的指示被显示在对面部的显示或渲染上(动作1006)。用户的面部如在上文中所讨论的那样被显示,并且对面部中的特征的各种指示可以被显示为覆盖或邻近于所述特征(例如,点)。在一个或多个实施例中,面部的该显示或渲染是由一种类型的相机(例如,RGB相机)所捕获的图像的显示或渲染,所述一种类型的相机不同于用于捕获由面部识别算法所分析的图像的类型的相机(例如,IR相机)。
对面部识别算法的进展的指示也被显示在所显示的面部附近(动作1008)。对面部识别算法的进展的指示可以以在上文中所讨论的各种方式来显示,例如,用户的面部的至少一部分位于其中的正方形的边。
与用户的面部的特征相关的面部数据可选地被存储在数据存储设备中(动作1010)。该面部数据可以随后用于在之后认证或识别用户。
可选地基于用户的面部是否被识别(例如,被认证)来控制对资源的访问(动作1012)。该资源可以是例如面部识别系统在其上实现的计算设备、另一设备或服务等。额外地或可替代地,可以执行除了控制对资源的访问之外的动作,例如,存储和保存对用户的面部的记录。
尽管在本文中参考特定模块讨论了特定的功能,但应当注意的是,在本文中所讨论的个体模块的功能可以被分成多个模块,和/或多个模块的至少一些功能可以被组合成单个模块。额外地,在本文中被讨论为执行动作的特定模块包括执行该动作的特定模块自身,或者可替代地包括调用或以其他方式访问执行该动作的另一组件或模块的特定模块(或者结合该特定模块执行该动作)。因此,执行动作的特定模块包括执行该动作的特定模块自身和/或由执行该动作的特定模块调用或者以其他方式访问的另一模块。
图11以1100一般性地示出了示例系统,其包括代表可以实现在本文中所描述的各种技术的一个或多个系统和/或设备的示例计算设备1102。计算设备1102可以是例如服务提供商的服务器、与客户端相关联的设备(例如,客户端设备)、片上系统、和/或任何其他合适的计算设备或计算系统。
如图所示的示例计算设备1102包括彼此通信地耦合的处理系统1104、一个或多个计算机可读介质1106、以及一个或多个I/O接口1108。尽管未示出,但计算设备1102还可以包括将各种组件彼此耦合的系统总线或其他数据和命令传输系统。系统总线可以包括不同的总线结构中的任何一个或组合,所述不同的总线结构例如存储器总线或存储器控制器、外围总线、通用串行总线、和/或使用多种总线架构中的任何一种的处理器或本地总线。还可以构想多种其他示例,例如,控制和数据线。
处理系统1104代表用于使用硬件来执行一个或多个操作的功能。从而,处理系统1104被示出为包括可以被配置为处理器、功能块等的硬件元件1110。这可以包括作为专用集成电路或者使用一个或多个半导体形成的其他逻辑设备的硬件实现。硬件元件1110不受限于形成其的材料或者其中所采用的处理机制。例如,处理器可以由半导体和/或晶体管(例如,电子集成电路(IC))构成。在这样的上下文中,处理器可执行指令可以是电子可执行指令。
计算机可读介质1106被示出为包括存储器/存储设备1112。存储器/存储设备1112表示与一个或多个计算机可读介质相关联的存储器/存储设备容量。存储器/存储设备1112可以包括易失性介质(例如,随机存取存储器(RAM))和/或非易失性介质(例如,只读存储器(ROM)、闪速存储器、光盘、磁盘等)。存储器/存储设备1112可以包括固定的介质(例如,RAM、ROM、固定的硬盘驱动器等)以及可移动介质(例如,闪速存储器、可移动硬盘驱动器、光盘等)。计算机可读介质1106可以以如在下文中所进一步描述的多种其他的方式来配置。
一个或多个输入/输出接口1108代表用于允许用户向计算设备1102输入命令和信息,并且还允许利用各种输入/输出设备向用户和/或其他组件或设备呈现该信息的功能。输入设备的示例包括键盘、光标控制设备(例如,鼠标)、麦克风(例如,用于语音输入)、扫描仪、触摸功能(例如,被配置以对物理接触进行检测的电容或其他传感器)、相机(例如,可以采用可见或非可见波长(例如,红外频率)来检测不涉及触摸的运动,如手势)等。输出设备的示例包括显示设备(例如,监视器或投影仪)、扬声器、打印机、网络卡、触觉反应设备等。因此,计算设备1102可以用如在下文中所进一步描述的多种方式被配置以支持用户交互。
计算设备1102还包括面部识别系统1114。面部识别系统1114提供如在上文中所讨论的、在面部识别过程中识别面部并且提供反馈的各种功能。面部识别系统1114可以是例如图1的面部识别系统102。
可以在本文中在软件、硬件元件、或程序模块的一般性的上下文中描述各种技术。通常而言,这样的技术包括执行特定的任务或实现特定的抽象数据类型的例程、程序、对象、元件、组件、数据结构等。如在本文中所使用的术语“模块”、“功能”、和“组件”通常表示软件、固件、硬件、或其组合。在本文中所描述的技术的特征是不依赖平台的,意思是可以在具有多种处理器的多种计算平台上实现这些技术。
所描述的模块和技术的实现可以存储在一些形式的计算机可读介质上或者跨一些形式的计算机可读介质传输。计算机可读介质可以包括可以由计算设备1102访问的多种介质。作为示例而非限制,计算机可读介质可以包括“计算机可读存储介质”和“计算机可读信号介质”。
“计算机可读存储介质”指的是与仅仅是信号传输、载波、或信号本身相反的能够实现信息的持续存储的介质和/或设备和/或有形的存储设备。因此,计算机可读存储介质是指非信号承载介质。计算机可读存储介质包括以适合于存储信息(例如,计算机可读指令、数据结构、程序模块、逻辑元件/电路、或其他数据)的方法或技术实现的硬件,例如易失性和非易失性、可移动和不可移动介质和/或存储设备。计算机可读存储介质的示例可以包括但不限于,RAM、ROM、EEPROM、闪速存储器、或者其他存储器技术、CD-ROM、数字通用盘(DVD)或其他光存储、硬盘、盒式磁带、磁带、磁盘存储或其他磁存储设备、或者其他存储设备、有形的介质、或者适合于存储期望的信息并且可以由计算机访问的制品。
“计算机可读信号介质”指的是被配置以将指令传输(例如,经由网络)至计算设备1102的硬件的信号承载介质。信号介质通常可以实施计算机可读指令、数据结构、程序模块、或经调制的数据信号中的其他数据,例如,载波、数据信号、或其他传输机制。通信介质还包括任何信息传递介质。术语“经调制的数据信号”意指以将信息编码在信号中的方式来设置或改变其特征中的一个或多个的信号。作为示例而非限制,通信介质包括有线介质(例如,有线网络或直接有线连接)和无线介质(例如,声学、RF、红外、和其他无线介质)。
如前所述,硬件元件1110和计算机可读介质1106代表以硬件形式实现的指令、模块、可编程设备逻辑和/或固定的设备逻辑,其可以在一些实现中被采用以实现在本文中所描述的技术中的至少一些方面。硬件元件可以包括集成电路或片上系统的组件、专用集成电路(ASIC)、现场可编程门阵列(FPGA)、复杂可编程逻辑设备(CPLD)、以及硅或其他硬件设备中的其他实现。在该上下文中,硬件元件可以运行为执行由指令、模块、和/或逻辑所定义的程序任务的处理设备,所述指令、模块和/或逻辑由被使用以存储指令以用于执行的硬件元件以及硬件设备(例如,之前所描述的计算机可读存储介质)来实施。
也可以采用上述的组合来实现在本文中所描述的各种技术和模块。从而,软件、硬件、或程序模块和其他程序模块可以被实现为在某种形式的计算机可读存储介质上实施和/或由一个或多个硬件元件1110实施的一个或多个指令和/或逻辑。计算设备1102可以被配置以实现对应于软件和/或硬件模块的特定的指令和/或功能。从而,作为软件能够由计算设备1102执行的模块的模块实现可以至少部分地以硬件(例如,通过对处理系统的计算机可读存储介质和/或硬件元件1110的使用)来完成。指令和/或功能可以由一个或多个制品(例如,一个或多个计算设备1102和/或处理系统1104)执行/操作以实现在本文中所描述的技术、模块、和示例。
如在图11中进一步示出的,当在个人计算机(PC)、电视机设备、和/或移动设备上运行应用时,示例系统1100能够实现针对无缝的用户体验的普遍的环境。对于当在使用应用程序、玩视频游戏、观看视频等时从一个设备转移到下一个时的普通的用户体验而言,服务和应用在所有三种环境中大体相似地运行。
在示例系统1100中,多个设备通过中央计算设备被互连。中央计算设备可以对于多个设备来说是本地的或者可以距多个设备远程放置。在一个或多个实现中,中央计算设备可以是通过网络、互联网、或其他数据通信链路连接至多个设备的一个或多个服务器计算机的云。
在一个或多个实现中,该互连架构能够实现跨多个设备而被传递以向多个设备的用户提供共同和无缝的体验的功能。多个设备中的每个可以具有不同的物理要求和能力,并且中央计算设备使用平台以使能够将既针对该设备定制并且还对所有设备共同的体验传递至设备。在一个或多个实现中,创建了一类目标设备,并且针对一般类型的设备来定制体验。可以由设备的物理特征、使用类型、或者其他共同的特性来定义设备的类。
在各种实现中,计算设备1102可以采用多种不同的配置,例如,以供计算机1116、移动设备1118、电视机1120、以及IoT 1122使用。这些配置中的每个包括通常可以具有不同结构和能力的设备,并且因此计算设备1102可以根据不同的设备类中的一个或多个而被配置。例如,计算设备1102可以被实现为设备的计算机1116类,该类包括个人计算机、台式计算机、多屏幕计算机、膝上型计算机、上网本等。
计算设备1102还可以被实现为设备的移动设备1118类,该类包括移动设备,例如,移动电话、便携式音乐播放机、便携式游戏设备、平板计算机、多屏幕计算机、手表或手环、无屏幕设备等。计算设备1102还可以被实现为设备的电视机1120类,其包括在随意观看环境下具有或连接至通常较大的屏幕的设备。这些设备包括电视机、机顶盒、游戏控制器等。计算设备1102还可以被实现为设备的IoT 1122类,例如家用电器、加热和制冷控制设备、安全系统设备等。
在本文中所描述的技术可以由计算设备1102的这些各种配置支持,并且不限于在本文中所描述的技术的具体的示例。该功能可以全部或部分地通过对分布式系统的使用(例如,如在下文中所描述的经由平台1126通过“云”1124)来被实现。
云1124包括和/或代表资源1128的平台1126。平台1126提取了云1124的硬件(例如,服务器)和软件资源的基础功能。资源1128可以包括当在相对计算设备1102位于远处的服务器上执行计算机处理时可以被使用的应用和/或数据。资源1128还可以包括通过互联网和/或通过订阅者网络(例如,蜂窝或Wi-Fi网络)提供的服务。
平台1126可以提取资源和功能以将计算设备1102与其他计算设备进行连接。平台1126还可以用来提取资源的缩放,以对针对经由平台1126实现的资源1128的遇到的需求来提供对应的缩放等级。从而,在互连的设备实现中,在本文中所描述的功能的实现可以遍布系统1100来分布。例如,功能可以被部分地实现在计算设备1102上,以及经由提取云1124的功能的平台1126被实现。
在本文的讨论中,描述了各种不同的实现。应当领会和理解的是,在本文中所描述的每个实现可以用于其自身或者结合在本文中所描述的一个或多个其他实施例来使用。在本文中所讨论的设备、方法等中的任何一个可以结合在本文中所讨论的任何其他设备、方法等来使用。在本文中所讨论的技术的另外的方面涉及以下实现中的一个或多个。
一种方法,包括:获得面部的图像;开始对所述面部的特征进行识别的面部识别算法;结合对所述面部的特征进行识别,将对所述特征的指示显示在对所述面部的渲染上;以及将对所述面部识别算法的进展的指示显示在对所述面部的所述渲染附近。
对于在上文中所讨论的方法中的任何一个可替代地或另外地,以下中的任何一个或组合:其中,获得所述图像包括经由红外相机获得所述图像;其中,获得所述图像包括经由RGB相机获得所述图像;其中,显示对所述面部识别算法的进展的指示包括对所述面部的至少一部分位于其中的正方形的边进行渲染;其中,显示对所述面部识别算法的进展的指示包括对所述面部的至少一部分周围的矩形的边进行填充;其中,将对所述特征的指示显示在对所述面部的渲染上包括在对所述面部的所述渲染中显示大体上覆盖所述面部的图形;其中,将对所述特征的指示显示在对所述面部的渲染上包括在对所述面部的所述渲染上、在以下中的至少一个附近显示一个或多个点:所述面部的眼睛、鼻子、或者嘴;其中,获得所述面部的所述图像包括获得包括所述面部的视频,并且其中,对所述面部的渲染包括在所述面部识别算法识别所述面部的特征时回放所述视频。
一种系统,包括:图像捕获设备,其被配置为获得所述系统的用户的面部的图像;面部识别模块,其被配置为识别所述面部的特征;以及显示模块,其被配置为结合所述面部识别模块对所述面部的特征进行识别,将对所述面部的所识别的特征的指示显示在对所述面部的渲染上,并且还被配置为将所述面部识别模块对所述面部的特征的所述识别的进展的指示显示在对所述面部的所述渲染附近。
对于在上文中所描述的计算设备中的任何一个可替代地或另外地,以下中的任何一个或组合:其中,所述图像捕获设备包括红外相机;其中,所述图像捕获设备包括RGB相机;其中,所述显示模块还被配置为通过渲染所述面部的至少一部分位于其中的矩形的边来显示对所述面部的特征的所述识别的进展的所述指示;其中,所述显示模块还被配置为在对所述面部的渲染上、在以下中的至少一个附近将对所识别的特征的所述指示显示为点:所述面部的眼睛、鼻子、或者嘴;其中,所述图像捕获设备被配置为获得包括所述面部的视频,并且所述显示模块被配置为在对所述面部的所述渲染时回放所述视频。
一种计算设备,包括:处理器;以及具有存储在其上的多个指令的计算机可读存储介质,所述多个指令响应于由所述处理器执行,使得所述处理器执行以下操作:获得面部的图像;开始对所述面部的多个特征进行识别的面部识别算法;结合对所述面部的多个特征中的一个进行识别,将对所识别的特征的指示显示在对所述面部的渲染上;以及将对所述面部识别算法的进展的指示显示在对所述面部的所述渲染附近。
对于在上文中所描述的计算设备或系统中的任何一个可替代地或另外地,以下中的一个或组合:其中,获得所述图像包括经由RGB相机获得所述图像;其中,所述多个指令还使得所述处理器获得所述面部的红外图像,其中,所述面部识别算法识别所述面部的多个特征,以及其中,对所述面部的渲染是对经由RGB相机获得图像的渲染;其中,显示对所述面部识别算法的进展的指示包括对所述面部的至少一部分位于其中的矩形的边进行渲染;其中,显示对所述面部识别算法的进展的指示包括对所述面部的至少一部分周围的矩形的边进行填充;其中,将对所识别的特征的指示显示在对所述面部的渲染上包括在对所述面部的所述渲染中显示大体上覆盖所述面部的图形;其中,获得所述面部的所述图像包括获得包括所述面部的视频,并且其中,对所述面部的渲染包括在所述面部识别算法识别所述面部的特征时回放所述视频。
尽管用特定于结构特征和/或方法动作的语言描述了主题,但是应当理解,在所附权利要求中所限定的主题不一定限于上文所描述的具体特征或动作。相反,上文描述的具体特征和动作是作为实现权利要求书的示例形式而公开的。
Claims (15)
1.一种方法,包括:
获得面部的图像;
开始面部识别算法,所述面部识别算法识别所述面部的特征;
结合识别所述面部的特征,将对所述特征的指示显示在对所述面部的渲染上;以及
将对所述面部识别算法的进展的指示显示在对所述面部的所述渲染附近。
2.根据权利要求1所述的方法,其中,获得所述图像包括经由红外相机获得所述图像。
3.根据权利要求1所述的方法,其中,获得所述图像包括经由RGB相机获得所述图像。
4.根据权利要求1到3中的任何一项所述的方法,其中,显示对所述面部识别算法的进展的指示包括对所述面部的至少一部分位于其中的正方形的边进行渲染。
5.根据权利要求1到3中的任何一项所述的方法,其中,显示对所述面部识别算法的进展的指示包括对所述面部的至少一部分周围的矩形的边进行填充。
6.根据权利要求1到5中的任何一项所述的方法,其中,将对所述特征的指示显示在对所述面部的渲染上包括在对所述面部的所述渲染中显示大体上覆盖所述面部的图形。
7.根据权利要求1到6中的任何一项所述的方法,其中,将对所述特征的指示显示在对所述面部的渲染上包括在对所述面部的所述渲染上、在以下中的至少一个附近显示一个或多个点:所述面部的眼睛、鼻子、或者嘴。
8.根据权利要求1到7中的任何一项所述的方法,其中,获得所述面部的所述图像包括获得包括所述面部的视频,并且其中,对所述面部的渲染包括在所述面部识别算法识别所述面部的特征时回放所述视频。
9.一种系统,包括:
图像捕获设备,其被配置为获得所述系统的用户的面部的图像;
面部识别模块,其被配置为识别所述面部的特征;以及
显示模块,其被配置为结合所述面部识别模块识别所述面部的所述特征,将对所述面部的所识别的特征的指示显示在对所述面部的渲染上,并且还被配置为将所述面部识别模块对所述面部的特征的所述识别的进展的指示显示在对所述面部的所述渲染附近。
10.根据权利要求9所述的方法,其中,所述图像捕获设备包括红外相机。
11.根据权利要求9所述的方法,其中,所述图像捕获设备包括RGB相机。
12.根据权利要求9所述的系统,其中,为了获得,所述图像捕获设备还被配置为经由RGB相机获得所述图像以及获得所述面部的红外图像,其中,所述面部识别模块识别所述面部的多个特征,并且其中,所述显示模块被配置为对经由所述RGB相机获得的所述图像进行渲染。
13.根据权利要求9到12中的任何一项所述的系统,其中,所述显示模块还被配置为通过渲染所述面部的至少一部分位于其中的矩形的边来显示对所述面部的特征的所述识别的进展的所述指示。
14.根据权利要求9到13中的任何一项所述的系统,其中,所述显示模块还被配置为在对所述面部的渲染上、在以下中的至少一个附近将对所识别的特征的所述指示显示为点:所述面部的眼睛、鼻子、或者嘴。
15.根据权利要求9到14中的任何一项所述的系统,其中,所述图像捕获设备被配置为获得包括所述面部的视频,并且所述显示模块被配置为在对所述面部的所述渲染时回放所述视频。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662314899P | 2016-03-29 | 2016-03-29 | |
US62/314,899 | 2016-03-29 | ||
US15/199,287 US10339367B2 (en) | 2016-03-29 | 2016-06-30 | Recognizing a face and providing feedback on the face-recognition process |
US15/199,287 | 2016-06-30 | ||
PCT/US2017/023932 WO2017172500A1 (en) | 2016-03-29 | 2017-03-24 | Recognizing a face and providing feedback on the face-recognition process |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108885692A true CN108885692A (zh) | 2018-11-23 |
Family
ID=59961067
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780020591.0A Pending CN108885692A (zh) | 2016-03-29 | 2017-03-24 | 在面部识别过程中识别面部并且提供反馈 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10339367B2 (zh) |
EP (1) | EP3437017A1 (zh) |
CN (1) | CN108885692A (zh) |
WO (1) | WO2017172500A1 (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113490936A (zh) * | 2019-03-04 | 2021-10-08 | 松下知识产权经营株式会社 | 面部认证机以及面部认证方法 |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106203320A (zh) * | 2016-07-06 | 2016-12-07 | 惠州Tcl移动通信有限公司 | 一种基于移动终端的人脸识别优化方法及系统 |
KR20180071589A (ko) * | 2016-12-20 | 2018-06-28 | 삼성전자주식회사 | 홍채 인식 기능 운용 방법 및 이를 지원하는 전자 장치 |
JP6161224B1 (ja) * | 2016-12-28 | 2017-07-12 | アンバス株式会社 | 人物情報表示装置、人物情報表示方法及び人物情報表示プログラム |
US10268234B2 (en) * | 2017-08-07 | 2019-04-23 | Apple Inc. | Bracket assembly for a multi-component vision system in an electronic device |
US11445094B2 (en) | 2017-08-07 | 2022-09-13 | Apple Inc. | Electronic device having a vision system assembly held by a self-aligning bracket assembly |
US10679443B2 (en) | 2017-10-13 | 2020-06-09 | Alcatraz AI, Inc. | System and method for controlling access to a building with facial recognition |
SG11202104685WA (en) * | 2018-11-05 | 2021-06-29 | Nec Corp | Information processing apparatus, information processing method, and storage medium |
US11684341B1 (en) * | 2019-02-01 | 2023-06-27 | V.E.I.N., Llc | Point-of-care guidance system for diagnostic and therapeutic medical procedures |
US10776613B1 (en) * | 2019-09-13 | 2020-09-15 | Royal Caribbean Cruises Ltd. | Facial recognition system and methods for identity credentialing and personalized services |
US11341794B2 (en) * | 2020-03-28 | 2022-05-24 | Zkteco Usa | Unattended touchless health-check screening systems incorporating biometrics and thermographic technologies |
US11568680B2 (en) * | 2020-04-27 | 2023-01-31 | David K. Pederson | Therapeutic smile detection systems |
US11170593B1 (en) | 2020-05-05 | 2021-11-09 | Royal Caribbean Cruises Ltd. | Multifunction smart door device |
US20210373833A1 (en) * | 2020-06-02 | 2021-12-02 | Intel Corporation | Granular power management of display devices based on user interest |
CN113221732B (zh) * | 2021-05-10 | 2021-12-10 | 精点视界(深圳)科技有限公司 | 基于人脸识别的大数据精准制作智能证卡的实现方法 |
CN113420747B (zh) * | 2021-08-25 | 2021-11-23 | 成方金融科技有限公司 | 人脸识别方法、装置、电子设备及存储介质 |
CN115063871B (zh) * | 2022-07-28 | 2022-11-15 | 广州市保伦电子有限公司 | 一种基于人脸识别技术的人工智能会务系统 |
CN116259098B (zh) * | 2023-05-10 | 2023-07-25 | 南京理工大学 | 基于特征注意力的迁移性人脸识别对抗攻击方法及装置 |
CN116343313B (zh) * | 2023-05-30 | 2023-08-11 | 乐山师范学院 | 一种基于眼部特征的人脸识别方法 |
CN117456589B (zh) * | 2023-12-22 | 2024-04-26 | 珠海早安科技有限公司 | 基于ai的人脸识别访问控制方法及门禁监控控制系统 |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1291807A2 (en) * | 2001-08-24 | 2003-03-12 | Kabushiki Kaisha Toshiba | Person recognition apparatus |
EP1696393A2 (en) * | 2005-02-28 | 2006-08-30 | Kabushiki Kaisha Toshiba | Face authenticating apparatus and entrance and exit management apparatus |
US20070258645A1 (en) * | 2006-03-12 | 2007-11-08 | Gokturk Salih B | Techniques for enabling or establishing the use of face recognition algorithms |
US20130251244A1 (en) * | 2012-03-20 | 2013-09-26 | Microsoft Corporation | Real time head pose estimation |
CN103472912A (zh) * | 2013-08-18 | 2013-12-25 | 苏州量跃信息科技有限公司 | 眼部充能触发的方法及系统 |
US20140176764A1 (en) * | 2012-12-21 | 2014-06-26 | Sony Corporation | Information processing device and recording medium |
US20150026719A1 (en) * | 2013-07-22 | 2015-01-22 | Archana Vidya Menon | Method and system for managing display of personalized advertisements in a user interface (ui) of an on-screen interactive program guide (ipg) |
CN104346600A (zh) * | 2013-07-25 | 2015-02-11 | 信帧电子技术(北京)有限公司 | 一种人脸验证进度展示方法 |
CN104811812A (zh) * | 2014-01-24 | 2015-07-29 | 腾讯科技(北京)有限公司 | 音视频播放进度的控制方法、装置、和系统 |
US9147117B1 (en) * | 2014-06-11 | 2015-09-29 | Socure Inc. | Analyzing facial recognition data and social network data for user authentication |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6128398A (en) | 1995-01-31 | 2000-10-03 | Miros Inc. | System, method and application for the recognition, verification and similarity ranking of facial or other object patterns |
GB2341231A (en) | 1998-09-05 | 2000-03-08 | Sharp Kk | Face detection in an image |
US6853739B2 (en) | 2002-05-15 | 2005-02-08 | Bio Com, Llc | Identity verification system |
SG123618A1 (en) | 2004-12-15 | 2006-07-26 | Chee Khin George Loo | A method and system for verifying the identity of a user |
US8462996B2 (en) | 2008-05-19 | 2013-06-11 | Videomining Corporation | Method and system for measuring human response to visual stimulus based on changes in facial expression |
US20110279453A1 (en) * | 2010-05-16 | 2011-11-17 | Nokia Corporation | Method and apparatus for rendering a location-based user interface |
US9256720B2 (en) | 2011-05-18 | 2016-02-09 | Nextgenid, Inc. | Enrollment kiosk including biometric enrollment and verification, face recognition and fingerprint matching systems |
US8586440B2 (en) * | 2011-07-27 | 2013-11-19 | GlobalFoundries, Inc. | Methods for fabricating integrated circuits using non-oxidizing resist removal |
DE102011079900A1 (de) * | 2011-07-27 | 2013-01-31 | Grob-Werke Gmbh & Co. Kg | Verfahren und Bearbeitungsanlage zum Feinbearbeiten einer Kurbelwellenlagerbohrung |
EP2602993A1 (en) | 2011-12-08 | 2013-06-12 | Research In Motion Limited | Apparatus and associated method for face tracking in video conference and video chat communications |
US20130246962A1 (en) * | 2012-03-09 | 2013-09-19 | Apple Inc. | Dynamic update of a completion status indicator |
US9047376B2 (en) * | 2012-05-01 | 2015-06-02 | Hulu, LLC | Augmenting video with facial recognition |
US9104908B1 (en) | 2012-05-22 | 2015-08-11 | Image Metrics Limited | Building systems for adaptive tracking of facial features across individuals and groups |
US8759075B2 (en) * | 2012-07-13 | 2014-06-24 | Diomics Corporation | Biologic sample collection devices and methods of production and use thereof |
WO2014176790A1 (en) | 2013-05-03 | 2014-11-06 | Nokia Corporation | A method and technical equipment for people identification |
US20150356347A1 (en) * | 2014-06-05 | 2015-12-10 | Activision Publishing, Inc. | Method for acquiring facial motion data |
US9824502B2 (en) * | 2014-12-23 | 2017-11-21 | Intel Corporation | Sketch selection for rendering 3D model avatar |
JP6785305B2 (ja) * | 2015-07-15 | 2020-11-18 | 15 セカンズ オブ フェイム,インコーポレイテッド | 顔認識及びコンテキストビデオストリームで個人を識別するためのビデオ解析技術のための装置及び方法 |
-
2016
- 2016-06-30 US US15/199,287 patent/US10339367B2/en active Active
-
2017
- 2017-03-24 EP EP17716690.7A patent/EP3437017A1/en active Pending
- 2017-03-24 CN CN201780020591.0A patent/CN108885692A/zh active Pending
- 2017-03-24 WO PCT/US2017/023932 patent/WO2017172500A1/en active Application Filing
-
2019
- 2019-05-16 US US16/414,527 patent/US10706269B2/en active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1291807A2 (en) * | 2001-08-24 | 2003-03-12 | Kabushiki Kaisha Toshiba | Person recognition apparatus |
EP1696393A2 (en) * | 2005-02-28 | 2006-08-30 | Kabushiki Kaisha Toshiba | Face authenticating apparatus and entrance and exit management apparatus |
US20070258645A1 (en) * | 2006-03-12 | 2007-11-08 | Gokturk Salih B | Techniques for enabling or establishing the use of face recognition algorithms |
US20130251244A1 (en) * | 2012-03-20 | 2013-09-26 | Microsoft Corporation | Real time head pose estimation |
US20140176764A1 (en) * | 2012-12-21 | 2014-06-26 | Sony Corporation | Information processing device and recording medium |
US20150026719A1 (en) * | 2013-07-22 | 2015-01-22 | Archana Vidya Menon | Method and system for managing display of personalized advertisements in a user interface (ui) of an on-screen interactive program guide (ipg) |
CN104346600A (zh) * | 2013-07-25 | 2015-02-11 | 信帧电子技术(北京)有限公司 | 一种人脸验证进度展示方法 |
CN103472912A (zh) * | 2013-08-18 | 2013-12-25 | 苏州量跃信息科技有限公司 | 眼部充能触发的方法及系统 |
CN104811812A (zh) * | 2014-01-24 | 2015-07-29 | 腾讯科技(北京)有限公司 | 音视频播放进度的控制方法、装置、和系统 |
US9147117B1 (en) * | 2014-06-11 | 2015-09-29 | Socure Inc. | Analyzing facial recognition data and social network data for user authentication |
Non-Patent Citations (2)
Title |
---|
LAURA LEMAY著: "《21天学通Java 2》", 31 May 2001 * |
朱道明: "《建筑安防技术》", 31 January 2013 * |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113490936A (zh) * | 2019-03-04 | 2021-10-08 | 松下知识产权经营株式会社 | 面部认证机以及面部认证方法 |
US11893844B2 (en) | 2019-03-04 | 2024-02-06 | Panasonic Intellectual Property Management Co., Ltd. | Face authentication machine and face authentication method |
Also Published As
Publication number | Publication date |
---|---|
EP3437017A1 (en) | 2019-02-06 |
WO2017172500A1 (en) | 2017-10-05 |
US10706269B2 (en) | 2020-07-07 |
US20170286754A1 (en) | 2017-10-05 |
US10339367B2 (en) | 2019-07-02 |
US20190272413A1 (en) | 2019-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108885692A (zh) | 在面部识别过程中识别面部并且提供反馈 | |
US11620859B2 (en) | Biometric aware object detection and tracking | |
US20160267319A1 (en) | Facilitating Aligning A User And Camera For User Authentication | |
CN109074441B (zh) | 基于注视的认证 | |
KR102173123B1 (ko) | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 | |
US10362024B2 (en) | System and methods for secure entry of a personal identification number (PIN) | |
US20210192031A1 (en) | Motion-based credentials using magnified motion | |
TW201108064A (en) | Information processing device, information processing method, and program | |
US11449131B2 (en) | Obfuscated control interfaces for extended reality | |
US9910489B2 (en) | Transit vending machine with automatic user interface adaption | |
JP2014023127A (ja) | 情報表示装置、情報表示方法、制御プログラム、および記録媒体 | |
CN109635021A (zh) | 一种基于人体检测的数据信息录入方法、装置及设备 | |
Chen et al. | A case study of security and privacy threats from augmented reality (ar) | |
KR20200127928A (ko) | 전자장치에서 이미지 내의 특정 객체를 인식하기 위한 방법 및 장치 | |
KR20140090538A (ko) | 디스플레이 장치 및 제어 방법 | |
US20150262013A1 (en) | Image processing apparatus, image processing method and program | |
WO2022180890A1 (ja) | 生体認証システム、認証端末、および認証方法 | |
US11054941B2 (en) | Information processing system, information processing method, and program for correcting operation direction and operation amount | |
JP2010118016A (ja) | 入力装置、入力方法、入力プログラム、及びコンピュータ読み取り可能な記録媒体 | |
CN111079662A (zh) | 一种人物识别方法、装置、机器可读介质及设备 | |
US11863860B2 (en) | Image capture eyewear with context-based sending | |
US20240070298A1 (en) | Selective collaborative object access | |
US20240177300A1 (en) | Method, apparatus and system for image-to-image translation | |
JP6407112B2 (ja) | 印影画像処理プログラム、印影画像処理方法および情報処理装置 | |
AU2013324127A1 (en) | Secure entry of PIN using a smart card |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |