CN110799978A - 居住环境中的人脸识别 - Google Patents
居住环境中的人脸识别 Download PDFInfo
- Publication number
- CN110799978A CN110799978A CN201880042436.3A CN201880042436A CN110799978A CN 110799978 A CN110799978 A CN 110799978A CN 201880042436 A CN201880042436 A CN 201880042436A CN 110799978 A CN110799978 A CN 110799978A
- Authority
- CN
- China
- Prior art keywords
- machine learning
- learning model
- person
- images
- residential environment
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/22—Matching criteria, e.g. proximity measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
- G06V40/173—Classification, e.g. identification face re-identification, e.g. recognising unknown faces across different face tracks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Data Mining & Analysis (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Human Computer Interaction (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
一种居住环境的人脸识别系统,其识别位于居住环境中的个人。居住环境包括多个家庭设备,且与包括不同人的群体相关联。人脸识别系统识别群体中的哪一个人是该个人,且基于该个人的身份生成用于家庭设备的操作指令。例如,人脸识别系统采集该个人的头部和面部的图像集,并且将该图像集应用于机器学习模型,该机器学习模型被训练以基于不同人的头部和面部的图像区分不同人。人脸识别系统能够检索所识别的个人的人画像,画像包括家庭设备的用于所识别的个人的设置。人脸识别系统基于个人画像生成操作指令。
Description
背景
1.技术领域
本公开大体涉及在居住环境中使用的新人脸识别框架,并且大体涉及基于所识别的个人的身份控制家庭设备。
2.背景技术
居住环境通常包括多个人和许多家庭设备。这些人通常共享家庭设备,但是每个人都可以有自己的对家庭设备的偏好。例如,一个人可以更喜欢空调较冷些,而另一个人更喜欢空调较暖些。作为另一个示例,一个人可以更喜欢厨房设备烹饪更熟的食物或准备某些类型的饮料,而另一个人则更喜欢不那么熟的食物或不同类型的饮料。
目前,一些家庭设备可以提供用户接口,用户接口允许家庭设备的用户设置其首选设置,并且在每次用户使用家庭设备时恢复该用户的首选设置。但是,通常人每次都必须手动进行该操作。而且,不同的家庭设备可以具有不同的用户接口,且该用户接口可以难以使用,使得人更难以为许多家庭设备设置偏好。
因此,需要改善的与家庭设备的交互以及控制家庭设备的方法。
发明内容
通过使用人脸识别来识别位于居住环境中的个人并且基于该个人的身份控制家庭设备,本公开克服了现有技术的限制。居住环境包括一个或多个家庭设备,且与包括不同人的群体相关联。机器学习模型被训练以区分不同人。当个人位于居住环境中时,机器学习模型基于该个人的头部和面部的图像确定该个人的身份。基于该个人的身份,生成家庭设备的操作指令。
在一些实施例中,居住环境包括人脸识别系统,人脸识别系统使用群体中的人的头部和面部的参考图像训练机器学习模型。在一个实施例中,人的参考图像包括人的头部的六个视图。在另一实施例中,参考图像是基于作为二维图像的人的头部的投影。机器学习模型被训练以基于人的头部和面部的训练图像,区分群体中的不同人。
在操作中,一个或多个摄像机采集包括在居住环境中的个人的头部和面部的一个或多个图像的图像集。这些摄像机可以是家庭设备的部分或者可以是分离的。该个人的图像集被呈现给机器学习模型,该机器学习模型确定该个人的身份。在一个方法中,机器学习模型计算该个人是群体中的每一个人的概率,以及然后基于该概率作出决定。人脸识别系统基于该个人的身份生成用于家庭设备中的一个或多个家庭设备的操作指令。接收操作指令的家庭设备以针对所识别的人定制的模式操作。例如,根据被所识别的人预先选择的设置,操作家庭设备。
机器学习模型还能够识别出,在群体中的人都不是该个人。在识别出没有人是该个人之后,人脸识别系统能够提供用户接口,用户接口允许添加新的人到群体中。
其他方面包括部件、设备、系统、改进、方法、过程、应用、计算机可读介质和与上述中的任一点有关的其他技术。
附图描述
本公开的实施例具有其他优点和特征,当结合附图考虑时,根据以下具体实施方式和所附权利要求,这些优点和特征将容易表现出来。在附图中:
图1是根据本发明包括人脸识别系统的居住环境的框图。
图2A是根据本发明的人脸识别系统的框图。
图2B是示出根据本发明识别位于居住环境中的个人的人脸识别过程的流程图。
图3示出根据本发明的居民的头部和面部的示例参考图像集。
图4示出根据本发明基于图3的参考图像对位于居住环境中的个人的识别。
图5示出根据本发明的居民的头部和面部的参考图像的另一示例。
图6示出根据本发明基于图5的参考图像对位于居住环境中的个人的识别。
附图仅出于说明目的描绘各种实施例。本领域技术人员将容易从如下讨论认识到,在不脱离本文中所描述的原理的情况下,可以采用在本文中示出的结构和方法的替代实施例。
具体实施方式
附图和如下说明书仅以举例说明的方式涉及优选实施例。从如下讨论应当注意到,本文中公开的结构和方法的替代实施例将容易被认作在不脱离所主张的权利的原理的情况下可以采用的可行替代。
图1是根据本发明包括人脸识别系统140的居住环境100的框图。居住环境100是为人们在其中居住而设计的环境。居住环境100能够是住宅,例如,房屋、公寓、公寓套间或者宿舍。在一些实施例中,人脸识别系统140能够在非居住环境中使用,这些非居住环境例如包括工作环境(例如,办公室)或者商业环境(例如,商店、诊所)。
由不同的人组成的群体与居住环境100相关联。该不同的人组成的群体可以包括家庭成员、朋友、租客、服务人员或者常客。该群体通常是常去居住环境的人。为了方便起见,即使该群体中的人可能不居住在该居住环境中,也将其称为居民。为了说明和简单起见,以下公开内容中的居民包括妈妈、爸爸和女儿。然而,这仅仅是一个示例,而且居民群体可以包括另外的人或更少的人或具有不同关系的人。在一个实施例中,该群体中的不同的人的数目小于20。
除了人脸识别系统140之外,在图1的实施例中的居住环境100还包括家庭设备110A-N、连接家庭设备110的家庭设备网络120以及包含居民对家庭设备的偏好的居民画像(profile)数据库130。图1中的部件被示出为是分离的框,但是取决于实施方式,这些部件也可以组合。例如,居民画像130可以是人脸识别系统140的部分或者是家庭设备110的部分。而且,居住环境100可以包括网络120的中枢。中枢还可以控制家庭设备110和/或人脸识别系统140。网络120优选地还提供对例如云服务器的外部设备的访问。
家庭设备110是使得与居住环境100相关联的不同人可以使用其的家庭设备。家庭设备110的示例包括暖通空调设备(例如,空调、加热器、通风口)、照明设备、电动门窗用品(例如,门锁、电动百叶窗和窗帘)、用电家具或陈设(例如,立式书桌、躺椅)、音频设备(例如,音乐播放器)、视频设备(例如,电视、家庭影院)、环境控制(例如,空气过滤器、空气净化器)、厨房设备(例如,电饭煲、烤箱、咖啡机、冰箱)、浴室设备和家庭机器人设备(例如,真空机器人,机器人管家)。家庭设备110能够包括能够在家庭中使用的其他类型的设备。
家庭设备110通常由居民操作。例如,用户可以按下“开启”按钮以打开家庭设备110。用户还能够基于人的偏好来选择家庭设备110的设置。不同居民能够选择不同的家庭设备110设置。以空调为例。女儿选择70℉作为她的空调首选温度,而爸爸选择68℉,且妈妈选择65℉。这些设置被存储在居民画像130中。空调能够被不同人在不同时间使用。因此,当女儿打算使用空调的时候,空调可能正被设置成爸爸或者妈妈的首选温度。在这种情况下,女儿不必手动改变空调的温度设置。相反,人脸识别系统140识别出女儿,并且然后自动指示空调在女儿的首选温度下操作。
人脸识别系统140从已知居民的群体中识别位于居住环境100中的个人。系统或者系统中的一些其他部件然后基于该个人的身份生成用于家庭设备110的操作指令。人脸识别系统140使用机器学习模型,以根据不同居民的头部和面部图像在不同居民之间进行区分。
在一些实施例中,当该个人位于居住环境100中时,人脸识别系统140采集该个人的头部和面部的一个或者多个图像的图像集。在一种方法中,人脸识别系统140根据来自该个人的请求采集图像。可替代地,图像集可以被自动采集而无需来自该个人的请求指令。例如,该个人可以正在步行通过房屋,且在家庭设备上以及在别处的不同摄像机从不同的角度采集图像。人脸识别系统140将图像集作为输入应用于机器学习模型。机器学习模型输出该个人的身份,即,如果存在的话,哪一个居民是该个人。
在一个实施例中,机器学习模型基于居民的头部和面部的参考图像识别该个人。例如,机器学习模型计算所采集的图像集与不同居民的头部和面部的参考图像的相似度。在另一个实施例中,已经使用了不同居民的头部和面部的参考图像来训练机器学习模型,但是一旦训练完,机器学习模型就不会明显地使用参考图像。例如,可以通过架构和一组参数定义机器学习模型。在训练期间,参考图像用于训练参数。一旦训练完成,这些参数就足以定义机器学习模型。在一种架构中,将图像集用作输入,机器学习模型估计每一个居民是该个人的概率。机器学习模型然后基于该概率,确定哪一个居民是该个人。
使用该个人的身份,人脸识别系统140生成用于家用装置110的操作指令。操作指令基于所识别的居民的偏好。接收到操作指令时,家庭设备110以针对所识别的居民定制的模式进行操作。继续以空调为例,人脸识别系统140在识别出该个人是女儿时,就为空调生成操作指令,以将空调的温度设置改变成70℉。结合图2描述关于人脸识别系统140的更多细节。
居民画像130包括关于不同居民的信息。例如,数据存储器130可以存储不同居民的参考图像,特别是如果参考图像被人脸识别系统140用于区分不同居民时。居民画像130还能够包括由不同居民选择的家庭设备110的设置和其他偏好。这些偏好通常与在居民画像130中存储的关于居民的其他信息相关联。其他信息的示例可以包括姓名、参考号码、头衔、特征或者与居民相关联的其他类型的描述。例如,与居住环境100相关联的不同居民的描述能够是“爸爸”、“妈妈”和“女儿”。另外,关于不同居民的元数据能够包括“长发”、“蓝眼睛”、“不戴眼镜”、“高鼻梁”等描述。
网络120提供居住环境100的不同部件之间的互联,并且允许部件彼此交换数据。术语“网络”旨在被广义地解释。其能够包括具有标准定义协议的正式网络,例如以太网和InfiniBand。在一个实施例中,网络120是在居住环境100内管理其网络设备和互连的局域网。网络120也能够组合不同类型的互联。其可以包括使用有线和/或无线链路的局域网和/或广域网的组合。在部件之间交换的数据可以使用任何合适的格式表示。在一些实施例中,所有或一些数据和通信可以被加密。
图2A是根据本发明的人脸识别系统140的框图。人脸识别系统140包括接口模块210、一个或多个摄像机220、训练模块230、机器学习模型240和指令生成器250。在其他实施例中,人脸识别系统140可以包括不同的部件。图2B是示出根据本发明识别位于居住环境100中的个人的人脸识别过程290的流程图。在一个实施例中,该过程由人脸识别系统140进行。过程290包括两个主要阶段:训练260机器学习模型240以及机器学习模型240的推断(操作)270。
接口模块210便于人脸识别系统140与居住环境100的其他部件之间的通信。例如,人脸识别系统140能够经由接口模块210接收不同居民的参考图像。人脸识别系统140还能够经由接口模块210接收识别环境中的个人的请求。另外,可以经由接口模块210分发家庭设备110的操作指令。
一个或者多个摄像机220采集(图2B中的步骤271)该个人的图像集。在一个实施例中,一个或多个摄像机220根据可能来自该个人或其他人的请求采集图像集(或图像集的一部分)。可以通过打开家庭设备110或由该个人改变家庭设备110的设置来触发该请求。可替代地,图像可以被自动采集而无需来自该个人的请求指令。例如,当该个人位于距家庭设备110或一个或者多个摄像机220的阈值距离内或者在居住环境100中的特定区域或者地区时,一个或者多个摄像机220采集该个人的图像集。例如,当该个人进入居住环境100时,在居住环境100的前门处的摄像机220自动拍摄该个人的一个或多个图像。一个或者多个摄像机220能够是家庭设备110的部分,或者一个或者多个摄像机220和家庭设备110能够是分离的。
在许多情况下,在居住环境100中有不止一个摄像机220。因此,由不同摄像机220采集的图像能够来自不同的视角。例如,由在吸顶灯中的摄像机采集的图像是该个人的头部和面部的俯视图,由真空机器人采集的图像是该个人的头部和面部的仰视图,而由监视摄像机采集的图像可以采集该个人的面部的直视图。
训练模块230训练260机器学习模型240。在操作270中,机器学习模型240接收该个人的图像,并且输出该个人的身份。在一些实施例中,机器学习模型240由一个架构限定,该架构具有一定数量的层和节点,在节点之间有加权连接(参数)。在训练期间,训练模块230基于训练样本集确定机器学习模型240的参数(例如,权重和偏差)的值。
训练模块230接收261用于训练的训练集。训练集中的训练样本包括不同居民的头部和面部的参考图像,将在下文中描述参考图像的一些示例。训练模块230能够经由接口模块210从数据库130接收这些参考图像。除了参考图像之外,训练集还能够包括其他训练图像。例如,机器学习模型能够使用在居住环境100中采集的居民的头部和面部的图像进行训练。这些图像能够包括由在地板上的家庭设备或者安装在天花板上的家庭设备或者安装在墙上高处的家庭设备所采集的图像。在一些实施例中,能够使用来自其他资源(例如,类似Facebook的线上资源)的居民图像来训练机器学习模型240。对于有监督学习,训练集通常还包括图像的标签。标签包括对图像中的居民的描述,诸如姓名、头衔或者对应居民的特征。例如,用于爸爸的训练图像的标签能够包括“爸爸”、“男性”或者“短发”。
在典型的训练262中,将训练样本作为输入呈现给机器学习模型240,机器学习模型240随后产生输出。输出指示哪个居民是训练样本(或估计的置信度)。训练模块230使用在机器学习模型的输出与已知良好输出之间的差异来调整机器学习模型240中的参数值。对许多不同的训练样本重复此操作,以改善机器学习模型240的性能。
训练模块230通常还基于附加的验证样本来验证263经训练的机器学习模型240。例如,训练模块230将机器学习模型240应用于验证样本集,以量化机器学习模型240的准确性。验证样本集包括居民和非居民的图像以及居民的身份。机器学习模型240的输出能够与已知的基本事实进行比较。准确性测量中常用的指标包括准确率=TP/(TP+FP)和召回率=TP/(TP+FN),其中TP是真阳性数,FP是假阳性数,FN是假阴性数。准确率是机器学习模型240预测的具有目标属性的全体结果(TP+FP)中有多少是机器学习模型240正确预测出的具有目标属性的结果(TP)。召回率是实际上确实具有目标属性的验证样本的总数目中有多少是被机器学习模型240正确预测出具有属性(TP)的结果。F分数(F-分数=2*准确率*召回率/(准确率+召回率))将准确率和召回率统一到单次测量中。在准确性测量中常用的指标还包括Top-1准确性和Top-5准确性。在Top-1准确性下,当由训练模型预测的top-1预测(即,具有最高概率的预测)正确的时候,训练模型是准确的。在Top-5准确性下,当top-5预测中的一个(例如,具有最高概率的五个预测)是正确的时候,训练模型是准确的。
训练模块230可以使用其他类型的指标来量化经训练的模型的准确性。在一个实施例中,训练模块230训练机器学习模型,直到出现停止条件,诸如该模型足够准确的准确性测量指示,或者已经进行了多次训练。
在另一实施例中,即使当在居住环境100中操作以识别个人时,机器学习模型240也能够被连续训练260。例如,训练模块230使用由摄像机210采集的图像集来进一步训练机器学习模型240。
机器学习模型240的训练260也能够在家庭设备110上或耦合到家庭设备网络120的其他设备上进行,而不是在人脸识别系统140上进行。类似地,机器学习模型240的操作270可以在与训练260相同的位置处或者在不同的位置处发生。在一些实施例中,能够在超出居住环境100范围的云中训练和执行机器学习模型240。例如,居住环境110的家庭设备网络120被连接到云。居住环境100能够与云共享计算资源或者共享来自云的计算资源,或者将计算资源存储在云中。在一个实施方式中,训练260更计算密集,因此它是基于云的或在具有显著计算效率的家庭设备上发生。一旦训练完,机器学习模型240就被分配给家庭设备110,该家庭设备110能够使用比训练所需计算资源更少的计算资源来执行机器学习模型。
在操作270中,机器学习模型240将采集的该个人图像用作机器学习模型240的输入272。在一种架构中,机器学习模型240计算272该个人是否是每一个居民的概率。该计算能够基于不将居民的参考图像用于推断步骤270的机器学习模型240。
可替代地,机器学习模型240能够将参考图像用作推断步骤270的一部分。例如,计算的一部分可以是输入图像与居民的参考图像的相关性。机器学习模型240计算所采集的图像与每一个居民的头部和面部的参考图像的相似度。例如,机器学习模型240计算在采集的图像与在用于居民的参考图像集中的每一个视图之间的距离。例如,可以基于不同视图在不同居民之间进行区分的能力,对这些不同视图施加权重。基于权重,机器学习模型240进一步基于距离来计算加权组合。加权组合能够等于每个距离及其对应权重的乘积的和。加权组合表示图像集与居民的参考图像的相似度。
基于所计算的概率或相似度,机器学习模型240识别273哪个居民最可能是该个人。例如,机器学习模型240将具有最高概率或相似度的居民识别为该个人。在存在多个对应于最高概率或相似度的居民的情况下,机器学习模型240可以进一步区分具有最高概率或相似度的那些居民。例如,一个或者多个摄像机220采集该个人的附加图像。这些附加的图像能够被用于完善机器学习模型240的输出。
指令生成器250基于该个人的身份生成274操作指令。这些指令用于配置275家庭设备110。在一个实施例中,操作指令包括打开或关闭一个或多个家庭设备110的指令。在另一实施例中,操作指令包括改变一个或多个家庭设备110的设置的指令。例如,操作指令包括由所识别的居民选择的家庭设备110的设置。指令生成器250可以经由接口模块210从居民画像130检索所识别的个人的包括设置的画像。指令生成器250然后基于所检索的画像生成操作指令。
在一些实施例中,指令生成器250为多于一个家庭设备110生成274操作指令。这些家庭设备110可以彼此关联或者与所识别的居民关联。例如,基于该个人的身份,指令生成器250生成用于位于人位于其中的房间或区域中的所有家庭设备110的操作指令。在另一示例中,请求该个人身份的家庭设备110是厨房设备,并且指令生成器250为居住环境100中的所有相关厨房设备生成操作指令。
机器学习模型240可以具有结论是该群体中的全部居民都不是该个人的输出。例如,每个可能的居民的相似度都低于阈值。在一个实施例中,阈值是0.5。在该情形中,人脸识别系统140能够提供用户接口,以允许增加新的人到居民群体中。
图3示出根据本发明的居民的头部和面部的示例参考图像集300。例如,居民能够是爸爸。在图3的实施例中,参考图像集300包括六个参考图像,其分别是爸爸的头部和面部的正视图310、左视图320、右视图330、后视图340、俯视图350和仰视图360。在替代实施例中,参考图像集300能够包括爸爸的头部和面部的另外的、更少的或不同的视图。例如,参考图像集300不包括后视图340。
能够通过在居住环境中的一个或者多个摄像机采集参考图像集300。一个或多个摄像机可以包括人脸识别系统140的一个或者多个摄像机220。在一个实施例中,由在居住环境100中不同位置处的摄像机采集参考图像集300。例如,由安装在天花板上或安装在墙上高处的摄像机采集俯视图350,以及由安装在地板上的摄像机采集仰视图360。
参考图像也可以在受控环境中采集。在一个实施例中,指示居民满足位置和/或方位的要求。例如,在采集正视图310时,指示居民面朝摄像机,相反,在采集后视图340时,指示居民背对摄像机。在另一实施例中,采集用于视图的参考图像的摄像机可以与确定所采集的参考图像是否满足视图要求的模块相关联。例如,模块能够基于居民的面部特征,诸如鼻子、眼睛和耳朵,确定所采集的图像是否满足左视图320的要求。响应于确定没有满足要求,指示居民重新拍摄图像。该过程可以重复,直到采集到用于视图的令人满意的参考图像为止。还可以在外部位置处,诸如家庭设备制造商的当地服务中心处采集参考图像。
图4示出根据本发明基于图3的参考图像对个人的识别。图4包括位于居住环境100中的个人的图像410。由一个或者多个摄像机220采集图像410。在该示例中,该个人的图像集仅包括该一个采集图像410。在其他实施例中,该个人的图像集包括多于一个采集图像。
计算在采集图像410和参考图像的每一个视图之间的距离指标D。距离指标D量化在采集图像410和对应视图之间的相似度。在该示例中,指标被归一化到范围[0,1],其中,1表示最相似,且0表示最不相似。在图4中,图像正下方的线示出了比例,其中,1在所采集的图像本身下方,而0在最右端。在采集图像410和正视图310之间的距离指标是D1,在采集图像410和左视图320之间的距离指标是D2,在采集图像410和右视图330之间的距离指标是D3,在采集图像410和后视图340之间的距离指标是D4,在采集图像410和俯视图350之间的距离指标是D5,以及,在采集图像410和仰视图360之间的距离指标是D6。距离指标D1、D2和D5大于D3、D4和D6。相应地,所采集的图像410与正视图、左视图和俯视图最相似,而与右视图、后视图和仰视图最不相似。
每一个视图也与权重W1-W6相关联,W1-W6也被归一化到范围[0,1]。视图不同,权重也不同。例如,正视图310具有比后视图340(权重W4)更大的权重W1,因为正视图310示出居民的面部特征,这些特征对于区分居民和其他人来说更有用。而且,对于同一视图,群体中的不同居民能够具有不同的权重。例如,当爸爸是该群体中唯一有短发的居民时,他的后视图340的权重W4可以高于妈妈和女儿的权重,因为爸爸的后视图340比该群体中的妈妈和女儿的后视图更有区分度。
基于距离指标和权重,机器学习模型240计算距离指标的加权和,以计算该个人的采集图像410与爸爸的参考图像集300的总相似度S。相似度S具有在0和1之间的值,该值能够用于计算该个人是爸爸的概率。在一个实施例中,机器学习模型240计算在该个人的采集图像410与每一个居民的参考图像之间的相似度。这些相似度可以是机器学习模型中的一个层的输出。例如,机器学习模型240确定爸爸的相似度S是1,而女儿的相似度是0.2,以及妈妈的相似度是0.2。机器学习模型240对不同居民的相似度进行排列,且基于这些相似度分数,识别哪一个居民是该个人。因此,爸爸被识别为是该个人。
出于说明的目的,简化了由机器学习模型执行的计算。在实际的机器学习模型中,通常有基于每一个视图的许多权重和指标,并且可以在机器学习模型的多个层中将它们组合在一起。不同的指标可以针对特定的特征或部件,并且不同的指标可以构建在多个层上。还可以基于来自多于一个居民的视图计算指标(例如,试图区分爸爸和妈妈的指标)。此外,通常在机器学习模型的训练过程期间学习权重,且在训练过程期间还可以学习指标自己的公式。
图5示出根据本发明在图3中的居民的头部和面部的不同类型的参考图像500。如在图5中所示,参考图像500是居民的头部和面部的二维投影。可以从如在图3中示出的参考图像集300生成参考图像500。替代地,参考图像500可以从居民的头部和面部的三维模型生成,例如如通过360度内视摄像机采集的三维模型。在投影500中,最有区分度的特征(即,面部)位于投影的中心。
机器学习模型240能够基于群体中的不同居民的头部和面部的二维投影识别该个人。图6示出基于投影参考图像500识别个人。如在图6中所示,基于该个人的采集图像410生成该个人的二维投影600。在一些实施例中,可以基于该个人的多个图像(尤其从不同视角拍摄的多个图像)生成二维投影600。二维投影610用作机器学习模型240的输入,已经使用居民的参考图像500训练机器学习模型240。机器学习模型240输出哪一个居民是该个人的估计。在图3至图4中所示的方法和在图5至图6中所示的方法不是互斥的。机器学习模型240可以被使用两种表示训练。
在另一方面中,个人的识别能够基于一个或多个有区分度的特征。有区分度的特征的示例包括发型、纹身、面部标记、眼睛形状、脸颊高度、鼻子形状等。机器学习模型可以以增强有区分度的特征的方式训练,以便机器学习模型学习使用有区分度的特征来区分不同居民。
而且,使被添加到居住环境100的新家庭设备110能够访问机器学习模型240。例如,新的家庭设备110通过家庭设备网络120连接到人脸识别系统140。人脸识别系统140能够从新家庭设备110接收请求,以识别位于居住环境中的个人。在接收请求时,人脸识别系统140使用机器学习模型240来识别该个人。在替代实施方式中,人脸识别系统140识别到添加了新家庭设备110,将机器学习模型240传递至新家庭设备110。另外,机器学习模型240的任何更新都可以被居住环境100的家庭设备110访问。
尽管详细描述包含了许多细节,但是这些细节不应当被解释为限制本发明的范围,而仅仅用于说明本发明的不同示例和方面。应当理解,本发明的范围包括没有在上文中详细讨论的其他实施例。例如,对个人的识别可以基于该个人的头部和面部的不同视图的图像以外的信息。例如,能够基于身高、体重或其他类型的独特特征来识别该个人。在不背离在所附权利要求中定义的本发明的精神和范围的情况下,可以对本文公开的本发明的方法和装置的布置、操作和细节进行对本领域技术人员而言显而易见的各种其他修改、改变和变化。因此,本发明的范围应当由所附权利要求及其合法等同物确定。
在计算机硬件、固件、软件和/或其组合中实施替代实施例。能够在有形地体现在机器可读存储设备中用于由可编程处理器执行的计算机程序产品中实施本实施方式,且方法步骤能够由可编程处理器执行,可编程处理器执行指令程序以通过操作输入数据和生成输出来执行功能。实施例能够有利地在可在可编程系统上执行的一个或多个计算机程序中实施,可编程系统包括至少一个可编程处理器,可编程处理器耦合以从数据存储系统、至少一个输入装置和至少一个输出装置接收数据和指令以及将数据和指令发送到数据存储系统、至少一个输入装置和至少一个输出装置。每个计算机程序都能够以高级编程语言或面向对象的编程语言,或者如果需要的话,以汇编语言或机器语言实施;并且,在任何情况下,该语言都能够是已编译或解释的语言。举例来说,合适的处理器包括通用微处理器和专用微处理器两种。大体上,处理器将从只读存储器和/或随机存取存储器接收指令和数据。大体上,计算机将包括用于存储数据文件的一个多个大容量存储设备;这种设备包括磁盘,诸如内置硬盘和可移动盘;磁光盘;和光盘。适用于有形地体现计算机程序指令和数据的存储设备包括所有形式的非易失性存储器,包括例如半导体存储设备,诸如EPROM、EEPROM和闪存设备;磁盘,诸如内置硬盘和可移动盘;磁光盘;和CD-ROM盘。前述中的任一项都能够通过ASIC(专用集成电路)和其他形式的硬件进行补充或并入。
Claims (20)
1.在包括多个家庭设备的居住环境中,一种用于识别位于所述居住环境中的个人的方法,所述方法包括:
当所述个人位于所述居住环境中时,采集包括个人的头部和面部的一个或多个图像的图像集;
将所述图像集作为输入应用于机器学习模型,所述机器学习模型已经被训练,以基于人的头部和面部的图像区分包括与所述居住环境相关联的不同人的群体;
所述机器学习模型识别在所述群体中的哪一个人是所述个人;以及,
基于所述个人的身份,生成用于所述家庭设备中的一个家庭设备的操作指令。
2.根据权利要求1所述的方法,其特征在于,所述机器学习模型还能够识别出,在所述群体中没有人是所述个人。
3.根据权利要求1所述的方法,其特征在于,根据所述不同人的头部和面部的参考图像训练所述机器学习模型。
4.根据权利要求3所述的方法,其特征在于,所述参考图像包括所述人的头部和面部的不同视图。
5.根据权利要求3所述的方法,其特征在于,所述参考图像包括作为二维图像的所述人的头部和面部的投影。
6.根据权利要求1所述的方法,其特征在于,所述机器学习模型基于所述不同人的头部和面部的参考图像识别所述个人。
7.根据权利要求6所述的方法,其特征在于,识别所述个人包括:
计算所述图像集与所述不同人的头部和面部的参考图像的相似度;以及,
基于所计算的相似度识别哪一个人是所述个人。
8.根据权利要求7所述的方法,其特征在于,计算相似度包括:
计算在所述图像集和所述参考图像之间的距离指标;以及,
基于所述距离指标,计算加权组合。
9.根据权利要求1所述的方法,其特征在于,已经根据在所述居住环境中采集的不同人的头部和面部的图像,训练所述机器学习模型。
10.根据权利要求1所述的方法,其特征在于,通过所述家庭设备中的一个或多个家庭设备采集所述图像集。
11.根据权利要求1所述的方法,其特征在于,当在所述居住环境中识别个人时,进一步训练所述机器学习模型。
12.根据权利要求1所述的方法,其特征在于,在所述家庭设备上进行所述机器学习模型的训练。
13.根据权利要求1所述的方法,其特征在于,在所述居住环境外部的云中进行所述机器学习模型的训练。
14.根据权利要求1所述的方法,其特征在于,所述机器学习模型在所述家庭设备上执行。
15.根据权利要求1所述的方法,其特征在于,在所述居住环境外部的云中执行所述机器学习模型。
16.根据权利要求1所述的方法,其特征在于,接收所述操作指令的家庭设备是暖通空调设备、照明设备、电动门窗用品、用电家具或陈设、音频设备、环境控制器、厨房设备、浴室设备和家用机器人设备中的一种。
17.根据权利要求1所述的方法,其特征在于,生成所述指令包括:
检索所识别的个人的用户画像;以及,
基于所述用户画像生成所述操作指令。
18.根据权利要求1所述的方法,其特征在于,所述操作指令是打开或者关闭所述家庭设备的指令。
19.根据权利要求1所述的方法,其特征在于,所述操作指令是改变所述家庭设备的设置的指令。
20.根据权利要求1所述的方法,其特征在于,还包括:
使被添加到所述居住环境的家庭设备自动可访问所述机器学习模型。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US15/642,312 | 2017-07-05 | ||
US15/642,312 US10303932B2 (en) | 2017-07-05 | 2017-07-05 | Face recognition in a residential environment |
PCT/CN2018/083066 WO2019007131A1 (en) | 2017-07-05 | 2018-04-13 | FACIAL RECOGNITION IN A RESIDENTIAL ENVIRONMENT |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110799978A true CN110799978A (zh) | 2020-02-14 |
CN110799978B CN110799978B (zh) | 2022-04-01 |
Family
ID=64902799
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201880042436.3A Active CN110799978B (zh) | 2017-07-05 | 2018-04-13 | 居住环境中的人脸识别 |
Country Status (4)
Country | Link |
---|---|
US (2) | US10303932B2 (zh) |
EP (1) | EP3635601A4 (zh) |
CN (1) | CN110799978B (zh) |
WO (1) | WO2019007131A1 (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10558848B2 (en) | 2017-10-05 | 2020-02-11 | Duelight Llc | System, method, and computer program for capturing an image with correct skin tone exposure |
US20190108735A1 (en) * | 2017-10-10 | 2019-04-11 | Weixin Xu | Globally optimized recognition system and service design, from sensing to recognition |
US10896350B2 (en) * | 2018-04-10 | 2021-01-19 | Canon Kabushiki Kaisha | Image processing apparatus, image processing method, and image capture apparatus |
US11200454B1 (en) * | 2018-10-17 | 2021-12-14 | Objectvideo Labs, Llc | People selection for training set |
WO2020205981A1 (en) * | 2019-04-05 | 2020-10-08 | Realnetworks, Inc. | Adaptive learning and matching of face modalities |
US11501562B2 (en) * | 2019-04-30 | 2022-11-15 | Bfly Operations, Inc. | Ultrasound face scanning and identification apparatuses and methods |
KR20210009705A (ko) * | 2019-07-17 | 2021-01-27 | 엘지전자 주식회사 | 세탁기 |
CN110909636B (zh) * | 2019-11-08 | 2021-03-19 | 北京邮电大学 | 一种基于非均匀分布的人脸识别方法 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1659826A (zh) * | 2002-06-07 | 2005-08-24 | 皇家飞利浦电子股份有限公司 | 在局部环境中依照个人的位置与个人的选择修改局部环境的周围环境的系统和方法 |
US20120036016A1 (en) * | 1999-02-01 | 2012-02-09 | Hoffberg Steven M | Vehicular information system and method |
CN103927729A (zh) * | 2013-01-10 | 2014-07-16 | 清华大学 | 图像处理方法及图像处理装置 |
CN104021380A (zh) * | 2014-05-02 | 2014-09-03 | 香港应用科技研究院有限公司 | 通过计算装置进行面部识别的方法和装置 |
EP3040882A1 (en) * | 2015-01-05 | 2016-07-06 | Harman International Industries, Incorporated | Discovery playlist creation |
CN106295301A (zh) * | 2016-08-16 | 2017-01-04 | 美的集团股份有限公司 | 控制方法、控制装置及家用电器系统 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4702598B2 (ja) | 2005-03-15 | 2011-06-15 | オムロン株式会社 | 監視システム、監視装置および方法、記録媒体、並びにプログラム |
US8180112B2 (en) * | 2008-01-21 | 2012-05-15 | Eastman Kodak Company | Enabling persistent recognition of individuals in images |
US20110143310A1 (en) * | 2009-12-15 | 2011-06-16 | Hunter Ian W | Lorentz-Force Actuated Cleaning Device |
CN102622588B (zh) | 2012-03-08 | 2013-10-09 | 无锡中科奥森科技有限公司 | 双验证人脸防伪方法及装置 |
US20150015422A1 (en) * | 2013-07-12 | 2015-01-15 | Gulfstream Aerospace Corporation | Standby flight display system |
US10120879B2 (en) * | 2013-11-29 | 2018-11-06 | Canon Kabushiki Kaisha | Scalable attribute-driven image retrieval and re-ranking |
CN103729585B (zh) | 2013-12-06 | 2019-01-01 | 王海燕 | 一种家庭自动化系统 |
US20150220159A1 (en) * | 2014-02-04 | 2015-08-06 | Pointgrab Ltd. | System and method for control of a device based on user identification |
US10388169B2 (en) * | 2014-07-17 | 2019-08-20 | Airbus Group India Private Limited | System and method for providing in-flight weather information to compute an optimized vertical flight profile |
CN104732210A (zh) | 2015-03-17 | 2015-06-24 | 深圳超多维光电子有限公司 | 目标人脸跟踪方法及电子设备 |
US20160378079A1 (en) | 2015-06-24 | 2016-12-29 | Hon Hai Precision Industry Co., Ltd. | Computing device and electrical device controlling method |
-
2017
- 2017-07-05 US US15/642,312 patent/US10303932B2/en not_active Expired - Fee Related
-
2018
- 2018-04-13 WO PCT/CN2018/083066 patent/WO2019007131A1/en unknown
- 2018-04-13 EP EP18827936.8A patent/EP3635601A4/en not_active Withdrawn
- 2018-04-13 CN CN201880042436.3A patent/CN110799978B/zh active Active
-
2019
- 2019-04-12 US US16/382,569 patent/US10650273B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20120036016A1 (en) * | 1999-02-01 | 2012-02-09 | Hoffberg Steven M | Vehicular information system and method |
CN1659826A (zh) * | 2002-06-07 | 2005-08-24 | 皇家飞利浦电子股份有限公司 | 在局部环境中依照个人的位置与个人的选择修改局部环境的周围环境的系统和方法 |
CN103927729A (zh) * | 2013-01-10 | 2014-07-16 | 清华大学 | 图像处理方法及图像处理装置 |
CN104021380A (zh) * | 2014-05-02 | 2014-09-03 | 香港应用科技研究院有限公司 | 通过计算装置进行面部识别的方法和装置 |
EP3040882A1 (en) * | 2015-01-05 | 2016-07-06 | Harman International Industries, Incorporated | Discovery playlist creation |
CN106295301A (zh) * | 2016-08-16 | 2017-01-04 | 美的集团股份有限公司 | 控制方法、控制装置及家用电器系统 |
Also Published As
Publication number | Publication date |
---|---|
US10303932B2 (en) | 2019-05-28 |
CN110799978B (zh) | 2022-04-01 |
US20190012525A1 (en) | 2019-01-10 |
US20190236338A1 (en) | 2019-08-01 |
EP3635601A1 (en) | 2020-04-15 |
EP3635601A4 (en) | 2020-05-06 |
US10650273B2 (en) | 2020-05-12 |
WO2019007131A1 (en) | 2019-01-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110799978B (zh) | 居住环境中的人脸识别 | |
US10794609B2 (en) | Methods and systems for personalized heating, ventilation, and air conditioning | |
US11093747B2 (en) | Hazard recognition | |
US20180195752A1 (en) | Air-conditioning control method, air-conditioning control apparatus, and storage medium | |
JP7000230B2 (ja) | 香り放出システム | |
JP5355446B2 (ja) | 移動物体追跡システムおよび移動物体追跡方法 | |
CN110726212B (zh) | 空调器的控制方法及装置、空调器设备 | |
US11003916B2 (en) | Systems and methods for object historical association | |
WO2022227775A1 (zh) | 用于空调控制的方法、装置和空调 | |
CN110822616A (zh) | 空调自动调节方法及装置 | |
CN110908340A (zh) | 智能家居的控制方法及装置 | |
CN110726222B (zh) | 空调控制方法、装置、存储介质以及处理器 | |
CN112862145A (zh) | 使用体形信息的居用者热舒适度推断 | |
CN109218145A (zh) | Iot设备控制界面的显示方法、系统、设备及存储介质 | |
CN103900207B (zh) | 一种指令执行方法及空调 | |
JP6308466B2 (ja) | 環境制御装置、プログラム | |
CN110286600B (zh) | 智能家居操作系统的场景设置方法及装置 | |
CN113091245B (zh) | 用于空调的控制方法、装置及空调 | |
JP7319868B2 (ja) | 環境構築サポートシステム | |
CN112198853A (zh) | 智能家居设备的控制方法和装置 | |
WO2022009489A1 (ja) | 行動認識装置、行動認識方法、及びプログラム | |
CN111442512A (zh) | 空气环境的智能调节方法与环境调节系统 | |
CN114124597B (zh) | 一种物联网设备的控制方法、设备及系统 | |
CN114397826B (zh) | 一种智能家居控制方法、系统和装置 | |
CN114440430B (zh) | 智能家居的控制方法、智能家居设备、存储介质及处理器 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |