CN101167087A - 在对图像中的人的识别过程中使用时间 - Google Patents

在对图像中的人的识别过程中使用时间 Download PDF

Info

Publication number
CN101167087A
CN101167087A CNA2006800143672A CN200680014367A CN101167087A CN 101167087 A CN101167087 A CN 101167087A CN A2006800143672 A CNA2006800143672 A CN A2006800143672A CN 200680014367 A CN200680014367 A CN 200680014367A CN 101167087 A CN101167087 A CN 101167087A
Authority
CN
China
Prior art keywords
people
interested
apparent
time
age
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CNA2006800143672A
Other languages
English (en)
Inventor
A·C·加拉赫尔
M·达斯
P·O·施图布勒
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Eastman Kodak Co
Original Assignee
Eastman Kodak Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Eastman Kodak Co filed Critical Eastman Kodak Co
Publication of CN101167087A publication Critical patent/CN101167087A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Collating Specific Patterns (AREA)
  • Studio Devices (AREA)

Abstract

一种在随着时间而拍摄的数字图像的集合中识别至少一个感兴趣的特定人的方法包括:提供数字图像的所述集合,其中每幅数字图像包含一个或多个人;在一个数字数据库中存储具有一组特征的一个表观模型,该组特征是与感兴趣的特定人在一个关联时间的面部特征相关联的距离测量值;并且提供一个个人识别分类器,所述个人识别分类器使用所述表观模型和所述关联时间在来自数字图像的所述集合的图像中识别所述感兴趣的特定人。

Description

在对图像中的人的识别过程中使用时间
技术领域
本发明涉及图像处理,更特别地涉及对数字图像或视频的集合中的感兴趣的人的辨认或识别。
背景技术
随着数字摄影的出现,用户正在积聚大量的数字图像和视频。每个摄影者利用数字照相机拍摄的图像的平均数量每年仍在增长。因此,对于典型用户来说,对图像和视频的组织和检索已经是一个问题。目前,典型用户的数字图像集合所跨越的时间长度只有几年。随着平均数字图像和视频集合所跨越的时间长度增加,组织和检索的问题将继续增长。
用户摄影的最基本的对象之一是人。而且,在给定集合的数字图像和视频中,某些人往往会频繁地出现。例如,新为父母者所拍摄的大多数图像包含他们的新生婴儿是普遍的。用户期望具有从他们的集合中找到包含特定人的全部图像的能力。然而,这在技术上是一个非常困难的任务。例如,婴儿会从婴儿成长到幼儿、儿童、成人,并且在表观上会有根本的变化。
存在许多为了安全或其它目的而试图识别人的图像处理包。一些例子是来自Cognitec Systems GmbH的FaceVACS面部识别软件以及来自Imagis Technologies Inc.和Identix Inc.的面部识别SDK。这些程序包主要打算用于安全类型的应用,其中人在均匀的照明、正面的姿势和中性的表情下面对照相机。这些方法不适合用于个人用户图像,因为在该领域的图像中会遇到在姿势、照明、表情和面部尺寸上大的变化。而且,这些系统的目标是应用于成人面部,并且不能成功地识别处于任何年龄的感兴趣的特定人的图像。
几种用于从数字图像中检测人的年龄的图像处理技术已经被描述。例如,Lobo和Kwon在美国专利No.5,781,650中描述了一种对数字图像中人的面部的年龄进行分类的方法。他们进行面部测量和采用蛇形折线(snake)的皱纹分析,并把人的年龄分类为以下类别:婴儿(直到大约3岁)、年少者(3至40岁)和年长者(超过40岁)。该方法没有讨论识别图像中的人的身份的问题。其它面部识别的图像处理技术是已知的。例如,美国公布的专利申请US 2004/0247177A1使用本征脸来表征一个对象的面部的像素密度模式。所有上述技术都会遇到问题并且可能错误地识别感兴趣的人。
发明内容
本发明的一个目的是提供一种在图像的集合中识别一个人的改进的方法。已经确定的是,使用具有以感兴趣的已知人的面部特征之间的距离测量值为基础的特征的表观模型来分类未知的人是特别有效的。在成人中,这些距离测量值特征一般不随时间而改变,并且对感兴趣的人的搜索的精确度会得到改善。在其特征随着成长而迅速改变的儿童中,使用距离测量值的表观模型能够被有效地使用。
该目的通过一种在随着时间而拍摄的数字图像的集合中识别至少一个感兴趣的特定人的方法来实现,该方法包括:
提供数字图像的所述集合,其中每幅数字图像包含一个或多个人;
在一个数字数据库中存储具有一组特征的一个表观模型,该组特征是与在一个关联时间所述感兴趣的特定人的面部特征相关的距离测量值;并且
提供一个个人识别分类器,所述个人识别分类器使用所述表观模型和所述关联时间在来自数字图像的所述集合的图像中识别所述感兴趣的特定人。
本发明的一个有益效果是,使用一幅图像和一个关联时间,一个感兴趣的人能够在一个数字图像或视频中被识别出来。换句话说,本发明认识到,一幅婴儿的图像能够描绘与在稍后的日期拍摄的更大的儿童或成人的照片中相同的人。
附图说明
通过参考下面结合附图所作的对本发明实施例的描述,本发明的上述和其它特征和目的以及实现它们的方式将变得更加显而易见,并且本发明本身将被更好地理解。其中:
图1是可以实施本发明的计算机系统的示意图;
图2是本发明的一个实施例的流程图;
图3A和3B是具有不同关联时间的感兴趣的人的表观模型;
图4A是用于产生一个具有关联时间的表观模型的本发明的一个实施例的流程图;
图4B是一个具有标记的特征点的感兴趣的人的表观模型;
图5是本发明的一个实施例的更详细的流程图;
图6示出一个儿童的表观模型;
图7示出该表观模型的变型,其表示该儿童成年后可能的表观;
图8是本发明的一个可选实施例的流程图;
图9是本发明的一个可选实施例的流程图;以及
图10是与估计的出生日期以及和表观模型相关的出生日期相关的概率分布的曲线图。
具体实施方式
在下面的描述中,本发明的一些实施例将被描述为软件程序。本领域技术人员将容易认识到,这样的软件的等同物也能以硬件来构造。因为图像处理算法和系统是公知的,所以当前的描述将特别针对形成根据本发明的方法的一部分、或者与根据本发明的方法更直接地协作的算法和系统。在此未被专门示出或描述的、这种算法和系统的其它方面以及用于产生并以别的方式处理随其涉及的图像信号的硬件或软件,可以从本领域公知的系统、算法、部件和单元中进行选择。给定如在下面的说明书中所阐述的描述,其所有的软件实施都是常规的,并且在这种领域的普通技术手段之内。
本发明能够被实施在计算机硬件和计算机化的设备中。例如,该方法可以在数字照相机、数字打印机、因特网服务器、信息亭和个人计算机中执行。参考图1,说明了一个用于实施本发明的计算机系统。尽管为了说明优选实施例的目的而示出该计算机系统,但是本发明不限于所述计算机系统,而是可被用于例如在数字照相机、家用计算机、信息亭、零散或批量的相片洗印加工中发现的任何电子处理系统上,或者被用于任何其它用于处理数字图像的系统上。该计算机系统包括一个基于微处理器的单元20(在此也被称为数字图像处理器)以用于接收和处理软件程序以及用于执行其它处理功能。数字图像处理器20处理来自诸如照相机、扫描仪或计算机图像生成软件之类的图像捕获装置10的图像。数字图像处理器20可被用来处理数字图像,以便通过使图像输出装置30产生一个好看的图像的方式来对数字图像的整体亮度、色阶、图像结构等进行调整。数字图像处理器20与总控计算机40(也是一个基于微处理器的单元)连接以用于交换数据和命令。总控计算机40和数字图像处理器20可以是两个不同的微处理器,或者每一个的功能可被一个单独的物理微处理器来执行。数字图像处理器20常常向图像输出装置30(例如打印机)输出图像以用于显示该图像。显示装置50被电连接到数字图像处理器20以用于显示与该软件有关的用户相关信息,比如通过图像用户接口。键盘60也经由总控计算机40被连接到基于微处理器的单元20来允许用户向该软件输入信息。作为对使用键盘60进行输入的替代,鼠标也可被用于移动在显示装置50上的选择器并选择该选择器置于其上的一个项目,这是本领域所公知的。
为了提供一种向总控计算机40和数字图像处理器20输入软件程序和其它信息的手段,一个通常包含软件程序的光盘只读存储器(CD-ROM)被插入总控计算机40。另外,软盘也可以包含软件程序,并被插入总控计算机40来输入软件程序。更进一步,正如本领域所公知的,总控计算机40可被编程以在内部存储软件程序。总控计算机40可以具有到外部网络(例如局域网或因特网)的网络连接,例如电话线或无线连接。
图像也可以经由个人计算机卡(PC Card)被显示于显示装置50上,例如,正如先前所公知的,一个包含以电子的方式体现在该卡中的数字化图像的PCMCIA卡(基于个人计算机存储卡国际协会的规范)。
图像输出装置30提供最终图像。图像输出装置30可以是打印机或其它提供纸张或其它硬拷贝的最终图像的输出装置。图像输出装置30也可以是提供作为数字文件的最终图像的输出装置。图像输出装置30也可以包括输出(例如打印的图像和存储单元(比如CD或DVD)上的数字文件)的组合。
一幅数字图像包含一个或多个数字图像通道或颜色分量。每个数字图像通道都是像素的一个二维阵列。每个像素值涉及图像捕获装置接收到的与像素的物理区域相对应的光量。对于彩色成像应用,一幅数字图像通常将由红色、绿色和蓝色数字图像通道组成。运动成像应用可以被认为是数字图像的序列。本领域技术人员将认识到,本发明可被应用于(但不限于)任何这里提到的应用的数字图像通道。虽然数字图像通道被描述为以行和列排列的像素值的二维阵列,但是本领域技术人员将认识到,本发明可被应用于具有同等效果的非直线阵列。本领域技术人员还将认识到,下文描述为用处理后的像素值代替原始像素值的数字图像处理步骤在功能上等同于,把相同的处理步骤描述为用处理后的像素值生成新的数字图像,同时保留原始像素值。
应当注意,本发明可在软件或硬件的组合中实施,并且不限于物理连接的或位于相同的物理位置内的装置。图1所示的一个或多个装置可以位于远方并可经由网络连接。一个或多个装置可以直接或经由网络无线连接,例如通过射频链路。
本发明可以被用于各种用户背景和环境中。示例性的背景和环境包括但不限于批量数字相片洗印加工(其包括诸如拍摄、数字处理、打印输出之类的示例性处理步骤或阶段)、零散数字相片洗印加工(拍摄、数字处理、打印输出)、家庭打印(家用扫描胶片或数字图像、数字处理、打印输出)、桌面软件(对数字印刷品应用算法以使其更好或甚至仅使其改变的软件)、数字实现(来自介质或经由web的数字图像输入,数字处理,在介质上以数字形式、经由web以数字形式、或者在硬拷贝印刷品上打印的图像输出)、信息亭(数字或扫描输入、数字处理、数字或硬拷贝输出)、移动设备(例如可用作处理单元、显示单元、或给出处理指令的单元的PDA或蜂窝电话)、以及作为通过万维网提供的服务。
在所有情况下,本发明可以是独立的,或者可以是一个更大的系统解决方案的一个部件。而且,人机接口(例如扫描或输入,数字处理,对用户的显示(如果需要的话),用户请求或处理指令的输入(如果需要的话),输出)可处于相同或不同的装置和物理位置上,并且这些装置和位置之间的通信可以经由公共或专用的网络连接,或者是基于介质的通信。在与本发明的前述公开相一致的情况下,本发明的方法可以是全自动的,可以具有用户输入(全部或部分手动),可以具有用户或操作者的检查来接收或拒绝结果,或者可以由元数据(可以由用户提供的、由测量装置(例如在照相机中)提供的、或者由算法确定的元数据)加以辅助。此外,所述算法可以与多种工作流用户接口方案相连。
本发明包含在此描述的实施例的组合。提到“一个特定实施例”等等是指存在于本发明的至少一个实施例中的特征。单独提到“一个实施例”或“特定实施例”等等不一定是指相同的一个或多个实施例;然而,这样的实施例不是互斥的,除非被指明如此或者对本领域技术人员来说显然如此。
在图2中说明本发明的一个实施例。分析数字图像或视频104以识别其中的人的身份。对数字图像或视频104的集合中的人的识别允许建立一个数据库120,该数据库使数字图像或视频104和在数字图像或视频104中的人的身份相关。因此,可以利用一个查询122来查询数据库120,以找到那些包含所查询的人的图像和视频。数据库120可以采取任何形式。另外,例如通过把个人分类118插入到数字图像或视频104的文件头中,数据库120可以分布在许多存储位置上。例如,一个对“Jim”的图像的查询122返回包含一组含有感兴趣的人“Jim”的数字图像或视频104的查询结果124。接着查询结果124可以被返回。查询结果124是一组含有所查询的人的数字图像和视频104。
数字图像或视频104被传送到捕获时间提取器108。捕获时间提取器108确定数字图像或视频104被捕获的时间,并输出该图像捕获时间112。数字图像或视频104的图像捕获时间112由捕获时间提取器108通过几种方法中的一种来确定。时常地,捕获时间被嵌入数字图像或视频104的文件头中。例如,EXIF图像格式(描述于www.exif.org)允许图像或视频捕获装置在文件头中存储与该图像或视频相关的信息。“日期\时间”条目与图像被捕获的日期和时间相关联。在一些情况下,数字图像或视频由扫描胶片产生,并且图像捕获时间112通过对打印在图像(在捕获时常常这样做)区域(通常在图像的左下角)中的日期的检测来确定。一幅照片被打印的日期常常被打印在打印材料的背面。可选择地,一些胶片系统在胶片上含有磁性层来存储诸如捕获日期之类的信息。捕获时间提取器108使用最适当的方法来提取图像的图像捕获时间112。优选地,数字图像104的来源是数字照相机,并且捕获时间提取器108从图像文件信息中提取捕获时间。
注意,图像捕获时间112可以在时间上精确到分钟,例如2004年3月27日10:17AM。或者图像捕获时间112可以不大精确,例如2004年或2004年3月。图像捕获时间112可以采取概率分布函数的形式,例如具有95%的置信度的2004年3月27日+/-2天。图像捕获时间112被输入到个人识别分类器114。
数字图像或视频104也作为输入被提供给个人查找器(finder)106来自动地检测在数字图像或视频中的人。个人查找器106识别数字视频中的一个或多个人的个人特征110。优选地,人通过面部检测被找到。检测人脸的方法在数字图像处理的领域中是公知的。例如,一种用于找到图像中的人脸的面部检测方法在下列文章中被描述:Jones,M.J.;Viola,P.,“Fast Multi-view Face Detection”,IEEE Conference on Computer Visionand Pattern Recognition(CVPR),June 2003。而且,一旦面部被检测出来,面部特征(例如眼睛、鼻子、嘴等)也可以使用公知的方法来定位,例如由Yuille等人在“Feature Extraction from Faces Using DeformableTemplates”,Int.Journal of Comp.Vis.,Vol.8,Iss.2,1992,pp.99-111中所描述的方法。作者描述了一种使用具有模板匹配的能量最小化来定位嘴、眼睛和虹膜/巩膜边界的方法。面部特征也可以使用由T.F.Cootes和C.J.Taylor的“Constrained Active Appearance Models”,8thInternational Conference on Computer Vision,Vol.1,pages 748-754.IEEEComputer Society Press,July 2001描述的主动表观模型来找到。在优选的实施例中,使用在“An Automatic Facial Feature Finding System ForPortrait Images”,by Bolin and Chen in the Proceedings of IS&T PICSConference,2002中描述的基于人脸的主动形状模型来定位面部特征点的方法。
个人查找器106输出作为被个人查找器106检测到的人的定量描述的个人特征110。优选地,个人查找器106为每个被检测到的人输出一组个人特征110。优选地,个人特征是与特定面部特征相关联的82个特征点的位置,这是使用与前述Cootes等人的主动表观模型类似的方法找到的。一幅面部图像的面部特征点的可视表示作为说明被示出在图3A和3B中。可选择地,个人特征110可以另外利用诸如眼睛颜色、皮肤颜色、脸型等之类的可定量描述符来表示。个人特征也可以是特定特征点之间的距离或者由连接各组特定特征点的线形成的角。一旦人和面部特征被个人查找器106定位,颜色提示就容易地从数字图像或视频104中被提取出来。个人特征110被输入到个人识别分类器114。
可选择地,不同的面部特征也可以被使用。例如,一个实施例可以基于由M.Turk和A.Pentland在“Eigenfaces for Recognition”Journal ofCognitive Neuroscience.Vol 3,No 1,71-86,1991中描述的面部相似性量度。通过把面部的图像投影到一组描述面部表观的可变性的主成分函数来获得面部描述符。任何两张脸之间的相似性通过计算把每张脸投影到相同的一组函数所获得的多个特征的欧氏距离来测量。在这种情况下,表观模型可描述同一张脸的多幅图像在这些主成分函数上的投影的均值和协方差。相似性量度(例如通过图5的个人分类器132来计算)可以计算一张新脸到该模型的均值的Mahalonobis距离。
表观模型和相似性测量可以包括诸如本征脸、面部测量、颜色/纹理信息、小波特征等之类的几个不同特征类型的组合。来自所存储的数字数据库的一组表观模型1161-116N被输入到个人识别分类器114以确定被个人查找器106检测到并用个人特征110表示的人的身份。表观模型1161-116N包含与感兴趣的特定人相关联的一组特征。另外,每个表观模型具有一个关联时间。表观模型1161-116N表示感兴趣的人在特定时间或年龄的个人表观(优选面部表观)。表观模型将在下面被更详细地讨论。感兴趣的人是对在数字图像和视频104的集合中进行识别来说重要的人。例如,在一个有小孩的家庭中,每个孩子都可能会是感兴趣的人,因为对于家长来说,识别在数字媒体集合的每个照片和视频104中各个孩子的出现是有用的和有价值的。个人识别分类器114的目的是使用表观模型1161-116N、图像捕获时间112和个人特征110中的一个或多个来确定由个人查找器106检测到的人是否就是感兴趣的人。这通过将检测到的人的个人特征110与感兴趣的特定人的表观模型116的特征进行比较来实现。个人识别分类器114输出个人分类118。优选地,个人分类118是个人查找器106检测到的人正是感兴趣的人的可能性(概率)。个人分类118可以是二进制指示符(例如真或假),其指示个人识别分类器114对与个人特征110相关联的人是否就是感兴趣的人的判定。
通过对在集合的每个数字图像或视频104中检测到的每个人重复应用个人识别分类器114,所有被个人查找器106检测到的人都被按照各自正是感兴趣的特定人的可能性进行分类。
另外,感兴趣的另一人的表观模型1171-117M也被输入到个人识别分类器114。每个被个人查找器106找到的人随后生成一组个人特征110,并且个人识别分类器114输出个人分类118以指示每个被检测到的对应于一组个人特征110的人是任一感兴趣的人的可能性。个人分类优选是一组表示与个人查找器106检测到的人相对应的个人特征110正是感兴趣的特定人的概率,每个感兴趣的人一个概率。
简要概括一下,个人识别分类器114使用图像捕获时间112和具有与感兴趣的特定人相关联的关联时间的表观模型116的特征来产生描述检测到的人正是感兴趣的人的可能性的个人分类118。
个人分类118的信息随后可以被存储在数据库120中,其与个人特征110相关联或者与数字图像或视频相关联。当作出对包含感兴趣的特定人的图像或视频的查询122时,数据库120被搜索,并且适当的查询结果124通过用户接口(例如图1的显示装置50)被返回给用户。
N个表观模型1161-116N表示感兴趣的人的表观。每个表观模型具有一个关联时间。例如,表观模型1161可以表示感兴趣的人在1岁时的表观,以及表观模型1162可以表示感兴趣的人在2岁时的表观。在这个例子中,关联时间是1岁和2岁。与表观模型相关联的时间可以是感兴趣的人的年龄或者诸如日期之类的绝对时间。与图像捕获时间112一样,与表观模型相关联的时间可以是概率分布函数,或者可以是精确的(例如按天衡量的感兴趣的人的年龄)或不精确的(例如按十年衡量的感兴趣的人的年龄)。感兴趣的人的表观模型也可以包含该感兴趣的人的出生日期。与图像捕获时间112和与表观模型相关联的时间一样,出生日期可以是精确的(例如出生日期2002年6月26曰)或不精确的(例如出生日期在20世纪60年代),或者可以被表示为概率分布函数。
例如,图3A和3B示出感兴趣的特定人的两个不同的表观模型。图3A示出感兴趣的特定人在1岁时的表观模型的图示,而图3B示出感兴趣的特定人在2岁时的图示。每个表观模型图示示出了面部的轮廓、眼睛和眉毛的轮廓、以及鼻子底部的标记。所述显示被标准化,以使左眼位于(0,0)且右眼位于(1,0)。注意,2岁的表观模型中的眼睛显得比1岁时小,这是与生长相关的面部改变的结果。
为感兴趣的人生成表观模型的优选方法在图4A和4B中被示出。通过从一组含有感兴趣的人的图像中计算个人特征110来处理数字图像或视频104的集合。个人查找器106在图像中找到人,并且个人特征110被计算出来。找到的人脸被分组成具有类似面部的簇,其中每个簇表示一个人或是一个人的一个特定表观,正如在2003年11月13日公布的共同转让的美国公布专利申请20030210808 A1中所描述的。人类用户确保聚类是正确的,并且在单个簇中的所有人都是相同的感兴趣的人。同样,捕获时间提取器108提取与每个图像或视频104相关联的图像捕获时间112。图像捕获时间112和个人特征110被输入到表观模型生成器102。表观模型生成器为感兴趣的人输出一组表观模型1161-116N。人类用户输入103也被输入到表观模型生成器102来指示感兴趣的人的出生日期。表观模型生成器使用与感兴趣的人相关的个人特征并生成一组表观模型1161-116N。例如,表观模型生成器102使用与个人查找器106对感兴趣的人的所有检测相关的、感兴趣的人1岁时的个人特征来生成表观模型1161。然后,表观模型生成器102使用与个人查找器106对感兴趣的人的所有检测相关的、感兴趣的人2岁时的个人特征生成表观模型1162
因为人脸在生长年龄(0至16岁)变化最为迅速,所以儿童的表观模型需要比非生长年龄的表观模型具有更小的时间间隔(相对于表观模型的关联时间)。为了良好的性能,处于生长年龄的儿童比处于非生长年龄的成人需要数量更多的表观模型。例如,以下会是优选的:在0与6岁之间每一年、在6与16岁之间每2年、在16与22岁之间每3年、以及在这之后每5年的关联时间的间隔生成一个表观模型。表观模型116可以通过计算感兴趣的人的个人特征的全部实例的均值和协方差来生成,其中该感兴趣的人的年龄(如果该感兴趣的人的出生日期是已知的,否则使用图像捕获时间)处于给定的间隔内。概括一下,表观模型116包含表示定量的面部属性的特征。在优选的实施例中,这些面部属性是与诸如眼睛、鼻子、嘴和前额之类的面部特征相关的测量值。所用的特征被列于表1中,并且它们的计算涉及图4B中用数字所示的面部上的点。Arc(Pn,Pm)被定义为 Σ i = n m - 1 | | Pn - P ( n + 1 ) | | , 其中‖Pn-Pm‖指的是特征点n和m之间的欧氏距离。这些弧长特征除以两眼间距以在不同的面部尺寸上进行标准化。点PC是位于点0和1的形心的点(即该点正好在两眼之间)。这里使用的面部测量值源自于已经被表明与判断性别、年龄、吸引力和种族性相关的人脸的人体测量值(参考“Anthropometryof the Head and Face”by Farkas(Ed.),2nd edition,Raven Press,New York,1994)。
表1:比例特征的列表
名称  分子   分母
眼睛至鼻子/眼睛至嘴  PC-P2   PC-P32
眼睛至嘴/眼睛至下颚  PC-P32   PC-P75
头至下颚/眼睛至嘴  P62-P75   PC-P32
头至眼睛/眼睛至下颚  P62-PC   PC-P75
头至眼睛/眼睛至嘴  P62-PC   PC-P32
鼻子至下颚/眼睛至下颚  P38-P75   PC-P75
嘴至下颚/眼睛至下颚  P35-P75   PC-P75
头至鼻子/鼻子至下颚  P62-P2   P2-P75
嘴至下颚/鼻子至下颚  P35-P75   P2-P75
颚宽/脸宽  P78-P72   P56-P68
眼睛间距/鼻宽  P07-P13   P37-P39
嘴至下颚/颚宽  P35-P75   P78-P72
表2:弧长特征的列表
名称 计算
下颚弧 Arc(P69,P81)
上眼框弧 (P56-P40)+Int(P40,P44)+(P44-P48)+Arc(P48,P52)+(P52-P68)
上嘴唇弧 Arc(P23,P27)
下嘴唇弧 Arc(P27,P30)+(P30-P23)
表观模型描述了在关联时间上感兴趣的人的表观。给定的表观模型可以包含特定情况的子模型。例如,在一个给定的表观模型中可以有感兴趣的人戴眼镜时的子模型以及感兴趣的人不戴眼镜的第二表观模型。
图5说明了当与表观模型1161-116N相关的时间是感兴趣的人的年龄并且感兴趣的人的出生日期已知时个人识别分类器114更详细的视图。年龄计算器126计算感兴趣的人的在图像捕获时间的年龄。例如,如果图像捕获时间是1999年11月2日并且感兴趣的人的出生日期是1977年,则年龄计算器126确定感兴趣的人的年龄是7976天至8340天(21岁10个月2天至22岁10个月1天)。年龄建模器128使用感兴趣的人的表观模型1161-116N和由年龄计算器算出的感兴趣的人的年龄来产生年龄特定模型130。年龄建模器128优选地从感兴趣的人的N个表观模型1161-116N中选择具有最接近地匹配于该感兴趣的人在图像捕获时间的年龄的关联时间(年龄)的表观模型。例如,当感兴趣的人的年龄是7976天至8340天时,与22岁时的感兴趣的人相对应的表观模型被选择。
当年龄计算器126返回负的时间量时,这表明图像捕获时间在感兴趣的人的出生日期之前。在典型的用户图像和视频中,具有出生前的个人的图像或视频是非常罕见的(除了诸如超声之类医学成像技术)。因此,在图像捕获时间112在感兴趣的人的出生日期(被包含在表观模型116中)之前的情况下,个人识别分类器114产生个人分类118来表明由个人查找器106检测到的人不是感兴趣的人(或者具有非常低的概率或零概率或者是感兴趣的人)。同样,当年龄计算器126确定在图像捕获时间时感兴趣的人的年龄大于人类寿命的预期(例如116岁),则个人分类器132产生个人分类118来表明由个人查找器106检测到的人不是感兴趣的人(或者具有非常低的概率或零概率或者是感兴趣的人)。
可选择地,在接近图像捕获时间112的关联时间上可能没有感兴趣的人的表观模型116。例如,感兴趣的特定人可能只有一个与2岁时的该感兴趣的人相对应的表观模型116。该模型116将不适合用于确定该感兴趣的人是否在一张当该感兴趣的人的年龄将是22岁时捕获的图像内。如果表观模型的关联时间表明当感兴趣的人的年龄在0与6岁之间时,其在该感兴趣的人的年龄的1年之内,当年龄在6与16岁之间时在2年之内,当年龄在16与22岁之间时在3年之内,以及当年龄大于22岁时在5年之内,表观模型116可能是适合的。如果模型是不适合的,则年龄建模器128选择一个或多个具有与感兴趣的人在图像捕获时间112的年龄最接近的关联时间的表观模型1161-116N。然后年龄建模器128修改所选择的表观模型以便补偿在与该表观模型相关联的时间与感兴趣的人在图像捕获时间112时被确定的年龄之间的时间差。这通过使用个人特征如何随人变老而变化的通用模型来实现。该通用模型是对面部特征(例如眼睛、嘴、鼻子等)随着人变老的运动的平均的数学描述。当感兴趣的人的性别、种族背景等已知时,专用模型可被用于描述面部特征的运动。为了说明这一概念,图6示出具有3个月年龄的关联时间的特定婴儿的表观模型的表示。该表观模型通过与面部特征点从婴儿到成人的运动相关的通用模型来修改,以形成在图7中所示的当该婴儿成为30岁的成人时的年龄特定表观模型130。在该例子中,通用模型表明了面部特征点位置从婴儿到成人的变化。然而,类似的变老模型可以被用来对在任何两个年龄之间面部结构的变化进行建模,例如在3岁与5岁或者5岁与10岁之间。另外,变老模型可被用来生成比与表观模型相关的年龄年轻的年龄特定的修改的表观模型。例如,与30岁相关的表观模型可以被修改以生成感兴趣的个人在5岁时的年龄特定模型。
在另一个替代方案中,年龄特定模型130可以通过在感兴趣的人的两个或更多个表观模型1161-116N之间进行内插来生成。例如,存在4岁和8岁的感兴趣的人的表观模型。年龄计算器126确定当图像被捕获时感兴趣的人是6岁。与4岁和8岁相关的年龄模型可以被合并(例如加权平均),以创建6岁时的感兴趣的个人的估计的年龄特定模型。
再次参考图5,通过任何上面提到的方法生成的年龄特定模型130与个人查找器106所找到的个人特征110一起被输入到个人分类器132以产生个人分类118。
所述查询122可以包括人的身份和时间(绝对时间或年龄)。例如,所述查询可以是对于“Pete”在1999年期间的图像,或者是对于“Pete”在34岁时的图像。个人分类器132计算在从用户图像集合中的面部图像计算的面部测量值与为所述查询122中规定的年龄上的人存储的表观模型之间的相似性得分。检索到的图像列表按相似性递减排序以向用户显示。相似性得分是在给定的面部测量值与模型之间的加权差,其中所述权重与特定面部测量值在个人之间进行区分时的重要性成比例。例如,在权重基于测量值的方差的情况下可以使用Mahalanobis距离。在优选的实施例中,为同一个人的实例和来自一大组已知身份的面部图像的不同个人计算每个面部测量值之间的差的分布。假定零均值高斯分布,为每个面部测量值计算等概率点(在该点上所述差是来自同一人的变化与它是由于来自不同个人的两个测量值是等可能的)。用于未知的差的权重是该点的倒数,从而任何差被表示为等概率差的分数。
图8示出一个可选实施例,其中与表观模型116相关的时间是日历日期(即绝对时间),并且感兴趣的人的出生日期是未知的。在这种情况下,时间建模器134通过选择具有最接近图像捕获时间112的相关绝对时间的表观模型来生成时间特定表观模型136。该时间特定模型136然后被传送到个人分类器132以如前所述生成个人分类118。在这种情况下,因为感兴趣的人的出生日期是未知的,所以通用变老模型不能被用来对与感兴趣的人的表观模型1161-116N相关的时间之外的时间上的感兴趣的个人的表观进行建模。在一些情况下,感兴趣的个人的出生日期可以被年龄估计器142估计。当感兴趣的个人的出生日期被年龄估计器142成功地确定时,该信息被添加到表观模型116。然后可以使用如参考图5所述的方法。
年龄估计器142确定与表观模型或从中得到表观模型的数字图像相关的年龄(以及随之而来的感兴趣的人的出生日期)。年龄估计器142可以是例如Lobo在美国专利No.5,781,650中描述的方法。当年龄估计器142估计许多图像或许多表观模型的年龄并将所有估计的结果合并时,对感兴趣的人的出生日期的估计的鲁棒性得到改善。因为图像和表观模型之间的相关时间是已知的,所以鲁棒性被进一步改善。因此,当多个估计被合并时,错误的年龄估计可被拒绝。
图9示出本发明的另一个可选实施例。在该实施例中,年龄估计器142被应用于个人特征110或与检测到的人相关的原始数字图像或视频104。使用来自年龄估计器142的估计年龄和与数字图像或视频104相关的捕获时间112,生日估计器144可以估计检测到的人的出生日期。如前所述,所述检测到的出生日期是一个概率分布函数。由个人分类器146把所述检测到的出生日期与感兴趣的人的表观模型116相关联的出生日期进行比较来生成个人分类118。例如,图10示出估计的出生日期和与表观模型相关联的出生日期的说明。年龄估计器142估计,个人查找器106检测到的人的出生日期是由虚线所示的分布。与表观模型相关联的出生日期分布由实线来示出。个人分类器146基于来自生日估计器144的估计的出生日期分布和与表观模型116相关的出生日期(并且还可能考虑其它因素)来确定个人分类(例如上述两个分布的乘积的平方根的和)。个人分类器146例如可以计算分布的乘积来作为表明检测到的人正是感兴趣的人的概率或可能性的个人分类118。
图9提供的好处是确保感兴趣的人不会在具有先于该感兴趣的人的出生日期的图像捕获日期的图像中被检测到。为了说明的目的,假定年龄估计器142简单地估计任何可能被个人查找器106在图像104中找到的人至少是0岁。生日估计器144然后确定任何找到的人的出生日期必须早于捕获时间112。因此,图9的实施例提供不在任何早于与感兴趣的人相关的出生日期捕获的图像中查找感兴趣的人。年龄注意分类器114在具有晚于出生日期的捕获时间的图像104中搜索具有相关出生日期的感兴趣的人,并且不在具有早于出生日期的捕获时间的图像104中搜索该感兴趣的人。
在此描述的方法将有某些失效模式是已知的。例如,如果一幅21岁时的George Washington的雕像的图像在2005年3月14日被捕获,则图5的年龄计算器126计算感兴趣的人(George Washington)的年龄是273岁,因此个人分类器132输出被检测到的人不可能是GeorgeWashington的个人分类,因为273岁远远超出了人类的寿命预期。换言之,本方法在数字图像捕获了人的图像而不是实际的人时的相对非常少的情况下可能失效。
附图标记列表
10图像捕获装置
20数字图像处理器
30图像输出装置
40总控计算机
50显示装置
60键盘
82特征点
102表观模型生成器
103人类用户输入
104数字图像或视频
106个人查找器
108捕获时间提取器
110个人特征
112图像捕获时间
114个人识别分类器
116表观模型
118个人分类
120数据库
122查询
124查询结果
126年龄计算器
128年龄建模器
130年龄特定表观模型
132个人分类器
134时间建模器
136时间特定表观模型
142年龄估计器
144生日估计器
146个人分类

Claims (24)

1.一种在随着时间而拍摄的数字图像的集合中识别至少一个感兴趣的特定人的方法,包括:
提供数字图像的所述集合,其中每幅数字图像包含一个或多个人;
在一个数字数据库中存储具有一组特征的一个表观模型,该组特征是与所述感兴趣的特定人在一个关联时间的面部特征相关联的距离测量值;并且
提供一个个人识别分类器,所述个人识别分类器使用所述表观模型和所述关联时间在来自数字图像的所述集合的图像中识别所述感兴趣的特定人。
2.权利要求1所述的方法,其中数字图像的所述集合的每幅图像的图像捕获时间是已知的,并且被个人识别分类器用来识别感兴趣的特定人。
3.权利要求1所述的方法,其中距离测量值是与面部特征之间的距离相关联的比例或角度。
4.权利要求3所述的方法,其中面部特征包括眼睛、鼻子、眉毛或嘴。
5.权利要求1所述的方法,其中为处于其生长年龄期间的儿童使用更多数量的表观模型。
6.权利要求2所述的方法,其中感兴趣的人在图像捕获时的年龄是已知的,并且进一步包括:修改表观模型以便补偿在与该表观模型相关联的时间和感兴趣的人的年龄之间的时间差。
7.权利要求1所述的方法,进一步包括至少两个具有不同关联时间的表观模型。
8.权利要求1所述的方法,其中特征包括感兴趣的特定人的出生日期。
9.权利要求1所述的方法,其中关联时间是日历日期或感兴趣的特定人的年龄。
10.权利要求2所述的方法,进一步包括至少两个具有不同关联时间的表观模型,其中具有与图像捕获时间最接近的关联时间的表观模型被个人识别分类器用来识别感兴趣的特定人。
11.权利要求2所述的方法,其中表观模型被修改,以产生一个被个人识别分类器用来识别感兴趣的特定人的年龄特定表观模型。
12.权利要求2所述的方法,进一步包括至少两个具有不同关联时间的表观模型,其中从所述至少两个表观模型中生成一个年龄特定表观模型,其中该年龄特定表观模型被个人识别分类器用来识别感兴趣的特定人。
13.一种在随着时间而拍摄的数字图像的集合中识别至少一个感兴趣的特定人的方法,包括:
提供数字图像的所述集合,其中每幅数字图像包含一个或多个人;
在一个数字数据库中存储具有一组特征的一个表观模型,该组特征是与感兴趣的特定人的面部特征相关联的距离测量值,并且是从先前捕获的与在关联时间的感兴趣的特定人相关联的数字图像中导出的;并且
提供一个个人识别分类器,所述个人识别分类器使用所述表观模型和所述关联时间在来自数字图像的所述集合的图像中识别所述感兴趣的特定人。
14.权利要求13所述的方法,其中数字图像的所述集合包括在存储步骤中所使用的捕获的数字图像。
15.权利要求13所述的方法,其中数字图像的所述集合的每幅图像的图像捕获时间是已知的,并且被个人识别分类器用来识别感兴趣的特定人。
16.权利要求15所述的方法,其中表观模型被修改,以产生一个被个人识别分类器用来识别感兴趣的特写人的年龄特定表观模型。
17.权利要求15所述的方法,进一步包括至少两个具有不同关联时间的表观模型,其中从所述至少两个表观模型中生成一个年龄特定表观模型,其中该年龄特定表观模型被个人识别分类器用来识别感兴趣的特定人。
18.权利要求15所述的方法,进一步包括至少两个具有不同关联时间的表观模型,其中具有与图像捕获时间最接近的关联时间的表观模型被个人识别分类器用来识别感兴趣的特定人。
19.权利要求13所述的方法,其中所存储的特征是个人识别分类器使用的与感兴趣的特定人的面部特征相关联的测量值。
20.权利要求13所述的方法,进一步包括至少两个具有不同关联时间的表观模型。
21.权利要求20所述的方法,其中为处于生长年龄期间的儿童使用更多数量的表观模型。
22.权利要求13所述的方法,其中特征包括感兴趣的特定人的出生日期。
23.权利要求13所述的方法,其中关联时间是日历日期或感兴趣的特定人的年龄。
24.一种在随着时间而拍摄的数字图像的集合中识别至少一个感兴趣的特定人的方法,包括:
提供数字图像的所述集合,其中每幅数字图像的捕获时间是已知的;
在一个数字数据库中存储所述感兴趣的特定人的表观模型和所述感兴趣的人的相关出生日期;并且
仅在那些具有晚于感兴趣的个人的出生日期的捕获时间的数字图像中搜索所述感兴趣的个人。
CNA2006800143672A 2005-04-28 2006-04-18 在对图像中的人的识别过程中使用时间 Pending CN101167087A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/116,729 2005-04-28
US11/116,729 US7522773B2 (en) 2005-04-28 2005-04-28 Using time in recognizing persons in images

Publications (1)

Publication Number Publication Date
CN101167087A true CN101167087A (zh) 2008-04-23

Family

ID=36676494

Family Applications (1)

Application Number Title Priority Date Filing Date
CNA2006800143672A Pending CN101167087A (zh) 2005-04-28 2006-04-18 在对图像中的人的识别过程中使用时间

Country Status (5)

Country Link
US (1) US7522773B2 (zh)
EP (1) EP1877957A1 (zh)
JP (1) JP2008538998A (zh)
CN (1) CN101167087A (zh)
WO (1) WO2006115939A1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101815193A (zh) * 2009-02-20 2010-08-25 奥林巴斯映像株式会社 再现装置和再现方法
CN107637072A (zh) * 2015-03-18 2018-01-26 阿凡达合并第二附属有限责任公司 视频会议中的背景修改
CN109948671A (zh) * 2019-03-04 2019-06-28 腾讯科技(深圳)有限公司 图像分类方法、装置、存储介质以及内窥镜成像设备
CN109960970A (zh) * 2017-12-22 2019-07-02 北京京东尚科信息技术有限公司 基于asm算法的人脸识别方法、系统、设备和存储介质
CN111052131A (zh) * 2017-09-28 2020-04-21 松下知识产权经营株式会社 认证装置、认证系统、认证方法以及程序
US11514947B1 (en) 2014-02-05 2022-11-29 Snap Inc. Method for real-time video processing involving changing features of an object in the video

Families Citing this family (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US7444017B2 (en) * 2004-11-10 2008-10-28 Eastman Kodak Company Detecting irises and pupils in images of humans
JP2007080184A (ja) * 2005-09-16 2007-03-29 Canon Inc 画像処理装置及び方法
US20070071288A1 (en) * 2005-09-29 2007-03-29 Quen-Zong Wu Facial features based human face recognition method
US20070098303A1 (en) * 2005-10-31 2007-05-03 Eastman Kodak Company Determining a particular person from a collection
US8228382B2 (en) * 2005-11-05 2012-07-24 Ram Pattikonda System and method for counting people
JP5239126B2 (ja) * 2006-04-11 2013-07-17 株式会社ニコン 電子カメラ
WO2008023280A2 (en) * 2006-06-12 2008-02-28 Fotonation Vision Limited Advances in extending the aam techniques from grayscale to color images
US9042606B2 (en) * 2006-06-16 2015-05-26 Board Of Regents Of The Nevada System Of Higher Education Hand-based biometric analysis
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
JP4456617B2 (ja) 2007-04-16 2010-04-28 富士通株式会社 類似分析装置、画像表示装置、および画像表示プログラム
US20080270880A1 (en) * 2007-04-19 2008-10-30 Lynne Becker System and method for memoralizing predetermined events
US8160371B2 (en) * 2007-12-03 2012-04-17 Honeywell International Inc. System for finding archived objects in video data
US8180112B2 (en) 2008-01-21 2012-05-15 Eastman Kodak Company Enabling persistent recognition of individuals in images
CN103475837B (zh) 2008-05-19 2017-06-23 日立麦克赛尔株式会社 记录再现装置及方法
US20090310863A1 (en) * 2008-06-11 2009-12-17 Gallagher Andrew C Finding image capture date of hardcopy medium
US8208695B2 (en) 2008-09-25 2012-06-26 Cyberlink Corp. Systems and methods for performing image clustering
US8655084B2 (en) * 2009-06-23 2014-02-18 Board Of Regents Of The Nevada System Of Higher Education, On Behalf Of The University Of Nevada, Reno Hand-based gender classification
US8358855B2 (en) * 2009-07-08 2013-01-22 Honeywell International Inc. Determining probabilities from compared covariance appearance models to detect objects of interest in images
JP2011059940A (ja) * 2009-09-09 2011-03-24 Canon Inc 顔画像抽出装置、顔画像抽出装置の制御方法、及び制御プログラム
JP4924742B2 (ja) * 2010-06-30 2012-04-25 カシオ計算機株式会社 画像処理装置及び方法、並びにプログラム
US8565539B2 (en) * 2011-05-31 2013-10-22 Hewlett-Packard Development Company, L.P. System and method for determining estimated age using an image collection
JP2013003631A (ja) * 2011-06-13 2013-01-07 Sony Corp 情報処理装置、情報処理方法、情報処理システム、及びプログラム
US9077888B2 (en) * 2011-12-29 2015-07-07 Verizon Patent And Licensing Inc. Method and system for establishing autofocus based on priority
US20150189233A1 (en) * 2012-04-30 2015-07-02 Goggle Inc. Facilitating user interaction in a video conference
US9014510B2 (en) 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Method for presenting high-interest-level images
US8873851B2 (en) 2012-06-29 2014-10-28 Intellectual Ventures Fund 83 Llc System for presenting high-interest-level images
US9014509B2 (en) 2012-06-29 2015-04-21 Intellectual Ventures Fund 83 Llc Modifying digital images to increase interest level
US8897485B2 (en) 2012-06-29 2014-11-25 Intellectual Ventures Fund 83 Llc Determining an interest level for an image
WO2014056112A1 (en) * 2012-10-10 2014-04-17 Broadbandtv, Corp. Intelligent video thumbnail selection and generation
US9721143B2 (en) 2014-03-21 2017-08-01 International Business Machines Corporation Modification of visual depictions
US9836669B2 (en) * 2016-02-22 2017-12-05 International Business Machines Corporation Generating a reference digital image based on an indicated time frame and searching for other images using the reference digital image
JP2018081402A (ja) * 2016-11-15 2018-05-24 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
CN109447894A (zh) * 2018-08-20 2019-03-08 广州市久邦数码科技有限公司 一种基于数据分析的图像处理方法及其系统
CN110532965B (zh) 2019-08-30 2022-07-26 京东方科技集团股份有限公司 年龄识别方法、存储介质及电子设备
CN110674744A (zh) * 2019-09-24 2020-01-10 京东方科技集团股份有限公司 一种年龄识别方法、装置及电子设备
US10923045B1 (en) * 2019-11-26 2021-02-16 Himax Technologies Limited Backlight control device and method
TWI802906B (zh) * 2021-01-28 2023-05-21 旺宏電子股份有限公司 資料識別裝置及辨識方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4276570A (en) * 1979-05-08 1981-06-30 Nancy Burson Method and apparatus for producing an image of a person's face at a different age
US5781650A (en) * 1994-02-18 1998-07-14 University Of Central Florida Automatic feature detection and age classification of human faces in digital images
US6513046B1 (en) * 1999-12-15 2003-01-28 Tangis Corporation Storing and recalling information to augment human memories
JP2001297090A (ja) * 2000-04-13 2001-10-26 Konica Corp 画像データ検索方法、画像表示方法、データ検索システム、画像編集装置及びコンピュータ読み取り可能な記憶媒体
US7376276B2 (en) * 2000-08-29 2008-05-20 Imageid Ltd Indexing, storage and retrieval of digital images
JP2002170119A (ja) * 2000-12-01 2002-06-14 Minolta Co Ltd 画像認識装置、画像認識方法及び記録媒体
JP4039847B2 (ja) * 2001-11-12 2008-01-30 オリンパス株式会社 画像処理装置およびプログラム
US6922201B2 (en) * 2001-12-05 2005-07-26 Eastman Kodak Company Chronological age altering lenticular image
JP2004297167A (ja) * 2003-03-25 2004-10-21 Olympus Corp 撮像表示装置及び撮像表示システム
GB2402536B (en) * 2003-06-05 2008-04-02 Canon Kk Image processing
WO2005031612A1 (ja) * 2003-09-26 2005-04-07 Nikon Corporation 電子画像蓄積方法、電子画像蓄積装置、及び電子画像蓄積システム
US7715597B2 (en) * 2004-12-29 2010-05-11 Fotonation Ireland Limited Method and component for image recognition

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101815193A (zh) * 2009-02-20 2010-08-25 奥林巴斯映像株式会社 再现装置和再现方法
US8532439B2 (en) 2009-02-20 2013-09-10 Olympus Imaging Corp. Reproduction apparatus and reproduction method
US11514947B1 (en) 2014-02-05 2022-11-29 Snap Inc. Method for real-time video processing involving changing features of an object in the video
US11651797B2 (en) 2014-02-05 2023-05-16 Snap Inc. Real time video processing for changing proportions of an object in the video
CN107637072A (zh) * 2015-03-18 2018-01-26 阿凡达合并第二附属有限责任公司 视频会议中的背景修改
US11290682B1 (en) 2015-03-18 2022-03-29 Snap Inc. Background modification in video conferencing
CN111052131A (zh) * 2017-09-28 2020-04-21 松下知识产权经营株式会社 认证装置、认证系统、认证方法以及程序
CN111052131B (zh) * 2017-09-28 2024-04-09 松下知识产权经营株式会社 认证装置、认证系统、认证方法以及存储介质
CN109960970A (zh) * 2017-12-22 2019-07-02 北京京东尚科信息技术有限公司 基于asm算法的人脸识别方法、系统、设备和存储介质
CN109948671A (zh) * 2019-03-04 2019-06-28 腾讯科技(深圳)有限公司 图像分类方法、装置、存储介质以及内窥镜成像设备
CN109948671B (zh) * 2019-03-04 2021-11-30 腾讯医疗健康(深圳)有限公司 图像分类方法、装置、存储介质以及内窥镜成像设备

Also Published As

Publication number Publication date
WO2006115939A1 (en) 2006-11-02
US7522773B2 (en) 2009-04-21
US20060245624A1 (en) 2006-11-02
EP1877957A1 (en) 2008-01-16
JP2008538998A (ja) 2008-11-13

Similar Documents

Publication Publication Date Title
CN101167087A (zh) 在对图像中的人的识别过程中使用时间
CN101189621B (zh) 利用摄影者身份来分类图像
Dantcheva et al. Bag of soft biometrics for person identification: New trends and challenges
US8180112B2 (en) Enabling persistent recognition of individuals in images
Vaquero et al. Attribute-based people search in surveillance environments
JP5383705B2 (ja) 個人的写真集合からの社会的関係の割出し
US7864989B2 (en) Method and apparatus for adaptive context-aided human classification
US20080298643A1 (en) Composite person model from image collection
Balcan et al. Person identification in webcam images: An application of semi-supervised learning
US8386505B2 (en) Identifying unique objects in multiple image collections
CN108229674B (zh) 聚类用神经网络的训练方法和装置、聚类方法和装置
US20070098303A1 (en) Determining a particular person from a collection
US20070237364A1 (en) Method and apparatus for context-aided human identification
US20090091798A1 (en) Apparel as event marker
JP2009533725A (ja) 画像コレクション間の接続の形成
Gupta et al. Identification of age, gender, & race SMT (scare, marks, tattoos) from unconstrained facial images using statistical techniques
Abaci et al. Matching caricatures to photographs
Sheng et al. Person re-identification via learning visual similarity on corresponding patch pairs
Cao Human metrology for person classification and recognition
Gallagher et al. User-Assisted People Search in Consumer Image Collections
Tyagi et al. INTERNATIONAL JOURNAL OF ENGINEERING SCIENCES & RESEARCH TECHNOLOGY AGE GROUP ESTIMATION USING MACHINE LEARNING TECHNIQUES: A

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
AD01 Patent right deemed abandoned

Effective date of abandoning: 20080423

C20 Patent right or utility model deemed to be abandoned or is abandoned