CN102982305A - 信息处理设备和处理信息的方法、存储介质以及程序 - Google Patents

信息处理设备和处理信息的方法、存储介质以及程序 Download PDF

Info

Publication number
CN102982305A
CN102982305A CN2012101659873A CN201210165987A CN102982305A CN 102982305 A CN102982305 A CN 102982305A CN 2012101659873 A CN2012101659873 A CN 2012101659873A CN 201210165987 A CN201210165987 A CN 201210165987A CN 102982305 A CN102982305 A CN 102982305A
Authority
CN
China
Prior art keywords
similarity
identification target
statistic
image
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN2012101659873A
Other languages
English (en)
Inventor
大久保厚志
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN102982305A publication Critical patent/CN102982305A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/10Pre-processing; Data cleansing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/72Data preparation, e.g. statistical preprocessing of image or video features

Abstract

提供了一种信息处理设备和处理信息的方法、存储介质以及程序,信息处理设备包括:统计量提取部分,计算第一识别目标的多个图像的组中的全体与第二识别目标的多个图像的组中的全体之间的相似度,并从相似度中提取关于相似度的统计量;以及识别部分,基于所述关于相似度的统计量来识别所述第一识别目标与所述第二识别目标是否相同。本技术可以例如被应用于个人计算机。

Description

信息处理设备和处理信息的方法、存储介质以及程序
技术领域
本技术涉及一种信息处理设备和处理信息的方法、存储介质以及程序,更具体地说,涉及一种提高识别(identification)精确度的信息处理设备和处理信息的方法、存储介质以及程序。
背景技术
公开了一种用于根据认识(recognition)目标人物的面部图像来识别认识目标人物是否是同一人物的技术(参见日本专利特开No.2006-178651)。
在日本专利特开No.2006-178651中公开的技术中,多个认识部分获取人物的面部图像并从所获取的面部图像中提取特征图案,并且计算所提取的特征图案与先前注册的字典图案之间的相似度。
然后,计算与每个由每个认识部分计算的多个相似度对应的统计量,并识别人物。
发明内容
然而,在日本专利特开No.2006-178651中公开的技术中,因为由面部认识部分获取的面部图像的特征图案与先前注册的字典图案被一对一比较并计算相似度,所以识别精确度可能是不足的。
因此,因为根据具有不足精确度的相似度来计算统计量并基于该统计量来识别人物,所以对于识别精确度存在限制。
鉴于上述情形而提供本技术,并且本技术能够提高识别精确度。
根据本技术的一个方面,提供了一种信息处理设备,包括:统计量提取部分,计算第一识别目标的多个图像的组中的所有与第二识别目标的多个图像的组中的所有之间的相似度,并从相似度中提取相似度统计量;以及识别部分,基于相似度统计量来识别第一识别目标与第二识别目标是否相同。
该信息处理设备可以进一步包括特征量提取部分,从第一识别目标和第二识别目标的图像中提取局部特征量,并且统计量提取部分可以基于由特征量提取部分提取的第一识别目标和第二识别目标的局部特征量来计算相似度。
识别部分可以通过确定关于第一识别目标与第二识别目标的每个组合的相似度的统计量是否等于或高于对应预定阈值并综合确定结果来识别第一识别目标与第二识别目标是否相同。
统计量提取部分可以提取直方图来作为相似度统计量。
统计量提取部分可以提取平均值来作为相似度统计量。
可以从先前注册的一个图像中检测第一识别目标和第二识别目标中的一个。
根据本技术的一个方面,提供了一种处理信息的方法,包括:计算第一识别目标的多个图像的组中的所有与第二识别目标的多个图像的组中的所有之间的相似度,并从相似度中提取相似度统计量;以及基于相似度统计量来识别第一识别目标与第二识别目标是否相同。
根据本技术的一个方面,提供了一种存储程序的计算机可读存储介质,所述程序使得计算机执行如下步骤:计算第一识别目标的多个图像的组中的所有与第二识别目标的多个图像的组中的所有之间的相似度,并从相似度中提取相似度统计量;以及基于相似度统计量来识别第一识别目标与第二识别目标是否相同。
根据本技术的一个方面,提供了一种程序,使得计算机执行如下步骤:计算第一识别目标的多个图像的组中的所有与第二识别目标的多个图像的组中的所有之间的相似度,并从相似度中提取相似度统计量;以及基于相似度统计量来识别第一识别目标与第二识别目标是否相同。
根据本技术的一个方面,可以提高识别精确度。
附图说明
图1是示出面部识别单元的配置的框图,
图2是示出面部特征点检测部分的配置的框图,
图3是示出局部特征量提取部分的配置的框图,
图4是目标注册处理的流程图解释,
图5是特征点检测处理的流程图解释,
图6是示出特征点检测的例子的图,
图7是特征量提取处理的流程图解释,
图8A到图8C是示出特征提取滤波器的例子的图,
图9是面部注册处理的流程图解释,
图10是示出面部注册单元的另一配置的框图,
图11是目标注册处理的流程图解释,
图12是示出辨认器(recognizer)创建单元的配置的框图,
图13是示出局部特征量提取部分的配置的框图,
图14是面部识别字典创建处理的流程图解释,
图15是特征量提取处理的流程图解释,
图16是统计量提取处理的流程图解释,
图17是统计量提取处理的框图解释,
图18是辨认器创建处理的流程图解释,
图19是示出面部识别单元的配置的框图,
图20是目标识别处理的流程图解释,
图21A和图21B是示出面部图像组的例子的图,
图22是面部识别处理的流程图解释,
图23是图像数目与识别性能之间的关系的图解,
图24是示出面部识别单元的另一配置的框图,
图25是目标识别处理的流程图解释,以及
图26是示出应用本技术的实施例的个人计算机的硬件配置的框图。
具体实施方式
此后,将参照附图详细描述本公开的优选实施例。应当注意,在该说明书和附图中,用相同的参考数字来表示具有基本相同的功能和结构的结构元素,并且省略这些结构元素的重复解释。
下面将描述实现本公开的实施例(此后,将被称为实施例)的模式。将按照以下次序来描述实施例。
<1>第一实施例
1.面部注册单元的配置
2.目标注册处理1
3.特征点检测处理
4.特征量提取处理1
5.面部注册处理1
6.面部注册单元的配置
7.目标注册处理2
<2>第二实施例
8.辨认器创建单元的配置
9.面部识别字典创建处理
10.特征量提取处理2
11.统计量提取处理
12.辨认器创建处理
<3>第三实施例
13.面部识别单元的配置
14.目标识别处理1
15.面部识别处理
16.面部识别单元的配置
17.目标识别处理2
18.个人计算机的配置
19.其他
<第一实施例>
[面部注册单元的配置]
图1是示出面部注册单元1的配置的框图。
面部注册单元1包括图像获取部分21、同一人物面部图像提取部分22、面部特征点检测部分23、学习数据库24、局部特征量提取部分25、面部注册部分26、注册面部数据库27和面部识别字典28。
图像获取部分21获取用户输入的图像和与图像相关的信息,并将输入图像和信息输出到同一人物面部图像提取部分22。同一人物面部图像提取部分22从所获取的多个图像中的每一个中获取同一人物的面部图像,并将所提取的面部图像输出到面部特征点检测部分23。
面部特征点检测部分23基于先前存储在学习数据库24中的学习数据来从图像中检测特征点。将参照图2来详细描述面部特征点检测部分23。
图2是示出面部特征点检测部分23的配置的框图。面部特征点检测部分23包括图像剪切部分41和面部特征确定部分42。
图像剪切部分41根据所获取的图像来创建各种剪切图像,并将所创建的剪切图像输出到面部特征确定部分42。面部特征确定部分42基于所创建的剪切图像和学习数据来确定面部特征,并检测特征点。
再次参照图1,局部特征量提取部分25提取每个所检测到的特征点的特征量,即局部特征量。将参照图3来详细描述局部特征量提取部分25。
图3是示出局部特征量提取部分25的配置的框图。局部特征量提取部分25包括规格化(normalize)部分61、中间图像创建部分62、滤波器组(filter-set)选择部分63和特征量提取部分64。
规格化部分61将所获取的图像进行规格化,并将规格化后的图像输出到中间图像创建部分62和滤波器组选择部分63。中间图像创建部分62从所获取的图像中创建积分图像作为中间图像,并将积分图像输出到特征量提取部分64。
滤波器组选择部分63选择特征点和特征提取滤波器,在面部识别字典28中将所选择的特征点与所选择的特征提取滤波器相关地存储,并将所选择的特征点和特征提取滤波器输出到特征量提取部分64。特征量提取部分64基于中间图像和滤波器组来提取特征量。
再次参照图1,面部注册部分26在注册面部数据库27中将所提取的特征量与要注册的面部的人物相关地注册。
[目标注册处理1]
将参照图4至图9来描述目标注册处理1。图4是由面部注册单元1执行的目标注册处理1的流程图解释。当用户输入包括面部作为目标的图像时启动目标注册处理1。
在步骤S1中,图像获取部分21获取多个图像和注册ID(标识)。注册ID是用于识别要注册的目标的标识信息。
在步骤S2中,同一人物面部图像提取部分22从由图像获取部分21获取的图像中提取同一人物的面部图像。也就是说,按照在多个图像中包括的人物的面部图像来对多个图像进行分类。
关于面部图像的提取,例如,在运动图像的情况下可以使用面部跟踪算法,并且在静态图像的情况下可以使用面部聚类算法。可替换地,用户可以指定面部图像。
在步骤S3中,面部特征点检测部分23的图像剪切部分41获取所提取的面部图像中的一个。也就是说,从同一人物的面部图像的组中获取一个面部图像。
在步骤S4中,面部特征点检测部分23执行特征点检测处理。将参照图5来描述特征点检测处理。
[特征点检测处理]
图5是特征点检测处理的流程图解释。
在步骤S21中,图像剪切部分41创建多类剪切图像。也就是说,图像剪切部分41对所获取的图像的整个区域或部分区域执行光栅扫描,以剪切预想包括面部特征(例如,眼睛、鼻子、嘴等)的各种尺寸的图像。
在步骤S22中,面部特征确定部分42从学习数据库24中获取学习数据。在学习数据库24中,预先存储面部特征的学习数据。
在步骤S23中,面部特征确定部分42从学习数据获取一类面部特征。例如,获取眼睛作为面部特征。
在步骤S24中,面部特征确定部分42将最大相似度设置为0。也就是说,将最大相似度初始化。
在步骤S25中,面部特征确定部分42获取一个剪切图像。也就是说,获取由步骤S21中的处理创建的剪切图像。
在步骤S26中,面部特征确定部分42计算该剪切图像与面部特征之间的相似度。也就是说,对由步骤S25中的处理获取的剪切图像和步骤S23中的处理获取的面部特征实行匹配。
在步骤S27中,面部特征确定部分42确定相似度值是否大于最大相似度。也就是说,确定由步骤S26中的处理计算的值是否大于其他相似度值。
在步骤S27中,当确定相似度值大于最大相似度值时,在步骤S28中,面部特征确定部分42将最大相似度值改变为最新相似度值。也就是说,在步骤S26中计算的相似度值被分配给最大相似度值。
另一方面,如果在步骤S27中确定相似度值不大于最大相似度值,也就是说当在步骤S26中计算的相似度值低于或等于最大相似度值时,跳过步骤S28中的处理并且过程进行到步骤S29。
在步骤S29中,面部特征确定部分42确定是否获取了预定数目的剪切图像。当在步骤S29中确定未获取预定数目的剪切图像时,过程进行到步骤S30。
在步骤S30中,面部特征确定部分42获取另一剪切图像。也就是说,获取由步骤S21中的处理所创建的剪切图像中、未计算其与学习数据的面部特征的相似度的剪切图像。
在执行步骤S30中的处理之后,过程返回到步骤S26并且重复执行随后的处理。也就是说,对其他剪切图像执行类似的处理。
另一方面,当在步骤S29中确定获取了预定数目的剪切图像时,在步骤S31中,面部特征确定部分42从具有最大相似度的剪切图像中检测特征点。
图6是示出特征点检测的例子的图。在图6的例子中,用标记×来表示特征点。当获取眼睛的学习数据来作为面部特征时,检测用于识别眼睛的特征点、诸如特征点81-1。
可替换地,当获取嘴的学习数据来作为面部特征时,检测用于识别嘴的特征点、诸如特征点81-2。
在执行步骤S31中的处理之后,在步骤S32中面部特征确定部分42确定是否获取了所有类型的面部特征。当在步骤S32中确定还未获取所有类型的面部特征时,过程进行到步骤S33。
在步骤S33中,面部特征确定部分42获取另一类面部特征。例如,获取嘴来作为面部特征。在执行步骤S33中的处理之后,过程返回到步骤S24,并且重复执行随后的处理。也就是说,对另一类面部特征重复执行类似的处理。
另一方面,当在步骤S32中确定获取了所有类型的面部特征时,终止特征点提取处理,并且过程进行到图4中的步骤S5。
再次参照图4,局部特征量提取部分25在步骤S5中执行特征量提取处理1。将参照图7来描述特征量提取处理1。
[特征量提取处理1]
图7是特征量提取处理1的流程图解释。
在步骤S51中,规格化部分61对面部图像进行规格化。也就是说,通过分析面部图像来检测面部图像的方向,并且规格化面部图像,使得特征点的位置与参考位置相匹配。具体而言,执行仿射变换等。
在步骤S52中,中间图像创建部分62创建中间图像。也就是说,从规格化后的面部图像来创建积分图像,作为中间图像。
中间图像的尺寸(像素的数目)与原始图像的尺寸相同。当假设预定位置,诸如原始图像的四个角中的左上角,作为参考位置时,中间图像的每个像素的像素值被假设是在一如下的四边形范围内包括的原始图像的每个像素的亮度值之和,其中:该四边形范围具有由将参考位置与每个像素的位置连接起来的线限定的对角线。
在步骤S53中,滤波器组选择部分63获取一个特征点。也就是说,从由在步骤S4执行的特征点检测处理所检测到的多个特征点中随机获取一个特征点。
在步骤S54中,滤波器组选择部分63获取特征提取滤波器。随机获取特征提取滤波器。将参照图8来描述特征提取滤波器。
图8A至图8C是示出特征提取滤波器的例子的图。在图8A至图8C中,矩形滤波器被示出为特征提取滤波器。
矩形滤波器被分割为预定数目的矩形白色区域和矩形黑色区域,通过相对于水平方向、垂直方向或预定方向具有45度斜率的直线来分割每个区域。
通过如下操作来执行使用矩形滤波器的特征量提取,即:将矩形滤波器布置在图像的预定位置,并计算在白色区域内包括的像素的亮度值之和与在黑色区域内包括的像素的亮度值之和之间的差。
例如,在图8A中示出的2-矩形滤波器适于提取边缘的特征量,而在图8B中示出的3-矩形滤波器和在图8C中示出的4-矩形滤波器适于提取线的特征量。
滤波器组选择部分63选择例如任意选择的特征点81-1和随机选择的特征提取滤波器91-1来作为滤波器组。
可替换地,滤波器组选择部分63选择例如随机选择的特征点81-2和随机选择的特征提取滤波器91-2来作为滤波器组。
注意,除了矩形滤波器之外,特征提取滤波器可以是盖伯(Gabor)滤波器、LBP(Local Binary Pattern,局部二值模式)、SIFT(Scale-Invariant FeatureTransform,尺度不变特征变换)等。
再次参照图7,在步骤S55中,滤波器组选择部分63在面部识别字典28中存储滤波器组。也就是说,彼此相关地存储一对所选择的特征点和所选择的特征提取滤波器。所存储的滤波器组将在后面描述的图15的步骤S224中使用。
在步骤S56中,特征量提取部分64提取特征量。也就是说,滤波器组被应用于中间图像,并提取与特征点对应的特征量。
在步骤S57中,特征量提取部分64确定是否获取了预定数目的特征量。当在步骤S57中确定还未获取预定数目的特征量时,过程进行到步骤S58。
在步骤S58中,滤波器组选择部分63获取另一特征点。随机获取该另一特征点。在执行了步骤S58中的处理之后,过程返回到步骤S54并且重复执行随后的处理。也就是说,对其他特征点执行类似的处理。
另一方面,当在步骤S57中确定获取了预定数目的特征量时,在步骤S59中特征量提取部分64计算特征矢量。也就是说,通过使用所提取的特征量作为参数来计算特征矢量。
在执行了步骤S59中的处理之后,特征量提取处理1终止,且过程进行到图4中的步骤S6。
在图4的步骤S6中,面部注册部分26执行面部注册处理。将参照图9来描述面部注册处理。
[面部注册处理]
图9是面部注册处理的流程图解释。
在步骤S71中,面部注册部分26获取特征矢量。也就是说,获取由在图7的步骤S59中的处理计算的特征矢量。
在步骤S72中,面部注册部分26在注册面部数据库27中彼此相关地存储由在图4的步骤S1中的处理获取的注册ID和特征矢量。通过将特征矢量与注册ID相关来标识由特征矢量识别的面部。
在执行了步骤S72中的处理之后,面部注册处理终止,并且过程进行到图4中的步骤S7。
在图4的步骤S7中,面部特征点检测部分23的图像剪切部分41确定是否获取了全部面部图像。也就是说,确定是否对由在步骤S1中执行的处理所获取的全体图像执行了特征点检测处理、特征量提取处理1和面部注册处理。
在步骤S7中,当确定还未获取全体面部图像时,在步骤S8中,面部特征点检测部分23的图像剪切部分41获取另一面部图像。在执行步骤S8中的处理之后,过程返回到步骤S4并且重复执行随后的处理。也就是说,对其他面部图像执行类似的处理。
另一方面,当在步骤S7中确定获取了全体面部图像时,终止面部注册处理。
如上所述,提取多个图像中的每一个的特征量并与标识人物的信息一起存储在注册面部数据库27中。
注意,虽然在本实施例中输入多个图像,但是输入图像的数目可以是一个。
[面部注册单元的配置]
参照图10和图11,将描述其中输入一个图像的情况。图10是示出面部注册单元101的配置的框图。
在图10示出的面部注册单元101中,用相同的数字来表示与在图1中示出的面部注册单元1的组件相对应的那些组件。
也就是说,与面部注册单元1不同的是,面部注册单元101包括面部检测部分121,且省略了同一人物面部图像提取部分22,其他组件与面部注册单元1中的类似。当然,可以包括同一人物面部图像提取部分22。
面部检测部分121通过分析图像来检测在从图像获取部分21提供的每一个图像中包括的人物的面部的部分,并创建面部图像。
[目标注册处理2]
下面,将参照图11来描述由面部注册单元101执行的目标注册处理2。图11是目标注册处理2的流程图解释。
在图11中,步骤S103至S105中的处理分别对应于图4的步骤S4至S6的处理。因此,将简要描述这些步骤中的处理以减少重复。
在步骤S101中,图像获取部分21获取一个图像和注册ID。在步骤S102中,面部检测部分121从由图像获取部分21获取的图像中检测面部。也就是说,检测在所获取的图像中包括的人物的面部部分。
在步骤S103中,执行参照图5描述的特征点检测处理。也就是说,从由在步骤S102的处理检测的面部图像中检测特征点。
在步骤S104中,执行参照图7描述的特征量提取处理1。也就是说,提取由在步骤S103中的处理所检测到的每一个特征点的特征量。
在步骤S105中,执行参照图9描述的面部注册处理。也就是说,在注册面部数据库27中彼此相关地注册由步骤S101中的处理所获取的注册ID和由步骤S104中的处理所提取的特征量。
在执行了步骤S105中的处理之后,终止目标注册处理2。
如上所述,至少一次将特征矢量与一个注册ID相关地注册在注册面部数据库27中,这就足够了。
<第二实施例>
[辨认器创建单元的配置]
图12是示出辨认器创建单元201的配置的框图。在图12的辨认器创建单元201,用相同的数字来表示与在图1中示出的面部注册单元1的组件相对应的那些组件。
也就是说,与面部注册单元1不同的是,辨认器创建单元201包括局部特征量提取部分221、统计量提取部分222和辨认器创建部分223,且省略了局部特征量提取部分25和面部注册部分26,并且其他组件与面部注册单元1中的那些类似。
当然,可以在该实施例中包括局部特征量提取部分25、面部注册部分26和图10中示出的面部检测部分121中的至少一个。
局部特征量提取部分221提取所检测到的特征点中的每一个的特征量。将参照图13来详细描述局部特征量提取部分221。
图13是示出局部特征量提取部分221的配置的框图。在图13示出的局部特征量提取部分221中,用相同的数字来表示与在图3中示出的局部特征量提取部分25的组件相对应的那些组件。
也就是说,与局部特征量提取部分25不同的是,局部特征量提取部分221中省略了滤波器组选择部分63,并且其他组件与局部特征量提取部分25中的那些类似。
局部特征量提取部分221的特征量提取部分64获取在面部识别字典28中存储的滤波器组。
再次参照图12,统计量提取部分222基于所提取的特征量和在注册面部数据库27中先前注册的特征量来提取相似度统计量。
辨认器创建部分223基于所提取的相似度统计量,来创建多个弱辨认器用于提升(boost)处理,并且在面部识别字典28中存储综合了所创建的弱辨认器的辨认器。
[面部识别字典创建处理]
将参照图14至图18来描述面部识别字典创建处理。图14是面部识别字典创建处理的流程图解释。
在图14中,步骤S202至S204、S206和S207中的处理分别对应于图4的步骤S2至S4、S7和S8中的处理。因此,将简要描述那些步骤中的处理以减少重复。当用户输入用于学习的图像时启动面部识别字典创建处理。
在步骤S201中,图像获取部分21获取用于学习的图像、用于学习的图像信息和注册ID。用于学习的图像是与存储在注册面部数据库27中的注册ID对应的人物相同的人物的面部图像或者是不同人物的面部图像。
用于学习的图像信息是指示用于学习的图像是与注册ID对应的人物相同的人物的面部图像还是不同人物的面部图像的信息。
在步骤S202中,同一人物面部图像提取部分22从由图像获取部分21所获取的用于学习的图像中提取同一人物的面部图像。在步骤S203中,面部特征点检测部分23的图像剪切部分41获取所提取的面部图像中的一个。
在步骤S204中,执行参照图5描述的特征点检测处理。也就是说,从由步骤S203中的处理所获取的面部图像中检测特征点。
在步骤S205中,局部特征量提取部分221执行特征量提取处理2。将参照图15来描述特征量提取处理2。
[特征量提取处理2]
图15是特征量提取处理2的流程图解释。在图15中,步骤S221至S223和S225至S228中的处理分别对应于图7中的步骤S51至S53和S56至S59中的处理。将简要描述这些步骤中的处理以减少重复。
在步骤S221中,规格化部分61对面部图像进行规格化。在步骤S222中,中间图像创建部分62创建中间图像。在步骤S223中,滤波器组选择部分63获取一个特征点。
在步骤S224中,特征量提取部分64从面部识别字典28中获取滤波器组。也就是说,获取通过图7中的步骤S55而存储在面部识别字典28中的滤波器组。
例如,在其中由步骤S223中的处理所获取的特征点与图6中示出的特征点81-1对应的情况下,获取与特征点81-1相关的、在图8中示出的特征提取滤波器91-1。
在步骤S225中,特征量提取部分64提取特征量。在步骤S226中,特征量提取部分64确定是否获取了预定数目的特征量。
当在步骤S226中确定还未获取预定数目的特征量时,在步骤S227中,特征量提取部分64提取另一特征点。在执行了步骤S227中的处理之后,过程返回到步骤S224并且重复执行随后的处理。
另一方面,当在步骤S226中确定获取了预定数目的特征量时,在步骤S228中,特征量提取部分64计算特征矢量。在执行了步骤S228中的处理之后,特征量提取处理2终止,且过程进行到图14中的步骤S206。
在图14中的步骤S206中,面部特征点检测部分23的图像剪切部分41确定是否获取了全体面部图像。
当在步骤S206中确定还未获取全体面部图像时,在步骤S207中,面部特征点检测部分23的图像剪切部分41获取另一面部图像。在执行了步骤S207中的处理之后,过程返回到步骤S204并且重复执行随后的处理。
另一方面,在步骤S206中确定获取了全体面部图像,在步骤S208中,统计量提取部分222执行统计量提取处理。将参照图16来描述统计量提取处理。
[统计量提取处理]
图16是统计量提取处理的流程图解释。图17是统计量提取的图解释。
在步骤S241中,统计量提取部分222获取输入特征量矩阵X。如下面的表达式(1)所表示的,输入特征量矩阵X由M(M是自然数)个图像中的每一个的K(K是自然数)个特征量来表示。
[表达式1]
Figure BDA00001682315400131
例如,从与图17中示出的用于学习的图像241-1至241-M中的每一个的K个特征点对应的特征量获取输入特征量矩阵X。
在步骤S242中,统计量提取部分222从注册面部数据库27中获取与注册ID对应的注册特征量矩阵Yp。Yp中的字符p表示指示与注册ID对应的人物的信息。
如下面的表达式(2)所表示的,注册特征量矩阵Yp由Np(Np是自然数)个注册图像中的每一个的K个特征量来表示。
[表达式2]
Figure BDA00001682315400141
例如,从与图17中示出的注册图像261-1至261-Np中的每一个的K个特征点对应的特征量获取注册特征量矩阵Yp
注意,不必在注册面部数据库27中存储全体注册图像261-1至261-Np,并且仅需要存储注册图像261-1至261-Np中的每一个的K个特征量(即注册图像261-1至261-Np的特征矢量)。
在步骤S243中,统计量提取部分222计算相似度矩阵Sp。相似度矩阵Sp由M×Np的矩阵来表示,其中,假设输入特征量矩阵X与注册特征量矩阵Np的规格化相关性值为元素,如下面的表达式(3)所表示的。
[表达式3]
Figure BDA00001682315400142
也就是说,计算输入特征量矩阵X与注册特征量矩阵Np的每一组合的相似度。
在步骤S244中,统计量提取部分222提取相似度统计量Hp。各种技术可用于相似度统计量Hp的提取。
例如,相似度统计量Hp可以被提取为直方图,如下面的表达式(4)所表示的。
[表达式4]
HP=(hP 1…hP K)T,hP k=hist(SP k)       …(4)
基于表达式(4),提取直方图281-1至281-K,例如如图17中所示。
可替换地,相似度统计量Hp可以被提取为例如来自相似度矩阵Sp的平均值,如下面的表达式(5)所表示的。
[表达式5]
H P = ( h P 1 &CenterDot; &CenterDot; &CenterDot; h P K ) T , h P k = ave ( S P k ) = &Sigma; m = 1 M &Sigma; n = 1 N P S k mn mn . . . ( 5 )
在执行了步骤S244中的处理之后,统计量提取处理终止,并且过程返回到图14中的步骤S209。
在图14中的步骤S209中,辨认器创建部分223执行辨认器创建处理。将参照图18来描述辨认器创建处理。
[辨认器创建处理]
图18是辨认器创建处理的流程图解释。
由图18中示出的辨认器创建处理所创建并更新的辨认器Rp由许多弱辨认器fp构成,如下面的表达式(6)所表示的。
[表达式6]
R P = &Sigma; j = 1 K f P j . . . ( 6 )
弱辨认器fp j是用于确定输入数据和注册数据是否指示同一人物的函数,并且当确定结果等于或高于阈值thp j时(也就是说,输入数据和注册数据指示同一人物)弱辨认器fp j输出“+1”,并且当确定结果低于阈值thp j时输出“-1”。
辨认器Rp计算来自许多弱辨认器fp j的输出的总和并输出识别结果。
在步骤S261中,辨认器创建部分223将计数器j设置为1。也就是说,计数器j被初始化。
在步骤S262中,辨认器创建部分223获取弱辨认器fp j的阈值thp j。也就是说,获取为构成辨认器Rp的弱辨认器fp j分别设置的阈值thp j中的每一个。
在步骤S263中,辨认器创建部分223将阈值thp j设置为与相似度统计量hp j对应的值。也就是说,更新阈值thp j以便基于由图14的步骤S201中的处理所获取的用于学习的图像信息来确定输入数据和注册数据是指示同一人物还是不同人物。
例如,虽然用于学习的图像中的人物与注册图像中的人物是同一人物,但是当相似度统计量hp j低于阈值thp j以致来自弱辨认器fp j的输出是“-1”时,输出为错误。在该情况下,阈值thp j被设置为使得相似度统计量hp j变得等于或高于阈值thp j
另一方面,虽然用于学习的图像中的人物与注册图像中的人物是不同人物,但是当相似度统计量hp j等于或高于阈值thp j以致来自弱辨认器fp j的输出是“+1”时,输出为错误。在该情况下,阈值thp j被设置为使得相似度统计量hp j变得低于阈值thp j
在步骤S264中,辨认器创建部分223存储弱辨认器fp j。也就是说,更新由弱辨认器fp j构成的辨认器Rp
在步骤S265中,辨认器创建部分223将计数器j递增1。在步骤S266中,辨认器创建部分223确定计数器j的值是否大于K。
当在步骤S266中确定计数器j的值不大于K时,过程返回到步骤S262并且重复执行随后的处理。
另一方面,当在步骤S266中确定计数器j的值大于K时,辨认器创建处理终止,且在图14中示出的面部识别字典创建处理终止。
如上所述,计算用于学习的多个图像的全体与多个注册图像的全体之间的相似度,并且创建用于基于从所计算的相似度中提取的统计量来识别同一人物的辨认器。
<第三实施例>
[面部识别单元的配置]
图19是示出作为信息处理装置的面部识别单元301的配置的框图。在图19中示出的面部识别单元301中,用相同的数字来指示与在图12中示出的辨认器创建单元201中的组件相对应的那些组件。
也就是说,与辨认器创建单元201不同的是,面部识别单元301包括面部识别部分321,且省略了辨认器创建部分223,并且其他组件与辨认器创建单元201中的那些类似。
当然,辨认器创建部分223也可以被包括在该实施例中,并且可以进一步包括在图1中示出的局部特征量提取部分25和面部注册部分26。
面部识别部分321通过使用从面部识别字典28提供的辨认器来对于从统计量提取部分222提供的相似度统计量执行提升处理,并输出识别结果。
[目标识别处理1]
将参照图20至图22来描述由面部识别单元301执行的目标识别处理1。图20是目标识别处理1的流程图解释。图21A和图21B是示出面部图像组的例子的图。
在图20中,步骤S302至S308中的处理分别对应于图14的步骤S202至S208中的处理。因此,简要描述这些步骤中的处理以减少重复。当用户输入图像时启动目标识别处理1。
在步骤S301中,图像获取部分21获取多个图像和注册ID。例如,获取M’(M’是自然数)个输入图像351-1至351-M’作为在图21A中示出的输入面部图像组341。
在步骤S302中,同一人物面部图像提取部分22从由图像获取部分21所获取的多个图像中提取同一人物的面部图像。在步骤S303中,面部特征点检测部分23的图像剪切部分41获取所获取的面部图像中的一个。
在步骤S304中,执行参照图5描述的特征点检测处理。也就是说,从由步骤S303的处理所获取的面部图像中检测特征点。
在步骤S305中,执行参照图15描述的特征量提取处理2。也就是说,提取由步骤S304的处理所检测到的特征点的每一个的特征量。
在步骤S306中,面部特征点检测部分23的图像剪切部分41确定是否获取了全体面部图像。
当在步骤S306中确定还未获取全体面部图像时,在步骤S307中,面部特征点检测部分23的图像剪切部分41获取另一面部图像。在执行了步骤S307中的处理之后,过程返回到步骤S304并重复执行随后的处理。
另一方面,当在步骤S306中确定获取了全体面部图像时,在步骤S308中执行参照图16描述的统计量提取处理。
根据该处理,获取与M’个面部图像对应的输入特征量矩阵X’和与在图21B中示出的注册面部图像组361的Np(Np是自然数)个注册图像371-1至371-Np对应的注册特征量矩阵Yp’。结果,提取相似度统计量Hp’。
在步骤S309中,面部识别部分321执行面部识别处理。将参照图22来描述面部识别处理。
[面部识别处理]
图22是面部识别处理的流程图解释。
在步骤S321中,面部识别部分321从面部识别字典28中获取辨认器Rp。也就是说,获取与在步骤S301中获取的注册ID对应的辨认器Rp
在步骤S322中,面部识别部分321通过使用相似度统计量Hp来计算辨认器Rp的值。也就是说,对相似度统计量Hp执行提升处理。
具体而言,每个相似度统计量hp j是否等于或高于阈值thp j由对应的辨认器Rp的弱辨认器fp j来确定,并且通过综合确定结果(即,通过计算来自弱辨认器fp j的输出的总和)来计算辨认器Rp的值。
例如,对在图21A中示出的输入面部图像组341和在图21B中示出的注册面部图像组361提取的相似度统计量Hp’执行提升处理。
在步骤S323中,面部识别部分321输出识别结果。也就是说,识别在输入面部图像组中包括的面部是否与对应于注册ID的人物的面部相同,并输出识别结果。例如,识别在图21A中示出的输入面部图像组341中包括的人物是否与在图21B中示出的与注册ID对应的注册面部图像组361中的人物相同。
具体而言,当辨认器Rp的值为正时识别为同一人物,而当辨认器Rp的值为负时识别为不同人物。
在执行了步骤S323中的处理之后,面部识别处理终止,并且图20中示出的目标识别处理1终止。
如上所述,可以一次对多个输入图像和多个注册图像执行面部识别处理,从而减少了处理时间。注意,当输入图像为多个时,注册图像可以为一个。
此外,可以通过对局部特征量执行提升处理而选择对亮度改变、面部表情改变、年龄(secular)改变和面部方向改变具有抵抗性的不变局部特征量,从而使得能够进行对面部变动具有抵抗性的高精确度的面部识别。
此外,因为通过反映多个输入图像的全体与多个注册图像的全体之间的相似度来执行面部识别处理,所以提高了识别精确度。将参照图23来描述输入图像和注册图像的数目与识别性能之间的关系。
图23是输入图像和注册图像的数目与识别性能之间的关系的视图解释。在图23中,横轴表示在面部图像组中包括的图像的数目,且纵轴表示识别性能。为简单起见,假设输入图像的数目与注册图像的数目相同。
如图23中所示,与一个输入图像和一个注册图像的识别性能相比,识别性能随着输入图像的数目和注册图像的数目的增加而提高。
注意到,虽然在本实施例中输入图像的数目多于一个,但是输入图像的数目可以是一个。
[面部识别单元的配置]
将参照图24和图25来描述其中输入图像的数目是一个的情况。图24是示出面部识别单元401的配置的框图。
在图24示出的面部识别单元401中,用相同的数字来指示与在图10示出的面部识别单元101和在图19示出的面部识别单元301中对应的那些组件。
也就是说,与面部识别单元301不同的是,面部识别单元401包括面部检测部分121,且省略了同一人物面部图像提取部分22,并且其他组件与面部识别单元301中的那些类似。当然,可以包括同一人物面部图像提取部分22。
[目标识别处理2]
将参照图25来描述由面部识别单元401执行的目标识别处理2。
图25的步骤S401至S403中的处理分别对应于图11的步骤S101至S 103中的处理,且步骤S404至S406中的处理分别对应于图20的步骤S305、S308和S309中的处理。因此,简要描述这些步骤中的处理以减少重复。
在步骤401中,图像获取部分21获取一个图像和注册ID。在步骤S402中,面部检测部分121从由图像获取部分21获取的图像中检测面部。也就是说,检测在所获取的图像中包括的人物的面部部分。
在步骤S403中,执行参照图5描述的特征点检测处理。也就是说,从由步骤S402的处理所检测的面部图像中检测特征点。
在步骤S404中,执行参照图15描述的特征量提取处理2。也就是说,提取由步骤S403的处理所检测的特征点中的每一个的特征量。
在步骤S405中,执行参照图16描述的统计量提取处理。也就是说,获取基于由步骤S404中的处理所提取的特征量的输入特征量矩阵X和在注册面部数据库27中注册的注册特征量矩阵Yp。结果,提取相似度统计量Hp
在步骤S406中,执行参照图22描述的面部识别处理。也就是说,对于由步骤S405中的处理所提取的相似度统计量Hp执行通过使用在面部识别字典28中存储的辨认器Rp的提升处理,并识别面部。
在执行了步骤S406中的处理之后,目标识别处理2终止。
如上所述,可以执行通过使用一个输入图像和多个注册图像识别面部的处理。
[个人计算机的配置]
图26是示出通过使用程序来执行上述一系列过程的个人计算机501的硬件配置的例子的框图。
在个人计算机501中,通过总线524来互相连接CPU(中央处理单元)521、ROM(只读存储器)522和RAM(随机存取存储器)。
此外,输入-输出接口525连接到总线524。输入部分526、输出部分527、存储部分528、通信部分529和驱动530连接到输入-输出接口525。
输入部分526包括键盘、鼠标、麦克风等。输出部分527包括显示器、扬声器等。存储部分528包括硬盘、非易失性存储器等。
通信部分529包括网络接口等。驱动530驱动硬盘、光盘、磁光盘和诸如半导体存储器的可移除媒体531等。
在如上所述的个人计算机501中,CPU 521经由输入-输出接口525和总线524将例如存储在存储部分528中的程序加载到RAM 523中,并执行从而实现各种处理的程序。
在诸如封装媒体的可移除媒体531中记录和提供CPU 521执行的程序。
注意到,磁盘(包括柔性盘)、光盘(CD-ROM(紧致盘-只读存储器)、DVD(数字多功能盘)等)、磁光盘、半导体存储器等被用作封装媒体。
可替换地,可以经由诸如局域网、因特网和数字卫星广播的有线或无线传输介质来提供程序。
在个人计算机501中,可以通过将可移除媒体531加载到驱动530中,而经由输入-输出接口525来在存储部分528中安装程序。
可替换地,可以通过经由有线或无线传输介质在通信部分529处接收程序来在存储部分28中安装程序。此外,可以预先在ROM 522或存储部分528中安装程序。
注意到,个人计算机501执行的程序可以是按照本说明书的描述顺序依序执行的程序,或者可以是并行执行的程序,或者可以是当在诸如被调用时的必要时被执行的程序。
[其他]
本技术的实施例不限于上述实施例,而是可以发生各种修改,只要它们在本技术的范围内即可。此外,在本技术的实施例中,可以在另一设备中包括部分功能。
注意到,在本技术的实施例中,描述了其中识别目标是面部的情况,但是识别目标可以是除面部以外。识别目标可以是手、动物、物体等。
本领域技术人员应当理解,取决于设计需求和其他因素,可以存在各种修改、组合、子组合和替换,只要它们在所附权利要求及其等价物的范围内即可。
此外,也可以如下配置本技术。
(1)一种信息处理设备,包括:
统计量提取部分,计算第一识别目标的多个图像的组中的全体与第二识别目标的多个图像的组中的全体之间的相似度,并从相似度中提取相似度统计量;以及
识别部分,基于所述相似度统计量来识别所述第一识别目标与所述第二识别目标是否相同。
(2)根据(1)所述的信息处理设备,进一步包括:
特征量提取部分,从所述第一识别目标和所述第二识别目标的图像中提取局部特征量,
其中,所述统计量提取部分基于由所述特征量提取部分提取的所述第一识别目标和所述第二识别目标的局部特征量来计算所述相似度。
(3)根据(1)或(2)所述的信息处理设备,其中,所述识别部分通过确定关于所述第一识别目标与所述第二识别目标的每个组合的相似度的统计量是否等于或高于对应预定阈值并综合确定结果来识别所述第一识别目标与所述第二识别目标是否相同。
(4)根据(1)至(3)中的任一项所述的信息处理设备,其中,所述统计量提取部分提取直方图来作为所述相似度统计量。
(5)根据(1)至(3)中的任一项所述的信息处理设备,其中,所述统计量提取部分提取平均值来作为所述相似度统计量。
(6)根据(1)至(5)中的任一项所述的信息处理设备,其中,从先前注册的一个图像中检测所述第一识别目标和所述第二识别目标中的一个。
(7)一种信息处理方法,包括:
计算第一识别目标的多个图像的组中的全体与第二识别目标的多个图像的组中的全体之间的相似度,并从相似度中提取相似度统计量;以及
基于所述相似度统计量来识别所述第一识别目标与所述第二识别目标是否相同。
(8)一种存储程序的计算机可读存储介质,所述程序使得计算机执行如下步骤:
计算第一识别目标的多个图像的组中的全体与第二识别目标的多个图像的组中的全体之间的相似度,并从相似度中提取相似度统计量;以及
基于所述相似度统计量来识别所述第一识别目标与所述第二识别目标是否相同。
(9)一种程序,使得计算机执行如下步骤:
计算第一识别目标的多个图像的组中的全体与第二识别目标的多个图像的组中的全体之间的相似度,并从相似度中提取相似度统计量;以及
基于所述相似度统计量来识别所述第一识别目标与所述第二识别目标是否相同。
本公开包括涉及在2011年6月1日向日本专利局提交的日本优先权专利申请JP 2011-123370中公开的主题,其全部内容通过引用而被合并于此。

Claims (9)

1.一种信息处理设备,包括:
统计量提取部分,计算第一识别目标的多个图像的组中的全体与第二识别目标的多个图像的组中的全体之间的相似度,并从相似度中提取相似度统计量;以及
识别部分,基于所述相似度统计量来识别所述第一识别目标与所述第二识别目标是否相同。
2.根据权利要求1所述的信息处理设备,进一步包括:
特征量提取部分,从所述第一识别目标和所述第二识别目标的图像中提取局部特征量,
其中,所述统计量提取部分基于由所述特征量提取部分提取的所述第一识别目标和所述第二识别目标的局部特征量来计算所述相似度。
3.根据权利要求2所述的信息处理设备,其中,所述识别部分通过确定关于所述第一识别目标与所述第二识别目标的每个组合的相似度的统计量是否等于或高于对应预定阈值并综合确定结果来识别所述第一识别目标与所述第二识别目标是否相同。
4.根据权利要求3所述的信息处理设备,其中,所述统计量提取部分提取直方图来作为所述相似度统计量。
5.根据权利要求3所述的信息处理设备,其中,所述统计量提取部分提取平均值来作为所述相似度统计量。
6.根据权利要求4所述的信息处理设备,其中,所述第一识别目标和所述第二识别目标中的一个是从先前注册的一个图像中检测的。
7.一种信息处理方法,包括:
计算第一识别目标的多个图像的组中的全体与第二识别目标的多个图像的组中的全体之间的相似度,并从相似度中提取相似度统计量;以及
基于所述相似度统计量来识别所述第一识别目标与所述第二识别目标是否相同。
8.一种存储程序的计算机可读存储介质,所述程序使得计算机执行如下步骤:
计算第一识别目标的多个图像的组中的全体与第二识别目标的多个图像的组中的全体之间的相似度,并从相似度中提取相似度统计量;以及
基于所述相似度统计量来识别所述第一识别目标与所述第二识别目标是否相同。
9.一种程序,使得计算机执行如下步骤:
计算第一识别目标的多个图像的组中的全体与第二识别目标的多个图像的组中的全体之间的相似度,并从相似度中提取相似度统计量;以及
基于所述相似度统计量来识别所述第一识别目标与所述第二识别目标是否相同。
CN2012101659873A 2011-06-01 2012-05-25 信息处理设备和处理信息的方法、存储介质以及程序 Pending CN102982305A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2011-123370 2011-06-01
JP2011123370A JP2012252447A (ja) 2011-06-01 2011-06-01 情報処理装置および方法、記録媒体、並びにプログラム

Publications (1)

Publication Number Publication Date
CN102982305A true CN102982305A (zh) 2013-03-20

Family

ID=47261743

Family Applications (1)

Application Number Title Priority Date Filing Date
CN2012101659873A Pending CN102982305A (zh) 2011-06-01 2012-05-25 信息处理设备和处理信息的方法、存储介质以及程序

Country Status (3)

Country Link
US (1) US9025882B2 (zh)
JP (1) JP2012252447A (zh)
CN (1) CN102982305A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203263A (zh) * 2016-06-27 2016-12-07 辽宁工程技术大学 一种基于局部特征的脸型分类方法

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20140055819A (ko) * 2012-11-01 2014-05-09 삼성전자주식회사 얼굴인식장치 및 그 제어방법
JP6160196B2 (ja) * 2013-04-15 2017-07-12 オムロン株式会社 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法
US20150278635A1 (en) * 2014-03-31 2015-10-01 Massachusetts Institute Of Technology Methods and apparatus for learning representations
CN103971135A (zh) * 2014-05-05 2014-08-06 中国民航大学 基于头肩深度信息特征的人体目标检测方法
CN107705320B (zh) * 2016-08-08 2022-01-11 佳能株式会社 跟踪视频中的对象的边界点的方法和装置
WO2018033137A1 (zh) * 2016-08-19 2018-02-22 北京市商汤科技开发有限公司 在视频图像中展示业务对象的方法、装置和电子设备
US10621419B2 (en) * 2016-12-06 2020-04-14 Robert William Kocher Method and system for increasing biometric acceptance rates and reducing false accept rates and false rates
JP6981265B2 (ja) * 2018-01-11 2021-12-15 富士通株式会社 生体認証装置、生体認証方法、および生体認証プログラム
CN111382751B (zh) * 2020-03-11 2023-04-18 西安应用光学研究所 一种基于颜色特征的目标再识别方法
CN111797746A (zh) * 2020-06-28 2020-10-20 北京小米松果电子有限公司 人脸识别方法、装置及计算机可读存储介质

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030161504A1 (en) * 2002-02-27 2003-08-28 Nec Corporation Image recognition system and recognition method thereof, and program
JP2006178651A (ja) * 2004-12-21 2006-07-06 Toshiba Corp 人物認識装置、人物認識方法および通行制御装置
CN101276421A (zh) * 2008-04-18 2008-10-01 清华大学 人脸部件特征和Gabor人脸特征融合的人脸识别方法及其装置

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0944018B1 (en) * 1998-03-19 2011-08-24 Panasonic Corporation Method and apparatus for recognizing image pattern, method and apparatus for judging identity of image patterns, recording medium for recording the pattern recognizing method and recording medium for recording the pattern identity judging method
GB2395780A (en) * 2002-11-29 2004-06-02 Sony Uk Ltd Face detection
KR100745981B1 (ko) * 2006-01-13 2007-08-06 삼성전자주식회사 보상적 특징에 기반한 확장형 얼굴 인식 방법 및 장치
US8165397B2 (en) * 2006-12-04 2012-04-24 Lockheed Martin Company Identifying descriptor for person or object in an image
JP2009087232A (ja) * 2007-10-02 2009-04-23 Toshiba Corp 人物認証装置および人物認証方法
CN101414348A (zh) * 2007-10-19 2009-04-22 三星电子株式会社 多角度人脸识别方法和系统
WO2009148731A1 (en) * 2008-06-02 2009-12-10 Massachusetts Institute Of Technology Fast pattern classification based on a sparse transform
US8553983B2 (en) * 2008-07-10 2013-10-08 Nec Corporation Personal authentication system and personal authentication method
JP4720880B2 (ja) * 2008-09-04 2011-07-13 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
US8379937B1 (en) * 2008-09-29 2013-02-19 Videomining Corporation Method and system for robust human ethnicity recognition using image feature-based probabilistic graphical models
JP4710978B2 (ja) * 2009-01-09 2011-06-29 ソニー株式会社 対象物検出装置、撮像装置、対象物検出方法およびプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20030161504A1 (en) * 2002-02-27 2003-08-28 Nec Corporation Image recognition system and recognition method thereof, and program
JP2006178651A (ja) * 2004-12-21 2006-07-06 Toshiba Corp 人物認識装置、人物認識方法および通行制御装置
CN101276421A (zh) * 2008-04-18 2008-10-01 清华大学 人脸部件特征和Gabor人脸特征融合的人脸识别方法及其装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106203263A (zh) * 2016-06-27 2016-12-07 辽宁工程技术大学 一种基于局部特征的脸型分类方法

Also Published As

Publication number Publication date
JP2012252447A (ja) 2012-12-20
US20120308141A1 (en) 2012-12-06
US9025882B2 (en) 2015-05-05

Similar Documents

Publication Publication Date Title
CN102982305A (zh) 信息处理设备和处理信息的方法、存储介质以及程序
US7840037B2 (en) Adaptive scanning for performance enhancement in image detection systems
US6996295B2 (en) Automatic document reading system for technical drawings
US11587222B2 (en) Method and apparatus for detecting defect pattern on wafer based on unsupervised learning
CN111582008B (zh) 训练分类模型的装置和方法及利用分类模型分类的装置
US20140348420A1 (en) Method and system for automatic selection of one or more image processing algorithm
CN108108753B (zh) 一种基于支持向量机的复选框选择状态的识别方法及装置
JP5500024B2 (ja) 画像認識方法及び装置並びにプログラム
CN103136504A (zh) 人脸识别方法及装置
US10043071B1 (en) Automated document classification
CN102087710A (zh) 学习设备和方法、识别设备和方法、以及程序
CN107392221B (zh) 分类模型的训练方法、分类ocr识别结果的方法及装置
CN103824090A (zh) 一种自适应的人脸低层特征选择方法及人脸属性识别方法
TW200529093A (en) Face image detection method, face image detection system, and face image detection program
CN111368682A (zh) 一种基于faster RCNN台标检测与识别的方法及系统
US20230147685A1 (en) Generalized anomaly detection
CN110796039B (zh) 一种面部瑕疵检测方法、装置、电子设备及存储介质
US10970531B2 (en) Digitization of industrial inspection sheets by inferring visual relations
CN112784494B (zh) 假阳性识别模型的训练方法、目标识别方法及装置
US6694059B1 (en) Robustness enhancement and evaluation of image information extraction
JP2013003686A (ja) 認識装置および方法、プログラム、並びに記録媒体
CN101826150A (zh) 头部检测方法和设备,头部检测及类别判断方法和装置
CN111325282A (zh) 适应多机型的乳腺x射线影像识别方法和装置
US20230069960A1 (en) Generalized anomaly detection
CN113139932B (zh) 一种基于集成学习的深度学习缺陷图像识别方法及系统

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
WD01 Invention patent application deemed withdrawn after publication
WD01 Invention patent application deemed withdrawn after publication

Application publication date: 20130320