CN101196992A - 信息处理装置和方法、识别装置和信息识别方法及程序 - Google Patents

信息处理装置和方法、识别装置和信息识别方法及程序 Download PDF

Info

Publication number
CN101196992A
CN101196992A CNA200710195332XA CN200710195332A CN101196992A CN 101196992 A CN101196992 A CN 101196992A CN A200710195332X A CNA200710195332X A CN A200710195332XA CN 200710195332 A CN200710195332 A CN 200710195332A CN 101196992 A CN101196992 A CN 101196992A
Authority
CN
China
Prior art keywords
characteristic quantity
dimension
characteristic
predetermined
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA200710195332XA
Other languages
English (en)
Other versions
CN101196992B (zh
Inventor
大久保厚志
横野顺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN101196992A publication Critical patent/CN101196992A/zh
Application granted granted Critical
Publication of CN101196992B publication Critical patent/CN101196992B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2115Selection of the most significant subset of features by evaluating different subsets according to an optimisation criterion, e.g. class separability, forward selection or backward elimination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2132Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on discrimination criteria, e.g. discriminant analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Processing (AREA)

Abstract

本发明提供了一种信息处理装置,包括:组合生成装置,用于从为执行学习而准备的第一信息中得到N维的第一特征量,N是至少为二的整数,并且组合生成装置使用N维的第一特征量来生成不大于第一特征量的N维的至少两个第一特征量组合;以及学习处理执行装置,用于计算由组合生成装置生成的多个第一特征量组合和与多个第一特征量组合中的每一维相匹配的学习模型特征量之间的相关系数,并且利用第一相关系数对第一信息进行分类,从而执行用于对预定第二信息进行分类的学习处理。

Description

信息处理装置和方法、识别装置和信息识别方法及程序
技术领域
本发明涉及信息处理装置和信息处理方法、识别装置和信息识别方法以及程序,更具体地说,本发明涉及适于通过利用两个特征量之间的相关性来执行识别处理的信息处理装置和信息处理方法、识别装置和信息识别方法以及程序。
背景技术
已知一种技术,其中在识别两幅面部图像是否属于同一人时,通过利用伽柏(Gabor)滤波器来提取面部的各个特征点的局部特征向量(或者说伽柏特征矢量(Gabor jet))并且通过利用SVM(支持向量机)来学习仅由伽柏滤波器的所有维的相关值构成的相关向量,以便生成用来执行识别处理的识别设备(参考公开申请WO03/019475)。
发明内容
在上述的相关技术中,提取面部的各种特征点的伽柏特征矢量并且利用SVM来学习仅由伽柏滤波器的所有维的相关值组成的相关向量,从而生成识别设备。但是,并非总是需要使用所有的伽柏特征矢量来描述每个面部特征点处的局部特征量;例如,认为存在许多特征点,这些特征点具有某些不与局部图像特征相关的伽柏特征矢量(或者组成每个伽柏特征矢量的伽柏特征中的一部分)。
取得由包括不与上述局部特征相关联的伽柏特征的伽柏特征矢量组成的局部特征向量之间的相关度指示出不相关的特征量很有可能产生反作用。另外,在某些局部图像特征中,互相独立的特征可能被组合;但是,获得所有局部特征之间的相关度可能无法独立地提取其间的相似度。
因此,通过提供被配置为基于两个特征量之间的相关性来显著地提高执行信息处理时的识别精度的信息处理装置和信息处理方法、识别装置和信息识别方法以及程序,本发明针对与相关技术方法和装置相关联的上述以及其他的问题并且解决了所针对的问题。
在实现本发明时,根据本发明的第一实施方式,提供了一种信息处理装置。该信息处理装置具有:组合生成装置,用于从为执行学习而准备的第一信息中得到N维(N是至少为二的整数)的第一特征量,并且使用N维的第一特征量来生成第一特征量的不大于N维的至少两个第一特征量组合;以及学习处理执行装置,用于计算由组合生成装置生成的多个第一特征量组合和与多个第一特征量组合中的每一维相匹配的学习模型特征量之间的第一相关系数,并且利用第一相关系数对第一信息进行分类,从而执行用于对预定第二信息进行分类的学习处理。
在上述的信息处理装置中,组合生成装置通过对包括在矩阵中的连续区域中的第一特征量进行组合来生成多个第一特征量组合,所述矩阵具有按照属性进行分类的构成N维第一特征量的元素。
在上述的信息处理装置中,N维第一特征量是由N种伽柏滤波器得到的特征量。
在上述的信息处理装置中,组合生成装置通过对包括在矩阵中的连续区域中的第一特征量进行组合来生成多个第一特征量组合,所述矩阵是在通过所述N种伽柏滤波器得到的特征量中按照所述N种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵。
在上述的信息处理装置中,组合生成装置通过对包括在矩形区域中的第一特征量进行组合来生成多个第一特征量组合,所述矩形区域是矩阵中滤波频率和滤波方向包括在预定范围内的矩形区域,所述矩阵是在通过所述N种伽柏滤波器得到的特征量中按照所述N种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵。
在上述的信息处理装置中,学习处理执行装置通过利用提升算法对第一信息进行分类来执行学习处理。
在上述的信息处理装置中,组合生成装置从第二信息中得到基于在由学习处理执行装置执行的学习处理中生成的预定认识器而预先确定的不大于N维的预定第二特征量,从而进一步生成基于认识器而预先确定的第二特征量的不大于N维的多个第二特征量组合,信息处理装置还具有分类处理执行装置,用于计算由组合生成装置生成的多个第二特征量组合和与多个第二特征量组合中的每一维相匹配的已登记特征量之间的第二相关系数,从而利用所得到的第二相关系数和认识器对第二信息进行分类。
在实现本发明时,根据本发明的另一第一实施方式,提供了一种被配置为在用于执行用于分类处理的学习的信息处理装置中使用的信息处理方法。该信息处理方法包括以下步骤:从为执行学习而准备的第一信息中得到N维(N是至少为二的整数)的第一特征量;利用N维第一特征量来生成第一特征量的不大于N维的多个第一特征量组合;得到与多个第一特征量组合中的每一维相匹配的学习模型特征量,以计算多个第一特征量组合与学习模型特征量之间的第一相关系数;以及通过利用第一相关系数对第一信息进行分类来对预定的第二信息进行分类。
上述的信息处理方法还包括以下步骤:从所被提供的将被分类处理进行分类的第二信息中得到基于由学习处理进行学习而得到的认识器而预先确定的不大于N维的第二特征量;利用不大于N维的第二特征量,生成基于认识器而预先确定的第二特征量的不大于N维的多个第二特征量组合;得到与多个第二特征量组合中的每一维相匹配的已登记特征量;计算多个第二特征量组合与已登记特征量之间的第二相关系数;以及利用由学习处理进行学习而得到的认识器和第二相关系数对第二信息进行分类。
在实现本发明时,根据本发明的又一第一实施方式,提供了一种被配置为使计算机执行用于分类的学习的程序。该程序包括以下步骤:从为执行学习而准备的第一信息中得到N维(N是至少为二的整数)的第一特征量;利用N维第一特征量来生成第一特征量的不大于N维的多个第一特征量组合;得到与多个第一特征量组合中的每一维相匹配的学习模型特征量,以计算多个第一特征量组合与学习模型特征量之间的第一相关系数;以及通过利用第一相关系数对第一信息进行分类来执行用于对预定的第二信息进行分类的学习过程。
上述的程序还包括以下步骤:从所被提供的将被分类处理进行分类的第二信息中得到基于由学习处理进行学习而得到的认识器而预先确定的不大于N维的第二特征量;利用不大于N维的第二特征量,生成基于认识器而预先确定的第二特征量的不大于N维的多个第二特征量组合;得到与多个第二特征量组合中的每一维相匹配的已登记特征量;计算多个第二特征量组合与已登记特征量之间的第二相关系数;以及利用由学习处理进行学习而得到的认识器和第二相关系数对第二信息进行分类。
在实现本发明时,根据本发明的第二实施方式,提供了一种识别装置,该识别装置能够得到N维(N是至少为二的整数)特征量以执行识别处理,该识别处理利用由学习处理得到的预定认识器对预定信息进行分类。该识别装置具有:组合生成装置,用于从预定信息中得到基于认识器而预先确定的小于N维的预定特征量,以生成基于认识器而预先确定的特征量的小于N维的多个特征量组合;以及分类处理执行装置,用于计算由组合生成装置生成的多个特征量组合和与多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数,以利用相关系数基于认识器对预定信息进行分类。
在上述的识别装置中,基于认识器而预先确定的小于N维的特征量组合是包括在矩阵中的连续区域中的多个特征量组合,所述矩阵具有按照属性进行分类的构成N维特征量的元素。
在上述的识别装置中,特征量是由多种伽柏滤波器中的任何一个得到的量。
在上述的识别装置中,基于所述认识器而预先确定的小于N维的多个特征量组合是这样的多个组合,其中包括在按照多种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的连续区域中的特征量被组合。
在上述的识别装置中,基于所述认识器而预先确定的小于N维的所述特征量组合是这样的多个组合,其中包括在按照所述伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的滤波频率和滤波方向包括在预定范围内的矩形区域中包括的特征量被组合。
在上述的识别装置中,分类处理执行装置利用提升算法对预定信息进行分类。
在实现本发明时,根据本发明的另一第二实施方式,提供了一种在下述识别装置中使用的信息识别方法,所述识别装置具有由学习处理得到的预定认识器和用于存储关于用于识别的特征量的信息的存储器,并且所述识别装置能够得到N维(N是至少为二的整数)特征量以执行用于对预定信息进行分类的识别处理。上述的信息识别方法包括以下步骤:利用存储在存储装置中的认识器和用于识别的特征量,得到基于认识器而预先确定的不大于N维的预定特征量中的与用于识别的特征量相匹配的特征量;利用存储在存储器中的认识器和用于识别的特征量,从预定信息生成与用于识别的特征量相匹配的特征量的不大于N维的多个特征量组合;得到与多个特征量组合中的每一维相匹配的已登记特征量;计算所生成的多个特征量组合和与多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数;以及利用相关系数基于认识器对预定信息进行分类。
在实现本发明时,根据本发明的又一第二实施方式,提供了一种被配置为使计算机执行下述识别处理的程序,所述识别处理通过得到N维(N是至少为二的整数)特征量、利用存储在存储器中的由学习处理得到的预定认识器和关于用于识别的特征量的信息对预定信息进行分类。该程序包括以下步骤:利用存储在存储装置中的认识器和用于识别的特征量,得到基于认识器而预先确定的不大于N维的预定特征量中的与用于识别的特征量相匹配的特征量;利用存储在所述存储器中的所述认识器和所述用于识别的特征量,从所述预定信息生成与所述用于识别的特征量相匹配的所述特征量的不大于N维的多个特征量组合;得到与多个特征量组合中的每一维相匹配的已登记特征量;计算所生成的多个特征量组合和与多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数;以及利用相关系数基于认识器对预定信息进行分类。
在上述的本发明第一实施方式中,从预定信息得到N维特征量,并且从所得到的N维特征量生成不大于N维的两个或多个特征量组合,所生成的特征量组合和与特征量组合中的每一维相匹配的学习模型特征量之间的相关系数被计算,从而利用得到的相关系数执行用于对预定信息进行分类的学习处理。
在上述的本发明第二实施方式中,从预定信息得到基于认识器而预先确定的小于N维的特征量,利用得到的小于N维的特征量来得到小于N维的两个或多个特征量组合,并且所生成的特征量组合和与特征量组合中的每一维相匹配的学习模型特征量之间的相关系数被得到,从而利用得到的相关系数通过对预定信息进行分类来执行学习处理。
在实现本发明时,根据本发明的第三实施方式,提供了一种识别装置,该识别装置能够得到N维(N是至少为二的整数)特征量以执行用于对预定信息进行分类的识别处理。该识别装置具有:存储装置,用于存储由学习处理得到的预定认识器和关于用于识别的特征量的信息;组合生成装置,用于利用存储在存储装置中的认识器和用于识别的特征量从预定信息得到基于所述认识器而预先确定的不大于N维的预定特征量中的与用于识别的特征量相匹配的特征量,以提供与用于识别的特征量相匹配的特征量的不大于N维的多个特征量组合;以及分类处理执行装置,用于计算由组合生成装置生成的多个特征量组合和与多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数,以利用相关系数基于认识器对预定信息进行分类。
在上述的识别装置中,用于识别的特征量指示出在认识器中使用的特定特征点处的特定局部特征量。
在上述的识别装置中,基于认识器而预先确定的不大于N维的特征量组合是包括在矩阵中的连续区域中的多个特征量组合,所述矩阵具有按照属性进行分类的构成N维特征量的元素。
在上述的识别装置中,特征量是由多种伽柏滤波器中的任何一种得到的特征量。
在上述的识别装置中,基于认识器而预先确定的不大于N维的多个特征量组合是这样的多个组合,其中包括在按照多种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的连续区域中的特征量被组合。
在上述的识别装置中,基于所述认识器而预先确定的不大于N维的多个特征量组合是这样的多个组合,其中所述特征量被包括在矩形的预定区域中的包括滤波频率和滤波方向的矩形区域中,所述矩阵是按照所述多种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵。
在上述的识别装置中,分类处理执行装置利用提升算法对预定信息进行分类。
在实现本发明时,根据本发明的另一第三实施方式,提供了一种在下述识别装置中使用的信息识别方法,所述识别装置具有由学习处理得到的预定认识器和用于存储关于用于识别的特征量的信息的存储器,并且所述识别装置能够得到N维(N是至少为二的整数)特征量以执行用于对预定信息进行分类的识别处理。该信息识别方法具有以下步骤:利用存储在存储装置中的认识器和用于识别的特征量,得到基于认识器而预先确定的不大于N维的预定特征量中的与用于识别的特征量相匹配的特征量;利用存储在存储器中的认识器和用于识别的特征量,从预定信息生成与用于识别的特征量相匹配的特征量的不大于N维的多个特征量组合;得到与多个特征量组合中的每一维相匹配的已登记特征量;计算所生成的多个特征量组合和与多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数;以及利用相关系数基于认识器对预定信息进行分类。
在实现本发明时,根据本发明的又一第三实施方式,提供了一种被配置为使计算机执行下述识别处理的程序,所述识别处理通过得到N维(N是至少为二的整数)特征量、利用存储在存储器中的由学习处理得到的预定认识器和关于用于识别的特征量的信息对预定信息进行分类。该程序包括以下步骤:利用存储在存储装置中的认识器和用于识别的特征量,得到基于认识器而预先确定的不大于N维的预定特征量中的与用于识别的特征量相匹配的特征量;得到与多个特征量组合中的每一维相匹配的已登记特征量;计算所生成的多个特征量组合和与多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数;以及利用相关系数基于认识器对预定信息进行分类。
在本发明的第三实施方式中,利用由学习处理得到的预定认识器和关于用于识别的特征量的信息,基于认识器而预先确定的不大于N维的预定特征量中的与用于识别的特征量相匹配的特征量被得到,以生成与用于识别的特征量相匹配的特征量的不大于N维的两个或多个特征量组合。与所生成的特征量组合中的每一维相匹配的已登记特征量被得到。所生成的特征量组合与所得到的已登记特征量之间的相关系数被计算出。然后,利用得到的相关系数对预定信息进行分类。
网络是这样一种机制,其中至少两个设备被互连以将信息从一个设备发送到另一个设备。经由网络传输信息的设备例如可以是独立设备或是一个设备单元内的多个块。
图像处理装置例如可以是独立装置或是信息处理装置中被配置为执行图像处理的块,或是识别装置。
如上所述,根据本发明的一种实施方式,用于分类处理的学习可被执行。特别地,通过增加特征量的维数,将由学习执行的分类的精度可被显著提高,而无需增加特征点的数目。
根据本发明的其他实施方式,分类处理可被执行。特别地,通过增加特征量的维数,分类的精度可被显著地提高,而无需增加特征点的数目。
附图说明
根据参考附图对实施方式进行的以下描述,本发明的其他目的和实施方式将变得显而易见,在附图中:
图1是图示图像处理装置的一种示例性配置的框图;
图2是通过示例来描述伽柏滤波器的示图;
图3是描述组合的一个示例的示图;
图4是通过示例来说明提升(boosting)处理的示图;
图5是通过示例来说明提升处理的另一幅示图;
图6是图示图1所示的认识器生成块的一种示例性配置的框图;
图7是描述学习时的相关系数的计算的示图;
图8是描述用于提升处理的特征量的示图;
图9是指示认识器生成处理的流程图;
图10是指示认识器生成处理的流程图;
图11是指示识别处理1的流程图;
图12是描述由下述情况得到的检测到的精确度的示图,其中利用基于所有40种伽柏滤波器的40维特征向量得到仅一种相关系数;
图13是描述由下述情况得到的检测到的精确度的示图,其中在选择了40种伽柏滤波器中的某些伽柏滤波器之后利用特征向量的八维不同组合得到多个相关系数;
图14是图示图像处理装置的另一种示例性配置的框图;
图15是指示识别处理2的流程图;以及
图16是图示个人计算机的一种示例性配置的框图。
具体实施方式
将参考附图通过示例来进一步详细描述本发明。这里所述的本发明和其实施方式具有以下相关性。这里的描述意图在于确定支持这里所述的本发明的实施方式被描述于此这一事实。因此,如果有任何实施方式虽然在优选实施方式中有描述但是在此未被描述为对应于本发明,这绝非表示这种实施方式不对应于本发明。相反地,如果任何实施方式在此被描述为对应于本发明,这绝非表示这种实施方式不对应于本发明之外的其他发明。
根据本发明第一实施方式的信息处理装置具有:组合生成装置(例如,图1所示的局部特征计算块71),用于从为执行学习而准备的第一信息中得到N维(例如40维)的第一特征量并且使用N维的第一特征量(例如,与图3所示的矩形131、矩形132和矩形133相对应的特征量组合)来生成不大于第一特征量的N维的至少两种第一特征量组合;以及学习处理执行装置(例如图1所示的认识器生成块72),用于计算组合生成装置所生成的多个第一特征量组合和与这多个第一特征量组合中的每一维相匹配的学习模型特征量之间的相关系数,并且利用第一相关系数来分类第一信息,从而执行用于分类预定的第二信息的学习处理。
组合生成装置通过组合一矩阵中的连续区域(图3所示的矩形131、矩形132和矩形133)中所包括的第一特征量组合来生成多个第一特征量组合,所述矩阵具有构成N维的第一特征量的元素,其中所述N维根据属性(例如滤波频率或者滤波方向)来分类。
N维的第一特征量是通过N种伽柏滤波器(例如,图2所示的40种伽柏滤波器)得到的特征量。
组合生成装置通过组合一矩阵中的连续区域(例如,图3所示的矩形131、矩形132和矩形133中的任何一个)中所包括的第一特征量来生成多个第一特征量组合,所述矩阵是在由N种伽柏滤波器得到的特征量中按照N种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵。
组合生成装置通过组合矩形区域(例如,图3所示的矩形131、矩形132和矩形133中的任何一个)中所包括的第一特征量来生成多个第一特征量组合,用于在由N种伽柏滤波器得到的特征量中按照N种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的预定范围内包括滤波频率和滤波方向。
在上述信息处理装置中,学习处理执行装置通过利用提升算法(例如离散AdaBoost算法或者平缓AdaBoost算法)对第一信息进行分类来执行学习处理。
组合生成装置从第二信息得到基于在学习处理执行装置所执行的学习处理中生成的预定认识器而预先确定的不大于N维的预定第二特征量,从而进一步生成不大于基于认识器而预先确定的第二特征量的N维的多个第二特征量组合,组合生成装置还具有分类处理执行装置(例如,图1所示的面部识别块74),用于计算组合生成装置所生成的多个第二特征量组合和与多个第二特征量组合中的每一维相匹配的已登记特征量之间的第二相关系数,从而通过利用得到的第二相关系数和认识器来对第二信息进行分类。
根据本发明第一实施方式的信息处理方法被配置为在用于为分类处理执行学习的信息处理装置中使用。该信息处理方法具有以下步骤:从为执行学习而准备的第一信息中得到N维(例如40维)的第一特征量(例如,图9所示的步骤S34);通过利用N维第一特征量来生成不大于第一特征量的N维的多个第一特征量组合(例如,与图3所示的矩形131、矩形132和矩形133相对应的特征量组合)(例如,图9所示的步骤S35);得到与多个第一特征量组合中的每一维相匹配的学习模型特征量,以计算多个第一特征量组合与学习模型特征量之间的第一相关系数(例如,图9所示的步骤S36);以及通过利用第一相关系数对第一信息进行分类来对预定的第二信息进行分类(例如,参考图10描述的处理和图9所示的步骤S37)。
上述信息处理方法还具有以下步骤:从所提供的将由分类处理分类的第二信息得到基于通过学习过程由学习得到的认识器而预先确定的不大于N维(例如,40维)的第二特征量(例如,图11所示的步骤S134);通过利用不大于N维的第二特征量来生成基于认识器而预先确定的不大于第二特征量的N维的多个第二特征量组合(例如,与图3所示的矩形131、矩形132和矩形133相对应的特征量组合)(例如,图11所示的步骤S136);得到与多个第二特征量组合中的每一维相匹配的已登记特征量(例如,图11所示的步骤S137);计算多个第二特征量组合与已登记特征量之间的第二相关系数;以及通过利用通过学习处理由学习得到的认识器(例如,L弱认识器fjk)和第二相关系数对第二信息进行分类(例如,图11所示的步骤S138)。
根据本发明第一实施方式的程序具有以下步骤:从为执行学习而准备的第一信息中得到N维(例如40维)第一特征量(例如,图9所示的步骤S34);通过利用N维第一特征量来生成第一特征量的不大于N维的多个第一特征量组合(例如,与图3所示的矩形131、矩形132和矩形133相对应的的特征量组合)(例如,图9所示的步骤S35);得到与多个第一特征量组合中的每一维相匹配的学习模型特征量,以计算多个第一特征量组合与学习模型特征量之间的第一相关系数(例如,图9所示的步骤S36);以及通过利用第一相关系数对第一信息进行分类来对预定的第二信息进行分类(例如,图9所示的步骤S37和参考图10描述的处理)。
上述程序还具有以下步骤:从所提供的将由分类处理分类的第二信息得到基于通过学习过程由学习得到的认识器而预先确定的不大于N维(例如,40维)的第二特征量(例如,图11所示的步骤S134);通过利用不大于N维的第二特征量来生成基于认识器而预先确定的第二特征量的不大于N维的多个第二特征量组合(例如,与图3所示的矩形131、矩形132和矩形133相对应的特征量组合)(例如,图11所示的步骤S136);得到与多个第二特征量组合中的每一维相匹配的已登记特征量(例如,图11所示的步骤S137);计算多个第二特征量组合与已登记特征量之间的第二相关系数;以及通过利用通过学习处理由学习得到的认识器(例如,L弱认识器fjk)和第二相关系数对第二信息进行分类(例如,图11所示的步骤S138)。
根据本发明第二实施方式的识别装置能够得到N维特征量(N是至少为2的整数)以执行识别处理,用于利用由学习处理得到的预定认识器对预定信息进行分类。该识别装置具有:组合生成装置,用于从预定信息得到基于认识器而预先确定的小于N维(例如40维)的预定特征量,以生成基于认识器而预先确定的小于特征量的N维的多种特征量组合(例如,与图3所示的矩形131、矩形132和矩形133相对应的特征量组合)(例如,图1所示的局部特征计算块71);以及分类处理执行装置,用于计算组合生成装置所生成的多种特征量组合和与多种特征量组合中的每一维相匹配的已登记特征量(例如,存储在面部登记数据库35中的已登记面部图像数据)之间的相关系数,以通过利用相关系数基于认识器对预定信息进行分类(例如,图1所示的面部识别块74)。
在上述识别装置中,基于认识器而预先确定的小于N维的特征量组合是包括在一矩阵中的连续区域(例如,图3所示的矩形131、矩形132或者矩形133)中的多种特征量组合,所述矩阵具有通过属性(例如,滤波频率或者滤波方向)进行分类的组成N维特征量的元素。
在上述识别装置中,特征量是通过多种伽柏滤波器(例如,图2所示的40种伽柏滤波器)中的任何一种得到的量。
在上述识别装置中,基于认识器而预先确定的小于N维的多种特征量组合是这样的多种组合,其中包括在一矩阵中的连续区域(例如,图3所示的矩形131、矩形132或者矩形133)中的特征量被组合,所述矩阵是按照多种伽柏滤波器的滤波频率和滤波方向进行分类而生成的。
在上述识别装置中,基于认识器而预先确定的小于N维的多种特征量组合是这样的多种组合,其中特征量被包括在矩形区域(例如,图3所示的矩形131、矩形132或者矩形133)中,用于包括按照多种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的预定范围内的滤波频率和滤波方向。
在上述识别装置中,分类处理执行装置利用提升算法(例如,离散AdaBoost算法或者平缓Adaboost算法)对预定信息进行分类。
根据本发明第二实施方式的信息识别方法用于识别装置,该识别装置具有由学习处理得到的预定认识器和用于存储关于用于识别的特征量的信息的存储器,并且该识别装置能够得到N维(N是至少为2的整数)特征量来执行用于对预定信息进行分类的识别处理。上述信息识别方法具有以下步骤:利用认识器和存储在存储器中的用于识别的特征量,得到基于认识器而预先确定的不大于N维(例如40维)的预定特征量中的与用于识别的特征量相匹配的特征量(例如,图11所示的步骤S134);利用认识器和存储在存储器中的用于识别的特征量从预定信息生成与用于识别的特征量相匹配的特征量的不大于N维的多种特征量组合(例如,与图3所示的矩形131、矩形132和矩形133相对应的特征量组合)(例如,图11所示的步骤S136);得到与多种特征量组合中中的每一维相匹配的已登记特征量(例如,存储在面部登记数据库35中的已登记面部图像数据)(例如,图11所示的步骤S137);计算所生成的多种特征量组合和与多种特征量组合中的每一维相匹配的已登记特征量之间的相关系数;以及通过利用相关系数基于认识器对预定信息进行分类(例如,图11所示的步骤S138)。
根据本发明第二实施方式的程序被配置为使计算机执行以下识别处理,该识别处理通过利用由学习处理得到的预定认识器和关于存储在存储器中的用于识别的特征量的信息来得到N维(N是至少为2的整数)特征量,以对预定信息进行分类。该程序具有以下步骤:利用认识器和存储在存储器中的用于识别的特征量,得到基于认识器而预先确定的不大于N维(例如40维)的预定特征量中的与用于识别的特征量相匹配的特征量(例如,图11所示的步骤S134);通过利用认识器和存储在存储器中的用于识别的特征量从预定信息生成与用于识别的特征量相匹配的特征量的不大于N维的多种特征量组合(例如,与图3所示的矩形131、矩形132和矩形133相对应的特征量组合)(例如,图11所示的步骤S136);得到与多种特征量组合中的每一维相匹配的已登记特征量(例如,存储在面部登记数据库35中的已登记面部图像数据)(例如,图11所示的步骤S137);计算所生成的多种特征量组合和与多种特征量组合中的每一维相匹配的已登记特征量之间的相关系数;以及通过利用相关系数基于认识器对预定信息进行分类(例如,图11所示的步骤S138)。
根据本发明第三实施方式的识别装置(例如图14所示的图像处理装置201)能够得到N维(N是至少为2的整数)特征量来执行用于对预定信息进行分类的识别处理。该识别装置具有:存储装置(例如,图14所示的学习数据存储块223),用于存储由学习处理得到的预定认识器和关于用于识别的特征量的信息;组合生成装置(例如,图14所示的局部特征计算块221),用于利用认识器和存储在存储装置中的用于识别的特征量从预定信息得到基于认识器而预先确定的不大于N维(例如,40维)的预定特征量中的与用于识别的特征量相匹配的特征量,以提供与用于识别的特征量相匹配的特征量的不大于N维的多种特征量组合;以及分类处理执行装置,用于计算组合生成装置所生成的多种特征量组合和与多种特征量组合中的每一维相匹配的已登记特征量(例如,存储在面部登记数据库35中的已登记面部图像数据)之间的相关系数,以通过利用相关系数基于认识器对预定信息进行分类(例如,图14所示的面部识别块222)。
在上述识别装置中,基于认识器而预先确定的不多于N维的特征量组合是包括在一矩阵中的连续区域(图3所示的矩形131、矩形132或者矩形133)中的多种特征量组合,所述矩阵具有按照属性(例如滤波频率或者滤波方向)分类的组成n维特征量的元素。
在上述识别装置中,特征量是通过多种伽柏滤波器(例如,图2所示的40种伽柏滤波器)中的任何一种得到的特征量。
在上述识别装置中,基于认识器而预先确定的不多于N维的多种特征量组合是这样的多种组合,其中包括在一矩阵中的连续区域(例如,图3所示的矩形131、矩形132或者矩形133)中的特征量被组合,所述矩阵是按照多种伽柏滤波器的滤波频率和滤波方向进行分类而生成的。
在上述识别装置中,基于认识器而预先确定的不多于N维的多种特征量组合是这样的多种组合,其中特征量被包括在矩形区域(例如,图3所示的矩形131、矩形132或者矩形133)中,用于包括按照多种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的预定范围内的滤波频率和滤波方向。
在上述识别装置中,分类处理执行装置利用提升算法(例如,离散AdaBoost算法或者平缓AdaBoost算法)对预定信息进行分类。
根据本发明第三实施方式的信息识别方法用于一识别装置(例如,图14所示的图像处理装置201),该识别装置具有由学习处理得到的预定认识器和用于存储关于用于识别的特征量的信息的存储器,并且该识别装置能够得到N维(N是至少为2的整数)特征量来执行用于对预定信息进行分类的识别处理。该信息识别方法具有以下步骤:利用认识器和存储在存储器中的用于识别的特征量,得到基于认识器而预先确定的不大于N维(例如40维)的预定特征量中的与用于识别的特征量相匹配的特征量(例如,图15所示的步骤S215);通过利用认识器和存储在存储器中的用于识别的特征量从预定信息生成与用于识别的特征量相匹配的特征量的不大于N维的多种特征量组合(例如,图15所示的步骤S216);得到与多种特征量组合中的每一维相匹配的已登记特征量(例如,存储在面部登记数据库35中的已登记面部图像数据)(例如,图15所示的步骤S217);计算所生成的多种特征量组合和与多种特征量组合中的每一维相匹配的已登记特征量之间的相关系数;以及通过利用相关系数基于认识器对预定信息进行分类(例如,图15所示的步骤S218)。
根据本发明第三实施方式的程序被配置为使计算机执行以下识别处理,该识别处理通过利用由学习处理得到的预定认识器和关于存储在存储器中的用于识别的特征量的信息来得到N维(N是至少为2的整数)特征量,以对预定信息进行分类。该程序具有以下步骤:利用认识器和存储在存储器中的用于识别的特征量,得到基于认识器而预先确定的不大于N维(例如40维)的预定特征量中的与用于识别的特征量相匹配的特征量(例如,图15所示的步骤S215);通过利用认识器和存储在存储器中的用于识别的特征量从预定信息生成与用于识别的特征量相匹配的特征量的不大于N维的多种特征量组合(例如,图15所示的步骤S216);得到与多种特征量组合中的每一维相匹配的已登记特征量(例如,存储在面部登记数据库35中的已登记面部图像数据)(例如,图15所示的步骤S217);计算所生成的多种特征量组合和与多种特征量组合中的每一维相匹配的已登记特征量之间的相关系数;以及通过利用相关系数基于认识器对预定信息进行分类(例如,图15所示的步骤S218)。
下面参考附图来描述本发明的实施方式。
现在参考图1,其示出了图像处理装置11的示例性配置的框图。
图像处理装置11可以对拍摄的人像执行图像识别处理,以确定该人是否为已登记的人。
图像处理装置11在两种模式之一下工作,这两种模式是学习模式和识别模式。在学习模式下,利用用于学习的图像来学习识别处理,以生成被配置为在识别模式下执行识别处理的认识器。在识别模式下,利用在学习模式下生成的认识器来识别图像,以确定受识别的图像是否包括已登记人的面部。
图像处理装置11具有图像捕捉块31、面部检测块32、面部图像转换块33、面部识别处理块34、面部登记数据库35以及识别结果输出块36。
应当注意的是,将在假定面部登记数据库35被包括在图像处理装置11中的情况下进行以下描述;但是,例如也可以将面部登记数据库35经由网络连接到图像处理装置11。将面部登记数据库35经由网络连接到图像处理装置11使得两个或者多个图像处理装置11可以共用一个面部登记数据库35。
图像捕捉块31例如被配置为包括照相机,从而捕捉通过拍摄人像的能力、通过外部布置的照相机拍摄的人像,或者捕捉从具有图像拍摄能力的另一个设备拍摄的人像。图像捕捉块31所要捕捉的图像至少包括人的面部。图像捕捉块31所捕捉的图像被提供给面部检测块32。
在学习模式下,图像捕捉块31捕捉正被拍摄的面部的大小和方向不同的两幅或者多幅图像以了解具体一人,同时捕捉不包括该人面部图像的两幅或者多幅图像。应当注意的是,该人正面图像的预定特征点处的特征量在学习处理时被用于作为学习模型特征量来学习的目的。
另外,在识别模式下,图像捕捉块31捕捉包括受识别的用户的面部的拍摄图像。
面部检测块32对从图像捕捉块31提供的图像进行分析以提取人的面部(或者其位置或者尺寸),从而对提取的人像(此后被称为面部图像)进行检测。从图像捕捉块31提供的图像是包括受识别的用户的面部的图像;但是有时该图像不是面部而是人的整体。面部检测块32根据这种图像来确定人的面部区域,以提取与人的面部相对应的图像。所提取的面部图像被提供给面部图像转换块33中的面部特征点检测块51和面部对准块52。
面部图像转换块33具有面部特征点检测块51和面部对准块52。
根据从面部检测块32提供的面部图像,面部特征点检测块51检测下述特征点,该特征点在稍后要描述的由面部对准块52进行的变形处理中用于对准。该对准特征点可以是形成人的面部特征的一部分,例如眼睛、鼻子、嘴巴,即面部特征部分。作为替代,面部特征点检测块51可以检测比面部特征部分更详细的特征点。
面部特征点检测块51例如可以通过应用诸如AAM(活动外貌模型)这样的技术来检测特征位置。
面部对准块52对从面部检测块32提供的面部图像和由面部特征点检测块51检测到的对准特征点进行分析,以检测所提取的面部的朝向,从而执行变形处理(例如仿射变换),以将面部特征位置置于基准位置。结果,如果发现该图像是从正面观看的,则执行变形处理使得两眼被水平安置为分开预定距离,鼻子被安置在两眼之间的中点之下,并且嘴巴位于鼻子之下。如果从面部检测块32提供的面部图像不是正向的,则以与正面图像基本相同的方式对面部图像进行转换。
面部识别处理块34具有局部特征计算块71、认识器生成块72、学习数据存储块73和面部识别块74。
从中提取的特征点被校正为基准位置的面部图像被提供给面部识别处理块34的局部特征计算块71。局部特征计算块71计算所被提供的面部图像中的两个或者多个特征点中的局部特征量。得到局部特征量的特征点可以与面部特征点检测块51所检测到的对准特征点相同,或者可以是与面部特征点检测块51所检测到的对准特征点完全不同的两个或多个不同的点(例如,稍后要描述的图7中示出的交叉所指示的点)。局部特征计算块71由伽柏滤波器组成。
下面描述伽柏滤波器所要执行的处理,即伽柏滤波。
已知一些人类视细胞在特定方向上具有选择性。这些细胞由沿垂直线起作用的细胞和沿水平线起作用的其他细胞组成。与这些细胞一样,伽柏滤波器是由具有方向选择性的两个或者多个滤波器组成的空间滤波器。
伽柏滤波器在空间上以伽柏函数表示。如下面式(1)所示,伽柏函数g(x,y)由载波s(x,y)和二维高斯分析包络线Wr(x,y)组成,载波s(x,y)由余弦分量组成。
g(x,y)=s(x,y)wr(x,y)..(1)
如下面式(2)所示,利用指数函数来表示载波s(x,y)。在该式中,坐标值(u0,v0)指示空间频率,P指示余弦分量的相位。
s(x,y)=exp(j(2π(u0x+v0y)+P))..(2)
上面式(2)所示的载波可被分为如下面式(3)所示的实数部分Re(s(x,y))和虚数部分Im(s(x,y))。
Re(s(x,y))=cos(2π(u0x+v0y)+P)
Im(s(x,y))=sin(2π(u0x+v0y)+P)...(3)
另一方面,由二维高斯分布组成的包络线被表示为下面式(4)所示。
wr(x,y)=kexp(-π(a2(x-x0)r2+b2(y-y0)r2))...(4)
在上面的式(4)中,坐标轴(x0,y0)是该函数的顶点,常数a和b是高斯分布尺度参数。下标r指示如下面式(5)所示的旋转操作。
(x-x0)r=(x-x0)cosθ+(y-y0)sinθ
(y-y0)r=-(x-x0)sinθ+(y-y0)cosθ...(5)
因此,根据上面的式(2)和式(4),以如下面式(6)所示的空间函数来表示伽柏滤波器。
g(x,y)=kexp(-π(a2(x-x0)r 2+b2(y-y0)r 2))exp((j(2π(u0x+v0y)+P))...(6)
局部特征计算块71利用具有不同方向和频率的两个或多个伽柏滤波器来计算特征量。这里假定局部特征计算块71使用八个方向和五个频率并且因而有40种伽柏滤波器,从而执行计算每个特征点的特征量的处理。
图2示出了一个示例,其中基于比例和方向来布置40种伽柏滤波器。在图2中,垂直轴指示频率方向的变化,其中频率在上部增大同时在下部减小。在图中,水平轴指示滤波器方向(或者滤波器角度)的变化,其中左端对应于0度并且角度随着向右侧前进而增大。中央部分对应于90度并且右端对应于很接近180度的角度。就是说,在图2所示的布置中,最左列的滤波器和最右列的滤波器随着角度变化而彼此连续。
以下式表示伽柏滤波器的响应,其中Gi是第i个伽柏滤波器、第i个伽柏滤波器的伽柏特征是Ji并且输入图像是I:
ji(x,y)=Gi(x,y)I(x,y)...(7)
就是说,如果40种伽柏滤波器被用于一个特征点,则40种特征量可被得到。换言之,对于一个特征点,具有40种参数的特征量向量被得到。
局部特征计算块71所得到的特征量在学习模式下被提供给认识器生成块72并且在面部识别模式下被提供给面部识别块74。
对于组成每个特征向量的伽柏特征矢量,准备了具有各种频率和方向参数的多个。在过去的伽柏滤波中,这些参数中的许多在所有特征点处是相同的。
但是,在获取图像特征时,特别在获取面部图像的特征时,每个特征点处可能存在不必要的参数,因为描述特征所需的频率和方向参数因特征点位置而异。
从如上所述的不必要参数得到的伽柏特征很有可能取一大体上与该特征点的局部特征不相关的值,使得在获取包括这些值的局部特征向量之间的相关系数时,可能会对获得的结果产生反作用。
如果特定特征点的局部特征是由两个或多个互相独立的因素(例如表情、特色和眼镜)表示的,则无法用由所有伽柏特征矢量组成的本地特征向量之间的相关值来评价这些因素之间的独立相关性。
如上所述,局部特征计算块71使用八个方向和五个频率,并且使用40种伽柏滤波器来计算每个特征点的特征量。
因此,在学习模式下,局部特征计算块71生成至少包括40种伽柏滤波器所要得到的特征量的一部分的多维特征向量的两种或者多种组合,作为每个特征点处的局部特征量。
显然,这些组合可以或者可以不包含包括40种伽柏滤波器所得到的所有特征量的组合,即40维特征向量。
换言之,局部特征计算块71可以为一个特征点得到具有小于40种参数的两个或者多个特征量向量。就是说,如果N个特征点处的局部特征量是为一幅面部图像计算的,则准备P种伽柏滤波器组合允许为一个特征点得到P种特征向量,从而为一幅面部图像得到N×P个特征量向量。
这些局部特征量组合的可能总数将是下面的式(8)所示的数目。
T = Σ n 40 C n . . . ( 8 )
因此,局部特征计算块71将由40种伽柏滤波器得到的特征量的一部分组合为局部特征量。从这些组合之中,可以选择随机组合作为局部特征量来使用。应当注意的是,如上面式(8)所示,组合的总数变成非常大的值。
如上所述,在获取图像特征时,特别是在获取面部图像的特征时,每个特征点处可能存在不必要的参数,因为描述特征所需的频率和方向参数因特征点位置而异。可以认为参数是不必要的,就是说,每个特征点所需的频带和方向处于一连续范围内。因此,例如优选通过从如图2所示的特征维度中选择具有给定位置和给定尺寸的矩形区域(例如图3所示的矩形131、矩形132和矩形133)来确定局部特征量的组合,在如图2所示的特征维度中,为每个尺度和方向安排了所有伽柏滤波器。
因此,如果从为每个尺度和方向安排有伽柏滤波器的特征维度中选择具有给定位置和给定尺寸的矩形区域,则组合的数目最多将会是5C2×8P2=560,从而使得可以通过有理数量来选择特征维度。如果每个特征点所需的频带和方向位于作为组合而被选中的矩形区域中,换言之,如果必需的频带和方向未被包括在与局部特征不相关的伽柏特征的矩形区域中,则可以防止不相关的特征量起反作用。
在学习模式下,局部特征计算块71将在每个特征点处具有小于40种参数的两个或多个特征量向量提供给认识器生成块72。另外,在识别模式下,局部特征计算块71基于存储在学习数据存储块73中的识别特征量来计算与相应特征点相对应的局部特征量,并且将得到的局部特征量提供给面部识别块74。用于识别的特征量指示下述特定特征点的局部特征量(伽柏滤波器的特定部分),所述特定特征点被用于通过认识器生成块72中的学习而生成的认识器中。
结果,认识器的生成和将在面部识别时执行的对相关系数的计算不但针对一种基于使用所有维度的特征量向量的相关系数,而且针对两种或多种包括使用一部分维度的特征量向量的相关系数。换言之,两种或多种具有不同维度的特征量可被用于学习和识别。
在学习模式下,认识器生成块72利用局部特征计算块71所计算出的学习图像的特征量和预先存储的学习模式的特征量基于AdaBoost来执行统计学习处理,以生成用于识别模式下的识别处理的认识器,然后将所生成的认识器和关于该认识器的信息(相关值和指示该认识器的保证(assurance)的信息)存储到学习数据存储块73中。另外,在认识器的学习过程中,认识器生成块72仅提取在识别目标面部图像时有显著影响的模型特征量,并且将所提取的模型特征量提供给学习数据存储块73以存储作为用于识别的特征量,用于识别的特征量是指示特定特征点的特定局部特征量的信息(或者特定矩形区域部分)。
AdaBoost表示Freund等人在1996年提出的一种理论,其中可以通过“比随机略弱的认识器(也被称为弱认识器)”的多种组合来构造“强认识器”。认识器生成块72所生成的认识器是这种“比随机略弱的认识器”(此后也被称为弱认识器),其中这样生成每个认识器,使得在该认识器之前生成的不好的认识器处发生的识别被加权。
然后,在识别处理中,根据每个弱认识器的可靠程度得到置信度,基于置信度作出主要判定。
稍后将参考图6来详述认识器生成块72。
学习数据存储块73存储认识器生成块72所生成的认识器、关于这些认识器的信息,以及识别特征量。
在识别模式下,面部识别块74利用存储在学习数据存储块73中的认识器在局部特征计算块71所计算的特征量与存储在面部登记数据库35中的已登记面部图像数据之间进行比较,即得到相关系数以确定是否存在与已登记人的匹配,然后将判定结果提供给识别结果输出块36。就是说,基于存储在学习数据存储块73中的认识器的置信度,面部识别块74作出主要判定以确定是否发现与已登记人的匹配。
面部登记数据库35存储与识别已登记人所需的特征量有关的信息。就是说,面部登记数据库35可以存储已登记人的面部图像的所有特征点处的所有伽柏特征矢量,但是面部登记数据库35可以仅至少存储与识别特征量相对应的特征量。
可以由图像捕捉块31通过图1所示的局部特征计算块71执行处理而得到并登记登记在面部识别数据库35中的特征量的数据(或者已登记的面部图像数据),或者,只要该数据与图像捕捉块31通过图1所示的局部特征计算块71执行处理而得到的数据类似,就外部地得到并登记该数据。
识别结果输出块36例如以蜂鸣声、文本显示或者LED指示的形式外部地给出面部识别块74所提供的判定结果,或者例如将判定结果本身输出到外部设备。更具体的说,识别结果输出块36例如可被配置为包括显示器,从而以消息的形式显示判定结果。
例如,如果在面部登记数据库35中登记了与包括在输入图像中的面部图像相匹配的已登记面部图像,则可以从面部登记数据库35读取与发现匹配的已登记面部图像相关联的信息(例如人名),从而将该信息作为判定结果输出到识别结果输出块36。
如果未在面部登记数据库35登记与包括在输入图像中的面部图像相匹配的已登记面部图像,则指示已登记面部图像未被存储的信息(例如,消息“未登记人”)可被作为判定结果输出到判定结果输出块36。
因此,通过在特征量之间进行比较,图像处理装置11确定得到的面部人像是否与已登记的面部人像相匹配。
在对认识器生成块72的能力进行详细描述之前,下面描述了一般的AdaBoost处理。
在为用于学习的一幅图像的N(N是正整数)个特征点中的每一个特征点得到特征量的一种配置中,在学习处理中得到每个特征点的特征量与N种学习模型特征量之间的相关系数。
通常,如果利用AdaBoost使用M(M是正整数)幅学习图像来生成认识器,则用于M幅学习图像中的每一幅图像的N个特征量和与这N个特征量相对应的N个模型特征量之间的相关系数被得到,作为用于生成认识器的特征量。换言之,对于M幅学习图像中的每一幅图像,具有为N个模型特征量中的每一个得到的相关系数(作为参数)的N维相关向量被生成作为用于每个特征点的特征量参数。
例如,下面描述了生成认识器的一个具体示例,其中在M幅学习图像中,学习图像PI1和PI2是包括目标识别对象的图像,而学习图像PI3至PIM是不包括目标识别对象的图像。
图4示出了使用相关系数作为参数的N维向量,即当学习图像PI1和PI2是包括目标识别对象的图像并且学习图像PI3至PIM是不包括目标识别对象的图像时得到的用于生成认识器的特征量。在图4中,包括目标识别对象的图像用“+1”来指示,而不包括目标识别对象的图像用“-1”来指示。
如图4所示,如果在学习图像PI1是(A1、A2...AN)、学习图像PI2是(B1、B2...BN)、学习图像PI3是(C1、C2...CN)、学习图像PIM是(M1、M2...MN)等的情况下提供特征点的特征量,则特征点k=1处的特征量是由组Gr1指示的(A1、B1、C1...M1)、特征点k=2处的特征量是由组Gr2指示的(A2、B2、C2...M2)并且特征点k=N处的特征量是由组GrN指示的(AN、BN、CN...MN)。就是说,对于N个特征点中的每一个,为学习图像PIi中的每一个设置用于N个特征点中的每一个的M个特征量的组Grk。
然后,根据设置给每个学习图像PIi的权重,通过在特征点处进行提取而提取M个特征量。在第一处理中,权重Wi彼此相等,使得当提取M个特征量时,所有特征量被统计地选择。因此,在第一处理中,假定所有特征量都是在特征点k处选择的。显然,在实际情况下,相同的特征量可被重复地选择。
接着,由对N个输入特征量进行采样而得到的M个输入特征量按照幂的升序或者按照幂的降序进行排序。然后,基于下述差错信息,即基于图4所示的(+1)或(-1),如果为按照幂的升序或者幂的降序排序的N个输入特征量中的每一个输入特征量设置了某一阈值,则通过改变阈值来计算误差率(正确和错误恰当地在阈值附近分开与否),从而执行阈值设置以使误差率最小化,所述差错信息指示已被提取输入特征量的学习图像是否包括目标识别对象。该阈值被设为弱认识器。
更具体的说,假定与特征点k=1相对应的M个特征点如图5所示的L1、A1、C1、B1...M1一样被按照幂的升序或者幂的降序排列并且在低于阈值的范围内没有目标识别对象且在高于阈值的范围内有目标识别对象,那么,如果阈值th1被设置在特征量A1与C1之间,则如图所示的用虚线包围的特征量A1是包括目标识别对象的学习图像的特征量,而特征量C1和特征量M1是不包括目标识别对象的学习图像的特征量,从而引起差错。
因此,基于学习图像的差错信息(或者说指示目标识别对象被包括与否的信息),所具有的被看作误差的特征量已被提取的学习图像的权重Wi被加入以计算误差率,从而在N个弱认识器中选择使误差率最小化的弱认识器。
下面描述了面部识别处理块34的认识器生成块72的配置和操作。
图6示出了图示认识器生成块72的示例性配置的框图。
认识器生成块72具有相关系数计算块101、学习模型特征量存储块102、采样块103、权重设置块104、排序块105、认识器设置块106、认识器选择块107以及权重更新块108。
如图7所示,相关系数计算块101计算存储在学习模型特征量存储块102中的学习图像151和学习图像152中的由相应特征点的相应局部特征量的组合的伽柏特征组成的局部特征向量之间的相关系数。就是说,相关系数计算块101计算一个特征点处的两个或多个维度的不同相关系数。
更具体的说,在一个特征点处,相关系数计算块101例如可以计算具有不同维度(例如8维、9维、12维和16维)的局部特征量的组合中的两个或多个相关系数,同时即使在相同数目维度的情况下,也可以计算由不同区域中的局部特征量的组合(换言之,不同伽柏滤波器的组合)而得到的本地特征量组成的特征量向量的两个或多个相关系数。
学习模型特征量存储块102存储每个特征点处的由图7所示的学习模型图像152保持的伽柏特征矢量。
如上所述,局部特征计算块71生成两个或多个特征向量,其中二维或多维的局部特征量包括由40种伽柏滤波器得到的特征量中的至少一部分。例如如果这里生成了P种组合,则相关系数计算块101在利用N个特征点的特征量得到相关向量时不生成具有学习图像的两个局部特征向量的所有维度的N个空间向量和与如前面参考图4描述的使用一般AdaBoost的情况一样的被用作参数的模型特征量,而是可以通过还包括仅使用某些维度作为参数的相关系数来生成N×P维的特征向量。
就是说,通过利用所有维度中的至少某些维度的两个或多个组合,提升处理的维数可被增加,而无需增加面部图像特征点的数目并且无需增加基于伽柏滤波器进行的滤波的处理量。
特别地,在面部图像的情况下,写每个特征所需的频率和方向参数取决于每个特征点的位置,所以每个特征点可能具有由40种伽柏滤波器得到的特征量的不必要参数。因此,基于被作为局部特征量生成的下述两个或多个组合中的每一个而由学习得到的认识器的性能可以高于现有技术所提供的性能,所述两个或多个组合是包括由40种伽柏滤波器得到的特征量中的至少一部分的二维或多维特征向量的组合。此时,优选通过从如图2所示的特征维度中选择给定位置和尺寸的矩形区域(例如前面参考图3描述的矩形131、矩形132和矩形133)(换言之,通过选择这样的伽柏滤波器组合,其中频率和方向属性为连续的)来确定局部特征量的组合,在如图2所示的特征维度中,所有伽柏滤波器是按照尺度和方向来排列的。
例如,如果M幅学习图像被提供,则在一个特征点处通过局部特征计算块71来计算局部特征量的P种组合,并且在N个特征点中的每一个特征点处,通过相关系数计算块101为相应的P种组合中的每一种组合计算相关系数,然后将被从相关系数计算块101提供到采样块103的特征量将会如图8所示。
就是说,关于学习图像PI1,N ×P个特征量(A1-1、A1-2...A1-p、A2-1、A2-2...A2-p...AN-1、AN-2...AN-p)被从相关系数计算块101提供到采样块103。同样地,每个特征点处的特征量被从相关系数计算块101提供到采样块103,就学习图像PI2来说是(B1-1、B1-2...B1-p、B2-1、B2-2...B2-p...BN-1、BN-2...BN-p),就学习图像PI3来说是(C1-1、C1-2...C1-p、C2-1、C2-2...C2-p...CN-1、CN-2...CN-p),并且就学习图像PIM来说是(M1-1、M1-2...M1-p、M2-1、M2-2...M2-p...MN-1、MN-2...MN-p)。
因此,特征点k=1的第一局部特征量的组合中的特征量是由组Gr1-1指示的(A1-1、B1-1、C1-1...M1-1)。特征点k=1的第二局部特征量的组合中的特征量是由组Gr1-2指示的(A1-2、B1-2、C1-2...M1-2)。同样地,特征点k=1的第P局部特征量的组合中的特征量是由组GrN-P指示的(AN-P、BN-P、CN-P...MN-P)。就是说,对于N个特征点中的每一个特征点的P种局部特征量的组合,为每幅学习图像PIi设置了一组M个特征量。
采样块103根据学习图像单元中由权重设置块104设置的权重为每个模型特征量(即为每个参数)采样M个输入特征量,并且将采样结果提供给排序块105。
更具体的说,采样块103通过按照被设置给每个学习图像PIi的权重对每个特征点处的每种局部特征量组合(即对图8所示的每个垂直组)进行M单元提取来提取特征量。在第一处理中,所有权重Wi相等,所以当M个特征量被提取时,所有特征量将被按照统计来选择。因此,这里假定:在第一处理中,所有的特征量是在每个特征点k中的每种组合中选择的。显然,在实际情况下,相同的特征量可被重复地选择。
排序块105按照幂的升序或者幂的降序对由对N×P个输入特征量中的每一个进行采样而得到的M个输入特征量进行排序,并且将排序结果提供给认识器设置块106。
基于指示所具有的输入特征量已被提取的学习图像包括目标识别对象与否的差错信息,认识器设置块106在改变阈值时控制误差率计算块121为按照幂的升序或者幂的降序而排序的N×P个输入特征量中的每一个输入特征量计算误差率,从而设置阈值以使误差率最小化(该阈值被设为弱认识器)。
更具体的说,基于指示所具有的输入特征量已被提取的学习图像包括目标识别对象与否的信息,认识器设置块106在改变阈值时控制误差率计算块121为每个特征点处的每种局部特征量组合的M个特征量中的每一个特征量计算如下面式(9)所示的误差率ejk,从而设置阈值以使误差率ejk最小化。在下文中,下标k表示加下标的特征点是N个特征点中的第k个特征点,而下标j表示加下标的局部特征量组合是P种组合中的第j种组合。这里,每个特征点处的每种局部特征量组合的阈值thjk提供一个弱认识器fjk。因此,认识器设置块106向认识器选择块107提供每个弱认识器的差错率ejk。就是说,为每个特征点处的每种局部特征量组合设置了根据N×P个特征量的N×P个弱认识器fjk,并且为N×P中的每一个(即为每个弱认识器fjk)得到了差错率erj。应当注意的是,弱认识器fjk是这样一种函数,如果包括目标识别对象则输出“+1”并且如果不包括目标识别对象则输出“-1”。
就是说,象参考图5描述的情况一样,如果与某一特征点处的某种特征量组合相对应的特征量(或者说得到的相关系数)被按照幂的升序或者幂的降序进行排列,则基于与包括目标识别对象的学习图像相对应的特征量和与不包括目标识别对象的学习图像相对应的特征量位于所设定的阈值thjk的哪一侧来判定差错与否。
如下面式(9)所示,基于学习图像的差错信息(即指示目标识别对象被包括与否的信息),差错率计算块121将所具有的被看作差错的特征量已被提取的学习图像的权重Wi相加,从而计算差错率erj。
Figure S200710195332XD00281
在上面的式(9)中,y≠fjk表示差错特征点k的情况,Ew表示致错特征点k处的权重被相加。
然后,认识器设置块106将每个弱认识器的差错率ejk提供给认识器选择块107。就是说,与N×P个输入特征量相对应的N×P个弱认识器被设置为获得N×P个弱认识器中的每一个的差错率。
在N×P个弱认识器fjk中,认识器选择块107选择使差错率ejk最小化的弱认识器fjk。
在N×P个弱认识器fjk中,认识器选择块107选择使差错率ejk最小化的弱认识器fjk,并且将所选择的弱认识器存储到学习数据存储块73中并从学习模型特征量存储块102中读取与所选择的弱认识器fjk相对应的模型特征量,然后将这些模型特征量存储到学习数据存储块73中。另外,认识器选择块107基于所选择的弱认识器fjk的最小差错率ejk来计算置信度,以将得到的置信度存储到学习数据存储块73中,并且同时将得到的置信度提供给权重更新块108。
更具体的说,认识器选择块107基于所选择的弱认识器fjk的最小差错率ejk来计算如下面式(10)所示的置信度cjk,并且将得到的置信度提供给权重更新块108。
ejk=log((1-ejk)/ejk)...(10)
权重更新块108基于被提供的置信度cjk为每幅学习图像重新计算权重Wi,并且同时使用于更新的权重Wi规格化,从而将更新后的权重提供给权重设置块104。权重设置块104基于被提供的更新后的权重来以学习图像为单位设置权重Wi。
更具体的说,权重更新块108基于被提供的置信度cjk如下面式(11)所示为每幅学习图像重新计算权重Wi,并且同时使所有用于更新的权重Wi规格化,从而将更新结果提供给权重设置块104。权重设置块104基于从权重更新块108提供的权重更新结果来为每幅学习输入图像设置权重Wi。
就是说,上面的式(11)指示出包括出错特征量的学习图像的权重Wi变大。
认识器选择块107将例如通过第Q次学习得到的弱认识器fjk存储到学习数据存储块73中作为第Q个弱认识器fQ(或者对存储在学习数据存储块73中的弱认识器进行更新)。就是说,认识器选择块107更新如下面式(12)所示的认识器R(x),并且将更新结果以如下面式(13)所示的形式存储到学习数据存储块73中。
R(x)=R(x)+cjk×fjk(x)...(12)
sign(R(x))=sign(R(x)+cjk×fjk)...(13)
就是说,加权的弱认识器fjk被加入已被存储的将被更新为新认识器R(x)的认识器R(x)。在上面的式(13)中,sign(Y)是这样一种函数,其表示:如果Y为正,则“+1”被输出,指示出在输入图像中发现目标识别对象,如果Y为负,则“-1”被输出,指示出在输入图像中未发现目标识别对象。
接着,认识器选择块107从学习模型特征量存储块102中读取与弱认识器fjk在特征点k处的局部特征量的组合相对应的模型特征量,并且将读取的模型特征量存储到学习数据存储块73中。
认识器选择块107把由具有较低差错率的L弱认识器fjk组成的认识器R(x)存储到学习数据存储块73中,并且把将被在每个弱认识器fjk中使用的特征点k的局部特征量的相应组合(即用于计算相关系数的伽柏滤波器的组合)的模型特征存储到学习数据存储块73中。这里,L≤N×P。
应当注意的是,上面式(13)的认识器据称是根据L弱认识器的多数决定来输出目标识别对象的存在与否的函数。因此,通过重复加权来生成认识器并且通过学习处理来添加弱认识器的学习处理被称为离散AdaBoost算法。
下面参考图9所示的流程图来描述将在图像处理装置11中的学习模式下执行的学习处理。
在步骤S31中,面部检测块32根据由图像捕捉块31得到的包括面部图像的图像来检测与面部相对应的部分,并且将检测到的面部图像提供给面部特征点检测块51和面部对准块52。
在步骤S32中,面部特征点检测块51例如检测面部、眼睛、鼻子和嘴巴的特征部分(或者说面部特征部分)。
在步骤S33中,面部对准块52基于面部特征点检测块51所检测到的面部特征点对从面部检测块32提供的面部图像执行例如基于仿射变换的变形处理,从而执行变换以将面部图像变换为与从正面拍摄的面部图像相对应的面部图像。变换后的面部图像被提供给局部特征计算块71。
在步骤S34中,局部特征计算块71例如利用前面参考图2描述的伽柏滤波器来计算局部特征量。
在步骤S35中,局部特征计算块71把通过伽柏滤波器得到的局部特征量中的至少一部分分为如前面参考图3描述的多种组合,并且将得到的组合提供给认识器生成块72。例如,所要使用的组合方法和所要生成的组合数目可以预先根据实验或者经验来确定,优选这样进行选择,使得频带和方向如前面参考图3所述是连续的。
在步骤S36中,认识器生成块72中的相关系数计算块101从学习模型特征量存储块102中读取学习模型的特征量,并且计算从局部特征计算块71提供的局部特征量与相同组成的学习模型组合之间的相关系数。
在步骤S37中,稍后将参考图10描述的认识器生成处理被执行。
在步骤S38中,认识器生成块72把在步骤S36中生成的认识器提供给学习数据存储块73以供存储,并且同时从学习模型特征量存储块102中读取与弱认识器相对应的模型特征量以将这些模型特征量存储到学习数据存储块73中。另外,认识器选择块107基于所选择的弱认识器的差错率来计算置信度,并且将计算出的置信度存储到学习数据存储块73中,此后处理结束。
通过上述处理,将被存储在学习数据存储块73中的认识器在学习模式下被生成,并且与所生成的认识器相对应的模型特征量和这些认识器的置信度被存储在学习数据存储块73中。就是说,指示用于生成认识器的何种伽柏特征组合用于何特征点(例如,如果总共准备了40种伽柏滤波器,其中的哪些被分为组合)的识别特征量和指示这些认识器的置信度的信息被存储在学习数据存储块73中。
下面参考图10所示的流程图描述了将由认识器生成块72在图9的步骤S37中执行的认识器生成处理。
在步骤S91中,权重设置块104将每幅学习图像的权重Wi初始化为1/M,将计数器Q初始化为1并将认识器R(x)初始化为0。这里,i标识两幅或者多幅学习输入图像PIi中的每一幅并且1<i<M。因此,通过步骤S91的处理,所有的学习图像PIi都被设置为相同的规格化权重(=1/M)。
在步骤S92中,采样块103根据学习输入图像PIi的权重Wi为特征点k(k=1、2、3...N)的局部特征量的每种组合选择M个特征量(即为一幅学习图像提供了N×P个特征量(即由相关系数计算块101计算的相关系数)),并且将所选择的M个特征量提供给排序块105。
就是说,例如如前面参考图8描述,N×P个特征量被从相关系数计算块101提供给采样块103,其中学习图像PI1是(A1-1、A1-2...A1-p、A2-1、A2-2...A2-P...AN-1、AN-2...AN-p)。同样地,每个特征点的特征量被从相关系数计算块101提供给采样块103,其中学习图像PI2是(B1-1、B1-2...B1-p、B2-1、B2-2...B2-p...BN-1、BN-2...BN-p),学习图像PI3是(C1-1、C1-2...C1-p、C2-1、C2-2...C2-p...CN-1、CN-2...CN-p),并且学习图像PIM是(M1-1、M1-2...M1-p、M2-1、M2-2...M2-p...MN-1、MN-2...MN-p)。
在这种情况下,特征点k=1的第一局部特征量的组合中的特征量是由组Gr1-1指示的(A1-1、B1-1、C1-1...M1-1)。特征点k=1的第二局部特征量的组合中的特征量是由组Gr1-2指示的(A1-2、B1-2、C1-2...M1-2)。同样地,特征点k=1的第P局部特征量的组合中的特征量是由组GrN-P指示的(AN-P、BN-P、CN-P...MN-P)。
就是说,对于每一个k特征点的P种局部特征量的组合,为每幅学习图像PIi设置了一组M个特征量。
采样块103按照被设置给每个学习图像PIi的权重通过对每个特征点k的P种局部特征量组合中的每一种进行提取来提取M个特征量。在第一处理中,所有权重Wi相等,所以当M个特征量被提取时,所有特征量将被按照统计来选择。因此,这里假定:在第一处理中,所有的特征量是在每个特征点k的每种局部特征点组合中选择的。显然,在实际情况下,相同的特征量可被重复地选择。
在步骤S93中,对于由对N个特征点中的每一个特征点的每种局部特征量组合进行采样而得到的M个特征量组中的每一个,排序块105按照幂的升序或者幂的降序对特征量进行排序,并且将排序后的特征量提供给认识器设置块106。
在步骤S94中,基于指示所具有的输入特征量已被提取的学习图像包括目标识别对象与否的差错信息,认识器设置块106在改变阈值时控制误差率计算块121为每个特征点处的P种局部特征量的每种组合的M个特征量中的每一个特征量计算如上面式(9)所示的误差率ejk,从而设置阈值以使误差率ejk最小化。这里,每个特征点k处的每种局部特征量组合的阈值thjk提供一个弱认识器fjk。因此,认识器设置块106向认识器选择块107提供每个弱认识器的差错率ejk。就是说,为N个特征点k中的每一个特征点处的P种局部特征量的每种组合设置了根据N×P个特征量的N×P个弱认识器fjk,并且为N×P中的每一个(即为每个弱认识器fjk)得到差错率erj。应当注意的是,弱认识器fjk是这样一种函数,如果包括目标识别对象则输出“+1”并且如果不包括目标识别对象则输出“-1”。
就是说,象参考图5描述的情况一样,如果与某一特征点处的某种特征量组合相对应的特征量(或者说得到的相关系数)被按照幂的升序或者幂的降序进行排列,则基于与包括目标识别对象的学习图像相对应的特征量和与不包括目标识别对象的学习图像相对应的特征量位于所设定的阈值thik的哪一侧来判定差错与否。如上面的式(9)所示,基于学习图像的差错信息(即指示目标识别对象被包括与否的信息),差错率计算块121将所具有的被看作差错的特征量已被提取的学习图像的权重Wi相加,从而计算差错率erj。
在步骤S95中,认识器选择块107在N个弱认识器fjk中选择使差错率ejk最小化的弱认识器fjk。
在步骤S96中,认识器选择块107基于所选择的弱认识器fjk的最小差错率ejk来计算如上面的式(10)所示的置信度cjk,并且将得到的置信度提供给权重更新块108。
在步骤S97中,权重更新块108如上面的式(11)所示基于被提供的置信度cjk为每幅学习图像重新计算权重Wi,并且同时使所有用于更新的权重Wi规格化,从而将更新后的权重提供给权重设置块104。权重设置块104基于所被提供的更新后的权重以学习输入图像为单位来设置权重。
在步骤S98中,认识器选择块107基于所选择的弱认识器fjk将第Q个弱认识器fQ存储到学习数据存储块73中。换言之,认识器选择块107将作为存储在学习数据存储块73中的第(Q-1)个弱认识器的弱认识器fQ-1更新为通过加入所选择的弱认识器fjk而得到的第Q个弱认识器fQ。
就是说,如上面的式(12)所示,认识器选择块107对认识器R(x)进行更新,并且将更新后的认识器以如上面的式(13)所示的形式存储到学习数据存储块73中。
从而,加权的弱认识器fjk被加入认识器R(x)。
在步骤S99中,认识器选择块107从学习模型特征量存储块102中读取与弱认识器fjk的特征点k相对应的局部特征量组合中的模型特征量,并且将这些模型特征量存储到学习数据存储块73中。
在步骤S100中,认识器选择块107判定计数器Q是否大于L。如果发现计数器Q不大于L,则过程转到步骤S101,其中计数器Q被加一,此后过程返回步骤S92。如果发现计数器Q大于L,则该处理结束。
通过上述处理,由具有较低差错率的L弱认识器fj组成的认识器R(x)被存储在学习数据存储块73中(1<Q<L),并且将被每个弱认识器fQ使用的特征点k的模型特征量被存储在学习数据存储块73中。这里,L≤N×P。
应当注意的是,式(13)的认识器可被称为根据L弱认识器的多数决定来输出目标识别对象的存在与否的函数。因此,被配置为通过重复对认识器进行加权并且加入这些认识器来生成认识器的学习处理被称为离散AdaBoost算法。
就是说,通过上述的认识器生成处理来重复进行处理,其中为每个模型特征量计算认识器和误差率,以便为具有更高误差率的学习输入图像的学习输入特征顺序地增加权重,并且顺序地降低具有更低差错率的学习输入特征量的权重。因此,在重复处理(步骤S92至步骤S101)中,在设置认识器时所要选择的具有更高误差率的学习输入特征量(在步骤S9中选择的学习输入量)被容易地逐渐选择,使得当难于认出的学习输入特征被重复地选择时,难于认出的学习输入图像中的更多特征量被选择,从而使得能够最终生成高识别率的认识器。
另外,在重复处理(步骤S92至S101)中,认识器选择块107最终通常选择与具有最低误差率的模型特征量相对应的弱认识器,结果,通过重复学习处理,与具有高置信度的模型特征量有关的弱认识器通常被选择加入认识器,结果每当进行重复就顺序地加入精确的弱认识器。
就是说,通过上述的学习处理,利用为每个特征点和每种组合添加了几何约束的特征量来生成由具有低误差率ejk的L弱认识器组成的认识器。结果,构成了仅由具有高置信度的认识器组成的认识器,使得可以用少数弱认识器来构成具有高置信度的认识器,从而使得能够降低稍后将要描述的用于提高识别精确度的识别处理中的计算处理负荷。
当认识器的数目被增加(或者说上述的L被增大)时,弱认识器的数目被增加以提高识别的精确度。另一方面,如果认识器的数目被减少(或者说L被减小),则虽然数目小,但是所选择的认识器可以仅基于高置信度的弱认识器来执行识别处理,使得在保持置信度的同时,识别处理中的计算处理负荷可被降低。就是说,按照需要,可以通过重复学习处理来增加将被生成的认识器的数目,以生成高精确度的认识器;相反地,还可以通过降低学习负荷(即通过执行可谓一次学习)来减少将被生成的认识器的数目,以生成较高精确度的认识器。
下面参考图11所示的流程图来描述图像处理装置11所要执行的识别处理1。
在步骤S131中,面部检测块32在从图像捕捉块31提供的包括面部图像的图像中检测与面部相对应的部分,并且将检测到的面部图像提供给面部特征点检测块51和面部对准块52。
在步骤S132中,面部特征点检测块51例如检测面部、眼睛、鼻子和嘴巴的特征部分(或者说面部特征部分)。
在步骤S133中,面部对准块52基于面部特征点检测块51所检测到的面部特征点对从面部检测块32提供的面部图像执行例如基于仿射变换的变形处理,从而执行变换以将面部图像变换为与从正面拍摄的面部图像相对应的面部图像。变换后的面部图像被提供给局部特征计算块71。
在步骤S134中,局部特征计算块71例如利用前面参考图2描述的伽柏滤波器来计算局部特征量。
在步骤S135中,局部特征计算块71从学习数据存储块73得到关于识别特征量的信息。
上述的关于识别特征量的信息指示特定特征点的特定组合(例如,如果总共40种伽柏滤波器被使用,则这些滤波器中的某些滤波器的特定组合在用于特定认识器的特定点处使用)。
例如,在生成认识器时,如果总共40种伽柏滤波器被准备,则识别特征量中所指示的某一特征点的局部特征量的组合可以或者可以不包括一包括40种伽柏滤波器所得到的所有特征量(即40维特征向量)的组合。换言之,关于识别特征量的信息根据学习所得到的认识器而指示两种或者多种不多于40种伽柏特征的组合或者两种或者多种小于40种伽柏特征的组合。
在步骤S136中,基于伽柏滤波器所得到的局部特征量和关于所得到的识别特征量的信息,局部特征计算块71生成识别特征量中所指示的特征点的局部特征量的组合,并且将所生成的组合作为关于相关系数计算的信息提供给面部识别块74。
在步骤S137中,面部识别块74从面部登记数据库35读取已登记面部图像的特征量。
在步骤S138中,面部识别块74从学习数据存储块73读取认识器并且代入特征量以供计算。更具体的说,面部识别块74计算作为用于相关系数计算的信息而从局部特征计算块71提供的、识别特征量中所指示的特征点的局部特征量组合与从面部登记数据库35读取的已登记面部图像的特征量中的与识别特征量中所指示的特征点的局部特征量组合相对应的组合之间的相关系数,并且将所得到的相关系数作为特征量代入从学习数据存储块73读取的认识器以供计算。
就是说,如上所述,因为作为关于相关系数计算的信息而从局部特征计算块71提供的特征量是计算在学习方面具有高置信度的弱认识器fjk所需的特征量,所以面部识别块74将所提供的选定特征量代入从学习数据存储块73读取的认识器,以便计算认识器R(x)。然后,面部识别块74将表决结果作为计算结果提供给识别结果输入块36,所述表决结果将每个弱认识器fjk的判定结果加权。
在步骤S139中,识别结果输出块36基于从面部识别块74提供的计算结果而输出识别结果,即存在目标识别对象与否。就是说,因为从面部识别块74提供的计算结果是上面的式(13)所指示的计算结果,所以识别结果输出块36在“+1”被提供作为计算结果的情况下输出指示目标识别对象被包括在输入图像中的结果,并且在“-1”被提供的情况下输出指示目标识别对象未被包括在输入图像中的结果,此后该处理结束。
通过上述处理,基于由具有较低误差率的L弱认识器fjk组成的认识器R(x)来识别目标对象,所述具有较低误差率的L弱认识器fjk是在学习处理的过程中利用在每个特征点的特征量受到几何约束的情况下的特征量来生成的。
应当注意的是,在上述示例中,学习处理是基于离散AdaBoost算法来执行的;但是,也可以使用另一种提升算法。例如,平缓AdaBoost算法可被使用。离散AdaBoost算法与平缓AdaBoost算法的差异在于前者认识器的输出结果是离散变量而后者认识器的输出结果是连续变量。但是,在前者中,置信度被倍增,使得输出结果基本被作为连续变量处理,从而在处理中产生微小差异。如果平缓AdaBoost算法被应用,则上面的式(11)和(13)被用下面的式(14)和(15)重写,处理依然相同。
wi=wiexp[-yifm(xi)]...(14)
sign(R(x))=sign(R(x)+fjk)...(15)
就是说,如果平缓AdaBoost算法被应用,则每个弱认识器fjk输出包括置信度的连续变量,使得进行相应加权以省略置信度的计算。
上面之中,已经描述基于伽柏滤波器和提升算法来识别面部图像。本发明也可应用于除面部图像识别之外的图像识别处理以及非识别处理,只要满足以下条件:处理是通过基于两个或多个特征量获得特征量向量来执行的,具有学习特征量向量的相关系数是在学习时计算的,并且具有为判定处理而登记的特征量向量的相关系数是在判定处理时计算的。
例如,如果在确定非面部图像匹配的情况下和在音频识别处理的情况下利用两个或多个S维特征量向量来计算相关系数,则不仅通过从S维特征量向量得到的一个相关系数而且通过利用从S维特征量生成的小于S维的两个或多个特征向量得到的两个或多个相关系数来确定匹配,从而提供判定的精确度。
如上所述,如果提升算法被用于学习和判定,则当维数增加时,例如与使用SVM(支持向量机)相比,计算量将不会爆炸性地增加,从而使得提升算法更可取。
如果伽柏滤波器被用于提取特征量,则如上所述的技术使得可以选择和学习最代表局部区域特征(或者特定特征点)的滤波频率和方向,从而使得提升算法优选用于学习和判定。
如上所述,如果预定信息即诸如面部图像之类的第一特征量被用传感器等得到,则所得到的第一特征量按照需要被诸如图1所示的面部识别块32或者面部图像转换块33之类的信息处理装置用预定处理来处理,并且确定被登记用于学习或者判定的(或者由诸如传感器之类的信息采集块得到的)第二特征量和所得到的(并且按需处理过的)第一特征量是否来自同一信号源,不仅计算第一特征量的相关向量和第二特征量的相关向量的所有维,而且使用至少一部分维度来计算两个或多个相关系数向量,从而显著地提高信息分类的性能。
图12示出了在利用利用了所有40种伽柏滤波器的40维特征向量得到仅一个相关系数时得到的检测精度。图13示出了在40种伽柏滤波器中的一部分被选择并且利用由8维不同组合得到的特征向量得到了两个或多个相关系数时得到的检测精度。
在图12和图13两者的情况下,垂直轴表示正确检测的比例,水平轴表示错误检测的比例。就是说,曲线越剧烈地变化,则检测精度越高。
如图12和13所示,在通过选择40种伽柏滤波器中的一部分利用8种不同组合中的特征向量来得到两个或多个相关系数的情况下的检测精度比利用所有40维特征向量得到仅一个相关系数的情况下的精度更高。就是说,通过不仅计算所得到的特征量的相关向量的所有维而且利用至少一部分维度计算两个或多个相关向量可以显著地提高信息分类的性能。
应当注意的是,上述的图像处理装置11被配置为在两种模式(学习模式和识别模式)下工作,以利用由认识器生成块72生成的认识器来执行识别处理。但是,也可以内部地存储在学习模式下由图像处理装置11执行得到的用于识别处理的信息(即认识器和关于识别特征量的信息),从而配置图像处理装置使得仅在识别模式下无需认识器生成块72而执行处理。
图14是是图示被配置为利用由学习处理得到的用于识别处理的信息来执行识别处理的图像处理装置201的框图。
参考图14,与先前参考图1描述的那些组件类似的组件被用相同的标号表示并且其描述将被省略。
因此,除了用面部识别处理块211代替了图1所示的面部识别处理块34之外,图像处理装置201在配置上基本与图1所示的图像处理装置11相同。面部识别处理块211用局部特征计算块221代替了图1所示的局部特征计算块71,用面部识别块222代替了图1所示的面部识别块74,用学习数据存储块223代替了图1所示的学习数据存储块73,并且没有与图1所示的认识器生成块72等效的组件。
面部识别处理块211没有图1所示的认识器生成块72。但是,学习数据存储块223预先存储了由图像处理装置11在学习模式下进行处理而得到的识别处理所需的信息。
就是说,学习数据存储块233预先存储了图像处理装置11的认识器生成块72在学习模式下生成的认识器以及关于识别特征量的信息。更具体的说,学习数据存储块223存储利用图像处理装置11的局部特征计算块71在学习模式下计算的学习图像的特征量通过执行基于AdaBoost的统计学习处理而生成的认识器、预先存储的学习模型的特征量、关于这些认识器的信息(相关值和指示认识器的置信度的信息),以及指示显著影响目标面部图像识别的模型特征量的信息,即作为指示特定特征点处的特定局部特征量(伽柏滤波器的滤波方向和频率的特定组合或者特定的矩形区域部分)的信息的识别特征量。
图像处理装置201可以利用所拍摄的人像来执行图像识别处理,以确定该人是否为已登记人。
图像处理装置201在学习模式下不执行处理;相反,图像处理装置201利用存储在学习数据存储块223中的认识器和识别特征量的信息来识别每幅图像,以确定所要识别的图像包括已登记人的面部与否。
应当注意的是,该描述是在假定面部识别数据库35被包括在图像处理装置201的情况下进行的;但是,例如也可以将面部登记数据库35配置为经由网络(未示出)连接到图像处理装置201。经由网络等将面部登记数据库35连接到图像处理装置201允许在两个或多个图像处理装置201之间共享一个面部登记数据库35。
如上所述,这些组件(图像捕捉块31至面部图像转换块33)具有与图1所示的图像处理装置11基本相同的配置。
就是说,图像捕捉块31被配置为具有照相机,从而捕捉通过拍摄人像的能力、通过外部布置的照相机拍摄的人像,或者捕捉从具有图像拍摄能力的另一个设备拍摄的人像。图像捕捉块31所捕捉的图像被提供给面部检测块32。
面部检测块32对从图像捕捉块31提供的图像进行分析以提取人的面部部分(即位置或者尺寸),从而对所提取的人的面部部分的图像(此后被称为面部图像)进行检测。
面部图像转换块33由面部特征点检测块51和面部对准块52组成。
面部特征点检测块51根据从面部检测块32提供的面部图像来检测下述特征点,该特征点在稍后要描述的由面部对准块52进行的变形处理中用于对准。面部对准块52对从面部检测块32提供的面部图像和由面部特征点检测块51检测到的对准特征点进行分析,以检测所提取的面部的朝向,从而执行变形处理(例如仿射变换),以将面部特征位置置于基准位置。
面部识别处理块211被配置为具有局部特征计算块221、学习数据存储块223和面部识别块222。
从中提取的特征点被校正为基准位置的面部图像被提供给面部识别处理块211的局部特征计算块221。局部特征计算块221从学习数据存储块223得到关于识别特征量的信息。局部特征计算块221计算所被提供的面部图像中的与识别特征量相匹配的特征点处的局部特征量。局部特征计算块221由伽柏滤波器构成。
局部特征计算块221利用两个或多个具有不同方向和频率的伽柏滤波器来计算与识别特征量相匹配的特征点处的特征量。如前面参考图2描述的情况一样,局部特征计算块221使用8个方向和5个频率以及总共40种伽柏滤波器中的至少一部分伽柏滤波器来执行处理,其中与识别特征量相匹配的特征点处的特征量被计算。
局部特征计算块221所得到的特征量被提供给面部识别块222。
面部识别块222利用存储在学习数据存储块223中的认识器在局部特征计算块221所得到的与识别特征量相匹配的特征点处的特征量与存储在面部登记数据库35中的已登记面部图像数据进行比较,即计算相关系数来寻找与已登记人的匹配,从而将比较结果提供给识别结果输出块36。就是说,面部识别块222基于存储在学习数据存储块223中的认识器的置信度来执行认识器的比较结果的多数决定,从而确定存在与已登记人的匹配与否。
面部登记数据库35存储与识别已登记人所需的特征量有关的信息。就是说,面部登记数据库35可以存储已登记人的面部图像的所有特征点处的所有伽柏特征矢量;但是,面部登记数据库35也可以仅至少存储与对应于识别特征量的特征量有关的信息。
登记在面部登记数据库35中的特征量的数据(即已登记的面部图像数据)可以是将要登记的由图1所示的组件(图像捕捉块31至局部特征计算块71)或图14所示的组件(图像捕捉块31至局部特征计算块221)完成的处理得到的数据,或者是外部得到以供登记的数据,只要这些数据与由图1所示的组件(图像捕捉块31至局部特征计算块71)或图14所示的组件(图像捕捉块31至局部特征计算块221)完成的处理得到的数据类似。
识别结果输出块36例如以蜂鸣声、文本显示或者LED发光的形式外部地给出从面部识别块222提供的判定结果,并且将判定结果输出到外部设备。更具体的说,识别结果输出块36例如可被配置为包括显示器,从而以消息的形式显示判定结果。
如上所述,图像处理装置201在特征量之间进行比较,以判定所得到的人的面部图像是否与已登记人的面部图像相匹配。
下面参考图15所示的流程图来描述图像处理装置201所要执行的识别处理2。
在步骤S211中,面部检测块32在由图像捕捉块31得到的包括面部图像的图像中检测与面部相对应的部分,并且将检测到的面部图像提供给面部特征点检测块51和面部对准块52。
在步骤S212中,面部特征点检测块51例如检测面部、眼睛、鼻子和嘴巴的特征部分(或者说面部特征部分)。
在步骤S213中,面部对准块52基于面部特征点检测块51所检测到的面部特征点对从面部检测块32提供的面部图像执行例如基于仿射变换的变形处理,从而执行变换以将面部图像变换为与从正面拍摄的面部图像相对应的面部图像。变换后的面部图像被提供给局部特征计算块221。
在步骤S214中,局部特征计算块221从学习数据存储块223得到关于识别特征量的信息。
上述的关于识别特征量的信息是指示用于生成认识器的伽柏滤波器属于哪个特征点的哪个组合的信息(例如,在准备了总共40种伽柏滤波器的情况下,滤波器组合中的哪一个被在哪个特征位置处使用并被用于哪个认识器)。
在步骤S215中,局部特征计算块221如参考图2所述利用伽柏滤波器来得到与识别特征量的信息相匹配的特征点的局部特征量。
在步骤S216中,基于伽柏滤波器所得到的局部特征量和关于所得到的识别特征量的信息,局部特征计算块221生成识别特征量中所指示的特征点处的局部特征量的组合,并且将所生成的组合作为用于计算相关系数的信息提供给面部识别块222。
在步骤S217中,面部识别块222从面部登记数据库35读取已登记的面部的特征量。
在步骤S218中,面部识别块222从学习数据存储块223读取认识器并且代入特征量以供计算。更具体的说,面部识别块222计算作为用于相关系数计算的信息而从局部特征计算块221提供的、识别特征量中所指示的特征点的局部特征量组合与从面部登记数据库35读取的已登记面部图像的特征量中的与识别特征量中所指示的特征点的局部特征量组合相对应的组合之间的相关系数,并且将所得到的相关系数作为特征量代入从学习数据存储块73读取的认识器以供计算。
就是说,如上所述,因为作为关于相关系数计算的信息而从局部特征计算块221提供的特征量是计算高置信度的弱认识器fjk所需的特征量,所以面部识别块222将所提供的选定特征量代入每个弱认识器fjk,以便计算认识器R(x)。然后,面部识别块222将表决结果作为计算结果提供给识别结果输入块36,所述表决结果将每个弱认识器fjk的判定结果加权。
在步骤S219中,识别结果输出块36基于从面部识别块222提供的计算结果的结果而输出识别结果,即存在目标识别对象与否。就是说,因为从面部识别块222提供的计算结果是上面的式(13)所指示的计算结果,所以识别结果输出块36在“+1”被提供作为计算结果的情况下输出指示目标识别对象被包括在输入图像中的结果,并且在“-1”被提供的情况下输出指示目标识别对象未被包括在输入图像中的结果,此后该处理结束。
通过上述处理,基于存储在学习数据存储块223中的关于识别特征量的信息而提取仅识别特征量处理,并且通过由存储在学习数据存储块223中的具有较低误差率ejk的L弱认识器fjk组成的认识器R(x)来执行识别目标对象的处理。
应当注意的是,在上述示例中,学习处理在图像处理装置201中也是基于离散AdaBoost算法来执行的;但是,也可以使用另一种提升算法。例如,平缓AdaBoost算法可被使用。离散AdaBoost算法与平缓AdaBoost算法的差异在于前者认识器的输出结果是离散变量而后者认识器的输出结果是连续变量。但是,在前者中,置信度被倍增,使得输出结果基本被作为连续变量处理,从而在处理中产生微小差异。如果平缓AdaBoost算法被应用,则上面的式(11)和(13)被用上面的式(14)和(15)重写,处理依然相同。
可以通过软件以及硬件来执行上述的处理操作序列。当通过软件来执行上述的处理操作序列时,组成该软件的程序被安装在专用硬件设备内建的计算机中,或者例如被从网络或者记录介质安装到通用个人计算机中,其中各种程序可被安装以便执行各种功能。在这种情况下,参考图1描述的图像处理装置11例如由如图16所示的个人计算机301构成。
参考图16,CPU(中央处理器)311执行存储在ROM(只读存储器)312中或者被从存储块318加载到RAM(随机访问存储器)313中的程序所指示的各种处理操作。RAM 313有时还存储CPU 311执行各种处理操作所需的那些数据。
CPU 311、ROM 312和RAM 313被经由总线314互连。总线314还与输入/输出接口315相连接。
输入/输出接口315与下述诸块相连接:例如基于键盘和鼠标的输入块316、例如基于显示器和扬声器的输出块317、例如基于硬盘的存储块318,以及例如基于调制解调器和终端适配器的通信块319。通信块319例如经由诸如因特网这样的网络来执行通信处理。
输入/输出接口315按照需要还与驱动器320相连接,磁盘331、光盘332、磁光盘333或者半导体存储器334被装载在驱动器320上。从这些记录介质中的任何一种中读取的计算机程序按照需要被安装在存储块318中。
当通过软件来执行上述的处理操作序列时,组成该软件的程序被安装在专用硬件设备内建的计算机中,或者例如被从网络或者记录介质安装到通用个人计算机中,其中各种程序可被安装以便执行各种功能。
如图16所示,这些记录介质不但包括由磁盘331(包括软盘)、光盘332(包括CD-ROM(光盘只读存储器)和DVD(数字通用光盘))、磁光盘333(包括MD(迷你盘)(商标))或者半导体存储器334组成的独立于装置本身分发的用于向用户提供程序的封装介质,还包括存储程序并且集成在装置本身中而被提供给用户的ROM 312或者存储块318。
这里应当注意的是,用于描述记录在记录介质中的每个程序的步骤不仅包括以随时间变化的方式顺序执行的处理操作,而且包括并发或者离散地执行的处理操作。
虽然已经使用具体术语描述了本发明的优选实施方式,但是这种描述仅用于说明,将明白可以在不脱离所附权利要求书的精神或范围的情况下进行改变和变更。
本领域技术人员应当明白,可以根据设计需要和其他因素进行各种修改、组合、子组合和变换,只要其属于所附权利要求书或其等同物的范围之内。
相关申请的交叉引用
本发明包含与2006年12月8日向日本专利厅提交的日本专利申请JP2006-332302以及2007年8月24日向日本专利厅提交的日本专利申请JP2007-218727有关的主题,上述申请的全部内容通过引用而结合于此。

Claims (31)

1.一种信息处理装置,包括:
组合生成装置,用于从为执行学习而准备的第一信息中得到N维的第一特征量,N是至少为二的整数,并且使用所述N维的第一特征量来生成所述第一特征量的不大于N维的至少两个第一特征量组合;以及
学习处理执行装置,用于计算由所述组合生成装置生成的所述多个第一特征量组合和与所述多个第一特征量组合中的每一维相匹配的学习模型特征量之间的第一相关系数,并且利用所述第一相关系数对所述第一信息进行分类,从而执行用于对预定的第二信息进行分类的学习处理。
2.如权利要求1所述的信息处理装置,其中,所述组合生成装置通过对包括在矩阵中的连续区域中的所述第一特征量进行组合来生成所述多个第一特征量组合,所述矩阵具有按照属性进行分类的构成所述N维的第一特征量的元素。
3.如权利要求1所述的信息处理装置,其中,所述N维的第一特征量是通过N种伽柏滤波器得到的特征量。
4.如权利要求3所述的信息处理装置,其中,所述组合生成装置通过对包括在矩阵中的连续区域中的所述第一特征量进行组合来生成多个所述第一特征量组合,所述矩阵是在通过所述N种伽柏滤波器得到的特征量中按照所述N种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵。
5.如权利要求4所述的信息处理装置,其中,所述组合生成装置通过对包括在矩形区域中的所述第一特征量进行组合来生成多个所述第一特征量组合,所述矩形区域是矩阵中滤波频率和滤波方向包括在预定范围内的矩形区域,所述矩阵是在通过所述N种伽柏滤波器得到的特征量中按照所述N种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵。
6.如权利要求1所述的信息处理装置,其中,所述学习处理执行装置通过利用提升算法对所述第一信息进行分类来执行所述学习处理。
7.如权利要求1所述的信息处理装置,其中,所述组合生成装置从所述第二信息得到基于在由所述学习处理执行装置执行的所述学习处理中生成的预定认识器而预先确定的不大于N维的预定的第二特征量,从而进一步生成基于所述认识器而预先确定的所述第二特征量的不大于N维的多个第二特征量组合,
所述信息处理装置还具有分类处理执行装置,用于计算由所述组合生成装置生成的所述多个第二特征量组合和与所述多个第二特征量组合中的每一维相匹配的已登记特征量之间的第二相关系数,从而利用所得到的第二相关系数和所述认识器对所述第二信息进行分类。
8.一种被配置为在用于执行用于分类处理的学习的信息处理装置中使用的信息处理方法,包括以下步骤:
从为执行学习而准备的第一信息中得到N维的第一特征量,N是至少为二的整数;
利用所述N维的第一特征量来生成所述第一特征量的不大于N维的多个第一特征量组合;
得到与所述多个第一特征量组合中的每一维相匹配的学习模型特征量,以计算所述多个第一特征量组合与所述学习模型特征量之间的第一相关系数;以及
通过利用所述第一相关系数对所述第一信息进行分类来对预定的第二信息进行分类。
9.如权利要求8所述的信息处理方法,还包括以下步骤:
从所提供的将被分类处理进行分类的所述第二信息中得到基于由所述学习处理进行的学习而得到的认识器而预先确定的不大于N维的第二特征量;
利用所述不大于N维的第二特征量,生成基于所述认识器而预先确定的所述第二特征量的不大于N维的多个第二特征量组合;
得到与所述多个第二特征量组合中的每一维相匹配的已登记特征量;
计算所述多个第二特征量组合与所述已登记特征量之间的第二相关系数;以及
利用由所述学习处理进行的学习而得到的所述认识器和所述第二相关系数对所述第二信息进行分类。
10.一种被配置为使计算机执行用于分类的学习的程序,包括以下步骤:
从为执行学习而准备的第一信息中得到N维的第一特征量,N是至少为二的整数;
利用所述N维的第一特征量来生成所述第一特征量的不大于N维的多个第一特征量组合;
得到与所述多个第一特征量组合中的每一维相匹配的学习模型特征量,以计算所述多个第一特征量组合与所述学习模型特征量之间的第一相关系数;以及
通过利用所述第一相关系数对所述第一信息进行分类来执行用于对预定的第二信息进行分类的学习过程。
11.如权利要求10所述的程序,还包括以下步骤:
从所提供的将被分类处理进行分类的所述第二信息中得到基于由所述学习处理进行的学习而得到的认识器而预先确定的不大于N维的第二特征量;
利用所述不大于N维的第二特征量,生成基于所述认识器而预先确定的所述第二特征量的不大于N维的多个第二特征量组合;
得到与所述多个第二特征量组合中的每一维相匹配的已登记特征量;
计算所述多个第二特征量组合与所述已登记特征量之间的第二相关系数;以及
利用由所述学习处理进行的学习而得到的所述认识器和所述第二相关系数对所述第二信息进行分类。
12.一种识别装置,该识别装置能够得到N维特征量以执行识别处理,该识别处理用于利用由学习处理得到的预定的认识器对预定信息进行分类,N是至少为二的整数,所述识别装置包括:
组合生成装置,用于从所述预定信息中得到基于所述认识器而预先确定的小于N维的预定特征量,以生成基于所述认识器而预先确定的所述特征量的小于N维的多个特征量组合;以及
分类处理执行装置,用于计算由所述组合生成装置生成的所述多个特征量组合和与所述多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数,以利用所述相关系数基于所述认识器对所述预定信息进行分类。
13.如权利要求12所述的识别装置,其中,基于所述认识器而预先确定的小于N维的所述特征量组合是包括在矩阵中的连续区域中的所述多个特征量组合,所述矩阵具有按照属性进行分类的构成所述N维的特征量的元素。
14.如权利要求12所述的识别装置,其中,所述特征量是由多种伽柏滤波器中的任何一个得到的量。
15.如权利要求14所述的识别装置,其中,所述基于所述认识器而预先确定的小于N维的所述多个特征量组合是这样的多个组合,其中包括在按照所述多种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的连续区域中的所述特征量被组合。
16.如权利要求15所述的识别装置,其中,所述基于所述认识器而预先确定的小于N维的所述特征量组合是这样的多个组合,其中包括在按照所述伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的滤波频率和滤波方向包括在预定范围内的矩形区域中包括的所述特征量被组合。
17.如权利要求12所述的识别装置,其中,所述分类处理执行装置利用提升算法对所述预定信息进行分类。
18.一种信息识别方法,该方法在能够得到N维的特征量以执行识别处理的识别装置中使用,N是至少为二的整数,所述识别处理用于利用由学习处理得到的预定认识器对预定信息进行分类,所述信息识别方法包括以下步骤:
接收将被分类处理进行分类的所述预定信息,以从所述预定信息得到基于所述认识器而预先确定的小于N维的预定特征量;
利用所述小于N维的特征量来生成基于所述认识器而预先确定的所述特征量的小于N维的多个特征量组合;
得到与所述多个特征量组合中的每一维相匹配的已登记特征量;以及
计算所述多个特征量组合与所述已登记特征量之间的相关系数,以利用所述相关系数对所述预定信息进行分类。
19.一种被配置为使计算机执行下述识别处理的程序,所述识别处理能够得到N维的特征量以执行识别处理,该识别处理利用由学习处理得到的预定认识器对预定信息进行分类,N是至少为二的整数,所述程序包括以下步骤:
接收将被分类处理进行分类的所述预定信息,以从所述预定信息得到基于所述认识器而预先确定的小于N维的预定特征量;
利用所述小于N维的特征量来生成基于所述认识器而预先确定的小于所述特征量的N维的多个特征量组合;
得到与所述多个特征量组合中的每一维相匹配的已登记特征量;以及
计算所述多个特征量组合与所述已登记特征量之间的相关系数,以利用所述相关系数对所述预定信息进行分类。
20.一种识别装置,该识别装置能够得到N维的特征量以执行用于对预定信息进行分类的识别处理,N是至少为二的整数,所述识别装置包括:
存储装置,用于存储由学习处理得到的预定认识器和关于用于识别的特征量的信息;
组合生成装置,用于利用存储在所述存储装置中的所述认识器和所述用于识别的特征量从所述预定信息中得到与所述基于所述认识器而预先确定的不大于N维的预定特征量中的所述用于识别的特征量相匹配的特征量,以提供与所述用于识别的特征量相匹配的所述特征量的不大于N维的多个特征量组合;以及
分类处理执行装置,用于计算由所述组合生成装置生成的所述多个特征量组合和与所述多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数,以利用所述相关系数基于所述认识器对所述预定信息进行分类。
21.如权利要求20所述的识别装置,其中,所述用于识别的特征量指示出在所述认识器中使用的特定特征点处的特定局部特征量。
22.如权利要求20所述的识别装置,其中,所述基于所述认识器而预先确定的不大于N维的特征量组合是包括在矩阵中的连续区域中的所述多个特征量组合,所述矩阵具有按照属性进行分类的构成所述N维的特征量的元素。
23.如权利要求20所述的识别装置,其中,所述特征量是由多种伽柏滤波器中的任何一个得到的特征量。
24.如权利要求23所述的识别装置,其中,所述基于所述认识器而预先确定的不大于N维的所述多个特征量组合是这样的多个组合,其中包括在按照所述多种伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的连续区域中的所述特征量被组合。
25.如权利要求24所述的识别装置,其中,所述基于所述认识器而预先确定的不大于N维的所述多个特征量组合是这样的多个组合,其中包括在按照所述伽柏滤波器的滤波频率和滤波方向进行分类而生成的矩阵中的滤波频率和滤波方向包括在预定范围内的矩形区域中包括的所述特征量被组合。
26.如权利要求20所述的识别装置,其中,所述分类处理执行装置利用提升算法对所述预定信息进行分类。
27.一种在识别装置中使用的信息识别方法,所述识别装置具有由学习处理得到的预定认识器和用于存储关于用于识别的特征量的信息的存储器,并且所述识别装置能够得到N维的特征量以执行用于对预定信息进行分类的识别处理,N是至少为二的整数,所述信息识别方法包括以下步骤:
利用存储在所述存储器中的所述认识器和所述用于识别的特征量,得到基于所述认识器而预先确定的不大于N维的所述预定特征量中的与所述用于识别的特征量相匹配的特征量;
利用存储在所述存储器中的所述认识器和所述用于识别的特征量,从所述预定信息生成与所述用于识别的特征量相匹配的所述特征量的不大于N维的多个特征量组合;
得到与所述多个特征量组合中的每一维相匹配的已登记特征量;
计算所述生成的多个特征量组合和与所述多个特征量组合中的每一维相匹配的所述已登记特征量之间的相关系数;以及
利用所述相关系数基于所述认识器对所述预定信息进行分类。
28.一种被配置为使计算机执行识别处理的程序,所述识别处理用于通过利用存储在存储器中的由学习处理得到的预定认识器和关于用于识别的特征量的信息来得到N维的特征量并对预定信息进行分类,N是至少为二的整数,所述程序包括以下步骤:
利用存储在所述存储器中的所述认识器和所述用于识别的特征量,得到基于所述认识器而预先确定的不大于N维的所述预定特征量中的与所述用于识别的特征量相匹配的特征量;
利用存储在所述存储器中的所述认识器和所述用于识别的特征量,从所述预定信息生成与所述用于识别的特征量相匹配的所述特征量的不大于N维的多个特征量组合;
得到与所述多个特征量组合中的每一维相匹配的已登记特征量;
计算所述生成的多个特征量组合和与所述多个特征量组合中的每一维相匹配的所述已登记特征量之间的相关系数;以及
利用所述相关系数基于所述认识器对所述预定信息进行分类。
29.一种信息处理装置,包括:
组合生成器,该组合生成器被配置为从为执行学习而准备的第一信息中得到N维的第一特征量,并且使用所述N维的第一特征量来生成所述第一特征量的不大于N维的至少两个第一特征量组合,N是至少为二的整数;以及
学习处理执行器,该学习处理执行器被配置为计算所述组合生成器所生成的所述多个第一组合特征量和与所述多个第一组合特征量中的每一维相匹配的学习模型特征量之间的第一相关系数,并且利用所述第一相关系数对所述第一信息进行分类,从而执行用于对预定的第二信息进行分类的学习处理。
30.一种识别装置,该识别装置能够得到N维的特征量来执行识别处理,所述识别处理用于利用由学习处理得到的预定认识器对预定信息进行分类,N是至少为二的整数,所述识别装置包括:
组合生成器,该组合生成器被配置为从所述预定信息中得到基于所述认识器而预先确定的所述小于N维的预定特征量,以生成基于所述认识器而预先确定的所述特征量的小于N维的多个特征量组合;以及
分类处理执行器,该分类处理执行器被配置为计算由所述组合生成器生成的所述多个特征量组合和与所述多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数,以利用所述相关系数基于所述认识器对所述预定信息进行分类。
31.一种识别装置,该识别装置能够得到N维的特征量以执行用于对预定信息进行分类的识别处理,N是至少为二的整数,所述识别装置包括:
存储器,该存储器被配置为存储由学习处理得到的预定认识器和关于用于识别的特征量的信息;
组合生成器,该组合生成器被配置为利用存储在所述存储器中的所述认识器和所述用于识别的特征量从所述预定信息中得到基于所述认识器而预先确定的不大于N维的所述预定特征量中的与所述用于识别的特征量相匹配的特征量,以提供与所述用于识别的特征量相匹配的所述特征量的不大于N维的多个特征量组合;以及
分类处理执行器,该分类处理执行器被配置为计算由所述组合生成器生成的所述多个特征量组合和与所述多个特征量组合中的每一维相匹配的已登记特征量之间的相关系数,以利用所述相关系数基于所述认识器对所述预定信息进行分类。
CN200710195332XA 2006-12-08 2007-12-10 信息处理装置和方法、识别装置和信息识别方法及程序 Expired - Fee Related CN101196992B (zh)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
JP2006-332302 2006-12-08
JP2006332302 2006-12-08
JP2006332302 2006-12-08
JP2007-218727 2007-08-24
JP2007218727A JP4321645B2 (ja) 2006-12-08 2007-08-24 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム
JP2007218727 2007-08-24

Publications (2)

Publication Number Publication Date
CN101196992A true CN101196992A (zh) 2008-06-11
CN101196992B CN101196992B (zh) 2010-06-23

Family

ID=39498087

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200710195332XA Expired - Fee Related CN101196992B (zh) 2006-12-08 2007-12-10 信息处理装置和方法、识别装置和信息识别方法及程序

Country Status (5)

Country Link
US (1) US8411906B2 (zh)
JP (2) JP4321645B2 (zh)
KR (1) KR20080053191A (zh)
CN (1) CN101196992B (zh)
DE (1) DE602007008037D1 (zh)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102136073A (zh) * 2010-01-27 2011-07-27 索尼公司 学习装置及方法、识别装置及方法、程序和信息处理系统
CN102165488A (zh) * 2008-09-24 2011-08-24 佳能株式会社 用于选择用于分类输入数据的特征的信息处理设备
CN102460508A (zh) * 2009-06-18 2012-05-16 佳能株式会社 图像识别方法和图像识别设备
CN104598981A (zh) * 2013-10-31 2015-05-06 国际商业机器公司 生成装置、生成方法和程序
CN109804388A (zh) * 2016-10-12 2019-05-24 欧姆龙株式会社 识别信息分配系统、识别信息分配方法及其程序
CN111657858A (zh) * 2019-03-07 2020-09-15 株式会社日立制作所 图像诊断装置、图像处理方法和程序

Families Citing this family (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4321645B2 (ja) * 2006-12-08 2009-08-26 ソニー株式会社 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム
KR100888476B1 (ko) * 2007-02-15 2009-03-12 삼성전자주식회사 얼굴이 포함된 영상에서 얼굴의 특징을 추출하는 방법 및장치.
JP5041229B2 (ja) * 2007-12-07 2012-10-03 ソニー株式会社 学習装置および方法、認識装置および方法、並びにプログラム
JP2010244381A (ja) 2009-04-08 2010-10-28 Sony Corp ガボアフィルタ、画像認識装置および方法、プログラム、並びに記録媒体
JP5873959B2 (ja) * 2010-09-27 2016-03-01 パナソニックIpマネジメント株式会社 ホワイトリスト内外判定装置及び方法
JP5671928B2 (ja) * 2010-10-12 2015-02-18 ソニー株式会社 学習装置、学習方法、識別装置、識別方法、およびプログラム
US9070042B2 (en) * 2011-01-13 2015-06-30 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus, image processing method, and program thereof
JP5668932B2 (ja) * 2011-05-23 2015-02-12 株式会社モルフォ 画像識別装置、画像識別方法、画像識別プログラム及び記録媒体
JP6632288B2 (ja) * 2014-12-12 2020-01-22 キヤノン株式会社 情報処理装置、情報処理方法、プログラム
CN108369451B (zh) * 2015-12-18 2021-10-29 索尼公司 信息处理装置、信息处理方法及计算机可读存储介质
CN105701830B (zh) * 2016-01-18 2018-09-21 武汉大学 基于几何模型的lasis波段影像配准方法及系统
CN106650682B (zh) * 2016-12-29 2020-05-01 Tcl集团股份有限公司 一种人脸追踪的方法及装置
CN110825765B (zh) * 2019-10-23 2022-10-04 中国建设银行股份有限公司 一种人脸识别的方法和装置
KR102282086B1 (ko) * 2019-10-28 2021-07-27 주식회사 뷰온 합성필터를 이용한 디스패리티 영상 생성장치 및 그 방법
CN110991505B (zh) * 2019-11-22 2023-12-26 拉扎斯网络科技(上海)有限公司 异常对象识别方法和装置以及异常行为识别方法和装置
JPWO2022113281A1 (zh) * 2020-11-27 2022-06-02
CN116361702A (zh) * 2021-12-27 2023-06-30 中移(苏州)软件技术有限公司 一种网络设备识别方法、装置、设备及存储介质

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05303645A (ja) * 1992-04-28 1993-11-16 Toshiba Corp 画像認識装置
JPH06168318A (ja) * 1992-11-27 1994-06-14 Video Res:Kk 顔画像認識装置
JPH11175724A (ja) * 1997-12-11 1999-07-02 Toshiba Tec Corp 人物属性識別装置
JP3962517B2 (ja) * 1999-12-08 2007-08-22 キヤノン株式会社 顔面検出方法及びその装置、コンピュータ可読媒体
US20030023910A1 (en) * 2001-07-25 2003-01-30 Myler Harley R. Method for monitoring and automatically correcting digital video quality by reverse frame prediction
JP4333364B2 (ja) * 2001-08-23 2009-09-16 ソニー株式会社 ロボット装置、顔認識方法及び顔認識装置
CN1459761B (zh) * 2002-05-24 2010-04-21 清华大学 基于Gabor滤波器组的字符识别技术
JP2005044330A (ja) * 2003-07-24 2005-02-17 Univ Of California San Diego 弱仮説生成装置及び方法、学習装置及び方法、検出装置及び方法、表情学習装置及び方法、表情認識装置及び方法、並びにロボット装置
JP4613617B2 (ja) * 2005-01-07 2011-01-19 ソニー株式会社 画像処理システム、学習装置および方法、並びにプログラム
JP2006202049A (ja) * 2005-01-20 2006-08-03 Omron Corp 顔認識装置
JP2006268825A (ja) * 2005-02-28 2006-10-05 Toshiba Corp オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム
JP4618098B2 (ja) * 2005-11-02 2011-01-26 ソニー株式会社 画像処理システム
JP4321645B2 (ja) * 2006-12-08 2009-08-26 ソニー株式会社 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム
JP2008152530A (ja) * 2006-12-18 2008-07-03 Sony Corp 顔認識装置及び顔認識方法、ガボア・フィルタ適用装置、並びにコンピュータ・プログラム

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102165488A (zh) * 2008-09-24 2011-08-24 佳能株式会社 用于选择用于分类输入数据的特征的信息处理设备
US8189906B2 (en) 2008-09-24 2012-05-29 Canon Kabushiki Kaisha Information processing apparatus and method
CN102165488B (zh) * 2008-09-24 2013-11-06 佳能株式会社 用于选择用于分类输入数据的特征的信息处理设备
US10891329B2 (en) 2009-06-18 2021-01-12 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
CN102460508A (zh) * 2009-06-18 2012-05-16 佳能株式会社 图像识别方法和图像识别设备
CN102460508B (zh) * 2009-06-18 2016-08-31 佳能株式会社 图像识别方法和图像识别设备
US9852159B2 (en) 2009-06-18 2017-12-26 Canon Kabushiki Kaisha Image recognition method and image recognition apparatus
CN102136073B (zh) * 2010-01-27 2013-10-16 索尼公司 学习装置及方法、识别装置及方法、和信息处理系统
CN102136073A (zh) * 2010-01-27 2011-07-27 索尼公司 学习装置及方法、识别装置及方法、程序和信息处理系统
CN104598981A (zh) * 2013-10-31 2015-05-06 国际商业机器公司 生成装置、生成方法和程序
CN109804388A (zh) * 2016-10-12 2019-05-24 欧姆龙株式会社 识别信息分配系统、识别信息分配方法及其程序
CN109804388B (zh) * 2016-10-12 2023-06-30 欧姆龙株式会社 识别信息分配系统、识别信息分配方法及其程序
CN111657858A (zh) * 2019-03-07 2020-09-15 株式会社日立制作所 图像诊断装置、图像处理方法和程序
CN111657858B (zh) * 2019-03-07 2023-08-01 株式会社日立制作所 图像诊断装置、图像处理方法和存储介质

Also Published As

Publication number Publication date
JP4645749B2 (ja) 2011-03-09
JP4321645B2 (ja) 2009-08-26
US8411906B2 (en) 2013-04-02
KR20080053191A (ko) 2008-06-12
DE602007008037D1 (de) 2010-09-09
CN101196992B (zh) 2010-06-23
JP2009157950A (ja) 2009-07-16
US20080137917A1 (en) 2008-06-12
JP2008165731A (ja) 2008-07-17

Similar Documents

Publication Publication Date Title
CN101196992B (zh) 信息处理装置和方法、识别装置和信息识别方法及程序
Treiber An introduction to object recognition: selected algorithms for a wide variety of applications
Boutemedjet et al. A hybrid feature extraction selection approach for high-dimensional non-Gaussian data clustering
US7889914B2 (en) Automated learning of model classifications
Gal et al. Salient geometric features for partial shape matching and similarity
Demirci et al. Object recognition as many-to-many feature matching
CN1924897B (zh) 图像处理装置和方法
Li et al. DeepHSV: User-independent offline signature verification using two-channel CNN
CN108140107B (zh) 快速、高精度的大型指纹验证系统
CN105809113A (zh) 三维人脸识别方法及应用其的数据处理装置
Vanamali et al. Shrec’10 track: Generic 3D warehouse
Broadhurst Statistical estimation of histogram variation for texture classification
CN101996326A (zh) 多类目标的检测装置及检测方法
Pengcheng et al. Fast Chinese calligraphic character recognition with large-scale data
Wu et al. Handwritten digit classification using the mnist data set
CN106980878B (zh) 三维模型几何风格的确定方法及装置
Bold et al. 3D point cloud retrieval with bidirectional feature match
Górecki et al. Ranking by k-means voting algorithm for similar image retrieval
Mustafa et al. Palm print recognition based on harmony search algorithm.
Brandoli et al. Visual data exploration to feature space definition
Forczmański et al. Classification of elementary stamp shapes by means of reduced point distance histogram representation
Kurnaz et al. Offline Signature Identification System to Retrieve personal information from cloud
Chouvatut et al. Feature Reduction from Correlation Matrix for Classification of Two Basil Species in Common Genus
Cyganek Circular road signs recognition with affine moment invariants and the probabilistic neural classifier
Yu et al. Quick retrieval method of massive face images based on global feature and local feature fusion

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100623

Termination date: 20151210

EXPY Termination of patent right or utility model