CN101458764A - 学习设备、学习方法、识别设备、识别方法和程序 - Google Patents
学习设备、学习方法、识别设备、识别方法和程序 Download PDFInfo
- Publication number
- CN101458764A CN101458764A CNA2008101829149A CN200810182914A CN101458764A CN 101458764 A CN101458764 A CN 101458764A CN A2008101829149 A CNA2008101829149 A CN A2008101829149A CN 200810182914 A CN200810182914 A CN 200810182914A CN 101458764 A CN101458764 A CN 101458764A
- Authority
- CN
- China
- Prior art keywords
- discr
- characteristic quantity
- study
- image
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Software Systems (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
公开了一种学习设备、学习方法、识别设备、识别方法和程序。所述学习设备包括:第一特征量计算装置,用于对在多个学习图像的每个中的预定像素和不同像素进行配对,其中所述多个学习图像包括包含要识别的目标对象的学习图像和不包含目标对象的学习图像,而且该第一特征量计算装置还用于通过计算在包括该预定像素的区域和包括该不同像素的区域之间的纹理距离来计算该配对的第一特征量;以及第一鉴别器生成装置,用于通过使用多个所述第一特征量的统计学习来生成用于从图像中检测所述目标对象的第一鉴别器。
Description
相关申请的交叉引用
本发明包含与在2007年12月7日向日本专利局提交的日本专利申请JP 2007-316636相关的主题,这个专利申请的全部内容通过引用并入在此。
技术领域
本发明涉及学习设备、学习方法、识别设备、识别方法和程序,尤其涉及可以可靠地从图像中检测目标对象的学习设备、学习方法、识别设备、识别方法和程序。
背景技术
在过去,主要针对安全性或者车辆安装而研究和开发了从图像中检测人员的技术(例如,参见非专利文献1到6)。
在非专利文献2到6中,通过提取边缘而获得的轮廓特征量用作用于从图像中检测(识别)出人员的主特征量。更具体地说,在该技术中,通过提取边缘而获得的轮廓特征量的各种变体被定义为新特征量来识别人员。
例如,在非专利文献3中,通过在带边缘的小区域中获取方向直方图来获得特征量,并且通过使用该特征量而变得耐得住对轮廓的细微扭曲。在非专利文献5中,建议了一种使用带边缘的小区域的示教图像的学习方法,以及通过使用该示教图像来分层次地学习该带边缘的小区域而获得的模型。
在非专利文献2中,人体中的部分由使用高斯导数的特征量所表示。在非专利文献6中,使用边缘的全局模板来识别人员。
非专利文献1:Papageorgiou,C.、M.oren和T.Poggio的“A GeneralFramework for Object Detection”,Proceedings of the Sixth InternationalConference on Computer Vision(ICCV′98),印度孟买,第555-562页,1998年1月;
非专利文献2:K.Mikolajczyk、C.Schmid和A.Zisserman的“Humandetection based on a probabilistic assembly of robust part detectors”,Proc.ECCV,1:69.81,2004年;
非专利文献3:Navneet Dalal和Bill Triggs的“Histograms of OrientedGradients for Human Detection”,CVPR2005;
非专利文献4:B.Wu和R.Nevatia的“Detection of multiple,partiallyoccluded humans in a single image by bayesian combination of edgeletpart detectors”,In Proc.10th Int.Conf.Computer Vision,2005年;
非专利文献5:Payam Sabzmeydani和Greg Mori的“DetectingPedestrians by Learning Shapelet Features”,CVPR2007;
非专利文献6:S.Munder和D.Gavrilla的“An Experimental Studyon Pedestrian Classification”。
发明内容
然而,当意图通过利用轮廓从图像中识别出人员时,上述技术具有下述缺点,即当不能良好地从图像中提取出轮廓或者提取出在背景周围的多个轮廓时,不能检测到人员或者错误地检测到人员。
因此,所期望的是可靠地从图像检测出目标对象。
根据本发明的第一实施例,提供了一种学习设备,其包括:第一特征量计算装置,用于对在多个学习图像的每个中的预定像素和不同像素进行配对,其中所述多个学习图像包括包含要识别的目标对象的学习图像和不包含目标对象的学习图像,而且该第一特征量计算装置还用于通过计算在包括该预定像素的区域和包括该不同像素的区域之间的纹理距离来计算该对的第一特征量;以及第一鉴别器生成装置,用于生成第一鉴别器,该第一鉴别器用于通过使用多个第一特征量的统计学习来从图像中检测目标对象。
该学习设备还可以包括:第二特征量计算装置,用于进行从多个学习图像中的每一个中提取轮廓的计算,以及根据该计算结果生成第二特征量;第二鉴别器生成装置,用于生成第二鉴别器,该第二鉴别器用于通过使用多个第二特征量的统计学习来从图像中检测目标对象;以及第三鉴别器生成装置,用于组合第一鉴别器和第二鉴别器以生成用于从图像中检测目标对象的第三鉴别器。
第三鉴别器生成装置可以通过线性地组合第一鉴别器和第二鉴别器来生成第三鉴别器。
学习设备还可以包括第二特征量计算装置,用于进行从多个学习图像中的每一个中提取轮廓的计算,以及根据该计算结果生成第二特征量。这里,第一鉴别器生成装置可以通过使用多个第一特征量和多个第二特征量的统计学习来生成第一鉴别器。
根据本发明的第一实施例,提供了一种学习方法或者允许计算机执行该学习方法的程序,该学习方法包括以下步骤:对在多个学习图像的每个中的预定像素和不同像素进行配对,其中所述多个学习图像包括包含要识别的目标对象的学习图像和不包含目标对象的学习图像,并且通过计算在包括该预定像素的区域和包括该不同像素的区域之间的纹理距离来计算该对的特征量;以及生成第一鉴别器,该第一鉴别器用于通过使用多个所述特征量的统计学习来从图像中检测目标对象。
在本发明的第一实施例中,对在多个学习图像的每一个中的预定像素和不同像素进行配对,所述多个学习图像包括包含要识别目标对象的学习图像和不包含目标对象的学习图像,通过计算在包括预定像素的区域和包括所述不同像素的区域之间的纹理距离来计算该对的第一特征量,并且通过使用多个第一特征量的统计学习来生成用于从图像中检测目标对象的第一鉴别器。
根据本发明的第二实施例,提供了一种识别设备,其包括:第一特征量计算装置,用于对在输入图像中的预定像素和不同的像素进行配对,并且通过计算在包括预定像素的区域和包括所述不同像素的区域之间的纹理距离来计算该对的第一特征量;以及检测装置,用于在第一特征量计算装置所计算的第一特征量的基础上、通过利用第一鉴别器来从输入图像中检测目标对象,其中该第一鉴别器通过使用多个第一特征量的统计学习生成,而且所述多个第一特征量从包括要识别的目标对象的学习图像和不包括目标对象的学习图像中获得。
识别设备还可以包括第二特征量计算装置,用于进行从输入图像中提取轮廓的计算,以根据该计算结果生成第二特征量。这里,检测装置可以在由第一特征量计算装置计算的第一特征量和由第二特征量计算装置计算的第二特征量的基础上、通过利用第三鉴别器从输入图像中检测目标对象,其中该第三鉴别器通过组合第一鉴别器和第二鉴别器而获得,该第二鉴别器通过使用多个第二特征量的统计学习生成,而且所述多个第二特征量从包括要识别的目标对象的学习图像和不包括目标对象的学习图像中获得。
该识别设备还可以包括第二特征量计算装置,用于进行从输入图像中提取轮廓的计算,以根据该计算结果生成第二特征量。这里,检测装置可以在由第一特征量计算装置计算的第一特征量和由第二特征量计算装置计算的第二特征量的基础上、通过利用第一鉴别器从输入图像中检测目标对象,其中该第一鉴别器通过使用多个第一特征量和多个第二特征量的统计学习生成,而且多个第二特征量从包括要识别的目标对象的学习图像和不包括目标对象的学习图像中获得。
根据本发明的第二实施例,还提供了一种识别方法或者允许计算机执行该识别方法的程序,该识别方法包括以下步骤:对在输入图像中的预定像素和不同的像素进行配对,并且通过计算在包括预定像素的区域和包括所述不同像素的区域之间的纹理距离来计算该对的特征量;以及在所述计算特征量的步骤中所计算的特征量的基础上、通过利用鉴别器来从输入图像中检测目标对象,其中该鉴别器通过使用多个特征量的统计学习生成,而且所述多个特征量从包括要识别的目标对象的学习图像和不包括目标对象的学习图像中获得。
在本发明的第二实施例中,对输入图像中的预定像素和不同的像素进行配对,通过计算在包括预定像素的区域和包括所述不同像素的区域之间的纹理距离来计算该对的第一特征量,并且在所计算的第一特征量的基础上、通过利用第一鉴别器从输入图像中检测目标对象,其中第一鉴别器由使用多个第一特征量的统计学习生成,而所述多个第一特征量从包括要识别的目标对象的学习图像和不包括目标对象的学习图像中获得。
根据本发明的第一实施例,有可能提供可以可靠地从图像中检测目标对象的鉴别器。
根据第二实施例,有可能可靠地从图像中检测目标对象。
附图说明
图1是说明出根据本发明实施例的人员鉴别系统的配置的框图。
图2是说明轮廓特征量计算器的详细配置的框图。
图3是说明可调滤波器的图示。
图4是说明对图像执行的滤波处理的结果的图示。
图5是说明对图像执行的滤波处理的结果的图示。
图6是说明对图像执行的滤波处理的结果的图示。
图7是说明对图像执行的滤波处理的结果平均的图示。
图8是说明对图像执行的滤波处理的结果平均的图示。
图9是说明对图像执行的滤波处理的结果平均的图示。
图10是说明服装鉴别器生成器的详细配置的框图。
图11是说明学习处理的流程图。
图12是说明对服装特征点进行提取的图示。
图13是说明服装特征量的图示。
图14是说明服装鉴别器生成处理的流程图。
图15是说明对每对服装特征点的服装特征量进行采样的图示。
图16是说明弱鉴别器的设置的图示。
图17是说明服装特征点对的图示。
图18A和18B是说明对轮廓特征点进行提取的图示。
图19是说明轮廓特征量计算处理的流程图。
图20是说明人员检测处理的流程图。
图21是说明目标对象的识别结果的显示示例的图示。
图22是说明根据本发明实施例的人员鉴别系统的另一个配置的框图。
图23是说明组合鉴别器生成器的详细配置的框图。
图24是说明学习处理的流程图。
图25是说明计算机的配置的框图。
具体实施方式
在下文中,将参考附图对本发明的实施例进行描述。
图1是说明根据本发明实施例的人员鉴别系统的配置的框图。人员鉴别系统包括学习设备11、鉴别器记录器12、和识别设备13,并且用来识别输入图像中的包括作为目标对象的人员的区域。
学习设备11生成鉴别特征量和组合鉴别器,并且将该鉴别特征量和组合鉴别器记录在鉴别器记录器12中,其中该鉴别特征量和组合鉴别器由识别设备13使用来在输入学习图像的基础上鉴别图像中的目标对象。识别设备13使用记录在鉴别器记录器12中的鉴别特征量和组合鉴别器来鉴别输入图像中的作为目标对象的人员的图像,并且输出鉴别结果。
学习设备11包括服装特征点提取器21、服装特征量计算器22、服装鉴别器生成器23、轮廓特征点提取器24、轮廓特征量计算器25、轮廓鉴别器生成器26和组合鉴别器生成器27。
服装特征点提取器21从输入学习图像中提取几个像素作为服装特征点(用于生成服装鉴别器),并且把所提取的服装特征点和学习图像提供给服装特征量计算器22。这里,服装鉴别器是指通过统计学习生成的并包括多个弱鉴别器的强鉴别器,而且该服装鉴别器用于通过利用人员的服装特征来在输入图像中鉴别人员的图像区域。
服装特征量计算器22对来自服装特征点提取器21的每个服装特征点和不同的服装特征点进行配对。服装特征量计算器22在来自服装特征点提取器21的学习图像的基础上、为每对服装特征点计算指示在两个区域之间的纹理距离的服装特征量,并且把所计算的服装特征量和所述学习图像提供给服装鉴别器生成器23.
服装鉴别器生成器23在从服装特征量计算器22提供的学习图像和服装特征量的基础上、使用Adaboost算法执行统计学习处理,以生成用于识别作为目标对象的人员的服装鉴别器。服装鉴别器生成器23将所生成的服装鉴别器提供给组合鉴别器生成器27。
轮廓特征点提取器24从输入学习图像中提取几个像素作为用于生成轮廓鉴别器的轮廓特征点,并且把所提取的轮廓特征点和所述学习图像提供给轮廓特征量计算器25。这里,轮廓鉴别器是指通过统计学习生成的并包括多个弱鉴别器的强鉴别器,而且该轮廓鉴别器用于通过利用人员的轮廓来在输入图像中鉴别人员的图像区域。
轮廓特征量计算器25在来自轮廓特征点提取器24的学习图像的基础上、通过利用使用可控滤波器的滤波处理为每个轮廓特征点计算指示所提取的轮廓的轮廓特征量,并且将所计算得轮廓特征量和所述学习图像提供给轮廓鉴别器生成器26。轮廓鉴别器生成器26在从轮廓特征量计算器25提供的学习图像和轮廓特征量的基础上、使用Adaboost算法执行统计学习处理,以生成用于识别作为目标对象的人员的轮廓鉴别器。轮廓鉴别器生成器26将所生成的轮廓鉴别器提供给组合鉴别器生成器27。
组合鉴别器生成器27组合来自服装鉴别器生成器23的服装鉴别器和来自轮廓鉴别器生成器26的轮廓鉴别器以生成组合鉴别器,并且将所生成的组合鉴别器提供给鉴别器记录器12,并且将该组合鉴别器记录在鉴别器记录器12中。组合鉴别器生成器27向鉴别器记录器12提供服装特征点对的服装特征量和轮廓特征点的轮廓特征量,并且将这些特征量记录在鉴别器记录器12中,其中这些特征量作为鉴别特征量由组合鉴别器使用来识别目标对象。
识别设备13包括服装特征点提取器31、服装特征量计算器32、轮廓特征点提取器33、轮廓特征量计算器34、鉴别计算器35和鉴别结果输出部分36。识别设备13中的服装特征点提取器31、服装特征量计算器32、轮廓特征点提取器33和轮廓特征量计算器34对应该从中识别目标对象的输入图像执行分别与学习设备11中的服装特征点提取器21、服装特征量计算器22、轮廓特征点提取器24和轮廓特征量计算器25相同的处理,并因此省略对它们的描述。
鉴别计算器35读出记录在鉴别器记录器12中的鉴别特征量和组合鉴别器。鉴别计算器35用来自服装特征量计算器32的服装特征量和来自轮廓特征量计算器34的轮廓特征量当中的、与鉴别特征量相对应的特征量代替所读取的组合鉴别器,并进行计算。鉴别结果输出部分36获取鉴别计算器35的计算结果,并且基于该计算结果输出指示是否从输入图像中识别出目标对象的鉴别结果。
现在将参考图2描述图1所示的轮廓特征量计算器25的详细配置。轮廓特征量计算器25包括第一滤波处理器61、第二滤波处理器62、第三滤波处理器63和特征量生成器64。把来自轮廓特征点提取器24的学习图像提供给第一滤波处理器61、第二滤波处理器62、第三滤波处理器63和特征量生成器64,并且把轮廓特征点提供给第一滤波处理器61、第二滤波处理器62和第三滤波处理器63。
第一滤波处理器61通过利用高斯函数G的线性微分函数G1来对每个提供的轮廓特征点执行滤波处理以提取特征量,并且把所生成的特征量提供给特征量生成器64。这里,高斯函数G和线性微分函数G1由表达式(1)和(2)所表示。
G1(θ)=cos(θ)G1(0°)+sin(θ)G1(90°)…(2)
这里,表达式(1)中的σ代表高斯宽度,而表达式(2)中的θ代表角度,即要计算的滤波的方向。
例如,第一滤波处理器61将高斯函数G的高斯宽度σ改变为三个预定值(例如,高斯宽度σ1、σ2和σ3分别等于1、2和4),并且为每个高斯宽度σ在四个预定方向上(例如,θ=θ1、θ2、θ3、和θ4)计算表达式(2)。方向θ不局限于这四个方向,而是可包括通过把pi(π)平分为八个方向而获得的方向。
第二滤波处理器62通过利用高斯函数G的二次微分函数G2来对每个提供的轮廓特征点执行滤波处理以提取特征量,并且把所生成的特征量提供给特征量生成器64。表达式(3)代表二次微分函数G2,而且表达式(3)中的θ代表角度。
G2(θ)=k21(θ)G2(0°)+k22(θ)G2(60°)+k23(θ)G2(120°)…(3)
表达式(3)中的系数k2i(θ)(其中i=1,2,3)是由表达式(4)表示的函数。
例如,第二滤波处理器62将高斯函数G的高斯宽度σ改变为三个预定值(例如,高斯宽度σ1、σ2和σ3分别等于1、2和4),并且为每个高斯宽度σ在四个预定方向上(例如,θ=θ1、θ2、θ3和θ4)计算表达式(3)。
第三滤波处理器63通过利用高斯函数G的三次微分函数G3来对每个提供的轮廓特征点执行滤波处理以提取特征量,并且把所生成的特征量提供给特征量生成器64。表达式(5)代表三次微分函数G3,而且表达式(5)中的θ代表角度。
G3(θ)=k31(θ)G3(0°)+k32(θ)G3(45°)+k33(θ)G3(90°)+k34(θ)G3(135°)
…(5)
表达式(5)中的系数k3i(θ)(其中i=1,2,3)是由表达式(6)表示的函数。
例如,第三滤波处理器63将高斯函数G的高斯宽度σ改变为三个预定值(例如,高斯宽度σ1、σ2和σ3分别等于1、2和4),并且为每个高斯宽度σ在四个预定方向(例如,θ=θ1,θ2,θ3和θ4)上计算表达式(5)。
特征量生成器64被提供有来自第一滤波处理器61、第二滤波处理器62和第三滤波处理器63的、为三种类型的高斯宽度σ中的每一个在四个方向θ上计算的轮廓特征点的特征量,在排列所提供的总共36(=3(次数)×4(方向)×3(高斯宽度))个特征量,并且使用所排列的特征量作为这些轮廓特征点的轮廓特征量。特征量生成器64将所生成的轮廓特征量和所提供的学习图像提供给轮廓鉴别器生成器26。
以这种方法,轮廓特征量计算器25采用通过对高斯函数进行微分而获得的、在方向和频率方面(即,方向θ和高斯宽度σ方面)具有选择性的滤波器(基函数),为每个微分次数提取不同的特征量(轮廓),并且使用所提取得特征量作为轮廓特征量。
当可控滤波器用于提取轮廓特征量,而且如图3所示准备了在方向θ和高斯宽度σ方面不同的滤波器时,在方向θ上的滤波器、即高斯函数G的微分函数Gn(其中n=1,2,3)可以由滤波器的线性组合所表示。
在图3中,在最左上行的图像从该图中的左边开始顺序地代表具有高斯宽度σ=2的线性微分函数G1(0°)和线性微分函数G1(90°)。在该图中,在左边中间行的图像从图中的左边开始顺序地代表具有高斯宽度σ=2的二次微分函数G2(0°)、二次微分函数G2(60°)、二次微分函数G2(120°)和拉普拉斯算子(Laplacian)。在该图中,在左边最下行中的图像从图中的左边开始顺序地代表具有高斯宽度σ=2的三次微分函数G3(0°)、三次微分函数G3(45°)、三次微分函数G3(90°)、和三次微分函数G3(135°)。
在该图中,在右边水平行的最高行中的图像从图的左边开始代表具有高斯宽度σ=1的线性微分函数G1(θ),其中θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi。
类似地,在该图中,在右边水平行中的图像从第二最高行开始向下分别顺序地代表具有高斯宽度σ=2的线性微分函数G1(θ)、具有高斯宽度σ=4的线性微分函数G1(θ)、具有高斯宽度σ=1的二次微分函数G2(θ)、具有高斯宽度σ=2的二次微分函数G2(θ)、具有高斯宽度σ=4的二次微分函数G2(θ)、具有高斯宽度σ=1的三次微分函数G3(θ)、具有高斯宽度σ=2的三次微分函数G3(θ)、以及具有高斯宽度σ=4的三次微分函数G3(θ)。相应行中的图像从图的左边开始顺序地代表微分函数,其中方向θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi。
例如,在该图中右边第二高行中的方向θ上的线性微分函数G1(θ)可以使用作为在该图中的左边滤波器的线性微分函数G1(0°)和线性微分函数G1(90°)来表示。类似地,在图中右边第五高行中的方向θ上的二次微分函数G2(θ)可以使用该图左边的二次微分函数G2来表示。类似地,在图中右边第八高行中的方向θ上的三次微分函数G3(θ)可以使用该图左边的三次微分函数G3来表示。也就是说,当基函数的数目比维度数目大1时,在每个维度方向中的微分函数可以由基函数的线性组合来表示。
通过利用其中高斯宽度σ发生改变的高斯函数G的微分函数对包括人员的图像执行滤波处理的结果如图4到6所示。在图4到6中,在图的左边示出了要滤波的图像。
在图4的右边,在最高水平行中的图像从左开始顺序代表滤波处理的结果,其中高斯宽度是σ=1,而且线性微分函数G1(θ)中的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi。
类似地,在图4的右边,在中间水平行中的图像从左开始顺序地代表滤波处理的结果,其中高斯宽度为σ=1,二次微分函数G2(θ)中的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi,并且使用了拉普拉斯算子。在该图中,在最低水平行中的图像从左开始顺序地代表滤波处理的结果,其中高斯宽度是σ=1,而且三次微分函数G3(θ)中的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi。
图5示出了当高斯宽度σ是2时的滤波处理的结果。也就是说,在图5的右边,在最高水平行中的图像从左开始顺序地代表滤波处理的结果,其中高斯宽度是σ=2,而且线性微分函数G1(θ)中的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi。
类似地,在图5的右边,中间水平行中的图像从左开始顺序地代表滤波处理的结果,其中高斯宽度是σ=2,而且二次微分函数G2(θ)的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi,并且使用了拉普拉斯算子。在该图中,在最低水平行中的图像从左开始顺序地代表滤波处理的结果,其中高斯宽度是σ=2,而且三次微分函数G3(θ)中的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi。
图6示出了当高斯宽度σ是4时的滤波处理的结果。也就是说,在图6的右边,在最高水平行中的图像从左开始顺序地代表滤波处理的结果,其中高斯宽度是σ=4,而且线性微分函数G1(θ)中的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi。
类似地,在图6的右边,在中间水平行中的图像从左开始顺序地代表了滤波处理的结果,其中高斯宽度是σ=4,二次微分函数G2(θ)中的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi,并且使用了拉普拉斯算子。在该图中,在最低水平行中的图像从左开始顺序地代表滤波处理的结果,其中高斯宽度是σ=4,而且三次微分函数G3(θ)中的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi。
图7到9中示出了通过对多个不同的图像执行如图4到6所示的滤波器的滤波处理并且对这些结果进行平均而获得的图像。也就是说,在图7到9中,示出了其中高斯宽度σ被顺序地设置为1、2和4的滤波处理的结果平均。在图7到9中,在左侧示出了通过对要滤波的图像进行平均而获得的图像。
因此,在图7到9中,在图右侧水平排列的图像行代表了对多个图像执行的、分别如对在图4到6的右侧的图像行那样的滤波处理的结果平均。例如,在图7的右侧,图像的最高行从左开始顺序地代表了滤波处理的结果平均,其中高斯宽度是σ=1,以及线性微分函数G1(θ)中的θ被顺序地设置为0、1/8pi、2/8pi、3/8pi、4/8pi、5/8pi、6/8pi和7/8pi。
在图7到9中,可以从滤波处理的结果平均的图像中看出人员的轮廓,并且可以看出,通过使用这些滤波器的滤波处理,从这些图像中正确地提取出了人员的轮廓。
图10是说明图1所示的服装鉴别器生成器23的详细配置的框图。服装鉴别器生成器23包括采样器101、权重设置器102、重新排列器103、鉴别器设置器104、鉴别器选择器105和权重更新部分106。
采样器101取决于由权重设置器102设置的学习图像的权重、为每对服装特征点从位于多个学习图像中的相同位置处的服装特征点对的服装特征量中采样M个服装特征量,并且将所采样的M个服装特征量提供给重新排列器103。
重新排列器103以升序或者降序重新排列为这些服装特征点对所采样的M个服装特征量,并且将重新排列的服装特征量提供给鉴别器设置器104。
鉴别器设置器104控制错误率计算器104a,以在改变以升序或者降序重新排列的各对的相应服装特征量的有关错误信息(该信息指示要识别的目标对象是否包含在已经从中提取了服装特征量的学习图像中)的阈值的同时来计算错误率,并且设置该阈值以最小化错误率(所述阈值被设置为弱鉴别器)。鉴别器设置器104将弱鉴别器的错误率提供给鉴别器选择器105。
更具体而言,将指示目标对象是否包含在学习图像中的错误信息(标签)添加到学习图像中,而且鉴别器设置器104基于添加到从服装特征量计算器22提供的学习图像中的错误信息来设置弱鉴别器。
鉴别器选择器105选择使错误率最小化的弱鉴别器来更新包括该弱鉴别器的服装鉴别器,并且把作为结果的服装鉴别器和与弱鉴别器相对应的服装特征量提供给组合鉴别器生成器27。鉴别器选择器105基于选定的弱鉴别器的错误率来计算可靠性,并且把该可靠性提供给权重更新部分106。
权重更新部分106基于所提供的可靠性重新计算每个学习图像的权重,归一化和更新这些权重,并且把更新结果提供给权重设置器102。权重设置器102基于从权重更新部分106提供的权重更新结果来以学习图像为单位设置权重。
因为图1所示的轮廓特征量计算器34具有与图2所示的轮廓特征量计算器25相同的配置,而且图1所示的轮廓鉴别器生成器26和图10所示的服装鉴别器生成器23具有相同的配置,因此省略了对它们的说明和描述。
当把学习图像输入到学习设备11中并且指示学习设备11生成组合鉴别器时,学习设备11开始学习处理并且通过统计学习生成组合鉴别器。现在将参考图11所示的流程图描述学习设备11的学习处理。
在步骤S11,服装特征点提取器21从输入的学习图像中提取服装特征点,并且把所提取的服装特征点和学习图像提供给服装特征量计算器22。
在步骤S12,服装特征量计算器22基于从服装特征点提取器21提供的服装特征点和学习图像对服装特征点进行配对。
在步骤S13,服装特征量计算器22为通过配对处理而配对的每对服装特征点计算服装特征量,并且把作为结果的服装特征量提供给服装鉴别器生成器23。
例如,当把图12所示的学习图像输入到服装特征点提取器21中时,服装特征点提取器21基于预定余量和采样跳过数目来从学习图像中提取服装特征点。在图12中,学习图像中的圆圈代表起服装特征点作用的像素。
这里,余量(margin)意指在学习图像中从学习图像的末端到从中提取服装特征点的区域的像素数目。采样跳过数目意指在学习图像中的起服装特征点作用的像素之间的间距。
因此,例如,当余量是5个像素而且采样跳过数目是5个像素时,服装特征点提取器21从学习图像中排除了包括在距离学习图像的末端5个像素之内的像素的区域,并且使用其它区域E11作为从中提取服装特征点的目标。服装特征点提取器21在区域E11的像素当中提取彼此相隔5个像素的像素作为服装特征点。也就是说,在该图中,在垂直方向或者水平方向上的相邻服装特征点之间的距离对应于5个像素,而且服装特征点是区域E11中的像素。
然后,服装特征量计算器22基于预定的最小半径和预定的最大半径对服装特征点进行配对。例如,当最小半径是R11、最大半径是R12、并且关注预定服装特征点KT1时,服装特征量计算器22对服装特征点KT1和离服装特征点KT1的距离等于或者大于最小半径R11并且等于或者小于最大半径R12的所有服装特征点进行配对。
因此,例如,当离服装特征点KT1的距离等于或大于最小半径R11并且等于或小于最大半径R12的服装特征点的数目为N时,获得了N对服装特征点。服装特征量计算器22为所有的服装特征点和不同的服装特征点进行配对。
服装特征量计算器22将以通过配对而获得的各服装特征点对中的服装特征点为中心的、具有预定形状和预定大小的区域之间的纹理距离计算为服装特征量。
例如,当通过距离平方和(SSD)来计算图12所示的包括服装特征点KT1和服装特征点KT2的对的服装特征量时,服装特征量计算器22将以服装特征点KT1为中心的预定区域设置为区域TX1,并且将以服装特征点KT2为中心、且具有与区域TX1相同大小的区域设置为区域TX2。然后,服装特征量计算器22计算在区域TX1中的像素的像素值和对应于这些像素的在区域TX2中的像素的像素值之间的绝对差值的和,并且使用所计算的绝对差值的和作为服装特征量。
服装特征量不局限于SSD,而是可以是绝对距离的和(SAD)或者归一化的相关性。
以这种方法,服装特征量计算器22计算从学习图像中提取的服装特征点对的服装特征量。更具体而言,将包括目标对象的几个学习图像和不包括目标对象的几个学习图像输入到学习设备11中。对各个输入的学习图像执行服装特征点的提取和服装特征量的计算。
因此,例如当如图13所示、将M个(其中M是自然数)学习图像PI1到PIM输入到学习设备11中时,从这M个学习图像PIi(其中1≤i≤M)中获得服装特征点对的服装特征量。
在图13中,一个矩形代表一对服装特征点的服装特征量。在该图中,在垂直方向上排列的矩形行代表从一个学习图像PIi(1≤i≤M)获得的服装特征量行,而且与从学习图像PIi获得的服装特征点对的数目相对应的服装特征量排列在该行中。也就是说,从一个学习图像PIi获得的服装特征点对的数目是学习图像PIi的服装特征量的维度。
在每个学习图像PIi的服装特征量行的图中,在下侧示出了指示目标对象是否包含在学习图像PIi中的标签(错误信息)。例如,在学习图像PI1的服装特征量行的下侧示出的标签“+1”指示目标对象包括在学习图像PI1中,而学习图像PIM的服装特征量行下侧示出的标签“-1”指示目标对象不包括在学习图像PIM中。
再次参见图11中的流程图,当在步骤S13获得服装特征量时,服装鉴别器生成器23在步骤S14执行服装鉴别器生成处理以生成服装鉴别器。
现在将参考图14的流程图描述与步骤S14的处理相对应的服装鉴别器生成处理。
在步骤S51中,权重设置器102把图13所示的学习图像PIi(其中1≤i≤M)的权重Wi初始化为1/M,鉴别器选择器105把计数器j和包括弱鉴别器总和的服装鉴别器R(x)分别初始化为1和0。
这里,i标识图13中的学习图像PIi,并且满足1≤i≤M。在步骤S51中,所有学习图像PIi的权重Wi变为相同的归一化权重(=1/M)。计数器j指示更新服装鉴别器R(x)的次数的预定数目。
在步骤S52,采样器101为每对服装特征点、取决于学习图像PIi的权重Wi而从位于多个学习图像PIi中的相同位置处的服装特征点对的服装特征量中选择M个服装特征量,并且将所选择的M个服装特征量提供给重新排列器103。
例如,如图15所示,假定把M个学习图像PI1到PIM的服装特征量从服装特征量计算器22提供给采样器101。在图15中,从学习图像PIi(其中1≤i≤M)获得的服装特征量在图的水平方向中排列,而且在指示学习图像的字符PIi左侧的数字“+1”或者“-1”指示添加到学习图像PIi中的标签(错误信息)。
也就是说,在图的最上面沿水平方向排列的(A1,A2,A3,...,AN)代表了在学习图像PI1中的服装特征点对的服装特征量,在指示学习图像PI1的字符“PI1”左边的数字“+1”代表了指示目标对象包含在学习图像PI1中的标签。
类似地,在图的最上面第二行沿水平方向排列的(B1,B2,B3,...,BN)代表了在学习图像PI2中的服装特征点对的服装特征量,在指示学习图像PI2的字符“PI2”左边的数字“+1”代表了指示目标对象包含在学习图像PI2中的标签。
在图的最上面第三行沿水平方向排列的(C1,C2,C3,...,CN)代表了在学习图像PI3中的服装特征点对的服装特征量,在指示学习图像PI3的字符“PI3”左边的数字“-1”代表了指示目标对象不包含在学习图像PI3中的标签。在图的最上面第M行沿水平方向排列的(M1,M2,M3,...,MN)代表了在学习图像PIM中的服装特征点对的服装特征量,在指示学习图像PIM的字符“PIM”左边的数字“-1”代表了指示目标对象不包含在学习图像PIM中的标签。
以这种方法,在图15的示例中,从一个学习图像PIi中获得N对服装特征点的服装特征量。在图15中,在垂直方向上排列的M个服装特征量Ak到Mk(其中1≤k≤N)形成了组Grk,而且属于组Grk的服装特征量是位于学习图像PIi中的相同位置处的服装特征点对的服装特征量。
例如,组Gr1包括在垂直方向上排列的服装特征量A1到M1,而且形成学习图像PI1的对(从中获得服装特征量A1)的两个服装特征点和形成学习图像PIM的对(从中获得属于组Gr1的不同的服装特征量,例如服装特征量M1)的两个服装特征点位于学习图像中的相同位置处。在下面的描述中,从中获得属于组Grk(其中1≤k≤N)的服装特征量的学习图像PIi中的服装特征点对被称为对k。
当把图15所示的学习图像PIi的服装特征量提供给采样器101时,采样器101取决于学习图像PIi的权重Wi、通过抽签从属于每对k(也就是,每个组Grk)的服装特征量中选择M个服装特征量。例如,采样器101取决于权重Wi从属于组Gr1的服装特征量A1到M1中选择M个服装特征量。在第一次处理中,因为全部权重Wi都是1/M,所以全部服装特征量都以M次抽签的概率进行选择。因此,此处假定在属于每个组Grk的第一次处理中选择全部服装特征量。当然,可以重复地选择相同的服装特征量。
在为每对服装特征量计算错误的过程中,可以使用权重Wi。在这种情况下,通过将数据权重系数(权重Wi)乘以错误值来进行错误计算。
在步骤S53中,重新排列器以升序或者降序为N个组Grk中的每个组Grk、即每个对k重新排列所选择的M个服装特征量,并且将重新排列的服装特征量提供给鉴别器设置器104。例如,顺序地重新排列从属于图15中的组Gr1的服装特征量中选择出来的M个服装特征量。
在步骤S54中,鉴别器设置器104控制错误率计算器104a来基于添加到从服装特征量计算器22提供的学习图像中的错误信息(标签)、为每个组Grk(也就是说,每对服装特征点k)在改变阈值的同时计算如表达式(7)所示的错误率ejk,并且将阈值设置为最小化错误率ejk。
这里,每对服装特征点k的阈值thjk起弱鉴别器fjk的作用。鉴别器设置器104将每个弱鉴别器fjk的错误率ejk提供给鉴别器选择器105。也就是说,为N对k设置了N个弱鉴别器fjk,并且为这N个弱鉴别器fjk计算错误率ejk。弱鉴别器fjk是这样的函数,当包括要识别的目标对象时其输出“+1”,并且当不包括要被识别的目标对象时其输出“-1”。
例如,如图16所示,当j=1,并且服装特征点对k=1的服装特征量按升序或者降序以L1、A1、C1、...、M1排列时,将阈值th11设置在服装特征量A1和C1之间。当识别出要识别的目标对象不在小于阈值th11的范围中(该范围由“-1”指示),并且识别出在大于阈值th11的范围中有要识别的目标对象(该范围由“+1”指示)时,由虚线围绕的服装特征量A1是包括要识别的目标对象的学习图像的服装特征量,这会被认为是个错误。因为服装特征量C1和M1是不包括要识别的目标对象的学习图像的服装特征量,所以它被认为是个错误。
在图16的实例中,在最小化错误率ejk的位置处设置阈值th11。例如,当图16所示的阈值th11不被设置在最小化错误率ejk的位置处时,鉴别器设置器104改变阈值th11的位置,在参考在这些位置处的错误率ejk的同时找出阈值th11的最小化错误率ejk的位置,并且将所找到的位置设置为阈值th11的位置。
如表达式(7)所示,错误率计算器104a基于学习图像的错误信息(标签),对从中提取了被认为是错误的服装特征量的学习图像的权重Wi进行求和以计算错误率ejk。
这里,y≠fjk代表被认为是错误的服装特征点对K的条件,而且Ew代表了权重在被认为是错误的对k中进行求和。
在步骤S55中,鉴别器选择器105基于从鉴别器设置器104提供的每对k的N个错误率ejk、从N个弱鉴别器fjk中选择最小化错误率ejk的弱鉴别器fjk。鉴别器选择器105获取由鉴别器设置器104选择的弱鉴别器fjk。
在步骤S56中,鉴别器选择器105基于所选择的弱鉴别器fjk的错误率ejk计算由表达式(8)表示的可靠性cj,并且将该计算结果提供给权重更新部分106。
cj=log((1-ej)/ej)…(8)
在表达式(8)中,ej代表在错误率ejk当中所选择的弱鉴别器fjk的错误率ejk,也就是说,N个错误率ejk中的最小错误率ejk。在下面的描述中,也将在步骤S55选择的对k的弱鉴别器称为弱鉴别器fj,并且也将弱鉴别器fj的错误率ejk称为错误率ej。
在步骤S57,权重更新部分106通过基于所提供的可靠性cj计算表达式(9)来重新计算学习图像PIi的权重Wi,归一化并更新全部权重Wi,并且把更新结果提供给权重设置器102。权重设置器102基于从权重更新部分106提供的权重更新结果来设置学习图像的权重。
w1=wiexp[-cj·1(y≠fj)],i=1,2, …N…(9)
也就是说,在表达式(9)中,表示了包括具有错误的服装特征量的学习图像的权重Wi增加了。
在步骤S58中,鉴别器选择器105使用新计算的弱鉴别器fj来更新所存储的服装鉴别器R(x)。也就是说,鉴别器选择器105通过计算表达式(10)来更新服装鉴别器R(x)。
R(x)=R′(x)+cj×fj(x) ...(10)
在表达式(10)中,R′(x)代表存储在鉴别器选择器105中的更新之前的服装鉴别器,并且fj(x)代表新计算的弱鉴别器fj。也就是说,鉴别器选择器105通过将新计算的弱鉴别器(与可靠性cj相乘并且与权重相加)添加到所存储的服装鉴别器中来更新服装鉴别器。
在步骤S59,鉴别器选择器105将与最小化错误率ejk的弱鉴别器fjk相对应的服装特征点对k的服装特征量存储为鉴别特征量。
在步骤S60,鉴别器选择器105确定计数器j是否等于或者大于L。当在步骤S60确定计数器j不等于或者大于L时,鉴别器选择器105在步骤S61递增计数器j。然后,处理流程返回到步骤S52并且重复上述处理。
也就是说,通过使用学习图像的新设置的权重Wi,为N对k设置新的弱鉴别器fjk,并且从弱鉴别器fjk中选择最小化错误率ejk的弱鉴别器fjk。用所选择的弱鉴别器fjk来更新服装鉴别器。
相反,当在步骤S60确定计数器j等于或者大于L时,在步骤S62,鉴别器选择器105将所存储的服装鉴别器和鉴别特征输出到组合鉴别器生成器27。然后,处理流程进入图11中的步骤S15。
通过上述处理,将包括具有相对低的L个错误率的弱鉴别器fj(其中1≤j≤L)的服装鉴别器提供给组合鉴别器生成器27,并且将要用于弱鉴别器fj的服装特征点对k的服装特征量提供给组合鉴别器生成器27。这里,L满足L≤N。
如果当用服装特征量代替的服装鉴别器为正时输出“+1”并且当服装鉴别器为负时输出“-1”的鉴别器(函数)是通过利用表达式(10)的服装鉴别器生成的,那么该鉴别器可以被当作是通过根据L个弱鉴别器的多数决定原则而输出要识别的目标对象的存在性的函数。在由学习处理给出权重的同时如参考图14的流程图所描述的那样、通过重复地添加弱鉴别器来生成鉴别器的学习处理被称为离散AdabooSt算法。
也就是说,在上述服装鉴别器生成处理中,重复对每对服装特征点的错误率和弱鉴别器进行计算的处理,以便具有高错误率的服装特征量的权重连续地增加,而具有低错误率的服装特征量的权重连续地降低。因此,在该重复的处理(步骤S52到S61)中,因为具有高错误率的服装特征量可以容易地被选为在设置弱鉴别器时选择的服装特征量(在步骤S52选择的服装特征量),所以重复地选择几乎不能识别的服装特征量并且重复该学习。因此,会更多地选择几乎不能识别的学习图像的服装特征量,由此最终识别出具有高识别率的学习图像。
在该重复的处理(步骤S52到S61)中,因为鉴别器选择器105一般选择与具有最低错误率的对相对应的弱鉴别器,所以通过重复该学习处理来选择具有最高可靠性的服装特征点对的弱鉴别器并且将其添加到服装鉴别器中,因此每次重复时会连续地添加具有高精度的弱鉴别器。
服装鉴别器是通过利用服装特征量来鉴别作为目标对象的人员是否包含在图像中的鉴别器。与代替服装鉴别器的弱鉴别器的服装特征量相对应的服装特征点对是服装特征点对当中的适于从输入图像中检测目标对象的对。
例如,如图17所示,与代替服装鉴别器的服装特征量相对应的对是在图像中作为目标对象的人员周围的服装特征点对。在图17中,直的虚线代表连接一对中的两个服装特征点的直线,而以该虚线的一端为中心的矩形代表用于计算服装特征量的纹理区域。
在图17的示例中,可以看出,选择了包括在图像中的人员上半部的衣服中的两个服装特征点并具有减少的纹理距离(即减少的服装特征量)的对,或者包括在人员衣服中的一个服装特征点和在背景而不是人员中的一个服装特征点并具有增加的服装特征量的对。
再次参见图11的流程图,在步骤S15,轮廓特征点提取器24从该输入的学习图像中提取轮廓特征点。
例如,当把图18A所示的学习图像输入到轮廓特征提取器24时,如图18B所示,轮廓特征点提取器24提取在学习图像中以预定间隔排列的像素作为轮廓特征点。在图18B中,学习图像中的圆圈代表起轮廓特征点作用的像素。
图18A和18B所示的学习图像是在图中的水平方向上包括32个像素并且在垂直方向上包括64个像素的学习图像。轮廓特征点提取器24在水平方向和垂直方向上每隔两个像素地选择学习图像中的像素作为起轮廓特征点作用的像素。因此,在学习图像中,水平方向上包括12个像素且垂直方向上包括28个像素的全部336(=12×28)个像素被选为轮廓特征点。
当从学习图像提取轮廓特征点时,轮廓特征点提取器24将所提取的轮廓特征点和输入的学习图像提供给轮廓特征量计算器25。
在步骤S16,轮廓特征量计算器25执行轮廓特征量计算处理,以基于从轮廓特征点提取器24提供的轮廓特征点和学习图像来计算轮廓特征点的轮廓特征量。
这里,将参考图19的流程图描述与步骤S16的处理相对应的轮廓特征量计算处理。
在步骤S101,轮廓特征量计算器25,更具体而言,轮廓特征量计算器25中的第一滤波处理器61、第二滤波处理器62和第三滤波处理器63从轮廓特征点提取器24所提供的轮廓特征点中选择一个未处理的轮廓特征点作为关注像素。
在步骤S102,轮廓特征计算器25将指示方向θq的计数器q设置为1。因此,方向θq是θ1。
在步骤S103,轮廓特征量计算器25将指示高斯宽度σp的计数器p设置为1。因此,高斯宽度σp是σ1。
在步骤S104,第一滤波处理器61执行第一滤波处理。也就是说,第一滤波处理器61基于要处理的关注像素的像素值、使用高斯宽度σp和方向θq计算表达式(2),并且将滤波结果提供给特征量生成器64。也就是说,在表达式(2)中的方向θ是θq,并且进行计算,由此提取轮廓。
在步骤S105,第二滤波处理器62执行第二滤波处理。也就是说,第二滤波处理器62基于要处理的关注像素的像素值、使用高斯宽度σp和方向θq计算表达式(3),并且将滤波结果提供给特征量生成器64。也就是说,在表达式(3)中的方向θ是θq,并且进行计算,由此提取轮廓。
在步骤S106,第三滤波处理器63执行第三滤波处理。也就是说,第三滤波处理器63基于要处理的关注像素的像素值、使用高斯宽度σp和方向θq计算表达式(5),并且将滤波结果提供给特征量生成器64。也就是说,在表达式(5)中的方向θ是θq,并且进行计算,由此提取轮廓。
在步骤S107,轮廓特征量计算器25确定高斯宽度σp是否是σ3,也就是说,计数器是否是p=3。当在步骤S107确定高斯宽度σp不是σ3时,在步骤S108,轮廓特征量计算器25增大计数器p。例如,当计数器是p=1时,计数器p增大到p=2,并因此高斯宽度σp变为σ2。当计数器p增大时,处理流程返回到步骤S104,并且然后重复上述处理。
相反,当在步骤S107确定高斯宽度σp是σ3时,在步骤S109,轮廓特征量计算器25确定方向θq是否是θ4,也就是说,计数器是否是q=4。
当在步骤S109确定方向θq不是θ4时,在步骤S110,轮廓特征量计算器25增大计数器q。例如,当计数器是q=1时,计数器q增大到q=2,并因此方向θq变为θ2。当计数器q增大时,处理流程返回到步骤S103,并且然后重复上述处理。
相反,当在步骤S109确定方向θq是θ4时,在步骤S111,特征量生成器64将从第一滤波处理器61、第二滤波处理器62和第三滤波处理器63提供的计算结果合成为轮廓特征量,以生成一个轮廓特征点的轮廓特征量。
在步骤S112,轮廓特征量计算器25确定是否已经处理了全部轮廓特征点。例如,当计算了从轮廓特征点提取器24提供的全部轮廓特征点的轮廓特征量时,就确定已经处理了全部轮廓特征量。
当在步骤S112确定还没有处理全部轮廓特征点时,处理的流程返回到步骤S101,并且将下一个轮廓特征点选为关注像素。
相反,当在步骤S112确定已经处理了全部轮廓特征点时,特征量生成器64将从轮廓特征点提取器24提供的学习图像和轮廓特征点的轮廓特征量提供给轮廓鉴别器生成器26。此后,处理流程进入图11中的步骤S17。
从学习图像中提取轮廓特征量不局限于可控滤波器,而是可以采用伽柏(Gabor)滤波器。
再次参见图11的流程图,当计算了轮廓特征点的轮廓特征量时,在步骤S17,轮廓鉴别器生成器26基于从轮廓特征量计算器25提供的学习图像和轮廓特征量来执行轮廓鉴别器生成处理以生成轮廓鉴别器。轮廓鉴别器生成处理与参考图14描述的服装鉴别器生成处理相同,因此省略其描述。
也就是说,除了要处理的特征量是服装特征量或者轮廓特征量之外,轮廓鉴别器生成处理类似于服装鉴别器生成处理。因此,在轮廓鉴别器生成处理中,根据与具有最低错误率的轮廓特征点的轮廓特征量相对应的弱鉴别器的总和生成轮廓鉴别器。轮廓鉴别器生成器26将所生成的轮廓鉴别器和鉴别特征输出到组合鉴别器生成器27。
在步骤S18,组合鉴别器生成器27将从服装鉴别器生成器23提供的服装鉴别器和从轮廓鉴别器生成器26提供的轮廓鉴别器进行组合以生成组合鉴别器。
例如,因为由使用Adaboost算法的统计学习处理获得的鉴别器由弱鉴别器的线性组合所表示,所以组合鉴别器生成器27通过晚期融合(latefusion)方法来组合服装鉴别器和轮廓鉴别器。
也就是说,组合鉴别器生成器27通过计算表达式(11)来计算服装鉴别器R(x)和轮廓鉴别器T(x)的鉴别器总和U(x)。也就是说,通过线性地组合服装鉴别器R(x)和轮廓鉴别器T(x)而获得鉴别器总和U(x)。
U(x)=αR(x)+β·T(x )...(11)
在表达式(11)中,α和β代表预定常量,也就是说,调节参数,它们通过利用用于统计学习处理的学习图像的鉴别率来计算得到。与由表达式(10)所表示的服装鉴别器R(x)相似,轮廓鉴别器T(x)是可靠性与弱鉴别器的乘积的总和。
组合鉴别器生成器27使用所获得的鉴别器总和U(x)来生成由表达式(12)所表示的组合鉴别器。
组合鉴别器=sign(U(x)) ...(12)
在表达式(12)中,sign(U(x))是这样的函数,其当鉴别器总和U(x)为正时输出指示要识别的目标对象包括在输入图像中的“+1”,并且当鉴别器总和U(x)为负时输出指示要识别的目标对象不包括在输入图像中的“-1”。
当以这种方法生成组合鉴别器时,组合鉴别器生成器27将所生成的组合鉴别器提供给鉴别器记录器12,并且将其记录在鉴别器记录器12中。组合鉴别器生成器27将从轮廓鉴别器生成器26提供的鉴别特征量添加到从服装鉴别器生成器23提供的鉴别特征量中以获取最终的鉴别特征量,并且将该最终的鉴别特征量提供给鉴别器记录器12并记录在其中,由此完成学习处理。
如上所述,学习设备11从学习图像中提取服装特征点,计算服装特征点对的服装特征量,通过统计学习生成服装鉴别器,从学习图像中提取轮廓特征点,计算轮廓特征量,并且通过统计学习生成轮廓鉴别器。然后,学习设备11通过线性组合来组合服装鉴别器和轮廓鉴别器以生成组合鉴别器。
通过以这种方法组合服装鉴别器和轮廓鉴别器来生成组合鉴别器,有可能提供可以可靠地从图像中检测目标对象的组合鉴别器。也就是说,通过组合基于目标对象的服装特征的服装鉴别器和基于目标对象的轮廓的轮廓鉴别器而获得组合的鉴别器。因此,当可以从输入图像中充分地提取至少一个特征量时,有可能从图像中检测目标对象。
当应该从图像中检测作为目标对象的人员时,即使当该人员的服装改变了时,也应该将作为目标对象的人员检测为人。因此,在过去,仅仅把轮廓用作不与人员服装的亮度相关的特征量以便从图像中检测出人员。
相反,学习设备11使用基于人员的服装特征的、不随人员服装模式的改变而改变的服装特征量来从图像中检测该人员。服装特征量是通过注意到以下情形而新定义的特征量:人员经常穿着具有其中相同纹理在人员上半部(衬衫)重复的模式以及其中相同纹理在下半部(躯干)重复的模式的服装。
也就是说,服装特征量代表在图像中的两个区域之间的纹理方面的相似性,也就是说,在亮度模式之间的相似度。例如,在人员上半部的两个区域之间的纹理相似性是高的,而在上半部和下半部之间的纹理相似性或者在人员服装和背景之间的纹理相似性是低的。学习设备11使用用于基于两个区域之间的纹理相似性而从图像中检测出人员的服装鉴别器来生成组合鉴别器。
因此,例如,当不能从输入图像中令人满意地提取出轮廓,但是可以从图像中令人满意地提取出在两个区域之间的纹理相似特征时,有可能使用组合鉴别器从图像中检测出人员。相反,当图像中的人员穿着具有非重复模式的服装或者该服装由包等东西部分覆盖时,可能不能从图像中令人满意地提取出纹理的相似特征。然而,当可以从图像中令人满意地提取出轮廓时,有可能使用组合鉴别器从图像中检测出人员。
当将输入图像输入到识别设备13中,并且命令该识别设备13检测作为目标对象的人员时,识别设备13开始人员检测处理并且从输入图像中检测目标对象。在下文中,将参考图20的流程图描述识别设备13的人员检测处理。
步骤S151到S153的处理类似于图11中的步骤S11到S13的处理,并因此省略对其的描述。也就是说,服装特征点提取器31从输入图像中提取服装特征点,服装特征量计算器32对由服装特征点提取器31提取的服装特征点进行配对,并且计算该对的服装特征量。服装特征量计算器32将为该对计算的服装特征量提供给鉴别计算器35。
在步骤S154中,轮廓特征点提取器33执行与图11的步骤S15相同的处理以从输入图像中提取轮廓特征点,并且将所提取的轮廓特征点与输入图像一起提供给轮廓特征量计算器34。
在步骤S155,轮廓特征量计算器34执行轮廓特征量计算处理,以基于来自轮廓特征点提取器33的输入图像和轮廓特征点来计算轮廓特征点的轮廓特征量。然后,轮廓特征量计算器34将所计算的轮廓特征量提供给鉴别计算器35。轮廓特征量计算处理类似于参考图19描述的轮廓特征量计算处理,因此省略对其的描述。
在步骤S156,鉴别计算器35从鉴别器记录器12中读出鉴别特征量和组合鉴别器,并且用这些特征量代替所读取的组合鉴别器来进行计算。也就是说,鉴别计算器35用来自服装特征量计算器32的服装特征量和来自轮廓特征量计算器34的轮廓特征量当中的、与鉴别特征量相对应的特征量来代替由表达式(12)表示的组合鉴别器来进行计算。
这里,代替组合鉴别器中的弱鉴别器的特征量是从输入图像中的下述服装特征点对或者轮廓特征点获得的特征量,这些服装特征点对或者轮廓特征点与学习图像中的、从中获得作为鉴别特征量的特征量的服装特征点对或者轮廓特征点位于相同的位置处。作为鉴别特征量的特征量是在执行统计学习处理时用于设置组合鉴别器中的弱鉴别器的特征量。
作为表达式(12)的计算结果,获得了指示作为目标对象的人员存在于输入图像中的“+1”或者指示作为目标对象的人员不存在于输入图像中的“-1”。鉴别计算器35将组合鉴别器的计算结果提供给鉴别结果输出部分36。
在步骤S157,鉴别结果输出部分36基于来自鉴别计算器35的计算结果输出人员检测结果,然后结束人员检测处理。也就是说,输出指示是否从输入图像中识别出目标对象的鉴别结果。
例如,如图21所示,作为指示是否从输入图像中识别出目标对象的鉴别结果,可以由鉴别结果输出部分36显示这样的输入图像,其中在从中检测出作为目标对象的人员的区域中显示边框。
图21所示的输入图像是其中存在两个人员作为目标对象的图像。在输入图像中显示围绕各个人员的边框。在这种情况下,将输入图像输入到鉴别结果输出部分36,而且鉴别计算器35将指示输入图像中的、从中检测出目标对象的区域的信息与其计算结果一起提供给鉴别结果输出部分36。然后,当基于来自鉴别计算器35的计算结果和所述指示区域的信息而从输入图像中检测出目标对象时,鉴别结果输出部分36显示输入图像连同围绕从中检测出目标对象的区域的边框。
以这种方法,识别设备13从输入图像中提取服装特征点,计算服装特征点对的服装特征量,从输入图像中提取轮廓特征点,并且计算轮廓特征量。识别设备13使用所计算的服装特征量和轮廓特征量以及在鉴别器记录器12中记录的组合鉴别器来从输入图像中检测目标对象。
以这种方法,通过使用服装特征量和轮廓特征量从输入图像中检测目标对象,有可能可靠地从图像中检测出目标对象。也就是说,当可以令人满意地从输入图像中提取服装特征量和轮廓特征量中的至少一个时,有可能令人满意地从输入图像中检测出目标对象。
虽然已经描述了将人员检测为目标对象,但是目标对象不局限于人,而是可以是任意对象,只要该对象的表面模式是其中重复相同纹理的模式即可。
虽然已经描述了基于离散Adaboost算法执行统计学习处理,但是还可以采用其它boosting(推进)算法。例如,可以采用平缓Adaboost算法。离散Adaboost算法和平缓Adaboost算法彼此不同之处在于,前者鉴别器的输出结果是离散变量,而后者是连续变量。然而,在前者中,因为与可靠性相乘,所以输出结果被当作是连续变量,并因此没有实质差别。
或者,可以通过使用SVM(支持向量机)或者贝叶斯执行统计学习处理来生成服装鉴别器或者轮廓鉴别器。在统计学习处理中,当通过Adaboost算法选择特征量(服装特征量或者轮廓特征量)时,有可能通过利用使用组合鉴别器的识别设备13来高速检测人员。
虽然已经描述了生成服装鉴别器和轮廓鉴别器,并且将它们组合以生成组合鉴别器,但是组合鉴别器可以直接从服装特征量和轮廓特征量生成而不用生成服装鉴别器和轮廓鉴别器。
在这种情况下,如图22所示构造人员鉴别系统。在图22中,与图1所示的元件相对应的那些元件用类似的参考数字表示,并且省略对其的描述。
图22所示的人员鉴别系统类似于图1所示的人员识别系统之处在于,鉴别器记录器12和识别设备13具有相同的配置,而是它们在学习设备11的配置方面彼此不同。
也就是说,图22所示的学习设备11包括服装特征点提取器21、服装特征量计算器22、轮廓特征点提取器24、轮廓特征量计算器25和组合鉴别器生成器201。服装特征点提取器21、服装特征量计算器22、轮廓特征点提取器24和轮廓特征量计算器25与图1所示的学习设备11中的那些相同,并省略对它们的描述。
组合鉴别器生成器201在从组合特征量计算器22提供的服装特征量和从轮廓特征量计算器25提供的轮廓特征量的基础上,使用Adaboost算法执行统计学习处理以生成组合鉴别器。组合鉴别器生成器201将所生成的组合鉴别器和鉴别特征量提供给鉴别器记录器12,并且将其记录在鉴别器记录器12中。
更具体地说,例如,如图23所示构造组合鉴别器生成器201。组合鉴别器生成器201包括采样器231、权重设置器232、重新排列器233、鉴别器设置器234、鉴别器选择器235和权重更新部分236。
除了要处理的特征量是服装特征量还是轮廓特征量之外,采样器231到权重更新部分236类似于图10所示的采样器101到权重更新部分106,并且因此恰当地省略对其的描述。
也就是说,向采样器231提供了来自服装特征量计算器22的学习图像和服装特征量,并且还向采样器231提供了来自轮廓特征量计算器25的学习图像和轮廓特征量。采样器231对从同一个学习图像中提取的服装特征量和轮廓特征量进行排列以形成一个特征量,取决于每个学习图像的权重、为每对服装特征点或者每个轮廓特征点、在多个学习图像中的位置处采样服装特征点对的服装特征量或者相同轮廓特征点的轮廓特征量中的M个特征量(服装特征量或者轮廓特征量),并且将所采样的M个特征量提供给重新排列器233。
鉴别器设置器234控制错误率计算器234a,以基于添加到来自服装特征量计算器22和轮廓特征量计算器25的学习图像中的错误信息,为重新排列的服装特征点对的服装特征量或者轮廓特征点的轮廓特征量中的每一个,在改变阈值的同时计算错误率,并且将阈值设置为最小化该错误率。
鉴别器选择器235从弱鉴别器中选择最小化错误率的弱鉴别器,更新包括所存储的弱鉴别器的组合鉴别器,并且将最后的组合鉴别器以及与弱鉴别器相对应的服装特征量或者轮廓特征量作为鉴别特征量提供给鉴别器记录器12,并且将它们记录在鉴别器记录器12中。
现在将参考图24所示的流程图描述图22所示的学习设备11的学习处理。步骤S201到S203的处理类似于图11中的步骤S11到S13的处理,并因此省略对其的描述。
当在步骤S203将服装特征量和学习图像从服装特征量计算器22提供给组合鉴别器生成器201时,在步骤S204,轮廓特征点提取器24执行与图11中的步骤S15相同的处理以从输入的学习图像中提取轮廓特征点,并且将这些轮廓特征点和学习图像提供给轮廓特征量计算器25。
在步骤S205,轮廓特征量计算器25基于来自轮廓特征点提取器24的轮廓特征点和学习图像执行轮廓特征量计算处理,以计算轮廓特征点的轮廓特征量。轮廓特征量计算处理类似于图11中的步骤S16的处理,并且将省略对其的描述。
当执行轮廓特征量计算处理并且将轮廓特征量和学习图像从轮廓特征量计算器25提供给组合鉴别器生成器201时,组合鉴别器生成器201在步骤S206基于从服装特征量计算器22提供的学习图像和服装特征量以及从轮廓特征量计算器25提供的学习图像和轮廓特征量执行组合鉴别器生成处理以生成组合鉴别器。组合鉴别器生成处理与参考图14描述的服装鉴别器生成处理相似,并因此省略其描述。
在步骤S206的组合鉴别器生成处理中,使用包括服装特征量和轮廓特征量的一个特征量来执行使用早期融合(early fusion)方法的组合鉴别器生成处理。因此,属于图15所示的组Grk(k满足1≤k≤N1+N2,其中服装特征量的数目是N1而且轮廓特征量的数目是N2)的特征量是服装特征量和轮廓特征量之一。
在为每个组Grk设置的N1+N2个弱鉴别器fjk当中、最小化所选择的错误率ejk的弱鉴别器fjk是服装特征点对的弱鉴别器和轮廓特征点的弱鉴别器之一。也就是说,取决于在服装特征点对的弱鉴别器或者轮廓特征点的弱鉴别器当中、最小化错误的弱鉴别器是哪个,确定在组合鉴别器的弱鉴别器当中、添加到组合鉴别器的弱鉴别器是服装特征点对的弱鉴别器还是轮廓特征点的弱鉴别器。
以这种方法,当直接地从服装特征量和轮廓特征量生成组合鉴别器时,通过线性地组合服装特征点对的弱鉴别器和轮廓特征点的弱鉴别器来生成组合鉴别器。组合鉴别器是这样的函数,其当用特征量代替的弱鉴别器的总和为正时输出指示目标对象存在于图像中的“+1”,并且当所述弱鉴别器的总和为负时输出指示目标对象不存在于图像中的“-1”。也就是说,不是独立地学习得知两个强鉴别器,但是使用两个弱特征量来学习得知一个强鉴别器。
当通过组合鉴别器生成器201生成组合鉴别器时,将所生成的组合鉴别器和鉴别特征量提供给鉴别器记录器12并且将其记录在其中,由此完成学习处理。
以这种方法,学习设备11通过学习处理从服装特征量和轮廓特征量直接生成一个组合鉴别器。通过从服装特征量和轮廓特征量生成组合鉴别器,有可能提供可以可靠地从图像中检测出人员的鉴别器。
当识别设备13使用由图22所示的学习设备11生成的组合鉴别器从输入图像中检测目标对象时,鉴别计算器35通过用来自服装特征量计算器32的服装特征量和来自轮廓特征数量计算器34的轮廓特征量当中的、与在鉴别器记录器12中记录的鉴别特征量相对应的特征量替换组合鉴别器来进行计算。除了鉴别特征量之外,这个处理类似于参考图20描述的人员检测处理,因此省略对其的描述。
所示的系列处理可以由硬件或者软件执行。当由软件执行该系列处理时,将构成该软件的程序从程序记录介质安装到装有专门硬件的计算机或者通用个人计算机中,其中计算机可以通过在其中安装各种程序来执行各种功能。
图25是说明通过使用程序执行系列处理的计算机的硬件配置的框图。
在计算机中,CPU(中央处理单元)501、ROM(只读存储器)502和RAM(随机存取存储器)503通过总线504彼此连接。
输入/输出接口505连接到总线504。输入/输出接口505连接到包括键盘、鼠标和麦克风的输入单元506,包括显示器和扬声器的输出单元507,包括硬盘或者非易失性存储器的记录单元508,包括网络接口的通信单元509和驱动诸如磁盘、光盘、磁光盘或者半导体存储器之类的可移除介质511的驱动器510。
在具有上述配置的计算机中,CPU 501通过输入/输出接口505和总线504将例如记录在记录单元508中的程序加载到RAM 503中,并且执行该程序,由此执行该系列处理。
由计算机(CPU 501)执行的程序记录在作为包括磁盘(包括软盘)、光盘(CD-ROM(压缩盘-只读存储器),DVD(数字多用途盘))、磁光盘或者半导体存储器的封装介质的可移除介质511中,或者通过诸如局域网、国际互联网或者数字卫星广播之类的有线或者无线传输介质来提供。
程序可以通过将可移除介质511加载到驱动器510中而经由输入/输出接口505安装到记录单元508中。程序可以由通信单元509通过有线或者无线传输介质来接收,并且安装在记录单元508中。该程序可以事先安装在ROM 502或者记录单元508中。
由计算机执行的程序可以是以此处描述的次序按照时间顺序执行的程序,或者可以是并行执行或者在诸如调用之类的必要时刻执行的程序。
本发明不局限于上述实施例,而是可以在所附权利要求或其等效内容的范围内以各种形式进行修改。
Claims (11)
1.一种学习设备,包含:
第一特征量计算装置,用于对在多个学习图像的每个中的预定像素和不同像素进行配对,其中所述多个学习图像包括包含要识别的目标对象的学习图像和不包含目标对象的学习图像,而且该第一特征量计算装置还用于通过计算在包括该预定像素的区域和包括该不同像素的区域之间的纹理距离来计算该配对的第一特征量;以及
第一鉴别器生成装置,用于通过使用多个所述第一特征量的统计学习来生成用于从图像中检测所述目标对象的第一鉴别器。
2.如权利要求1所述的学习设备,还包含:
第二特征量计算装置,用于进行从所述多个学习图像中的每一个中提取轮廓的计算,以及根据计算结果生成第二特征量;
第二鉴别器生成装置,用于通过使用多个所述第二特征量的统计学习来生成用于从图像中检测所述目标对象的第二鉴别器;以及
第三鉴别器生成装置,用于组合第一鉴别器和第二鉴别器以生成用于从图像中检测所述目标对象的第三鉴别器。
3.如权利要求2所述的学习设备,其中,所述第三鉴别器生成装置通过线性地组合第一鉴别器和第二鉴别器来生成第三鉴别器。
4.如权利要求1所述的学习设备,还包含:第二特征量计算装置,用于进行从所述多个学习图像中的每一个中提取轮廓的计算,以及根据计算结果生成第二特征量,
其中第一鉴别器生成装置通过使用多个第一特征量和多个第二特征量的统计学习来生成第一鉴别器。
5.一种学习方法,包含以下步骤:
对在多个学习图像的每个中的预定像素和不同像素进行配对,其中所述多个学习图像包括包含要识别的目标对象的学习图像和不包含目标对象的学习图像,并且通过计算在包括该预定像素的区域和包括该不同像素的区域之间的纹理距离来计算该配对的特征量;以及
通过使用多个所述特征量的统计学习来生成用于从图像中检测所述目标对象的鉴别器。
6.一种允许计算机执行学习方法的程序,其中该学习方法包括以下步骤:
对在多个学习图像的每个中的预定像素和不同像素进行配对,其中所述多个学习图像包括包含要识别的目标对象的学习图像和不包含目标对象的学习图像,并且通过计算在包括该预定像素的区域和包括该不同像素的区域之间的纹理距离来计算该配对的特征量;以及
通过使用多个所述特征量的统计学习来生成用于从图像中检测所述目标对象的鉴别器。
7.一种识别设备,包含:
第一特征量计算装置,用于对在输入图像中的预定像素和不同像素进行配对,并且通过计算在包括该预定像素的区域和包括所述不同像素的区域之间的纹理距离来计算该配对的第一特征量;以及
检测装置,用于在第一特征量计算装置所计算的第一特征量的基础上、通过利用第一鉴别器来从输入图像中检测目标对象,其中该第一鉴别器通过使用多个第一特征量的统计学习生成,而且所述多个第一特征量从包括要识别的目标对象的学习图像和不包括目标对象的学习图像中获得。
8.如权利要求7所述的识别设备,还包含:第二特征量计算装置,用于进行从所述输入图像中提取轮廓的计算以根据计算结果生成第二特征量,
其中,检测装置在由第一特征量计算装置计算的第一特征量和由第二特征量计算装置计算的第二特征量的基础上、通过利用第三鉴别器从输入图像中检测所述目标对象,其中所述第三鉴别器通过组合第一鉴别器和第二鉴别器而生成,所述第二鉴别器通过使用多个第二特征量的统计学习而生成,而且所述多个第二特征量从包括要识别的目标对象的学习图像和不包括目标对象的学习图像中获得。
9.如权利要求7所述的识别设备,还包含:第二特征量计算装置,用于进行从所述输入图像中提取轮廓的计算以根据计算结果生成第二特征量,
其中,检测装置在由第一特征量计算装置计算的第一特征量和由第二特征量计算装置计算的第二特征量的基础上、通过利用第一鉴别器从输入图像中检测目标对象,其中该第一鉴别器通过使用多个第一特征量和多个第二特征量的统计学习生成,而且多个第二特征量从包括要识别的目标对象的学习图像和不包括所述目标对象的学习图像中获得。
10.一种识别方法,包含以下步骤:
对在输入图像中的预定像素和不同像素进行配对,并且通过计算在包括所述预定像素的区域和包括所述不同像素的区域之间的纹理距离来计算该配对的特征量;以及
通过在所述计算特征量的步骤中所计算的特征量的基础上、通过利用鉴别器来从输入图像中检测目标对象,其中该鉴别器通过使用多个特征量的统计学习生成,而且所述多个特征量从包括要识别的目标对象的学习图像和不包括所述目标对象的学习图像中获得。
11.一种允许计算机执行识别方法的程序,其中该识别方法包含以下步骤:
对在输入图像中的预定像素和不同像素进行配对,并且通过计算在包括所述预定像素的区域和包括所述不同像素的区域之间的纹理距离来计算该配对的特征量;以及
在所述计算特征量的步骤中所计算的特征量的基础上、通过利用鉴别器来从输入图像中检测目标对象,其中该鉴别器通过使用多个特征量的统计学习生成,而且所述多个特征量从包括要识别的目标对象的学习图像和不包括所述目标对象的学习图像中获得。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007-316636 | 2007-12-07 | ||
JP2007316636 | 2007-12-07 | ||
JP2007316636A JP5041229B2 (ja) | 2007-12-07 | 2007-12-07 | 学習装置および方法、認識装置および方法、並びにプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101458764A true CN101458764A (zh) | 2009-06-17 |
CN101458764B CN101458764B (zh) | 2011-08-31 |
Family
ID=40403909
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2008101829149A Expired - Fee Related CN101458764B (zh) | 2007-12-07 | 2008-12-05 | 学习设备、学习方法、识别设备、识别方法和程序 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20090202145A1 (zh) |
EP (1) | EP2068271A3 (zh) |
JP (1) | JP5041229B2 (zh) |
CN (1) | CN101458764B (zh) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102087710A (zh) * | 2009-12-03 | 2011-06-08 | 索尼公司 | 学习设备和方法、识别设备和方法、以及程序 |
CN102136073A (zh) * | 2010-01-27 | 2011-07-27 | 索尼公司 | 学习装置及方法、识别装置及方法、程序和信息处理系统 |
CN102147868A (zh) * | 2010-01-27 | 2011-08-10 | 索尼公司 | 学习装置、学习方法、识别装置、识别方法和程序 |
CN102194237A (zh) * | 2010-03-04 | 2011-09-21 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
CN102270306A (zh) * | 2010-06-04 | 2011-12-07 | 索尼公司 | 信息处理设备和方法以及程序 |
CN111566675A (zh) * | 2018-01-18 | 2020-08-21 | 牛津大学科技创新有限公司 | 车辆定位 |
Families Citing this family (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8660368B2 (en) * | 2011-03-16 | 2014-02-25 | International Business Machines Corporation | Anomalous pattern discovery |
JP2013003686A (ja) | 2011-06-13 | 2013-01-07 | Sony Corp | 認識装置および方法、プログラム、並びに記録媒体 |
US9536137B2 (en) * | 2013-03-26 | 2017-01-03 | Megachips Corporation | Object detection apparatus |
JP6160196B2 (ja) * | 2013-04-15 | 2017-07-12 | オムロン株式会社 | 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法 |
JP6168876B2 (ja) * | 2013-06-24 | 2017-07-26 | オリンパス株式会社 | 検出装置、学習装置、検出方法、学習方法及びプログラム |
US9158996B2 (en) * | 2013-09-12 | 2015-10-13 | Kabushiki Kaisha Toshiba | Learning image collection apparatus, learning apparatus, and target object detection apparatus |
WO2015076152A1 (ja) | 2013-11-20 | 2015-05-28 | 日本電気株式会社 | ヘルメット着用判定方法、ヘルメット着用判定システム、ヘルメット着用判定装置及びプログラム |
JP6872502B2 (ja) * | 2018-01-31 | 2021-05-19 | 富士フイルム株式会社 | 画像処理装置、画像処理方法、およびプログラム |
JP2020091302A (ja) | 2018-12-03 | 2020-06-11 | 本田技研工業株式会社 | 感情推定装置、感情推定方法、およびプログラム |
CN111160466B (zh) * | 2019-12-30 | 2022-02-22 | 深圳纹通科技有限公司 | 一种基于直方图统计的特征匹配算法 |
US20240046150A1 (en) * | 2021-06-11 | 2024-02-08 | Hitachi Solutions, Ltd. | Ai quality monitoring system |
Family Cites Families (69)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2375212B (en) * | 1999-04-29 | 2003-06-11 | Mitsubishi Electric Inf Tech | Method and apparatus for searching for an object using shape |
US6411724B1 (en) * | 1999-07-02 | 2002-06-25 | Koninklijke Philips Electronics N.V. | Using meta-descriptors to represent multimedia information |
GB2393012B (en) * | 1999-07-05 | 2004-05-05 | Mitsubishi Electric Inf Tech | Representing and searching for an object in an image |
US6704454B1 (en) * | 1999-07-23 | 2004-03-09 | Sarnoff Corporation | Method and apparatus for image processing by generating probability distribution of images |
EP1089214A3 (en) * | 1999-09-30 | 2005-01-26 | Matsushita Electric Industrial Co., Ltd. | Apparatus and method for image recognition |
GB2360919A (en) * | 2000-01-20 | 2001-10-03 | Anthropics Technology Ltd | Appearance modelling |
US6807286B1 (en) * | 2000-04-13 | 2004-10-19 | Microsoft Corporation | Object recognition using binary image quantization and hough kernels |
US7099510B2 (en) * | 2000-11-29 | 2006-08-29 | Hewlett-Packard Development Company, L.P. | Method and system for object detection in digital images |
KR100450793B1 (ko) * | 2001-01-20 | 2004-10-01 | 삼성전자주식회사 | 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법 |
US6826316B2 (en) * | 2001-01-24 | 2004-11-30 | Eastman Kodak Company | System and method for determining image similarity |
US6845171B2 (en) * | 2001-11-19 | 2005-01-18 | Microsoft Corporation | Automatic sketch generation |
US6915025B2 (en) * | 2001-11-27 | 2005-07-05 | Microsoft Corporation | Automatic image orientation detection based on classification of low-level image features |
US7024033B2 (en) * | 2001-12-08 | 2006-04-04 | Microsoft Corp. | Method for boosting the performance of machine-learning classifiers |
CN100470592C (zh) * | 2002-12-17 | 2009-03-18 | 中国科学院自动化研究所 | 基于人体局部和形体信息的敏感图像识别方法 |
US20060129908A1 (en) * | 2003-01-28 | 2006-06-15 | Markel Steven O | On-content streaming media enhancement |
US7689023B2 (en) * | 2003-05-30 | 2010-03-30 | Rabinovich Andrew M | Color unmixing and region of interest detection in tissue samples |
GB2402535B (en) * | 2003-06-05 | 2006-06-21 | Canon Kk | Image processing |
JP4447245B2 (ja) * | 2003-06-06 | 2010-04-07 | オムロン株式会社 | 特定被写体検出装置 |
WO2005001750A2 (en) * | 2003-06-30 | 2005-01-06 | Honda Motor Co., Ltd. | System and method for face recognition |
JP2005100122A (ja) * | 2003-09-25 | 2005-04-14 | Fuji Photo Film Co Ltd | 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置 |
US7508979B2 (en) * | 2003-11-21 | 2009-03-24 | Siemens Corporate Research, Inc. | System and method for detecting an occupant and head pose using stereo detectors |
JP4423076B2 (ja) * | 2004-03-22 | 2010-03-03 | キヤノン株式会社 | 認識対象切出し装置および方法 |
US7313270B2 (en) * | 2004-05-19 | 2007-12-25 | Applied Vision Company, Llc | Vision system and method for process monitoring |
US7668376B2 (en) * | 2004-06-30 | 2010-02-23 | National Instruments Corporation | Shape feature extraction and classification |
WO2006093523A2 (en) * | 2004-07-15 | 2006-09-08 | Kenji Suzuki | Computerized scheme for distinction between benign and malignant nodules in thoracic low-dose ct |
SE528068C2 (sv) * | 2004-08-19 | 2006-08-22 | Jan Erik Solem Med Jsolutions | Igenkänning av 3D föremål |
US7447359B2 (en) * | 2004-09-07 | 2008-11-04 | Siemens Medical Solutions Usa, Inc. | System and method for anatomical structure parsing and detection |
KR100703528B1 (ko) * | 2004-12-09 | 2007-04-03 | 삼성전자주식회사 | 영상 인식 장치 및 방법 |
US7715597B2 (en) * | 2004-12-29 | 2010-05-11 | Fotonation Ireland Limited | Method and component for image recognition |
US7835549B2 (en) * | 2005-03-07 | 2010-11-16 | Fujifilm Corporation | Learning method of face classification apparatus, face classification method, apparatus and program |
US7548637B2 (en) * | 2005-04-07 | 2009-06-16 | The Board Of Trustees Of The University Of Illinois | Method for detecting objects in an image using pair-wise pixel discriminative features |
JP4316541B2 (ja) * | 2005-06-27 | 2009-08-19 | パナソニック株式会社 | 監視記録装置及び監視記録方法 |
US7630517B2 (en) * | 2005-07-13 | 2009-12-08 | Schlumberger Technology Corporation | Computer-based generation and validation of training images for multipoint geostatistical analysis |
US7783095B2 (en) * | 2005-08-11 | 2010-08-24 | Siemens Medical Solutions Usa, Inc. | System and method for fetal biometric measurements from ultrasound data and fusion of same for estimation of fetal gestational age |
JP4618098B2 (ja) * | 2005-11-02 | 2011-01-26 | ソニー株式会社 | 画像処理システム |
US7711145B2 (en) * | 2006-01-27 | 2010-05-04 | Eastman Kodak Company | Finding images with multiple people or objects |
US7903870B1 (en) * | 2006-02-24 | 2011-03-08 | Texas Instruments Incorporated | Digital camera and method |
JP2007241479A (ja) * | 2006-03-06 | 2007-09-20 | Toshiba Corp | 変動領域検出装置及びその方法 |
US7488087B2 (en) | 2006-05-19 | 2009-02-10 | Honeywell International Inc. | Light guide and display including a light guide |
US8306326B2 (en) * | 2006-08-30 | 2012-11-06 | Amazon Technologies, Inc. | Method and system for automatically classifying page images |
TWI316690B (en) * | 2006-09-05 | 2009-11-01 | Univ Nat Cheng Kung | Video annotation method by integrating visual features and frequent patterns |
US7809185B2 (en) * | 2006-09-21 | 2010-10-05 | Microsoft Corporation | Extracting dominant colors from images using classification techniques |
US8073253B2 (en) * | 2006-09-29 | 2011-12-06 | General Electric Company | Machine learning based triple region segmentation framework using level set on PACS |
JP4512578B2 (ja) * | 2006-10-27 | 2010-07-28 | 株式会社ブリヂストン | 分離フィルタ決定装置及びタイヤ検査装置 |
US20080107341A1 (en) * | 2006-11-02 | 2008-05-08 | Juwei Lu | Method And Apparatus For Detecting Faces In Digital Images |
JP4321645B2 (ja) * | 2006-12-08 | 2009-08-26 | ソニー株式会社 | 情報処理装置および情報処理方法、認識装置および情報認識方法、並びに、プログラム |
US7903883B2 (en) * | 2007-03-30 | 2011-03-08 | Microsoft Corporation | Local bi-gram model for object recognition |
RU2007119908A (ru) * | 2007-05-29 | 2008-12-10 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко. | Адаптивный к галерее способ и система распознавания лиц |
US7844085B2 (en) * | 2007-06-07 | 2010-11-30 | Seiko Epson Corporation | Pairwise feature learning with boosting for use in face detection |
US8233704B2 (en) * | 2007-06-13 | 2012-07-31 | Sri International | Exemplar-based heterogeneous compositional method for object classification |
US7890443B2 (en) * | 2007-07-13 | 2011-02-15 | Microsoft Corporation | Learning classifiers using combined boosting and weight trimming |
JP4424386B2 (ja) * | 2007-08-09 | 2010-03-03 | 三菱電機株式会社 | 画像表示装置、画像処理装置および画像処理方法 |
US8295543B2 (en) * | 2007-08-31 | 2012-10-23 | Lockheed Martin Corporation | Device and method for detecting targets in images based on user-defined classifiers |
US8556814B2 (en) * | 2007-10-04 | 2013-10-15 | Siemens Medical Solutions Usa, Inc. | Automated fetal measurement from three-dimensional ultrasound data |
US8428367B2 (en) * | 2007-10-26 | 2013-04-23 | International Business Machines Corporation | System and method for electronic document classification |
US8170280B2 (en) * | 2007-12-03 | 2012-05-01 | Digital Smiths, Inc. | Integrated systems and methods for video-based object modeling, recognition, and tracking |
US8165406B2 (en) * | 2007-12-12 | 2012-04-24 | Microsoft Corp. | Interactive concept learning in image search |
KR100947990B1 (ko) * | 2008-05-15 | 2010-03-18 | 성균관대학교산학협력단 | 차영상 엔트로피를 이용한 시선 추적 장치 및 그 방법 |
US8199999B2 (en) * | 2008-06-17 | 2012-06-12 | Cambridge Research & Instrumentation, Inc. | Image classifier training |
US8175379B2 (en) * | 2008-08-22 | 2012-05-08 | Adobe Systems Incorporated | Automatic video image segmentation |
JP4623387B2 (ja) * | 2008-09-04 | 2011-02-02 | ソニー株式会社 | 学習装置および方法、認識装置および方法、並びにプログラム |
JP2010108475A (ja) * | 2008-10-03 | 2010-05-13 | Sony Corp | 画像処理装置および方法、プログラム、並びに記録媒体 |
JP4670976B2 (ja) * | 2008-10-03 | 2011-04-13 | ソニー株式会社 | 学習装置および方法、認識装置および方法、プログラム、並びに記録媒体 |
US8103056B2 (en) * | 2008-10-15 | 2012-01-24 | Honeywell International Inc. | Method for target geo-referencing using video analytics |
JP5326910B2 (ja) * | 2009-01-20 | 2013-10-30 | ソニー株式会社 | 情報処理装置、情報処理方法およびプログラム |
US8774498B2 (en) * | 2009-01-28 | 2014-07-08 | Xerox Corporation | Modeling images as sets of weighted features |
JP2010176380A (ja) * | 2009-01-29 | 2010-08-12 | Sony Corp | 情報処理装置および方法、プログラム、並びに記録媒体 |
JP2010266983A (ja) * | 2009-05-13 | 2010-11-25 | Sony Corp | 情報処理装置及び方法、学習装置および方法、プログラム、並びに情報処理システム |
JP2012053606A (ja) * | 2010-08-31 | 2012-03-15 | Sony Corp | 情報処理装置および方法、並びにプログラム |
-
2007
- 2007-12-07 JP JP2007316636A patent/JP5041229B2/ja not_active Expired - Fee Related
-
2008
- 2008-11-10 EP EP08253672A patent/EP2068271A3/en not_active Withdrawn
- 2008-12-04 US US12/328,318 patent/US20090202145A1/en not_active Abandoned
- 2008-12-05 CN CN2008101829149A patent/CN101458764B/zh not_active Expired - Fee Related
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102087710A (zh) * | 2009-12-03 | 2011-06-08 | 索尼公司 | 学习设备和方法、识别设备和方法、以及程序 |
CN102136073A (zh) * | 2010-01-27 | 2011-07-27 | 索尼公司 | 学习装置及方法、识别装置及方法、程序和信息处理系统 |
CN102147868A (zh) * | 2010-01-27 | 2011-08-10 | 索尼公司 | 学习装置、学习方法、识别装置、识别方法和程序 |
CN102136073B (zh) * | 2010-01-27 | 2013-10-16 | 索尼公司 | 学习装置及方法、识别装置及方法、和信息处理系统 |
CN102194237A (zh) * | 2010-03-04 | 2011-09-21 | 索尼公司 | 信息处理设备、信息处理方法和程序 |
CN102270306A (zh) * | 2010-06-04 | 2011-12-07 | 索尼公司 | 信息处理设备和方法以及程序 |
CN111566675A (zh) * | 2018-01-18 | 2020-08-21 | 牛津大学科技创新有限公司 | 车辆定位 |
Also Published As
Publication number | Publication date |
---|---|
JP2009140283A (ja) | 2009-06-25 |
EP2068271A2 (en) | 2009-06-10 |
CN101458764B (zh) | 2011-08-31 |
EP2068271A3 (en) | 2012-06-27 |
JP5041229B2 (ja) | 2012-10-03 |
US20090202145A1 (en) | 2009-08-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101458764B (zh) | 学习设备、学习方法、识别设备、识别方法和程序 | |
Chen et al. | Region-based object recognition by color segmentation using a simplified PCNN | |
Gao et al. | Automatic change detection in synthetic aperture radar images based on PCANet | |
CN101714209B (zh) | 图像处理装置、图像处理方法 | |
CN101714214A (zh) | 学习装置和方法、识别装置和方法、程序及记录介质 | |
CN101814135B (zh) | 学习设备、学习方法、识别设备、识别方法和程序 | |
Fu et al. | Low-level feature extraction for edge detection using genetic programming | |
CN101667263A (zh) | 学习设备、学习方法、识别设备、识别方法和程序 | |
CN102136073B (zh) | 学习装置及方法、识别装置及方法、和信息处理系统 | |
CN102385437A (zh) | 信息处理设备、方法和程序 | |
CN103824093B (zh) | 一种基于kfda及svm的sar图像目标特征提取与识别方法 | |
CN102087710A (zh) | 学习设备和方法、识别设备和方法、以及程序 | |
Ma et al. | Linear dependency modeling for classifier fusion and feature combination | |
Genuer et al. | Random Forests based feature selection for decoding fMRI data | |
Alshazly et al. | Ear biometric recognition using gradient-based feature descriptors | |
Hu et al. | Wood species recognition based on SIFT keypoint histogram | |
Roscher et al. | Kernel discriminative random fields for land cover classification | |
CN102147868A (zh) | 学习装置、学习方法、识别装置、识别方法和程序 | |
CN103207993B (zh) | 基于核的判别随机近邻嵌入分析的人脸识别方法 | |
CN101826150A (zh) | 头部检测方法和设备,头部检测及类别判断方法和装置 | |
De Croon et al. | Adaptive gaze control for object detection | |
CN102270306A (zh) | 信息处理设备和方法以及程序 | |
Kurniati et al. | Object Classification Model Using Ensemble Learning with Gray-Level Co-Occurrence Matrix and Histogram Extraction | |
Escalera et al. | Traffic sign recognition system with β-correction | |
CN111488520B (zh) | 一种农作物种植种类推荐信息处理装置、方法及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant | ||
CF01 | Termination of patent right due to non-payment of annual fee |
Granted publication date: 20110831 Termination date: 20151205 |
|
EXPY | Termination of patent right or utility model |