CN101315670A - 特定被摄体检测装置及其学习装置和学习方法 - Google Patents

特定被摄体检测装置及其学习装置和学习方法 Download PDF

Info

Publication number
CN101315670A
CN101315670A CNA200710109876XA CN200710109876A CN101315670A CN 101315670 A CN101315670 A CN 101315670A CN A200710109876X A CNA200710109876X A CN A200710109876XA CN 200710109876 A CN200710109876 A CN 200710109876A CN 101315670 A CN101315670 A CN 101315670A
Authority
CN
China
Prior art keywords
optimization
sample
object detection
unit
specific object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA200710109876XA
Other languages
English (en)
Other versions
CN101315670B (zh
Inventor
艾海舟
李源
劳世红
山下隆义
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tsinghua University
Omron Corp
Original Assignee
Tsinghua University
Omron Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tsinghua University, Omron Corp filed Critical Tsinghua University
Priority to CN200710109876XA priority Critical patent/CN101315670B/zh
Priority to PCT/CN2008/071156 priority patent/WO2008148343A1/zh
Priority to JP2010509667A priority patent/JP5197737B2/ja
Priority to US12/602,635 priority patent/US8457391B2/en
Priority to EP08757567.6A priority patent/EP2164025A4/en
Publication of CN101315670A publication Critical patent/CN101315670A/zh
Application granted granted Critical
Publication of CN101315670B publication Critical patent/CN101315670B/zh
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • General Engineering & Computer Science (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了特定被摄体检测装置及其学习装置和学习方法。该特定被摄体检测装置包括:输入单元,用于输入待检测的图像;一个或更多个强分类单元,用于对图像进行强分类,各强分类单元包括一个或更多个弱分类单元,所述弱分类单元使用弱分类模板对所述图像进行弱分类;存储单元,存储所述弱分类单元所使用的弱分类模板;判断单元,根据强分类单元的分类结果,对图像是否包含特定被摄体进行判断;该特定被摄体检测装置还包括:增量样本输入单元,用于输入增量学习用的数据,即输入增量学习样本,也就是该或其他特定被摄体检测装置所漏检或误报的数据;学习单元,用于根据增量样本输入单元输入的增量学习样本,更新存储单元所存储的弱分类模板。

Description

特定被摄体检测装置及其学习装置和学习方法
技术领域
本发明涉及一种特定被摄体检测装置及其学习装置和学习方法,更具体地涉及对强分类器和弱分类器进行学习训练的学习装置和学习方法及使用所述学习装置和学习方法的特定被摄体检测装置。
背景技术
人脸检测(face detection)是指对于任意一幅给定的图像,采用一定的策略对其进行搜索以确定其中是否含有人脸,如果是,则返回人脸的位置、大小和姿态。人脸通常具有十分丰富的生物特征信息,可以用于人机交互、跟踪监控、身份识别等领域,而提取人脸相关信息的首要步骤正是定位人脸区域。这使得人脸检测技术具有非同寻常的意义和极为广泛的应用前景。人脸检测的实用性将取决于检测精度和检测速度二者的提高。
图1示出了现有技术的检测器的功能层次框图。如图1所示,现有技术的检测器层次结构,由上至下依次是:检测器、强分类器、弱分类器、特征提取以及函数映射。也就是说,现有技术的检测器包括相互串联的多个强分类器,各强分类器包括相互串联的多个弱分类器,各弱分类器包括特征提取部和映射部。特征提取部采用稀疏粒度特征等特征提取方法进行特征提取(可参见本专利申请人的第200610072576.4号中国专利申请,通过引用将其并入本文中,如同在本文中完全阐明一样),而映射部则采用基于查找表方法(Look Up Table)的分段线性函数等方法进行弱分类。
在使用检测器前,需要对检测器进行训练。对检测器进行固定的离线训练是本领域所公知的。对于固定的离线训练算法来说,一旦用于训练的样本集合(即人脸图片和背景图片)被确定下来,其学习得到的人脸检测器就不会发生太大的变化。由于离线训练样本采集过程的局限性,样本集合通常只能够描述一般环境条件下人脸模式和非人脸模式的分布情况。然而由于终端用户的不同、环境和目标的变化,检测器往往需要面对一些比较特殊的状况。一方面,佩戴墨镜和围巾等饰物可以导致人脸的局部遮挡,而剧烈的光照变化更是极大地改变了人脸的表观模式。这些特殊环境条件下的人脸模式由于比较罕见,通常很少出现在用于离线训练的人脸样本集合中。另一方面,尽管我们可以收集数以万计的背景图片集合,并从中提取出大量扫描窗口作为非人脸训练样本,却仍然无法确保能够涵盖所有的背景类型。换句话说,离线训练样本集合(包括人脸和非人脸两部分)所描述的一般情况与在线检测过程所要处理的实际情况之间可能存在较大的差异。这种难以避免的差异使得离线训练得到的检测器时常不能很好地适应在线检测的应用环境,产生较多的漏检和误报。
归根结底,这种不适应性是由于离线训练样本不能反映在线情况所造成的。为了克服这个问题,人们对在线学习进行了大量的研究。
在线学习是一类根据训练数据收集特点而专门设计的持续性学习算法。与离线学习过程中所有训练数据是预先收集得到的不同,在线学习过程需要处理不断收集得来的数据流。由于总的数据量十分庞大,在线学习不能保存所有已收集到的数据。换句话说,每项训练数据在使用完后就必须被抛弃。在线学习并不需要离线训练得到的结果作为基础,因而是一个单纯的学习框架。
到目前为止,大多数与在线学习相关的工作都是基于传统的机器学习方法,如P.Utgoff等人提出的基于决策树模型的在线学习算法,N.Littlestone提出的Winnow算法、以及N.Littlestone和M.Warmuth所采用的WMA(Weighted Majority Algorithm)算法。在现有技术中,Boosting算法诞生于上世纪九十年代初,到现在仅有十余年时间,可以说是一个非常年轻的机器学习算法。因此,与其相关的在线学习研究并不多。LBreiman在他的文章中引入了一种“块状”在线Boosting算法,将在线训练样本集合划分为若干大小相同的子集,并依次用于各个弱分类器的在线训练。A.Fern和R.Givan则提出了另一种基于Arc-4x方法的在线Boosting算法,通过提高被错分训练样本的权重来重新学习各个弱分类器。而相关工作中最具代表性的是N.Oza等人基于离散AdaBoost.M1算法所提出的在线Boosting算法,其流程在图2中示出。
该算法利用当前最新的训练样本,按照自前向后的顺序依次重新训练强分类器中的各个弱分类器以及与其对应的组合系数。它采用决策树模型作为弱分类器结构,根据样本当前权重(即被错分的程度)产生一个满足柏松分布的随机数k,作为使用当前样本重新训练弱分类器的次数。如果训练的结果使得弱分类器能够正确分类当前样本,那么将当前样本的权重累加到弱分类器的正确分类次数λm sc中,调整弱分类器的错误率em,并根据该错误率更新当前样本的权重λ;否则,将当前样本的权重累加到弱分类器的错误分类次数λm sw中,类似地也需要调整弱分类器的错误率em并更新当前样本的权重λ。不难看出,N.Oza等人的在线Boosting算法在流程结构上遵从于AdaBoost.M1算法,是其对应的在线训练版本。
基于N.Oza等人提出的在线Boosting算法,O.Javed等人和H.Grabner等人分别推出了各自的在线Boosting系统,用于解决许多实际的计算机视觉问题。O.Javed等人将N.Oza等人所提出的在线Boosting算法和协同训练框架(co-training framework)结合在一起,提高了用于行人和车辆的检测系统的性能,而H.Grabner等人则通过引入一个特征选择系统,将在线Boosting算法广泛用于各种计算机视觉问题中,包括背景建模、物体检测和跟踪。
然而上述这些在线Boosting算法无一例外地采用的都是二值输出的弱分类器形式,对应于传统的离散AdaBoost算法。目前还没有针对连续AdaBoost算法的在线学习Boosting算法。
在线学习算法能够对当前检测器进行适当的调整,使其更好地处理这些样本所代表的特殊场景,例如前面提到过的遮挡、光照变化。
然而,在能力和容量都有限的条件下,检测器想要具备更好处理特定场景的能力,通常就会损失一些处理一般环境的能力。更有甚者,如果在检测器的调整过程中过分依赖于在线样本,则有可能使得增量学习的效果大打折扣,不仅在一般应用条件下性能显著退化,甚至在所面对的特殊环境下也会出现过训练现象。因而,目前需要一种检测器训练方法,既能弥补离线训练样本不足的问题,又不会使检测器的性能大幅降低。另外,需要一种针对连续AdaBoost算法的检测器训练算法。
发明内容
因此,本发明的一个目的是提供一种特定被摄体检测装置及检测方法,可以利用增量学习的方法弥补离线训练样本不足的问题,又不会使检测器的性能大幅降低。
根据本发明的一个方面,本发明提供了一种特定被摄体检测装置,该特定被摄体检测装置包括:输入单元,用于输入待检测的图像;一个或更多个强分类单元,用于对所述图像进行强分类,各所述强分类单元包括一个或更多个弱分类单元,所述弱分类单元用于对所述图像进行弱分类;存储单元,存储所述弱分类器所使用的弱分类模板;判断单元,根据所述强分类单元的分类结果,对所述图像是否包含所述特定被摄体进行判断;其特征在于,所述特定被摄体检测装置还包括:增量样本输入单元,用于输入增量学习用的数据,即输入增量学习样本,也就是该或其他特定被摄体检测装置所漏检或误报的数据;学习单元,用于根据所述增量样本输入单元输入的所述增量学习样本,更新所述存储单元所存储的所述弱分类模板。
根据本发明的另一方面,提供了一种用于特定被摄体检测装置的学习装置,所述特定被摄体检测装置包括一个或更多个强分类单元,所述强分类单元包括一个或更多个弱分类单元,所述弱分类单元利用弱分类模板对输入的图像进行是否包含特定被摄体的判断,所述学习装置利用增量学习样本对所述弱分类模板进行更新,所述增量学习样本是该或其他特定被摄体检测装置运行中被漏检或误报的数据,所述学习装置包括:优化程度计算部,用于根据输入的增量学习样本,计算利用一优化参量对弱分类模板进行优化的优化程度;判断单元,根据所述优化程度计算部的计算结果,判断利用所述优化参量对所述弱分类模板进行的优化是否满足一定的条件;优化参量更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化未满足一定的条件时,所述优化参量更新单元对所述优化参量进行更新;以及模板更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化满足了一定的条件时,所述模板更新单元对所述弱分类模板进行更新。
根据本发明的再一方面,本发明提供了一种用于特定被摄体检测装置的学习方法,所述特定被摄体检测装置包括一个或更多个强分类单元,所述强分类单元包括一个或更多个弱分类单元,所述弱分类单元利用弱分类模板对输入的图像进行是否包含特定被摄体的判断,所述学习方法包括针对各弱分类器的:输入步骤,输入增量学习样本,所述增量学习样本是该或其他特定被摄体检测装置运行中被漏检或误报的数据;优化程度获得步骤,用于根据输入的增量学习样本,计算利用一优化参量对弱分类模板进行优化的优化程度,;判断步骤,根据所述优化程度获得步骤的计算结果,判断利用所述优化参量对所述弱分类模板进行的优化是否满足一定的条件;优化参量更新步骤,当所述判断步骤判断出利用所述优化参量对所述弱分类模板进行的优化未满足一定的条件时,该优化参量更新步骤对所述优化参量进行更新;以及模板更新步骤,当所述判断步骤判断出利用所述优化参量对所述弱分类模板进行的优化满足了一定的条件时,该模板更新步骤对所述弱分类模板进行更新。
应该注意,上面的概要说明和下文的详细说明都是示例性的,旨在对本发明进行解释说明,不是对本发明的保护范围的限制。
附图说明
下面将参照附图详细说明本发明的实施例。在附图中:
图1示出了现有技术的检测器的功能层次框图;
图2示出了现有技术的在线Boosting算法流程;
图3示出了增量学习在人脸检测框架中的位置;
图4示出了依据本发明一个实施例的特定被摄体检测装置10的功能框图;
图5示出了强分类器单元的瀑布模式连接和矢量树模式连接的示意图;
图6示出了弱分类单元的功能框图;
图7示出了依据本发明的一个实施例的学习单元的功能框图;
图8示出了依据本发明一个实施例的优化程度计算部131的方框图;
图9示出了依据本发明一个实施例的优化程度计算单元1314的方框图;
图10示出了依据本发明另一个实施例的优化程度计算单元1314的方框图;
图11示出了根据在线样本修正各类别的似然函数;
图12示出了由区域分割弱分类器组成的强分类器的预测流程;
图13示出了强分类器在预测过程中涉及到的三个空间和两个阶段;
图14示出了依据本发明的实施例的增量学习方法的流程图;
图15示出了对优化程度进行计算的一个实施例的流程图;
图16是用文字描述的方式示出的本发明的增量学习方法的流程图;
图17示出了增量学习算法和联合学习算法在离线测试样本以及在线测试样本上错误率的变化情况;
图18示出了在线训练样本数分别为0、10、100和200时增量学习方法和联合学习方法的离线测试错误率以及在线测试错误率;
图19示出了增量学习算法帮助检测器提高处理特殊环境下人脸检测问题的效果;
图20示出了增量学习前后检测器在CMU+MIT正面人脸测试集合上检测精度的变化情况。
具体实施方式
下面,将参照附图详细说明本发明的实施例。本发明采用了增量学习的方法。图3示出了增量学习在人脸检测框架中的位置。如图3所示,在整个人脸检测框架中,增量学习扮演着“离线训练的有益补充”这一角色。由于离线训练过程所采用的训练样本(“人脸图片”以及“背景图片”)不可能覆盖所有的应用条件,因此在实际的在线检测过程中,经常会出现漏检和误报。尤其在一些特殊的环境条件下(例如光照很差、面部出现明显的遮挡等等情况),离线训练得到的检测器往往无法达到令人满意的检测精度。因此,本文提出了增量学习的方法,利用终端用户在线检测过程中收集得到的漏检和误报,对当前的人脸检测器进行快速而有效地调整,使其更好地适应这一特殊的应用环境,同时保有检测器原有良好的推广性能,仍然能够用于一般条件下的人脸检测问题。和耗时耗力的离线学习过程不同,检测器的增量学习过程只需要消耗终端用户很少的计算资源(包括计算时间和存储空间两方面),因而可以广泛地应用于各种人脸检测平台和设备之上。
应该注意,尽管在本文中以人脸检测为例说明本发明的特定被摄体检测方法和检测装置,但应该注意的是,本发明所述的特定被摄体也可以是人脸以外的事物,例如汽车、特定动物等等。
图4示出了依据本发明一个实施例的特定被摄体检测装置10的功能框图。如图4所示,根据本发明的一个实施例的特定被摄体检测装置(在下文中,为了理解的方便,也称为人脸检测装置)10包括:切换单元(切换装置)11,用于切换所述特定被摄体检测装置的模式状态,使所述特定被摄体检测装置在检测模式和学习模式之间互换;输入单元12,用于在所述切换单元11将所述特定被摄体检测装置10的模式状态切换到检测模式时输入待检测的图像,在所述切换单元11将所述特定被摄体检测装置10的模式状态切换到学习模式时输入增量学习用的数据,即输入增量学习样本(此时,该输入单元也称为增量样本输入单元);一个或更多个强分类单元14,用于对所述图像进行强分类,各所述强分类单元包括一个或更多个弱分类单元18,所述弱分类单元18用于对所述图像进行弱分类;存储单元15,存储所述弱分类器18所使用的弱分类模板和/或所述强分类器14所使用的强分类模板;判断单元16,根据所述强分类单元的分类结果,对所述图像是否包含所述特定被摄体进行判断;以及学习单元13,用于在所述切换单元11将所述特定被摄体检测装置10的模式状态切换到学习模式时,根据所述增量样本输入单元12输入的增量学习样本,更新所述存储单元所存储的所述模板。为了简洁,在图中仅示出了一个强分类器。
需要注意的是,在图4所示的框图中,学习单元被并入检测装置(检测器)10中,作为检测装置的一个模块,但在另选的实施例中,学习单元也可以与检测装置10的其他模块分立。在这种情况下,可以在学习模块与检测装置10相连接时,就进行增量学习,此时,可以省略切换单元11。
另外,在本文中,根据上下文,“待检测的图像”即可以指待辨别的图像整体,也可以指经过检测器预处理(如窗口处理等)之后要由弱分类器进行处理的图像或图像块。
在本发明中,增量学习样本是用户收集来的少量的漏检和误报。这些漏检和误报可以来自该检测装置自身,也可以来自与该检测装置相同的其他检测装置。在所述漏检和误报来自该检测装置自身的情况下,所述增量样本输入单元可以包括记录单元,用于记录在该检测装置运行中漏检或误报的图像。在所述漏检和误报来自其他检测装置的情况下,该检测装置可以通过网络(如互联网、内部网、局域网等)接收这些数据、或者可以通过磁盘、CD、VCD、DVD、闪存等介质来接收这些漏检或误报,在这种情况下,所述增量样本输入单元可以包括接收单元,用于接收来自所述其他检测装置在运行中漏检或误报的图像。显然,输入单元可以是所述的登记单元和接收单元两者。
在本发明中,所述一个或更多个强分类单元可以按瀑布模式连接也可按矢量树模式连接。图5示出了强分类单元的瀑布模式连接和矢量树模式连接的示意图。因而,根据上下文,对强分类单元的更新、训练也可能就是指对组成该强分类单元的弱分类单元的更新、训练。另外,根据上下文,对强分类单元的描述也就是对弱分类单元的描述。在这样的上下文中,这样的描述不会引起本领域技术人员混淆或误解。
图6示出了弱分类单元18的功能框图。如图6所示,所述弱分类单元18包括子区间判定单元181,用于将输入的样本划分到实例空间中的一系列互不相交的子区间中的一个;弱分类确定单元182,用于根据所述子区间判定单元的判定结果,根据子区间弱分类模板对所述样本进行弱分类。所述子区间判定单元181包括特征提取单元1811和空间映射部1812。优选的是,特征提取单元1811提取输入的对象的稀疏粒度特征,当然也可以提取其他的特征。而空间映射部1812则利用分段线性函数根据所述特征提取单元1811所提取的特征将所述输入的对象映射到实例空间划分出的若干互不相交的子区间。当然也可以不采用分段线性函数,而采用其他的函数,在本实施例中,只要满足区域分割弱分类器的要求即可。即,在本发明中,上述的稀疏粒度特征结合分段线性函数只是一个示例。弱分类确定单元182用于利用子区间弱分类模板根据子区间判定单元181的判定结果对所述输入的对象进行弱分类。后文将更详细地描述弱分类器的操作。
所述存储单元15存储所述子区间弱分类模板;所述学习单元13根据所述输入单元12输入的增量学习样本,更新所述存储单元所存储的各所述子区间弱分类模板。
在本发明中,子区间弱分类模板可以是二维表(分类表)、函数等,可以采用本领域技术人员所熟知的各种形式,只要利用其可以根据空间映射部1812的映射结果(可以是子区间的索引、名称等)对待检测的对象进行分类即可。
图7示出了依据本发明的一个实施例的学习单元的功能框图。如图7所示,依据本发明的一个实施例的学习单元13包括:优化程度计算部131、判断单元132、优化参量更新单元133、模板更新单元134、以及增量学习样本集合更新单元135。优化程度计算部131用于根据输入的增量学习样本计算利用一优化参量对弱分类模板进行优化的优化程度。如后文所描述的,学习单元的学习过程实际上就是根据增量学习样本获得最优化的优化参量(Δc)的过程。这一过程是不断地获得优化参量,并对该优化参量的适合性进行判断的过程。在过程的开始,可以随机地设定最初的优化参量(例如,将Δc设为0)。该过程可以采用后面的最速下降法实现,也可以采用其他的方法实现。可以替代最速下降法的算法有很多,比如牛顿法、拟牛顿法。优化程度可以是后文所述的目标损失函数的梯度。优化参量对应于模板调整量,也即对应于后文中描述的查找表调整量。
判断单元132根据所述优化程度计算部的计算结果,判断利用所述优化参量对所述弱分类模板(例如子区间弱分类模板)进行的优化是否满足一定的条件(例如所述梯度是否小于预定值)。当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化未满足一定的条件时,所述优化参量更新单元133对所述优化参量进行更新,即获得新的优化参量。可以通过0.618法等获得组合系数,利用该组合系数获得新的优化参量。这里的0.618法只是示例性的,可以采用其他的方法。0.618法作为与最速下降法配合使用的线性搜索方法,可以被Fibonacci法、插值法所替代。实际上由于目标损失函数的分析性质很好,是一个凸函数,所以许多优化方法都可以用于该目标函数的优化。当所述判断单元132判断出利用所述优化参量对所述弱分类模板的优化满足了所述条件时,所述模板更新单元134对所述弱分类模板进行更新。同时,所述学习单元13还包括增量学习样本更新单元135,用于当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化满足了一定的条件时,减少所述增量学习样本组成的集合中的增量学习样本,得到新的所述增量学习样本的集合,以用于对后面的弱分类器的模板的更新。具体地,即将所述增量学习样本中的通过了更新后的弱分类器的样本抛弃。在本文的上下文中,对弱分类模板的更新有时也称对弱分类器的更新。
当完成了所述弱分类器的弱分类模板的更新时,学习单元的任务结束。
图8示出了依据本发明一个实施例的优化程度计算部131的方框图。如图8所示,依据本发明的优化程度计算部131包括:修正系数确定单元1311,用于确定增量学习样本的修正系数;第一目标损失计算单元1312,用于计算利用所述优化参量对所述子区间弱分类模板进行的优化所造成的第一目标损失;第二目标损失计算单元1313,用于根据所输入的所述增量学习样本计算利用所述优化参量对所述子区间弱分类模板进行的优化造成的第二目标损失;优化程度计算单元1314,根据所述第一目标损失计算单元1312计算出的第一目标损失、所述第二目标损失计算单元1313计算出的第二目标损失、以及所述修正系数确定单元1311确定出的增量学习样本的修正系数,计算利用所述优化参量对弱分类模板进行优化的优化程度。
其中第一目标损失代表了优化对处理一般环境的能力的影响,对应于后文的损失函数的离线部分。第二目标损失代表了优化对处理特定场景的能力的影响,对应于后文的损失函数的在线部分。后文将对这两部分的计算进行更详细的描述。所述第一目标损失计算单元可以采用
Figure A20071010987600211
Bayes法计算所述第一目标损失。后文将对所述第一目标损失计算单元1312对第一目标损失的计算以及第二目标损失计算单元1313对第二目标损失的计算进行详细描述。
图9示出了依据本发明一个实施例的优化程度计算单元1314的方框图。如图9所示,依据本发明的优化程度计算单元1314包括第一乘法部13141、第二乘法部13142、加法部13143、和求导部13144,所述第一乘法部13141将1与修正系数确定单元1311确定出来的所述修正系数的差与所述第一目标损失相乘,所述第二乘法部13142用于将所述修正系数与所述第二目标损失相乘,所述加法部13143用于将所述第一乘法部的相乘结果与第二乘法部的相乘结果相加,所述求导部13144用于对所述加法部的相加结果进行求导。后文将结合式2和式30对修正系数进行详细的说明。
图10示出了依据本发明另一个实施例的优化程度计算单元1314的方框图。如图10所示,依据本发明的优化程度计算单元1313包括第一乘法部13141、第二乘法部13142、第一求导部13146、第二求导部13147和加法部13143,所述第一乘法部13141将1与所述修正系数的差与所述第一目标损失相乘,所述第二乘法部13142用于将所述修正系数与所述第二目标损失相乘,所述第一求导部13146用于对所述第一乘法部13141的相乘结果进行求导;所述第二求导部13147用于对所述第二乘法部13142的相乘结果进行求导;所述加法部13143用于将所述第一求导部的求导结果与所述第二求导部的求导结果相加。
下面,以区域分割连续AdaBoost为例对本发明的实施例进行更详细的解释说明。
首先介绍本发明的区域分割连续AdaBoost的增量学习算法。
AdaBoost算法的本质是利用加性模型(additive model)逐步优化基于指数损失的目标函数(以下也称为损失函数),最终达到logistic回归(logistic regression)的目的。这个关键性的目标函数(损失函数)如式(1)所示
L ( F ( x ) ) = Σ i = 1 n w i 0 exp ( - y i F ( x i ) ) = E p ( x , y ) ( e - yF ( x ) ) , - - - ( 1 )
x ∈ χ , y ∈ { - , 1 + 1 }
在基于数学期望表示的损失函数形式中,实例x和类别标签y被视为两个随机变量(y=+1对应于正例,y=-1对应于反例),而数学期望则基于由它们所组成的联合概率密度函数p(x,y)。在上面的式1中,(xi,yi)表示第i个样本,其中xi为实例,yi为类别标签;L(F(x))表示强分类器F(x)所对应的目标损失函数;wi 0表示第i个样本的初始权重;p(x,y)表示实例和类别标签作为两个随机变量的联合概率密度函数。
在线样本(在本发明中对应于增量学习样本)的引入必将使得这个联合概率密度函数发生一定程度的变化。在正反例样本之间互不干扰的前提下,该变化可以通过分别对两个类别的似然(likelihood)进行线性修正而体现出来,如式2所示:
p(x|y)=(1-αy)poff(x|y)+αypon(x|y)       (2)
其中poff(x|y)和pon(x|y)分别是离线样本和在线样本所对应的类别y的似然函数,而αy则是针对类别y的线性修正系数。这个修正过程可以用图11来表示。图11示出了根据在线样本修正各类别的似然函数。
基于该修正后的似然函数,AdaBoost算法的损失函数(式1)变成为:
L ( p ( x , y ) , F ( x ) ) = Σ y ( 1 - α y ) P ( y ) · L ( p off ( x | y ) , F ( x ) ) - - - ( 3 )
+ Σ y α y P ( y ) · L ( p on ( x | y ) , F ( x ) )
其中
L ( p off ( x | y ) , F ( x ) ) = ∫ e - yF ( x ) p off ( x | y ) dx = E p off ( x | y ) ( e - yF ( x ) ) - - - ( 4 )
L ( p on ( x | y ) , F ( x ) ) = e - yF ( x ) p on ( x | y ) dx = E p on ( x | y ) ( e - yF ( x ) ) - - - ( 5 )
分别表示类别y在离线样本和在线样本上的损失函数。这样的话,四个部分的损失函数(离线/在线,正例/反例)通过两个类别的先验概率P(y)和修正系数αy进行线性组合,就得到了引入在线样本后的AdaBoost算法的混合目标损失函数(hybrid objective loss function)。所以,在AdaBoost算法框架下,增量学习算法的议题是如何对已有的强分类器F(x)进行适当的调整,使其在更新后的概率分布情况(式2)下取得尽可能小的损失值。换句话说,以AdaBoost算法为基础的增量学习过程就是对如式3所示的损失函数进行优化的过程。
在增量学习算法的优化过程中,主要有三个方面的问题:
首先,作为一个学习机器(learning machine),强分类器F(x)中包含有大量可调整的参数。其中哪些参数适合在增量学习过程中调整、哪些参数必须在离线学习时就确定下来而不能改变,这是优化算法最先必须面对的问题。选择错误的优化对象可能导致优化算法的复杂程度大大增加。
其次,由于提供了在线训练样本,增量学习算法可以很轻松地将式5中的数学期望转化成为加权求和来计算混合目标损失函数(式3)中的在线部分。然而和在线学习类似,增量学习也不保存已经使用过的训练数据。因此离线训练样本对于增量学习过程来说是不可使用的。所以如何对混合目标损失函数中的离线部分(即式4)进行有效的计算就成为了增量学习算法的关键问题,这也是整个算法的主要难点。
最后,混合目标损失函数是由离线和在线两个部分通过线性修正系数αy组合得到的。实质上,系数αy的取值大小决定了增量学习算法在优化过程中对于离线样本和在线样本的关注程度。通过调整系数αy,我们可以权衡增量学习后得到的强分类器对于一般环境(由离线样本描述)和特殊情况(由在线样本描述)的关注程度。因此如何选择合适的修正系数也是增量学习算法无法回避的问题。
下面,我们先从方向性的问题着手,通过分析区域分割连续AdaBoost算法的分类预测流程,来确定在增量学习过程中强分类器内的可调整参数;接着采用和
Figure A20071010987600241
Bayes方法相同的策略,对混合目标损失函数中的离线部分进行合理近似;然后简要介绍混合目标损失函数中在线部分的计算方法,以及如何优化增量学习过程的混合目标损失函数;最终提出一种线性修正系数αy的自适应调整方法。
和其他传统的Boosting算法关注如何选择合适的弱分类器组合系数不同,由于允许弱分类器输出任意大小的实数表示其对于分类预测结果的置信度,R.E.Schapire和Y.Singer所提出的区域分割连续AdaBoost算法中并没有显式的弱分类器组合系数选择过程,而是将其融入到了弱分类器的训练过程中。简而言之,区域分割弱分类器的设计思路就是让弱分类器f(x)借助区域分割函数r(x),将样本所属的实例空间χ(instancespace)划分成为一系列互不相交的子区间{χ1,…,χN},并对落入第z个子区间的所有实例输出相同的一个弱分类预测结果cz,即
Figure A20071010987600244
在这个弱分类预测过程中,z可以被看作是实例x在区域分割函数r(x)下的观测结果(observation)。如果用查找表函数(look-up-tablefunction)s(z)表示从观测量z到预测结cz果的映射关系,那么弱分类器f(x)就可以表示为
f(x)=s(r(x))                (7)
而强分类器 F ( x ) = Σ i = 1 T f i ( x ) 对实例x所进行的分类预测就可以表示为例如如图12所示的流程。
其中观测结果z1…,zT分属不同的弱分类器。它们合在一起,就组成了该强分类器在预测过程中对实例x的观测向量
Figure A20071010987600246
其中
Figure A20071010987600247
表示这个向量所属的T维观测空间(observation space)。这些隶属于不同弱分类器的观测量通过各自对应的查找表计算得到的弱预测结果被累加在一起,就得到了强分类器F(x)对实例x预测的最终结果
Figure A20071010987600248
,其中表示强分类器的预测空间(prediction space)。这个最终预测结果的符号表示强分类器对该实例所属类别的判定,而其绝对值大小表示强分类器对这一类别判定结果的置信程度。通过这样的方式,强分类器F(x)在作为输入的实例x和作为输出的预测结果y′之间建立起了某种有效的映射关系。而观测空间
Figure A20071010987600251
的引入,则将强分类器的预测流程F(x):
Figure A20071010987600252
分解成为两个不同的阶段:R(x):和S(z):。其中前者是联合区域分割函数(joint domain-partitioning function),
R(x)=(r1(x),…,rT(x))=z    (8)
它完成从实例空间χ至观测空间的变换。而后者是累加查找表函数(aggregated look-up-table function),
S ( z ) = Σ i = 1 T s i ( z i ) = Σ i = 1 T c i , z i = y ′ - - - ( 9 )
它根据观测向量z进行强分类器预测结果的计算。其中
c i , z i = s i ( z i ) - - - ( 10 )
是第i个弱分类器中查找表函数对第zi个子区间的常量预测结果(参考前面的式6)。联合区域分割函数R(x)、累加查找表函数S(z)与强分类器F(x)之间的关系,以及实例空间χ、观测空间
Figure A200710109876002510
与预测空间
Figure A200710109876002511
之间的联系,可以通过图13表示清楚。
联合区域分割函数R(x)决定了强分类器中各个弱分类器对实例空间χ的划分方式。在离线学习过程中,为了确定合适的划分方式,训练算法需要借助某些区分性判别准则——如KL散度和Bhattacharyya距离等等——来对各类别在实例空间χ内的分布情况进行细致的非参数化分析。这是一项需要大量训练样本才能够完成的工作,而增量学习过程却并不具备这一条件。由于只有少量的在线训练样本,增量学习算法无法有效地预计改变R(x)将在多大程度上影响到混合目标损失函数的离线部分(式4)。这意味着对于强分类器F(x)而言,哪怕只对R(x)中的参数进行一些微小的调整,在处理由离线训练样本所代表的一般环境时,都可能招致意想不到的严重后果。因此,我们所提出的增量学习算法只关注于如何根据少量的在线训练样本适当地调整累加查找表函数S(z),而联合区域分割函数R(x)则在样本充足的离线学习过程中一次性确定且在增量学习过程中不做改变。
在本文的特定被摄体(例如人脸)检测算法中,弱分类器通过稀疏粒度特征将作为输入的高维实例映射到一维特征空间后,根据分段线性函数对其进行等间隔划分并籍此计算最终的分类预测结果。这种做法正是R.E.Schapire和Y.Singer所提出的区域分割弱分类器思想的一种具体实现形式。在离线训练过程中,强分类器的联合区域分割函数R(x)由各个弱分类器的稀疏粒度特征和分段线性函数的上下界以及子区间个数确定,而累加查找表函数S(z)则根据落在各个子区间内的正例和反例样本权重分布情况计算得到。
由于S(z)以各个弱分类器的查找表输出结果为参数(参见式9),所以它又可以表示为S(z:c)。其中c=(c11,c12,…,c21,…,cT1,…),为所有查找表输出结果所组成的参数向量。在这种情况下,增量学习算法的任务实际上就是以离线训练所确定的累加查找表函数S(z:c)为基础,寻找合适的参数调整量Δc,使得更新参数后的强分类器F(x)=S(R(x):c+Δc)能够优化同时考虑了离线和在线样本的AdaBoost算法的混合目标损失函数(式3)。
混合目标损失函数中离线部分的近似计算
下面介绍混合目标损失函数中离线部分的近似计算,对应于第一目标损失计算单元1312的计算。
由于联合区域分割函数R(x)唯一确定了从实例空间χ到观测空间
Figure A20071010987600262
的映射关系(参见图13),在给定R(x)的前提下,增量学习算法可以将混合目标损失函数中离线部分(式4)的计算从实例空间χ转换到观测空间
Figure A20071010987600264
中,即
L ( p off ( x | y ) , F ( x ) ) = Σ z e - yS ( z ) P off ( z | y ) = E P off ( z | y ) ( e - yS ( z ) ) - - - ( 11 )
其中
P off ( z | y ) = ∫ x : R ( x ) = z p off ( x | y ) dx - - - ( 12 )
是类别y在观测空间
Figure A20071010987600267
中的似然函数。
根据定义式9,参数更新后的累加查找表函数实际上是两部分之和,
S(z:c+Δc)=S(z:c)+S(z:Δc)(13)
因此混合目标损失函数中离线部分(式11)又可以表示为
L ( p off ( x | y ) : c + Δc ) = Σ z e - yS ( z : c + Δc ) P off ( z | y )
= Σ z e - yS ( z : Δc ) e - yS ( z : c ) P off ( z | y ) - - - ( 14 )
= L ( p off ( x | y ) : c ) Σ z e - yS ( z : Δc ) P ^ off ( z | y )
其中L(poff(x|y):c)和L(poff(x|y):c+Δc)分别是更新前后强分类器的对应混合目标损失函数中离线部分的缩写形式(完整形式分别为L(poff(x|y),S(R(x):c))和L(poff(x|y),S(R(x):c+Δc))),而
P ^ off ( z | y ) = e - yS ( z : c ) P off ( z | y ) L ( p off ( x | y ) : c ) - - - ( 15 )
则是根据更新前累加查找表函数S(z:c)的指数损失加权后,类别y在观测空间
Figure A20071010987600275
中的似然函数。由于 Σ z P ^ off ( z | y ) = 1 , 它仍然是一个概率分布。
显然,在混合目标损失函数离线部分的计算过程中,如何获取这个加权似然函数
Figure A20071010987600277
成为了关键问题。然而,由于增量学习过程中不保存任何离线训练样本,该算法不可能通过采样求和的方式来模拟这个加权似然函数。同时在离线训练过程中记录下这个似然函数的分布情况也可能是不利的,因为随着弱分类器数目的增加,记录所需的存储空间将呈现出指数级别的增长趋势。为此,我们在增量学习算法中提出,采用在各个观测量上的边缘分布的乘积来近似该加权似然函数
P ^ off ( z | y ) ≈ Π i = 1 T P ^ off ( z i | y ) - - - ( 16 )
其中
P ^ off ( z i | y ) = Σ z \ z i P ^ off ( z | y ) - - - ( 17 )
为加权似然函数
Figure A200710109876002710
在观测量zi上的边缘概率密度函数。
这种近似方式实际上就是
Figure A200710109876002711
Bayes方法。它只需要增量学习算法记录下联合概率密度函数在各个观测量上的边缘分布情况。因此随着弱分类器数目(即观测量数目)的增加,记录加权似然函数的存储空间的增长速度从原本的指数级别降低为线性级别。将这种近似方法应用在如式16所示的混合目标损失函数离线部分(式14)的计算过程中,根据累加查找表函数S(z:c)的线性性质(参见式9),我们有
L ( p off ( x | y ) : c + Δc ) ≈ L ~ ( p off ( x | y ) : c + Δc )
= L ( p off ( x | y ) : c ) Σ z e - yS ( z : Δc ) Π i = 1 T P ^ off ( z i | y )
= L ( p off ( x | y ) : c ) Σ z i · · · Σ z T Π i = 1 T P ^ off ( z i | y ) exp ( - y · Δc i , z i ) - - - ( 18 )
= L ( p off ( x | y ) : c ) Π i = 1 T Σ z i P ^ off ( z i | y ) exp ( - y · Δc i , z i )
= L ( p off ( x | y ) : c ) Π i = 1 T M i
其中
Figure A20071010987600286
表示混合目标损失函数离线部分的近似结果,而
M i = Σ z i P ^ off ( z i | y ) exp ( - y · Δc i , z i ) - - - ( 19 )
则表示观测量zi上的加权边缘似然函数
Figure A20071010987600288
由于引入参数调整量Δc所导致的指数损失。这样,通过调换求积和求和的先后次序,和前面介绍的存储空间复杂度一样,混合目标损失函数离线部分的计算时间复杂度也从指数级别降低到了线性级别。
需要指出的是,当Δc=0、即不对累加查找表函数的参数作任何调整时,Mi=1,i=1,…,T。因此
L ( p off ( x | y ) : c + Δc ) | Δc = 0 = L ~ ( p off ( x | y ) : c + Δc ) | Δc = 0 - - - ( 20 )
不仅如此,对Δc中的任意一个参数Δcpq(即第p个查找表函数对于第q个子区间输出的预测结果)计算其偏导数,根据式6-14,我们有
∂ L ( p off ( x | y ) : c + Δc ) ∂ Δ c pq
= L ( p off ( x | y ) : c ) ∂ ( Σ z P ^ off ( z | y ) exp ( - y Σ i = 1 T Δ c i , z i ) ) ∂ Δ c pq - - - ( 21 )
= - y · L ( p off ( x | y ) : c ) Σ z : z p = q P ^ off ( z | y ) exp ( - y Σ i = 1 T Δ c i , z i )
而根据式18,我们有
∂ L ~ ( p off ( x | y ) : c + Δc ) ∂ Δ c pq = L ( p off ( x | y ) : c ) ∂ Π i = 1 T M i ∂ Δ c pq - - - ( 22 )
= - y · L ( p off ( x | y ) : c ) P ^ off ( z p | y ) exp ( - y · Δ c pq ) Π i = 1 ; i ≠ p T M i
当Δc=0时,根据式21和式22,我们又有
∂ L ( p off ( x | y ) : c + Δc ) ∂ Δ c pq | Δc = 0 = - y · L ( p off ( x | y ) : c ) Σ z : z p = q P ^ off ( z | y ) - - - ( 23 )
= - y · L ( p off ( x | y ) : c ) P ^ off ( z p = q | y ) = ∂ L ~ ( p off ( x | y ) : c + Δc ) ∂ Δ c pq | Δc = 0
所以这两个混合目标损失函数在Δc=0时不仅具有相同的函数值(式20),其梯度也完全相等(式23)。所以从泰勒展开的角度来讲,采用边缘分布函数计算的
Figure A20071010987600295
在‖Δc‖2不太大的条件下,是采用联合分布函数计算的L(poff(x|y):c+Δc)的合理近似。
至此已经证明,采用边缘分布函数的乘积来近似联合分布函数的这种做法,不仅将混合目标损失函数离线部分计算过程的空间复杂度和时间复杂度从指数级别降低为线性级别,使得算法可以用于解决实际问题,还能够在参数调整量Δc变化不大的条件下,确保近似计算的结果拥有足够的精度。
作为这种近似算法中的关键部分,如式17所示的离线加权边缘分布函数
Figure A20071010987600296
是在增量学习之前——即离线学习过程中——通过对离线样本在各个观测量上的分布进行统计而得到的。其计算过程如下所示
P ^ off ( z t | y ) = Σ k = 1 N off y [ [ r t ( x k ) = z t ] ] exp ( - y · S ( R ( x k ) ) : c ) N off y · L ( p off ( x | y ) , c ) - - - ( 24 )
其中Noff y是类别y的离线样本数,而
混合目标损失函数中在线部分的精确计算
现在已经介绍了如何在增量学习算法中采用
Figure A20071010987600299
Bayes方法来近似计算混合目标损失函数中的离线部分。至于它的在线部分的计算(式5),即对应于第二目标损失计算单元1313的计算,可以通过在线训练样本来模拟其对应的联合分布函数,所以我们有
L ( p on ( x | y ) , c + Δc ) = 1 N on y Σ k = 1 N on y exp ( - y · S ( R ( x k ) : c + Δc ) )
= 1 N on y Σ k = 1 N on y exp ( - y · S ( R ( x k ) : c ) ) · exp ( - y · S ( R ( x k ) : c ) ) - - - ( 25 )
= Σ k = 1 N on y w y ( k ) Π i = 1 T exp ( - y · Δ c i , r i ( x k ) )
其中Non y为类别y的在线训练样本数,
Figure A20071010987600304
是第k个样本在第i个弱分类器查找表函数中对应的子区间预测输出的调整量,而
w y ( k ) = 1 N on y exp ( - y · S ( R ( x k ) : c ) ) - - - ( 26 )
则是类别y中的第k个在线样本在增量学习过程中对应的初始权重。它实际上是对根据离线学习得到的强分类器输出S(R(xk):c)进行调整得到的。这个权重的含义和以往的Boosting算法一样,体现的都是当前强分类器对于该样本的错分程度。
这个混合目标损失函数的在线部分对于任意参数调整量Δcpq的偏导数为
∂ L ( p on ( x | y ) , c + Δc ) ∂ Δ c pq = - y Σ k = 1 N on y w y ( k ) [ [ r p ( x k ) = q ] ] Π i = 1 T exp ( - y · Δ c i , r i ( x k ) ) - - - ( 27 )
混合目标损失函数的优化方法
现在,我们对增量学习过程中混合目标损失函数(式3)的离线部分和在线部分分别提出了近似和精确的计算方法。为了解决增量学习过程中实际面临的优化问题,我们提出采用如下所示的近似形式来计算不同参数调整量Δc对应的混合目标损失函数值,
L ~ ( p ( x , , y ) , c + Δc ) = Σ y ( 1 - α y ) P ( y ) · L ~ ( p off ( x | y ) , c + Δc )
+ Σ y α y P ( y ) · L ( p on ( x | y ) , c + Δc ) - - - ( 28 )
≈ L ( p ( x , y ) , c + Δc )
其与精确结果L(p(x,y),c+Δc)唯一的区别在于,离线部分是通过
Figure A200710109876003010
Bayes方法近似计算得到的。由于前面已经证明,从泰勒展开的角度来讲,在‖Δc‖2不大的条件下,这一近似方法是具有足够精度的。因此式28是对增量学习过程中混合目标损失函数的合理近似。
式28是增量学习过程中的混合目标损失函数。式25是其中在线的部分,而式18是其中离线的部分。需要注意的是,在式18中,我们采用
Figure A20071010987600311
Bayes方法对离线部分的目标损失函数进行了合理的近似。因此在式28中,L(P(x,y),c+Δc)是准确的目标损失函数,而
Figure A20071010987600312
则是采用了这种离线近似方法的近似目标损失函数。当然如前所述,也可以精确计算离线部分的目标损失函数,但这会增大计算负担。
不难证明,如式27所示的近似混合目标损失函数对于参数Δc来说是一个凸函数。至此,我们就可以采用最速下降法,根据式22和式26中的偏导数,计算近似混合目标损失函数的梯度,再结合0.618方法进行梯度方向上的线性搜索。最终将在若干次迭代之后得到其优化结果(见式29)。也就是说,Δc代表查找表的某个调整量,而Δc*是所有调整量中能够最优化目标损失函数的那个调整量。
Δc * = arg min Δc ( L ~ ( p ( x , y ) , c + Δc ) ) - - - ( 29 )
这里,argmin表示的是所有自变量(这里是Δc)取值范围内能够最小化函数
Figure A20071010987600314
的那个取值,即
Figure A20071010987600315
是所有可能的目标损失函数值中最小的一个。
而增量学习的结果就是更新后的强分类器F(x)=S(R(x),c+Δc*)。需要特别指出的是,以往的在线Boosting算法对于各个弱分类器的调整过程是顺序进行的(sequential process),调整后得到的强分类器是逐步优化的结果(stage-wise optimization);而本文提出的增量学习算法可以针对所有弱分类器的调整过程同步并行(parallel process),调整后得到的强分类器是全局优化的结果(global optimization)。
修正系数α y 的自适应选择方法
根据式2,不难发现每个离线样本和每个在线样本对于修正似然函数的贡献分别为
Figure A20071010987600316
Figure A20071010987600317
其中Noff y和Non y分别表示类别y的离线样本和在线样本数。由此我们可以定义
λ y = α y N on y / ( 1 - α y ) N off y - - - ( 30 )
为类别y的在线样本增强比率(reinforce ratio of online samples),表示每个在线样本对于似然函数的贡献相当于几个离线样本。
在实际应用中,在线样本通常是由用户通过手工标定逐渐累积到的,因此在增量学习过程中,在线样本的数目经常会发生很大的变化。在这种情况下,如果不考虑样本数量情况而直接指定修正系数αy的大小,那么根据式30,平均每个在线样本对于似然函数的贡献——即在线样本增强比率λy——会发生剧烈的波动。更加合理的方式应当是在增量学习过程中,保持稳定的在线样本增强比率λy。这样的话,修正系数αy将根据在线样本数Non y的变化做出相应的调整:在线样本越多,增量学习的优化过程对于混合目标损失函数中在线部分的关注程度就越高,反之亦然。事实上,这种自适应的参数选择方法的核心思想是确保每个在线样本所发挥的作用不受在线样本总数变化的影响。换句话说,这种算法要使每个在线样本的损失在目标损失函数中的加权系数
Figure A20071010987600321
保持与离线样本的损失在目标损失函数中的加权系数
Figure A20071010987600322
的比值不变(参见式30)。该工作可以由修正系数确定单元1311来完成。
上面介绍了基于连续AdaBoost的算法的增量学习装置和增量学习方法。本发明也可应用于基于区域分割Vector Boosting的算法的增量学习装置和增量学习方法。事实上,基于连续AdaBoost算法与基于区域分割Vector Boosting的算法没有本质区别。前面的R(x)、S(z)的概念依然不变,只是S(z)的输出从标量变成了向量。
Vector Boosting算法是以连续AdaBoost算法为基础的多类别分类算法。两者同样根据指数损失函数来度量训练样本被错分的严重程度,两者也同样采用加性模型来优化目标损失函数。两者之间最主要的区别在于,连续AdaBoost算法处理的是二分类问题,分类器的输出是标量预测结果F(x),训练样本(x,y)的分类边界(margin)是yF(x);而Vector Boosting算法要处理的却是更加复杂的多类别分类问题,分类器的输出是矢量化的预测结果F(x),训练样本
Figure A20071010987600323
的分类边界定义为
Figure A20071010987600324
这是它的本质投影向量
Figure A20071010987600325
和预测结果F(x)在齐次坐标空间内的点积。然而在采用区域分割弱分类器的前提下,Vector Boosting算法对应的增量学习算法却和连续AdaBoost算法的没有本质差别。原因如下。
在Vector Boosting算法的框架下,增量学习过程的混合目标损失函数是
L ( p ( x , v ~ ) , F ( x ) ) = Σ v ‾ ( 1 - α v ‾ ) P ( v ~ ) · L ( p off ( x | v ~ ) , F ( x ) ) - - - ( 31 )
+ Σ v ~ α v ~ P ( v ~ ) · L ( p on ( x | v ~ ) , F ( x ) )
其中
L ( p off ( x | v ~ ) , F ( x ) ) = E p off ( x | v ~ ) ( e - v ~ · F ~ ( x ) ) - - - ( 32 )
L ( p on ( x | v ~ ) , F ( x ) ) = E p on ( x | v ~ ) ( e - v ~ , F ~ ( x ) ) - - - ( 33 )
与连续AdaBoost算法对应的式3,式4和式5相比,主要的区别在于原本用于表示类别属性的二值化随机标量y变成了多值化的随机向量
Figure A20071010987600335
而分类边界的表示方式也从yF(x)相应地变成了
Figure A20071010987600336
但这些改变并不影响本文对于强分类器观测空间
Figure A20071010987600337
的分析和把握。因此,在VectorBoosting算法的框架下,同样是由离线训练过程确定联合分割函数R(x),而增量学习过程只关注于如何调整矢量化输出的累加查找表函数S(z)。
和前面的做法一样,在Vector Boosting算法的框架之下,增量学习算法仍然可以采用
Figure A20071010987600338
Bayes方法近似计算混合目标损失函数的离线部分(式32),其结果如下所示
L ( p off ( x | v ~ ) : c + Δc ) ≈ L ~ ( p pff ( x | v ~ ) : c + Δc )
= L ( p off ( x | v ~ ) : c ) Π i = 1 T Σ z i P ^ off ( z i | v ~ ) exp ( - v · Δ c i , z i ) - - - ( 34 )
其中
Figure A200710109876003311
表示的是第i个弱分类器中第zi个子区间输出结果的变化量。需要注意的是,此时查找表中的元素是矢量而非标量。除此之外,式34和连续AdaBoost算法对应的式18几乎完全相同。而混合目标损失函数的在线部分(式33)同样可以表示为与式25极其类似的形式,
L ( p on ( x | v ~ ) , c + Δc ) = Σ k = 1 N on y w v ‾ ( k ) Π i = 1 T exp ( - v · Δ c i , r i ( x k ) ) - - - ( 35 )
至此,Vector Boosting算法对应的增量学习过程就可以采用与前面一样的梯度下降法,对如式31所示的混合目标损失函数进行迭代优化的操作,从而最终获得根据在线样本调整得到的强分类器F(x)=S(R(x):c+Δc)。
下面介绍本发明的检测器的增量学习算法。
图14示出了依据本发明的实施例的增量学习方法的流程图。如图14所示,其包括如下的步骤。首先,在步骤101,输入合适的增强比率(该增强比率可以在10-100之间)、已有检测器的各层强分类器的分类器模板、在线样本的集合。此处,各层强分类器的分类器模板即各强分类器所包含的弱分类器的模板,具体在本发明中,是各弱分类器的子区间分类模板。另外,此处的输入应作广义的理解,可以指从网上接收、从存储介质上获取、手工输入等各种形式。之后,在步骤102,进行初始化,即设置初始优化参量(模板调整量),例如将其设置为零。在步骤103,根据输入增量学习样本,获得利用所述初始优化参量进行的优化的优化程度,在本实施例中,所述优化程度指混合目标函数的梯度。
图15示出了对优化程度进行计算的一个实施例的流程图。如图15所示,所述优化程度计算可以包括修正系数确定步骤201、第一目标损失计算步骤202、第二目标损失计算步骤203、优化程度计算步骤204。
修正系数确定步骤201用于确定增量学习样本的修正系数,例如可以依据上述的式30利用初始化步骤中获得的增强比率计算该修正系数。
第一目标损失计算步骤202用于计算利用所述优化参量对所述子区间弱分类模板进行的优化所造成的第一目标损失。
第二目标损失计算步骤203用于根据所输入的所述增量学习样本计算利用所述优化参量对所述子区间弱分类模板进行的优化造成的第二目标损失。
优化程度计算步骤204,根据所述第一目标损失计算步骤202计算出的第一目标损失、所述第二目标损失计算步骤203计算出的第二目标损失、以及所述修正系数确定步骤201确定出的增量学习样本的修正系数,计算利用所述优化参量对弱分类模板进行优化的优化程度。该步骤204可以包括第一相乘步骤、第二相乘步骤、第一求导步骤、第二求导步骤和相加步骤,所述第一相乘步骤将1与所述修正系数的差与所述第一目标损失相乘,所述第二相乘步骤用于将所述修正系数与所述第二目标损失相乘,所述第一求导步骤用于对所述第一相乘步骤的相乘结果进行求导;所述第二求导步骤用于对所述第二相乘步骤的相乘结果进行求导;所述相加步骤用于将所述第一求导步骤的求导结果与所述第二求导步骤的求导结果相加。该优化程度计算步骤204也可以包括第一相乘步骤、第二相乘步骤、相加步骤、和求导步骤,所述第一相乘步骤将1与所述修正系数的差与所述第一目标损失相乘,所述第二相乘步骤用于将所述修正系数与所述第二目标损失相乘,所述相加步骤用于将所述第一相乘步骤的相乘结果与所述第二相乘步骤的相乘结果相加,所述求导步骤用于对所述相加步骤的相加结果进行求导。
本领域技术人员在本申请的教导下,参见上述的式,完全可以理解上述步骤,因而不再展开论述。另外,本领域的技术人员也可以根据本申请的教导,依据上面的式构思出其他的计算方法,这些都在本发明的范围内。
现在回到图14,在步骤104,根据所述优化程度获得步骤103所获得的计算结果,判断所述优化参量是否是对所述弱分类模板进行优化的可接受的优化参量。这可以通过判断所述计算结果是否满足一定的条件来进行,例如判断所述优化参量是否在预定的范围内,例如小于预定值。
当步骤104的判断为肯定时,进入步骤105和步骤106,利用所述优化参量更新所述模板,并更新增量学习样本集合,然后结束对该弱分类模板的处理。
当步骤104的判断为否定时,进入步骤107,更新优化参量,然后重复步骤103和104、107的处理,直到步骤104的判断为肯定为止。
图16用文字描述的方式示出了本发明的增量学习方法的流程图。在图16的流程图中,需要解释的是,因为增量学习样本是漏检和误报的样本,所以在将优化增量Δc初始地设为0时,混合目标损失函数的梯度会大于预定阈值。另外,符号‖g‖2表示g的模。
下面通过与联合学习方法进行比较来说明本发明的优点。
如前所述,各种在线Boosting算法都是以离散AdaBoost作为基础发展得到的,它们都无法适用于本文所采用的基于区域分割弱分类器的连续AdaBoost算法(处理多类别分类问题时则是Vector Boosting算法)。而在人脸检测器的离线训练过程中,区域分割连续AdaBoost算法所表现出来的学习能力又明显优于传统的离散AdaBoost算法。为了更好地说明本发明的优点,本文将采用联合学习方法作为增量学习方法的比较对象。
联合学习(combined learning)是一种将离线样本和在线样本直接合并在一起,根据AdaBoost算法对强分类器中各个弱分类器依次重新进行训练的方法。在本文的人脸检测算法框架下,它和增量学习算法一样,也是根据在线样本对各类别的似然函数进行修正后,在保持联合区域分割函数R(x)不变的前提下,调整累加查找表函数S(z)以便优化混合目标损失函数(式3)。然而联合学习方法需要保留所有曾在离线训练过程中使用过的训练样本,而增量学习方法却只记录了各个观测量zi上的加权边缘分布。这一本质差异使得两种算法在混合目标损失函数离线部分(式4)的计算过程中采用了截然不同的方法:联合学习和传统的离线训练一样,都是采用大量的离线样本来模拟离线部分对应的似然函数;而增量学习则采用
Figure A20071010987600361
Bayes方法,通过各个观测量zi上边缘分布的乘积来近似估计属于离线部分的加权似然函数。
实验以正面直立人脸检测问题为例,研究增量学习算法和联合学习算法根据少量光照条件很差的在线人脸训练样本,修正离线训练得到的强分类器的情况。实验所用的样本如下表1所示。我们从FERET库中提取得到20000个光照均匀的正面直立人脸样本,代表一般情况下的人脸检测问题。其中一半用于训练,另一半用于测试。另一方面,我们又从CMU PIE库中选取了1425张图片,并对它们进行适当扰动后得到总共4275个正面直立人脸样本。其中200个用于训练,剩余的4075个用于测试。这些人脸图像都是在各种极端的光照条件下拍摄获得的,可以代表特殊条件下的人脸检测问题。而作为反例的非人脸训练样本则分别取自两个独立的背景图片库,其数量与人脸样本数一一对应。
表1离线样本和在线样本示例(括号中斜线前面的数字为训练样本数,斜线后面的数字为测试样本数)
Figure A20071010987600371
采用区域分割连续AdaBoost算法,我们离线训练得到了一个由25个弱分类器组成的强分类器。这个强分类器的离线测试错误率(在离线测试样本上的错误率)仅为0.37%,但由于离线训练过程中并没有考虑各种极端光照的影响,这个强分类器的在线测试错误率(在在线测试样本上的错误率)高达6.27%。为了能更加有效地处理各种特殊光照下的人脸检测问题,我们分别采用增量学习方法和联合学习方法,根据不断累积的在线训练样本(从0个逐渐增加到200个),以不同的在线样本增强比率(λy=10n,n=0,…,8),对离线学习得到的强分类器进行了相应的调整,并记录下其离线测试错误率和在线测试错误率的变化情况,如图17所示。
在图17中,“COM 1E0”对应于λy=100的联合学习算法(combinedlearning),“INC 1E4”则对应于λy=104的增量学习算法(incrementallearning)。横轴表示算法所采用的在线训练样本数,左子图的纵轴和右子图的纵轴则分别表示调整后强分类器的离线测试错误率和在线测试错误率。就图17的整体趋势而言,随着越来越多的在线样本参与训练,无论是增量学习方法还是联合学习方法都能够比较有效地降低原有强分类器的在线测试错误率,同时其离线测试错误率也有不同程度的提升。这实际上是两种学习算法在离线样本所代表的“一般情况”以及在线样本所代表的“特殊情况”之间进行重新权衡的结果,并非过训练现象。以λy=102的增量学习方法为例,它通过仅仅200个在线训练样本,就将强分类器的在线测试错误率从6.27%降低到2.94%,而其离线测试错误率仅从0.37%上升到0.77%。为了让原本用来处理一般问题的检测器能够更好地处理特殊条件下的人脸检测问题,这种程度的错误率交换还是值得的。
为了进一步研究在线样本增强比率λy在增量学习方法以及联合学习方法中所起到的作用,我们通过对图17进行“切片”,在采用相同数量在线训练样本的前提下,考察λy的取值对离线测试错误率和在线测试错误率的影响。实验结果如图18所示。
图18的四个子图从左上至右下,分别表示在线训练样本数为0、10、100和200时的情况。图中横轴表示在线样本增强比率λy,取值范围是λy=10n,n=0,…,8。“COM OFF”表示联合学习方法的离线测试错误率,而“INC ON”则表示增量学习方法的在线测试错误率。通过观察这些“切片”结果,我们发现,虽然增大在线样本增强比率λy——也就是增大在线样本的修正系数αy——能够使增量学习和联合学习在优化过程中更加关注混合目标损失函数的在线部分,但这一做法并不能确保降低在线测试错误率,却让离线测试错误率始终保持上升。这种现象在联合学习方法的身上表现得尤其突出。如图18右上所示的在线训练样本数仅为10的情况,当λy不断增大至108、即αy逐渐接近于1的时候(αy和λy之间的关系可以参考式30),联合学习方法的离线测试错误率和在线测试错误率双双呈现出显著的上升趋势。这实际上是一种过训练现象,原因是在线训练样本数量很少,但在线部分却在混合目标损失函数中占据统治地位。
另一方面,增量学习方法在各种情况下对于这种过训练现象的抑制能力要明显优于联合学习方法。导致这一差别的根本原因在于二种方法针对混合目标损失函数的离线部分采用了完全不同的计算方式。联合学习方法在计算混合目标损失函数的离线部分时,需要通过离线训练样本来模拟观测空间内似然函数的联合分布情况(式12)。由于观测空间的维数通常很高(和弱分类器个数相同),这一采样过程是不够充分的。当在线部分占据统治地位时,算法需要对强分类器进行较大的调整才能够优化混合目标损失函数。此时联合学习方法采样不充分的问题就突出了起来,使得混合目标损失函数离线部分的计算结果可能同真实值之间产生极大的误差。而增量学习方法却采用
Figure A20071010987600381
Bayes方法,通过似然函数在各个观测量上的边缘分布的乘积来近似其联合分布。这使得增量学习方法对于采样数量的依赖性大为降低,不至于产生像联合学习方法那样巨大的误差。事实上,图18的实验结果表明,增量学习方法对参数λy并不敏感:在相当大的范围内任意改变λy都不会对增量学习的结果造成很大的影响。不仅如此,无论是离线测试错误率,还是在线测试错误率,增量学习方法都表现出了不逊于联合学习方法的性能:前者的错误率几乎始终保持在比后者的错误率更低或至少相当的水平之上。考虑到使用联合学习方法的前提是保存所有的离线训练样本,增量学习方法显然更具优势。
图18的左上子图中还展现了一个有趣的现象。当在线训练样本数为0时,增量学习方法的离线测试错误率为0.34%,在线测试错误率为6.18%,竟然都略低于使用了10000个离线样本进行训练的联合学习方法(分别为0.37%和6.27%)。实际上这是由于两种学习方法采用了不同的优化策略所致。我们知道,AdaBoost算法实际上是一个采用加性模型逐步优化目标损失函数的过程。因此对于目标损失函数而言,离线训练得到的强分类器并非全局最优结果。当在线训练样本数为0的时候,联合学习方法实质上就是离线训练时的AdaBoost算法,所以其学习得到的仍然是逐步优化的结果。而增量学习算法则有所不同。由于它以并行化的弱分类器调整策略获取目标损失函数的全局最优结果,离线学习得到的强分类器可以被增量学习方法进一步地优化。这实际上也是增量学习方法能够在离线和在线测试错误率方面优于联合学习方法的另一个原因。
另外,为了检验该增量学习算法是否能够有效对检测器进行适当的调整,我们选择了三类特殊环境下的人脸检测问题对其进行独立的测试。其中佩戴墨镜和围巾的正面直立人脸图片来自AR库,各有765张不同的人脸图片,属于人脸被部分遮挡的情况。而逆光的半侧面图片则来自CMU PIE库,共有340张不同的人脸图片,属于光照条件极端不良的情况。测试方法仿照一般终端用户的操作方式,每标定图片中的一个漏检人脸,就生成与之对应的若干样本加入到已有的在线训练样本集合中,再通过增量学习算法对检测器进行适当的调整。具体在实验中,每个被标定的人脸都会加以适度地扰动并生成16个样本。由于上面的实验已经说明,强分类器的增量学习过程对在线样本增强比率并不敏感。因此我们直接经验性地选择λ+1=16。至于λ-1,由于这个实验所采用的图片集合(AR库和CMU PIE库)的背景十分简单,在实验中始终收集不到任何检测器的误报作为反例进行增量学习,所以反例的在线样本增强比率是多少无关紧要。实验的结果如图19所示,其中左子图对应AR库中正面直立人脸的两种特殊情况(墨镜和围巾),而右子图则对应CMU PIE库中半侧面人脸的逆光情况。
在没有标定任何在线样本之前(对应于图中x轴为0的情况),离线训练得到的人脸检测器在这三个测试集合上的检测率很不理想,都有大量的人脸图片漏检。然而,只需要手工标注15张(墨镜)、19张(围巾)和8张(半侧面逆光)漏检的人脸图片,借助于上述检测器的增量学习算法,我们就可以分别得到三个检测率达100%的人脸检测器。这意味着我们提出的增量学习算法能够根据少量的在线训练样本有效地调整已有的人脸检测器,使之快速地适应特殊的应用环境。
然而仅仅这样还是不够的,我们还需要增量学习后得到的检测器仍然保有处理一般情况下人脸检测问题的能力。为此,以佩戴墨镜的正面人脸检测问题为例,我们将增量学习前后的检测器在CMU+MIT正面人脸测试集合上进行比较。得到了如图20所示的ROC曲线比较结果。
在图20中,“OFF”表示检测器在增量学习之前(即离线训练的结果)的ROC曲线,而“INC”则表示该检测器通过增量学习达到100%的戴墨镜人脸检测率之后(参见图19的左子图),在与训练集合无关的CMU+MIT正面人脸测试集合上获得的ROC曲线。不难看出,在处理像CMU+MIT正面人脸测试集合这样一般情况下的人脸检测问题时,增量学习得到的人脸检测器虽然略逊于离线学习得到的人脸检测器,但考虑到图19中增量学习前后检测器在处理特殊环境时能力的巨大差异,这样微小程度的退步是可以接受的。
通过深入分析,我们发现增量学习后检测器精度降低的原因并不是检测率下降。在同样的检测条件下,与增量学习之前的检测器相比,根据戴墨镜人脸样本增量学习之后的检测器能够从图片中检测到更多困难的人脸(方框为增量学习之前的结果,圆圈为增量学习之后的结果)。真正导致检测器精度下降的原因是误报率在增量学习之后上升了。问题的根源在于,增量学习戴墨镜人脸样本的过程中,根本没有涉及到任何非人脸训练样本。这使得增量学习算法在调整检测器使之适应特殊人脸样本的同时,也错误地让一部分与这些在线训练样本相似的非人脸模式得以通过。实际上,只需要将检测器所产生的误报收集起来,作为非人脸在线训练样本,然后重新对检测器进行增量学习,就可以在检测过程中有效地消除这些误报。图20中“INC+”曲线正是重新增量学习后得到的结果。这个检测器的误报数几乎一直保持在0左右,而由于增量学习考虑了佩带墨镜的人脸情况,其检测率相对于离线训练的结果又有所提高。因此,这个重新增量学习后得到的检测器在检测精度方面明显优于离线训练和第一次增量学习的结果。
综上所述,根据本发明的一个方面,提供了一种特定被摄体检测装置,该特定被摄体检测装置包括:输入单元,用于输入待检测的图像;一个或更多个强分类单元,用于对所述图像进行强分类,各所述强分类单元包括一个或更多个弱分类单元,所述弱分类单元使用弱分类模板对所述待检测的图像进行弱分类;存储单元,存储所述弱分类器所使用的弱分类模板;判断单元,根据所述强分类单元的分类结果,对所述图像是否包含所述特定被摄体进行判断;其特征在于,所述特定被摄体检测装置还包括:增量样本输入单元,用于输入增量学习用的数据,即输入增量学习样本,也就是该种特定被摄体检测装置所漏检或误报的数据;学习单元,用于根据所述增量样本输入单元输入的增量学习样本,更新所述存储单元所存储的所述弱分类模板。
根据本发明的又一方面,本发明提供了一种用于特定被摄体检测装置的学习装置,所述特定被摄体检测装置包括一个或更多个强分类单元,所述强分类单元包括一个或更多个弱分类单元,所述弱分类单元利用弱分类模板对输入的图像进行是否包含特定被摄体的判断,所述学习装置利用增量学习样本对所述弱分类模板进行更新,所述增量学习样本是该种特定被摄体检测装置运行中被漏检或误报的数据,所述学习装置包括:优化程度计算部,用于根据输入的增量学习样本,计算利用一优化参量对弱分类模板进行优化的优化程度;判断单元,根据所述优化程度计算部的计算结果,判断利用所述优化参量对所述弱分类模板进行的优化是否满足一定的条件;优化参量更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化未满足一定的条件时,所述优化参量更新单元对所述优化参量进行更新;以及模板更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化满足了一定的条件时,所述模板更新单元对所述弱分类模板进行更新。
优选地,所述弱分类单元包括:子区间判定单元,用于根据对实例空间的划分将输入的所述待检测的图像归类到互不相交的多个子区间中的某个子区间;弱分类确定单元,用于根据所述子区间判定单元的判定结果,根据子区间弱分类模板,输出对所述待检测图像所属的分类的预测结果;所述存储单元存储有所述子区间弱分类模板;所述学习单元根据所述增量样本输入单元输入的增量学习样本,更新所述存储单元所存储的各所述子区间弱分类模板。
优选地,所述学习单元包括:优化程度计算部,用于根据输入的增量学习样本,计算利用一优化参量对所述子区间弱分类模板进行优化的优化程度;判断单元,根据所述优化程度计算部的计算结果,判断利用所述优化参量对所述子区间弱分类模板进行的优化是否满足一定的条件;优化参量更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化未满足一定的条件时,所述优化参量更新单元对所述优化参量进行更新;以及模板更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化满足了一定的条件时,所述模板更新单元对所述弱分类模板进行更新。
优选地,所述优化程度计算部包括:修正系数确定单元,用于确定增量学习样本的修正系数;第一目标损失计算单元,用于计算利用所述优化参量对所述子区间弱分类模板进行的优化所造成的第一目标损失;第二目标损失计算单元,用于根据所输入的所述增量学习样本计算利用所述优化参量对所述子区间弱分类模板进行的优化造成的第二目标损失;优化程度计算单元,根据所述第一目标损失计算单元计算出的第一目标损失、所述第二目标损失计算单元计算出的第二目标损失、以及所述修正系数确定单元确定出的增量样本的修正系数,计算利用所述优化参量对所述弱分类模板进行优化的优化程度。
优选地,所述优化程度计算单元包括第一乘法部、第二乘法部、第一求导部、第二求导部和加法部,所述第一乘法部用于将1与所述修正系数的差与所述第一目标损失相乘;所述第二乘法部用于将所述修正系数与所述第二目标损失相乘;所述第一求导部用于对所述第一乘法部的相乘结果进行求导;所述第二求导部用于对所述第二乘法部的相乘结果进行求导;所述加法部用于将所述第一求导部的求导结果与所述第二求导部的求导结果相加。
优选地,所述优化程度计算单元包括第一乘法部、第二乘法部、加法部、和求导部,所述第一乘法部用于将1与所述修正系数的差与所述第一目标损失相乘;所述第二乘法部用于将所述修正系数与所述第二目标损失相乘;所述加法部用于将所述第一乘法部的相乘结果与所述第二乘法部的相乘结果相加;所述求导部用于对所述加法部的相加结果进行求导。
优选地,所述修正系数确定单元根据在线样本的数量确定所述修正系数,使增量学习样本的作用不受增量学习样本总数变化的影响。
优选地,所述学习单元还包括增量学习样本更新单元,该增量学习样本更新单元用于减少所述增量学习样本组成的集合中的增量学习样本,得到新的所述增量学习样本的集合。
优选地,所述第一目标损失计算单元采用
Figure A20071010987600431
Bayes法计算所述第一目标损失。
优选地,所述优化参量更新单元根据0.618法更新所述优化参量。
优选地,所述子区间判定单元首先提取所述待检测图像的特征,然后根据分段函数的等间隔分隔方式将所述待检测图像归类到所述实例空间中的某个子区间。
优选地,所述增量学习样本是所述特定被摄体检测装置运行中被漏检或误报的图像,所述增量样本输入单元包括记录单元,所述记录单元用于记录所述特定被摄体检测装置在运行中漏检或误报的图像。
优选地,所述增量学习样本是所述特定被摄体检测装置之外的与所述特定被摄体检测装置相同的其他特定被摄体检测装置运行中被漏检或误报的图像,所述增量样本输入单元包括接收单元,所述接收单元用于接收来自所述其他特定被摄体检测装置在运行中漏检或误报的图像。
其中,所述特定被摄体指人脸。
其中,所述一个或更多个强分类单元按瀑布模式或矢量树模式连接。
优选地,所述特定被摄体检测装置包括切换装置,所述切换装置用于切换所述特定被摄体检测装置的模式状态,使所述特定被摄体检测装置在检测模式和学习模式之间互换;所述增量样本输入单元和所述学习单元在所述切换装置将所述特定被摄体检测装置切换为学习模式时工作。
根据本发明的又一方面,提供了一种用于特定被摄体检测装置的学习方法,所述特定被摄体检测装置包括一个或更多个强分类单元,所述强分类单元包括一个或更多个弱分类单元,所述弱分类单元利用弱分类模板对输入的图像进行是否包含特定被摄体的判断,所述学习方法包括针对各弱分类器的:输入步骤,输入增量学习样本;优化程度获得步骤,用于根据输入的增量学习样本,计算利用一优化参量对弱分类模板进行优化的优化程度,所述增量学习样本是该种特定被摄体检测装置运行中被漏检或误报的数据;判断步骤,根据所述优化程度获得步骤的计算结果,判断利用所述优化参量对所述弱分类模板进行的优化是否满足一定的条件;优化参量更新步骤,当所述判断步骤判断出利用所述优化参量对所述弱分类模板进行的优化未满足一定的条件时,该优化参量更新步骤对所述优化参量进行更新;以及模板更新步骤,当所述判断步骤判断出利用所述优化参量对所述弱分类模板进行的优化满足了一定的条件时,该模板更新步骤对所述弱分类模板进行更新。
优选地,所述优化程度获得步骤包括:修正系数确定步骤,用于确定增量学习样本的修正系数;第一目标损失计算步骤,用于计算利用所述优化参量对所述弱分类模板进行的优化所造成的第一目标损失;第二目标损失计算步骤,用于根据所输入的所述增量学习样本计算利用所述优化参量对所述弱分类模板进行的优化造成的第二目标损失;优化程度计算步骤,根据所述第一目标损失计算步骤计算出的第一目标损失、所述第二目标损失计算步骤计算出的第二目标损失、以及所述修正系数确定步骤确定出的增量学习样本的修正系数,计算利用所述优化参量对所述弱分类模板进行优化的优化程度。
优选地,所述优化程度计算步骤包括第一相乘步骤、第二相乘步骤、第一求导步骤、第二求导步骤和相加步骤,所述第一相乘步骤用于将1与所述修正系数的差与所述第一目标损失相乘;所述第二相乘步骤用于将所述修正系数与所述第二目标损失相乘;所述第一求导步骤用于对所述第一相乘步骤的相乘结果进行求导;所述第二求导步骤用于对所述第二相乘步骤的相乘结果进行求导;所述相加步骤用于将所述第一求导步骤的求导结果与所述第二求导步骤的求导结果相加。
优选地,所述优化程度计算步骤包括第一相乘步骤、第二乘法步骤、相加步骤、和求导步骤,所述第一相乘步骤用于将1与所述修正系数的差与所述第一目标损失相乘;所述第二相乘步骤用于将所述修正系数与所述第二目标损失相乘;所述相加步骤用于将所述第一相乘步骤的相乘结果与所述第二相乘步骤的相乘结果相加;所述求导步骤用于对所述相加步骤的相加结果进行求导。
优选地,所述修正系数确定步骤根据在线样本的数量确定所述修正系数,使增量学习样本的作用不受增量学习样本总数变化的影响。
优选地,所述学习方法还包括增量学习样本更新步骤,所述增量学习样本更新步骤用于减少所述增量学习样本组成的集合中的增量学习样本,得到新的所述增量学习样本的集合。
优选地,所述第一目标损失计算步骤采用边缘分布函数法或Bayes法计算所述第一目标损失。
其中,所述弱分类单元包括:子区间判定单元,用于根据对实例空间的划分将输入的所述待检测的图像归类到互不相交的多个子区间中的某个子区间;弱分类确定单元,用于根据所述子区间判定单元的判定结果,根据子区间弱分类模板,输出对所述待检测图像所属的分类的预测结果;所述学习方法根据所述增量学习样本,更新各所述子区间弱分类模板。
优选地,所述优化参量更新步骤利用0.618法对所述优化参量进行更新。
其中,所述增量学习样本是所述特定被摄体检测装置运行中被漏检或误报的图像,或所述特定被摄体检测装置之外的与所述特定被摄体检测装置相同的其他特定被摄体检测装置运行中被漏检或误报的图像。
其中,所述特定被摄体是人脸。
另外,根据本发明的又一方面,本发明提供了一种计算机程序,当其由计算机执行时,可以使计算机作为上述特定被摄体检测装置进行工作。
另外,根据本发明的又一方面,本发明提供了一种计算机程序,当其由计算机执行时,可以使计算机作为上述学习装置进行工作。
另外,根据本发明的又一方面,本发明提供了一种计算机程序,当其由计算机执行时,可以使计算机实现上述学习方法。
另外,根据本发明的又一方面,本发明提供了一种计算机可读存储介质,其存储由上面所述的可以使计算机作为上述特定被摄体检测装置进行工作的计算机程序。
另外,根据本发明的又一方面,本发明提供了一种计算机可读存储介质,其存储由上面所述的可以使计算机作为学习装置进行工作的计算机程序。
另外,根据本发明的又一方面,本发明提供了一种计算机可读存储介质,其存储由上面所述的可以使计算机实现上述学习方法的计算机程序。
所述计算机存储介质可以是软盘、DVD、VCD、CD、磁盘、硬盘、Flash、磁光盘等本领域技术人员所知的任何计算机可读存储介质。
下面列出了对于理解本发明有益的相关的参考文献,通过引用将它们并入本文中,如同在本文中完全阐明了一样。
[1]R.E.Schapire and Y.Singer.Improved Boosting Algorithms UsingConfidence-rated Predictions.In:Machine Learning,vol.37,pp.297-336,1999.
[2]V.N.Vapnik.The nature of statistical learning theory.Berlin,Germany:Springer-Verlag,1995.
[3]J.Friedman,T.Hastie,and R.Tibshirani.Additive logistic regression:A statistical view of boosting.In:Annals of Statistics,vol.28,pp.337-374,2000.
[4]P.Utgoff,N.Berkman,and J.Clouse.Decision tree induction basedon efficient tree restructuring.In:Machine Learning,29(1),5-44.1997.
[5]N.Littlestone.Learning quickly when irrelevant attributes abound:Anew linear threshold algorithm.In:Machine Learning,2,285-318.1988.
[6]N.Littlestone,and M.Warmuth.The weighted majority algorithm.In:Information and Computation,108,212-261.1994.
[7]L.Breiman.Pasting small votes for classification in large databasesand on-line.In:Machine Learning,36,85-103.1999.
[8]A.Fern and R.Givan.Online ensemble learning:An empirical study.In:Proc.ICML,pp.151 279-286,2000.
[9]N.Oza and S.Russel.Online bagging and boosting.In:Proc.Artificial Intelligence and Statistics,2001.
[10]N.Oza.Online ensemble learning.Ph.D.thesis,University ofCalifornia,Berkeley,2001.
[11]O.Javed,S.Ali,and M.Shah.Online detection and classification ofmoving objects using progressively improving detectors.In:Proc.CVPR,2005.
[12]H.Grabner and H.Bischof.Online Boosting and Vision.In:Proc.CVPR,2006.
[13]R.O.Duda,P.E.Hart,and D.G.Stork.Pattern Classification,Second Edition.John Wiley&Sons,Inc.pp 62-64,2001.
[14]T.Sim,S.Baker,and M.Bsat.The CMU pose,illumination,andexpression database.IEEE Trans.PAMI,25(12),1615-1618,2003.

Claims (38)

1、一种特定被摄体检测装置,该特定被摄体检测装置包括:
输入单元,用于输入待检测的图像;
一个或更多个强分类单元,用于对所述待检测的图像进行强分类,各所述强分类单元包括一个或更多个弱分类单元,所述弱分类单元使用弱分类模板对所述待检测的图像进行弱分类;
存储单元,存储所述弱分类单元所使用的弱分类模板;
判断单元,根据所述强分类单元的分类结果,对所述待检测的图像是否包含所述特定被摄体进行判断;
其特征在于,所述特定被摄体检测装置还包括:
增量样本输入单元,用于输入增量学习用的数据,即输入增量学习样本,也就是该或其他特定被摄体检测装置所漏检或误报的数据;
学习单元,用于根据所述增量样本输入单元输入的所述增量学习样本,更新所述存储单元所存储的所述弱分类模板。
2、根据权利要求1所述的特定被摄体检测装置,其特征在于,
所述弱分类单元包括:子区间判定单元,用于根据对实例空间的划分将输入的所述待检测的图像归类到互不相交的多个子区间中的某个子区间;弱分类确定单元,用于根据所述子区间判定单元的判定结果,根据子区间弱分类模板,输出对所述待检测图像所属的分类的预测结果;
所述存储单元存储有所述子区间弱分类模板;
所述学习单元根据所述增量样本输入单元输入的增量学习样本,更新所述存储单元所存储的各所述子区间弱分类模板。
3、根据权利要求2所述的特定被摄体检测装置,其特征在于,所述学习单元包括:
优化程度计算部,用于根据输入的增量学习样本,计算利用一优化参量对所述子区间弱分类模板进行优化的优化程度;
判断单元,根据所述优化程度计算部的计算结果,判断利用所述优化参量对所述子区间弱分类模板进行的优化是否满足一定的条件;
优化参量更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化未满足一定的条件时,所述优化参量更新单元对所述优化参量进行更新;以及
模板更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化满足了一定的条件时,所述模板更新单元对所述弱分类模板进行更新。
4、根据权利要求3所述的特定被摄体检测装置,其特征在于,所述优化程度计算部包括:
修正系数确定单元,用于确定增量学习样本的修正系数;
第一目标损失计算单元,用于计算利用所述优化参量对所述子区间弱分类模板进行的优化所造成的第一目标损失;
第二目标损失计算单元,用于根据所输入的所述增量学习样本计算利用所述优化参量对所述子区间弱分类模板进行的优化造成的第二目标损失;
优化程度计算单元,根据所述第一目标损失计算单元计算出的第一目标损失、所述第二目标损失计算单元计算出的第二目标损失、以及所述修正系数确定单元确定出的增量样本的修正系数,计算利用所述优化参量对所述弱分类模板进行优化的优化程度。
5、根据权利要求4所述的特定被摄体检测装置,其特征在于,所述优化程度计算单元包括第一乘法部、第二乘法部、第一求导部、第二求导部和加法部,
所述第一乘法部用于将1与所述修正系数的差与所述第一目标损失相乘;
所述第二乘法部用于将所述修正系数与所述第二目标损失相乘;
所述第一求导部用于对所述第一乘法部的相乘结果进行求导;
所述第二求导部用于对所述第二乘法部的相乘结果进行求导;
所述加法部用于将所述第一求导部的求导结果与所述第二求导部的求导结果相加。
6、根据权利要求4所述的特定被摄体检测装置,其特征在于,所述优化程度计算单元包括第一乘法部、第二乘法部、加法部、和求导部,
所述第一乘法部用于将1与所述修正系数的差与所述第一目标损失相乘;
所述第二乘法部用于将所述修正系数与所述第二目标损失相乘;
所述加法部用于将所述第一乘法部的相乘结果与所述第二乘法部的相乘结果相加;
所述求导部用于对所述加法部的相加结果进行求导。
7、根据权利要求4所述的特定被摄体检测装置,其特征在于,所述修正系数确定单元根据在线样本的数量确定所述修正系数,使增量学习样本的作用不受增量学习样本总数变化的影响。
8、根据权利要求3所述的特定被摄体检测装置,其特征在于,所述学习单元还包括增量学习样本更新单元,所述增量学习样本更新单元用于减少所述增量学习样本组成的集合中的增量学习样本,得到新的所述增量学习样本的集合。
9、根据权利要求4所述的特定被摄体检测装置,其特征在于,所述第一目标损失计算单元采用
Figure A2007101098760004C1
Bayes法计算所述第一目标损失。
10、根据权利要求3所述的特定被摄体检测装置,其特征在于,所述优化参量更新单元根据0.618法更新所述优化参量。
11、根据权利要求2所述特定被摄体检测装置,其特征在于,所述子区间判定单元首先提取所述待检测图像的特征,然后根据分段函数的等间隔分隔方式将所述待检测图像归类到所述实例空间中的某个子区间。
12、根据权利要求1-11中任一项所述的特定被摄体检测装置,其特征在于,所述增量学习样本是所述特定被摄体检测装置运行中被漏检或误报的图像,所述增量样本输入单元包括记录单元,所述记录单元用于记录所述特定被摄体检测装置的在运行中漏检或误报的图像。
13、根据权利要求1-11中任一项所述的特定被摄体检测装置,其特征在于,所述增量学习样本是所述特定被摄体检测装置之外的与所述特定被摄体检测装置相同的其他特定被摄体检测装置运行中被漏检或误报的图像,所述增量样本输入单元包括接收单元,所述接收单元用于接收来自所述其他特定被摄体检测装置在运行中漏检或误报的图像。
14、根据权利要求1-11中任一项所述的特定被摄体检测装置,其特征在于,所述特定被摄体指人脸。
15、根据权利要求1-11中任一项所述的特定被摄体检测装置,其特征在于,所述一个或更多个强分类单元按瀑布模式或矢量树模式连接。
16、根据权利要求1-11中任一项所述的特定被摄体检测装置,其特征在于,所述特定被摄体检测装置包括切换装置,所述切换装置用于切换所述特定被摄体检测装置的模式状态,使所述特定被摄体检测装置在检测模式和学习模式之间互换;
所述增量样本输入单元和所述学习单元在所述切换装置将所述特定被摄体检测装置切换为学习模式时工作。
17、一种用于特定被摄体检测装置的学习装置,所述特定被摄体检测装置包括一个或更多个强分类单元,所述强分类单元包括一个或更多个弱分类单元,所述弱分类单元利用弱分类模板对输入的图像进行是否包含特定被摄体的判断,所述学习装置利用增量学习样本对所述弱分类模板进行更新,所述增量学习样本是该或其他特定被摄体检测装置运行中被漏检或误报的数据,所述学习装置包括:
优化程度计算部,用于根据输入的增量学习样本,计算利用一优化参量对弱分类模板进行优化的优化程度;
判断单元,根据所述优化程度计算部的计算结果,判断利用所述优化参量对所述弱分类模板进行的优化是否满足一定的条件;
优化参量更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化未满足一定的条件时,所述优化参量更新单元对所述优化参量进行更新;以及
模板更新单元,当所述判断单元判断出利用所述优化参量对所述弱分类模板进行的优化满足了一定的条件时,所述模板更新单元对所述弱分类模板进行更新。
18、根据权利要求17所述的学习装置,其特征在于,所述优化程度计算部包括:
修正系数确定单元,用于确定增量学习样本的修正系数;
第一目标损失计算单元,用于计算利用所述优化参量对所述弱分类模板进行的优化所造成的第一目标损失;
第二目标损失计算单元,用于根据所输入的所述增量学习样本计算利用所述优化参量对所述弱分类模板进行的优化造成的第二目标损失;
优化程度计算单元,根据所述第一目标损失计算单元计算出的第一目标损失、所述第二目标损失计算单元计算出的第二目标损失、以及所述修正系数确定单元确定出的增量学习样本的修正系数,计算利用所述优化参量对所述弱分类模板进行优化的优化程度。
19、根据权利要求18所述的学习装置,其特征在于,所述优化程度计算单元包括第一乘法部、第二乘法部、第一求导部、第二求导部和加法部,
所述第一乘法部用于将1与所述修正系数的差与所述第一目标损失相乘;
所述第二乘法部用于将所述修正系数与所述第二目标损失相乘;
所述第一求导部用于对所述第一乘法部的相乘结果进行求导;
所述第二求导部用于对所述第二乘法部的相乘结果进行求导;
所述加法部用于将所述第一求导部的求导结果与所述第二求导部的求导结果相加。
20、根据权利要求18所述的学习装置,其特征在于,所述优化程度计算单元包括第一乘法部、第二乘法部、加法部、和求导部,
所述第一乘法部用于将1与所述修正系数的差与所述第一目标损失相乘;
所述第二乘法部用于将所述修正系数与所述第二目标损失相乘;
所述加法部用于将所述第一乘法部的相乘结果与所述第二乘法部的相乘结果相加;
所述求导部用于对所述加法部的相加结果进行求导。
21、根据权利要求18所述的学习装置,其特征在于,所述修正系数确定单元根据在线样本的数量确定所述修正系数,使增量学习样本的作用不受增量学习样本总数变化的影响。
22、根据权利要求17所述的学习装置,其特征在于,所述学习单元还包括增量学习样本更新单元,所述增量学习样本更新单元用于减少所述增量学习样本组成的集合中的增量学习样本,得到新的所述增量学习样本的集合。
23、根据权利要求18所述的学习装置,其特征在于,所述第一目标损失计算单元采用
Figure A2007101098760007C1
Bayes法计算所述第一目标损失。
24、根据权利要求17所述的学习装置,其特征在于,
所述弱分类单元包括:子区间判定单元,用于根据对实例空间的划分将输入的所述待检测的图像归类到其中某个子区间;弱分类确定单元,用于根据所述子区间判定单元的判定结果,通过查找子区间弱分类模板,输出对所述待检测图像所属的分类的预测结果;
所述学习单元根据所述增量学习样本,对各所述子区间弱分类模板更新。
25、根据权利要求17-24中任一项所述的学习装置,其特征在于,所述增量学习样本是所述特定被摄体检测装置运行中被漏检或误报的图像,所述特定被摄体检测装置包括记录单元,所述记录单元用于记录所述特定被摄体检测装置在运行中漏检或误报的图像。
26、根据权利要求17-24中任一项所述的学习装置,其特征在于,所述增量学习样本是所述特定被摄体检测装置之外的与所述特定被摄体检测装置相同的其他特定被摄体检测装置运行中被漏检或误报的图像,所述特定被摄体检测装置包括接收单元,所述接收单元用于接收来自所述其他特定被摄体检测装置的在运行中漏检或误报的图像。
27、根据权利要求17-24中任一项所述的学习装置,其特征在于,所述特定被摄体指人脸。
28、一种用于特定被摄体检测装置的学习方法,所述特定被摄体检测装置包括一个或更多个强分类单元,所述强分类单元包括一个或更多个弱分类单元,所述弱分类单元利用弱分类模板对输入的图像进行是否包含特定被摄体的判断,所述学习方法包括针对各弱分类器的:
输入步骤,输入增量学习样本;
优化程度获得步骤,用于根据输入的增量学习样本,计算利用一优化参量对弱分类模板进行优化的优化程度,所述增量学习样本是该或其他特定被摄体检测装置运行中被漏检或误报的数据;
判断步骤,根据所述优化程度获得步骤的计算结果,判断利用所述优化参量对所述弱分类模板进行的优化是否满足一定的条件;
优化参量更新步骤,当所述判断步骤判断出利用所述优化参量对所述弱分类模板进行的优化未满足一定的条件时,该优化参量更新步骤对所述优化参量进行更新;以及
模板更新步骤,当所述判断步骤判断出利用所述优化参量对所述弱分类模板进行的优化满足了一定的条件时,该模板更新步骤对所述弱分类模板进行更新。
29、根据权利要求28所述的学习方法,其特征在于,所述优化程度获得步骤包括:
修正系数确定步骤,用于确定增量学习样本的修正系数;
第一目标损失计算步骤,用于计算利用所述优化参量对所述弱分类模板进行的优化所造成的第一目标损失;
第二目标损失计算步骤,用于根据所输入的所述增量学习样本计算利用所述优化参量对所述弱分类模板进行的优化造成的第二目标损失;
优化程度计算步骤,根据所述第一目标损失计算步骤计算出的第一目标损失、所述第二目标损失计算步骤计算出的第二目标损失、以及所述修正系数确定步骤确定出的增量学习样本的修正系数,计算利用所述优化参量对所述弱分类模板进行优化的优化程度。
30、根据权利要求29所述的学习方法,其特征在于,所述优化程度计算步骤包括第一相乘步骤、第二相乘步骤、第一求导步骤、第二求导步骤和相加步骤,
所述第一相乘步骤用于将1与所述修正系数的差与所述第一目标损失相乘;
所述第二相乘步骤用于将所述修正系数与所述第二目标损失相乘;
所述第一求导步骤用于对所述第一相乘步骤的相乘结果进行求导;
所述第二求导步骤用于对所述第二相乘步骤的相乘结果进行求导;
所述相加步骤用于将所述第一求导步骤的求导结果与所述第二求导步骤的求导结果相加。
31、根据权利要求29所述的学习方法,其特征在于,所述优化程度计算步骤包括第一相乘步骤、第二相乘步骤、相加步骤、和求导步骤,
所述第一相乘步骤用于将1与所述修正系数的差与所述第一目标损失相乘;
所述第二相乘步骤用于将所述修正系数与所述第二目标损失相乘;
所述相加步骤用于将所述第一相乘步骤的相乘结果与所述第二相乘步骤的相乘结果相加;
所述求导步骤用于对所述相加步骤的相加结果进行求导。
32、根据权利要求29所述的学习方法,其特征在于,所述修正系数确定步骤根据在线样本的数量确定所述修正系数,使增量学习样本的作用不受增量学习样本总数变化的影响。
33、根据权利要求28所述的学习方法,其特征在于,所述学习方法还包括增量学习样本更新步骤,所述增量学习样本更新步骤用于减少所述增量学习样本组成的集合中的增量学习样本,得到新的所述增量学习样本的集合。
34、根据权利要求29所述的学习方法,其特征在于,所述第一目标损失计算步骤采用边缘分布函数法或
Figure A2007101098760009C1
Bayes法计算所述第一目标损失。
35、根据权利要求28所述的学习方法,其特征在于,
所述弱分类单元包括:子区间判定单元,用于根据对实例空间的划分将输入的所述待检测的图像归类到互不相交的多个子区间中的某个子区间;弱分类确定单元,用于根据所述子区间判定单元的判定结果,根据子区间弱分类模板,输出对所述待检测图像所属的分类的预测结果;
所述学习方法根据所述增量学习样本,更新各所述子区间弱分类模板。
36、根据权利要求28所述的学习方法,其特征在于,所述优化参量更新步骤利用0.618法对所述优化参量进行更新。
37、根据权利要求28-36中任一项所述的学习方法,其特征在于,所述增量学习样本是所述特定被摄体检测装置运行中被漏检或误报的图像,或所述特定被摄体检测装置之外的与所述特定被摄体检测装置相同的其他特定被摄体检测装置运行中被漏检或误报的图像。
38、根据权利要求28-36中任一项所述的学习方法,其特征在于,所述特定被摄体是人脸。
CN200710109876XA 2007-06-01 2007-06-01 特定被摄体检测装置及其学习装置和学习方法 Expired - Fee Related CN101315670B (zh)

Priority Applications (5)

Application Number Priority Date Filing Date Title
CN200710109876XA CN101315670B (zh) 2007-06-01 2007-06-01 特定被摄体检测装置及其学习装置和学习方法
PCT/CN2008/071156 WO2008148343A1 (fr) 2007-06-01 2008-05-30 Dispositif de détection d'objet photographié spécial et dispositif d'apprentissage et procédé associé
JP2010509667A JP5197737B2 (ja) 2007-06-01 2008-05-30 特定被写体検出装置及びその学習装置と学習方法
US12/602,635 US8457391B2 (en) 2007-06-01 2008-05-30 Detecting device for specific subjects and learning device and learning method thereof
EP08757567.6A EP2164025A4 (en) 2007-06-01 2008-05-30 SPECIAL PHOTOGRAPHED OBJECT DETECTION DEVICE AND LEARNING DEVICE AND METHOD THEREOF

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN200710109876XA CN101315670B (zh) 2007-06-01 2007-06-01 特定被摄体检测装置及其学习装置和学习方法

Publications (2)

Publication Number Publication Date
CN101315670A true CN101315670A (zh) 2008-12-03
CN101315670B CN101315670B (zh) 2010-08-11

Family

ID=40093190

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200710109876XA Expired - Fee Related CN101315670B (zh) 2007-06-01 2007-06-01 特定被摄体检测装置及其学习装置和学习方法

Country Status (5)

Country Link
US (1) US8457391B2 (zh)
EP (1) EP2164025A4 (zh)
JP (1) JP5197737B2 (zh)
CN (1) CN101315670B (zh)
WO (1) WO2008148343A1 (zh)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101853389A (zh) * 2009-04-01 2010-10-06 索尼株式会社 多类目标的检测装置及检测方法
CN103258216A (zh) * 2013-05-15 2013-08-21 中国科学院自动化研究所 一种基于在线学习的局部可形变目标检测方法及其系统
CN103593672A (zh) * 2013-05-27 2014-02-19 深圳市智美达科技有限公司 Adaboost分类器在线学习方法及系统
CN103914702A (zh) * 2013-01-02 2014-07-09 国际商业机器公司 用于提高视频中的对象检测性能的系统和方法
CN104951802A (zh) * 2015-06-17 2015-09-30 中国科学院自动化研究所 一种分类器更新方法
CN105279382A (zh) * 2015-11-10 2016-01-27 成都数联易康科技有限公司 一种医疗保险异常数据在线智能检测方法
CN105844286A (zh) * 2016-03-11 2016-08-10 博康智能信息技术有限公司 新增车标的识别方法和装置
CN105930808A (zh) * 2016-04-26 2016-09-07 南京信息工程大学 一种基于vector boosting模板更新的运动目标跟踪方法
CN108984628A (zh) * 2018-06-20 2018-12-11 北京达佳互联信息技术有限公司 内容描述生成模型的损失值获取方法及装置
CN109886340A (zh) * 2019-02-26 2019-06-14 山东星蓝信息科技有限公司 一种遥感影像分类方法
CN111639688A (zh) * 2020-05-19 2020-09-08 华中科技大学 一种基于线性核svm的物联网智能模型的局部解释方法
CN114611720A (zh) * 2022-03-14 2022-06-10 北京字节跳动网络技术有限公司 联邦学习模型训练方法、电子设备及存储介质
CN117908369A (zh) * 2023-04-23 2024-04-19 重庆市畜牧科学院 一种基于不同温区的猪场养殖环境动态调节方法

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CL2007002345A1 (es) * 2007-08-10 2009-09-11 Pablo Zegers Fernandez Metodo para la resolucion de problemas complejos mediante el aprendisaje en cascada.
CN101470802B (zh) * 2007-12-28 2012-05-09 清华大学 物体检测装置和方法
JP5472976B2 (ja) * 2009-08-18 2014-04-16 Necソフト株式会社 対象物検出装置、対象物検出方法、プログラムおよび記録媒体
WO2012109670A1 (en) 2011-02-11 2012-08-16 Arizona Board Of Regents, For And On Behalf Of, Arizona State University Systems, methods, and media for detecting an anatomical object in a medical device image
AU2012214149A1 (en) 2011-02-11 2013-09-05 Arizona Board Of Regents For And On Behalf Of Arizona State University Methods, systems, and media for determining carotid intima-media thickness
US9330336B2 (en) * 2011-09-16 2016-05-03 Arizona Board of Regents, a body corporate of the State of Arizona, acting for and on behalf of, Arizona State University Systems, methods, and media for on-line boosting of a classifier
US8699752B2 (en) * 2011-09-29 2014-04-15 Nec Laboratories America, Inc. Adaptive cross partition for learning weak classifiers
US9603554B2 (en) 2012-02-03 2017-03-28 The Arizona Board Of Regents Systems, methods, and media for monitoring the condition of a patient's heart
EP2690582B1 (en) * 2012-07-27 2016-05-11 Honda Research Institute Europe GmbH System for controlling an automated device
JP6160196B2 (ja) 2013-04-15 2017-07-12 オムロン株式会社 識別器更新装置、識別器更新プログラム、情報処理装置、および識別器更新方法
CN103258217A (zh) * 2013-05-15 2013-08-21 中国科学院自动化研究所 一种基于增量学习的行人检测方法
CN103366163B (zh) * 2013-07-15 2016-07-20 北京丰华联合科技有限公司 基于增量学习的人脸检测系统和方法
JP6320112B2 (ja) 2014-03-27 2018-05-09 キヤノン株式会社 情報処理装置、情報処理方法
JP6471934B2 (ja) 2014-06-12 2019-02-20 パナソニックIpマネジメント株式会社 画像認識方法、カメラシステム
JP6482195B2 (ja) 2014-07-02 2019-03-13 キヤノン株式会社 画像認識装置、画像認識方法及びプログラム
JP6433187B2 (ja) * 2014-08-07 2018-12-05 キヤノン株式会社 情報処理装置、その制御方法およびコンピュータプログラム
JP6738163B2 (ja) 2016-03-01 2020-08-12 キヤノン株式会社 診断支援装置、診断支援装置が実行する方法及びプログラム
JP6629678B2 (ja) * 2016-06-16 2020-01-15 株式会社日立製作所 機械学習装置
CN106548210B (zh) 2016-10-31 2021-02-05 腾讯科技(深圳)有限公司 基于机器学习模型训练的信贷用户分类方法及装置
JP6942488B2 (ja) * 2017-03-03 2021-09-29 キヤノン株式会社 画像処理装置、画像処理システム、画像処理方法、及びプログラム
US11283991B2 (en) 2019-06-04 2022-03-22 Algolux Inc. Method and system for tuning a camera image signal processor for computer vision tasks
US11853394B2 (en) * 2018-11-21 2023-12-26 Datalogic Ip Tech S.R.L. Image multiprocessing method for vision systems
US11080558B2 (en) 2019-03-21 2021-08-03 International Business Machines Corporation System and method of incremental learning for object detection
US11067786B2 (en) * 2019-06-07 2021-07-20 Leica Microsystems Inc. Artifact regulation methods in deep model training for image transformation
US10929677B1 (en) * 2019-08-07 2021-02-23 Zerofox, Inc. Methods and systems for detecting deepfakes
US11390249B2 (en) * 2020-08-05 2022-07-19 Ford Global Technologies, Llc Vehicle vision system
CN112633495B (zh) * 2020-12-18 2023-07-18 浙江大学 一种用于小样本类增量学习的多粒度快慢学习方法
CN112819110B (zh) * 2021-04-19 2021-06-29 中国科学院自动化研究所 基于权重生成的增量式小样本目标检测方法及系统

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001009821A1 (en) 1999-07-30 2001-02-08 Litton Systems, Inc. Automatic image characterization by class correlation processing
CN1234094C (zh) * 2002-12-23 2005-12-28 北京邮电大学 基于贝叶斯分类器的文字字体判断设备及其方法
JP4606828B2 (ja) 2003-09-25 2011-01-05 富士フイルム株式会社 特定シーンの画像を選別する装置、プログラムおよびプログラムを記録した記録媒体
JP4397667B2 (ja) 2003-10-06 2010-01-13 富士フイルム株式会社 識別処理に用いる特徴量の種類と識別条件を決定する装置、プログラムならびにプログラムを記録した記録媒体、および特定内容のデータを選別する装置
JP4626418B2 (ja) * 2005-06-27 2011-02-09 トヨタ自動車株式会社 対象物検出装置、及び対象物検出方法
JP4410732B2 (ja) 2005-07-27 2010-02-03 グローリー株式会社 顔画像検出装置、顔画像検出方法および顔画像検出プログラム
CN100336070C (zh) * 2005-08-19 2007-09-05 清华大学 复杂背景图像中的鲁棒人脸检测方法
US7840061B2 (en) * 2007-02-28 2010-11-23 Mitsubishi Electric Research Laboratories, Inc. Method for adaptively boosting classifiers for object tracking
CN101325691B (zh) * 2007-06-14 2010-08-18 清华大学 融合不同生存期的多个观测模型的跟踪方法和跟踪装置

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8843424B2 (en) 2009-04-01 2014-09-23 Sony Corporation Device and method for multiclass object detection
WO2010111916A1 (zh) * 2009-04-01 2010-10-07 索尼公司 多类目标的检测装置及检测方法
CN101853389A (zh) * 2009-04-01 2010-10-06 索尼株式会社 多类目标的检测装置及检测方法
CN103914702B (zh) * 2013-01-02 2017-08-25 国际商业机器公司 用于提高视频中的对象检测性能的系统和方法
CN103914702A (zh) * 2013-01-02 2014-07-09 国际商业机器公司 用于提高视频中的对象检测性能的系统和方法
CN103258216A (zh) * 2013-05-15 2013-08-21 中国科学院自动化研究所 一种基于在线学习的局部可形变目标检测方法及其系统
CN103593672A (zh) * 2013-05-27 2014-02-19 深圳市智美达科技有限公司 Adaboost分类器在线学习方法及系统
CN104951802A (zh) * 2015-06-17 2015-09-30 中国科学院自动化研究所 一种分类器更新方法
CN105279382A (zh) * 2015-11-10 2016-01-27 成都数联易康科技有限公司 一种医疗保险异常数据在线智能检测方法
CN105279382B (zh) * 2015-11-10 2017-12-22 成都数联易康科技有限公司 一种医疗保险异常数据在线智能检测方法
CN105844286A (zh) * 2016-03-11 2016-08-10 博康智能信息技术有限公司 新增车标的识别方法和装置
CN105930808A (zh) * 2016-04-26 2016-09-07 南京信息工程大学 一种基于vector boosting模板更新的运动目标跟踪方法
CN108984628A (zh) * 2018-06-20 2018-12-11 北京达佳互联信息技术有限公司 内容描述生成模型的损失值获取方法及装置
CN109886340A (zh) * 2019-02-26 2019-06-14 山东星蓝信息科技有限公司 一种遥感影像分类方法
CN109886340B (zh) * 2019-02-26 2021-03-19 山东星蓝信息科技有限公司 一种遥感影像分类方法
CN111639688A (zh) * 2020-05-19 2020-09-08 华中科技大学 一种基于线性核svm的物联网智能模型的局部解释方法
CN114611720A (zh) * 2022-03-14 2022-06-10 北京字节跳动网络技术有限公司 联邦学习模型训练方法、电子设备及存储介质
CN114611720B (zh) * 2022-03-14 2023-08-08 抖音视界有限公司 联邦学习模型训练方法、电子设备及存储介质
CN117908369A (zh) * 2023-04-23 2024-04-19 重庆市畜牧科学院 一种基于不同温区的猪场养殖环境动态调节方法
CN117908369B (zh) * 2023-04-23 2024-07-02 重庆市畜牧科学院 一种基于不同温区的猪场养殖环境动态调节方法

Also Published As

Publication number Publication date
JP5197737B2 (ja) 2013-05-15
EP2164025A4 (en) 2014-04-16
JP2010529529A (ja) 2010-08-26
US20100202681A1 (en) 2010-08-12
CN101315670B (zh) 2010-08-11
EP2164025A1 (en) 2010-03-17
US8457391B2 (en) 2013-06-04
WO2008148343A1 (fr) 2008-12-11

Similar Documents

Publication Publication Date Title
CN101315670B (zh) 特定被摄体检测装置及其学习装置和学习方法
CN109255506B (zh) 一种基于大数据的互联网金融用户贷款逾期预测方法
CN110097755B (zh) 基于深度神经网络的高速公路交通流量状态识别方法
CN101729872B (zh) 一种基于视频监控图像自动判别道路交通状态的方法
CN101814149B (zh) 一种基于在线学习的自适应级联分类器训练方法
CN110309888A (zh) 一种基于分层多任务学习的图像分类方法与系统
CN107844865A (zh) 基于特征参数选取与lstm模型的股指预测方法
CN104850865A (zh) 一种多特征迁移学习的实时压缩跟踪方法
CN108897791B (zh) 一种基于深度卷积特征和语义相似度量的图像检索方法
WO2022062419A1 (zh) 基于非督导金字塔相似性学习的目标重识别方法及系统
CN104794496A (zh) 一种改进mRMR算法的遥感特征优选算法
CN103136534A (zh) 自适应的区域行人计数方法及装置
CN111126576A (zh) 一种深度学习的新型训练策略
CN104268507A (zh) 一种基于rgb-d图像的手语字母识别方法
CN102103691A (zh) 一种基于主成分分析人脸的识别方法
CN113837266B (zh) 一种基于特征提取和Stacking集成学习的软件缺陷预测方法
CN114936694A (zh) 一种基于双集成模型的光伏功率预测方法
CN109615002A (zh) 基于pso的决策树svm大学生消费行为评价方法
CN103440651A (zh) 一种基于秩最小化的多标签图像标注结果融合方法
Balkema et al. Music playlist generation by assimilating GMMs into SOMs
CN106127606B (zh) 一种勘探开发项目中油气指标数据的处理方法和装置
CN114529063A (zh) 一种基于机器学习的金融领域数据预测方法、设备及介质
CN113592341A (zh) 度量损失函数、扇区复杂度评估方法及系统
KR20220098423A (ko) 객체탐지모형을 적용한 주가등락 예측장치
CN112215520B (zh) 一种多目标融合通行方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C53 Correction of patent of invention or patent application
CB03 Change of inventor or designer information

Inventor after: Ai Haizhou

Inventor after: Huang Chang

Inventor after: Lao Shihong

Inventor after: Yamashita Takayoshi

Inventor before: Ai Haizhou

Inventor before: Li Yuan

Inventor before: Lao Shihong

Inventor before: Yamashita Takayoshi

COR Change of bibliographic data

Free format text: CORRECT: INVENTOR; FROM: AI HAIZHOU LI YUAN LAO SHIHONG TAKAYOSHI YAMASHITA TO: AI HAIZHOU HUANG CHANG LAO SHIHONG TAKAYOSHI YAMASHITA

C14 Grant of patent or utility model
GR01 Patent grant
CF01 Termination of patent right due to non-payment of annual fee
CF01 Termination of patent right due to non-payment of annual fee

Granted publication date: 20100811

Termination date: 20200601