CN101256629A - 用于使提升分类器适合于新样本的方法 - Google Patents

用于使提升分类器适合于新样本的方法 Download PDF

Info

Publication number
CN101256629A
CN101256629A CNA2008100828149A CN200810082814A CN101256629A CN 101256629 A CN101256629 A CN 101256629A CN A2008100828149 A CNA2008100828149 A CN A2008100828149A CN 200810082814 A CN200810082814 A CN 200810082814A CN 101256629 A CN101256629 A CN 101256629A
Authority
CN
China
Prior art keywords
sample
sorter
beta
new samples
weak classifier
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CNA2008100828149A
Other languages
English (en)
Other versions
CN101256629B (zh
Inventor
法提赫·M·波里克利
图菲·帕拉格
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Publication of CN101256629A publication Critical patent/CN101256629A/zh
Application granted granted Critical
Publication of CN101256629B publication Critical patent/CN101256629B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence

Abstract

一种用于使提升分类器适合于新样本的方法。使用初始样本对提升分类器进行训练。该提升分类器是弱分类器的组合。通过添加新样本的贡献并且删除旧样本的贡献来自适应地更新该提升分类器的各个弱分类器。

Description

用于使提升分类器适合于新样本的方法
技术领域
本发明总体上涉及机器学习,更具体地说,涉及使用提升分类器(boosted classifier)跟踪视频中的对象。
背景技术
对象跟踪在许多计算机视觉应用中使用,参见Stauffer等,“TrainingPatterns of Activity Using Real-Time Tracking”,PAMI,22(8),747-757页,2000,Avidan,“Support Vector Tracking”,IEEE Trans.Pattern Analysisand Machine Intelligence,2004;以及人机交互,Bobick等,“TheKidsRoom”,Communications of the ACM,43(3),2000。
要跟踪的对象的宽范围对于任何对象跟踪应用带来了挑战。不同的对象和特征表达(例如颜色直方图、表观模型或关键点)已经被用于对象跟踪。特征选择可使用不同特征空间的集合并且“切换”到最有判别力的特征,Collins等,“On-Line Selection of Discriminative TrackingFeatures”,Proceedings of the International Conference on Computer Vision(ICCV‘03),2003。
对象跟踪可使用Kalman滤波器、或粒子滤波器(particle filter)。时间积分方法(例如粒子滤波)在时间上对测量结果进行积分,Isard等,“CONDENSATION-Conditional Density Propagation for Visual Tracking”,International Journal ofComputer Vision,卷29(1),5-28页,1998。滤波对不同的匹配分配了概率。不幸地是,滤波器方法不影响对象的描述。
还可以使用均值位移(mean-shift)方法。均值位移是在分布梯度上进行操作以寻找峰值的模式查找处理。均值位移搜索图像中的具有与给定颜色直方图类似的颜色直方图的区域。为了提高性能,Comanciu等使用了空间平滑,Comanciu等,“Kernel-Based Object Tracking”,IEEE Trans.PatternAnalysis and Machine Intelligence,(PAMI),25:5,564-575页。此外,在对象外部出现的颜色被用于使在对象上出现的颜色‘权重降低(down-weight)’。
简单对象跟踪在视频的一序列帧中寻找与对象匹配的区域。在机器学习方面,这等效于最近邻居分类。简单的方法忽略了背景的作用。因此,对象分类器可用于对象跟踪,参见Shai Avidan,“Ensemble tracking”,IEEE Conference on Computer Vision and Pattern Recognition,494-501页,2005,Helmut Grabner和Horst Bischof,“On-line boosting and vision”,IEEEConference on Computer Vision and Pattern Recognition,260-267页,2006,以及Avidan在2005年1月24日提交的美国专利申请20060165258,“Tracking objects in videos with adaptive classifiers”。
基于分类器的方法对二值分类器(binary classifier)进行‘训练’,以在场景中从背景中辨别感兴趣的对象。接着,将该分类器应用于图像序列,以定位并跟踪对象的位置。通常,强分类器组合了一组弱分类器。该组合可以是线性或非线性的。例如,已知的AdaBoost处理针对越来越‘困难’的训练数据对一组弱分类器中的每一个分类器进行训练。然后,组合这些弱分类器以产生比任一单独的弱分类器更好的强分类器,Freund等,“A decision-theoretic generalization of on-line training and an applicationto boosting”,Computational Training Theory,Eurocolt’95,23-37页,1995,在此通过引用将其并入。
基于分类器的方法的一个问题是,当连续正确地跟踪对象时要使分类器适合于场景随时间的变化。应当注意,背景和对象的外观都会随时间变化。例如,物品(item)可随时间在场景中出现或消失,并且对于许多场景,尤其是户外场景,入射光和阴影随时间和空间而改变。
传统的基于分类器的方法通过随时间添加和删除弱分类器来更新强分类器,以处理场景的变化。Avidan的整体跟踪(ensemble tracking)不试图更新弱分类器本身。而是删除‘老’的弱分类器并且添加‘新’的弱分类器。Grabner等的在线提升方法通过高斯分布对特征密度进行建模。它们使用Kalman滤波方法在每一个帧更新它们的参数。Grabner等的方法还删除任何产生大于预定阈值(例如0.5或50%)的错误的弱分类器。这消除了以后可有效使用被删除的弱分类器的可能性。
即使高斯分布足以对特征密度进行建模(可能不总是这种情况),如果期望更高维数的分类器,则更新机制很快变得复杂并且缓慢。
发明内容
本发明的实施方式提供了一种用于当分类数据样本时自适应地提升分类器的方法。该分类器可用于跟踪视频中的对象。在该应用中,分类的样本是前景和背景像素,并且该方法将对象跟踪作为二值分类问题进行处理。训练一组弱分类器以辨别从场景获得的视频的一序列帧中的对象和背景。当处理视频时进行训练。即,本发明自适应地实时工作,并且可适合于场景和光的变化。
对每个帧中的每个像素构造特征向量。该特征向量用于训练弱分类器。这些弱分类器将与对象相关联的单独像素从与背景相关联的像素分类出来。该组弱分类器被组合成强分类器。
本发明的一个实施方式提供了在线提升(on-line boosting)。在根据本发明的在线提升中,根据输入样本随时间对弱分类器进行调整,以考虑场景变化。在现有技术中,只要弱分类器的错误率超过预定阈值,则通常删除全部弱分类器。
附图说明
图1是根据本发明实施方式的使用强线性分类器来跟踪对象的方法的框图;
图2是根据本发明实施方式的用于在线提升和弱学习的伪代码;
图3是根据本发明实施方式的初始样本和初始弱分类器的图;
图4A-4F是图3的分类器随时间更新的图;以及
图5A和5B是弱分类器的错误率随时间的条形图。
具体实施方式
本发明提供了一种用于自适应地更新提升分类器的方法,该提升分类器是弱分类器的组合。使用初始样本对该提升分类器进行训练。根据新样本和旧样本来更新累加(accumulation)矩阵。使用新样本来更新弱分类器,并且从弱分类器中删除旧样本的贡献(contribution),以调整该提升分类器。
该分类器可用于跟踪通过摄像机从场景获取的视频的一序列帧(图像)中的对象。本发明允许变化的场景和移动的摄像机。本发明将对象跟踪作为二值分类问题进行处理,在该问题中对象处于‘前景’中并且场景的剩余部分是‘背景’。对于每一个帧更新一组弱分类器。这些弱分类器被组合为强分类器。强分类器从背景识别对象,并且使得能够进行对象跟踪。
本发明没有显式地表示对象。而是,一组分类器确定特定像素是否与对象相关联,或与背景相关联。针对正训练样本和负训练样本对每一个弱分类器进行训练。正样本与对象相关联,而负样本与背景相关联。
如图1中所示,我们的发明的实施方式提供了一种用于跟踪一序列帧(视频)101中的对象的方法。将从场景获取的视频101的一个或更多个初始图像102中的样本(像素)用于训练110一组弱分类器111-112。例如,使用了八个分类器。然而,该数量可以根据应用和分类任务的难易来改变。
对于一个示例的面部跟踪应用,该训练使用从‘面部’像素提取的特征作为正样本(+1),而使用从‘背景’或非面部像素提取的特征作为负样本(-1)。
对于当前帧中的各个像素,我们提取表征了该像素附近的局部边缘和纹理(texture)信息的d维特征向量。例如,该特征向量是11维的。该特征向量例如是基于亮度(intensity)梯度的八柄(bin)局部方向直方图与三种像素颜色(RGB)的组合。在以该像素为中心的5×5窗口上确定该8柄局部方向直方图。在图像上逐像素地扫描该窗口,以获得特征向量。
为了提高性能,仅对高于某些预定阈值(例如10个亮度值)的边缘进行计数。这些特征易于提取并且为对象检测传递了足够的边缘信息。特征向量是在像素的局部邻居中的定向边缘的计数。例如,给定像素的特征向量可以表示在像素附近有三个水平边缘、两个垂直边缘,并且没有对角边缘。
该表示有多个优点。首先,该表示对于照明变化不敏感,因为特征向量不依赖于边缘的长度,仅依赖于边缘高于某些阈值(例如10个亮度值)。第二,特征向量给出了对于小图像平面变换不变化的像素的局部描述。
实际上,该特征向量是包括像素的RGB值以及5×5窗口中的定向边缘的数量的直方图的11维向量。即,对窗口中的高于阈值的所有边缘进行定位和计数,并且根据边缘的方向和计数将它们群集到柄中。
还可以使用其它特征,例如从滤波器库(bank)获得的那些特征。可使用其它分类器(例如stump分类器(stump),即单个节点判定树或感知器),而不是基于最小二乘法的分类器。在优选实施方式中,对于所有分类器使用相同特征。然而,其它技术(例如合并各种提示(cue))可以改善该跟踪。
这些弱分类器被组合120为强分类器300。来自后续帧103的新样本被用于以在线和动态的方式更新130弱分类器,以考虑场景中的变化。同时,删除不再表示场景并因此不可靠的旧样本。经更新的提升分类器随后可用于跟踪140对象141。
在更新步骤130中,如果弱分类器的错误率小于预定阈值,例如0.5,则保留它们。在现有技术中,当弱分类器不再有用时简单地丢弃它们。相反,我们使弱分类器适合于场景变化,直到弱分类器不再有用为止。这简化了分类器的训练,尤其在使用高维度的弱分类器时。
我们的对象跟踪的基本思想是,当为了对象跟踪140而获取并处理视频101的帧103中的新样本时,以在线方式增量地和动态地调整该提升分类器。这与传统的批量训练相反,在传统的批量训练中,在为了对象跟踪而对视频进行处理之前,根据视频构造分类器。
只要弱分类器111-112有用,我们就更新130这些分类器以适合于场景变化。我们提供在计算上高效处理方式,以通过‘记住’旧样本的方式适合于新样本。
自适应线性回归量
矩阵X包括N个样本的集合,例如特征向量x。这些样本的对应分类标签存储在向量y∈{-1,1}N中。这些标签表示样本的二值分类。为解决线性关系
X β ~ = y - - - ( 1 )
通过加权最小二乘法,我们使错误函数最小化
( y - X β ~ ) T W ( y - X β ~ )
其中,T是转置运算符,W是根据样本的权重向量w构造的对角矩阵。使错误最小化的线性系数
Figure A20081008281400093
由下式给出
β ~ = ( X T WX ) - 1 X T Wy
其表示提升分类器中使用的样本的概率分布。在我们的方法中我们为什么使用加权回归量在下面将变得清楚。
考虑方程(1)中的线性关系中的截距(intercept)。我们可通过分解以下分量来重写该解:
β = β ~ β 0 T = X 1 T W X 1 - 1 X 1 T Wy
= X T WX X T W 1 1 T WX 1 T W 1 - 1 X T Wy 1 T Wy - - - ( 2 )
矩阵 X + ∈ R N + × L 包含新样本,且向量y+1包含新样本的分类标签。可以示出,经组合的旧样本和新样本的新线性系数β,即[X X+]T,可通过添加仅与新样本相关的量来确定。
β = X T WX + X + T W + X + X T W 1 + X + T W + 1 + 1 T WX + 1 + T W + X + 1 T W 1 + 1 + T W + 1 + - 1 X T Wy + X + T W + y + 1 T Wy + 1 + T W + y + - - - ( 3 )
注意,为了对到目前为止进行了处理的所有样本确定系数β,每次对样本进行处理时,我们仅确定与新样本相关的量。
包含新样本的贡献的后向累积矩阵是
X + T W + X + X + T W + 1 1 T W + X + 1 T W + 1 - 1 X + T W + y + 1 T W + y + .
添加到旧矩阵的(向量的)新矩阵的大小是L×L(L),其通常较小。因此,存储要求较低。
在每一个新样本到达时,该线性关系适合于场景变化,同时保留以前的特性。这里,将该现象描述为线性回归,以‘记住’旧样本(X-)。如方程(4)中所示,我们还可通过减去类似的矩阵来‘忘记’某些特性。
β = X T WX - X - M T W - M X - M X T W 1 - X - M T W - M 1 - M 1 T WX - 1 - M T W - M X - M 1 T W 1 - 1 - M T W - M 1 - M - 1 X T Wy - X - M T W - M y - M 1 T Wy - 1 - M T W - M y - M - - - ( 4 )
我们保留旧样本的持续时间,即‘记住’M的持续时间确定了对场景中的变化的灵敏度。
包含旧样本的贡献的前向累积矩阵是
X - M T W - M X - M X - M T W - M 1 1 T W - M X - M 1 T W - M 1 - 1 X - M T W - M y - M 1 T W - M y - M .
我们可使用如针对GentleBoost描述的形式为g:RL→R的线性回归量,参见Jerome Friedman,Trevor Hastie和Robert Tibshirani,“Additivelogistic regression:a statistical view of boosting”,The Annals of Statistics,38(2):337-374,2000年4月,在此通过引用将其并入。另选的是,对于离散AdaBoost处理可以使用阈值版本h:RL→{-1,1}。
初始地,我们使用针对初始的样本集合(例如,从视频101中的一个或少量帧102提取的样本)的离散AdaBoost,来训练110该T弱分类器111-112。这通过首先确定线性关系,并随后将响应Xβ的阈值限定为0来完成。对于来自新帧的新样本,根据方程(3)更新这些弱分类器中的每一个。然后,在每一轮提升中,我们选择具有最小加权分类错误的最佳弱分类器并相应地更新与最佳弱分类器相关联的样本的权重。为了仅考虑M个以前样本的贡献,我们保持方程(3)中表示的量的先进先出队列,并且通过减法删除这些量。
图2总结了在线提升步骤201,其使用了弱学习过程202。
在线提升
对于每一个新的样本集合X+,即每一个新帧:
1.使用相同的分布加权向量w和t=1开始。
2.对于每一个帧(新样本的集合),重复
(a)训练弱分类器-WeakTrain(W)(弱训练(W))
(b)选择具有最小加权分类错误的弱分类器h
-ht(x)=arg min1≤j≤Jiwi|yi-hj(xi)|。
(c)更新并归一化加权向量w。
(d)根据方程(4)删除与X-M相关的旧样本。
WeakTrain(W)(弱训练(W))
1.确定X+的新量。(什么量)
2.根据方程(3)训练线性系数β。
图3示出了对于示例数据集的我们的更新处理。我们生成了样本的二维数据集。垂直和水平轴表示在生成样本的二维空间中的不同维度。十字101和圆102表示两种不同类别的样本,例如对象或非对象。根据2D高斯分布生成这些样本。线111-112表示将样本分离为二值类别的弱分类器。
在t=1(帧1)处的开始的强提升分类器300是根据初始数据集102进行了训练的弱二值分类器111-112的线性组合1209。如上所述通过回归量使这些线‘适合(fit)’。
如图4A-4F所示,将新样本增量地添加到数据集,并相应地为t2,...,t7更新弱分类器。随时间而删除‘旧’样本。在图4A-4F中,注意,由于在添加新样本并删除旧样本时自适应地更新弱分类器,而不是如现有技术中那样替换全部弱分类器,所以线的方向逐渐地偏移。这更好地适于在缓慢演变的场景中跟踪对象。
图5A和5B示出了八个弱分类器随时间的错误率,例如分别为帧t1,...,10和t31,...,40。图5A的第一行示出了各个分类器产生的错误,表示为对第一帧中的面部进行分类的各列。如果错误≥0.5,则不将该弱分类器组合到强分类器中。但是,不删除它。注意帧1到5和帧9、10中的线性分类器7的错误特性。尽管初始的较差性能,但是在后面的帧中由于我们的调整而使得相同的线性分类器变得非常有用。这里应当指出,对样本的提升权重在确定线性分类器的错误时起重要作用。使用更‘困难’的示例来训练分类器7以导致大的错误是很可能的情况。此后,可能由于场景中的变化,分类器7很好地分离了某些新样本。因此,如在现有技术中所进行的删除具有高错误率的分类器可能是不利的。
尽管已经通过优选实施方式的示例描述了本发明,但是应该理解,可以在本发明的精神和范围内进行各种其它调整和修改。因此,所附权利要求的目的是覆盖落入本发明的真实精神和范围内的所有这种变化和修改。

Claims (14)

1、一种使提升分类器适合于新样本的方法,该方法包括以下步骤:
使用初始样本对提升分类器进行训练,其中所述提升分类器是弱分类器的组合;以及
通过添加新样本的贡献并删除旧样本的贡献,自适应地更新所述提升分类器的各个弱分类器。
2、根据权利要求1所述的方法,其中,所述样本与从场景获取的视频的帧中的前景像素和背景像素相对应,并且所述方法还包括:
跟踪与所述视频中的前景像素相对应的对象。
3、根据权利要求2所述的方法,其中,所述场景和所述对象随时间变化。
4、根据权利要求1所述的方法,其中,所述提升分类器中的弱分类器的数量随时间变化。
5、根据权利要求2所述的方法,其中,通过多维特征向量来表示各个像素。
6、根据权利要求5所述的方法,其中,所述特征向量对视频中的边缘和纹理信息进行编码。
7、根据权利要求1所述的方法,其中,只要特定的弱分类器的错误率小于预定阈值,就保留该弱分类器。
8、根据权利要求1所述的方法,其中,矩阵X包括N个样本,每一个样本是一个特征向量x,并且这些样本的对应标签存储在向量y∈{-1,1}N中,其中,所述标签表示所述样本的二值分类,并且通过加权最小二乘法求解线性关系 X β ~ = y , 这最小化了错误函数
( y - X β ~ ) T W ( y - X β ~ ) ,
其中,T是转置运算符,W是根据样本的权重向量w构造的对角矩阵,并且使错误最小化的线性系数
Figure A20081008281400023
由下式给出
β ~ = ( X T WX ) - 1 X T Wy ,
其表示由所述提升分类器使用的样本的概率分布。
9、根据权利要求8所述的方法,其中,通过使用以下公式
β = X T WX + X + T W + X + X T W 1 + X + T W + 1 + 1 T WX + 1 + T W + X + 1 T W 1 + 1 + T W + 1 + - 1 X T Wy + X + T W + y + 1 T Wy + 1 + T W + y +
添加仅与新样本相关的新量,使用新样本 X + ∈ R N + × L 和对应标签y+1来确定组合数据的线性系数
β = β ~ β 0 T = X 1 T W X 1 - 1 X 1 T Wy .
10、根据权利要求8所述的方法,其中,通过如下减去旧样本的权重来去除它们的贡献
β = X T WX - X - M T W - M X - M X T W 1 - X - M T W - M 1 - M 1 T WX - 1 - M T W - M X - M 1 T W 1 - 1 - M T W - M 1 - M - 1 X T Wy - X - M T W - M y - M 1 T Wy - 1 - M T W - M y - M .
11、根据权利要求3所述的方法,其中,保留旧样本的持续时间确定了所述提升分类器对于场景和对象中的变化的灵敏度。
12、根据权利要求2所述的方法,其中,每一个帧都导致新样本,并且对于每一个帧,所述方法还包括:
选择具有最小加权分类错误的最佳弱分类器;以及
相应地更新与所述最佳弱分类器相关联的新样本和旧样本的权重。
13、根据权利要求1所述的方法,其中,通过使用Gentle-boost更新函数的线性回归量使所述提升分类器适合于新样本。
14、根据权利要求1所述的方法,其中,通过使用离散Adaboost更新函数的线性回归量使所述提升分类器适合于新样本。
CN200810082814.9A 2007-02-28 2008-02-28 用于使提升分类器适合于新样本的方法 Active CN101256629B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/679,940 2007-02-28
US11/679,940 US7840061B2 (en) 2007-02-28 2007-02-28 Method for adaptively boosting classifiers for object tracking

Publications (2)

Publication Number Publication Date
CN101256629A true CN101256629A (zh) 2008-09-03
CN101256629B CN101256629B (zh) 2012-12-19

Family

ID=39434364

Family Applications (1)

Application Number Title Priority Date Filing Date
CN200810082814.9A Active CN101256629B (zh) 2007-02-28 2008-02-28 用于使提升分类器适合于新样本的方法

Country Status (4)

Country Link
US (1) US7840061B2 (zh)
EP (1) EP1968013A3 (zh)
JP (1) JP5036580B2 (zh)
CN (1) CN101256629B (zh)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101814147A (zh) * 2010-04-12 2010-08-25 中国科学院自动化研究所 一种实现场景图像的分类方法
CN103294716A (zh) * 2012-02-29 2013-09-11 佳能株式会社 用于分类器的在线半监督学习方法和装置及处理设备
CN101685501B (zh) * 2008-09-22 2013-11-06 三星电子株式会社 利用联合检测器进行物体检测的方法
CN106327527A (zh) * 2016-08-11 2017-01-11 电子科技大学 一种基于Online Boosting的目标精细轮廓跟踪方法
CN106413565A (zh) * 2013-12-20 2017-02-15 皇家飞利浦有限公司 自动超声波束操纵和探针伪影抑制

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8086046B2 (en) * 2005-06-27 2011-12-27 Pioneer Corporation Image analysis device and image analysis method
CN101315670B (zh) * 2007-06-01 2010-08-11 清华大学 特定被摄体检测装置及其学习装置和学习方法
JP2011013732A (ja) * 2009-06-30 2011-01-20 Sony Corp 情報処理装置、情報処理方法、およびプログラム
US8170332B2 (en) * 2009-10-07 2012-05-01 Seiko Epson Corporation Automatic red-eye object classification in digital images using a boosting-based framework
US8600108B2 (en) * 2010-01-25 2013-12-03 Hewlett-Packard Development Compant, L.P. Data processing system and method
US10224036B2 (en) * 2010-10-05 2019-03-05 Infraware, Inc. Automated identification of verbal records using boosted classifiers to improve a textual transcript
CN102054170B (zh) * 2011-01-19 2013-07-31 中国科学院自动化研究所 基于极小化上界误差的视觉跟踪方法
CA2827122A1 (en) 2011-02-11 2012-08-16 Arizona Board Of Regents For And On Behalf Of Arizona State University Methods, systems, and media for determining carotid intima-media thickness
WO2012109670A1 (en) 2011-02-11 2012-08-16 Arizona Board Of Regents, For And On Behalf Of, Arizona State University Systems, methods, and media for detecting an anatomical object in a medical device image
JP5719230B2 (ja) * 2011-05-10 2015-05-13 キヤノン株式会社 物体認識装置、物体認識装置の制御方法、およびプログラム
US8948522B2 (en) 2011-08-04 2015-02-03 Seiko Epson Corporation Adaptive threshold for object detection
JP5848551B2 (ja) * 2011-08-26 2016-01-27 キヤノン株式会社 学習装置、学習装置の制御方法、検出装置、検出装置の制御方法、およびプログラム
US9330336B2 (en) * 2011-09-16 2016-05-03 Arizona Board of Regents, a body corporate of the State of Arizona, acting for and on behalf of, Arizona State University Systems, methods, and media for on-line boosting of a classifier
WO2013116865A1 (en) * 2012-02-02 2013-08-08 Arizona Board Of Regents, For And On Behalf Of, Arizona State University Systems, methods, and media for updating a classifier
US9603554B2 (en) 2012-02-03 2017-03-28 The Arizona Board Of Regents Systems, methods, and media for monitoring the condition of a patient's heart
US9141196B2 (en) * 2012-04-16 2015-09-22 Qualcomm Incorporated Robust and efficient learning object tracker
US9449381B2 (en) 2012-09-10 2016-09-20 Arizona Board Of Regents, A Body Corporate Of The State Of Arizona, Acting For And On Behalf Of Arizona State University Methods, systems, and media for generating and analyzing medical images having elongated structures
CN103310466B (zh) * 2013-06-28 2016-02-17 安科智慧城市技术(中国)有限公司 一种单目标跟踪方法及其实现装置
US9157855B2 (en) 2013-09-06 2015-10-13 Canon Kabushiki Kaisha Material classification
US9514364B2 (en) 2014-05-29 2016-12-06 Qualcomm Incorporated Efficient forest sensing based eye tracking
US10157467B2 (en) 2015-08-07 2018-12-18 Arizona Board Of Regents On Behalf Of Arizona State University System and method for detecting central pulmonary embolism in CT pulmonary angiography images
CN106780544B (zh) * 2015-11-18 2019-11-22 深圳力维智联技术有限公司 图像前景提取的方法和装置
US10657424B2 (en) * 2016-12-07 2020-05-19 Samsung Electronics Co., Ltd. Target detection method and apparatus
US10747989B2 (en) * 2018-08-21 2020-08-18 Software Ag Systems and/or methods for accelerating facial feature vector matching with supervised machine learning
JP7285536B2 (ja) * 2018-12-28 2023-06-02 国立大学法人佐賀大学 分類器生成装置、対象者推定装置及びそれらのプログラム、並びに対象者推定システム

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4517409B2 (ja) * 1998-11-09 2010-08-04 ソニー株式会社 データ処理装置およびデータ処理方法
US7024033B2 (en) * 2001-12-08 2006-04-04 Microsoft Corp. Method for boosting the performance of machine-learning classifiers
US7203669B2 (en) * 2003-03-17 2007-04-10 Intel Corporation Detector tree of boosted classifiers for real-time object detection and tracking
TW200539046A (en) * 2004-02-02 2005-12-01 Koninkl Philips Electronics Nv Continuous face recognition with online learning
US7606425B2 (en) * 2004-09-09 2009-10-20 Honeywell International Inc. Unsupervised learning of events in a video sequence
US7526101B2 (en) * 2005-01-24 2009-04-28 Mitsubishi Electric Research Laboratories, Inc. Tracking objects in videos with adaptive classifiers
US7668790B2 (en) * 2006-07-27 2010-02-23 The United States Of America As Represented By The Secretary Of The Navy System and method for fusing data from different information sources with shared-sampling distribution based boosting

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101685501B (zh) * 2008-09-22 2013-11-06 三星电子株式会社 利用联合检测器进行物体检测的方法
CN101814147A (zh) * 2010-04-12 2010-08-25 中国科学院自动化研究所 一种实现场景图像的分类方法
CN101814147B (zh) * 2010-04-12 2012-04-25 中国科学院自动化研究所 一种实现场景图像的分类方法
CN103294716A (zh) * 2012-02-29 2013-09-11 佳能株式会社 用于分类器的在线半监督学习方法和装置及处理设备
CN103294716B (zh) * 2012-02-29 2016-08-10 佳能株式会社 用于分类器的在线半监督学习方法和装置及处理设备
CN106413565A (zh) * 2013-12-20 2017-02-15 皇家飞利浦有限公司 自动超声波束操纵和探针伪影抑制
CN106413565B (zh) * 2013-12-20 2019-12-17 皇家飞利浦有限公司 自动超声波束操纵和探针伪影抑制
CN106327527A (zh) * 2016-08-11 2017-01-11 电子科技大学 一种基于Online Boosting的目标精细轮廓跟踪方法
CN106327527B (zh) * 2016-08-11 2019-05-14 电子科技大学 基于Online Boosting的目标轮廓跟踪方法

Also Published As

Publication number Publication date
EP1968013A2 (en) 2008-09-10
US20080205750A1 (en) 2008-08-28
EP1968013A3 (en) 2010-12-01
EP1968013A8 (en) 2008-11-05
JP2008217768A (ja) 2008-09-18
US7840061B2 (en) 2010-11-23
JP5036580B2 (ja) 2012-09-26
CN101256629B (zh) 2012-12-19

Similar Documents

Publication Publication Date Title
CN101256629B (zh) 用于使提升分类器适合于新样本的方法
Xu et al. Learning-based shadow recognition and removal from monochromatic natural images
Zhu et al. Learning to recognize shadows in monochromatic natural images
US10198657B2 (en) All-weather thermal-image pedestrian detection method
US20230289979A1 (en) A method for video moving object detection based on relative statistical characteristics of image pixels
CN102332092B (zh) 一种基于视频分析的火焰检测方法
Hong et al. Tracking using multilevel quantizations
CN107292298A (zh) 基于卷积神经网络和分类器模型的牛脸识别方法
US20060165258A1 (en) Tracking objects in videos with adaptive classifiers
CN108090406B (zh) 人脸识别方法及系统
CN103049763A (zh) 一种基于上下文约束的目标识别方法
CN103679187B (zh) 图像识别方法和系统
CN109685045A (zh) 一种运动目标视频跟踪方法及系统
CN110728694B (zh) 一种基于持续学习的长时视觉目标跟踪方法
Lv et al. A visual identification method for the apple growth forms in the orchard
Miguel et al. Finding areas of motion in camera trap images
CN110807367A (zh) 一种动态识别运动中人员号码的方法
Vigneshl et al. Local binary pattern texture feature for satellite imagery classification
CN107292268A (zh) 快速脊波反卷积结构学习模型的sar图像语义分割方法
Zhong et al. Background subtraction driven seeds selection for moving objects segmentation and matting
CN110046601B (zh) 针对十字路口场景的行人检测方法
Campbell et al. Automatic Interpretation of Outdoor Scenes.
Mullen et al. Artificial ants to extract leaf outlines and primary venation patterns
Spoorthy et al. Performance analysis of bird counting techniques using digital photograph
Do et al. A new framework for crowded scene counting based on weighted sum of regressors and human classifier

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
C14 Grant of patent or utility model
GR01 Patent grant