CN103324907A - 一种用于人体重现检测的人体表观模型的学习方法及系统 - Google Patents
一种用于人体重现检测的人体表观模型的学习方法及系统 Download PDFInfo
- Publication number
- CN103324907A CN103324907A CN2012100780682A CN201210078068A CN103324907A CN 103324907 A CN103324907 A CN 103324907A CN 2012100780682 A CN2012100780682 A CN 2012100780682A CN 201210078068 A CN201210078068 A CN 201210078068A CN 103324907 A CN103324907 A CN 103324907A
- Authority
- CN
- China
- Prior art keywords
- human body
- model
- apparent
- apparent model
- detects
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
本发明公开一种用于人体重现检测的人体表观模型的学习方法和系统,所述方法包括如下步骤:步骤1,在视频帧的检测窗口中提取人体表观特征,建立人体表观描述子;步骤2,基于时空约束信息提取正例和反例人体表观描述子,用于训练人体表观模型。
Description
技术领域
本发明属于模式识别和计算机视觉领域,特别是一种用于人体重现检测的人体表观模型的学习系统及方法。
背景技术
所谓人体重现检测,就是给定一个人某一时刻在一个摄像机下的图像帧(带有该人的人体检测窗口),寻找所有其他时刻在当前摄像机或其他摄像机下该人出现过的图像帧/序列。人体重现检测可以通过提取当前观察人体的表观模型,以模型比对的方式从其它时刻在相同或不同摄像机捕获的图像帧中寻找能够很好的匹配该表观模型的人来完成。由于人体重现检测系统通常面临着人体姿态、视角、光照等多种因素变化的影响,以及多人遮挡、饰物佩戴(如帽子、背包)等众多实际问题,因此如何建立一个鲁棒的人体表观模型,是人体重现系统中的重要步骤。
其中,特征提取和分类器的设计是表观建模的两个核心问题。传统的人体特征提取方法主要有,全局颜色直方图、最大颜色稳定区域特征、梯度直方图、和Bag-of-words等,且均属于底层语义特征表示方法。通常,同一个人体在不同视角下的表观特征会有所不同,例如当一个人携带背包时,正面和背面会有较大的差异。而底层特征表示受视角影响很大,不同视角下人体的颜色、梯度等分布通常差异极大,因此直接通过计算特征之间的相似度来判断几个人体检测结果是否是同一个人通常都不准确。基于此,提取更加鲁棒高层语义特征,如背包、帽子、人体性别等属性特称成为特征提取的一个重要的解决方案。
在分类器设计方面,出于系统实际应用需要,需要动态的记录和更新场景中活动的人体,分类器的学习应该是一个在线学习的过程。传统的方法通常找一些背景部分作为反例样本,这使得学习到的表观模型在区分不同人体方面,能力较弱。根据人体表观模型的差异,设计有效的策略来在线选择正例和反例训练样本,是提高在线学习分类器在每一个时刻分类准确度的关键因素。由于视频数据具有显著的时空特性,于是,本发明通过挖掘时空限制建立更有效的正反例数据提取方法来提高分类器的效率。
发明内容
为解决上述问题,本发明提供了一种用于人体重现检测的人体表观模型的学习方法及系统,由于,通常同一个人体在不同视角下的表观特征会有所不同,例如当一个人携带背包时,正面和背面会有较大的差异。而底层特征表示受视角影响很大,不同视角下人体的颜色、梯度等分布通常差异极大,因此直接通过计算特征之间的相似度来判断几个人体检测结果是否是同一个人通常都不准确。基于此,提取在视角和光照等环境因素变化下具有不变性的,并具有语义含义的特征,如背包、帽子、人体性别等属性特称成为特征提取的一个重要的解决方案。
传统的人体重现方法通常找一些背景部分作为反例样本,这使得学习到的表观模型在区分不同人体方面,能力较弱。根据人体表观模型的差异,设计有效的策略来在线选择正例和反例训练样本,是提高在线学习分类器在每一个时刻分类准确度的关键因素。由于视频数据具有显著的时空特性,于是,本发明通过挖掘时空限制建立更有效的正反例数据提取方法来提高分类器的效率。所述分类器是一个统计模型,输入为提取的人体表示数据(及特征),输出是其对应的类别标签。
本发明公开一种用于人体重现检测的人体表观模型的学习方法,包括如下步骤:
步骤1,在视频帧的检测窗口中提取人体表观特征,建立人体表观描述子;
步骤2,基于时空约束信息提取正例和反例人体表观描述子,用于训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习方法,步骤2中还包括:
以同时在线的人体的人体表观模型的更新和/或以在线和离线人体的人体表观模型的更新。
所述的用于人体重现检测的人体表观模型的学习方法,所述步骤2时空约束信息还包括:
步骤31,以所述检测窗口内的人体表观特征作为正例;
步骤32,从所述检测窗口之外位置的窗口中提取人体表观特征作为反例,训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习方法,所述同时在线的人体表观模型的更新,还包括:
步骤41,同时出现在视频帧中的人体表观特征,互为其对应的人体表观模型的反例训练数据;
所述的在线和离线的人体表观模型的更新,还包括:
步骤42,当前活跃人体表观模型对应的人体表观特征作为用于更新非活跃人体表观模型的反例训练数据。
所述的用于人体重现检测的人体表观模型的学习方法,所述步骤1还包括:
步骤51,增加人体属性信息作为人体表观特征的一部分;
步骤52,将通过视频帧识别的人体属性信息与人体的形状、颜色特征连接生成完整的人体表观特征。
所述的用于人体重现检测的人体表观模型的学习方法,所述步骤1还包括:
步骤61,对于人体属性信息的提取采用自举学习分类器算法,使用梯度直方图和颜色直方图作为人体属性特征;
步骤62,对于某个属性,当人体属性特征被自举分类器分为正例时,该人体属性维度值置为‘1’,否则,置为‘0’。
本发明公开一种用于人体重现检测的人体表观模型的学习系统,包括:
特征提取模块,用于在视频帧的检测窗口中提取人体表观特征,建立人体表观描述子;
模型学习模块,用于基于时空约束信息提取正例和反例人体表观描述子,用于训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习系统,模型学习模块中还包括:
以同时在线的人体的人体表观模型的更新和/或以在线和离线人体的人体表观模型的更新。
所述的用于人体重现检测的人体表观模型的学习系统,所述模型学习模块还包括:
正例模块,用于以所述提取的人体表观特征作为正例;
反例模块,用于从所述检测窗口之外位置的窗口中提取人体表观特征作为反例,训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习系统,所述同时在线的人体表观模型的更新,还包括:
同时出现在视频帧中的人体表观特征,互为其对应的人体表观模型的反例训练数据;
所述的在线与离线的人体表观模型的更新,还包括:
当前活跃人体表观模型对应的人体表观特征作为用于更新非活跃人体表观模型的反例训练数据。
所述的用于人体重现检测的人体表观模型的学习系统,所述模型学习模块还包括:
增加信息模块,用于增加人体属性信息作为人体表观特征的一部分;
生成特征模块,用于将通过视频帧识别的人体属性信息与人体的形状、颜色特征连接生成完整的人体表观特征。
所述的用于人体重现检测的人体表观模型的学习系统,所述模型学习模块还包括:
信息提取模块,用于对于人体属性信息的提取采用自举学习分类器算法,使用梯度直方图和颜色直方图作为人体属性特征;
属性计算模块,用于当被匹配人体表观特征和匹配人体表观特征的该人体属性标签一致时,该人体属性维度值置为‘1’,否则,置为‘0’。
技术效果:使用人体属性作为表观特征,使得表观特征具有关照、视角等环境因素影响不变的性质,在实际应用中,鲁棒性很强。
技术效果:增加表观模型学习时的训练样本数量,同时,由于重现检测的错误主要来源是人的误检,利用一些约束来增加人体训练样本的数量,极大的提高了重现检测的正确率。
针对人体重现检测中面临的视角变化等多种实际问题,本发明提出了人体重现系统下的人体表观模型的更新策略。主要包括两方面内容:基于属性特征的人体表观模型和时空限制下的正反例提取方法。其中,属性特征属于高层语义特征,与底层特征相比,更加鲁棒,因此大大提高了复杂场景变化下识别的精确度。本发明还进一步的提出了利用视频的时空限制,增强在线学习分类器样本选择的可区分性和灵活性,广泛的适用于各种在线的视频分析任务。因为同时考虑了表观模型在特征提取和分类器学习中的不同作用,使用人体表观模型更新策略对人体重现系统特别有效。
附图说明
图1A为本发明用于人体重现检测的人体表观模型学习的具体实施方式同一帧视频内的活跃分类器的互斥性示意图;
图1B为本发明用于人体重现检测的人体表观模型学习的具体实施方式活跃分类器的正例作为正例继续更新不活跃分类器;
图2为本发明用于人体重现检测的人体表观模型的学习方法流程图;
图3为本发明用于人体重现检测的人体表观模型的学习系统流程图。
具体实施方式
下面给出本发明的具体实施方式,结合附图对本发明做出了详细描述。
如图2所示,一种用于人体重现检测的人体表观模型的学习方法,包括如下步骤:
步骤1,在视频帧的检测窗口中提取人体表观特征,建立人体表观描述子;描述子就是表示特征向量的意思,通常是以实数向量的形式表示,
步骤2,基于时空约束信息提取正例和反例人体表观描述子,用于训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习方法,步骤2中还包括:
以同时在线的人体的人体表观模型的更新和/或以在线和离线人体的人体表观模型的更新。
所述的用于人体重现检测的人体表观模型的学习方法,所述步骤2时空约束信息还包括:
步骤31,以所述检测窗口内的人体表观特征作为正例;
步骤32,从所述检测窗口之外位置的窗口中提取人体表观特征作为反例,训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习方法,所述同时在线的人体表观模型的更新,还包括:
步骤41,同时出现在视频帧中的人体表观特征,互为其对应的人体表观模型的反例训练数据;
所述的在线和离线的人体表观模型的更新,还包括:
步骤42,当前活跃人体表观模型对应的人体表观特征作为用于更新非活跃人体表观模型的反例训练数据。
所述的用于人体重现检测的人体表观模型的学习方法,所述步骤1还包括:
步骤51,增加人体属性信息作为人体表观特征的一部分;
步骤52,将通过视频帧识别的人体属性信息与人体的形状、颜色特征连接生成完整的人体表观特征。
所述的用于人体重现检测的人体表观模型的学习方法,所述步骤1还包括:
步骤61,对于人体属性信息的提取采用自举学习分类器算法,使用梯度直方图和颜色直方图作为人体属性特征;
步骤62,对于某个属性,当人体属性特征被自举分类器分为正例时,该人体属性维度值置为‘1’,否则,置为‘0’。
本发明提出用如下步骤来建立用于人体重现检测系统的人体表观模型:首先,从给定的人体检测结果(以图像帧中的检测窗口的方式呈现)中提取人体表观特征;然后,以该特征作为正例,从该检测窗口之外的位置上的窗口(大小与给定的窗口相同或不同)中提取表观特征作为反例训练人体表观分类模型。这个分类模型就是该给定人体检测结果对应的表观模型。
依据上面的流程,本发明关注于人体表观模型的设计和学习方法,具体来说,其包含以下两个方面的内容:(1)增加人体属性信息(比如性别、年龄段、饰物等)作为人体特征表示。不同于传统的基于形状和颜色的人体特征描述,人体的属性具有较好的视角、光照等场景因素变化的鲁棒性。将每种属性进行量化,比如,性别包括‘男’和‘女’,我们可以把这两种性别的类别标签定义为‘0’和‘1’;通过学习几种属性的统计模型来识别检测到的人体的属性信息。将这些识别到的属性信息和人体的形状、颜色特征连接在一起构成人体的表观特征。
人体属性的学习属于离线学习部分,本发明采用了性别、年龄段、是否带有帽子等20个属性。所述的属性是可以扩展的,还可以根据实际情况增加很多需求,比如是否有同伴等等。对于人体属性信息的提取,我们采用自举学习(Boosting)分类器算法,使用梯度直方图作为人体特征。直方图是用于统计图像或者图像特定区域中某种变量值的出现频率的,比如颜色直方图的计算方法,就是将图像中的颜色量化成若干个量化区间(比如256个),然后统计每个量化区间中颜色的出现次数;由此类推,所谓梯度直方图,就是求图像的每个象素的梯度值(就是相邻像素和该像素的差值),然后将梯度值量化,并统计每个量化的梯度值的出现频率。对于每个属性,训练一个自举学习分类器,训练数据来源于使用人工标注属性的人体检测框。当某个属性可取的值高于二类时,其中二类为类别的数量,比如像属性性别,因为性别只有男女两类,我们称其为二类,比如年龄段,本发明按照10~20,30~50,50~70划分成‘青’,‘中’,‘老’三个年龄段,并使用多类自举学习分类器来进行类别学习。
人体的表观特征表示方面除了采用人体检测框的梯度直方图和颜色直方图(HSV空间)之外,增加了属性维度,所述HSV是一种颜色空间,就是正常情况下,图像像素的颜色值是通过其RGB值来表示的,HSV是对RGB进行一种线性变换而得到的颜色表示。
对于每个属性维度,当被匹配人和匹配人的该属性标签一致时,该维度值置为‘1’,否则,置为‘0’。
最后,将梯度直方图、颜色直方图和属性维度串联起来就构成了人体表观特征矢量。
(2)使用时空约束信息来在线筛选用于学习人体表观模型的正例和反例数据。本发明使用以下两种时空约束信息:
a)在一视频帧中同时出现的人体间是互斥的;所述“互斥”是代表同一个人不可能在同一视频帧中的两个不同位置出现。
b)在当前视频帧中新出现的不能被已有人体表观模型分类为重现的人与已有的建立了人体表观模型的人互斥。对于已有的某个人的人体表观模型,当在某个视频帧中检测到一个人,且这个人不能被此人体表观模型分类为正例时,这个检测到的人体的表观特征就可以作为这个表观模型的反例来更新表观模型。
利用第一种时空约束,针对一个人的分类器的反例来自于所有其他人的正例,利用第二种时空约束,当前视频中人的正例可以是已有人体表观模型的反例,而这些已有人体表观模型对应的正例可以作为建立当前视频中人体表观模型的反例。
具体来说,对于在线的人体表观模型学习,对于每个检测到的人对应的表观模型,本发明根据时空限制在线的筛选学习这个模型使用的正例和反例。如图1所示,按照当前观察帧中是否包含有表观模型对应的人体,把表观模型划分为两类:当表观模型对应的人经过系统的人体检测和模型匹配之后,认定是在当前观察帧中出现时,我们称其为“活跃的分类器”,否则,称其为“非活跃的分类器”。
第一种时空约束考虑的是当前视频中,人与人之间的互斥性。如附图1A所示,每一帧中每个人的活跃分类器Ti对应的跟踪框序列的表观特征集合作为该人的正例,而其他人的跟踪框表观观特征集合作为该活跃分类器Ti的反例。
第二种时空约束考虑的是活跃分类器对应的人与非活跃分类器对应的人之间的互斥性。如图1B所示,活跃分类器集合中的分类器仍然可以利用第一种时空约束进行更新。然而分类器T0对应的人已经从视频中消失,处于非活跃状态。此时T1,T2以及T3对应的人都在视频中出现,为了能保证T0具备对其他人的分类能力,我们需要对T0进行更新,我们用T0来匹配T1,T2和T3对应的人的当前表观特征,若T0将其误判为正例,则这个样本就被拿来作为T0的反例来更新T0。
如图3所示,一种用于人体重现检测的人体表观模型的学习系统,包括:
特征提取模块10,用于在视频帧的检测窗口中提取人体表观特征,建立人体表观描述子;
模型学习模块20,用于基于时空约束信息提取正例和反例人体表观描述子,用于训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习系统,模型学习模块中还包括:
以同时在线的人体的人体表观模型的更新和/或以在线和离线人体的人体表观模型的更新。
所述的用于人体重现检测的人体表观模型的学习系统,所述模型学习模块还包括:
正例模块,用于以所述提取的人体表观特征作为正例;
反例模块,用于从所述检测窗口之外位置的窗口中提取人体表观特征作为反例,训练人体表观模型。
所述的用于人体重现检测的人体表观模型的学习系统,所述同时在线的人体表观模型的更新,还包括:
同时出现在视频帧中的人体表观特征,互为其对应的人体表观模型的反例训练数据;
所述的在线与离线的人体表观模型的更新,还包括:
当前活跃人体表观模型对应的人体表观特征作为用于更新非活跃人体表观模型的反例训练数据。
所述的用于人体重现检测的人体表观模型的学习系统,所述模型学习模块还包括:
增加信息模块,用于增加人体属性信息作为人体表观特征的一部分;
生成特征模块,用于将通过视频帧识别的人体属性信息与人体的形状、颜色特征连接生成完整的人体表观特征。
所述的用于人体重现检测的人体表观模型的学习系统,所述模型学习模块还包括:
信息提取模块,用于对于人体属性信息的提取采用自举学习分类器算法,使用梯度直方图和颜色直方图作为人体属性特征;
属性计算模块,用于当被匹配人体表观特征和匹配人体表观特征的该人体属性标签一致时,该人体属性维度值置为‘1’,否则,置为‘0’。
本领域的技术人员在不脱离权利要求书确定的本发明的精神和范围的条件下,还可以对以上内容进行各种各样的修改。因此本发明的范围并不仅限于以上的说明,而是由权利要求书的范围来确定的。
Claims (12)
1.一种用于人体重现检测的人体表观模型的学习方法,其特征在于,包括如下步骤:
步骤1,在视频帧的检测窗口中提取人体表观特征,建立人体表观描述子;
步骤2,基于时空约束信息提取正例和反例人体表观描述子,用于训练人体表观模型。
2.如权利要求1所述的用于人体重现检测的人体表观模型的学习方法,其特征在于,步骤2中还包括:
以同时在线的人体的人体表观模型的更新和/或以在线和离线人体的人体表观模型的更新。
3.如权利要求1所述的用于人体重现检测的人体表观模型的学习方法,其特征在于,所述步骤2时空约束信息还包括:
步骤31,以所述检测窗口内的人体表观特征作为正例;
步骤32,从所述检测窗口之外位置的窗口中提取人体表观特征作为反例,训练人体表观模型。
4.如权利要求2所述的用于人体重现检测的人体表观模型的学习方法,其特征在于,所述同时在线的人体表观模型的更新,还包括:
步骤41,同时出现在视频帧中的人体表观特征,互为其对应的人体表观模型的反例训练数据;
所述的在线和离线的人体表观模型的更新,还包括:
步骤42,当前活跃人体表观模型对应的人体表观特征作为用于更新非活跃人体表观模型的反例训练数据。
5.如权利要求1所述的用于人体重现检测的人体表观模型的学习方法,其特征在于,所述步骤1还包括:
步骤51,增加人体属性信息作为人体表观特征的一部分;
步骤52,将通过视频帧识别的人体属性信息与人体的形状、颜色特征连接生成完整的人体表观特征。
6.如权利要求1所述的用于人体重现检测的人体表观模型的学习方法,其特征在于,所述步骤1还包括:
步骤61,对于人体属性信息的提取采用自举学习分类器算法,使用梯度直方图和颜色直方图作为人体属性特征;
步骤62,对于某个属性,当人体属性特征被自举分类器分为正例时,该人体属性维度值置为‘1’,否则,置为‘0’。
7.一种用于人体重现检测的人体表观模型的学习系统,其特征在于,包括:
特征提取模块,用于在视频帧的检测窗口中提取人体表观特征,建立人体表观描述子;
模型学习模块,用于基于时空约束信息提取正例和反例人体表观描述子,用于训练人体表观模型。
8.如权利要求7所述的用于人体重现检测的人体表观模型的学习系统,其特征在于,模型学习模块中还包括:
以同时在线的人体的人体表观模型的更新和/或以在线和离线人体的人体表观模型的更新。
9.如权利要求7所述的用于人体重现检测的人体表观模型的学习系统,其特征在于,所述模型学习模块还包括:
正例模块,用于以所述提取的人体表观特征作为正例;
反例模块,用于从所述检测窗口之外位置的窗口中提取人体表观特征作为反例,训练人体表观模型。
10.如权利要求8所述的用于人体重现检测的人体表观模型的学习系统,其特征在于,所述同时在线的人体表观模型的更新,还包括:
同时出现在视频帧中的人体表观特征,互为其对应的人体表观模型的反例训练数据;
所述的在线与离线的人体表观模型的更新,还包括:
当前活跃人体表观模型对应的人体表观特征作为用于更新非活跃人体表观模型的反例训练数据。
11.如权利要求7所述的用于人体重现检测的人体表观模型的学习系统,其特征在于,所述模型学习模块还包括:
增加信息模块,用于增加人体属性信息作为人体表观特征的一部分;
生成特征模块,用于将通过视频帧识别的人体属性信息与人体的形状、颜色特征连接生成完整的人体表观特征。
12.如权利要求7所述的用于人体重现检测的人体表观模型的学习系统,其特征在于,所述模型学习模块还包括:
信息提取模块,用于对于人体属性信息的提取采用自举学习分类器算法,使用梯度直方图和颜色直方图作为人体属性特征;
属性计算模块,用于当被匹配人体表观特征和匹配人体表观特征的该人体属性标签一致时,该人体属性维度值置为‘1’,否则,置为‘0’。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210078068.2A CN103324907B (zh) | 2012-03-22 | 2012-03-22 | 一种用于人体重现检测的人体表观模型的学习方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210078068.2A CN103324907B (zh) | 2012-03-22 | 2012-03-22 | 一种用于人体重现检测的人体表观模型的学习方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN103324907A true CN103324907A (zh) | 2013-09-25 |
CN103324907B CN103324907B (zh) | 2016-09-07 |
Family
ID=49193639
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201210078068.2A Active CN103324907B (zh) | 2012-03-22 | 2012-03-22 | 一种用于人体重现检测的人体表观模型的学习方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN103324907B (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109522790A (zh) * | 2018-10-08 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | 人体属性识别方法、装置、存储介质及电子设备 |
CN110296777A (zh) * | 2018-03-22 | 2019-10-01 | 香港纺织及成衣研发中心 | 智能仿生人体部位模型检测装置及制造方法 |
CN110678878A (zh) * | 2017-03-20 | 2020-01-10 | 华为技术有限公司 | 一种表观特征的描述属性识别方法及装置 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090316983A1 (en) * | 2008-06-20 | 2009-12-24 | Feng Han | Real-Time Action Detection and Classification |
CN101650728A (zh) * | 2009-08-26 | 2010-02-17 | 北京邮电大学 | 视频高层特征检索系统及其实现 |
-
2012
- 2012-03-22 CN CN201210078068.2A patent/CN103324907B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20090316983A1 (en) * | 2008-06-20 | 2009-12-24 | Feng Han | Real-Time Action Detection and Classification |
CN101650728A (zh) * | 2009-08-26 | 2010-02-17 | 北京邮电大学 | 视频高层特征检索系统及其实现 |
Non-Patent Citations (2)
Title |
---|
倪恺: "基于梯度方向直方图的行人检测方法研究", 《视频应用与工程》 * |
刘亚洲: "基于时空分析和多粒度特征表示的人体检测方法研究", 《中国博士学位论文全文数据库信息科技辑》 * |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110678878A (zh) * | 2017-03-20 | 2020-01-10 | 华为技术有限公司 | 一种表观特征的描述属性识别方法及装置 |
US11410411B2 (en) | 2017-03-20 | 2022-08-09 | Huawei Technologies Co., Ltd. | Method and apparatus for recognizing descriptive attribute of appearance feature |
CN110678878B (zh) * | 2017-03-20 | 2022-12-13 | 华为技术有限公司 | 一种表观特征的描述属性识别方法及装置 |
CN110296777A (zh) * | 2018-03-22 | 2019-10-01 | 香港纺织及成衣研发中心 | 智能仿生人体部位模型检测装置及制造方法 |
US11860051B2 (en) | 2018-03-22 | 2024-01-02 | The Hong Kong Research Institute Of Textiles And Apparel Limited | Intelligent bionic human body part model detection device and method for manufacturing same |
CN109522790A (zh) * | 2018-10-08 | 2019-03-26 | 百度在线网络技术(北京)有限公司 | 人体属性识别方法、装置、存储介质及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
CN103324907B (zh) | 2016-09-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107633207B (zh) | Au特征识别方法、装置及存储介质 | |
Liu et al. | Attribute-restricted latent topic model for person re-identification | |
Metaxas et al. | A review of motion analysis methods for human nonverbal communication computing | |
GB2565775A (en) | A Method, an apparatus and a computer program product for object detection | |
CN103824052A (zh) | 一种基于多层次语义特征的人脸特征提取方法及识别方法 | |
Pandey et al. | Hand gesture recognition for sign language recognition: A review | |
CN107844742B (zh) | 人脸图像眼镜去除方法、装置及存储介质 | |
CN103168314A (zh) | 用于基于面部动作单元识别个体的情绪的方法和设备 | |
Xia et al. | Face occlusion detection using deep convolutional neural networks | |
Mannan et al. | Classification of degraded traffic signs using flexible mixture model and transfer learning | |
Shanmugavadivu et al. | Rapid face detection and annotation with loosely face geometry | |
Jiang et al. | A unified tree-based framework for joint action localization, recognition and segmentation | |
CN103324907A (zh) | 一种用于人体重现检测的人体表观模型的学习方法及系统 | |
Ghadiri et al. | From superpixel to human shape modelling for carried object detection | |
Zhao et al. | Robust face recognition using the GAP feature | |
Zhang et al. | Deep multi-level networks with multi-task learning for saliency detection | |
You et al. | Salient object detection via point-to-set metric learning | |
Lin et al. | Person re-identification based on multi-instance multi-label learning | |
Wu et al. | How do you smile? Towards a comprehensive smile analysis system | |
Alshamsi et al. | Real-time facial expression recognition app development on smart phones | |
Saha et al. | Spatio-temporal human action localisation and instance segmentation in temporally untrimmed videos | |
CN111797656B (zh) | 人脸关键点检测方法、装置、存储介质及电子设备 | |
Gilorkar et al. | A review on feature extraction for Indian and American sign language | |
CN111209948A (zh) | 图像处理方法、装置和电子设备 | |
Zhao et al. | Unsupervised online learning for fine-grained hand segmentation in egocentric video |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |