CN108280397A - 基于深度卷积神经网络的人体图像头发检测方法 - Google Patents
基于深度卷积神经网络的人体图像头发检测方法 Download PDFInfo
- Publication number
- CN108280397A CN108280397A CN201711415922.9A CN201711415922A CN108280397A CN 108280397 A CN108280397 A CN 108280397A CN 201711415922 A CN201711415922 A CN 201711415922A CN 108280397 A CN108280397 A CN 108280397A
- Authority
- CN
- China
- Prior art keywords
- pixel
- super
- human body
- image
- body image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/194—Segmentation; Edge detection involving foreground-background segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Oral & Maxillofacial Surgery (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Computing Systems (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Quality & Reliability (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于深度卷积神经网络的人体图像头发检测方法,主要解决了现有技术中检测效率低,适应性差的问题。其实现方案包括:1)获取人体图像的超像素分割图像;2)对超像素分割图像进行标记;3)从人体图像中提取图像块;4)从图像块中获取训练样本;5)构建深度卷积神经网络并通过训练样本对其进行训练;6)获取待估计头发位置的人体图像的超像素分割图像;7)提取待估计头发位置的人体图像的图像块,并用训练好的深度卷积神经网络对其进行分类;8)生成待估计头发位置的人体图像头发检测结果。本发明减小了提取特征算子复杂度和计算量,提高了鲁棒性和应用范围,可用于3D打印、虚拟试衣、人体测量学以及影视游戏模型构建。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及一种人体图像中头发位置检测的方法,可应用于3D打印、虚拟试衣、人体测量学以及影视游戏模型构建。
背景技术
目标检测是计算机视觉领域中一个基础性的研究课题,它的目标是检测和识别输入图像中已知特定的某个或多个物体或者分类并定位预定义类别涵盖的所有可能区域。人体图像中头发位置估计是目标检测领域中逐渐兴起的一个分支。
目标检测是大量高级视觉任务的必备前提,包括活动或事件识别、场景内容理解等。而且目标检测也被应用到很多实际任务,例如智能视频监控,图像检索,机器人导航等。目标检测对计算机视觉领域和实际应用具有重要意义,在过去几十年里激励大批研究人员密切关注并投入研究在真实场景中,但对于检测大场景中的小目标时,因为目标通常只占据整个场景的小部分而且可能被其它物体遮挡,或者场景中伴随出现视觉上相似的背景结构,所以这些情形的出现也对目标检测任务构成极大的挑战。对人体图像中头发位置进行估计也属于这种在场景中检测小目标的情况,它的目的不仅要对输入小图像块进行细致分类,头发或者非头发,更要求对一幅整体图像上的头发进行精确定位并且描绘出头发轮廓,为后期的图像处理做准备。因为头发的纹理特征比较少,因此在提取合适特征上存在一定的难度。目前的有效的估计人体图像中头发位置的方法不是很优秀,并不能达到很高的精确度。深度学习是近年来国际上的研究热点,与现有技术中的需要人工设计的特征提取方法相比,它可以自动提取到图像中更加抽象、本质的特征,有利于图像的分类和识别。
Andrew Kae、Kihyuk Sohn、Honglak Lee、Erik Learned-Miller四人在其发表的论文“Augementing CRFs with Boltzmann Machine Shape Priors for Image Labeling”(IEEE Conference on Computer Vision and Pattern Recognition,2013,2019-2026)中提出了一种将玻尔兹曼机和条件随机场相结合的方法来对人体局部标注的方法。该方法中将深度学习中的玻尔兹曼机与条件随机场相结合,首先对人体图像上的头发、人体和背景三部分进行图像标注,形成多个标注好的图像块;然后利用条件随机场,对图像的局部边缘部分进行处理,使得分割边缘更为精准;然后利用玻尔兹曼机对图像在全局上进行处理,包括降维、分类、学习,最终得到一个可以实现对人体图像上头发进行位置估计的网络模型。该方法存在的不足之处是,其一,由于该算法需要对图像人工提取特征,在对大量图像进行处理时,每次都需人工提取特征,大大增加了该算法的复杂度,降低了效率,其二,由于人工提取图像特征,对复杂背景的人体图像处理时,不能保证提取到最合适的特征,降低了该算法的精度。
乐视控股(北京)有限公司在其申请的专利文献“发型识别方法及发型识别装置”(专利申请号:201610743694.7,申请公布号:CN106372652A)中提出一种发型识别方法及发型识别装置。该方法首先预设图像库和N种发型,图像库中都是与给出的N种发型相对应的图像,其中,每种发型对应至少2个图像;然后将待识别的图像与所述的图像库中的各图像一一对比,分别获得待识别图像与所述图像库中各图像的相似度;最终利用的到的各相似度确定待识别图像的发型。该方法存在的不足之处是,对比数据库中的发型数量有限,在实际应用中,面对各种各样的发型,不能精确的确定图像的具体发型,有极大的局限性。
发明内容
本发明的目的在于针对已有技术的不足,提出一种基于深度卷积神经网络的人体图像头发检测方法,以减小计算量,提高检测准确度和适应性。
为实现上述目的,本发明的技术方法包括训练深度卷积神经网络和估计人体图像中头发位置两个阶段:
第一个阶段,训练深度卷积神经网络的步骤如下:
(1)输入待训练的人体图像,利用基于线性迭代聚类的超像素分割算法,对人体图像进行超像素分割,得到人体图像的超像素分割图像;
(2)在所得人体图像的超像素分割图像中,对属于头发区域的所有超像素块,属于人体区域的所有超像素块和属于背景区域的所有超像素块分别进行标记;
(3)以超像素聚类中心点位置为中心,在人体图像上提取大小为33*33*3图像块;
(4)获取训练样本:
(4a)对于提取到的每一个图像块,在超像素分割图像中的相同区域内,将属于头发的像素点数目大于属于脸部及背景的像素点数目的图像块归为第1类,将属于头发的像素点数目大于属于脸部及背景的像素点数目的图像块归为第2类,其中,第1类表示头发类,第2类表示属于非头发类;
(4b)将每一个图像块和该图像块的类别组成一个样本,将所有样本作为深度卷积神经网络的训练样本;
(5)构建并训练深度卷积神经网络:
(5a)设计含有9层的深度卷积神经网络,该9层依次是卷积层Conv1、池化层Pool2、卷积层Conv3、池化层Pool4、卷积层Conv5、池化层Pool6、全连接层Fc7、全连接层Fc8和分类层Softmax9;
(5b)将训练样本输入到(5a)设计的深度卷积神经神经网络中,利用深度学习框架caffe,对深度卷积神经网络进行训练,获得训练好的深度卷积神经网络;
第二个阶段,估计人体图像中头发位置的步骤如下:
(6)输入一幅待估计头发位置的人体图像,利用基于线性迭代聚类的超像素分割算法对人体图像进行超像素分割,得到人体图像的超像素分割图像;
(7)以超像素聚类中心点位置为中心,在人体图像上提取大小为33*33*3图像块;
(8)利用训练好的深度卷积神经网络提取图像块的特征,Softmax9层根据每一个图像块的特征,输出该图像块的类别,即头发类1或者非头发类2;
(9)估计人体图像中头发的位置:
(9a)读入一幅与人体图像行数和列数相同的所有灰度值全为0的二维灰度图像;
(9b)将所有超像素聚类中心点位置与第1类图像块中心点位置相同的超像素块,标记为第1类;将所有超像素聚类中心点位置与第2类图像块中心点位置相同的超像素块,标记为第2类;
(9c)将灰度图像中与所有第1类超像素块的位置相同区域的灰度值标记为0,将灰度图像中与所有第2类超像素块的位置相同区域的灰度值标记为255,人体图像中的黑色区域即灰度值为0的像素点为头发检测结果。
本发明与现有技术相比具有以下优点:
第一,本发明采用深度卷积神经网络对人体图像中图像块提取特征,通过深度卷积神经网络自主学习特征,避免了现有技术中需要人工提取特征的过程,而且深度卷积神经网络自主学习的特征具有更高的鲁棒性,降低了复杂性,提高了分类的精度,对复杂背景具有更强的适应性。
第二,本发明采用训练好的深度卷积神经网络对人体图像中图像块进行分类,克服了现有技术中处理多幅人体图像时,耗费大量时间的问题,降低了计算量,缩短了检测所需的时间,提高了效率。
第三,本发明采用深度卷积神经网络对人体图像进行头发检测,克服了现有技术中仅能识别固定数量发型的问题,可以估计出各种各样的发型,增加了应用范围。
附图说明
图1是本发明的实现流程图;
图2是本发明中的深度卷积神经网络结构;
图3是本发明使用的人体图像示意图;
图4是本发明中对人体图像进行超像素分割所得图像;
图5是本发明中以超像素聚类中心点为中心提取的33*33*3的图像块;
图6是用本发明对人体图像进行头发检测的结果图。
具体实施方式
下面结合附图对本发明做进一步的描述。
参照图1,本发明包括两个阶段,其实现步骤如下:
第一个阶段,训练深度卷积神经网络。
步骤1,获取人体图像的超像素分割图像。
输入待训练的人体图像,利用基于线性迭代聚类的超像素分割算法,对人体图像进行超像素分割,得到人体图像的超像素分割图像,具体操作是:
(1.1)输入超像素聚类中心点的总数K;
(1.2)按照下式,计算每一个超像素聚类中心点与其四周相邻超像素聚类中心点的距离:
其中,S表示每一个超像素聚类中心点与其四周相邻超像素聚类中心点之间的距离,N表示人体图像上像素点的总数,K表示超像素聚类中心点的总数;
(1.3)利用每一个超像素聚类中心点与其四周相邻超像素聚类中心点的距离,按照人体图像上每一行的每一个超像素聚类中心点与左右两个超像素聚类中心点之间距离相等的原则和人体图像上每一列的每一个超像素聚类中心点与上下两个超像素聚类中心点之间距离相等的原则,完成对人体图像上所有超像素聚类中心点位置的初始化;
(1.4)计算每一个超像素聚类中心点3*3大小邻域内所有像素点的梯度值,用每个邻域内梯度值最小的像素点代替该邻域内现在的超像素聚类中心点,得到该邻域一个新的超像素聚类中心点;
(1.5)按照人体图像上的所有超像素聚类中心点从左到右从上到下的顺序,将第一个超像素聚类中心点的2S*2S邻域内所有像素点类别标记为0,第二个超像素聚类中心点的2S*2S邻域内所有像素点类别标记为1,直到将最后一个超像素聚类中心点的2S*2S邻域内所有像素点类别标记为K-1,完成对人体图像上每一个超像素聚类中心点的2S*2S邻域内所有像素点类别标记,标记的类别取值范围是[0,K-1];
(1.6)按照下式,计算人体图像上每一个像素点与该像素点的2S*2S邻域内所有超像素聚类中心点之间的距离:
其中,dij表示人体图像上第i个像素点与该像素点2S*2S邻域内第j个超像素聚类中心的距离,xi、yi分别表示人体图像上第i个像素点在水平和垂直方向上的位置,xj、yj分别表示人体图像上第i个像素点2S*2S邻域内的第j个超像素聚类中心点在水平和垂直方向上的位置,le表示人体图像在色彩模型lab颜色空间中第e个像素点的亮度值,其取值范围是[0,100],ae表示人体图像在色彩模型lab颜色空间中第e个像素点从红色到绿色范围内的色彩值,其取值范围是[-128,127],be表示人体图像在色彩模型lab颜色空间中第e个像素点从黄色到蓝色范围内的色彩值,其取值范围是[-128,127],lf表示人体图像在色彩模型Lab颜色空间中第e个像素点2S*2S邻域内第f个超像素聚类中心的亮度值,af表示人体图像在色彩模型Lab颜色空间中第e个像素点2S*2S邻域内第f个超像素聚类中心从红色到绿色范围内的色彩值,bf表示人体图像在色彩模型Lab颜色空间中第e个像素点2S*2S邻域内第f个超像素聚类中心从黄色到蓝色范围内的色彩值,i的取值和e取值相等,j的取值和f取值相等,m表示一个常数,取值范围是[0,40],本实例取值为10;
(1.7)将人体图像上每一个像素点的2S*2S邻域内与该像素点距离最小的超像素聚类中心点,作为此次计算后该像素点所属的超像素聚类中心;
(1.8)判断迭代次数是否达到10次,若是,则完成对人体图像的超像素分割,否则返回(1.4)。
步骤2,标记超像素分割图像。
在所得人体图像的超像素分割图像中,对属于头发区域的所有超像素块,属于人体区域的所有超像素块和属于背景区域的所有超像素块分别进行标记;
步骤3,以超像素聚类中心点位置为中心,在人体图像上提取大小为33*33*3图像块。
(3.1)记录人体图像的超像素分割图像上每一个超像素聚类中心点在水平方向和垂直方向上的位置;
(3.2)在人体图像上,以记录的每一个超像素聚类中心点的位置为中心,提取大小为33*33*3的图像块。
步骤4,获取训练样本。
对于提取到的每一个图像块,在超像素分割图像中的相同区域内,将属于头发的像素点数目大于属于脸部及背景的像素点数目的图像块归为第1类;将属于头发的像素点数目大于属于脸部及背景的像素点数目的图像块归为第2类,其中,第1类表示头发类,第2类表示属于非头发类;
将每一个图像块与该图像块的类别组成一个样本,将每一个图像块和该图像块的类别组成一个样本,将所有样本作为深度卷积神经网络的训练样本。
步骤5,设计深度卷积神经网络。
如图2所示,设计含有9层的深度卷积神经网络,该9层依次是卷积层Conv1,池化层Pool2,卷积层Conv3,池化层Pool4,卷积层Conv5,池化层Pool6,全连接层Fc7,全连接层Fc8和分类层Softmax9,各层的具体参数如下:
第一层卷积层Conv1,采用64个大小为9*9像素的卷积核,卷积步长为1像素;
第二层池化层Pool2,为最大值池化层,池化块的大小为2×2像素,池化步长为1像素;
第三层卷积层Conv3,采用32个大小为5*5像素的卷积核,卷积步长为1像素;
第四层池化层Pool4,为最大值池化层,池化块的大小为2×2像素,池化步长为1像素;
第五层卷积层Conv5,采用32个大小为5*5像素的卷积核,卷积步长为1像素;
第六层池化层Pool6,为最大值池化层,池化块的大小为2×2像素,池化步长为1像素;
第七层全连接层Fc7,采用500个神经元;
第八层全连接层Fc8,采用2个神经元;
第九层为分类层Softmax9,采用2个神经元。
步骤6,对深度卷积神经网络进行训练。
将训练样本输入到步骤5设计的深度卷积神经神经网络中,利用深度学习框架caffe,对深度卷积神经网络进行训练,得到深度卷积神经网络的权值和偏置值,具体操作如下:
(6.1)在向前传播阶段,信息从深度卷积神经网络输入层经过逐层的变换,传送到深度卷积神经网络的输出层;从样本集中取一个样本输入到深度卷积神经网络中,计算该传播阶段相应的实际输出,其实现如下:
(6.1a)将33*33*3大小的图像块输入到第一层卷积层Conv1,用64个大小为9*9像素的卷积核对其进行步长为1像素的卷积操作,得到64张25*25像素大小的特征图;
(6.1b)将第一层卷积层Conv1输出的64张特征图输入到第二层池化层Pool2,对其进行最大池化操作,池化块的大小为2×2像素,步长为1像素,得到64张分辨率为24*24像素大小的特征图;
(6.1c)将第二层池化层Pool2输出的64张特征图输入到第三层卷积层Conv3,用32个大小为5*5像素的卷积核对其进行步长为1像素的卷积操作,得到32张分辨率为20*20像素的特征图;
(6.1d)将第三层卷积层Conv3输出的32张特征图输入到第四层池化层Pool4,对其进行最大池化操作,池化块的大小为2×2像素,步长为1像素,得到32张分辨率为19*19像素的特征图;
(6.1e)将第四层池化层Pool4输出的32张特征图输入到第五层卷积层Conv5,用32个大小为5*5像素的卷积核对其进行步长为1像素的卷积操作,得到32张分辨率为15*15像素的特征图;
(6.1f)将第五层卷积层Conv5输出的32张特征图输入到第六层池化层Pool6,对其进行最大池化操作,池化块的大小为2×2像素,步长为1像素,得到32张分辨率为14*14像素的特征图;
(6.1g)将第六层池化层Pool6输出的32张特征图输入到第七层全连接层Fc7,按照下式,对其中每一个像素点进行激活,得到激活后的特征图的像素点的值,将激活后的特征图以列的顺序排列成1维向量,得到1×500维的特征向量:
其中,f(x)表示激活后的特征图的像素点的值,x表示激活前特征图的像素点的值,e表示一个无限不循环的自然常数,取值为2.7182;
(6.1h)将第七层全连接层Fc7输出的特征向量输入到第八层全连接层Fc8,与第八层全连接层Fc8的2个神经元进行全连接操作,输出1×2维的特征向量;
(6.1i)将第八层全连接层Fc8输出的特征向量输入到第九层分类层Softmax9,该层会计算出每种分类标签的概率,并将最大概率的对应的标签作为图像块的分类结果,其中第i个图像块softmax分类的假设函数hw,b(α(i))如下:
其中,α(i)表示深度卷积神经网络中全连接层Fc7输出的第i个图像块的特征向量,β(i)表示第i个图像块相对应的标签,p(β(i)=t|α(i);w,b)表示对于第i个图像块,特征向量为α(i)时标签β(i)等于t的概率,t∈1,2,...,k,本实例取k=2,w和b分别表示深度卷积神经网络的权值和偏置值;
(6.2)在向后传播阶段,计算深度卷积神经网络实际输出与样本标签的差值,通过最小化如下误差函数J(w,b)调整深度卷积神经网络的权值和偏置值:
其中,M表示输入到卷积神经网络中图像块的总数量,1{·}是示性函数,其取值规则为1{值为真的表达式}=1;
(6.3)重复(6.1)和(6.2)共800000次,得到训练好的深度卷积神经网络。
第二个阶段,估计人体图像中头发的位置:
步骤7,获取人体图像的超像素分割图像。
输入一幅如图3所示的待估计头发位置的人体图像,利用基于线性迭代聚类的超像素分割算法,对人体图像进行超像素分割,得到如图4所示的人体图像的超像素分割图像,具体操作是:
(7.1)输入超像素聚类中心点的总数K;
(7.2)按照下式,计算每一个超像素聚类中心点与其四周相邻超像素聚类中心点的距离:
其中,S表示每一个超像素聚类中心点与其四周相邻超像素聚类中心点之间的距离,N表示人体图像上像素点的总数,K表示超像素聚类中心点的总数;
(7.3)利用每一个超像素聚类中心点与其四周相邻超像素聚类中心点的距离,按照人体图像上每一行的每一个超像素聚类中心点与左右两个超像素聚类中心点之间距离相等的原则和人体图像上每一列的每一个超像素聚类中心点与上下两个超像素聚类中心点之间距离相等的原则,完成对人体图像上所有超像素聚类中心点位置的初始化;
(7.4)计算每一个超像素聚类中心点3*3大小邻域内所有像素点的梯度值,用每个邻域内梯度值最小的像素点代替该邻域内现在的超像素聚类中心点,得到该邻域一个新的超像素聚类中心点;
(7.5)按照人体图像上的所有超像素聚类中心点从左到右从上到下的顺序,将第一个超像素聚类中心点的2S*2S邻域内所有像素点类别标记为0,第二个超像素聚类中心点的2S*2S邻域内所有像素点类别标记为1,直到将最后一个超像素聚类中心点的2S*2S邻域内所有像素点类别标记为K-1,完成对人体图像上每一个超像素聚类中心点的2S*2S邻域内所有像素点类别标记,标记的类别取值范围是[0,K-1];
(7.6)按照下式,计算人体图像上每一个像素点与该像素点的2S*2S邻域内所有超像素聚类中心点之间的距离:
其中,dij表示人体图像上第i个像素点与该像素点2S*2S邻域内第j个超像素聚类中心的距离,xi、yi分别表示人体图像上第i个像素点在水平和垂直方向上的位置,xj、yj分别表示人体图像上第i个像素点2S*2S邻域内的第j个超像素聚类中心点在水平和垂直方向上的位置,le表示人体图像在色彩模型lab颜色空间中第e个像素点的亮度值,其取值范围是[0,100],ae表示人体图像在色彩模型lab颜色空间中第e个像素点从红色到绿色范围内的色彩值,其取值范围是[-128,127],be表示人体图像在色彩模型lab颜色空间中第e个像素点从黄色到蓝色范围内的色彩值,其取值范围是[-128,127],lf表示人体图像在色彩模型Lab颜色空间中第e个像素点2S*2S邻域内第f个超像素聚类中心的亮度值,af表示人体图像在色彩模型Lab颜色空间中第e个像素点2S*2S邻域内第f个超像素聚类中心从红色到绿色范围内的色彩值,bf表示人体图像在色彩模型Lab颜色空间中第e个像素点2S*2S邻域内第f个超像素聚类中心从黄色到蓝色范围内的色彩值,i的取值和e取值相等,j的取值和f取值相等,m表示一个常数,取值范围是[0,40],本实例取值为10;
(7.7)将人体图像上每一个像素点的2S*2S邻域内与该像素点距离最小的超像素聚类中心点,作为此次计算后该像素点所属的超像素聚类中心;
(7.8)判断迭代次数是否达到10次,若是,则完成对人体图像的超像素分割,否则返回(7.4)。
步骤8,以超像素聚类中心点位置为中心,在人体图像上提取大小为33*33*3图像块。
(8.1)记录人体图像的超像素分割图像上每一个超像素聚类中心点在水平方向和垂直方向上的位置;
(8.2)在人体图像上,以记录的每一个超像素聚类中心点的位置为中心,提取大小为33*33*3的图像块。
步骤9,对图像块进行分类。
(9.1)利用训练好的深度卷积神经网络提取图像块的特征:
(9.1a)用从人体图像中提取出的图像块组成集合:A={ac|c=1,2,...n},其中,ac表示集合A中第c个图像块,n表示集合A中图像块的数量;
(9.1b)从图像块集合A中,依次选取一个图像块输入到已经训练好的深度卷积神经网络中,利用训练好的深度卷积神经网络提取每一个图像块的特征;
(9.2)根据每一个图像块的特征,深度卷积神经网络将输出该图像块的类别,即头发类1或者非头发类2。
步骤10,估计人体图像中头发的位置。
(10.1)读入一幅与人体图像行数和列数相同的所有灰度值全为0的二维灰度图像;
(10.2)将所有超像素聚类中心点位置与第1类图像块中心点位置相同的超像素块,标记为第1类,将所有超像素聚类中心点位置与第2类图像块中心点位置相同的超像素块,标记为第2类;
(10.3)将灰度图像中与所有第1类超像素块的位置相同的区域,灰度值标记为0,将灰度图像中与所有第2类超像素块的位置相同的区域,灰度值标记为255,人体图像中的黑色区域即灰度值为0的像素点为头发检测结果。
下面结合仿真实验对本发明的效果做进一步的描述。
1、仿真实验条件:
本发明所用的数据库为:在收集的1000张人体图像上提取大小为33*33*3的人体图像块,形成一共140000张图像块的数据库,其中有126000张训练图和14000张测试图。硬件平台为:系统:Ubuntu 14.04,CPU:Intel(R)Core(TM)i5-4210U、4GB RAM,GPU:NVIDIAGeForce GTX960、2G显存,软件平台:Spyder,MATLAB R2014a,深度学习框架Caffe。
2、实验内容与结果:
第一步,对图3所示的待估计头发位置的人体图像进行超像素分割,其结果如图4所示,参考图3和参考图4可以看出,超像素分割图像与待估计头发位置的人体图像相比,超像素分割参考图会形成特征明显的分割图像区域,每一个区域具有相似的颜色和结构特征。
第二步,对图4所示的超像素分割图像进行中心块提取,结果如图5所示;
参考图5以看出,在人体图像中提取的每一个图像块是以每一个的超像素聚类中心为中心的33*33*3大小的图像块,通过每一个图像块的分类结果判定所在的超像素块区域的分类,可以极大地降低输入到深度卷积神经网络中进行分类的图像块的数量,降低了算法所需的时间。
第三步,将图5所示的图像块输入训练好的深度卷积神经网络进行分类,基于该分类结果对图3所示的待估计头发位置的人体图像中的头发位置进行估计,生成的头发检测结果如图6所示;
参考图6所示,属于头发的区域显示为黑色,不属于头发的区域显示为白色。
以上仿真可以看出,本发明能有效地对人体图像中的头发进行检测,同时减小了检测所需的计算量,提高了检测的效率。
Claims (6)
1.基于深度卷积神经网络的人体图像头发检测方法,包括训练与估计两个阶段,其特征在于:
第一个阶段,训练深度卷积神经网络的步骤如下:
(1)输入待训练的人体图像,利用基于线性迭代聚类的超像素分割算法,对人体图像进行超像素分割,得到人体图像的超像素分割图像;
(2)在所得人体图像的超像素分割图像中,对属于头发区域的所有超像素块,属于人体区域的所有超像素块和属于背景区域的所有超像素块分别进行标记;
(3)以超像素聚类中心点位置为中心,在人体图像上提取大小为33*33*3图像块;
(4)获取训练样本:
(4a)对于提取到的每一个图像块,在超像素分割图像中的相同区域内,将属于头发的像素点数目大于属于脸部及背景的像素点数目的图像块归为第1类,将属于头发的像素点数目大于属于脸部及背景的像素点数目的图像块归为第2类,其中,第1类表示头发类,第2类表示属于非头发类;
(4b)将每一个图像块和该图像块的类别组成一个样本,将所有样本作为深度卷积神经网络的训练样本;
(5)构建并训练深度卷积神经网络:
(5a)设计含有9层的深度卷积神经网络,该9层依次是卷积层Conv1、池化层Pool2、卷积层Conv3、池化层Pool4、卷积层Conv5、池化层Pool6、全连接层Fc7、全连接层Fc8和分类层Softmax9;
(5b)将训练样本输入到(5a)设计的深度卷积神经神经网络中,利用深度学习框架caffe,对深度卷积神经网络进行训练,获得训练好的深度卷积神经网络;
第二个阶段,估计人体图像中头发位置的步骤如下:
(6)输入一幅待估计头发位置的人体图像,利用基于线性迭代聚类的超像素分割算法对人体图像进行超像素分割,得到人体图像的超像素分割图像;
(7)以超像素聚类中心点位置为中心,在人体图像上提取大小为33*33*3图像块;
(8)利用训练好的深度卷积神经网络提取图像块的特征,并根据每一个图像块的特征,输出该图像块的类别,即头发类1或者非头发类2;
(9)估计人体图像中头发的位置:
(9a)读入一幅与人体图像行数和列数相同的所有灰度值全为0的二维灰度图像;
(9b)将所有超像素聚类中心点位置与第1类图像块中心点位置相同的超像素块,标记为第1类;将所有超像素聚类中心点位置与第2类图像块中心点位置相同的超像素块,标记为第2类;
(9c)将灰度图像中与所有第1类超像素块的位置相同区域的灰度值标记为0,将灰度图像中与所有第2类超像素块的位置相同区域的灰度值标记为255,人体图像中的黑色区域即灰度值为0的像素点为头发检测结果。
2.根据权利要求1所述的方法,其特征在于:步骤(1)中利用基于线性迭代聚类的超像素分割算法,对人体图像进行超像素分割,其实现如下:
(1a)输入超像素聚类中心点的总数K;
(1b)按照下式,计算每一个超像素聚类中心点与其四周相邻超像素聚类中心点的距离:
其中,S表示每一个超像素聚类中心点与其四周相邻超像素聚类中心点之间的距离,N表示人体图像上像素点的总数,K表示超像素聚类中心点的总数;
(1c)利用每一个超像素聚类中心点与其四周相邻超像素聚类中心点的距离,按照人体图像上每一行的每一个超像素聚类中心点与左右两个超像素聚类中心点之间距离相等的原则和人体图像上每一列的每一个超像素聚类中心点与上下两个超像素聚类中心点之间距离相等的原则,完成对人体图像上所有超像素聚类中心点位置的初始化;
(1d)计算每一个超像素聚类中心点的3*3大小邻域内所有像素点的梯度值,用每个邻域内梯度值最小的像素点代替该邻域内当前的超像素聚类中心点,得到该邻域一个新的超像素聚类中心点;
(1e)按照人体图像上的所有超像素聚类中心点从左到右、从上到下的顺序,将第一个超像素聚类中心点的2S*2S邻域内所有像素点类别标记为0,第二个超像素聚类中心点的2S*2S邻域内所有像素点类别标记为1,直到将最后一个超像素聚类中心点的2S*2S邻域内所有像素点类别标记为K-1,完成对人体图像上每一个超像素聚类中心点的2S*2S邻域内所有像素点类别标记,标记的类别取值范围是[0,K-1];
(1f)按照下式,计算人体图像上每一个像素点与该像素点的2S*2S邻域内所有超像素聚类中心点之间的距离:
其中,dij表示人体图像上第i个像素点与该像素点2S*2S邻域内第j个超像素聚类中心的距离,xi、yi分别表示人体图像上第i个像素点在水平和垂直方向上的位置,xj、yj分别表示人体图像上第i个像素点2S*2S邻域内的第j个超像素聚类中心点在水平和垂直方向上的位置,le表示人体图像在色彩模型lab颜色空间中第e个像素点的亮度值,其取值范围是[0,100],ae表示人体图像在色彩模型lab颜色空间中第e个像素点从红色到绿色范围内的色彩值,其取值范围是[-128,127],be表示人体图像在色彩模型lab颜色空间中第e个像素点从黄色到蓝色范围内的色彩值,其取值范围是[-128,127],lf表示人体图像在色彩模型Lab颜色空间中第e个像素点2S*2S邻域内第f个超像素聚类中心的亮度值,af表示人体图像在色彩模型Lab颜色空间中第e个像素点2S*2S邻域内第f个超像素聚类中心从红色到绿色范围内的色彩值,bf表示人体图像在色彩模型Lab颜色空间中第e个像素点2S*2S邻域内第f个超像素聚类中心从黄色到蓝色范围内的色彩值,i的取值和e取值相等,j的取值和f取值相等,m表示一个常数,取值范围是[0,40];
(1g)将人体图像上每一个像素点的2S*2S邻域内与该像素点距离最小的超像素聚类中心点,作为此次计算后该像素点所属的超像素聚类中心;
(1h)判断迭代次数是否达到10次,若是,则完成对人体图像的超像素分割,否则返回(1d)。
3.根据权利要求1所述的方法,其特征在于:步骤(3)中以超像素聚类中心点位置为中心,在人体图像上提取大小为33*33*3图像块,是先记录人体图像的超像素分割图像上每一个超像素聚类中心点在水平方向和垂直方向上的位置;再在人体图像上,以记录的每一个超像素聚类中心点的位置为中心,提取出大小为33*33*3的图像块。
4.根据权利要求1所述的方法,其特征在于:步骤(5a)中设计的含9层的深度卷积神经网络,其各层的参数如下:
第一层卷积层Conv1,采用64个大小为9*9像素的卷积核,卷积步长为1像素;
第二层池化层Pool2,为最大值池化层,池化块的大小为2×2像素,池化步长为1像素;
第三层卷积层Conv3,采用32个大小为5*5像素的卷积核,卷积步长为1像素;
第四层池化层Pool4,为最大值池化层,池化块的大小为2×2像素,池化步长为1像素;
第五层卷积层Conv5,采用32个大小为5*5像素的卷积核,卷积步长为1像素;
第六层池化层Pool6,为最大值池化层,池化块的大小为2×2像素,池化步长为1像素;
第七层全连接层Fc7,采用500个神经元;
第八层全连接层Fc8,采用2个神经元;
第九层为分类层Softmax9,采用2个神经元。
5.根据权利要求1所述方法,其特征在于:步骤(5b)中利用深度学习框架caffe,对深度卷积神经网络进行训练,其实现如下:
(5b1)在向前传播阶段,从样本集中取一个样本输入到深度卷积神经网络中,计算相应的实际输出,在此阶段,信息从深度卷积神经网络输入层经过逐层的变换,传送到深度卷积神经网络的输出层;
(5b2)在向后传播阶段,计算深度卷积神经网络实际输出与样本标签的差值,按最小化误差函数的方法调整深度卷积神经网络的权值和偏置值;
(5b3)重复(5b1)和(5b2)800000次,得到训练好的深度卷积神经网络。
6.根据权利要求1所述方法,其特征在于:步骤(8)中利用训练好的深度卷积神经网络提取图像块的特征,是先用从人体图像中提取的图像块组成集合:
A={ac|c=1,2,...n},其中,ac表示集合A中第c个图像块,n表示集合A中图像块的数量;再从集合A中,依次选取一个图像块输入到已经训练好的深度卷积神经网络中,利用训练好的深度卷积神经网络提取每一个图像块的特征。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711415922.9A CN108280397B (zh) | 2017-12-25 | 2017-12-25 | 基于深度卷积神经网络的人体图像头发检测方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201711415922.9A CN108280397B (zh) | 2017-12-25 | 2017-12-25 | 基于深度卷积神经网络的人体图像头发检测方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108280397A true CN108280397A (zh) | 2018-07-13 |
CN108280397B CN108280397B (zh) | 2020-04-07 |
Family
ID=62802032
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201711415922.9A Active CN108280397B (zh) | 2017-12-25 | 2017-12-25 | 基于深度卷积神经网络的人体图像头发检测方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108280397B (zh) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109117760A (zh) * | 2018-07-27 | 2019-01-01 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备和计算机可读介质 |
CN109754011A (zh) * | 2018-12-29 | 2019-05-14 | 北京中科寒武纪科技有限公司 | 基于Caffe的数据处理方法、装置和相关产品 |
CN110298393A (zh) * | 2019-06-14 | 2019-10-01 | 深圳志合天成科技有限公司 | 一种基于深度学习的头发头皮健康状况检测方法 |
WO2020063527A1 (zh) * | 2018-09-30 | 2020-04-02 | 叠境数字科技(上海)有限公司 | 基于多特征检索和形变的人体发型生成方法 |
CN111161405A (zh) * | 2019-12-24 | 2020-05-15 | 东南大学 | 一种动物毛发三维重建方法 |
CN111382746A (zh) * | 2018-12-29 | 2020-07-07 | 杭州光启人工智能研究院 | 数据打标方法、计算机装置及计算机可读存储介质 |
CN111598939A (zh) * | 2020-05-22 | 2020-08-28 | 中原工学院 | 一种基于多目视觉系统的人体围度测量方法 |
CN111767928A (zh) * | 2020-06-28 | 2020-10-13 | 中国矿业大学 | 基于卷积神经网络提取图像特征信息的方法及装置 |
CN113065412A (zh) * | 2021-03-12 | 2021-07-02 | 武汉大学 | 基于改进的Deeplabv3+的航拍图像电磁介质语义识别方法及装置 |
CN113095213A (zh) * | 2021-04-09 | 2021-07-09 | 重庆零壹空间科技集团有限公司 | 一种消落带变化监测方法 |
CN113469011A (zh) * | 2021-07-31 | 2021-10-01 | 国网上海市电力公司 | 一种基于遥感图像分类算法的规划地地物识别方法和装置 |
CN113838028A (zh) * | 2021-09-24 | 2021-12-24 | 无锡祥生医疗科技股份有限公司 | 一种颈动脉超声自动多普勒方法、超声设备及存储介质 |
CN116664585A (zh) * | 2023-08-02 | 2023-08-29 | 瑞茜时尚(深圳)有限公司 | 基于深度学习的头皮健康状况检测方法及相关装置 |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
CN105678232A (zh) * | 2015-12-30 | 2016-06-15 | 中通服公众信息产业股份有限公司 | 一种基于深度学习的人脸图片特征提取与对比方法 |
CN105844706A (zh) * | 2016-04-19 | 2016-08-10 | 浙江大学 | 一种基于单幅图像的全自动三维头发建模方法 |
CN106022221A (zh) * | 2016-05-09 | 2016-10-12 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及处理系统 |
CN106611160A (zh) * | 2016-12-15 | 2017-05-03 | 中山大学 | 一种基于卷积神经网络的图像头发识别方法及其装置 |
CN107220990A (zh) * | 2017-06-22 | 2017-09-29 | 成都品果科技有限公司 | 一种基于深度学习的头发分割方法 |
-
2017
- 2017-12-25 CN CN201711415922.9A patent/CN108280397B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
CN105678232A (zh) * | 2015-12-30 | 2016-06-15 | 中通服公众信息产业股份有限公司 | 一种基于深度学习的人脸图片特征提取与对比方法 |
CN105844706A (zh) * | 2016-04-19 | 2016-08-10 | 浙江大学 | 一种基于单幅图像的全自动三维头发建模方法 |
CN106022221A (zh) * | 2016-05-09 | 2016-10-12 | 腾讯科技(深圳)有限公司 | 一种图像处理方法及处理系统 |
CN106611160A (zh) * | 2016-12-15 | 2017-05-03 | 中山大学 | 一种基于卷积神经网络的图像头发识别方法及其装置 |
CN107220990A (zh) * | 2017-06-22 | 2017-09-29 | 成都品果科技有限公司 | 一种基于深度学习的头发分割方法 |
Non-Patent Citations (2)
Title |
---|
张小华等: "基于感兴趣区域的图像认证技术", 《电子与信息学报》 * |
王娟等: "基于自适应超像素分割的点刻式DPM区域定位算法研究", 《自动化学报》 * |
Cited By (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109117760A (zh) * | 2018-07-27 | 2019-01-01 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备和计算机可读介质 |
CN109117760B (zh) * | 2018-07-27 | 2021-01-22 | 北京旷视科技有限公司 | 图像处理方法、装置、电子设备和计算机可读介质 |
US10891511B1 (en) | 2018-09-30 | 2021-01-12 | Plex-Vr Digital Technology (Shanghai) Co., Ltd. | Human hairstyle generation method based on multi-feature retrieval and deformation |
WO2020063527A1 (zh) * | 2018-09-30 | 2020-04-02 | 叠境数字科技(上海)有限公司 | 基于多特征检索和形变的人体发型生成方法 |
GB2581758B (en) * | 2018-09-30 | 2021-04-14 | Plex Vr Digital Tech Shanghai Co Ltd | Human hair style generation method based on multi-feature search and deformation |
KR102154470B1 (ko) * | 2018-09-30 | 2020-09-09 | 플렉스-브이알 디지털 테크놀로지 (상하이) 씨오., 엘티디. | 다중 특징 검색 및 변형에 기반한 3차원 인체 헤어스타일 생성 방법 |
KR20200070409A (ko) * | 2018-09-30 | 2020-06-17 | 플렉스-브이알 디지털 테크놀로지 (상하이) 씨오., 엘티디. | 다중 특징 검색 및 변형에 기반한 인체 헤어스타일 생성 방법 |
GB2581758A (en) * | 2018-09-30 | 2020-08-26 | Plex-Vr Digital Tech (Shanghai) Coltd | Human hair style generation method based on multi-feature search and deformation |
CN111382746A (zh) * | 2018-12-29 | 2020-07-07 | 杭州光启人工智能研究院 | 数据打标方法、计算机装置及计算机可读存储介质 |
CN109754011A (zh) * | 2018-12-29 | 2019-05-14 | 北京中科寒武纪科技有限公司 | 基于Caffe的数据处理方法、装置和相关产品 |
CN109754011B (zh) * | 2018-12-29 | 2019-11-12 | 北京中科寒武纪科技有限公司 | 基于Caffe的数据处理方法、装置和相关产品 |
CN110298393A (zh) * | 2019-06-14 | 2019-10-01 | 深圳志合天成科技有限公司 | 一种基于深度学习的头发头皮健康状况检测方法 |
CN111161405B (zh) * | 2019-12-24 | 2023-08-01 | 东南大学 | 一种动物毛发三维重建方法 |
CN111161405A (zh) * | 2019-12-24 | 2020-05-15 | 东南大学 | 一种动物毛发三维重建方法 |
CN111598939B (zh) * | 2020-05-22 | 2021-01-26 | 中原工学院 | 一种基于多目视觉系统的人体围度测量方法 |
CN111598939A (zh) * | 2020-05-22 | 2020-08-28 | 中原工学院 | 一种基于多目视觉系统的人体围度测量方法 |
CN111767928A (zh) * | 2020-06-28 | 2020-10-13 | 中国矿业大学 | 基于卷积神经网络提取图像特征信息的方法及装置 |
CN111767928B (zh) * | 2020-06-28 | 2023-08-08 | 中国矿业大学 | 基于卷积神经网络提取图像特征信息的方法及装置 |
CN113065412A (zh) * | 2021-03-12 | 2021-07-02 | 武汉大学 | 基于改进的Deeplabv3+的航拍图像电磁介质语义识别方法及装置 |
CN113095213A (zh) * | 2021-04-09 | 2021-07-09 | 重庆零壹空间科技集团有限公司 | 一种消落带变化监测方法 |
CN113469011A (zh) * | 2021-07-31 | 2021-10-01 | 国网上海市电力公司 | 一种基于遥感图像分类算法的规划地地物识别方法和装置 |
CN113838028A (zh) * | 2021-09-24 | 2021-12-24 | 无锡祥生医疗科技股份有限公司 | 一种颈动脉超声自动多普勒方法、超声设备及存储介质 |
CN116664585B (zh) * | 2023-08-02 | 2023-11-24 | 瑞茜时尚(深圳)有限公司 | 基于深度学习的头皮健康状况检测方法及相关装置 |
CN116664585A (zh) * | 2023-08-02 | 2023-08-29 | 瑞茜时尚(深圳)有限公司 | 基于深度学习的头皮健康状况检测方法及相关装置 |
Also Published As
Publication number | Publication date |
---|---|
CN108280397B (zh) | 2020-04-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108280397A (zh) | 基于深度卷积神经网络的人体图像头发检测方法 | |
CN110084156B (zh) | 一种步态特征提取方法及基于步态特征的行人身份识别方法 | |
CN104992223B (zh) | 基于深度学习的密集人数估计方法 | |
CN104268583B (zh) | 基于颜色区域特征的行人重识别方法及系统 | |
CN102609686B (zh) | 一种行人检测方法 | |
CN103514456B (zh) | 基于压缩感知多核学习的图像分类方法及其装置 | |
CN108171112A (zh) | 基于卷积神经网络的车辆识别与跟踪方法 | |
CN110147743A (zh) | 一种复杂场景下的实时在线行人分析与计数系统及方法 | |
CN106529448A (zh) | 利用聚合通道特征进行多视角人脸检测的方法 | |
CN110532900A (zh) | 基于U-Net和LS-CNN的人脸表情识别方法 | |
CN107945153A (zh) | 一种基于深度学习的路面裂缝检测方法 | |
CN107748873A (zh) | 一种融合背景信息的多峰目标跟踪方法 | |
CN104134071A (zh) | 一种基于颜色描述的可变形部件模型物体检测方法 | |
CN108564012B (zh) | 一种基于人体特征分布的行人解析方法 | |
CN102902986A (zh) | 自动性别识别系统及方法 | |
CN103854027A (zh) | 一种人群行为识别方法 | |
CN103310194A (zh) | 视频中基于头顶像素点梯度方向的行人头肩部检测方法 | |
CN105260738A (zh) | 基于主动学习的高分辨率遥感影像变化检测方法及系统 | |
CN103390164A (zh) | 基于深度图像的对象检测方法及其实现装置 | |
CN106055653A (zh) | 基于图像语义注释的视频浓缩对象检索方法 | |
CN109753950A (zh) | 动态人脸表情识别方法 | |
CN106373146A (zh) | 一种基于模糊学习的目标跟踪方法 | |
CN104978567A (zh) | 基于场景分类的车辆检测方法 | |
CN106127812A (zh) | 一种基于视频监控的客运站非出入口区域的客流统计方法 | |
CN106778650A (zh) | 基于多类型信息融合的场景自适应行人检测方法和系统 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |