CN105740892A - 一种高准确率的基于卷积神经网络的人体多部位识别方法 - Google Patents

一种高准确率的基于卷积神经网络的人体多部位识别方法 Download PDF

Info

Publication number
CN105740892A
CN105740892A CN201610056618.9A CN201610056618A CN105740892A CN 105740892 A CN105740892 A CN 105740892A CN 201610056618 A CN201610056618 A CN 201610056618A CN 105740892 A CN105740892 A CN 105740892A
Authority
CN
China
Prior art keywords
frame
convolutional neural
neural networks
score
human body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201610056618.9A
Other languages
English (en)
Inventor
刘波
张恒瑜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing University of Technology
Original Assignee
Beijing University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing University of Technology filed Critical Beijing University of Technology
Priority to CN201610056618.9A priority Critical patent/CN105740892A/zh
Publication of CN105740892A publication Critical patent/CN105740892A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种高准确率的基于卷积神经网络的人体多部位识别方法。采用深度卷积神经网络提取图像特征,该方法充分利用了图像的深度信息,极大的提高了图像的识别准确率;其次,基于RCNN方法利用Selective Search算法形成候选边框,比滑动窗口方法更能适应深度卷积网络下定位信息的准确性;进一步的,通过将卷积神经网络的最后一层Softmax层替换成SVM,最终获得了基于分类的得分;另外,获得各个候选边框的相对于各个类别的SVM得分后,通过添加基于像素的位置范围约束、K近邻约束和混合高斯模型最终形成基于整体理解的候选边框组合,提高了人体多部位识别的准确率,比原有RCNN的方法定位更加精准。

Description

一种高准确率的基于卷积神经网络的人体多部位识别方法
技术领域
本发明涉及模式识别与深度学习领域,特别是一种高准确率的基于卷积神经网络的人体多部位识别方法。
背景技术
人体识别是计算机视觉的一大热点。在过去,人体识别的大多基于低层次的特征因子和高层次的上下文。SIFT算子和HOG算子便是这其中的常用算子,他们都是基于低层次的方向直方图得来的,但图像的特征是分层的并且是逐层推进的,所以,LeCun等人在Rumelhart等人的研究基础上提出了基于反向传播进行随机梯度下降算法的卷积神经网络(CNN)的训练方法并在当时得到了相当的重视而且在计算机视觉领域形成了新的认知。
虽然CNN在90年代得到了广泛的应用,但是后来还是被支持向量机(SVM)超越,直到2012年Krizhevsky等人在ImageNetLargeScaleVisualRecognitionChallenge(ILSVRC)上的巨大成功才将大众的视野拉回到CNN上来,该算法的成功主要在(1)大数量级的标注数据(2)对LeCun网络结构的改进:激活函数采用f(x)=max(0,x)来提高速度和采用dropout减少过拟合。
虽然CNN在识别领域取得了骄人的成绩,但是CNN做的工作多是分类,而对于识别中的另一个工作——定位涉及较少。RCNN的提出极大地结合了卷积神经网络和多种机器学习算法,化解了识别与定位之间的鸿沟。
人体多部位识别不仅仅需要识别出整个人体,还需要对人体的各个部位进行定位,最终形成对每个人体和其相应部位的整体理解。如何建立随动作姿势和视角变化还能保持较高准确率的整体和各个部位的关联模型称为了重中之重,在过去的方法中,Poselets和DPM等几何约束算法取得了较好的成果,但这些成果大多基于给定的整体边框来定位各个部位的位置,所以以上方法也需要进一步的改进。
发明内容
本发明提供一种高准确率的基于卷积神经网络的人体多部位识别方法。本发明中采用深度卷积神经网络提取图像特征,这种方法充分利用了图像的深度信息,极大的提高了图像的识别准确率;其次,基于RCNN方法利用SelectiveSearch算法形成候选边框,比滑动窗口方法更能适应深度卷积网络下定位信息的准确性;进一步的,通过将卷积神经网络的最后一层Softmax层替换成SVM,最终获得了基于分类的得分;另外,获得各个候选边框的相对于各个类别的SVM得分后,通过添加基于像素的位置范围约束、K近邻约束和混合高斯模型最终形成基于整体理解的候选边框组合,提高了人体多部位识别的准确率,比原有RCNN的方法定位更加精准。
本发明采用如下技术方案:
一种高准确率的基于卷积神经网络的人体多部位识别方法,如图1所示,包括SelectiveSearch图像分割算法,深层卷积神经网络,基于深层特征训练出的支持向量机和三种空间几何约束(空间像素范围约束,K近邻约束,混合高斯模型约束)。当输入一幅RGB图像,首先通过SelectiveSearch算法生成大约2000个候选边框,然后通过卷积神经网络计算这些候选边框的全相连层特征,之后通过全相连层特征进一步计算其支持向量机的分类得分,再然后假定每一个候选边框都为人体整体边框并通过空间几何约束计算其相应的部位边框和该边框组合的得分,最后通过非最大化抑制和阈值的限制获得最终的边框组合并显示出来。
所述的SelectiveSearch算法是一种基于分层区域合并的图像分割方法,本发明中采用SelectiveSearch的快速模式,平均每张图片会产生大约2000个尺寸不一的候选区域边框,此算法的优点是采用多元策略集以便适应几乎所用情况将小区域合并在一起形成分层区域合并的边框范围,另一个优点是计算速度快。其中,区域的合并方式是有层次的、类似于哈夫曼树的构造过程,通过使用EfficientGraph-BasedImageSegmentation的方法获取原始分割区域并通过计算相似度不断对区域进行合并。计算相似度时该算法还充分从颜色、纹理、大小等方面考虑,并将以上方面进行加权得分。
所述的深度卷积神经网络采用的深度卷积神经网络结构如图2所示,输入为224*224的RGB图像,是将候选区域进行缩放填充得到的,然后通过五层卷积层、三层池化层和三层全连接层最终得到候选区域的分类结果。值得一提的是该网络结构采用了Max(x,0)代替原有激活函数极大的提高了计算速度,并且采用了dropout的方法随机舍弃不必要的值来降低过拟合。训练时,将整个人体和各个部位当作不同的类别处理并通过无监督的大数量级的数据的训练和有监督的相对小数量级的数据的权值微调,最终训练出的深度卷积神经网络分类器有了较高的分类准确率,为下一步识别定位奠定了基础。
所述的支持向量机分类器是通过输入深度卷积神经网络的全相连层FC7的图像特征和该图像类别训练出的。相较原有卷积神经网络只输出分类类别,通过训练该支持向量机获得分类得分,这为后续在得分基础上添加几何约束奠定了基础。
所述的空间像素范围约束是当假设该候选边框为整个人体边框,那么其相应的部位边框一定会在其附近并且不超过一定数量的像素,本发明中通过五折交叉检验确定这个像素数量,即将训练数据分成五份,每次拿出其中一份作为测试数据其余四份作为训练数据,重复进行五次获得最终结果。在测试时通过限定这种空间像素的位置关系将会得到很多基于整体理解的边框组合。
所述的混合高斯模型约束是根据人体之间动作、姿态的相似性获得的。在训练时,根据人体主边框和各个相应部位边框的位置和相对大小拟合出混合高斯模型。测试时,给定得分最高的若干主边框,通过尝试不同部位边框的混合高斯模型得分,选出得分超过阈值的边框组合,本约束是建立在空间像素约束之上的方法。
所述的K近邻约束是建立在混合高斯模型的基础上的约束,通过K近邻算法查找与测试图片中假设为整体的边框最相近的K个训练集中的整体边框,然后获取该K个训练边框的混合高斯模型,分别用这些混合高斯模型参数去拟合测试边框,最终获得得分超过阈值的边框组合。
与现有技术相比,本发明具有一下优点:
本发明采用深度卷积神经网络提取图像特征,极大地提高了图像检测的准确率,充分利用了图像特征的分层传递;其次,利用SelectiveSearch工具包形成候选边框,比滑动窗口方法更能适应深度卷积网络下定位信息的准确性;进一步的,通过将卷积神经网络的最后一层Softmax层替换成SVM,最终获得了基于分类的得分;另外,获得各个候选边框的相对于各个类别的SVM得分后,通过添加基于像素的位置范围约束、K近邻约束和混合高斯模型最终形成基于整体理解的候选边框组合,如图3所示,本发明不仅对人整体定位准确而且对各个部位把握也很精准。除此之外,通过对各个部位的定位的准确也提高了人体整体识别的准确率,比原有RCNN的方法定位更加精准,如图4所示,是本发明算法与RCNN对同一图像检测结果的比较,上方的为本发明的结果,下方的为RCNN的结果,本发明的结果明显对人体识别有着更精准的定位。
附图说明
图1是本发明的人体多部位识别模型的结构图;
图2是本发明的人体多部位识别模型中的卷积神经网络的结构图;
图3是本发明进行人体识别的实例;
图4是本发明算法与RCNN对同一图像检测结果的比较,上方的为本发明的结果,下方的为RCNN的结果。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,下面结合附图和公式,对本发明作进一步详细说明。
图2是本发明的整体人体多部位识别模型中的卷积神经网络的结构图,采用的是Krizhevsky等人的深度卷积神经网络结构,输入为224*224的RGB图像,然后通过五层卷积层、三层池化层和三层全连接层最终得到候选区域的分类结果。其中激活函数由之前的f(x)=tanh(x)或者f(x)=(1+e-x)-1变为f(x)=max(0,x),极大的提升了卷积神经网络的计算速度。局部相应归一化采用 b x , y i = α x , y i / ( k + α Σ j = max ( 0 , i - n 2 ) min ( N - 1 , i + n 2 ) ( α x , y j ) 2 ) β
,其中k=2,n=5,α=10-4,β=0.75。另外,卷积神经网络中还添加了防止过拟合的dropout方法。在训练该网络时,首先利用已经通过大量无监督学习过的网络进行权值预设,然后进行有监督的权值微调。在权值微调时,将整体和各个部位分别作为不同的类别进行训练,通过将SelectiveSearch产生的候选边框通过填充和缩放到固定的大小后作为神经网络的输入,其中与已标注边框重叠度超过0.7的边框的标签设为该已标注边框的类别标签,如果与所有已标注边框的重叠都小于0.3那么该边框的分类标签设为背景标签。然后将该边框通过卷积神经网络后的类别输出与真实类别标签进行比较,通过反向传播算法对权值进行修正。
通过卷积神经网络后,可以得到分类标签但无法量化得分,所以在卷积神经网络的基础上训练支持向量机用以量化得分。支持向量机的输入为卷积神经网络的全相连第七层,输出为类别得分,从-1到1。训练方法与上方卷积神经网络的训练方法类似。
通过以上两步后,可以获得每个候选边框相对于每个类别的分类得分但是无法获得候选边框之间的关联,所以本发明通过添加几何约束来形成系统的理解,所用的公式如下,,其中Δ(X)是各种空间几何约束,di(xi)为整体边框或者部位边框的支持向量机得分。
空间像素范围约束是以整体边框为主体,寻找空间位置上与其不超过10个像素的候选部位边框,最终通过主边框与候选部位边框的支持向量机得分的成绩的幂最终选出边框组合。公式如下, Δ p o s i t i o n ( X ) = Π i = 1 n C X 0 ( x i ) .
其中,
混合高斯模型约束是根据人体之间动作、姿态的相似性进行模拟出的。在训练时,根据人体主边框和各个相应部位边框的位置和相对大小拟合出混合高斯模型。测试时,给定得分最高的若干主边框,通过尝试不同部位边框的混合高斯模型得分,选出得分超过阈值的边框组合,本约束是建立在空间像素约束之上的方法,公式为 Δ g u s s i o n ( X ) = Δ p o s i t i o n ( X ) ( Π i = 1 n δ i ( x i ) ) ∝ , 其中α是五折交叉检验训练出的成绩系数为0.01,δi(xi)是混合高斯模型得分,混合高斯模型中模型的个数为4。
K近邻约束是建立在混合高斯模型的基础上的约束,通过K近邻算法查找与测试图片中假设为整体的边框最相近的K个训练集中的整体边框,然后获取该K个训练边框的混合高斯模型,分别用这些混合高斯模型参数去拟合测试边框,最终获得得分超过阈值的边框组合,公式为 Δ k n n ( X ) = Δ p o s i t i o n ( X ) ( Π i = 1 n δ i ( x i ) ) ∝ ,其中α是训练出的成绩系数为0.01,δi(xi)是K近邻模型得分,其中K通过五折交叉检验确定为30。
对所公开的实施例的上述说明,使本领域准也技术人员能够实现或使用本发明。对这些实施例的多种修改对本领域的专业技术人员来说将是显而易见的,本文中所定义的一般原理可以在不脱离本发明的精神或范围的情况下,在其它实施例中实现。因此,本发明将不会被限制于本文所示的这些实施例,而是要符合与本文所公开的原理和新颖特点相一致的最宽的范围。

Claims (8)

1.一种高准确率的基于卷积神经网络的人体多部位识别方法,其特征在于:该方法包括SelectiveSearch图像分割算法、深层卷积神经网络、基于深层特征训练出的支持向量机和三种空间几何约束;当输入一幅RGB图像,首先通过SelectiveSearch算法生成大约2000个候选边框,然后通过卷积神经网络计算这些候选边框的全相连层特征,之后通过全相连层特征进一步计算其支持向量机的分类得分,再然后假定每一个候选边框都为人体整体边框并通过空间几何约束计算其相应的部位边框和该边框组合的得分,最后通过非最大化抑制和阈值的限制获得最终的边框组合并显示出来。
2.根据权利要求1所述的一种高准确率的基于卷积神经网络的人体多部位识别方法,其特征在于:所述的SelectiveSearch算法是一种基于分层区域合并的图像分割方法,本发明中采用SelectiveSearch的快速模式,平均每张图片会产生大约2000个尺寸不一的候选区域边框,此算法的优点是采用多元策略集以便适应几乎所用情况将小区域合并在一起形成分层区域合并的边框范围,另一个优点是计算速度快;其中,区域的合并方式是有层次的、类似于哈夫曼树的构造过程,通过使用EfficientGraph-BasedImageSegmentation的方法获取原始分割区域并通过计算相似度不断对区域进行合并;计算相似度时该算法还充分从颜色、纹理、大小等方面考虑,并将以上方面进行加权得分。
3.根据权利要求1所述的一种高准确率的基于卷积神经网络的人体多部位识别方法,其特征在于:所述的深度卷积神经网络采用的深度卷积神经网络结构,输入为224*224的RGB图像,是将候选区域进行缩放填充得到的,然后通过五层卷积层、三层池化层和三层全连接层最终得到候选区域的分类结果;值得一提的是该网络结构采用了Max(x,0)代替原有激活函数极大的提高了计算速度,并且采用了dropout的方法随机舍弃不必要的值来降低过拟合;训练时,将整个人体和各个部位当作不同的类别处理并通过无监督的大数量级的数据的训练和有监督的相对小数量级的数据的权值微调,最终训练出的深度卷积神经网络分类器有了较高的分类准确率,为下一步识别定位奠定了基础。
4.根据权利要求1所述的一种高准确率的基于卷积神经网络的人体多部位识别方法,其特征在于:所述的支持向量机分类器是通过输入深度卷积神经网络的全相连层FC7的图像特征和该图像类别训练出的;相较原有卷积神经网络只输出分类类别,通过训练该支持向量机获得分类得分,这为后续在得分基础上添加几何约束奠定了基础。
5.根据权利要求1所述的一种高准确率的基于卷积神经网络的人体多部位识别方法,其特征在于:所述的空间像素范围约束是当假设该候选边框为整个人体边框,那么其相应的部位边框一定会在其附近并且不超过一定数量的像素,本发明中通过五折交叉检验确定这个像素数量,即将训练数据分成五份,每次拿出其中一份作为测试数据其余四份作为训练数据,重复进行五次获得最终结果;在测试时通过限定这种空间像素的位置关系将会得到很多基于整体理解的边框组合。
6.根据权利要求1所述的一种高准确率的基于卷积神经网络的人体多部位识别方法,其特征在于:所述的混合高斯模型约束是根据人体之间动作、姿态的相似性获得的;在训练时,根据人体主边框和各个相应部位边框的位置和相对大小拟合出混合高斯模型;测试时,给定得分最高的若干主边框,通过尝试不同部位边框的混合高斯模型得分,选出得分超过阈值的边框组合,本约束是建立在空间像素约束之上的方法。
7.根据权利要求1所述的一种高准确率的基于卷积神经网络的人体多部位识别方法,其特征在于:所述的K个近邻约束是建立在混合高斯模型的基础上的约束,通过K个近邻算法查找与测试图片中假设为整体的边框最相近的K个训练集中的整体边框,然后获取该K个训练边框的混合高斯模型,分别用这些混合高斯模型参数去拟合测试边框,最终获得得分超过阈值的边框组合。
8.根据权利要求1所述的一种高准确率的基于卷积神经网络的人体多部位识别方法,其特征在于:采用深度卷积神经网络结构,输入为224*224的RGB图像,然后通过五层卷积层、三层池化层和三层全连接层最终得到候选区域的分类结果;其中激活函数由之前的f(x)=tanh(x)或者f(x)=(1+e-x)-1变为f(x)=max(0,x),极大的提升了卷积神经网络的计算速度;局部相应归一化采用 b x , y i = α x , y i / ( k + α Σ j = max ( 0 , i - n 2 ) min ( N - 1 , i + n 2 ) ( α x , y j ) 2 ) β
其中k=2,n=5,α=10-4,β=0.75;另外,卷积神经网络中还添加了防止过拟合的dropout方法;在训练该网络时,首先利用已经通过大量无监督学习过的网络进行权值预设,然后进行有监督的权值微调;在权值微调时,将整体和各个部位分别作为不同的类别进行训练,通过将SelectiveSearch产生的候选边框通过填充和缩放到固定的大小后作为神经网络的输入,其中与已标注边框重叠度超过0.7的边框的标签设为该已标注边框的类别标签,如果与所有已标注边框的重叠都小于0.3那么该边框的分类标签设为背景标签;然后将该边框通过卷积神经网络后的类别输出与真实类别标签进行比较,通过反向传播算法对权值进行修正;
通过卷积神经网络后,可以得到分类标签但无法量化得分,所以在卷积神经网络的基础上训练支持向量机用以量化得分;支持向量机的输入为卷积神经网络的全相连第七层,输出为类别得分,从-1到1;训练方法与上方卷积神经网络的训练方法类似;
通过以上两步后,可以获得每个候选边框相对于每个类别的分类得分但是无法获得候选边框之间的关联,所以本发明通过添加几何约束来形成系统的理解,所用的公式如下,,其中Δ(X)是各种空间几何约束,di(xi)为整体边框或者部位边框的支持向量机得分;
空间像素范围约束是以整体边框为主体,寻找空间位置上与其不超过10个像素的候选部位边框,最终通过主边框与候选部位边框的支持向量机得分的成绩的幂最终选出边框组合;公式如下, Δ p o s i t i o n ( X ) = Π i = 1 n C x 0 ( x i ) ;
其中,
混合高斯模型约束是根据人体之间动作、姿态的相似性进行模拟出的;在训练时,根据人体主边框和各个相应部位边框的位置和相对大小拟合出混合高斯模型;测试时,给定得分最高的若干主边框,通过尝试不同部位边框的混合高斯模型得分,选出得分超过阈值的边框组合,本约束是建立在空间像素约束之上的方法,公式为 Δ g u s s i o n ( X ) = Δ p o s i t i o n ( X ) ( Π i = 1 n δ i ( x i ) ) ∝ , 其中α是五折交叉检验训练出的成绩系数为0.01,δi(xi)是混合高斯模型得分,混合高斯模型中模型的个数为4;
K近邻约束是建立在混合高斯模型的基础上的约束,通过K近邻算法查找与测试图片中假设为整体的边框最相近的K个训练集中的整体边框,然后获取该K个训练边框的混合高斯模型,分别用这些混合高斯模型参数去拟合测试边框,最终获得得分超过阈值的边框组合,公式为 Δ k n n ( X ) = Δ p o s i t i o n ( X ) ( Π i = 1 n δ i ( x i ) ) ∝ ,其中α是训练出的成绩系数为0.01,δi(xi)是K近邻模型得分,其中K通过五折交叉检验确定为30。
CN201610056618.9A 2016-01-27 2016-01-27 一种高准确率的基于卷积神经网络的人体多部位识别方法 Pending CN105740892A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201610056618.9A CN105740892A (zh) 2016-01-27 2016-01-27 一种高准确率的基于卷积神经网络的人体多部位识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201610056618.9A CN105740892A (zh) 2016-01-27 2016-01-27 一种高准确率的基于卷积神经网络的人体多部位识别方法

Publications (1)

Publication Number Publication Date
CN105740892A true CN105740892A (zh) 2016-07-06

Family

ID=56247707

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201610056618.9A Pending CN105740892A (zh) 2016-01-27 2016-01-27 一种高准确率的基于卷积神经网络的人体多部位识别方法

Country Status (1)

Country Link
CN (1) CN105740892A (zh)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106372571A (zh) * 2016-08-18 2017-02-01 宁波傲视智绘光电科技有限公司 路面交通标志检测与识别方法
CN106507291A (zh) * 2016-12-16 2017-03-15 上海斐讯数据通信技术有限公司 一种wifi认证方法及其系统、一种移动终端
CN106507356A (zh) * 2016-12-16 2017-03-15 上海斐讯数据通信技术有限公司 一种无线认证方法及其系统
CN106650725A (zh) * 2016-11-29 2017-05-10 华南理工大学 基于全卷积神经网络的候选文本框生成和文本检测方法
CN106650655A (zh) * 2016-12-16 2017-05-10 北京工业大学 一种基于卷积神经网络的动作检测模型
CN106803083A (zh) * 2017-02-04 2017-06-06 北京旷视科技有限公司 行人检测的方法及装置
CN106991428A (zh) * 2017-02-24 2017-07-28 中国科学院合肥物质科学研究院 基于自适应池化模型的害虫图像识别方法
CN107424184A (zh) * 2017-04-27 2017-12-01 厦门美图之家科技有限公司 一种基于卷积神经网络的图像处理方法、装置及移动终端
WO2018035768A1 (zh) * 2016-08-24 2018-03-01 深圳天珑无线科技有限公司 一种候选框尺度的获取方法及装置
WO2018054329A1 (zh) * 2016-09-23 2018-03-29 北京市商汤科技开发有限公司 物体检测方法和装置、电子设备、计算机程序和存储介质
CN107945153A (zh) * 2017-11-07 2018-04-20 广东广业开元科技有限公司 一种基于深度学习的路面裂缝检测方法
CN108154161A (zh) * 2016-12-05 2018-06-12 上海西门子医疗器械有限公司 训练分类器的方法、确定受检对象体位的方法和医疗器械
TWI638332B (zh) * 2016-11-29 2018-10-11 財團法人車輛研究測試中心 Hierarchical object detection system with parallel architecture and method thereof
CN108830145A (zh) * 2018-05-04 2018-11-16 深圳技术大学(筹) 一种基于深度神经网络的人数统计方法及存储介质
CN109214346A (zh) * 2018-09-18 2019-01-15 中山大学 基于层次信息传递的图片人体动作识别方法
WO2019036845A1 (en) * 2017-08-21 2019-02-28 Nokia Technologies Oy METHOD, SYSTEM AND APPARATUS FOR PATTERN RECOGNITION
CN109558787A (zh) * 2018-09-28 2019-04-02 浙江农林大学 一种基于卷积神经网络模型的竹林害虫识别方法
CN109800665A (zh) * 2018-12-28 2019-05-24 广州粤建三和软件股份有限公司 一种人体行为识别方法、系统及存储介质
CN109934081A (zh) * 2018-08-29 2019-06-25 厦门安胜网络科技有限公司 一种基于深度神经网络的行人属性识别方法、装置及存储介质
CN110298318A (zh) * 2019-07-01 2019-10-01 北京中星微电子有限公司 人头人体联合检测方法、装置和电子设备
CN110390660A (zh) * 2018-04-16 2019-10-29 北京连心医疗科技有限公司 一种医学图像危及器官自动分类方法、设备和储存介质
CN110781814A (zh) * 2019-10-24 2020-02-11 中国民用航空总局第二研究所 一种基于高斯混合神经网络模型的信号分类方法、设备及介质
CN111652430A (zh) * 2020-05-29 2020-09-11 蚌埠学院 一种互联网金融平台违约率的预测方法及系统
CN111783754A (zh) * 2020-09-04 2020-10-16 中国科学院自动化研究所 基于部位上下文的人体属性图像分类方法、系统和装置

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573731A (zh) * 2015-02-06 2015-04-29 厦门大学 基于卷积神经网络的快速目标检测方法
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104573731A (zh) * 2015-02-06 2015-04-29 厦门大学 基于卷积神经网络的快速目标检测方法
CN104933417A (zh) * 2015-06-26 2015-09-23 苏州大学 一种基于稀疏时空特征的行为识别方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
NING ZHANG: ""Part-based R-CNNs for Fine-grained Category Detection"", 《LECTURE NOTES IN COMPUTER SCIENCE》 *
ROSS GIRSHICK: ""Rich feature hierarchies for accurate object detection and semantic segmentation"", 《IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION》 *

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106372571A (zh) * 2016-08-18 2017-02-01 宁波傲视智绘光电科技有限公司 路面交通标志检测与识别方法
WO2018035768A1 (zh) * 2016-08-24 2018-03-01 深圳天珑无线科技有限公司 一种候选框尺度的获取方法及装置
WO2018054329A1 (zh) * 2016-09-23 2018-03-29 北京市商汤科技开发有限公司 物体检测方法和装置、电子设备、计算机程序和存储介质
TWI638332B (zh) * 2016-11-29 2018-10-11 財團法人車輛研究測試中心 Hierarchical object detection system with parallel architecture and method thereof
CN106650725B (zh) * 2016-11-29 2020-06-26 华南理工大学 基于全卷积神经网络的候选文本框生成和文本检测方法
CN106650725A (zh) * 2016-11-29 2017-05-10 华南理工大学 基于全卷积神经网络的候选文本框生成和文本检测方法
CN108154161A (zh) * 2016-12-05 2018-06-12 上海西门子医疗器械有限公司 训练分类器的方法、确定受检对象体位的方法和医疗器械
CN106507356A (zh) * 2016-12-16 2017-03-15 上海斐讯数据通信技术有限公司 一种无线认证方法及其系统
CN106507291A (zh) * 2016-12-16 2017-03-15 上海斐讯数据通信技术有限公司 一种wifi认证方法及其系统、一种移动终端
CN106650655A (zh) * 2016-12-16 2017-05-10 北京工业大学 一种基于卷积神经网络的动作检测模型
CN106803083A (zh) * 2017-02-04 2017-06-06 北京旷视科技有限公司 行人检测的方法及装置
CN106803083B (zh) * 2017-02-04 2021-03-19 北京旷视科技有限公司 行人检测的方法及装置
CN106991428A (zh) * 2017-02-24 2017-07-28 中国科学院合肥物质科学研究院 基于自适应池化模型的害虫图像识别方法
CN107424184A (zh) * 2017-04-27 2017-12-01 厦门美图之家科技有限公司 一种基于卷积神经网络的图像处理方法、装置及移动终端
CN107424184B (zh) * 2017-04-27 2019-10-11 厦门美图之家科技有限公司 一种基于卷积神经网络的图像处理方法、装置及移动终端
US11514661B2 (en) 2017-08-21 2022-11-29 Nokia Technologies Oy Method, system and apparatus for pattern recognition
WO2019036845A1 (en) * 2017-08-21 2019-02-28 Nokia Technologies Oy METHOD, SYSTEM AND APPARATUS FOR PATTERN RECOGNITION
CN107945153A (zh) * 2017-11-07 2018-04-20 广东广业开元科技有限公司 一种基于深度学习的路面裂缝检测方法
CN110390660A (zh) * 2018-04-16 2019-10-29 北京连心医疗科技有限公司 一种医学图像危及器官自动分类方法、设备和储存介质
CN108830145A (zh) * 2018-05-04 2018-11-16 深圳技术大学(筹) 一种基于深度神经网络的人数统计方法及存储介质
CN109934081A (zh) * 2018-08-29 2019-06-25 厦门安胜网络科技有限公司 一种基于深度神经网络的行人属性识别方法、装置及存储介质
CN109214346A (zh) * 2018-09-18 2019-01-15 中山大学 基于层次信息传递的图片人体动作识别方法
CN109558787A (zh) * 2018-09-28 2019-04-02 浙江农林大学 一种基于卷积神经网络模型的竹林害虫识别方法
CN109800665A (zh) * 2018-12-28 2019-05-24 广州粤建三和软件股份有限公司 一种人体行为识别方法、系统及存储介质
CN110298318A (zh) * 2019-07-01 2019-10-01 北京中星微电子有限公司 人头人体联合检测方法、装置和电子设备
CN110298318B (zh) * 2019-07-01 2023-09-29 北京中星微电子有限公司 人头人体联合检测方法、装置和电子设备
CN110781814A (zh) * 2019-10-24 2020-02-11 中国民用航空总局第二研究所 一种基于高斯混合神经网络模型的信号分类方法、设备及介质
CN111652430A (zh) * 2020-05-29 2020-09-11 蚌埠学院 一种互联网金融平台违约率的预测方法及系统
CN111783754A (zh) * 2020-09-04 2020-10-16 中国科学院自动化研究所 基于部位上下文的人体属性图像分类方法、系统和装置
CN111783754B (zh) * 2020-09-04 2020-12-08 中国科学院自动化研究所 基于部位上下文的人体属性图像分类方法、系统和装置

Similar Documents

Publication Publication Date Title
CN105740892A (zh) 一种高准确率的基于卷积神经网络的人体多部位识别方法
CN108229397B (zh) 基于Faster R-CNN的图像中文本检测方法
CN107463892A (zh) 一种结合上下文信息和多级特征的图像中行人检测方法
CN109241982A (zh) 基于深浅层卷积神经网络的目标检测方法
CN107451602A (zh) 一种基于深度学习的果蔬检测方法
CN103049763B (zh) 一种基于上下文约束的目标识别方法
CN108304873A (zh) 基于高分辨率光学卫星遥感影像的目标检测方法及其系统
CN108182454A (zh) 安检识别系统及其控制方法
CN109145713A (zh) 一种结合目标检测的小目标语义分割方法
CN106875406A (zh) 图像引导的视频语义对象分割方法及装置
CN107945153A (zh) 一种基于深度学习的路面裂缝检测方法
CN107871124A (zh) 一种基于深度神经网络的遥感图像目标检测方法
CN107515895A (zh) 一种基于目标检测的视觉目标检索方法与系统
CN105825502B (zh) 一种基于显著性指导的词典学习的弱监督图像解析方法
CN106709568A (zh) 基于深层卷积网络的rgb‑d图像的物体检测和语义分割方法
CN104463209A (zh) 一种基于bp神经网络的pcb板上数字代码识别方法
CN106528826A (zh) 一种基于深度学习的多视图外观专利图像检索方法
CN106778835A (zh) 融合场景信息和深度特征的遥感图像机场目标识别方法
CN106980858A (zh) 一种语言文本检测与定位系统及应用该系统的语言文本检测与定位方法
CN107529650A (zh) 网络模型的构建和闭环检测方法、相应装置及计算机设备
CN105574063A (zh) 基于视觉显著性的图像检索方法
CN106778852A (zh) 一种修正误判的图像内容识别方法
CN113160062B (zh) 一种红外图像目标检测方法、装置、设备及存储介质
CN106683104A (zh) 基于集成深度卷积神经网络的前列腺磁共振图像分割方法
CN107463881A (zh) 一种基于深度增强学习的人物图像搜索方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication
RJ01 Rejection of invention patent application after publication

Application publication date: 20160706