CN105787510A - 基于深度学习实现地铁场景分类的系统及方法 - Google Patents
基于深度学习实现地铁场景分类的系统及方法 Download PDFInfo
- Publication number
- CN105787510A CN105787510A CN201610107387.XA CN201610107387A CN105787510A CN 105787510 A CN105787510 A CN 105787510A CN 201610107387 A CN201610107387 A CN 201610107387A CN 105787510 A CN105787510 A CN 105787510A
- Authority
- CN
- China
- Prior art keywords
- layer
- convolutional neural
- image
- neural networks
- input
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/15—Correlation function computation including computation of convolution operations
- G06F17/153—Multidimensional correlation or convolution
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
Abstract
本发明涉及一种基于深度学习实现地铁场景分类的系统及方法,其中包括图像预处理模块,用以对地铁场景图像进行预处理;卷积神经网络提取图像特征模块,用以利用构建的卷积神经网络进行深度特征学习并提取图像特征;全连接网络场景分类模块,用以将从卷积神经网络学习到的优选特征输入全连接神经网络并进行分类从而得到样本的标签类别。采用该种结构的基于深度学习实现地铁场景分类的系统及方法,基于卷积神经网络提取地铁场景图片特征,并用单层全连接网络作为分类器,该方法无须对场景语义进行分析,即可实现对地铁不同场景图片的正确分类,鲁棒性强;该方法对地铁后续的运行状态监测工作有重要价值,具有更广泛的应用范围。
Description
技术领域
本发明涉及模式识别技术领域,尤其涉及卷积神经网络深度学习技术领域,具体是指一种基于深度学习实现地铁场景分类的系统及方法。
背景技术
地铁运行通道内工作环境较为复杂,场景多变,为保证能在不同的场景下检测地铁是否处于良好稳定工作状态,通常需要对不同的场景采用不同的检测方法,此时能准确区分地铁各种不同的场景显得尤为重要。而现有技术中的场景分类一般采用颜色、纹理、形状等底层特征或图像语义特征进行表征分类,但特征提取和计算分析往往鲁棒性不强。
发明内容
本发明的目的是克服了上述现有技术的缺点,提供了一种可实现对地铁不同场景图片的正确分类、鲁棒性强、对地铁后续的运行状态监测工作有重要价值的基于深度学习实现地铁场景分类的系统及方法。
为了实现上述目的,本发明的基于深度学习实现地铁场景分类的系统及方法具有如下构成:
该基于深度学习实现地铁场景分类的系统,其主要特点是,所述的系统包括:
图像预处理模块,用以对地铁场景图像进行预处理;
卷积神经网络提取图像特征模块,用以利用构建的卷积神经网络进行深度特征学习并提取图像特征;
全连接网络场景分类模块,用以将从卷积神经网络学习到的优选特征输入全连接神经网络并进行分类从而得到样本的标签类别。
本发明还涉及一种根据所述的系统基于深度学习实现地铁场景分类的方法,其特征在于,所述的方法包括以下步骤:
(1)所述的图像预处理模块对地铁场景图像进行预处理;
(2)所述的卷积神经网络提取图像特征模块利用构建的卷积神经网络进行深度特征学习并提取图像特征;
(3)所述的全连接网络分类模块将从卷积神经网络学习到的优选特征输入全连接神经网络并进行分类从而得到样本的标签类别。
较佳地,所述的对地铁场景图像进行预处理,包括以下步骤:
(1-1)将地铁场景图像进行彩色转灰度变换,得到对应的灰度图像;
(1-2)将灰度图像进行缩放变换,改变图像大小至预定尺寸;
(1-3)对缩放后的灰度图像进行归一化操作。
较佳地,所述的利用构建的卷积神经网络进行深度特征学习,包括以下步骤:
(2-1)采用含4层隐含层的卷积神经网络模型构建一个深度学习模型;
(2-2)随机初始化网络模型参数;
(2-3)使用训练集对该卷积神经网络模型进行训练。
更佳地,所述的用含4层隐含层的卷积神经网络模型包括:
第一层卷积层C1:设定6张特征图,卷积核大小为5×5;
第一层下采样层S1:设定6张特征图,接受域大小为2×2;
第二层卷积层C2:设定5张特征图,卷积核大小为5×5;
第二层下采样层S2:设定5张特征图,接受域大小为2×2。
更佳地,所述的随机初始化网络模型参数,包括以下步骤:
(2-2-1)随机初始化卷积层卷积核参数,第i张输入特征图和第j张输出特征图对应的卷积核参数矩阵Kij为:
fanin=m×kersize×kersize
fanout=n×kersize×kersize
其中,i=1,2,...,num_in,j=1,2,...,num_out,num_in为输入特征图的数目,num_out为输出特征图的数目,kersize×kersize表示卷积核的大小,rand(-1,1)kersize×kersize表示大小为kersize×kersize的随机矩阵,元素取值在-1~1之间,fanin表示卷积核输入总数,fanout表示卷积核输出总数;
(2-2-2)初始化网络层加性偏置参数,每一层网络层的每张特征图对应一个加性偏置参数初始化为0。
更佳地,所述的使用训练集对该卷积神经网络模型进行训练,包括以下步骤:
(2-3-1)将训练样本Xn的灰度转换为一维向量作为输入,通过卷积层卷积操作、下采样层采样操作逐层预训练;
对于卷积层,每个输出特征图由多个输入特征图的组合卷积加上加性偏置经过sigmoid激励函数f(x)=(1+e-x)-1得到:
其中,l表示当前层,Mj表示选择的输入特征图;
对于下采样层,每个输出特征图是对输入特征图进行采样得到:
其中,down(·)表示下采样操作,输出特征图在空间两个维度上缩小m倍;是输出特征图的乘性偏置参数,取1/m2;
训练样本通过该神经网络,提取出样本特征;作为全连接网络输入,得到输出结果和标签数据相比,得到误差E;
(2-3-2)使用梯度下降法更新网络模型卷积核参数和加性偏置参数:
误差从网络的高层向底层反向传播,输出层的误差表示为:
δL=f′(uL)ο(yn-tn)
其中,L表示输出层,uL表示输出层未经过sigmoid激励函数的特征图,yn是实际输出结果,tn是期望输出结果;
对于卷积层,误差由下采样层误差传播得到:
其中,up(·)表示向上采样的操作,若下采样因子为m,具体实现为将的每一个元素水平和垂直方向上拷贝m次,取1/m2;
加性偏置更新公式:
对于卷积层,卷积核更新公式为:
其中,η为学习率,取为0.1,rot180为矩阵旋转180度运算,conv2为有效边界卷积运算;
对于下采样层,误差由卷积层误差传播得到:
加性偏置更新公式:
其中,η为学习率,取为0.1。
更佳地,所述的全连接网络分类模块将从卷积神经网络学习到的优选特征输入全连接神经网络并进行分类从而得到样本的标签类别,包括以下步骤:
(3-1)构建一个单层全连接网络模型;
(3-2)随机初始化网络模型参数:权值参数和加性偏置参数;
(3-3)使用卷积神经网络提取的训练样本图像特征作为输入,对该全连接网络模型进行训练;
(3-4)使用卷积神经网络提取的测试样本图像特征作为输入,测试全连接网络分类结果。
更进一步地,所述的随机初始化网络模型参数,包括以下步骤:
(3-2-1)根据如下公式随机初始化权值参数:
其中,onum是输出神经元个数,fvnum是输入神经元个数;
(3-2-2)初始化网络加性偏置参数,其中加性偏置向量b初始化为0。
更进一步地,所述的使用卷积神经网络提取的图像特征作为输入,对该全连接网络模型进行训练,包括以下步骤:
(3-3-1)将卷积神经网络提取的训练样本图像特征转化为一维向量x,作为输入神经元,对该全连接网络模型进行训练:
u=W×x
y=f(u)
f(x)=(1+e-x)-1
得到输出结果y和标签数据t相比,得到误差E;
(3-3-2)使用反向传播算法更新网络模型权值参数和加性偏置参数:
误差从网络的高层向底层反向传播,特征向量输入层的误差表示为:
δ=f′(u)ο(y-t)
权值参数更新公式为:
加性偏置参数更新公式为:
其中,η为学习率,取值0.1。
采用了该发明中的基于深度学习实现地铁场景分类的系统及方法,基于卷积神经网络提取地铁场景图片特征,并用单层全连接网络作为分类器,该方法无须对场景语义进行分析,即可实现对地铁不同场景图片的正确分类,鲁棒性强;该方法对地铁后续的运行状态监测工作有重要价值,具有更广泛的应用范围。
附图说明
图1为本发明的基于深度学习实现地铁场景分类的方法的流程图。
图2为本发明的图像预处理模块工作的流程图。
图3为本发明的卷积神经网络提取特征模块和全连接网络场景分类模块工作的流程图。
具体实施方式
为了能够更清楚地描述本发明的技术内容,下面结合具体实施例来进行进一步的描述。
为了实现上述目的,本发明的基于深度学习实现地铁场景分类的系统包括:
图像预处理模块,用以地铁场景图像彩色转灰度、缩放变换和归一化预处理操作;
卷积神经网络提取图像特征模块;用以利用构建的卷积神经网络进行深度特征学习,提取图像特征;
全连接网络场景分类模块,用以将从卷积神经网络学习到的优选特征输入全连接神经网络,进行分类,从而得到样本的标签类别。
本发明的基于深度学习的实现地铁场景分类的方法包括以下步骤:
(1)所述的图像预处理模块对地铁场景图像彩色转灰度、缩放变换和归一化预处理操作;
(2)所述的卷积神经网络提取图像特征模块利用构建的卷积神经网络进行深度特征学习,提取图像特征;
(3)所述的全连接网络分类模块将从卷积神经网络学习到的优选特征输入全连接神经网络,进行分类,从而得到样本的标签类别。
在一种较佳的实施方式中,所述的图像预处理模块,包括以下步骤:
(1-1)将地铁场景图像进行彩色转灰度变换,得到对应的灰度图像;
(1-2)将灰度图像进行缩放变换,改变图像大小;
(1-3)对缩放后的灰度图像作归一化操作。
在一种较佳的实施方式中,所述的卷积神经网络提取图像特征模块利用构建的卷积神经网络进行深度特征学习,包括以下步骤:
(2-1)构建一个深度学习模型,深度学习模型采用含4层隐含层的卷积神经网络模型;
(2-2)随机初始化网络模型参数:卷积层卷积核参数和加性偏置参数;
(2-3)使用训练集对该卷积神经网络模型进行训练。
在一种更佳的实施方式中,所述的含4层隐含层的卷积神经网络模型具体包含:
(2-1-1)第一层卷积层C1:设定6张特征图,卷积核大小为5×5;第一层下采样层S1:设定6张特征图,接受域大小为2×2;第二层卷积层C2:设定5张特征图,卷积核大小为5×5;第二层下采样层S2:设定5张特征图,接受域大小为2×2。
在一种更佳的实施方式中,所述的随机初始化网络模型参数,包含以下步骤:
(2-2-1)随机初始化卷积层卷积核参数,第i张输入特征图和第j张输出特征图对应的卷积核参数矩阵Kij:
fanin=m×kersize×kersize
fanout=n×kersize×kersize
其中,i=1,2,...,num_in,j=1,2,...,num_out,num_in为输入特征图的数目,num_out为输出特征图的数目,kersize×kersize表示卷积核的大小,rand(-1,1)kersize×kersize表示大小为kersize×kersize的随机矩阵,元素取值在-1~1之间,fanin表示卷积核输入总数,fanout表示卷积核输出总数。
(2-2-2)初始化网络层加性偏置参数,每一层网络层的每张特征图对应一个加性偏置参数初始化为0。
在一种更佳的实施方式中,所述的使用训练集对卷积神经网络模型进行训练,包含以下步骤:
(2-3-1)将训练样本Xn的灰度转换为一维向量作为输入,通过卷积层卷积操作、下采样层采样操作逐层预训练。
对于卷积层,每个输出特征图由多个输入特征图的组合卷积加上加性偏置经过sigmoid激励函数f(x)=(1+e-x)-1得到:
其中,l表示当前层,Mj表示选择的输入特征图。
对于下采样层,每个输出特征图是对输入特征图进行采样得到:
其中,down(·)表示下采样操作,具体实现是对输出特征图的非重叠的m×m的块所有像素进行求和,输出特征图在空间两个维度上缩小m倍。是输出特征图的乘性偏置参数,取1/m2。
训练样本通过该神经网络,提取出样本特征;作为全连接网络输入,得到输出结果和标签数据相比,得到误差E。
(2-3-2)使用梯度下降法更新网络模型卷积核参数和加性偏置参数:
误差从网络的高层向底层反向传播,输出层L层的误差表示为:
δL=f′(uL)ο(yn-tn)
其中,L表示输出层,uL表示输出层未经过sigmoid激励函数的特征图,yn是实际输出结果,tn是期望输出结果。
对于卷积层,误差由下采样层误差传播得到:
其中,up(·)表示向上采样的操作,若下采样因子为m,具体实现为将的每一个元素水平和垂直方向上拷贝m次,取1/m2。
加性偏置更新公式:
对于卷积层,卷积核更新公式为:
其中,η为学习率,取为0.1,rot180为矩阵旋转180度运算,conv2为有效边界卷积运算。
对于下采样层,误差由卷积层误差传播得到:
加性偏置更新公式:
其中,η为学习率,取为0.1。
在一种更佳的实施方式中,所述的全连接网络分类模块将从卷积神经网络学习到的优选特征输入全连接神经网络,进行分类,包括以下步骤:
(3-1)构建一个单层全连接网络模型;
(3-2)随机初始化网络模型参数:权值参数和加性偏置参数;
(3-3)使用根据所述的卷积神经网络提取的训练样本图像特征作为输入,对该全连接网络模型进行训练;
(3-4)使用根据所述的卷积神经网络提取的测试样本图像特征作为输入,测试全连接网络分类结果。
在一种更进一步的实施方式中,所述的随机初始化网络模型参数,包括以下步骤:
(3-2-1)随机初始化网络模型参数:权值参数;
其中,onum是输出神经元个数,fvnum是输入神经元个数。
(3-2-2)初始化网络加性偏置参数,因为只有一个输出向量,所以有一个加性偏置向量b,初始化为0。
在一种更进一步的实施方式中,所述的使用卷积神经网络提取的图像特征作为输入,对该全连接网络模型进行训练,包括以下步骤:
(3-3-1)将根据所述的卷积神经网络提取的训练样本图像特征转化为一维向量x,作为输入神经元,对该全连接网络模型进行训练;
u=W*x
y=f(u)
f(x)=(1+e-x)-1
得到输出结果y和标签数据t相比,得到误差E。
(3-3-2)使用反向传播算法更新网络模型权值参数和加性偏置参数:
误差从网络的高层向底层反向传播,特征向量输入层的误差表示为:
δ=f′(u)ο(y-t)
权值参数更新公式:
加性偏置参数更新公式:
其中,η为学习率,取值0.1。
在一种更进一步的实施方式中,所述的卷积神经网络提取图像特征模块和全连接网络分类模块,通过对所有训练样本的100次迭代训练,更新网络结构参数,训练得到能够对地铁场景图片分类的深度学习网络。
采用了该发明中的基于深度学习实现地铁场景分类的系统及方法,基于卷积神经网络提取地铁场景图片特征,并用单层全连接网络作为分类器,该方法无须对场景语义进行分析,即可实现对地铁不同场景图片的正确分类,鲁棒性强;该方法对地铁后续的运行状态监测工作有重要价值,具有更广泛的应用范围。
在此说明书中,本发明已参照其特定的实施例作了描述。但是,很显然仍可以作出各种修改和变换而不背离本发明的精神和范围。因此,说明书和附图应被认为是说明性的而非限制性的。
Claims (10)
1.一种基于深度学习实现地铁场景分类的系统,其特征在于,所述的系统包括:
图像预处理模块,用以对地铁场景图像进行预处理;
卷积神经网络提取图像特征模块,用以利用构建的卷积神经网络进行深度特征学习并提取图像特征;
全连接网络场景分类模块,用以将从卷积神经网络学习到的优选特征输入全连接神经网络并进行分类从而得到样本的标签类别。
2.一种根据权利要求1所述的系统基于深度学习实现地铁场景分类的方法,其特征在于,所述的方法包括以下步骤:
(1)所述的图像预处理模块对地铁场景图像进行预处理;
(2)所述的卷积神经网络提取图像特征模块利用构建的卷积神经网络进行深度特征学习并提取图像特征;
(3)所述的全连接网络分类模块将从卷积神经网络学习到的优选特征输入全连接神经网络并进行分类从而得到样本的标签类别。
3.根据权利要求2所述的基于深度学习实现地铁场景分类的方法,其特征在于,所述的对地铁场景图像进行预处理,包括以下步骤:
(1-1)将地铁场景图像进行彩色转灰度变换,得到对应的灰度图像;
(1-2)将灰度图像进行缩放变换,改变图像大小至预定尺寸;
(1-3)对缩放后的灰度图像进行归一化操作。
4.根据权利要求2所述的基于深度学习实现地铁场景分类的方法,其特征在于,所述的利用构建的卷积神经网络进行深度特征学习,包括以下步骤:
(2-1)采用含4层隐含层的卷积神经网络模型构建一个深度学习模型;
(2-2)随机初始化网络模型参数;
(2-3)使用训练集对该卷积神经网络模型进行训练。
5.根据权利要求4所述的基于深度学习实现地铁场景分类的方法,其特征在于,所述的用含4层隐含层的卷积神经网络模型包括:
第一层卷积层C1:设定6张特征图,卷积核大小为5×5;
第一层下采样层S1:设定6张特征图,接受域大小为2×2;
第二层卷积层C2:设定5张特征图,卷积核大小为5×5;
第二层下采样层S2:设定5张特征图,接受域大小为2×2。
6.根据权利要求4所述的基于深度学习实现地铁场景分类的方法,其特征在于,所述的随机初始化网络模型参数,包括以下步骤:
(2-2-1)随机初始化卷积层卷积核参数,第i张输入特征图和第j张输出特征图对应的卷积核参数矩阵Kij为:
fanin=m×kersize×kersize
fanout=n×kersize×kersize
其中,i=1,2,…,num_in,j=1,2,…,num_out,num_in为输入特征图的数目,num_out为输出特征图的数目,kersize×kersize表示卷积核的大小,rand(-1,1)kersize×kersize表示大小为kersize×kersize的随机矩阵,元素取值在-1~1之间,fanin表示卷积核输入总数,fanout表示卷积核输出总数;
(2-2-2)初始化网络层加性偏置参数,每一层网络层的每张特征图对应一个加性偏置参数初始化为0。
7.根据权利要求4所述的基于深度学习实现地铁场景分类的方法,其特征在于,所述的使用训练集对该卷积神经网络模型进行训练,包括以下步骤:
(2-3-1)将训练样本Xn的灰度转换为一维向量作为输入,通过卷积层卷积操作、下采样层采样操作逐层预训练;
对于卷积层,每个输出特征图由多个输入特征图的组合卷积加上加性偏置经过sigmoid激励函数f(x)=(1+e-x)-1得到:
其中,l表示当前层,Mj表示选择的输入特征图;
对于下采样层,每个输出特征图是对输入特征图进行采样得到:
其中,down(·)表示下采样操作,输出特征图在空间两个维度上缩小m倍;是输出特征图的乘性偏置参数,取1/m2;
训练样本通过该神经网络,提取出样本特征;作为全连接网络输入,得到输出结果和标签数据相比,得到误差E;
(2-3-2)使用梯度下降法更新网络模型卷积核参数和加性偏置参数:
误差从网络的高层向底层反向传播,输出层的误差表示为:
δL=f′(uL)о(yn-tn)
其中,L表示输出层,uL表示输出层未经过sigmoid激励函数的特征图,yn是实际输出结果,tn是期望输出结果;
对于卷积层,误差由下采样层误差传播得到:
其中,up(·)表示向上采样的操作,若下采样因子为m,具体实现为将的每一个元素水平和垂直方向上拷贝m次,取1/m2;
加性偏置更新公式:
对于卷积层,卷积核更新公式为:
其中,η为学习率,取为0.1,rot180为矩阵旋转180度运算,conv2为有效边界卷积运算;
对于下采样层,误差由卷积层误差传播得到:
加性偏置更新公式:
其中,η为学习率,取为0.1。
8.根据权利要求4所述的基于深度学习实现地铁场景分类的方法,其特征在于,所述的全连接网络分类模块将从卷积神经网络学习到的优选特征输入全连接神经网络并进行分类从而得到样本的标签类别,包括以下步骤:
(3-1)构建一个单层全连接网络模型;
(3-2)随机初始化网络模型参数:权值参数和加性偏置参数;
(3-3)使用卷积神经网络提取的训练样本图像特征作为输入,对该全连接网络模型进行训练;
(3-4)使用卷积神经网络提取的测试样本图像特征作为输入,测试全连接网络分类结果。
9.根据权利要求8所述的基于深度学习实现地铁场景分类的方法,其特征在于,所述的随机初始化网络模型参数,包括以下步骤:
(3-2-1)根据如下公式随机初始化权值参数:
其中,onum是输出神经元个数,fvnum是输入神经元个数;
(3-2-2)初始化网络加性偏置参数,其中加性偏置向量b初始化为0。
10.根据权利要求8所述的基于深度学习实现地铁场景分类的方法,其特征在于,所述的使用卷积神经网络提取的图像特征作为输入,对该全连接网络模型进行训练,包括以下步骤:
(3-3-1)将卷积神经网络提取的训练样本图像特征转化为一维向量x,作为输入神经元,对该全连接网络模型进行训练:
u=W×x
y=f(u)
f(x)=(1+e-x)-1
得到输出结果y和标签数据t相比,得到误差E;
(3-3-2)使用反向传播算法更新网络模型权值参数和加性偏置参数:
误差从网络的高层向底层反向传播,特征向量输入层的误差表示为:
δ=f′(u)о(y-t)
权值参数更新公式为:
加性偏置参数更新公式为:
其中,η为学习率,取值0.1。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610107387.XA CN105787510A (zh) | 2016-02-26 | 2016-02-26 | 基于深度学习实现地铁场景分类的系统及方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201610107387.XA CN105787510A (zh) | 2016-02-26 | 2016-02-26 | 基于深度学习实现地铁场景分类的系统及方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN105787510A true CN105787510A (zh) | 2016-07-20 |
Family
ID=56403826
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201610107387.XA Pending CN105787510A (zh) | 2016-02-26 | 2016-02-26 | 基于深度学习实现地铁场景分类的系统及方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN105787510A (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251347A (zh) * | 2016-07-27 | 2016-12-21 | 广东工业大学 | 地铁异物检测方法、装置、设备及地铁屏蔽门系统 |
CN106407931A (zh) * | 2016-09-19 | 2017-02-15 | 杭州电子科技大学 | 一种新型深度卷积神经网络运动车辆检测方法 |
CN106547880A (zh) * | 2016-10-26 | 2017-03-29 | 重庆邮电大学 | 一种融合地理区域知识的多维度地理场景识别方法 |
CN106686472A (zh) * | 2016-12-29 | 2017-05-17 | 华中科技大学 | 一种基于深度学习的高帧率视频生成方法及系统 |
CN106682694A (zh) * | 2016-12-27 | 2017-05-17 | 复旦大学 | 一种基于深度学习的敏感图像识别方法 |
CN106778472A (zh) * | 2016-11-17 | 2017-05-31 | 成都通甲优博科技有限责任公司 | 基于深度学习的输电走廊常见侵入物目标检测与识别方法 |
CN106874929A (zh) * | 2016-12-28 | 2017-06-20 | 诸暨市奇剑智能科技有限公司 | 一种基于深度学习的珍珠分类方法 |
CN107239803A (zh) * | 2017-07-21 | 2017-10-10 | 国家海洋局第海洋研究所 | 利用深度学习神经网络的海底底质自动分类方法 |
CN107886098A (zh) * | 2017-10-25 | 2018-04-06 | 昆明理工大学 | 一种基于深度学习的识别太阳黑子的方法 |
CN108154222A (zh) * | 2016-12-02 | 2018-06-12 | 北京市商汤科技开发有限公司 | 深度神经网络训练方法和系统、电子设备 |
CN108154153A (zh) * | 2016-12-02 | 2018-06-12 | 北京市商汤科技开发有限公司 | 场景分析方法和系统、电子设备 |
WO2018188270A1 (zh) * | 2017-04-14 | 2018-10-18 | 北京图森未来科技有限公司 | 一种图像语义分割方法及装置 |
CN108805152A (zh) * | 2017-05-05 | 2018-11-13 | 上海荆虹电子科技有限公司 | 一种场景分类方法及装置 |
CN108875596A (zh) * | 2018-05-30 | 2018-11-23 | 西南交通大学 | 一种基于dssnn神经网络的铁路场景图像语义分割方法 |
CN109271828A (zh) * | 2017-07-17 | 2019-01-25 | 国网江苏省电力公司泰州供电公司 | 基于深度学习的施工隔离栅栏状态智能检测的方法及系统 |
CN109359550A (zh) * | 2018-09-20 | 2019-02-19 | 大连民族大学 | 基于深度学习技术的满文文档印章提取与去除方法 |
CN109559320A (zh) * | 2018-09-18 | 2019-04-02 | 华东理工大学 | 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统 |
WO2019114147A1 (zh) * | 2017-12-15 | 2019-06-20 | 华为技术有限公司 | 图像美学处理方法及电子设备 |
CN110264229A (zh) * | 2018-03-12 | 2019-09-20 | 优估(上海)信息科技有限公司 | 基于全连接神经网络的二手车定价方法,装置,及系统 |
CN110378881A (zh) * | 2019-07-05 | 2019-10-25 | 北京航空航天大学 | 一种基于深度学习的肿瘤定位系统 |
CN110781717A (zh) * | 2019-08-09 | 2020-02-11 | 浙江零跑科技有限公司 | 一种驾驶室场景语义与视深联合分析方法 |
CN110781872A (zh) * | 2019-12-31 | 2020-02-11 | 南斗六星系统集成有限公司 | 一种双模态特征融合的驾驶员疲劳等级识别系统 |
CN110781873A (zh) * | 2019-12-31 | 2020-02-11 | 南斗六星系统集成有限公司 | 一种双模态特征融合的驾驶员疲劳等级识别方法 |
CN110992709A (zh) * | 2019-12-31 | 2020-04-10 | 南斗六星系统集成有限公司 | 一种基于驾驶员疲劳状态的主动限速系统 |
US11062453B2 (en) | 2016-12-02 | 2021-07-13 | Beijing Sensetime Technology Development Co., Ltd. | Method and system for scene parsing and storage medium |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077577A (zh) * | 2014-07-03 | 2014-10-01 | 浙江大学 | 一种基于卷积神经网络的商标检测方法 |
CN104809443A (zh) * | 2015-05-05 | 2015-07-29 | 上海交通大学 | 基于卷积神经网络的车牌检测方法及系统 |
CN105068644A (zh) * | 2015-07-24 | 2015-11-18 | 山东大学 | 一种基于卷积神经网络的p300脑电信号检测方法 |
CN105117739A (zh) * | 2015-07-29 | 2015-12-02 | 南京信息工程大学 | 一种基于卷积神经网络的服装分类方法 |
-
2016
- 2016-02-26 CN CN201610107387.XA patent/CN105787510A/zh active Pending
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104077577A (zh) * | 2014-07-03 | 2014-10-01 | 浙江大学 | 一种基于卷积神经网络的商标检测方法 |
CN104809443A (zh) * | 2015-05-05 | 2015-07-29 | 上海交通大学 | 基于卷积神经网络的车牌检测方法及系统 |
CN105068644A (zh) * | 2015-07-24 | 2015-11-18 | 山东大学 | 一种基于卷积神经网络的p300脑电信号检测方法 |
CN105117739A (zh) * | 2015-07-29 | 2015-12-02 | 南京信息工程大学 | 一种基于卷积神经网络的服装分类方法 |
Non-Patent Citations (1)
Title |
---|
陈先昌: "基于卷积神经网络的深度学习算法与应用研究", 《中国优秀硕士学位论文全文数据库 信息科技辑》 * |
Cited By (36)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106251347A (zh) * | 2016-07-27 | 2016-12-21 | 广东工业大学 | 地铁异物检测方法、装置、设备及地铁屏蔽门系统 |
CN106251347B (zh) * | 2016-07-27 | 2019-07-16 | 广东工业大学 | 地铁异物检测方法、装置、设备及地铁屏蔽门系统 |
CN106407931A (zh) * | 2016-09-19 | 2017-02-15 | 杭州电子科技大学 | 一种新型深度卷积神经网络运动车辆检测方法 |
CN106407931B (zh) * | 2016-09-19 | 2019-11-22 | 杭州电子科技大学 | 一种深度卷积神经网络运动车辆检测方法 |
CN106547880A (zh) * | 2016-10-26 | 2017-03-29 | 重庆邮电大学 | 一种融合地理区域知识的多维度地理场景识别方法 |
CN106547880B (zh) * | 2016-10-26 | 2020-05-12 | 重庆邮电大学 | 一种融合地理区域知识的多维度地理场景识别方法 |
CN106778472A (zh) * | 2016-11-17 | 2017-05-31 | 成都通甲优博科技有限责任公司 | 基于深度学习的输电走廊常见侵入物目标检测与识别方法 |
CN108154153A (zh) * | 2016-12-02 | 2018-06-12 | 北京市商汤科技开发有限公司 | 场景分析方法和系统、电子设备 |
US11062453B2 (en) | 2016-12-02 | 2021-07-13 | Beijing Sensetime Technology Development Co., Ltd. | Method and system for scene parsing and storage medium |
CN108154222A (zh) * | 2016-12-02 | 2018-06-12 | 北京市商汤科技开发有限公司 | 深度神经网络训练方法和系统、电子设备 |
CN108154222B (zh) * | 2016-12-02 | 2020-08-11 | 北京市商汤科技开发有限公司 | 深度神经网络训练方法和系统、电子设备 |
CN106682694A (zh) * | 2016-12-27 | 2017-05-17 | 复旦大学 | 一种基于深度学习的敏感图像识别方法 |
CN106874929B (zh) * | 2016-12-28 | 2020-03-17 | 浙江诸暨会智科技有限公司 | 一种基于深度学习的珍珠分类方法 |
CN106874929A (zh) * | 2016-12-28 | 2017-06-20 | 诸暨市奇剑智能科技有限公司 | 一种基于深度学习的珍珠分类方法 |
CN106686472A (zh) * | 2016-12-29 | 2017-05-17 | 华中科技大学 | 一种基于深度学习的高帧率视频生成方法及系统 |
CN106686472B (zh) * | 2016-12-29 | 2019-04-26 | 华中科技大学 | 一种基于深度学习的高帧率视频生成方法及系统 |
WO2018188270A1 (zh) * | 2017-04-14 | 2018-10-18 | 北京图森未来科技有限公司 | 一种图像语义分割方法及装置 |
US11205271B2 (en) | 2017-04-14 | 2021-12-21 | Beijing Tusen Zhitu Technology Co., Ltd. | Method and device for semantic segmentation of image |
US11875511B2 (en) | 2017-04-14 | 2024-01-16 | Beijing Tusen Zhitu Technology Co., Ltd. | Method and device for semantic segmentation of image |
CN108805152A (zh) * | 2017-05-05 | 2018-11-13 | 上海荆虹电子科技有限公司 | 一种场景分类方法及装置 |
CN109271828A (zh) * | 2017-07-17 | 2019-01-25 | 国网江苏省电力公司泰州供电公司 | 基于深度学习的施工隔离栅栏状态智能检测的方法及系统 |
CN107239803A (zh) * | 2017-07-21 | 2017-10-10 | 国家海洋局第海洋研究所 | 利用深度学习神经网络的海底底质自动分类方法 |
CN107886098A (zh) * | 2017-10-25 | 2018-04-06 | 昆明理工大学 | 一种基于深度学习的识别太阳黑子的方法 |
WO2019114147A1 (zh) * | 2017-12-15 | 2019-06-20 | 华为技术有限公司 | 图像美学处理方法及电子设备 |
US11314988B2 (en) | 2017-12-15 | 2022-04-26 | Huawei Technologies Co., Ltd. | Image aesthetic processing method and electronic device |
CN110264229A (zh) * | 2018-03-12 | 2019-09-20 | 优估(上海)信息科技有限公司 | 基于全连接神经网络的二手车定价方法,装置,及系统 |
CN108875596A (zh) * | 2018-05-30 | 2018-11-23 | 西南交通大学 | 一种基于dssnn神经网络的铁路场景图像语义分割方法 |
CN109559320A (zh) * | 2018-09-18 | 2019-04-02 | 华东理工大学 | 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统 |
CN109559320B (zh) * | 2018-09-18 | 2022-11-18 | 华东理工大学 | 基于空洞卷积深度神经网络实现视觉slam语义建图功能的方法及系统 |
CN109359550B (zh) * | 2018-09-20 | 2021-06-22 | 大连民族大学 | 基于深度学习技术的满文文档印章提取与去除方法 |
CN109359550A (zh) * | 2018-09-20 | 2019-02-19 | 大连民族大学 | 基于深度学习技术的满文文档印章提取与去除方法 |
CN110378881A (zh) * | 2019-07-05 | 2019-10-25 | 北京航空航天大学 | 一种基于深度学习的肿瘤定位系统 |
CN110781717A (zh) * | 2019-08-09 | 2020-02-11 | 浙江零跑科技有限公司 | 一种驾驶室场景语义与视深联合分析方法 |
CN110781872A (zh) * | 2019-12-31 | 2020-02-11 | 南斗六星系统集成有限公司 | 一种双模态特征融合的驾驶员疲劳等级识别系统 |
CN110781873A (zh) * | 2019-12-31 | 2020-02-11 | 南斗六星系统集成有限公司 | 一种双模态特征融合的驾驶员疲劳等级识别方法 |
CN110992709A (zh) * | 2019-12-31 | 2020-04-10 | 南斗六星系统集成有限公司 | 一种基于驾驶员疲劳状态的主动限速系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105787510A (zh) | 基于深度学习实现地铁场景分类的系统及方法 | |
Mascarenhas et al. | A comparison between VGG16, VGG19 and ResNet50 architecture frameworks for Image Classification | |
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
Yang et al. | Multi-scale recognition with DAG-CNNs | |
Gando et al. | Fine-tuning deep convolutional neural networks for distinguishing illustrations from photographs | |
CN110717553A (zh) | 一种基于自衰减权重和多局部约束的交通违禁品识别方法 | |
CN112906720B (zh) | 基于图注意力网络的多标签图像识别方法 | |
CN105913025A (zh) | 一种基于多特征融合的深度学习人脸识别方法 | |
Alaudah et al. | Learning to label seismic structures with deconvolution networks and weak labels | |
CN105787517B (zh) | 基于小波稀疏自编码器的极化sar图像分类方法 | |
Bawane et al. | Object and character recognition using spiking neural network | |
CN110852358A (zh) | 一种基于深度学习的车辆类型判别方法 | |
CN110569971A (zh) | 一种基于LeakyRelu激活函数的卷积神经网络单目标识别方法 | |
CN114048810A (zh) | 一种基于多层次特征提取网络的高光谱图像分类方法 | |
Moschos et al. | Classification of eddy sea surface temperature signatures under cloud coverage | |
Lee et al. | Generating hard examples for pixel-wise classification | |
CN108960005B (zh) | 一种智能视觉物联网中对象视觉标签的建立及显示方法、系统 | |
Borra et al. | Face recognition based on convolutional neural network | |
Wu | CNN-Based Recognition of Handwritten Digits in MNIST Database | |
Ding et al. | Land-use classification with remote sensing image based on stacked autoencoder | |
Jantayev et al. | Improved handwritten digit recognition method using deep learning algorithm | |
Vapenik et al. | Human face detection in still image using Multilayer perceptron solution based on Neuroph framework | |
Shahid et al. | A new approach to image classification by convolutional neural network | |
JPH08305855A (ja) | 画像のパターン認識方法及び装置 | |
Ge et al. | Multi-grained cascade adaboost extreme learning machine for feature representation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20160720 |
|
RJ01 | Rejection of invention patent application after publication |