CN108399454A - 一种全新的分段卷积神经网络目标识别方法 - Google Patents
一种全新的分段卷积神经网络目标识别方法 Download PDFInfo
- Publication number
- CN108399454A CN108399454A CN201810179102.2A CN201810179102A CN108399454A CN 108399454 A CN108399454 A CN 108399454A CN 201810179102 A CN201810179102 A CN 201810179102A CN 108399454 A CN108399454 A CN 108399454A
- Authority
- CN
- China
- Prior art keywords
- frame
- identification
- target
- network
- target region
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种全新的分段卷积神经网络目标识别方法,包括:A、训练过程(1)通过反向传播算法训练框架识别网络;(2)通过反向传播算法训练细节识别网络;B、目标识别过程(3)通过步骤A训练出的框架识别网络对输入图片进行处理,得到识别目标的位置信息;(4)锁定识别目标的位置,裁剪无用区域,所述无用区域是指所述输入图片中排出识别目标以外的区域,得到目标区域;(5)通过细节识别网络对目标区域进行高级识别。由于裁剪了无用区域,本发明方法有效降低了卷积神经网络的参数数量,降低其对存储空间、数据传输带宽的需求,大幅提高识别速度。
Description
技术领域
本发明涉及一种全新的分段卷积神经网络目标识别方法,属于人工智能深度学习领域。
背景技术
伴随着人工智能技术的快速发展,深度卷积神经网络已经发展成一种先进的计算机视觉目标识别算法,在特征提取、目标识别、人脸识别等领域有着广泛的应用。
虽然卷积神经网络的应用十分广泛,但在处理图像时,众多的权重参数消耗了相当大的存储空间与传输带宽,在处理一张高清图片时,为识别出目标,卷积神经网络需要对全部图片的所有像素点进行卷积、池化等多层操作,由于输入图片的尺寸很大,导致卷积神经网络的参数数量十分巨大,存储该算法就需要大量的内存资源与传输带宽,这使其无法在对功耗敏感的嵌入式平台上运行。
中国专利文献CN105512680A公开了一种基于深度神经网络的多视SAR图像目标识别方法,包括图像预处理、基于CAE的特征提取、基于RNN的多视SAR图像识别三个步骤。首先对输入图形进行裁剪,能量归一化等预处理过程,然后通过对CAE进行无监督训练提取到原始图像的特征,而后先利用上述特征构建多视SAR图像特征序列。之后,用训练集特征序列对RNN进行有监督训练。训练完成后,RNN可用于对测试集特征序列进行识别。但是,该专利网络在硬件实现时的传输带宽较高,且不能满足网络对移动平台功耗的需求。
发明内容
针对目标识别卷积神经网络参数过于庞大导致其无法在有限的嵌入式硬件平台实现的问题,本发明创新性的提出了一种双框架的识别算法。
术语解释:
卷积运算、feature map:数码摄像头所拍摄的图片,是以二维数组的形式存储的(如680*480,横向680个像素点,竖向480个像素点)。像素点内存储的,是某数字值。卷积神经网络提取图片的信息,是依靠滤波器来完成的。这里的滤波器是指一个n*n的矩形参数矩阵框,矩形框内的每一个参数都是神经网络的权值(weights)。所谓卷积运算,是指滤波器中的值与原图片对应相乘(从输入图片的最左上角的一个像素点开始),然后再将滤波器n*n个参数与图像n*n个像素点对性相乘的点积和相加,作为滤波处理后输出图片的一个像素点,然后滤波器移动到下一个位置,再次执行卷积运算(输入图片与滤波器参数对应相乘),直到处理完所有像素。所有的滤波器输出值组成了一个新的图片,称之为feature map。
本发明的技术方案为:
一种全新的分段卷积神经网络目标识别方法,包括:
A、训练过程
(1)通过反向传播算法训练框架识别网络;训练好的框架识别网络用来判断输入图片内是否存在识别目标;
框架识别网络的本质是一个特殊的CNN(Convolutional Nerul Network)。在使用一个神经网络时,首先要训练该网络,比如,如果想让某神经网络识别出人脸,那么在训练神经网络时,就要喂给网络大量的人脸图片,告诉它什么是人脸,人脸有哪些特征,并通过反向传播算法(对于一个神经网络来说,给输入数据,求出识别结果,叫正向传播;由输出结果与理想值之间的差距来返回去修改神经网络的参数来帮助网络更精准的识别人脸,这一过程叫反向传播)在训练框架识别网络时,将训练图片输入框架网络,经过正向传播,输出的可能存在待检测目标的位置信息,将输出的位置信息与目标实际所在的位置(这里就是label值)进行比对,然后求出差值,利用反向传播算法对框架识别网络的参数求出最优值,来降低输出结果,这一过程叫做神经网络的训练。网络训练好了以后,就可以用来识别目标了。
与细节识别网络不同,框架识别网络只是判断该区域是否存在目标,而不需要对该区域进行计算量巨大的细节识别。
(2)通过反向传播算法训练细节识别网络;
细节识别网本质上就是一个卷积神经网络。
B、目标识别过程
(3)通过步骤A训练出的框架识别网络对输入图片进行处理,判断输入图片中是否存在识别目标,如果存在,获取识别目标的框架位置信息,框架位置信息包括:识别目标所在区域框的最左上角像素坐标(X,Y)、识别目标所在区域框的宽度W、识别目标所在区域框的高度H;X表示识别目标所在区域框的最左上角像素点为输入图片的横着的第X个像素点;Y表示识别目标所在区域框的最左上角像素点为输入图片的竖着的第Y个像素点;例如,如输出位置坐标为(50,60).W=20.H=20表示该区域框的最左上角像素点在输入图片的横着第50,竖着第50个像素点,框框的长是20,高也是20。否则,输入下一张图片,返回步骤(3);
(4)锁定识别目标的位置,裁剪无用区域,所述无用区域是指所述输入图片中排出识别目标以外的区域,得到目标区域;
(5)通过细节识别网络对目标区域进行高级识别,识别出识别目标的详细特征。
由于裁剪了无用区域,本发明方法有效降低了卷积神经网络的参数数量,降低其对存储空间、数据传输带宽的需求,大幅提高识别速度。
根据本发明优选的,所述步骤(1),通过反向传播算法训练框架识别网络,包括:
a、向框架识别网络输入训练图片集,输出识别目标的框架位置信息,框架位置信息包括:识别目标所在区域框的最左上角像素坐标(X1,Y1)、识别目标所在区域框的宽度W1、识别目标所在区域框的高度H1;X1表示识别目标所在区域框的最左上角像素点为输入图片的横着的第X1个像素点;Y1表示识别目标所在区域框的最左上角像素点为输入图片的竖着的第Y1个像素点;
b、将步骤a得到的识别目标的框架位置信息与预设标准值label比较,即:用正确识别出目标位置信息的图片个数除以训练图片总个数,计算框架识别成功率s,当框架识别成功率s达到预设要求时(如99%)进入步骤(2),否则,进入步骤C;预设label值是指识别目标所在区域框的实际框架位置信息,包括:识别目标所在区域框的最左上角像素坐标(X2,Y2)、识别目标所在区域框的宽度W2、识别目标所在区域框的高度H2;训练神经网络的意义就在于,通过反向传播算法,调整神经网络的参数,从而将实际输出值与label值之间的差将到最低。
c、利用反向传播算法训练框架识别网络。利用反向传播算法对框架识别网络的参数求出最优值,来降低输出差值。提高框架识别准确率。
根据本发明优选的,所述步骤(2),通过反向传播算法训练细节识别网络,包括:
d、向细节识别网络输入训练图片集,输出识别目标的框架位置信息,框架位置信息包括:识别目标所在区域框的最左上角像素坐标(X’,Y’)、识别目标所在区域框的宽度W’、识别目标所在区域框的高度H’;X’表示识别目标所在区域框的最左上角像素点为输入图片的横着的第X’个像素点;Y’表示识别目标所在区域框的最左上角像素点为输入图片的竖着的第Y’个像素点;
e、将步骤d得到的识别目标的框架位置信息与预设标准值label’比较,即:用正确识别出目标位置信息的图片个数除以训练图片总个数,计算细节识别成功率s’,当细节识别成功率s’达到预设要求时(如99%)进入步骤(2),否则,进入步骤f;预设标准值label’是指识别目标所在区域框的实际框架位置信息,包括:识别目标所在区域框的最左上角像素坐标(X”,Y”)、识别目标所在区域框的宽度W”、识别目标所在区域框的高度H”;
f、利用反向传播算法训练细节识别网络。
根据本发明优选的,所述步骤(5),通过细节识别网络对目标区域进行高级识别,包括:
g、将步骤(4)得到的目标区域作为输入图片输入至所述细节识别网络;
h、通过第一层卷积层进行卷积运算,提取出输入图片的高阶特征(纯数据特征,无视觉意义),生成特征图feature map;
i、将生成的特征图feature map输入到池化层进行池化运算;缩减图片尺寸;
j、将池化后的图片输入第二层卷积层进行卷积运算;进一步提取输入图片的特征;
k、将第二层卷积层的输出图片输入全连接层;
l、将全连接层的输出图片送入sofemax层(其他分类出亦可),得到输入图片的详细信息。
本发明的有益效果为:
1、本发明分段识别、分段训练,提高识别准确率;
2、本发明框架识别网络对输入图片进行裁剪,可以减小算法运算量;有效降低数据传输带宽。
3、本发明目标识别算法基于CNN网络,且本目标识别算法分阶段、分开训练与使用框架识别网络与细节识别网络,首先训练框架识别网络,然后依靠框架识别网络提取出目标位置,然后依靠细节识别网络识别目标区域,与专利文献CN105512680A提到的方法相比,可以有效降低网络在硬件实现时的传输带宽,降低网络对移动平台功耗的需求。
附图说明
图1为本发明全新的分段卷积神经网络目标识别方法流程示意图;
图2为采用本发明全新的分段卷积神经网络目标识别方法的效果演示图;
具体实施方式
下面结合说明书附图和实施例对本发明作进一步限定,但不限于此。
实施例1
一种全新的分段卷积神经网络目标识别方法,如图1、图2所示,包括:
A、训练过程
(1)通过反向传播算法训练框架识别网络;训练好的框架识别网络用来判断输入图片内是否存在识别目标;包括:
a、向框架识别网络输入训练图片集,输出识别目标的框架位置信息,框架位置信息包括:识别目标所在区域框的最左上角像素坐标(X1,Y1)、识别目标所在区域框的宽度W1、识别目标所在区域框的高度H1;X1表示识别目标所在区域框的最左上角像素点为输入图片的横着的第X1个像素点;Y1表示识别目标所在区域框的最左上角像素点为输入图片的竖着的第Y1个像素点;
b、将步骤a得到的识别目标的框架位置信息与预设标准值label比较,即:用正确识别出目标位置信息的图片个数除以训练图片总个数,计算框架识别成功率s,当框架识别成功率s达到预设要求时(如99%)进入步骤(2),否则,进入步骤C;预设label值是指识别目标所在区域框的实际框架位置信息,包括:识别目标所在区域框的最左上角像素坐标(X2,Y2)、识别目标所在区域框的宽度W2、识别目标所在区域框的高度H2;训练神经网络的意义就在于,通过反向传播算法,调整神经网络的参数,从而将实际输出值与label值之间的差将到最低。
c、利用反向传播算法训练框架识别网络。利用反向传播算法对框架识别网络的参数求出最优值,来降低输出差值。提高框架识别准确率。
框架识别网络的本质是一个特殊的CNN(Convolutional Nerul Network)。在使用一个神经网络时,首先要训练该网络,比如,如果想让某神经网络识别出人脸,那么在训练神经网络时,就要喂给网络大量的人脸图片,告诉它什么是人脸,人脸有哪些特征,并通过反向传播算法(对于一个神经网络来说,给输入数据,求出识别结果,叫正向传播;由输出结果与理想值之间的差距来返回去修改神经网络的参数来帮助网络更精准的识别人脸,这一过程叫反向传播)在训练框架识别网络时,将训练图片输入框架网络,经过正向传播,输出的可能存在待检测目标的位置信息,将输出的位置信息与目标实际所在的位置(这里就是label值)进行比对,然后求出差值,利用反向传播算法对框架识别网络的参数求出最优值,来降低输出结果,这一过程叫做神经网络的训练。网络训练好了以后,就可以用来识别目标了。
与细节识别网络不同,框架识别网络只是判断该区域是否存在目标,而不需要对该区域进行计算量巨大的细节识别。
(2)通过反向传播算法训练细节识别网络;包括:
d、向细节识别网络输入训练图片集,输出识别目标的框架位置信息,框架位置信息包括:识别目标所在区域框的最左上角像素坐标(X’,Y’)、识别目标所在区域框的宽度W’、识别目标所在区域框的高度H’;X’表示识别目标所在区域框的最左上角像素点为输入图片的横着的第X’个像素点;Y’表示识别目标所在区域框的最左上角像素点为输入图片的竖着的第Y’个像素点;
e、将步骤d得到的识别目标的框架位置信息与预设标准值label’比较,即:用正确识别出目标位置信息的图片个数除以训练图片总个数,计算细节识别成功率s’,当细节识别成功率s’达到预设要求时(如99%)进入步骤(2),否则,进入步骤f;预设标准值label’是指识别目标所在区域框的实际框架位置信息,包括:识别目标所在区域框的最左上角像素坐标(X”,Y”)、识别目标所在区域框的宽度W”、识别目标所在区域框的高度H”;
f、利用反向传播算法训练细节识别网络。
细节识别网本质上就是一个卷积神经网络。
B、目标识别过程
(3)通过步骤A训练出的框架识别网络对输入图片进行处理,判断输入图片中是否存在识别目标,如果存在,获取识别目标的框架位置信息,框架位置信息包括:识别目标所在区域框的最左上角像素坐标(X,Y)、识别目标所在区域框的宽度W、识别目标所在区域框的高度H;X表示识别目标所在区域框的最左上角像素点为输入图片的横着的第X个像素点;Y表示识别目标所在区域框的最左上角像素点为输入图片的竖着的第Y个像素点;例如,如输出位置坐标为(50,60).W=20.H=20表示该区域框的最左上角像素点在输入图片的横着第50,竖着第50个像素点,框框的长是20,高也是20。否则,输入下一张图片,返回步骤(3);
(4)锁定识别目标的位置,裁剪无用区域,所述无用区域是指所述输入图片中排出识别目标以外的区域,得到目标区域;
(5)通过细节识别网络对目标区域进行高级识别,识别出识别目标的详细特征。包括:
g、将步骤(4)得到的目标区域作为输入图片输入至所述细节识别网络;
h、通过第一层卷积层进行卷积运算,提取出输入图片的高阶特征(纯数据特征,无视觉意义),生成特征图feature map;
i、将生成的特征图feature map输入到池化层进行池化运算;缩减图片尺寸;
j、将池化后的图片输入第二层卷积层进行卷积运算;进一步提取输入图片的特征;
k、将第二层卷积层的输出图片输入全连接层;
l、将全连接层的输出图片送入sofemax层(其他分类出亦可),得到输入图片的详细信息。
由于裁剪了无用区域,本发明方法有效降低了卷积神经网络的参数数量,降低其对存储空间、数据传输带宽的需求,大幅提高识别速度。
Claims (4)
1.一种全新的分段卷积神经网络目标识别方法,其特征在于,包括:
A、训练过程
(1)通过反向传播算法训练框架识别网络;训练好的框架识别网络用来判断输入图片内是否存在识别目标;
(2)通过反向传播算法训练细节识别网络;
B、目标识别过程
(3)通过步骤A训练出的框架识别网络对输入图片进行处理,判断输入图片中是否存在识别目标,如果存在,获取识别目标的框架位置信息,框架位置信息包括:识别目标所在区域框的最左上角像素坐标(X,Y)、识别目标所在区域框的宽度W、识别目标所在区域框的高度H;X表示识别目标所在区域框的最左上角像素点为输入图片的横着的第X个像素点;Y表示识别目标所在区域框的最左上角像素点为输入图片的竖着的第Y个像素点;否则,输入下一张图片,返回步骤(3);
(4)锁定识别目标的位置,裁剪无用区域,所述无用区域是指所述输入图片中排出识别目标以外的区域,得到目标区域;
(5)通过细节识别网络对目标区域进行高级识别,识别出识别目标的详细特征。
2.根据权利要求1所述的一种全新的分段卷积神经网络目标识别方法,其特征在于,所述步骤(1),通过反向传播算法训练框架识别网络,包括:
a、向框架识别网络输入训练图片集,输出识别目标的框架位置信息,框架位置信息包括:识别目标所在区域框的最左上角像素坐标(X1,Y1)、识别目标所在区域框的宽度W1、识别目标所在区域框的高度H1;X1表示识别目标所在区域框的最左上角像素点为输入图片的横着的第X1个像素点;Y1表示识别目标所在区域框的最左上角像素点为输入图片的竖着的第Y1个像素点;
b、将步骤a得到的识别目标的框架位置信息与预设标准值label比较,即:用正确识别出目标位置信息的图片个数除以训练图片总个数,计算框架识别成功率s,当框架识别成功率s达到预设要求时(如99%)进入步骤(2),否则,进入步骤C;预设label值是指识别目标所在区域框的实际框架位置信息,包括:识别目标所在区域框的最左上角像素坐标(X2,Y2)、识别目标所在区域框的宽度W2、识别目标所在区域框的高度H2;
c、利用反向传播算法训练框架识别网络。
3.根据权利要求1所述的一种全新的分段卷积神经网络目标识别方法,其特征在于,所述步骤(2),通过反向传播算法训练细节识别网络,包括:
d、向细节识别网络输入训练图片集,输出识别目标的框架位置信息,框架位置信息包括:识别目标所在区域框的最左上角像素坐标(X’,Y’)、识别目标所在区域框的宽度W’、识别目标所在区域框的高度H’;X’表示识别目标所在区域框的最左上角像素点为输入图片的横着的第X’个像素点;Y’表示识别目标所在区域框的最左上角像素点为输入图片的竖着的第Y’个像素点;
e、将步骤d得到的识别目标的框架位置信息与预设标准值label’比较,即:用正确识别出目标位置信息的图片个数除以训练图片总个数,计算细节识别成功率s’,当细节识别成功率s’达到预设要求时(如99%)进入步骤(2),否则,进入步骤f;预设标准值label’是指识别目标所在区域框的实际框架位置信息,包括:识别目标所在区域框的最左上角像素坐标(X”,Y”)、识别目标所在区域框的宽度W”、识别目标所在区域框的高度H”;
f、利用反向传播算法训练细节识别网络。
4.根据权利要求1-3任一所述的一种全新的分段卷积神经网络目标识别方法,其特征在于,所述步骤(5),通过细节识别网络对目标区域进行高级识别,包括:
g、将步骤(4)得到的目标区域作为输入图片输入至所述细节识别网络;
h、通过第一层卷积层进行卷积运算,提取出输入图片的高阶特征,生成特征图featuremap;
i、将生成的特征图feature map输入到池化层进行池化运算;
j、将池化后的图片输入第二层卷积层进行卷积运算;
k、将第二层卷积层的输出图片输入全连接层;
l、将全连接层的输出图片送入sofemax层,得到输入图片的详细信息。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810179102.2A CN108399454A (zh) | 2018-03-05 | 2018-03-05 | 一种全新的分段卷积神经网络目标识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810179102.2A CN108399454A (zh) | 2018-03-05 | 2018-03-05 | 一种全新的分段卷积神经网络目标识别方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108399454A true CN108399454A (zh) | 2018-08-14 |
Family
ID=63092283
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810179102.2A Pending CN108399454A (zh) | 2018-03-05 | 2018-03-05 | 一种全新的分段卷积神经网络目标识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108399454A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109829510A (zh) * | 2019-02-26 | 2019-05-31 | 中国农业科学院农业信息研究所 | 一种产品品质分级的方法、装置和设备 |
CN111241881A (zh) * | 2018-11-29 | 2020-06-05 | 中国移动通信集团四川有限公司 | 区域识别的方法、装置、设备和介质 |
CN111832542A (zh) * | 2020-08-15 | 2020-10-27 | 武汉易思达科技有限公司 | 三目视觉识别与定位方法及装置 |
CN112734778A (zh) * | 2021-01-28 | 2021-04-30 | 携程计算机技术(上海)有限公司 | 基于神经网络的车辆抠图方法、系统、设备及存储介质 |
US11423634B2 (en) | 2018-08-03 | 2022-08-23 | Huawei Cloud Computing Technologies Co., Ltd. | Object detection model training method, apparatus, and device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104090972A (zh) * | 2014-07-18 | 2014-10-08 | 北京师范大学 | 用于三维城市模型检索的图像特征提取和相似性度量方法 |
CN106971152A (zh) * | 2017-03-16 | 2017-07-21 | 天津大学 | 一种基于航拍图像的检测输电线路中鸟巢的方法 |
WO2017151673A1 (en) * | 2016-02-29 | 2017-09-08 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
US20170293804A1 (en) * | 2016-04-06 | 2017-10-12 | Nec Laboratories America, Inc. | Deep 3d attention long short-term memory for video-based action recognition |
CN107506765A (zh) * | 2017-10-13 | 2017-12-22 | 厦门大学 | 一种基于神经网络的车牌倾斜校正的方法 |
-
2018
- 2018-03-05 CN CN201810179102.2A patent/CN108399454A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104090972A (zh) * | 2014-07-18 | 2014-10-08 | 北京师范大学 | 用于三维城市模型检索的图像特征提取和相似性度量方法 |
WO2017151673A1 (en) * | 2016-02-29 | 2017-09-08 | Digitalglobe, Inc. | Synthesizing training data for broad area geospatial object detection |
US20170293804A1 (en) * | 2016-04-06 | 2017-10-12 | Nec Laboratories America, Inc. | Deep 3d attention long short-term memory for video-based action recognition |
CN106971152A (zh) * | 2017-03-16 | 2017-07-21 | 天津大学 | 一种基于航拍图像的检测输电线路中鸟巢的方法 |
CN107506765A (zh) * | 2017-10-13 | 2017-12-22 | 厦门大学 | 一种基于神经网络的车牌倾斜校正的方法 |
Non-Patent Citations (1)
Title |
---|
王琴芳等: "基于区域建议网络的行人检测", 《通信技术》 * |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11423634B2 (en) | 2018-08-03 | 2022-08-23 | Huawei Cloud Computing Technologies Co., Ltd. | Object detection model training method, apparatus, and device |
US11605211B2 (en) | 2018-08-03 | 2023-03-14 | Huawei Cloud Computing Technologies Co., Ltd. | Object detection model training method and apparatus, and device |
CN111241881A (zh) * | 2018-11-29 | 2020-06-05 | 中国移动通信集团四川有限公司 | 区域识别的方法、装置、设备和介质 |
CN109829510A (zh) * | 2019-02-26 | 2019-05-31 | 中国农业科学院农业信息研究所 | 一种产品品质分级的方法、装置和设备 |
CN111832542A (zh) * | 2020-08-15 | 2020-10-27 | 武汉易思达科技有限公司 | 三目视觉识别与定位方法及装置 |
CN111832542B (zh) * | 2020-08-15 | 2024-04-16 | 武汉易思达科技有限公司 | 三目视觉识别与定位装置 |
CN112734778A (zh) * | 2021-01-28 | 2021-04-30 | 携程计算机技术(上海)有限公司 | 基于神经网络的车辆抠图方法、系统、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11126888B2 (en) | Target recognition method and apparatus for a deformed image | |
CN108399454A (zh) | 一种全新的分段卷积神经网络目标识别方法 | |
JP6807471B2 (ja) | セマンティックセグメンテーションモデルの訓練方法および装置、電子機器、ならびに記憶媒体 | |
CN107844795B (zh) | 基于主成分分析的卷积神经网络特征提取方法 | |
CN108520535B (zh) | 基于深度恢复信息的物体分类方法 | |
CN108537743B (zh) | 一种基于生成对抗网络的面部图像增强方法 | |
CN108416266B (zh) | 一种利用光流提取运动目标的视频行为快速识别方法 | |
CN110555434B (zh) | 一种局部对比和全局指导的立体图像视觉显著性检测方法 | |
Rafi et al. | An Efficient Convolutional Network for Human Pose Estimation. | |
CN107358262B (zh) | 一种高分辨率图像的分类方法及分类装置 | |
He et al. | Visual semantics allow for textual reasoning better in scene text recognition | |
CN108510012A (zh) | 一种基于多尺度特征图的目标快速检测方法 | |
US11853892B2 (en) | Learning to segment via cut-and-paste | |
CN108717568A (zh) | 一种基于三维卷积神经网络的图像特征提取与训练方法 | |
CN111444881A (zh) | 伪造人脸视频检测方法和装置 | |
CN108388896A (zh) | 一种基于动态时序卷积神经网络的车牌识别方法 | |
CN108090403A (zh) | 一种基于3d卷积神经网络的人脸动态识别方法及系统 | |
CN110991444B (zh) | 面向复杂场景的车牌识别方法及装置 | |
CN110378208B (zh) | 一种基于深度残差网络的行为识别方法 | |
CN107729872A (zh) | 基于深度学习的人脸表情识别方法及装置 | |
CN110008819A (zh) | 一种基于图卷积神经网络的人脸表情识别方法 | |
CN107092935A (zh) | 一种资产变更检测方法 | |
CN114764941A (zh) | 一种表情识别方法、装置以及电子设备 | |
CN112560824B (zh) | 一种基于多特征自适应融合的人脸表情识别方法 | |
CN109886160A (zh) | 一种非限定条件下的人脸识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
RJ01 | Rejection of invention patent application after publication | ||
RJ01 | Rejection of invention patent application after publication |
Application publication date: 20180814 |