CN108416440A - 一种神经网络的训练方法、物体识别方法及装置 - Google Patents

一种神经网络的训练方法、物体识别方法及装置 Download PDF

Info

Publication number
CN108416440A
CN108416440A CN201810231307.0A CN201810231307A CN108416440A CN 108416440 A CN108416440 A CN 108416440A CN 201810231307 A CN201810231307 A CN 201810231307A CN 108416440 A CN108416440 A CN 108416440A
Authority
CN
China
Prior art keywords
network model
neural network
training
training sample
initial neural
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810231307.0A
Other languages
English (en)
Inventor
恽为民
任翰驰
夏晓斌
庞作伟
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shanghai Xpartner Robotics Co Ltd
Original Assignee
Shanghai Xpartner Robotics Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shanghai Xpartner Robotics Co Ltd filed Critical Shanghai Xpartner Robotics Co Ltd
Priority to CN201810231307.0A priority Critical patent/CN108416440A/zh
Publication of CN108416440A publication Critical patent/CN108416440A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本发明实施例公开了一种神经网络的训练方法、物体识别方法及装置。其中神经网络的训练方法包括建立初始神经网络模型,其中,所述初始神经网络模型为超轻量级网络SqueezeNet模型;获取训练样本,并对所述训练样本进行预处理;将预处理得到的训练样本输入至初始神经网络模型,并确定根据所述初始神经网络模型的第一输出与预设期望的损失值;根据所述损失值调节所述初始神经网络模型的网络参数,生成目标神经网络模型。建立了参数少、占用内存小的高精度目标神经网络,使得训练得到的目标神经网络模型可应用于移动终端,不在依赖于GPU的设置,提高了目标神经网络模型的适应性。

Description

一种神经网络的训练方法、物体识别方法及装置
技术领域
本发明实施例涉及图像处理技术,尤其涉及一种神经网络的训练方法、物体识别方法及装置。
背景技术
随着深度学习技术突飞猛进的发展,深度卷积神经网络在物体识别、单物体定位、多物体检测和图像语义及实例分割领域取得了重大技术突破和快速发展。在国际顶尖的大规模物体识别竞赛上,基于深度卷积神经网络的物体识别技术的识别准确率已达到超越人类的识别率。
但是目前的神经网络模型需要使用相应的计算框架,通过布置多块高性能图形处理器(GPU,Graphics Processing Unit),且占用内存大,无法适用于设置有传统中央处理器,且内存空间较小的诸如智能手机或者平板电脑等的移动终端。
发明内容
本发明提供一种神经网络的训练方法、物体识别方法及装置,以实现建立运行速度快、占用内存小的神经网络模型。
第一方面,本发明实施例提供了一种神经网络的训练方法,该神经网络的训练方法包括:建立初始神经网络模型,其中,所述初始神经网络模型为超轻量级网络SqueezeNet模型;
获取训练样本,并对所述训练样本进行预处理;
将预处理得到的训练样本输入至初始神经网络模型,并确定根据所述初始神经网络模型的第一输出与预设期望的损失值;
根据所述损失值调节所述初始神经网络模型的网络参数,生成目标神经网络模型。
可选的,所述初始神经网络模型包括预设数量的结构模块,其中,每一个所述结构模块包括卷积核为1×1的第一卷积层、卷积核为1×1的第二卷积层和卷积核为3×3的第三卷积层。
可选的,所述第二卷积层与所述第三卷积层并联,串联于所述第一卷积层的输出端。
可选的,所述初始神经网络模型包括Dropout层。
可选的,所述初始神经网络模型包括全连接模块,其中,所述全连接模块包括全连接层或者卷积核为1×1的第四卷积层与池化层。
可选的,对所述训练样本进行预处理,包括:
将所述训练样本缩放至第一预设尺寸,计算缩放后的训练样本的三通道均值;
根据所述三通道均值对所述缩放后的训练样本进行去均值处理。
可选的,在计算缩放后的训练样本的三通道均值之前,还包括:
对所述缩放后的训练样本进行参数变换,形成近似样本;
相应的,计算缩放后的训练样本的三通道均值包括:
计算缩放后的训练样本和所述近似样本的三通道均值。
第二方面,本发明实施例还提供了一种物体识别方法,该物体识别方法包括:
获取待识别物体的图像;
根据目标神经网络模型的预处理参数对所述待识别物体的图像进行预处理;
基于所述目标神经网络模型,对所述预处理后的图像进行识别,输出识别物体和对应的置信度,其中,所述目标神经网络模型根据本发明实施例提的神经网络的训练方法训练得到的超轻量级网络SqueezeNet模型;
根据所述识别物体和对应的置信度确定所述待识别物体的识别结果。
可选的,根据目标神经网络模型的预处理参数对所述待识别物体的图像进行预处理,包括:
将所述待识别物体的图像缩放至第二预设尺寸;
获取所述目标神经网络的样本均值,根据所述样本均值对缩放后的图像进行去均值处理。
可选的,根据所述识别物体和对应的置信度确定所述待识别物体的识别结果,包括:
在所述置信度中筛选最大置信度,将所述最大置信度对应的识别物体确定为所述待识别物体的识别结果。
第三方面,本发明实施例还提供了一种神经网络的训练装置,该装置包括:
模型建立模块,用于建立初始神经网络模型,其中所述初始神经网络模型为超轻量级网络SqueezeNet模型;
第一预处理模块,用于获取训练样本,并对所述训练样本进行预处理;
样本输入模块,用于将预处理得到的训练样本输入至初始神经网络模型,并确定根据所述初始神经网络模型的第一输出与预设期望的损失值;
模型训练模块,用于根据所述损失值调节所述初始神经网络模型的网络参数,生成目标神经网络模型。
第四方面,本发明实施例还提供了一种物体识别装置,该物体识别装置包括:
图像获取模块,用于获取待识别物体的图像;
第二预处理模块,用于根据目标神经网络模型的预处理参数对所述待识别物体的图像进行预处理;
图像识别模块,用于基于所述目标神经网络模型,对所述预处理后的图像进行识别,输出识别物体和对应的置信度,其中,所述目标神经网络模型根据本发明实施例提的神经网络的训练方法训练得到的超轻量级网络SqueezeNet模型;
识别结果确定模块,用于根据所述识别物体和对应的置信度确定所述待识别物体的识别结果。
第五方面,本发明实施例还提供了一种服务器,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明任意实施例提供的一种神经网络的训练方法。
第六方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例提供的一种神经网络的训练方法。
第七方面,本发明实施例还提供了一种终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,所述处理器执行所述程序时实现如本发明任意实施例提供的一种物体识别方法。
第八方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明任意实施例提供的一种物体识别方法。
本发明实施例通过建立SqueezeNet的初始神经网络模型,获取大量的训练样本,对训练样本进行预处理后依次输入至初始神经网络模型,根据第一输出和与预设期望的损失值,反向传输至初始神经网络模型,以调节初始神经网络模型的网络参数,得到目标神经网络模型。建立了参数少、占用内存小的高精度目标神经网络,使得训练得到的目标神经网络模型可应用于移动终端,不在依赖于GPU的设置,提高了目标神经网络模型的适应性。
附图说明
图1是本发明实施例一提供的一种神经网络的训练方法的流程图;
图2是本发明实施例二提供的一种物体识别方法的流程图;
图3是本发明实施例三提供的一种神经网络的训练装置的结构示意图;
图4是本发明实施例四提供的一种物体识别装置的结构示意图;
图5是本发明实施例五提供的一种服务器的结构示意图;
图6是本发明实施例七提供的一种终端的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一提供的一种神经网络的训练方法的流程图,本实施例可适用于建立并训练得到一种内存小且计算速度快的神经网络模型的情况,该方法可以由服务器来执行,该服务器可采用软件和/或硬件的方式实现。该方法具体包括:
S110、建立初始神经网络模型,其中,初始神经网络模型为超轻量级网络SqueezeNet模型。
其中,超轻量级网络SqueezeNet模型具有模型参数少和占用内存小的特点,相对于AlexNet等的神经网络模型,在具有相同识别精度的前提下,超轻量级网络SqueezeNet模型所占用的内存减少了近50倍。本实施例中,建立超轻量级网络SqueezeNet模型,以降低神经网络模型占用的内存,提高神经网络模型的适用性。
可选的,初始神经网络模型包括预设数量的结构模块,结构模块的数量可以是根据神经网络的需求精度确定,示例性的,结构模块的数量可以是8。其中,每一个结构模块包括卷积核为1×1的第一卷积层、卷积核为1×1的第二卷积层和卷积核为3×3的第三卷积层,第二卷积层与第三卷积层并联,串联于第一卷积层的输出端。将第二卷积层与第三卷积层的输出信息进行融合,得到该结构模块的输出结果,作为下一个结构模块中第一卷积层的输入信息,其中,对第二卷积层与第三卷积层的输出信息进行融合可以是将第二卷积层的输出信息与第三卷积层的输出信息进行对应相加或者加权相加。
对于每一个卷积层,其卷积核越小,参数的数量越少,计算速度越快。本实施例中,每一个结构模块中包含第一卷积层、第二卷积层和第三卷积层,且第一卷积层和第二卷积层的卷积核均为1×1,减少了初始神经网络模型中的参数数量,进一步增大了初始神经网络模型的计算速度,减少了初始神经网络模型占用的内存。
可选的,初始神经网络模型包括Dropout层。Dropout层用于在神经网络的训练过程中根据百分比设置网络的中的参数无效,使其不再进行参数更新,降低训练和计算过程中的参数数量,减少了初始神经网络模型中的参数数量,进一步增大了初始神经网络模型的计算速度,减少了初始神经网络模型占用的内存。
可选的,初始神经网络模型包括全连接模块,其中,全连接模块包括全连接层或者卷积核为1×1的第四卷积层与池化层。其中,全连接模块用于对上一层的输出整合相加得到一个预设长度的一维向量。全连接模块可以是包含一个全连接层,优选的,还可以是包含一个卷积核为1×1的第四卷积层与一个池化层。由于全连接层中的参数数量大,通过一个卷积核为1×1的第四卷积层与一个池化层替代全连接层,在达到全连接层功能的基础上,减少了神经网络中参数数量。同时当全连接模块包含一个卷积核为1×1的第四卷积层与一个池化层时,无需限定输入神经网络模型的图像的尺寸,简化了输入图像的预处理过程。
可选的,初始神经网络模型还包括池化层,用于根据池化层的预设参数对上一层的输出图像进行降维;初始神经网络模型还包括非线性激活层,用于对上一层的输出进行非线性变换。
需要说明的是,初始神经网络模型中的Dropout层、池化层、非线性激活层和全连接模块的数量和设置位置根据功能需求和精度需求进行设置,本实施例对此不做限定。
S120、获取训练样本,并对训练样本进行预处理。
其中,训练样本指的是用于对初始神经网络模型进行训练所需的样本图像。可选的,训练样本可以是根据关键词在网络中爬取,和/或以不同角度、不同距离以及不同光照条件下拍摄获得。
可选的,对训练样本进行预处理,包括:将训练样本缩放至第一预设尺寸,计算缩放后的训练样本的三通道均值;根据三通道均值对缩放后的训练样本进行去均值处理。
其中,第一预设尺寸可以是根据初始神经网络模型的输入层参数确定。获取缩放后的训练样本的RGB(Red,Green,Blue,红绿蓝)值,并确定所有的训练样本的各个像素点的RGB三通道均值。对每一个训练样本进行去均值处理,得到可输入至初始神经网络模型的图像,其中去均值处理指的是将训练样本中各像素点的RGB值减去对应的三通道均值。
本实施例中,通过对训练样本进行去均值处理,可简化对训练样本的处理过程,进一步简化对初始神经网络模型的训练过程。
可选的,在计算缩放后的训练样本的三通道均值之前,还包括:对缩放后的训练样本进行参数变换,形成近似样本;相应的,计算缩放后的训练样本的三通道均值包括:计算缩放后的训练样本和近似样本的三通道均值。
本实施例中,通过对缩放后的训练样本进行参数变换,形成至少一个近似样本,将得到的近似样本作为训练样本,以增加训练样本的数量,降低了大量训练样本的获取难度,提高初始神经网络模型的训练精度。
其中,参数变换可以是但不限于镜像变换、颜色通道转换、图像亮度变换和尺寸裁剪等。
S130、将预处理得到的训练样本输入至初始神经网络模型,并确定根据初始神经网络模型的第一输出与预设期望的损失值。
其中,可以是设置损失层,连接在初始神经网络模型的输出层,用于确定根据初始神经网络模型的第一输出与预设期望的损失值。损失值是用来表征神经网络的第一输出与期望输出的不一致程度,损失值越小,神经网络的鲁棒性通常越好。其中,预设期望可以是根据训练样本预先设置的图像标签。
S140、根据损失值调节初始神经网络模型的网络参数,生成目标神经网络模型。
初始神经网络模型的训练过程包括训练样本的正传过程和损失值的反传过程。在正传过程中,训练样本输入初始神经网络模型,依次经过各卷积层、池化层、非线性激活层和全连接模块等的处理,输出结构。在反传过程中,损失值反向输入初始神经网络模型,并反向依次经过各卷积层等,确定各卷积层、池化层、非线性激活层和全连接模块等的损失值,并将该各层的损失值作为各层的网络参数的调节依据。上述正传过程和反传过程是迭代进行的,网络参数不断调节的过程直至满足训练完成条件,该过程就是初始神经网络模型的优化训练过程。本实施例中,将损失值进行梯度反传,并根据损失值调节初始神经网络模型的网络参数。可选的,网络参数包括但不限于权重和偏移值。
可选的,目标神经网络模型训练完成条件可根据实际情况确定,实现方式灵活,例如:若损失值满足预设条件,则可停止对初始神经网络模型的训练,即生成目标神经网络模型;或者,若迭代次数超过预定次数阈值,可停止对初始神经网络模型的训练,即生成目标神经网络模型。本实施例中,基于损失值进行训练判停的预设条件可以是损失值为零,或者小于某一阈值,或者损失值达到稳定不下降状态,例如若当前损失值小于上一次损失值,则继续对初始神经网络模型进行优化训练,直到当前损失值为零,或者等于上一次损失值,确定生成目标神经网络模型。
本实施例中得到的目标神经网络,在保证了高精度的基础上,简化了神经网络参数,可应用与设置有传统CPU(Central Processing Unit,中央处理器)的终端内,不在依赖于GPU(Graphics Processing Unit,图形处理器),使得无法布置GPU的移动终端同样可运行上述目标神经网络,提高了目标神经网络的适用性。
本实施例的技术方案,通过建立SqueezeNet的初始神经网络模型,获取大量的训练样本,对训练样本进行预处理后依次输入至初始神经网络模型,根据第一输出和与预设期望的损失值,反向传输至初始神经网络模型,以调节初始神经网络模型的网络参数,得到目标神经网络模型。建立了参数少、占用内存小的高精度目标神经网络,使得训练得到的目标神经网络模型可应用于移动终端,不在依赖于GPU的设置,提高了目标神经网络模型的适应性。
实施例二
图2是本发明实施例二提供的一种物体识别方法的流程图,本实施例可适用于设置有占用内存小的神经网络模型的移动终端快速识别物体的情况,该方法可以由移动终端来执行,其中移动终端可以是设置有传统中央处理器的诸如智能手机、平板电脑或机器人等,该移动终端可采用软件和/或硬件的方式实现。该方法具体包括:
S210、获取待识别物体的图像。
其中,图像可以是通过对待识别物体进行拍摄获取,还可以是通过网络资源或者云数据的方式获取。
S220、根据目标神经网络模型的预处理参数对待识别物体的图像进行预处理。
本实施例中,在获取待识别物体的图像之后,可以是将获取的图像输入至前向传播框架NCNN,其中,NCNN框架是一种可应用移动端的神经网络计算框架,是针对在低性能的CPU上运行深度神经网络而开发的,其基于C语言开发,保证了对CPU计算和内存资源的充分利用,还可应用多线程进行计算,具有良好的计算性能。本实施例中,将目标神经网络模型移植到NCNN框架,以使得目标神经网络模型可以在移动端运行。
其中,预处理参数可以是包括目标神经网络模型的样本均值和输入层信息。样本均值指的是目标神经网络模型在训练过程中训练样本的三通道均值。
可选的,步骤S220包括:将待识别物体的图像缩放至第二预设尺寸;获取目标神经网络的样本均值,根据样本均值对缩放后的图像进行去均值处理。
本实施例中,第二预设尺寸根据输入层信息确定,第二预设尺寸可以是与第一预设尺寸一致。根据样本均值对缩放后的图像进行去均值处理,具体的,将缩放后的图像中各像素的RGB值分别减去对应的三通道均值,得到预处理后的输入图像。本实施例中通过对待识别物体的图像进行去均值处理,简化了对待识别物体的图像的处理过程。
S230、基于目标神经网络模型,对预处理后的图像进行识别,输出识别物体和对应的置信度。
其中,目标神经网络模型根据本发明实施例提的的神经网络的训练方法训练得到的超轻量级网络SqueezeNet模型。
本实施例中,将经过预处理得到的待识别物体的图像输入至目标神经网络模型,目标神经网络模型对输入的图像进行识别处理,并获取目标神经网络模型的输出结果,输出结果包括识别物体和对应的置信度。其中,识别物体可以是预先设置的物体列表中的一个或多个,置信度指的是图像中的待识别物体属于识别物体的概率。
S240、根据识别物体和对应的置信度确定待识别物体的识别结果。
可选的,在目标神经网络模型的输出层连接分类层,分类层根据上一层的输出的识别物体和对应的置信度,确定识别结果。可选的,步骤S240包括:在置信度中筛选最大置信度,将最大置信度对应的识别物体确定为待识别物体的识别结果。
示例性的,若目标神经网络模型的输出结果为:识别物体为狗的置信度为75%,识别物体为猫的置信度为15%,识别物体为马的置信度为5%,识别物体为汽车的置信度为5%,则确定最大置信度为75%,进一步可确定待识别物体的识别结果为狗。
本实施例的技术方案,通过将获取的待识别物体的图像进行预处理后,输入至预先训练得到的目标神经网络模型中,以对待识别物体进行识别,得到识别结果,其中目标神经网络模型为超轻量级网络SqueezeNet模型,计算精度高,占用内存小,可应用于设置有传统中央处理器的移动端内,使得移动端可运行高精度的神经网络模型,提高移动端的物体识别精度。
实施例三
图3是本发明实施例三提供的一种神经网络的训练装置的结构示意图,该装置包括:
模型建立模块310,用于建立初始神经网络模型,其中初始神经网络模型为超轻量级网络SqueezeNet模型;
第一预处理模块320,用于获取训练样本,并对训练样本进行预处理;
样本输入模块330,用于将预处理得到的训练样本输入至初始神经网络模型,并确定根据初始神经网络模型的第一输出与预设期望的损失值;
模型训练模块340,用于根据损失值调节初始神经网络模型的网络参数,生成目标神经网络模型。
可选的,初始神经网络模型包括预设数量的结构模块,其中,每一个结构模块包括卷积核为1×1的第一卷积层、卷积核为1×1的第二卷积层和卷积核为3×3的第三卷积层。
可选的,第二卷积层与第三卷积层并联,串联于第一卷积层的输出端。
可选的,初始神经网络模型包括Dropout层。
可选的,初始神经网络模型包括全连接模块,其中,全连接模块包括全连接层或者卷积核为1×1的第四卷积层与池化层。
可选的,第一预处理模块320包括:
第一样本缩放单元,用于将训练样本缩放至第一预设尺寸;
第一去均值处理单元,用于计算缩放后的训练样本的三通道均值,根据三通道均值对缩放后的训练样本进行去均值处理。
可选的,第一预处理模块320还包括:近似样本确定单元,用于在计算缩放后的训练样本的三通道均值之前,对缩放后的训练样本进行参数变换,形成近似样本;
相应的,第一去均值处理单元包括:计算缩放后的训练样本和近似样本的三通道均值。
本发明实施例提供的神经网络的训练装置可执行本发明任意实施例所提供的神经网络的训练方法,具备执行神经网络的训练方法相应的功能模块和有益效果。
实施例四
图4是本发明实施例四提供的一种物体识别装置的结构示意图,该装置包括:
图像获取模块410,用于获取待识别物体的图像;
第二预处理模块420,用于根据目标神经网络模型的预处理参数对待识别物体的图像进行预处理;
图像识别模块430,用于基于目标神经网络模型,对预处理后的图像进行识别,输出识别物体和对应的置信度,其中,目标神经网络模型根据本发明实施例提供的神经网络的训练方法训练得到的超轻量级网络SqueezeNet模型;
识别结果确定模块440,用于根据识别物体和对应的置信度确定待识别物体的识别结果。
可选的,第二预处理模块420包括:
第二样本缩放单元,用于将待识别物体的图像缩放至第二预设尺寸;
第二去均值单元,用于获取目标神经网络的样本均值,根据样本均值对缩放后的图像进行去均值处理。
可选的,识别结果确定模块440具体用于:
在置信度中筛选最大置信度,将最大置信度对应的识别物体确定为待识别物体的识别结果。
本发明实施例提供的物体识别装置可执行本发明任意实施例所提供的物体识别方法,具备执行物体识别方法相应的功能模块和有益效果。
实施例五
图5是本发明实施例五提供的一种服务器结构示意图。参见图5,该服务器包括:
一个或多个处理器510;
存储器520,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器510执行,使得所述一个或多个处理器510实现如本发明实施例提供的神经网络的训练方法。
图5中以一个处理器为例;处理器和存储器可以通过总线或其他方式连接,
图5中以通过总线连接为例。
存储器作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块。处理器通过运行存储在存储器中的软件程序、指令以及模块,从而执行服务器的各种功能应用以及数据处理,即实现上述的神经网络的训练方法。
存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至服务器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
另外,根据服务器的不同形式,除了处理器和存储器,控制终端还可以包括其他模块或结构,例如,服务器可以具备语音播报功能,则还包括扬声器;又如,服务器可以是具有显示功能的设备,则还包括显示屏幕,用于显示地图数据,也可供用户在导航软件界面上进行触控操作。
本实施例提出的服务器与本发明实施例提出的神经网络的训练方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
实施例六
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例提出的神经网络的训练方法。
本实施例提出的计算机可读存储介质与实施例提出的神经网络的训练方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
实施例七
图6是本发明实施例七提供的一种终端结构示意图。参见图6,该终端包括:
一个或多个处理器610;
存储器620,用于存储一个或多个程序;
当所述一个或多个程序被所述一个或多个处理器610执行,使得所述一个或多个处理器610实现如本发明实施例提供的物体识别方法。
图6中以一个处理器为例;处理器和存储器可以通过总线或其他方式连接,图6中以通过总线连接为例。
存储器作为一种计算机可读存储介质,可用于存储软件程序、计算机可执行程序以及模块。处理器通过运行存储在存储器中的软件程序、指令以及模块,从而执行终端的各种功能应用以及数据处理,即实现上述的物体识别方法。
存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序;存储数据区可存储根据终端的使用所创建的数据等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如至少一个磁盘存储器件、闪存器件、或其他非易失性固态存储器件。在一些实例中,存储器可进一步包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至终端。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
另外,根据终端的不同形式,除了处理器和存储器,控制终端还可以包括其他模块或结构,例如,终端可以具备语音播报功能,则还包括扬声器;又如,终端可以是具有显示功能的设备,则还包括显示屏幕,用于显示地图数据,也可供用户在导航软件界面上进行触控操作。
本实施例提出的终端与本发明实施例提出的物体识别方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
实施例八
本实施例提供一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例提出的物体识别方法。
本实施例提出的计算机可读存储介质与实施例提出的物体识别方法属于同一发明构思,未在本实施例中详尽描述的技术细节可参见上述实施例,并且本实施例与上述实施例具有相同的有益效果。
通过以上关于实施方式的描述,所属领域的技术人员可以清楚地了解到,本发明可借助软件及必需的通用硬件来实现,当然也可以通过硬件实现,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品可以存储在计算机可读存储介质中,如计算机的软盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(RandomAccess Memory,RAM)、闪存(FLASH)、硬盘或光盘等,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述的方法。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (16)

1.一种神经网络的训练方法,其特征在于,包括:
建立初始神经网络模型,其中,所述初始神经网络模型为超轻量级网络SqueezeNet模型;
获取训练样本,并对所述训练样本进行预处理;
将预处理得到的训练样本输入至初始神经网络模型,并确定根据所述初始神经网络模型的第一输出与预设期望的损失值;
根据所述损失值调节所述初始神经网络模型的网络参数,生成目标神经网络模型。
2.根据权利要求1所述的方法,其特征在于,所述初始神经网络模型包括预设数量的结构模块,其中,每一个所述结构模块包括卷积核为1×1的第一卷积层、卷积核为1×1的第二卷积层和卷积核为3×3的第三卷积层。
3.根据权利要求2所述的方法,其特征在于,所述第二卷积层与所述第三卷积层并联,串联于所述第一卷积层的输出端。
4.根据权利要求1所述的方法,其特征在于,所述初始神经网络模型还包括Dropout层。
5.根据权利要求1所述的方法,其特征在于,所述初始神经网络模型还包括全连接模块,其中,所述全连接模块包括全连接层或者卷积核为1×1的第四卷积层与池化层。
6.根据权利要求1所述的方法,其特征在于,对所述训练样本进行预处理,包括:
将所述训练样本缩放至第一预设尺寸,计算缩放后的训练样本的三通道均值;
根据所述三通道均值对所述缩放后的训练样本进行去均值处理。
7.根据权利要求6所述的方法,其特征在于,在计算缩放后的训练样本的三通道均值之前,还包括:
对所述缩放后的训练样本进行参数变换,形成近似样本;
相应的,计算缩放后的训练样本的三通道均值包括:
计算缩放后的训练样本和所述近似样本的三通道均值。
8.一种物体识别方法,其特征在于,包括:
获取待识别物体的图像;
根据目标神经网络模型的预处理参数对所述待识别物体的图像进行预处理;
基于所述目标神经网络模型,对所述预处理后的图像进行识别,输出识别物体和对应的置信度,其中,所述目标神经网络模型根据权利要求1-7任一所述的神经网络的训练方法训练得到的超轻量级网络SqueezeNet模型;
根据所述识别物体和对应的置信度确定所述待识别物体的识别结果。
9.根据权利要求8所述的方法,其特征在于,根据目标神经网络模型的预处理参数对所述待识别物体的图像进行预处理,包括:
将所述待识别物体的图像缩放至第二预设尺寸;
获取所述目标神经网络的样本均值,根据所述样本均值对缩放后的图像进行去均值处理。
10.根据权利要求8所述的方法,其特征在于,根据所述识别物体和对应的置信度确定所述待识别物体的识别结果,包括:
在所述置信度中筛选最大置信度,将所述最大置信度对应的识别物体确定为所述待识别物体的识别结果。
11.一种神经网络的训练装置,其特征在于,包括:
模型建立模块,用于建立初始神经网络模型,其中所述初始神经网络模型为超轻量级网络SqueezeNet模型;
第一预处理模块,用于获取训练样本,并对所述训练样本进行预处理;
样本输入模块,用于将预处理得到的训练样本输入至初始神经网络模型,并确定根据所述初始神经网络模型的第一输出与预设期望的损失值;
模型训练模块,用于根据所述损失值调节所述初始神经网络模型的网络参数,生成目标神经网络模型。
12.一种物体识别装置,其特征在于,包括:
图像获取模块,用于获取待识别物体的图像;
第二预处理模块,用于根据目标神经网络模型的预处理参数对所述待识别物体的图像进行预处理;
图像识别模块,用于基于所述目标神经网络模型,对所述预处理后的图像进行识别,输出识别物体和对应的置信度,其中,所述目标神经网络模型根据权利要求1-7任一所述的神经网络的训练方法训练得到的超轻量级网络SqueezeNet模型;
识别结果确定模块,用于根据所述识别物体和对应的置信度确定所述待识别物体的识别结果。
13.一种服务器,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求1-7中任一所述的方法。
14.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求1-7中任一所述的方法。
15.一种终端,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序,其特征在于,所述处理器执行所述程序时实现如权利要求8-10中任一所述的方法。
16.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,该程序被处理器执行时实现如权利要求8-10中任一所述的方法。
CN201810231307.0A 2018-03-20 2018-03-20 一种神经网络的训练方法、物体识别方法及装置 Pending CN108416440A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810231307.0A CN108416440A (zh) 2018-03-20 2018-03-20 一种神经网络的训练方法、物体识别方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810231307.0A CN108416440A (zh) 2018-03-20 2018-03-20 一种神经网络的训练方法、物体识别方法及装置

Publications (1)

Publication Number Publication Date
CN108416440A true CN108416440A (zh) 2018-08-17

Family

ID=63132949

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810231307.0A Pending CN108416440A (zh) 2018-03-20 2018-03-20 一种神经网络的训练方法、物体识别方法及装置

Country Status (1)

Country Link
CN (1) CN108416440A (zh)

Cited By (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985206A (zh) * 2018-07-04 2018-12-11 百度在线网络技术(北京)有限公司 模型训练方法、人体识别方法、装置、设备及存储介质
CN109035666A (zh) * 2018-08-29 2018-12-18 深圳市中电数通智慧安全科技股份有限公司 一种火烟检测方法、装置及终端设备
CN109117831A (zh) * 2018-09-30 2019-01-01 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN109635643A (zh) * 2018-11-01 2019-04-16 暨南大学 一种基于深度学习的快速人脸识别方法
CN109800795A (zh) * 2018-12-29 2019-05-24 广州市贺氏办公设备有限公司 一种果蔬识别方法及系统
CN109919214A (zh) * 2019-02-27 2019-06-21 南京地平线机器人技术有限公司 一种神经网络模型的训练方法及训练装置
CN110070030A (zh) * 2019-04-18 2019-07-30 北京迈格威科技有限公司 图像识别与神经网络模型的训练方法、装置和系统
CN110162799A (zh) * 2018-11-28 2019-08-23 腾讯科技(深圳)有限公司 模型训练方法、机器翻译方法以及相关装置和设备
CN110324664A (zh) * 2019-07-11 2019-10-11 南开大学 一种基于神经网络的视频补帧方法及其模型的训练方法
CN110348398A (zh) * 2019-07-15 2019-10-18 上海点积实业有限公司 一种神经网络模型确定方法和系统
CN110472516A (zh) * 2019-07-23 2019-11-19 腾讯科技(深圳)有限公司 一种人物图像识别系统的构建方法、装置、设备及系统
CN110490876A (zh) * 2019-03-12 2019-11-22 珠海上工医信科技有限公司 一种用于图像分割的轻量级神经网络
CN110533752A (zh) * 2019-07-23 2019-12-03 深圳大学 一种人体动作编辑模型的生成方法、存储介质及电子设备
CN110532874A (zh) * 2019-07-23 2019-12-03 深圳大学 一种物体属性识别模型的生成方法、存储介质及电子设备
CN110599538A (zh) * 2019-09-30 2019-12-20 山东信通电子股份有限公司 一种输电线路导线覆冰厚度的识别方法和装置
CN110874550A (zh) * 2018-08-31 2020-03-10 华为技术有限公司 数据处理方法、装置、设备和系统
CN110889450A (zh) * 2019-11-27 2020-03-17 腾讯科技(深圳)有限公司 超参数调优、模型构建方法和装置
CN110929866A (zh) * 2018-09-20 2020-03-27 阿里巴巴集团控股有限公司 神经网络模型的训练方法、装置和系统
CN110968689A (zh) * 2018-09-30 2020-04-07 北京国双科技有限公司 罪名及法条预测模型的训练方法以及罪名及法条预测方法
CN111062345A (zh) * 2019-12-20 2020-04-24 上海欧计斯软件有限公司 静脉识别模型的训练方法、装置和静脉图像识别装置
CN111105458A (zh) * 2018-10-25 2020-05-05 深圳市深蓝牙医疗科技有限公司 口腔种植体定位方法、口腔组织识别模型建立方法、装置、设备和存储介质
CN111105017A (zh) * 2019-12-24 2020-05-05 北京旷视科技有限公司 神经网络量化方法、装置及电子设备
CN111178447A (zh) * 2019-12-31 2020-05-19 北京市商汤科技开发有限公司 模型压缩方法、图像处理方法及相关装置
CN111325343A (zh) * 2020-02-20 2020-06-23 北京市商汤科技开发有限公司 神经网络的确定、目标检测、智能行驶控制方法及装置
CN111353512A (zh) * 2018-12-20 2020-06-30 长沙智能驾驶研究院有限公司 障碍物分类方法、装置、存储介质和计算机设备
CN111382764A (zh) * 2018-12-29 2020-07-07 北大方正集团有限公司 神经网络模型建立方法、装置及计算机可读存储介质
CN111401396A (zh) * 2019-01-03 2020-07-10 阿里巴巴集团控股有限公司 图像识别方法及装置
CN111444255A (zh) * 2018-12-29 2020-07-24 杭州海康存储科技有限公司 一种数据模型的训练方法及装置
CN111461337A (zh) * 2020-03-05 2020-07-28 深圳追一科技有限公司 数据处理方法、装置、终端设备及存储介质
CN111488977A (zh) * 2019-01-25 2020-08-04 北京地平线机器人技术研发有限公司 神经网络模型训练方法和装置
CN111582463A (zh) * 2020-06-08 2020-08-25 佛山金华信智能科技有限公司 伺服电机故障识别及模型训练方法、装置、介质及终端
CN111652308A (zh) * 2020-05-13 2020-09-11 三峡大学 基于超轻量级全卷积神经网络的花卉识别方法
CN111797976A (zh) * 2020-06-30 2020-10-20 北京灵汐科技有限公司 神经网络的训练方法、图像识别方法、装置、设备及介质
CN111814815A (zh) * 2019-04-11 2020-10-23 苏州工其器智能科技有限公司 一种基于轻量级神经网络的眼镜放置状态的智能判别方法
CN111898622A (zh) * 2019-05-05 2020-11-06 阿里巴巴集团控股有限公司 信息处理、信息显示与模型训练方法、系统及设备
CN111950723A (zh) * 2019-05-16 2020-11-17 武汉Tcl集团工业研究院有限公司 神经网络模型训练方法、图像处理方法、装置及终端设备
CN112070205A (zh) * 2020-07-30 2020-12-11 华为技术有限公司 一种多损失模型获取方法以及装置
CN112561778A (zh) * 2019-09-26 2021-03-26 北京字节跳动网络技术有限公司 图像风格化处理方法、装置、设备及存储介质
CN112561028A (zh) * 2019-09-25 2021-03-26 华为技术有限公司 训练神经网络模型的方法、数据处理的方法及装置
CN112949316A (zh) * 2021-02-23 2021-06-11 南方电网调峰调频发电有限公司信息通信分公司 基于神经网络模型的知识检索方法、装置、设备和介质
CN112990211A (zh) * 2021-01-29 2021-06-18 华为技术有限公司 一种神经网络的训练方法、图像处理方法以及装置
CN113421209A (zh) * 2021-06-21 2021-09-21 安谋科技(中国)有限公司 图像处理方法、片上系统、电子设备和介质
CN113657136A (zh) * 2020-05-12 2021-11-16 阿里巴巴集团控股有限公司 识别方法及装置
CN113688975A (zh) * 2021-08-24 2021-11-23 北京市商汤科技开发有限公司 神经网络的训练方法、装置、电子设备及存储介质
CN114595759A (zh) * 2022-03-07 2022-06-07 卡奥斯工业智能研究院(青岛)有限公司 一种护具识别方法、装置、电子设备及存储介质
CN115247664A (zh) * 2022-07-20 2022-10-28 北京天玛智控科技股份有限公司 液压泵的压力调节方法、装置、电子设备及存储介质

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140201116A1 (en) * 2012-05-09 2014-07-17 International Business Machines Corporation Optimally configuring an information landscape
US20150363691A1 (en) * 2014-06-13 2015-12-17 International Business Machines Corporation Managing software bundling using an artificial neural network
US20160071010A1 (en) * 2014-05-31 2016-03-10 Huawei Technologies Co., Ltd. Data Category Identification Method and Apparatus Based on Deep Neural Network
CN105654066A (zh) * 2016-02-02 2016-06-08 北京格灵深瞳信息技术有限公司 一种车辆识别方法及装置
CN105894025A (zh) * 2016-03-30 2016-08-24 中国科学院自动化研究所 基于多任务深度学习的自然图像美感质量评估方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140201116A1 (en) * 2012-05-09 2014-07-17 International Business Machines Corporation Optimally configuring an information landscape
US20160071010A1 (en) * 2014-05-31 2016-03-10 Huawei Technologies Co., Ltd. Data Category Identification Method and Apparatus Based on Deep Neural Network
US20150363691A1 (en) * 2014-06-13 2015-12-17 International Business Machines Corporation Managing software bundling using an artificial neural network
CN105654066A (zh) * 2016-02-02 2016-06-08 北京格灵深瞳信息技术有限公司 一种车辆识别方法及装置
CN105894025A (zh) * 2016-03-30 2016-08-24 中国科学院自动化研究所 基于多任务深度学习的自然图像美感质量评估方法

Non-Patent Citations (5)

* Cited by examiner, † Cited by third party
Title
FORREST N. IANDOLA: "SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PARAMETERS AND <0.5MB MODEL SIZE", 《ARXIV》 *
FORREST N. IANDOLA: "SQUEEZENET: ALEXNET-LEVEL ACCURACY WITH 50X FEWER PARAMETERS AND <0.5MB MODEL SIZE", 《ARXIV》, 4 November 2016 (2016-11-04), pages 1 - 13 *
SHENXIAOLU1984: "【⽹络优化】超轻量级⽹络Squeez", 《CSDN》, 20 May 2016 (2016-05-20) *
东⻛逍遥游: "SqueezeNet详细解读_花有重开日 人无再少年-CSDN博客_squeezenet", 《CSDN》, 29 November 2017 (2017-11-29) *
⼩⼩将: "CNN模型之SqueezeNet", 《知乎》, 4 December 2017 (2017-12-04) *

Cited By (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108985206A (zh) * 2018-07-04 2018-12-11 百度在线网络技术(北京)有限公司 模型训练方法、人体识别方法、装置、设备及存储介质
CN109035666A (zh) * 2018-08-29 2018-12-18 深圳市中电数通智慧安全科技股份有限公司 一种火烟检测方法、装置及终端设备
CN109035666B (zh) * 2018-08-29 2020-05-19 深圳市中电数通智慧安全科技股份有限公司 一种火烟检测方法、装置及终端设备
CN110874550A (zh) * 2018-08-31 2020-03-10 华为技术有限公司 数据处理方法、装置、设备和系统
CN110929866A (zh) * 2018-09-20 2020-03-27 阿里巴巴集团控股有限公司 神经网络模型的训练方法、装置和系统
CN109117831A (zh) * 2018-09-30 2019-01-01 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN109117831B (zh) * 2018-09-30 2021-10-12 北京字节跳动网络技术有限公司 物体检测网络的训练方法和装置
CN110968689A (zh) * 2018-09-30 2020-04-07 北京国双科技有限公司 罪名及法条预测模型的训练方法以及罪名及法条预测方法
CN111105458A (zh) * 2018-10-25 2020-05-05 深圳市深蓝牙医疗科技有限公司 口腔种植体定位方法、口腔组织识别模型建立方法、装置、设备和存储介质
CN109635643A (zh) * 2018-11-01 2019-04-16 暨南大学 一种基于深度学习的快速人脸识别方法
CN109635643B (zh) * 2018-11-01 2023-10-31 暨南大学 一种基于深度学习的快速人脸识别方法
CN110162799B (zh) * 2018-11-28 2023-08-04 腾讯科技(深圳)有限公司 模型训练方法、机器翻译方法以及相关装置和设备
WO2020108483A1 (zh) * 2018-11-28 2020-06-04 腾讯科技(深圳)有限公司 模型训练方法、机器翻译方法、计算机设备和存储介质
CN110162799A (zh) * 2018-11-28 2019-08-23 腾讯科技(深圳)有限公司 模型训练方法、机器翻译方法以及相关装置和设备
CN111353512A (zh) * 2018-12-20 2020-06-30 长沙智能驾驶研究院有限公司 障碍物分类方法、装置、存储介质和计算机设备
CN111382764B (zh) * 2018-12-29 2024-02-13 新方正控股发展有限责任公司 人脸识别或手势识别的神经网络模型建立方法、装置及计算机可读存储介质
CN111444255B (zh) * 2018-12-29 2023-09-22 杭州海康存储科技有限公司 一种数据模型的训练方法及装置
CN111444255A (zh) * 2018-12-29 2020-07-24 杭州海康存储科技有限公司 一种数据模型的训练方法及装置
CN111382764A (zh) * 2018-12-29 2020-07-07 北大方正集团有限公司 神经网络模型建立方法、装置及计算机可读存储介质
CN109800795A (zh) * 2018-12-29 2019-05-24 广州市贺氏办公设备有限公司 一种果蔬识别方法及系统
CN111401396A (zh) * 2019-01-03 2020-07-10 阿里巴巴集团控股有限公司 图像识别方法及装置
CN111401396B (zh) * 2019-01-03 2023-04-18 阿里巴巴集团控股有限公司 图像识别方法及装置
CN111488977B (zh) * 2019-01-25 2023-11-07 北京地平线机器人技术研发有限公司 神经网络模型训练方法和装置
CN111488977A (zh) * 2019-01-25 2020-08-04 北京地平线机器人技术研发有限公司 神经网络模型训练方法和装置
CN109919214A (zh) * 2019-02-27 2019-06-21 南京地平线机器人技术有限公司 一种神经网络模型的训练方法及训练装置
CN109919214B (zh) * 2019-02-27 2023-07-21 南京地平线机器人技术有限公司 一种神经网络模型的训练方法及训练装置
CN110490876B (zh) * 2019-03-12 2022-09-16 珠海全一科技有限公司 一种基于轻量级神经网络的图像分割方法
CN110490876A (zh) * 2019-03-12 2019-11-22 珠海上工医信科技有限公司 一种用于图像分割的轻量级神经网络
CN111814815B (zh) * 2019-04-11 2023-08-22 浙江快奇控股有限公司 一种基于轻量级神经网络的眼镜放置状态的智能判别方法
CN111814815A (zh) * 2019-04-11 2020-10-23 苏州工其器智能科技有限公司 一种基于轻量级神经网络的眼镜放置状态的智能判别方法
CN110070030A (zh) * 2019-04-18 2019-07-30 北京迈格威科技有限公司 图像识别与神经网络模型的训练方法、装置和系统
CN111898622A (zh) * 2019-05-05 2020-11-06 阿里巴巴集团控股有限公司 信息处理、信息显示与模型训练方法、系统及设备
CN111950723A (zh) * 2019-05-16 2020-11-17 武汉Tcl集团工业研究院有限公司 神经网络模型训练方法、图像处理方法、装置及终端设备
CN111950723B (zh) * 2019-05-16 2024-05-21 武汉Tcl集团工业研究院有限公司 神经网络模型训练方法、图像处理方法、装置及终端设备
CN110324664B (zh) * 2019-07-11 2021-06-04 南开大学 一种基于神经网络的视频补帧方法及其模型的训练方法
CN110324664A (zh) * 2019-07-11 2019-10-11 南开大学 一种基于神经网络的视频补帧方法及其模型的训练方法
CN110348398B (zh) * 2019-07-15 2022-12-13 上海点积实业有限公司 一种神经网络模型确定方法和系统
CN110348398A (zh) * 2019-07-15 2019-10-18 上海点积实业有限公司 一种神经网络模型确定方法和系统
CN110472516A (zh) * 2019-07-23 2019-11-19 腾讯科技(深圳)有限公司 一种人物图像识别系统的构建方法、装置、设备及系统
CN110533752B (zh) * 2019-07-23 2023-04-07 深圳大学 一种人体动作编辑模型的生成方法、存储介质及电子设备
CN110532874B (zh) * 2019-07-23 2022-11-11 深圳大学 一种物体属性识别模型的生成方法、存储介质及电子设备
CN110533752A (zh) * 2019-07-23 2019-12-03 深圳大学 一种人体动作编辑模型的生成方法、存储介质及电子设备
CN110532874A (zh) * 2019-07-23 2019-12-03 深圳大学 一种物体属性识别模型的生成方法、存储介质及电子设备
CN112561028A (zh) * 2019-09-25 2021-03-26 华为技术有限公司 训练神经网络模型的方法、数据处理的方法及装置
CN112561778A (zh) * 2019-09-26 2021-03-26 北京字节跳动网络技术有限公司 图像风格化处理方法、装置、设备及存储介质
CN110599538A (zh) * 2019-09-30 2019-12-20 山东信通电子股份有限公司 一种输电线路导线覆冰厚度的识别方法和装置
CN110599538B (zh) * 2019-09-30 2020-09-22 山东信通电子股份有限公司 一种输电线路导线覆冰厚度的识别方法和装置
CN110889450A (zh) * 2019-11-27 2020-03-17 腾讯科技(深圳)有限公司 超参数调优、模型构建方法和装置
CN110889450B (zh) * 2019-11-27 2023-08-11 腾讯科技(深圳)有限公司 超参数调优、模型构建方法和装置
CN111062345B (zh) * 2019-12-20 2024-03-29 上海欧计斯软件有限公司 静脉识别模型的训练方法、装置和静脉图像识别装置
CN111062345A (zh) * 2019-12-20 2020-04-24 上海欧计斯软件有限公司 静脉识别模型的训练方法、装置和静脉图像识别装置
CN111105017A (zh) * 2019-12-24 2020-05-05 北京旷视科技有限公司 神经网络量化方法、装置及电子设备
CN111105017B (zh) * 2019-12-24 2023-05-16 北京旷视科技有限公司 神经网络量化方法、装置及电子设备
CN111178447A (zh) * 2019-12-31 2020-05-19 北京市商汤科技开发有限公司 模型压缩方法、图像处理方法及相关装置
CN111178447B (zh) * 2019-12-31 2024-03-08 北京市商汤科技开发有限公司 模型压缩方法、图像处理方法及相关装置
CN111325343B (zh) * 2020-02-20 2022-09-09 北京市商汤科技开发有限公司 神经网络的确定、目标检测、智能行驶控制方法及装置
CN111325343A (zh) * 2020-02-20 2020-06-23 北京市商汤科技开发有限公司 神经网络的确定、目标检测、智能行驶控制方法及装置
CN111461337B (zh) * 2020-03-05 2023-08-18 深圳追一科技有限公司 数据处理方法、装置、终端设备及存储介质
CN111461337A (zh) * 2020-03-05 2020-07-28 深圳追一科技有限公司 数据处理方法、装置、终端设备及存储介质
CN113657136A (zh) * 2020-05-12 2021-11-16 阿里巴巴集团控股有限公司 识别方法及装置
CN113657136B (zh) * 2020-05-12 2024-02-13 阿里巴巴集团控股有限公司 识别方法及装置
CN111652308A (zh) * 2020-05-13 2020-09-11 三峡大学 基于超轻量级全卷积神经网络的花卉识别方法
CN111652308B (zh) * 2020-05-13 2024-02-23 三峡大学 基于超轻量级全卷积神经网络的花卉识别方法
CN111582463A (zh) * 2020-06-08 2020-08-25 佛山金华信智能科技有限公司 伺服电机故障识别及模型训练方法、装置、介质及终端
CN111582463B (zh) * 2020-06-08 2024-02-09 佛山金华信智能科技有限公司 伺服电机故障识别及模型训练方法、装置、介质及终端
CN111797976A (zh) * 2020-06-30 2020-10-20 北京灵汐科技有限公司 神经网络的训练方法、图像识别方法、装置、设备及介质
CN111797976B (zh) * 2020-06-30 2024-04-12 北京灵汐科技有限公司 神经网络的训练方法、图像识别方法、装置、设备及介质
CN112070205A (zh) * 2020-07-30 2020-12-11 华为技术有限公司 一种多损失模型获取方法以及装置
CN112990211A (zh) * 2021-01-29 2021-06-18 华为技术有限公司 一种神经网络的训练方法、图像处理方法以及装置
CN112949316A (zh) * 2021-02-23 2021-06-11 南方电网调峰调频发电有限公司信息通信分公司 基于神经网络模型的知识检索方法、装置、设备和介质
CN113421209A (zh) * 2021-06-21 2021-09-21 安谋科技(中国)有限公司 图像处理方法、片上系统、电子设备和介质
CN113421209B (zh) * 2021-06-21 2022-12-30 安谋科技(中国)有限公司 图像处理方法、片上系统、电子设备和介质
CN113688975A (zh) * 2021-08-24 2021-11-23 北京市商汤科技开发有限公司 神经网络的训练方法、装置、电子设备及存储介质
CN114595759A (zh) * 2022-03-07 2022-06-07 卡奥斯工业智能研究院(青岛)有限公司 一种护具识别方法、装置、电子设备及存储介质
CN115247664A (zh) * 2022-07-20 2022-10-28 北京天玛智控科技股份有限公司 液压泵的压力调节方法、装置、电子设备及存储介质

Similar Documents

Publication Publication Date Title
CN108416440A (zh) 一种神经网络的训练方法、物体识别方法及装置
CN108764471B (zh) 基于特征冗余分析的神经网络跨层剪枝方法
CN111144561B (zh) 一种神经网络模型确定方法及装置
CN106897714B (zh) 一种基于卷积神经网络的视频动作检测方法
CN110991362A (zh) 一种基于注意力机制的行人检测模型
CN112163465B (zh) 细粒度图像分类方法、系统、计算机设备及存储介质
WO2021022521A1 (zh) 数据处理的方法、训练神经网络模型的方法及设备
WO2021057056A1 (zh) 神经网络架构搜索方法、图像处理方法、装置和存储介质
CN108805058B (zh) 目标对象变化姿态识别方法、装置及计算机设备
CN109902546A (zh) 人脸识别方法、装置及计算机可读介质
CN113159073B (zh) 知识蒸馏方法及装置、存储介质、终端
WO2021218517A1 (zh) 获取神经网络模型的方法、图像处理方法及装置
CN111797983A (zh) 一种神经网络构建方法以及装置
CN110222717A (zh) 图像处理方法和装置
CN108460464A (zh) 深度学习训练方法及装置
CN111931641A (zh) 基于权重多样性正则化的行人重识别方法及其应用
CN111898735A (zh) 蒸馏学习方法、装置、计算机设备和存储介质
CN111598213A (zh) 网络训练方法、数据识别方法、装置、设备和介质
CN113569881A (zh) 一种基于链式残差与注意力机制的自适应语义分割方法
CN107330387A (zh) 基于图像数据的行人检测方法
CN108830782A (zh) 图像处理方法、装置、计算机设备和存储介质
CN115018039A (zh) 一种神经网络蒸馏方法、目标检测方法以及装置
CN113449671A (zh) 一种多尺度多特征融合的行人重识别方法及装置
CN109271897A (zh) 人脸动作单元检测方法、装置、计算机设备及存储介质
CN113191504B (zh) 一种面向计算资源异构的联邦学习训练加速方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20180817

RJ01 Rejection of invention patent application after publication