CN106778910B - 基于本地训练的深度学习系统和方法 - Google Patents

基于本地训练的深度学习系统和方法 Download PDF

Info

Publication number
CN106778910B
CN106778910B CN201710023492.XA CN201710023492A CN106778910B CN 106778910 B CN106778910 B CN 106778910B CN 201710023492 A CN201710023492 A CN 201710023492A CN 106778910 B CN106778910 B CN 106778910B
Authority
CN
China
Prior art keywords
face recognition
local training
weight parameter
unit
original signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201710023492.XA
Other languages
English (en)
Other versions
CN106778910A (zh
Inventor
张亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to CN201710023492.XA priority Critical patent/CN106778910B/zh
Publication of CN106778910A publication Critical patent/CN106778910A/zh
Application granted granted Critical
Publication of CN106778910B publication Critical patent/CN106778910B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供基于本地训练的深度学习系统和方法,包括采集单元、逻辑控制单元、本地训练单元和识别单元;采集单元将采集到的原始信号发送给逻辑控制单元;逻辑控制单元用于将原始信号发送给本地训练单元,接收本地训练单元发送的权值参数,将权值参数、原始信号和初始化信息发送给识别单元;本地训练单元用于根据原始信号得到本地训练样本,对本地训练样本进行前向传播过程和反向传播过程得到权值参数,将其发送给逻辑控制单元;识别单元用于根据权值参数和原始信号进行前向传播过程得到特征向量,根据特征向量得到判定结果,最终将判定结果发送给逻辑控制单元。本发明实现了在本地完成训练过程,不依赖于网络,随时随地,方便小巧,通用性强。

Description

基于本地训练的深度学习系统和方法
技术领域
本发明涉及神经网络技术领域,尤其是涉及基于本地训练的深度学习系统和方法。
背景技术
传统的模式识别方法手工选取特征费时费力,需要启发式专业知识,很大程度上靠经验和运气,而浅层学习的人工神经网络具有一定的局限性,比较容易过拟合,参数比较难调整,并且训练速度慢,在层次上比较少(小于等于3)的情况下效果并不显著。然而,目前已有的基于云端的训练方式需要借助于互联网,不能实时进行处理,通用性差。如何能更加灵活方便地对数据进行训练成为了亟待解决的问题
发明内容
有鉴于此,本发明的目的在于提供基于本地训练的深度学习系统和方法,实现了在本地完成训练过程,不依赖于网络,随时随地,方便小巧,通用性强。
第一方面,本发明实施例提供了一种基于本地训练的深度学习系统,包括:采集单元、逻辑控制单元、本地训练单元和识别单元;
所述采集单元,与所述逻辑控制单元相连接,用于采集原始信号,并将所述原始信号发送给所述逻辑控制单元;
所述逻辑控制单元,与所述本地训练单元通过通用接口相连接,用于将所述原始信号发送给所述本地训练单元,并接收所述本地训练单元发送的权值参数,将所述权值参数、所述原始信号和初始化信息发送给所述识别单元;
所述本地训练单元,用于根据所述原始信号得到本地训练样本,对所述本地训练样本进行前向传播过程和反向传播过程得到所述权值参数,并将所述权值参数发送给所述逻辑控制单元;
所述识别单元,与所述逻辑控制单元相连接,用于根据所述权值参数和所述原始信号进行前向传播过程得到特征向量,根据所述特征向量得到判定结果,并将所述判定结果发送给所述逻辑控制单元。
结合第一方面,本发明实施例提供了第一方面的第一种可能的实施方式,其中,所述本地训练单元包括前向传播电路和反向传播电路;
所述前向传播电路,用于对所述本地训练样本进行所述前向传播过程,其中,所述前向传播过程包括卷积计算、池化计算和全连接计算,并根据计算结果得到各层残差、各层权值参数,将所述各层残差、所述各层权值参数发送给所述反向传播电路;
所述反向传播电路,用于通过最小化所述残差调整所述权值参数以进行所述反向传播过程,并得到所述权值参数。
结合第一方面,本发明实施例提供了第一方面的第二种可能的实施方式,其中,所述本地训练单元与所述逻辑控制单元通过USB接口或Ethernet接口相连接。
结合第一方面,本发明实施例提供了第一方面的第三种可能的实施方式,其中,所述本地训练单元为现场可编程门阵列FPGA或图形处理器GPU。
结合第一方面的第一种可能的实施方式,本发明实施例提供了第一方面的第四种可能的实施方式,其中,所述前向传播电路和反向传播电路均采用并行电路进行计算。
第二方面,本发明实施例提供了一种基于本地训练的深度学习方法,包括:
采集原始信号;
对所述原始信号进行本地训练,得到权值参数;
对所述原始信号和所述权值参数进行编码处理,得到特征向量;
根据所述特征向量得到判定结果。
结合第二方面,本发明实施例提供了第二方面的第一种可能的实施方式,其中,所述将所述原始信号进行本地训练,得到权值参数包括:
对所述原始信号进行归一化预处理得到统一格式的本地训练样本;
判断对所述原始信号的采样是否结束;
如果未结束,则继续采集所述原始信号;
如果结束,则根据所述本地训练样本计算所述权值参数。
结合第二方面的第一种可能的实施方式,本发明实施例提供了第二方面的第二种可能的实施方式,其中,所述根据所述本地训练样本计算所述权值参数包括:
对所述本地训练样本进行前向传播过程计算得到各层残差、各层权值参数和分类精度;
对所述残差和所述权值参数进行反向传播过程计算,并判断所述分类精度是否达到预设阈值;
如果未达到所述预设阈值,则根据调整后的权值参数进行迭代计算,直到所述分类精度达到所述预设阈值。
结合第二方面,本发明实施例提供了第二方面的第三种可能的实施方式,其中,所述将所述原始信号和所述权值参数进行编码处理,得到特征向量包括:
生成初始化信息;
将所述权值参数、所述原始信号和所述初始化信息进行编码转换;
对所述编码转换后的权值参数进行存储,并根据所述编码转换后的初始化信息分配计算资源;
将所述编码转换后的权值参数和所述编码转换后的原始信号进行卷积计算、池化计算和全连接计算得到所述特征向量。
结合第二方面,本发明实施例提供了第二方面的第四种可能的实施方式,其中,所述根据所述特征向量得到判定结果包括:
通过将所述特征向量输入分类器中进行分类得到所述判定结果;
或者;
通过将所述特征向量与指定的对比向量进行比较得到相似度。
本发明提供基于本地训练的深度学习系统和方法,首先,由采集单元将采集到的原始信号发送给逻辑控制单元,逻辑控制单元用于将原始信号发送给本地训练单元后,本地训练单元将原始信号作为本地训练样本,并对其进行前向传播过程和反向传播过程得到权值参数,将权值参数发送给逻辑控制单元,然后,逻辑控制单元对权值参数进行接收,并将权值参数、原始信号和初始化信息发送给识别单元,最后,识别单元根据权值参数和原始信号进行前向传播过程得到特征向量,根据特征向量得到判定结果,最终将判定结果发送给逻辑控制单元。本发明实现了在本地完成训练过程,不依赖于网络,随时随地,方便小巧,通用性强。
本发明的其他特征和优点将在随后的说明书中阐述,并且,部分地从说明书中变得显而易见,或者通过实施本发明而了解。本发明的目的和其他优点在说明书、权利要求书以及附图中所特别指出的结构来实现和获得。
为使本发明的上述目的、特征和优点能更明显易懂,下文特举较佳实施例,并配合所附附图,作详细说明如下。
附图说明
为了更清楚地说明本发明具体实施方式或现有技术中的技术方案,下面将对具体实施方式或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本发明的一些实施方式,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1为本发明实施例提供的基于本地训练的深度学习系统结构示意图;
图2为本发明实施例提供的识别单元结构示意图;
图3为本发明实施例提供的本地训练单元结构示意图;
图4为本发明实施例提供的基于本地训练的深度学习方法流程图。
图标:
10-采集单元;20-逻辑控制单元;30-本地训练单元;31-前向传播电路;32-反向传播电路;40-识别单元;41-权值存储模块;42-特征提取模块;43-判定模块;44-接口模块。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合附图对本发明的技术方案进行清楚、完整地描述,显然,所描述的实施例是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
目前,已有的基于云端的训练方式需要借助于互联网,不能实时进行处理,通用性差,基于此,本发明实施例提供的基于本地训练的深度学习系统和方法,可以实现在本地完成训练过程,不依赖于网络,随时随地,方便小巧,通用性强。
为便于对本实施例进行理解,首先对本发明实施例所公开的基于本地训练的深度学习系统进行详细介绍。
图1为本发明实施例提供的基于本地训练的深度学习系统结构示意图。
参照图1,基于本地训练的深度学习系统包括:采集单元10、逻辑控制单元20、本地训练单元30和识别单元40;
采集单元10,与逻辑控制单元20相连接,用于采集原始信号,并将原始信号发送给逻辑控制单元;
逻辑控制单元20,与本地训练单元30相连接,用于将原始信号发送给本地训练单元30,并接收本地训练单元30发送的权值参数,将权值参数、原始信号和初始化信息发送给识别单元40;
本地训练单元30,用于根据原始信号得到本地训练样本,对本地训练样本进行前向传播过程和反向传播过程得到权值参数,并将权值参数发送给逻辑控制单元20;
识别单元40,与逻辑控制单元20相连接,用于根据权值参数和原始信号进行前向传播过程得到特征向量,根据特征向量得到判定结果,并将判定结果发送给所述逻辑控制单元20。
根据本发明的示例性实施例,本地训练单元包括前向传播电路31和反向传播电路32;
前向传播电路31,用于对本地训练样本进行前向传播过程计算,其中,前向传播过程包括卷积计算、池化计算和全连接计算,并根据计算结果得到各层残差、各层权值参数,将各层残差、各层权值参数发送给反向传播电路32;
具体地,前向传播电路31用于计算本地训练样本通过深度神经网络输出的结果。该电路可以采用与识别单元的特征向量计算过程原理一致,因此可以采用相同的电路设计方式,甚至采用电路复用的方式实现。
反向传播电路32,用于通过最小化残差调整权值参数以进行反向传播过程得到权值参数,将权值参数发送给逻辑控制单元20。
具体地,反向传播电路32采用反向传播算法,通过实现最小化残差来调整网络参数。
根据本发明的示例性实施例,本地训练单元30与逻辑控制单元20通过USB接口或Ethernet接口相连接。
具体地,逻辑控制单元可以为计算机,不同于训练单元在云端的情况,本地训练单元可以通过USB接口或Ethernet接口与计算机相连接,但并不限于这两种接口形式,还可以为USB-C或Firewire(火线)等通用接口,可移动性强,小巧便利。
根据本发明的示例性实施例,本地训练单元30可以是,但不限于,例如FPGA(Field-Programmable Gate Array,现场可编程逻辑门阵列)或GPU(GraphicsProcessing Unit,图形处理器)。
具体地,本地训练单元可采用并行性能较高、功耗较低的嵌入式设备FPGA或GPU实现。
根据本发明的示例性实施例,前向传播电路31和反向传播电路32均采用并行电路进行计算。
具体地,本地训练单元的电路设计具有高并行性,前向传播过程中的卷积计算与池化计算过程,因为同一层的某个神经元的计算结果不影响其他神经元的计算,因此均可采用并行电路同时计算;反向传播过程中,每一层的神经元的权值偏导数的计算结果不影响其他神经元的计算,因此均可采用并行电路同时计算。
图2为本发明实施例提供的识别单元结构示意图。
参照图2,识别单元40包括权值存储模块41、特征提取模块42、判定模块43和接口模块44;
接口模块44,与判定模块43相连接,用于接收权值参数、原始信号和初始化信息,将初始化信息和原始信号发送给特征提取模块42,以及将权值参数发送给权值存储模块41;
具体地,接口模块44接收来自逻辑控制单元20的输入,如原始信号、权值参数、初始化信息,并将其转换为本地总线所能接收的编码格式;此外,还需将判定结果转换为通用格式传输给逻辑控制单元20。并且,接口模块44通过USB、Ethernet、USB-C或Firewire等通用接口实现与逻辑控制单元的连接
权值存储模块41,与特征提取模块42相连接,用于存储权值参数,并将权值参数发送给特征提取模块42;
具体地,权值存储模块41接收接口模块44发送的权值参数并进行存储,这里,该权值参数为训练好的权值参数;权值存储模块41可采用现有掉电保持存储介质,如SD,MicroSD等存储训练好的权值;采用高速访问存储介质,如Onchip RAM,SDRAM(SynchronousDynamic Random Access Memory,同步动态随机存储器)实现。
特征提取模块42,与判定模块43相连接,用于根据初始化信息分配计算资源,并根据权值参数、原始信号的得到特征向量,将特征向量发送给判定模块43;
具体地,特征提取模块42通过卷积层和池化层组成的卷积神经网络,提取到特征向量,可采用并行性能较高、功耗较低的嵌入式设备,如FPGA(Field-Programmable GateArray,现场可编程逻辑门阵列)和GPU(Graphics Processing Unit,图像处理器)实现。
判定模块43,与接口模块44相连接,用于根据特征向量得到判定结果,并将最终得到的判定结果发送给接口模块44,以使接口模块44将判定结果发送给逻辑控制单元20。
具体地,判定模块43可以根据不同的应用类型来选择其算法,如果任务是分类,例如文字识别,则需要将特征向量作为输入,通过分类器输出判定结果;如果任务是比较,例如人脸识别,则将特征向量和指定的特征向量进行比较,输出是相似度。可采用并行性能较高、功耗较低的嵌入式设备FPGA或GPU实现。
本发明提供基于本地训练的深度学习系统,首先,由采集单元将采集到的原始信号发送给逻辑控制单元,逻辑控制单元用于将原始信号发送给本地训练单元后,本地训练单元将原始信号作为本地训练样本,并对其进行前向传播过程和反向传播过程得到权值参数,将权值参数发送给逻辑控制单元,然后,逻辑控制单元对权值参数进行接收,并将权值参数、原始信号和初始化信息发送给识别单元,最后,识别单元根据权值参数和原始信号进行前向传播过程得到特征向量,根据特征向量得到判定结果,最终将判定结果发送给逻辑控制单元。本发明实现了在本地完成训练过程,不依赖于网络,随时随地,方便小巧,通用性强。
图4为本发明实施例提供的基于本地训练的深度学习方法流程图。
参照图4,该基于本地训练的深度学习方法包括如下步骤:
步骤S101,采集原始信号;
其中,由采集单元利用现有相机、话筒等设备对图像、语音等信号进行原始信号的采集。
步骤S102,将原始信号进行本地训练,得到权值参数;
其中,逻辑控制单元将采集信号作为本地训练样本,通过USB、Ethernet、USB-C或Firewire等通用接口等通用接口发送给本地训练单元,由本地训练单元对本地训练样本进行本地训练可以得到权值参数。
步骤S103,将原始信号和权值参数进行编码处理,得到特征向量;
其中,逻辑控制单元将权值参数、原始信号和初始化信息发送给识别单元,由识别单元对原始信号和权值参数进行编码处理,得到特征向量。
步骤S104,根据特征向量得到判定结果。
其中,识别单元根据特征向量得到判定结果,这里,识别单元中的判定模块可以根据不同的应用类型来选择其算法,如果任务是分类,例如文字识别,则需要将特征向量作为输入,通过分类器输出判定结果;如果任务是比较,例如人脸识别,则将特征向量和指定的特征向量进行比较,输出是相似度。
根据本发明的示例性实施例,将原始信号进行本地训练,得到权值参数包括:对原始信号进行归一化预处理得到统一格式的本地训练样本;
判断对原始信号的采样是否结束,如果结束,则继续采集原始信号,如果未结束,则根据本地训练样本计算权值参数;
根据本发明的示例性实施例,根据本地训练样本计算权值参数包括:
对本地训练样本进行前向传播计算和网络误差损失计算得到各层残差、各层权值参数和分类精度;
通过最小化残差调整权值参数,并判断分类精度是否达到预设阈值;
如果未达到预设阈值,则根据调整后的权值参数进行迭代计算,直到分类精度达到预设阈值。
具体地,如果分类精度到达预设阈值,则输出权值参数,并将权值参数保存到权值数据库。
根据本发明的示例性实施例,将原始信号和权值参数进行编码处理,得到特征向量包括:
生成初始化信息;
将权值参数、原始信号和初始化信息进行编码转换;
对编码转换后的权值参数进行存储,并根据编码转换后的初始化信息分配计算资源;
将编码转换后的权值参数和编码转换后的原始信号进行卷积计算、池化计算和全连接计算得到特征向量。
具体地,由逻辑控制单元生成初始化信息,由识别单元将权值参数、原始信号和初始化信息进行编码转换,并进行计算得到特征向量。识别单元中的特征提取模块采用卷积神经网络(CNN)提取原始信号特征,特征提取过程经过卷积、池化、全连接三种计算的多次组合,将输入的原始信号转变为特征向量输出。卷积计算、池化计算和全连接计算的计算方法如下:
卷积计算如公式(1)所示:
Figure BDA0001208425770000111
其中,l表示层数,j表示卷积核编号,i表示输入层编号,Mj为选择的输入层集合,β为偏置系数,f为激活函数,通常为tanh或sigmoid等非线性函数。
池化计算如公式(2)所示:
Figure BDA0001208425770000112
其中,l表示层数,j表示n*n大小的池化窗口编号,β为偏置系数,f为激活函数,通常为tanh或sigmoid等非线性函数,down()为降采样函数,通常为取平均值或最大值。
另外,全连接计算为输入节点与输出节点之间全部按照权值参数建立全连接映射。
根据本发明的示例性实施例,根据特征向量得到判定结果包括:
通过将特征向量输入分类器中进行分类得到判定结果;
或者;
通过将特征向量与指定的对比向量进行比较得到相似度。
具体地,以上步骤的执行主体为识别单元。
本发明实施例提供的基于本地训练的深度学习方法,与上述实施例提供的基于本地训练的深度学习系统具有相同的技术特征,所以也能解决相同的技术问题,达到相同的技术效果。方法包括采集原始信号;将原始信号进行本地训练,得到权值参数;将原始信号和权值参数进行编码处理,得到特征向量;根据特征向量得到判定结果。本发明实现了自动识别、检测、定位、感知、理解等功能,可针对图像、视频、语音及其他数据进行处理,具有很强的通用性,相比于云端训练的系统,满足随时训练的需求,更加方便,功耗更低,具有移动性。
需要说明的是,如果采用云端训练的方法,则云端训练单元则应包括服务器和并行计算模块;服务器,用于接收原始信号,并根据原始信号进行云端训练得到权值参数,将权值参数发送给逻辑控制单元;并行计算模块,用于对云端训练的过程进行并行加速。因此,采用嵌入式的方式实现本地训练可以摆脱对网络的依赖,随时随地实时处理任务需求,不需要客户二次开发算法和应用软件,大大提高了通用性,只需要USB接口即可实现本地训练单元与通用计算机的连接,对于使用者来讲更加便利。
本发明实施例所提供的基于本地训练的深度学习方法以及系统的计算机程序产品,包括存储了程序代码的计算机可读存储介质,所述程序代码包括的指令可用于执行前面方法实施例中所述的方法,具体实现可参见方法实施例,在此不再赘述。
所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,上述描述的系统和装置的具体工作过程,可以参考前述方法实施例中的对应过程,在此不再赘述。
另外,在本发明实施例的描述中,除非另有明确的规定和限定,术语“安装”、“相连”、“连接”应做广义理解,例如,可以是固定连接,也可以是可拆卸连接,或一体地连接;可以是机械连接,也可以是电连接;可以是直接相连,也可以通过中间媒介间接相连,可以是两个元件内部的连通。对于本领域的普通技术人员而言,可以具体情况理解上述术语在本发明中的具体含义。
所述功能如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括若干指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本发明各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、磁碟或者光盘等各种可以存储程序代码的介质。
在本发明的描述中,需要说明的是,术语“中心”、“上”、“下”、“左”、“右”、“竖直”、“水平”、“内”、“外”等指示的方位或位置关系为基于附图所示的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”仅用于描述目的,而不能理解为指示或暗示相对重要性。
最后应说明的是:以上所述实施例,仅为本发明的具体实施方式,用以说明本发明的技术方案,而非对其限制,本发明的保护范围并不局限于此,尽管参照前述实施例对本发明进行了详细的说明,本领域的普通技术人员应当理解:任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,其依然可以对前述实施例所记载的技术方案进行修改或可轻易想到变化,或者对其中部分技术特征进行等同替换;而这些修改、变化或者替换,并不使相应技术方案的本质脱离本发明实施例技术方案的精神和范围,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应所述以权利要求的保护范围为准。

Claims (8)

1.一种基于本地训练的深度学习系统,其特征在于,包括:采集单元、逻辑控制单元、本地训练单元和识别单元;
所述采集单元,与所述逻辑控制单元相连接,用于采集人脸识别原始信号,并将所述人脸识别原始信号发送给所述逻辑控制单元;
所述逻辑控制单元,与所述本地训练单元通过通用接口相连接,用于将所述人脸识别原始信号发送给所述本地训练单元,并接收所述本地训练单元发送的人脸识别权值参数,将所述人脸识别权值参数、所述人脸识别原始信号和人脸识别初始化信息发送给所述识别单元;
所述本地训练单元,用于根据所述人脸识别原始信号得到本地训练样本,对所述本地训练样本进行前向传播过程和反向传播过程得到所述人脸识别权值参数,并将所述人脸识别权值参数发送给所述逻辑控制单元;
所述识别单元,与所述逻辑控制单元相连接,用于根据所述人脸识别权值参数和所述人脸识别原始信号进行前向传播过程得到特征向量,根据所述特征向量得到人脸识别判定结果,并将所述人脸识别判定结果发送给所述逻辑控制单元。
2.根据权利要求1所述的基于本地训练的深度学习系统,其特征在于,所述本地训练单元包括前向传播电路和反向传播电路;
所述前向传播电路,用于对所述本地训练样本进行所述前向传播过程,其中,所述前向传播过程包括卷积计算、池化计算和全连接计算,并根据计算结果得到各层残差、各层人脸识别权值参数,将所述各层残差、所述各层人脸识别权值参数发送给所述反向传播电路;
所述反向传播电路,用于通过最小化所述残差调整所述人脸识别权值参数以进行所述反向传播过程,并得到所述人脸识别权值参数。
3.根据权利要求1所述的基于本地训练的深度学习系统,其特征在于,所述本地训练单元与所述逻辑控制单元通过USB接口或Ethernet接口相连接。
4.根据权利要求1所述的基于本地训练的深度学习系统,其特征在于,所述本地训练单元为现场可编程门阵列FPGA或图形处理器GPU。
5.根据权利要求2所述的基于本地训练的深度学习系统,其特征在于,所述前向传播电路和反向传播电路均采用并行电路进行计算。
6.一种基于本地训练的深度学习方法,其特征在于,包括:
采集人脸识别原始信号;
对所述人脸识别原始信号进行归一化预处理得到统一格式的本地训练样本;判断对所述人脸识别原始信号的采样是否结束;如果未结束,则继续采集所述人脸识别原始信号;如果结束,则根据所述本地训练样本计算人脸识别权值参数;所述根据所述本地训练样本计算所述人脸识别权值参数包括:
对所述本地训练样本进行前向传播过程计算得到各层残差、各层人脸识别权值参数和分类精度;对所述残差和所述人脸识别权值参数进行反向传播过程计算,并判断所述分类精度是否达到预设阈值;如果未达到所述预设阈值,则根据调整后的人脸识别权值参数进行迭代计算,直到所述分类精度达到所述预设阈值;
对所述人脸识别原始信号和所述人脸识别权值参数进行编码处理,得到特征向量;
根据所述特征向量得到人脸识别判定结果。
7.根据权利要求6所述的基于本地训练的深度学习方法,其特征在于,所述对所述人脸识别原始信号和所述人脸识别权值参数进行编码处理,得到特征向量包括:
生成人脸识别初始化信息;
将所述人脸识别权值参数、所述人脸识别原始信号和所述人脸识别初始化信息进行编码转换;
对所述编码转换后的人脸识别权值参数进行存储,并根据所述编码转换后的人脸识别初始化信息分配计算资源;
将所述编码转换后的人脸识别权值参数和所述编码转换后的人脸识别原始信号进行卷积计算、池化计算和全连接计算得到所述特征向量。
8.根据权利要求6所述的基于本地训练的深度学习方法,其特征在于,所述根据所述特征向量得到人脸识别判定结果包括:
通过将所述特征向量输入分类器中进行分类得到所述人脸识别判定结果;
或者;
通过将所述特征向量与指定的对比向量进行比较得到相似度。
CN201710023492.XA 2017-01-12 2017-01-12 基于本地训练的深度学习系统和方法 Active CN106778910B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710023492.XA CN106778910B (zh) 2017-01-12 2017-01-12 基于本地训练的深度学习系统和方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201710023492.XA CN106778910B (zh) 2017-01-12 2017-01-12 基于本地训练的深度学习系统和方法

Publications (2)

Publication Number Publication Date
CN106778910A CN106778910A (zh) 2017-05-31
CN106778910B true CN106778910B (zh) 2020-06-16

Family

ID=58948272

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201710023492.XA Active CN106778910B (zh) 2017-01-12 2017-01-12 基于本地训练的深度学习系统和方法

Country Status (1)

Country Link
CN (1) CN106778910B (zh)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107491809B (zh) * 2017-08-21 2020-10-16 苏州浪潮智能科技有限公司 一种fpga实现残差网络中激活函数的方法
CN107564522A (zh) * 2017-09-18 2018-01-09 郑州云海信息技术有限公司 一种智能控制方法及装置
CN108320019B (zh) * 2018-02-06 2020-11-24 澎峰(北京)科技有限公司 用于深度卷积神经网络的卷积计算方法及装置
CN108805285B (zh) * 2018-05-30 2022-03-29 山东浪潮科学研究院有限公司 一种卷积神经网络池化单元设计方法
CN109783412B (zh) * 2019-01-18 2022-04-22 电子科技大学 一种深度强化学习加速训练的方法
US11646492B2 (en) * 2019-05-07 2023-05-09 Bao Tran Cellular system
US10498029B1 (en) * 2019-07-15 2019-12-03 Bao Tran Cellular system

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104102919A (zh) * 2014-07-14 2014-10-15 同济大学 一种有效防止卷积神经网络过拟合的图像分类方法
CN104408466A (zh) * 2014-11-17 2015-03-11 中国地质大学(武汉) 基于局部流形学习构图的高光谱遥感图像半监督分类方法
CN104778472A (zh) * 2015-04-24 2015-07-15 南京工程学院 人脸表情特征提取方法
US9430840B1 (en) * 2015-07-23 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting an image based on motion vanishing points

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104102919A (zh) * 2014-07-14 2014-10-15 同济大学 一种有效防止卷积神经网络过拟合的图像分类方法
CN104408466A (zh) * 2014-11-17 2015-03-11 中国地质大学(武汉) 基于局部流形学习构图的高光谱遥感图像半监督分类方法
CN104778472A (zh) * 2015-04-24 2015-07-15 南京工程学院 人脸表情特征提取方法
US9430840B1 (en) * 2015-07-23 2016-08-30 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting an image based on motion vanishing points

Also Published As

Publication number Publication date
CN106778910A (zh) 2017-05-31

Similar Documents

Publication Publication Date Title
CN106778910B (zh) 基于本地训练的深度学习系统和方法
CN109816009B (zh) 基于图卷积的多标签图像分类方法、装置及设备
CN109816589B (zh) 用于生成漫画风格转换模型的方法和装置
CN112597864B (zh) 一种监控视频异常检测方法及装置
CN107679572B (zh) 一种图像判别方法、存储设备及移动终端
CN111444826B (zh) 视频检测方法、装置、存储介质及计算机设备
CN109344893B (zh) 一种基于移动终端的图像分类方法
CN111291817B (zh) 图像识别方法、装置、电子设备和计算机可读介质
CN111738403B (zh) 一种神经网络的优化方法及相关设备
CN112052759B (zh) 一种活体检测方法和装置
CN108509994B (zh) 人物图像聚类方法和装置
CN112561879B (zh) 模糊度评价模型训练方法、图像模糊度评价方法及装置
CN113191495A (zh) 超分模型的训练及人脸识别方法、装置、介质及电子设备
CN113706472B (zh) 公路路面病害检测方法、装置、设备及存储介质
CN113869449A (zh) 一种模型训练、图像处理方法、装置、设备及存储介质
JP2020052520A (ja) 判定装置、判定方法、およびプログラム
CN110570375B (zh) 一种图像处理方法、装置、电子设置以及存储介质
CN113837965B (zh) 图像清晰度识别方法、装置、电子设备及存储介质
CN114120454A (zh) 活体检测模型的训练方法、装置、电子设备及存储介质
CN113569081A (zh) 图像识别方法、装置、设备及存储介质
CN114724144B (zh) 文本识别方法、模型的训练方法、装置、设备及介质
CN116958626A (zh) 一种图像分类模型训练、图像分类方法、装置及电子设备
CN111310823B (zh) 目标分类方法、装置和电子系统
CN115019057A (zh) 图像特征提取模型确定方法及装置、图像识别方法及装置
CN113989152A (zh) 图像增强方法、装置、设备以及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant