CN105447498B - 配置有神经网络的客户端设备、系统和服务器系统 - Google Patents
配置有神经网络的客户端设备、系统和服务器系统 Download PDFInfo
- Publication number
- CN105447498B CN105447498B CN201510608615.7A CN201510608615A CN105447498B CN 105447498 B CN105447498 B CN 105447498B CN 201510608615 A CN201510608615 A CN 201510608615A CN 105447498 B CN105447498 B CN 105447498B
- Authority
- CN
- China
- Prior art keywords
- neural network
- client device
- training
- quantization
- layer
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 228
- 238000012549 training Methods 0.000 claims abstract description 103
- 238000000034 method Methods 0.000 claims abstract description 63
- 230000015654 memory Effects 0.000 claims abstract description 33
- 238000004891 communication Methods 0.000 claims abstract description 5
- 238000013139 quantization Methods 0.000 claims description 107
- 238000005070 sampling Methods 0.000 claims description 22
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 230000004044 response Effects 0.000 claims description 11
- 238000013507 mapping Methods 0.000 claims description 3
- 239000010410 layer Substances 0.000 description 106
- 238000010586 diagram Methods 0.000 description 24
- 230000003044 adaptive effect Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 19
- 238000012545 processing Methods 0.000 description 17
- 230000006870 function Effects 0.000 description 16
- 230000014509 gene expression Effects 0.000 description 14
- 210000002569 neuron Anatomy 0.000 description 14
- 238000003860 storage Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000004088 simulation Methods 0.000 description 8
- 238000009826 distribution Methods 0.000 description 7
- 238000013135 deep learning Methods 0.000 description 5
- 230000009471 action Effects 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 230000000694 effects Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 239000002356 single layer Substances 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 230000009286 beneficial effect Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000013529 biological neural network Methods 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000003745 diagnosis Methods 0.000 description 1
- 230000007613 environmental effect Effects 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 210000004205 output neuron Anatomy 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/7715—Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19127—Extracting features by transforming the feature space, e.g. multidimensional scaling; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Mathematical Physics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Abstract
提供了配置有神经网络的客户端设备、系统和服务器系统。一种配置有神经网络的客户端设备,所述客户端设备包括:处理器、存储器、用户接口、通信接口、电源和输入设备,其中,存储器包括从服务器系统接收的训练神经网络,所述服务器系统已经训练并配置了用于客户端设备的神经网络。公开了训练神经网络的服务器系统和方法。
Description
本申请要求于2014年9月22日提交的第62/053,692号美国临时专利申请和2015年3月19日提交的第14/663,233号美国专利申请的优先权,上述专利申请的公开内容通过引用包含于此。
技术领域
本发明涉及具有减小的神经网络权重精度的目标识别,更具体地,涉及配置有神经网络的客户端设备、系统和服务器系统。
背景技术
机器(即,计算机)越来越多地用于提供机器视觉或目标识别。目标识别提供给用户各种有益的工具。
在某些情况下,目标识别依赖于包括神经网络的算法。即,设备可以通过使用神经网络来识别目标在输入图像之内。通常,神经网络已经被训练为通过训练图像的预先使用来识别目标。如果对目标使用更多的训练图像,则该目标识别处理会变得更有辨识能力。
通常,神经网络包括互相连接的“神经元”的系统。神经网络计算来自输入的值,并且由于神经网络的自适应性(adaptive nature)而能够进行机器学习以及模式识别。
用于图像识别的神经网络需要用于学习和用于识别的数据处理,该数据处理是存储器加强的和处理密集的,因此在计算上是昂贵的。的确,在计算处理期间,权重的值需要用于存储和用于处理的存储空间。
如可预期的,增大训练数据集的大小提高神经网络的性能。遗憾的是在诸如智能电话等的移动设备中,存储器和处理能力相对有限。因此,移动设备的越来越普遍的使用通常尚未受益于图像识别技术。
需要的是,提供在具有有限资源的计算设备上提高神经网络的性能的方法和设备。
发明内容
本说明书给出了服务器系统、客户端设备以及方法的实例,其中,所述服务器系统用于图像识别训练,所述图像识别训练可以生成用于神经网络的配置信息;所述客户端设备基于下载的神经网络配置信息,利用神经网络来执行图像识别;所述方法的使用可以帮助克服现有技术的问题和限制。
在一个实施例中,客户端设备被配置为具有神经网络。所述客户端设备包括:处理器、存储器、用户接口、通信接口、电源和输入设备,其中,存储器包括从服务器系统接收的训练神经网络,所述服务器系统已经训练并配置了用于客户端设备的神经网络。
输入设备被配置为捕获图像并且将图像输入数据存储在存储器中。客户端设备还包括被配置为映射图像输入数据的多层感知器(MLP)分类器。神经网络可以包括卷积神经网络。神经网络被配置为生成特征映射;特征映射包括从输入图像得到的多个权重值;神经网络可以被配置为对所述特征映射进行量化操作。量化操作可以包括统一量化、自适应量化、均匀量化和监督迭代量化中的一者。量化操作可以执行图像输入数据的反向传播(BP)。神经网络被配置为执行目标识别。客户端设备可以包括智能电话、平板电脑和便携式电子设备。
在另一个实施例中,提供一种利用客户端设备提供目标识别的系统。所述系统包括:服务器系统,被配置为训练神经网络以执行目标识别,并且将神经网络输出到客户端设备。
系统还可以包括:客户端设备,包括处理器、存储器、用户接口、通信接口、电源和输入设备;并且存储器包括从所述服务器系统接收的训练神经网络。服务器系统包括训练图像的数据库。神经网络包括卷积神经网络;卷积神经网络包括至少两个层;卷积神经网络包括卷积层和子采样层;服务器系统包括多层感知器(MLP)分类器。服务器系统还被配置为采用用于训练的学习技术;学习技术可以包括反向传播(BP)、限制玻尔兹曼机、自动编码器解码技术中的一者。
在另一个实施例中,提供一种服务器系统,所述服务器系统包括:输入设备,被配置为接收训练图像;神经网络,包括至少两个层对,每个层对包括卷积层和子采样层;多层感知器(MLP)分类器;其中,神经网络被配置为执行卷积层中的中间权重的量化,神经网络还被配置为响应于应用到卷积层的输入而在子采样层中生成中间特征映射;神经网络被配置为执行MLP分类器中的权重的量化,神经网络被配置为响应于被应用到量化的权重MLP的所述特征映射而在MLP分类器中生成分类输出。
在另一个实施例中,包括用于训练被配置为使用客户端设备进行目标识别的神经网络的方法,所述方法可以包括以下步骤:利用神经网络接收输入图像;通过神经网络来执行训练通过,训练通过包括量化操作;使用来自量化操作的权重值来配置神经网络;配置由客户端设备使用的神经网络;以及将神经网络存储在服务器系统中和将神经网络输出到客户端设备中的至少一者。
在又一个实施例中,包括存储在非临时机器可读介质上的计算机程序产品。计算机程序产品可以包括用于通过执行如下方法来训练被配置为使用客户端设备进行目标识别的神经网络的机器可执行指令,其中,所述方法包括以下步骤:利用神经网络接收输入图像;通过神经网络执行训练通过,训练通过包括量化操作;使用来自量化操作的权重值来配置神经网络;对由客户端设备使用的神经网络进行配置;以及将神经网络存储在服务器系统中和将神经网络输出到客户端设备中的至少一者。
比现有技术的优势包括:具有可接受的或者甚至未降低的性能为根据实施例制作的客户端设备节约了成本。的确,用于存储并且还对识别目标进行处理的存储器需求可以是较低的,这使得区域需求较低、功耗较低,因此成本较低。
这些优势对移动设备而言会是重要的。的确,这种设备可以能实时执行片上图像识别,这在诸如情境感知的移动应用中会是有用的。
附图说明
本发明的特征和优点通过结合附图进行的以下描述而明显,其中:
图1是根据实施例的样本服务器系统和样本客户端设备的框图、根据实施例的流程图以及其他相关方面的组合图。
图2是图1的服务器或客户端的任一者的神经网络的样本框图的组合图并且还示出了根据实施例的可能的操作。
图3是示出根据实施例的用于解释图2的组件的操作的卷积层和子采样层的样本对的图。
图4是示出根据实施例在图1的训练流程图中的神经网络训练处理的流程图。
图5是用于服务器系统的神经网络的样本框图,其还示出了在何处可以根据实施例来应用图4的流程图的量化操作。
图6是可以在一维自适应量化操作中使用的样本方程表达式。
图7是用于示出通过应用图6的方程表达式得到的自适应量化操作的一维示例的样本图。
图8是用于示出可以在图4的流程图中使用的自适应量化操作的二维示例的样本图。
图9示出用于执行自适应量化操作的实施例的样本方程表达式。
图10是可以在一维均匀量化操作中用于确定的量化值的样本方程。
图11是用于示出通过应用图10的方程表达式的版本得到的均匀量化操作的一维示例的样本图。
图12是用于客户端设备的神经网络的样本框图,其还示出了在何处可以根据实施例来应用量化操作。
图13是用于执行模拟的针对手写识别的一组样本训练图像。
图14是用于执行模拟的样本卷积神经网络中的样本数据结构的概念图。
图15是示出将实施例的模拟性能与现有技术对比的模拟结果的表。
图16是用于将实施例的模拟性能与现有技术对比的条形图。
图17是用于将实施例的模拟性能与现有技术对比的另一个条形图。
图18示出用于将实施例的模拟性能与现有技术对比的多组条形图。
具体实施方式
这里公开的是提供在具有有限资源的客户端上高效操作神经网络的方法和设备。通常,该方法和设备提供使用计算密集的学习处理在具有大量计算资源的设备(诸如服务器)上建立卷积神经网络(CNN)。一旦建立,该神经网络可以移植到具有相对有限计算资源的客户端设备(诸如智能电话)。
神经网络对各种计算上复杂的任务是有用的。例如,神经网络可以用于目标识别。目标识别可以提供面部识别、环境监视、控制产品和制造、协助医疗诊断以及各种其他类似的处理。
神经网络的类型包括:具有单向逻辑的仅单层或两层的神经网络、具有复杂的多路输入的神经网络、具有多方向反馈回路的神经网络以及具有多个层的神经网络。通常,这些系统在它们的编程中使用算法来确定它们的函数的控制和组织。大部分系统使用“权重”(可以表示为值)来改变吞吐量的参数以及改变至神经元的连接。神经网络可以是自主的,并且从通过使用训练数据的集完成的先前训练学习。
为了给这里的教导提供一些内容,现在介绍一些方面。
如这里讨论的,术语“服务器”通常指的是具有鲁棒性计算资源的计算资源。示例性资源包括用于执行这里描述的任务的那些重要的资源,并且可以包括大量的存储器、处理能力和数据存储等。在示例性实施例中,服务器包括传统的服务器(诸如刀片式服务器)、大型计算机的主机、个人计算机的网络、或者仅个人计算机(PC)。
如这里讨论的,术语“客户端”通常指的是具有计算资源的缩减集的计算资源。示例性资源包括用于执行这里描述的任务的那些重要的资源,并且可以包括最小量的存储器、处理能力和数据存储等。在一些实施例中,客户端包括成像能力以提供被输入到神经网络中的输入图像的收集。
如这里讨论的,术语“神经网络”通常指具有自适应性的统计学的学习算法,因此在机器学习中是有用的。神经网络可以包括多个人工节点,所述多个人工节点作为“神经元”、“处理元素”、“单元”或通过其他类似术语而公知,这些节点连接到一起形成模仿生物神经网络的网络。通常,神经网络包括自适应权重(即,通过学习算法调谐的数值参数)的集,并且能够近似于它们的输入的非线性函数。自适应权重从概念上讲是在训练和预测期间激活的神经元之间的连接强度。通常,神经网络根据非线性、分布式、并行的以及本地处理和适应的原理而操作。
如这里描述的,术语“多层感知器(MLP)”通常指的是将输入数据的集映射到适当的输出的集上的前馈人工神经网络。因此,MLP分类器可以从神经网络的输出来执行识别。MLP可以包括有向图中的节点的层的序列,各层连接到下一层。除了输入节点之外,各个节点是可以具有非线性激活函数的神经元(或处理元素)。
通常,“卷积”是对两个函数f和g的数学操作,生成可以视为原始函数之一的修改版本的第三函数,给出两个函数之间的重叠区域作为原始函数之一被转化的量的函数。
通常,术语“卷积神经网络”是前馈型人工神经网络,其中,按照个体神经元响应于视野中的重叠区域的方式来平铺个体神经元。卷积网络是多层感知器(MLP)的变量,并且被设计为使用最小量的预处理。当用于图像识别时,卷积神经网络使用小神经元集合的多个层,其中,所述小神经元集合查看被称为“接受域”的输入图像的小部分。然后,平铺这些集合的结果使得它们重叠以获得原始图像的更好表现。针对每个这样的层重复此操作。有利地,卷积神经网络可以使用在卷积层中共享的权重。因此,针对各层中的每个像素使用同一个滤波器(权重组)。这样既减小了需要的存储器大小又改善了性能。
如这里讨论的,术语“图像”指数字化图像数据的二维阵列,然而,这仅是例示并且不受限制。如这里讨论的,提供给服务器的图像可以通过诸如照相机(未示出)的另一个设备来收集,可以用中间工具(诸如软件)来准备以用于训练,并被配置为模仿由客户端(例如)提供的图像的形式。能够以数字化形式(诸如从智能电话中的照相机)提供由客户端收集的图像。在示例性实施例中,训练图像的诸如维度和像素数的方面通常等于生成图像的维度和像素数。此外,仅出于将训练图像与客户端的操作期间收集的其他图像区别开来的目的,将用于训练服务器的图像称为“训练图像”。通过客户端收集的图像被称为“产品图像”以及其他类似有区别的术语。
如这里讨论的,“目标”可以出现在或者包含在图像内。例如,汽车(目标)可以出现在风景(目标的集合)的图片(图像)中。
如这里讨论的,术语“程序”、“软件”、“应用”、“插件”和其他类似的术语指非暂时性机器可读介质上存储的机器可执行指令。机器可执行指令提供通过计算资源的控制和任何认为适合的相关联组件来执行方法。
在示例性实施例中,方法和设备对于根据图像数据执行目标识别来说是有用的。示例性实施例应被认为仅说明性的,并且不限于这里的教导。因此,公开的方法和设备可以同样良好地用于其他应用。
图1描述了服务器系统110(也称为服务器110)和客户端设备310(也称为客户端310)的方面。缩简的流程图与服务器110和客户端310中的每一者相关联。第一流程图140描述了如通过服务器110执行的训练神经网络140的方面。第二流程图340描述了如通过客户端310执行的识别图像的方面。
图1示出示例性服务器系统110的方面。流程图140介绍针对服务器系统110的示例性操作。训练图像102可以可选择地存储在训练数据库104中。简单地说,可以使用训练图像102来训练服务器系统110,其中,服务器系统110可以从该训练图像102中生成学习后的权重的配置。还要在此更详细地讨论训练。
服务器系统110包括输入设备105,其中,该输入设备105被配置为诸如从训练数据库104接收训练图像102。输入设备105可以包括诸如扫描器的数字转换器或者其他类似的设备。可以以类似的其他方式来实现输入设备105。
服务器系统110还包括多层感知器(MLP)分类器137。神经网络(NN)123和MLP分类器137可以使用诸如“反向传播(BP)”的监督学习技术来训练神经网络(NN)123。在一些实施例中,MLP分类器137是标准线性感知器的变型,甚至可以区分不是线性可分离的数据。作为神经网络,可以认为MLP分类器137是神经网络(NN)123的部分。因此,在图1中成组地一起示出神经网络(NN)123和MLP分类器137。
服务器系统110还包括可以存储程序132的存储器130。另外,服务器系统110包括处理器120和神经网络(NN)123。数据135可以存储在存储器130中并且可以存储在神经网络(NN)123中。
另外,图1示出样本客户端设备310的方面。与客户端设备相关联的是介绍针对客户端设备310的示例性操作的流程图340。简单地说,客户端设备310可以根据输出操作244进行接收。输出操作244提供由服务器系统110生成的学习后的权重的配置。因此,一旦适当地配置,客户端设备310可以能够识别输入图像302中的训练图像102。
客户端设备310包括被配置为接收输入图像302的输入设备305,以用于执行图像识别。客户端设备310还包括可以存储程序332的存储器330、处理器320和神经网络(NN)323。数据335可以存储在存储器330中,也可以存储在神经网络(NN)323中。
客户端设备310还可以包括多层感知器(MLP)分类器337。MLP分类器337可以从神经网络(NN)323的输出执行识别。如上所述,MLP可以包括有向图中的节点的层的序列,各层连接到下一层。除了输入节点之外,各个节点是可以具有非线性激活函数的神经元(或处理元素)。神经网络(NN)323和MLP分类器337可以使用被称为反向传播(BP)的监督学习技术来训练网络。作为神经网络,MLP分类器337可以认为是神经网络(NN)323的部分,或者作为单独的模块。在这里给出的实施例中,给出作为单独模块的MLP分类器337,从而能够更好地描述神经网络(NN)323和神经网络(NN)123之间的共性。
在服务器系统110和客户端设备310的框图中示出一些相似性。虽然有这些相似性,但是一些功能和要求可以非常不同。例如,服务器系统110不一定是便携的。更具体而言,服务器系统110可以具有大容量存储器130和用于生成配置的大量处理120。可以以各种形式给出客户端设备310,一些客户端设备310可以是便携的或不是便携的。客户端设备310可以是便携式个人电子设备且其还包括触摸屏。客户端设备310的示例包括智能电话(诸如来自加州的库比蒂诺的苹果公司的iPhone,或者来自加州的山景城的谷歌公司的实施安卓操作系统的设备)、平板电脑或其他类似设备。
神经网络(NN)123和323包括人工智能(AI)技术,并且可以分别用于学习和识别。本说明书主要从作为卷积神经网络的神经网络(NN)123和323的方面展开描述,但是可以使用其他类型的神经网络。
在神经网络(NN)123和323的一些实施例中,使用单层。单层可以包含许多神经元。每个神经元可以认为是处理单元。每个神经元可以执行诸如非线性变换的变换。在层内的神经元中存在加权连接。加权连接可以在神经网络的存储器中存储为权重值。学习算法可以被配置为学习权重值。
在一些实施例中,可以使用深度学习。深度学习包括由类似于前述层的多个层组成的分层结构(hierarchical architecture)。此外,加权连接位于层内的神经元中并且还与所述多个层交叉。因此,深度学习需要存储器130的大容量。深度学习的示例包括反向传播(BP)、限制玻尔兹曼机、自动编码器解码等。现在描述针对神经网络(NN)的深度学习结构的示例。
图2是描述神经网络(NN)423的示例性方面的框图。神经网络(NN)423是上述神经网络(NN)123、神经网络(NN)323或两者的示例。
在图2的示例中,神经网络(NN)423至少包括第一卷积(C1)层454和第一子采样(S1)层458的第一层对421。神经网络(NN)423还包括第二卷积(C2)层464和第二子采样(S2)层468的第二层对422。虽然并不要求,但是对421可以类似于对422。在一些实施例中,对421和对422具有不同数量的特征映射。
可以通过神经网络(NN)423(更具体而言,通过第一卷积层454)来接收图像402。因此,神经网络(NN)423可以因接收图像402而生成结果474。结果474是在已经完成了任意次迭代(iteration)之后,在第二子采样层468中生成的输出。在训练模式中,图像402是训练图像,并且结果474可以是所生成的用于识别其他输入图像中的图像402的学习后的权重。在目标识别模式中,图像402是输入图像,MLP分类器337可以使用结果474来表示输入图像402之内被识别的特定目标。现在,针对图3更详细地描述层对421和422。
图3是示出卷积层554和子采样层558的样本层对521的图。对521的层554和子采样层558是对421,422或421和422两者的层的实施例的示例。根据接收图像502(针对该示例,可以包含权重核511和512)来解释这些实施例。
通过存储特征映射531和532各自的权重,卷积层554可以包含特征映射531和532。实际上,可以存在比两个特征映射多得多的特征映射,但是为了简单起见,本图中仅示出了两个。在训练操作时,层554中的这些特征映射的每个特征映射可以是通过使权重核511、512与本地权重核卷积而生成的卷积操作结果。在目标识别操作时,层554中的这些特征映射的每个特征映射可以与输入图像卷积,以对生成特征映射的目标产生可能的识别。
此外,子采样层558可以包含与卷积层554相同数量的特征映射。在这种情况下,子采样层558包含第一特征映射551和第二特征映射552。层558中的特征映射(551,552)中的每个可以是卷积层554的子采样特征映射的结果。子采样以结构化的方式减小特征映射的维度。子采样可以是对特征映射之内或横跨不同特征映射的神经元的最大子采样或平均子采样。
特征映射531、532、551和552是真实的特征映射。然而,在本公开之内的一些实例中,因为它们还可以被另一个层处理,以生成特征映射的更新版本,所以可以将它们称为“中间”特征映射。
现在返回到图1,针对服务器系统110和客户端设备310描述示例性的服务器至设备解决方案的方面。这些解决方案涉及对服务器系统110执行训练/学习处理,然后将用于神经网络(NN)123的学习后的配置(即,网络权重)输出到客户端设备310。该输出在图1中被示出为输出操作244。输出操作244将用于神经网络(NN)123的配置信息提供给客户端设备310。配置信息可以存在于存储器中,例如作为存储器130、数据存储(未示出)或另一个合适的存储库中的附加数据135,直到输出该配置信息为止。配置信息可以输出到诸如图1中示出的客户端设备310的各种客户端设备。客户端设备310可以是接收或输入神经网络配置的移动设备。
将领会到,在一些实施例中,被诸如车载服务器系统110的客户端310使用的存储和计算的资源的至少一部分可以是远程的。训练神经网络的服务器系统110可以位于“云”(即,从客户端设备310中远程地实现服务器系统110的至少一部分设备)中。在一些实施例中,可以通过公共或非专用服务来提供服务器系统110。在一些实施例中,可以将客户端设备310配置为使得利用客户端设备310执行的目标识别基本上等同于通过服务器系统110执行的目标识别。即,在一些实施例中,以充足的训练信息来将客户端设备310配置为可以执行对更多训练图像的目标识别而基本上不降低性能。可以实时测量比较性能,这对于移动设备来说会是有益的。
在一些实施例中,可以降低对客户端设备310的计算需求。例如,在一些实施例中,较小的位分辨率可能足以用于存储和处理网络权重。可以不需要原始的双精度。这种节约可以使神经网络323能够以低精度计算操作。在一些实施例中,可以使用模拟存储器。
现在,使用图1的流程图140来描述示例性训练处理。这些训练处理可以用于服务器系统110或其他系统。将仅作为示例来根据服务器系统110的组件描述流程图140的处理。
根据可选择的操作141,可以在使用训练图像102之前对神经网络123的部分或全部进行初始化。在使用层对(诸如图3的层对)的实施例中,可以在应用训练图像之前将第一卷积层初始化。例如,该初始化可以具有随机权重或另一个非图像的特定配置。
根据另一个操作142,例如,可以经由输入设备105接收训练图像。在图1的示例中,接收到的训练图像是可能来自训练图像数据库104中的图像102。为了训练不同的图像,可以将操作140重复许多次。为了训练在训练图像数据库104中的所有图像,可以将操作140重复许多次。
根据另一个操作143,可以按照将简短描述的方式来训练神经网络(NN)123。根据另一个操作144,可以输出在操作143之后生成的神经网络(NN)123的配置。可以按照与之前描述的输出操作244基本上类似或相同的方式来执行操作144。
图4更详细地描述了操作143的训练的示例性实施例。给出的实施例更详细地描述了具有减小的位分辨率的学习权重。这些实施例中的一些实施例被称为“监督迭代量化(S.I.Q.)”。
在图4中,示出训练643的示例性方法。更具体地,图4描述用于训练神经网络来生成具有减小的位分辨率的权重的示例性方面。训练643的方法的结果是量化权重(quantized weights),所述量化权重被输出到客户端设备310以用于识别。用于输出和特征映射的位分辨率的减小在训练中不是强制性的。
在该示例中,训练643的方法包括训练通过操作610,其中,根据该训练通过操作610借助用于神经网络(NN)123的层对来执行训练通过。训练通过操作610包括量化操作620,其中,根据该量化操作610在一个或更多个接合点(juncture)处执行量化。因此,量化操作620以将要被简短地说明的方式来修改训练通过操作610。
根据另一个可选择的操作630,进行关于是否已经达到最大迭代数量的询问。如果回答为“是”,则结束训练643的方法的运行。如果回答为“否”,则根据初始化操作640,可以将神经网络(NN)123的部分或全部再次进行初始化。一旦重新初始化,神经网络(NN)123可以应用通过量化操作620量化的权重的版本。
在初始化操作640之后,运行可以返回到训练通过操作610等。可以执行若干次训练643的示例性方法的迭代。
现在,更详细地描述训练通过操作610和嵌入在训练通过操作610中的量化操作620。说明书具体涉及使用具有层对(诸如图2中给出的层对)的神经网络(NN)的服务器系统110的实施例。
图5是描述针对服务器系统110的实施例的示例性神经网络(NN)723的量化操作620的方面的框图。在该示例中,神经网络(NN)723类似于上述的神经网络(NN)123。
参照图5,在示例性量化操作720中,神经网络(NN)723接收训练图像702,并且生成结果774。结果774代表生成的学习后的权重,该学习后的权重稍后可以用于识别训练图像702是否包含某个目标,在训练处理中限定了该目标的标号。神经网络(NN)723至少包括第一卷积(C1)层754和第一子采样(S1)层758的第一层对721。神经网络(NN)723还包括第二卷积(C2)层764和第二子采样(S2)层768的第二层对722。可以如上所述地制作层对721和722。
在图5中,箭头示出训练通过操作610和量化操作620的效果。在实施例中,首先利用随机权重或另一个非图像的特定配置来将神经网络(NN)723初始化。将已经被输入设备接收的训练图像702应用于第一卷积层754。如上所述,第一卷积层754已经在训练图像702应用到它之前被初始化了。
神经网络(NN)723可以被配置为响应于被应用到第一卷积层754的训练图像702而在第一子采样层758中生成第一中间特征映射。可以基于第一中间原始权重来生成该第一中间特征映射。
作为该训练通过步骤的部分,第一中间特征映射可以应用于第二卷积层764。神经网络(NN)723可以被配置为响应于被应用到第二卷积层764的第一中间特征映射而在第二子采样层768中生成第二中间特征映射。该第二中间特征映射可以具有第二中间原始权重。
可以使用MLP分类器137将得出的特征映射768用于作出关于什么目标最有可能出现在图像中的预测。基于预测和地面实况的误差,可以使用反向传播(BP)来调整(即,学习/训练)权重。
可以针对训练数据库中的训练图像的全部或部分重复训练处理。在那之后,使用基于k-means(稍后将详细描述)的自适应量化方法来量化学习后的权重。在仍然保留足够的原始数据的同时,量化减少权重的位数。因此,在这种具体情况下,量化将原始权重转换为低分辨率权重。
在一些实施例中,将训练权重的处理和其后的量化视为一个训练时代(trainingepoch)。
如果训练时代小于阈值(例如,在操作630处的回答为“否”),则可以重复训练通过操作610。在这种情况下,可以使用量化权重将神经网络(NN)723初始化。基于该初始化,神经网络(NN)723可以再次接收训练图像的全部或部分,使用反向传播(BP)来学习权重,然后量化学习后的权重。
如果训练时代等于或大于阈值(即,在操作630处的回答为“是”),则可以输出量化权重。
监督迭代量化(S.I.Q)的处理(如关于图5的示例性过程概述的)涉及训练图像的反向传播(BP)、自适应量化和迭代。
在示例性实施例中,可以在由操作626的箭头示出的位置处可选择地对输入进行量化;可以在由操作621的箭头示出的位置处可选择地将第一中间特征映射量化;然后,可以在由操作627的箭头示出的位置处可选择地将第二中间特征映射量化。此外,第一卷积层可以被配置为利用在第一训练通过处生成的第二中间特征映射的版本而变得初始化。神经网络还可以被配置为响应于将接收到的训练图像再次应用于第一卷积层而在第一子采样层中生成更新的第一中间特征映射。处理器还可以被配置为执行更新的第一中间特征映射的量化,以生成被配置为应用于第二卷积层的更新的且量化的第一中间特征映射。神经网络可以被配置为响应于将更新的且量化的第一中间特征映射应用于第二卷积层而在第二子采样层中生成更新的第二中间特征映射。
现在,更详细地描述量化。量化是在仍然试图保留矢量或矩阵的一些属性的同时,用于减少矢量或矩阵的位数的方法。在这种具体情况下,矢量或矩阵可以是连接的权重、输入图像或特征映射。减少的位数可以减小计算的复杂性。在量化方法中,分析原始权重值的数据分布,并且生成代替原始权重值而使用的量化权重值。在这些量化权重值的组彼此相似之处,发生计算上的节约。
在示例性实施例中,自适应量化是由原始权重值计算量化权重值的量化方法。现在描述示例。
在一维中,可以寻求使方程表达式(诸如图6的方程表达式)最小化的量化权重值。图6没有精确地示出方程,而是示出了其值将要被最小化的方程表达式。
图7中示出量化的一维示例,其中,横轴示出原始权重值(w)在0和1之间的分布。这些原始的权重值(w)在它们自身当中形成群集,因此量化权重值(Q)计算为0.262、0.428、0.603和0.866。因为权重值(w)分布以25-30个原始权重值(其值不同)开始,并且被量化权重值(Q)(其值在组中相似)代替,所以实现了节约。
图8中示出量化的二维示例。特征映射831A可以具有由二维中的点表示的值。可以设置用于量化的数量K,在这种情况下,对于特征映射831A中的点的三个主要群集,数量K可以为3(K=3)。可以通过操作820生成量化的特征映射831B,量化的特征映射831B的值可以由三个星号表示,每个星号位于各个群集的中心附近。能够以许多方式发现星号的值。例如,星号可以在一些初始位置处开始,然后迭代(将每个原始值分配给最接近的量化值,然后将“量化值”移动到其群集的中心等)。
图9示出将要被最小化的样本方程表达式9A、9B和9C。除了表达式9A还包括下标l(其中,针对两个层对l=1,2)以外,表达式9A与用于自适应量化的图6的表达式类似。表达式9B可以用于流程图643,其中,Fl表示结合的卷积层Cl和子采样层Sl(l=1,2)的组合操作。表达式9C可以等同于表达式9B。可以经由交替搜索:固定(w),求解(Q);固定(Q),求解(w)来求解该问题。
从上述可以看出,因为由原始的权重值来计算新的量化权重值,所以自适应量化在计算上会是昂贵的。当计算需要迭代搜索时,自适应量化甚至更加昂贵。如此,自适应量化在具有有限资源的客户端设备中不表现为片上实施。然而,对于具有大量资源的服务器系统来说,不存在同样的问题。
另一类型的量化方法称为“均匀量化”。均匀量化通过典型的简单规则来选择量化值,然后确定许多原始值如何匹配每个量化值。因此,均匀量化在计算上不如自适应量化密集,但是结果不精确。现在描述一维示例。
图10示出可以用于确定量化值Q的方程。根据需要,可以设置变量delta(Δ)。
图11是用于示出图10的方程的应用的样本图。在该示例中,delta(Δ)的值设置为4,这将得到4个量化值。因此,这些量化值确定为0.125、0.375、0.625和0.875,而与横轴上的权重值的分布无关。
在图11中,横轴中示出了原始权重值(w)在0和1之间的分布。(实际上,该分布与图7的分布相同)。然而,因为量化方法不同,所以在图7中结果是不同的。
再次返回到图1,根据实施例的客户端设备310可以接收(例如,根据输出操作244来接收)发送的用于神经网络(NN)123的学习后的配置(即网络权重)。将基于训练图像102和数据库104中的许多其他训练图像来准备该配置。
现在,使用流程图340(也在图1中)描述根据示例性实施例的用于识别图像的处理。这些处理可以用于客户端设备310或者客户端设备的其他配置。将仅作为示例来根据客户端设备340的组件描述流程图340的处理。
根据可选择的输入操作344,输入神经网络(NN)123的配置。可以基本上按照之前描述的操作244来执行输入操作344。能够以许多方式来执行输入,例如,通过在网络上下载,从存储器设备加载等。神经网络(NN)123的配置可以输入到,例如,神经网络(NN)323和MLP分类器337。在其他情况下,神经网络(NN)123的配置可以在诸如制造的适当时间作为附加数据335存储在存储器330中。
根据输入操作345,可以接收并输入输入图像。能够以许多方式(例如,经由被配置为接收输入图像302的输入设备305)来执行该步骤。
根据第一生成操作346,可以生成第一中间特征映射。如稍后将更详细说明的,可以以许多方式(例如,通过将输入图像应用于第一卷积层)来执行该步骤。可选择地,可以在将接收的输入图像应用于第一卷积层之前执行接收到的输入图像的量化。
根据另一个量化操作347,可以执行第一中间特征映射的量化。能够以许多方式进行量化。优选地,另一个量化操作347是参照图10和图11描述的均匀量化的类型,并且对于客户端设备310来说不像由服务器系统110执行的自适应量化那样繁重。另一个量化操作347可以生成量化的第一中间特征映射。
根据第二生成操作348,可以生成第二中间特征映射。如稍后将更详细说明的,可以以许多方式(例如,通过将量化的第一中间特征映射应用于第二卷积层)来执行该步骤。
根据识别操作349,可以执行输入图像中的目标的识别。该识别将当然首先根据数学,并且可以通过第二中间特征映射执行。可选择地,可以在执行识别操作之前执行第二中间特征映射的量化。
现在,针对使用具有层对(诸如图2的层对)的神经网络(NN)的客户端设备实施例来更详细地描述流程图340中提供的示例性处理的操作。
图12是示出针对客户端设备的示例性神经网络(NN)1223和针对客户端设备的示例性MLP分类器1237的框图。在该示例中,神经网络(NN)1223与上述神经网络(NN)323基本上相似。如上所述,可以利用基于训练图像而准备的神经网络的配置,将神经网络(NN)1223和MLP分类器1237初始化。
如图12中所示,神经网络(NN)1223接收输入图像1202,并且生成识别结果1249。识别结果1249表示训练图像是否在输入图像1202中。神经网络(NN)1223至少包括第一卷积(C1)层1254和第一子采样(S1)层1258的第一层对1221。神经网络(NN)1223还包括第二卷积(C2)层1264和第二子采样(S2)层1268的第二层对1222。层对1221和1222可以与以上关于其他层对的描述基本相同。
在图12中,箭头示出流程图340的操作的效果。在示例性实施例中,将由输入设备接收的输入图像1202应用于第一卷积层1254。
神经网络(NN)1223可以被配置为响应于被应用到第一卷积层1254的输入图像1202而在第一子采样层1258中生成第一中间特征映射。该第一中间特征映射可以具有第一中间原始权重。
客户端的处理器(图12中未示出)可以被配置为执行第一中间特征映射的量化。该量化示出为操作1246,并且可以是统一量化或其他类型。量化可以生成量化的第一中间特征映射。因此,在此具体情况下,量化将第一中间原始权重转换为量化的第一中间特征映射的第一中间低分辨率权重。这可以包括从最后的输入图像1202和存储的学习后的配置权重两者获取的方面。
量化的第一中间特征映射可以应用于第二卷积层1264。NN 1223可以被配置为响应于被应用到第二卷积层1264的量化的第一中间特征映射而在第二子采样层1268中生成第二中间特征映射。该第二中间特征映射可以具有第二中间原始权重。
神经网络(NN)1223可以被配置为执行MLP分类器1237中的权重的量化,并且神经网络(NN)1223可以被配置为响应于应用到量化的权重MLP的第二特征映射而在MLP分类器1237中生成分类输出。
MLP分类器1237可以被配置为执行处于输入图像中的训练图像的识别。该识别可以通过第二中间特征映射来执行。执行该识别可以生成识别结果1249。
此外,可以在由操作1256和1257的箭头示出的附加位置发生量化。具体而言,如操作1256的箭头所示,输入图像1202自身可以在被应用于第一卷积层1254之前被量化。然而,如操作1257的箭头所示,第二中间特征映射可以在第二子采样层1268生成第二中间特征映射之后并且在执行识别操作之前被量化。此外,可以通过客户端设备的处理器来执行量化。
现在描述实际模拟的示例。
图13是用于手写识别的一组四十(40)个样本训练图像(MNIST手写数字)。为了MLP分类器,这些训练图像的最左列可以接收分类“0”,下一列接收分类“1”等等,共计10个类别。
图14是按照以上用于执行模拟的样本卷积神经网络NN中的数据结构1401的图。图14未示出上述量化操作。
数据结构1401包括已经通过以5×5核来卷积图像1402而生成的六(6)个特征映射(每个24×24像素)的集C11454。数据结构1401还包括已经通过以/2(除以2)比例来对集C1的特征映射进行子采样而生成的六(6)个特征映射(每个12×12像素)的集C21458。另外,数据结构1401包括已经通过与5×5核进行卷积而生成的十二(12)个特征映射(每个24×24像素)的集C21464。数据结构1401还包括已经通过以/2(除以2)比例来对集C1的特征映射进行子采样而生成的十二(12)个特征映射(每个12×12像素)的集C21468。此外,数据结构1401包括生成识别结果1449的MLP分类器的类别1437。
可以离线执行训练,使用反向传播(BP)来学习权重。使用如上所述的监督迭代量化来将用于低位分辨率的学习后的权重量化。然后,考虑输入或特征映射的量化,执行识别的测试。根据分类器误差——越小越好,来评价性能。
连接到输出神经元的分类器权重的维度远远大于卷积核权重,并且通常对于较高的分辨率需要更多的位。在这种情况下,将分类器的位分辨率设置为六(6)位的固定值。然后,参照性能评价卷积核的不同的位分辨率。
图15是示出将实施例的模拟性能与现有技术对比的模拟结果的表。列是输入分辨率位的数量,行是权重分辨率位的数量。每行具有针对不同量化方法的三个子行,针对均匀量化的顶部子行,针对k-means自适应量化的中间子行以及底部子行。
对于非常低的位分辨率,误差当然是非常高的。然而,将观察到,利用仅四位的分辨率,通过实施例实现了与利用第一子行和第二子行中的原始同样(低)的仅1.15%的误差。实际上,箭头指出了顶部子行中的原始低误差表值如何遇到用于仅四位分辨率的底部子行中的没有更逊色的表值。
图16是用于将实施例的模拟性能与现有技术对比的条形图。条形图1610、1620、1643分别针对a)均匀量化,b)k-means自适应量化和c)实施例示出对低位分辨率(达到4位)的平均测试误差。条1643具有最小的误差。
图17是用于将实施例的模拟性能与现有技术对比的另一个条形图。条形图1710、1720、1743分别针对a)均匀量化,b)k-means自适应量化和c)实施例示出对所有位分辨率的平均测试误差。条形图1743具有最小的误差。
图18示出用于将实施例的模拟性能与现有技术对比的多组条形图。沿着横轴示出的每组三个条形图是针对同一误差。在每组中,a)最左条是针对均匀量化,b)中间条是针k-means自适应量化,c)最右条是每个实施例。纵轴示出要求满足误差水平(即,针对不能更高的误差水平)的总位数。对于示出的所有测试误差,最右条需要要求满足误差水平的最少总位数。
上述设备和/或系统执行函数、处理和/或方法。这些函数、处理和/或方法可以通过包括逻辑电路的一个或更多个设备来实现。这种设备可以选择性地称为计算机等。其可以是单独的设备或计算机,诸如通用计算机,或具有一个或多个附加功能的设备的部分。
应由系统设计者、制造商、用户或其他类似的相关方来对性能的标准做出判断。如这里使用的术语“大量的”通常涉及所得系统性能的充足。
逻辑电路可以包括可能出于通用或专用的目的而编程的处理器,诸如微控制器、微处理器、数字信号处理器(DSP)等。示例可以包括处理器120和320。
逻辑电路也可以包括诸如存储器的非临时性计算机可读存储介质。这种介质可以具有不同类型,包括但不限于易失性存储器、非易失性存储器(NVM)、只读存储器(ROM);随机存取存储器(RAM);磁盘存储介质;光学存储介质;智能卡、闪存装置等。示例可以包括存储器130和330。
这些单独或与其他结合的存储介质可以具有存储在其上的数据。用于存储在存储介质中的数据的示例包括数据135和335。
此外,这些存储介质可以存储处理器能够读取和执行的程序。更具体而言,程序可以包括以处理器在读取时能够执行的编码格式的指令。示例包括程序132和332。
运行程序通过物理量的物理操作而执行,并且可能引起将要被执行的函数、处理、动作和/或方法,和/或使其他设备或组件或块执行这样的函数、处理、行动和/或方法的处理器。通常,仅为了方便起见,优选地实施和描述作为各种相互连接的有区别的软件模块或特征的程序。这些,连同数据一起被单独地并且也被共同地称为软件。在某些情况下,软件与硬件结合,以混合称为“固件”。
此外,这里描述方法和算法。这些方法和算法不必与任何具体的逻辑装置或其他设备固有地联系。相反,这些方法和算法可以被程序有利地实施以供诸如通用计算机、专用计算机、微处理器等的计算机器使用。
这种详细的描述包括位于至少一个计算机可读介质中的程序操作的流程图、显示图像、算法和符号表示。由于使用单组流程图来描述程序和方法两者而实现节约。所以,在流程图根据框描述方法的同时,它们也同时地描述程序。
在上述方法中,可以按照动作的肯定步骤,或者使书面记载了能够发生的事情发生来执行每个操作。可以由整个系统或装置,或者由它的仅一个或多个组件来进行这样的动作或者使事情发生。此外,操作的顺序不被约束为所示出的顺序,并且根据不同的实施例可以是不同的顺序。此外,在某些实施例中,可以添加新的操作,或者可以修改或删除个别操作。添加的操作可以是例如来自于在主要描述不同的系统、设备、装置或方法的同时所提到的内容。
本领域技术人员将能够根据被视为整体的本说明书实现本发明。包括详情以提供透彻的理解。在其他情况下,为了防止不必要地模糊本发明,没有描述公知的方面。加之,本说明书中对任何现有技术所做出的任何参考不是并且不应当被认为承认或以任何形式暗示该现有技术在任何国家形成公知常识的部分。
本说明书包括一个或更多个示例,但是不限制发明可以如何实现。发明的实施例或示例的确可以根据所描述的内容来实现,或者也可以有差别地并且还与其他当前或未来的技术相结合地实现。其他实施例包括这里描述的特征的组合和子组合,包括例如,等同于如下情况的实施例,即:以与描述的实施例不同的顺序提供或应用特征;从一个实施例中提取个别特征并且将该特征插入到另一个实施例中;从实施例中去除一个或多个特征;或者在提供这种组合和子组合中包括的特征的同时,既从一个实施例中去除特征又添加从另一个实施例中提取的特征。
在本文件中,短语“被构造为”和/或“被配置为”表示构造和/或配置的一个或更多个实际状态,其根本上与前述的这些短语的元件或特征的物理特性相关联,如此,达到了远超过仅描述的预期用途。如本领域技术人员在看到本公开之后将明了的,可以以超出本文件中示出的任何示例的任意数量的方式来实现任何这些元件或特征。
权利要求限定了被视为新颖的和非显而易见的元素、特征和步骤或操作的某些组合和子组合。针对其他这种组合和子组合的附加权利要求可以存在于本文件或相关文件中。
Claims (16)
1.一种配置有训练神经网络的客户端设备,所述客户端设备包括:
处理器、存储器、用户接口、通信接口、电源和输入设备;
所述存储器包括从服务器系统接收的训练神经网络,所述服务器系统已经训练并配置了将用作训练神经网络的基于服务器系统的神经网络,
其中,基于服务器系统的神经网络被配置为生成特征映射,其中,所述特征映射包括从输入图像得到的多个权重值,
其中,基于服务器系统的神经网络还被配置为:对所述特征映射进行统一量化操作或监督迭代量化操作,以在不改变所述特征映射的维度情况下将所述多个权重值中的每个权重值的位数从第一预定数量减小为比第一预定数量小的第二预定数量。
2.根据权利要求1所述的客户端设备,其中,所述输入设备被配置为捕获图像并且将图像输入数据存储在存储器中。
3.根据权利要求1所述的客户端设备,所述客户端设备还包括被配置为映射图像输入数据的多层感知器分类器。
4.根据权利要求1所述的客户端设备,其中,训练神经网络包括卷积神经网络。
5.根据权利要求1所述的客户端设备,其中,监督迭代量化操作执行图像输入数据的反向传播。
6.根据权利要求1所述的客户端设备,其中,训练神经网络被配置为执行目标识别。
7.根据权利要求1所述的客户端设备,所述客户端设备包括智能电话、平板电脑和便携式电子设备。
8.一种利用客户端设备提供目标识别的系统,所述系统包括:
服务器系统,被配置为训练神经网络以执行目标识别,并且将训练神经网络输出到所述客户端设备,
其中,所述神经网络被配置为生成特征映射,其中,所述特征映射包括从输入图像得到的多个权重值,
其中,所述神经网络还被配置为:对所述特征映射进行统一量化操作或监督迭代量化操作,以在不改变所述特征映射的维度情况下将所述多个权重值中的每个权重值的位数从第一预定数量减小为比第一预定数量小的第二预定数量。
9.根据权利要求8所述的系统,所述系统还包括:
客户端设备,包括处理器、存储器、用户接口、通信接口、电源和输入设备;并且
所述存储器包括从所述服务器系统接收的训练神经网络。
10.根据权利要求8所述的系统,其中,所述服务器系统包括训练图像的数据库。
11.根据权利要求8所述的系统,其中,所述神经网络包括卷积神经网络。
12.根据权利要求11所述的系统,其中,所述卷积神经网络包括至少两个层。
13.根据权利要求11所述的系统,其中,所述卷积神经网络包括卷积层和子采样层。
14.根据权利要求8所述的系统,其中,所述服务器系统包括多层感知器分类器。
15.根据权利要求8所述的系统,其中,针对所述神经网络的学习技术包括反向传播、限制玻尔兹曼机、自动编码器解码技术中的一者。
16.一种服务器系统,所述服务器系统包括:
输入设备,被配置为接收训练图像;
神经网络,包括至少两个层对,每个层对包括卷积层和子采样层;
多层感知器分类器;
其中,所述神经网络被配置为执行卷积层中的中间权重的量化,
所述神经网络还被配置为响应于应用到卷积层的输入而在所述子采样层中生成中间特征映射;所述神经网络被配置为执行所述多层感知器分类器中的权重的量化,并且
所述神经网络被配置为响应于应用到量化的权重多层感知器的所述特征映射而在所述多层感知器分类器中生成分类输出,
其中,卷积层中的中间权重的量化和所述多层感知器分类器中的权重的量化中的至少一个量化为:用于在不改变与所述至少一个量化对应的特征映射的维度情况下将所述特征映射的每个权重的位数从第一预定数量减小为比第一预定数量小的第二预定数量的统一量化操作或监督迭代量化操作。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201462053692P | 2014-09-22 | 2014-09-22 | |
US62/053,692 | 2014-09-22 | ||
US14/663,233 US10417525B2 (en) | 2014-09-22 | 2015-03-19 | Object recognition with reduced neural network weight precision |
US14/663,233 | 2015-03-19 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN105447498A CN105447498A (zh) | 2016-03-30 |
CN105447498B true CN105447498B (zh) | 2021-01-26 |
Family
ID=55526047
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201510608615.7A Active CN105447498B (zh) | 2014-09-22 | 2015-09-22 | 配置有神经网络的客户端设备、系统和服务器系统 |
Country Status (3)
Country | Link |
---|---|
US (3) | US10417525B2 (zh) |
KR (1) | KR102545128B1 (zh) |
CN (1) | CN105447498B (zh) |
Families Citing this family (135)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10417525B2 (en) * | 2014-09-22 | 2019-09-17 | Samsung Electronics Co., Ltd. | Object recognition with reduced neural network weight precision |
US9418458B2 (en) * | 2015-01-05 | 2016-08-16 | Superfish Ltd. | Graph image representation from convolutional neural networks |
CN105205782B (zh) * | 2015-09-06 | 2019-08-16 | 京东方科技集团股份有限公司 | 超解像方法和系统、服务器、用户设备及其方法 |
US10380479B2 (en) | 2015-10-08 | 2019-08-13 | International Business Machines Corporation | Acceleration of convolutional neural network training using stochastic perforation |
US10936951B1 (en) * | 2016-02-14 | 2021-03-02 | Perceive Corporation | Machine learning through multiple layers of novel machine trained processing nodes |
US11755913B2 (en) * | 2016-03-11 | 2023-09-12 | Telecom Italia S.P.A | Convolutional neural networks, particularly for image analysis |
US11106973B2 (en) | 2016-03-16 | 2021-08-31 | Hong Kong Applied Science and Technology Research Institute Company Limited | Method and system for bit-depth reduction in artificial neural networks |
CN107305636A (zh) * | 2016-04-22 | 2017-10-31 | 株式会社日立制作所 | 目标识别方法、目标识别装置、终端设备和目标识别系统 |
CN107315571B (zh) * | 2016-04-27 | 2020-07-31 | 中科寒武纪科技股份有限公司 | 一种用于执行全连接层神经网络正向运算的装置和方法 |
CN111860812B (zh) * | 2016-04-29 | 2024-03-01 | 中科寒武纪科技股份有限公司 | 一种用于执行卷积神经网络训练的装置和方法 |
EP3452960A1 (en) * | 2016-05-04 | 2019-03-13 | Google LLC | Augmenting neural networks with external memory using reinforcement learning |
US11062383B2 (en) | 2016-05-10 | 2021-07-13 | Lowe's Companies, Inc. | Systems and methods for displaying a simulated room and portions thereof |
US10395356B2 (en) * | 2016-05-25 | 2019-08-27 | Kla-Tencor Corp. | Generating simulated images from input images for semiconductor applications |
US9971958B2 (en) * | 2016-06-01 | 2018-05-15 | Mitsubishi Electric Research Laboratories, Inc. | Method and system for generating multimodal digital images |
EP3472760A4 (en) * | 2016-06-17 | 2020-03-04 | Nokia Technologies Oy | CONSTRUCTION OF A CONVOLUTIVE NEURON NETWORK |
US10643126B2 (en) * | 2016-07-14 | 2020-05-05 | Huawei Technologies Co., Ltd. | Systems, methods and devices for data quantization |
KR102608467B1 (ko) * | 2016-07-28 | 2023-12-04 | 삼성전자주식회사 | 뉴럴 네트워크의 경량화 방법, 이를 이용한 인식 방법, 및 그 장치 |
EP3494520A1 (en) * | 2016-08-04 | 2019-06-12 | Google LLC | Encoding and reconstructing inputs using neural networks |
CN110268423A (zh) * | 2016-08-19 | 2019-09-20 | 莫维迪乌斯有限公司 | 用于深度学习模型的分布式训练的系统和方法 |
US11080846B2 (en) * | 2016-09-06 | 2021-08-03 | International Business Machines Corporation | Hybrid cloud-based measurement automation in medical imagery |
CN106997473A (zh) * | 2016-09-08 | 2017-08-01 | 汪润春 | 一种基于神经网络的图像识别方法 |
US11138790B2 (en) * | 2016-10-14 | 2021-10-05 | Axial Medical Printing Limited | Method for generating a 3D physical model of a patient specific anatomic feature from 2D medical images |
GB201617507D0 (en) | 2016-10-14 | 2016-11-30 | Axial3D Limited | Axial3D UK |
US11222413B2 (en) | 2016-11-08 | 2022-01-11 | Samsung Electronics Co., Ltd. | Method for correcting image by device and device therefor |
KR102399148B1 (ko) * | 2016-11-25 | 2022-05-19 | 삼성전자주식회사 | 엑스선 장치 및 이의 의료 영상 획득 |
KR20180060149A (ko) | 2016-11-28 | 2018-06-07 | 삼성전자주식회사 | 컨볼루션 처리 장치 및 방법 |
US10497172B2 (en) * | 2016-12-01 | 2019-12-03 | Pinscreen, Inc. | Photorealistic facial texture inference using deep neural networks |
KR101944536B1 (ko) | 2016-12-11 | 2019-02-01 | 주식회사 딥바이오 | 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 그 방법 |
CN108242046B (zh) * | 2016-12-27 | 2022-02-18 | 阿里巴巴集团控股有限公司 | 图片处理方法及相关设备 |
US10817774B2 (en) * | 2016-12-30 | 2020-10-27 | Facebook, Inc. | Systems and methods for providing content |
US10262218B2 (en) * | 2017-01-03 | 2019-04-16 | Qualcomm Incorporated | Simultaneous object detection and rigid transform estimation using neural network |
CN106709917B (zh) * | 2017-01-03 | 2020-09-11 | 青岛海信医疗设备股份有限公司 | 神经网络模型训练方法、装置及系统 |
US11392825B2 (en) | 2017-01-09 | 2022-07-19 | Samsung Electronics Co., Ltd. | Method and algorithm of recursive deep learning quantization for weight bit reduction |
US10832135B2 (en) * | 2017-02-10 | 2020-11-10 | Samsung Electronics Co., Ltd. | Automatic thresholds for neural network pruning and retraining |
CN110326000B (zh) * | 2017-02-17 | 2023-11-24 | 可口可乐公司 | 基于终端用户输入的字符识别模型和递归训练的系统和方法 |
KR102390379B1 (ko) * | 2017-03-06 | 2022-04-26 | 삼성전자주식회사 | 뉴럴 네트워크 프로세서, 뉴럴 네트워크 프로세서의 동작 방법, 및 뉴럴 네트워크 장치 |
CN108229326A (zh) * | 2017-03-16 | 2018-06-29 | 北京市商汤科技开发有限公司 | 人脸防伪检测方法和系统、电子设备、程序和介质 |
US10592725B2 (en) * | 2017-04-21 | 2020-03-17 | General Electric Company | Neural network systems |
WO2018199721A1 (ko) * | 2017-04-28 | 2018-11-01 | 서울대학교 산학협력단 | 뉴럴네트워크에서 데이터 처리를 가속화하는 방법 및 장치 |
US11276163B2 (en) * | 2017-05-02 | 2022-03-15 | Alvitae LLC | System and method for facilitating autonomous control of an imaging system |
KR102400017B1 (ko) * | 2017-05-17 | 2022-05-19 | 삼성전자주식회사 | 객체를 식별하는 방법 및 디바이스 |
KR102526650B1 (ko) | 2017-05-25 | 2023-04-27 | 삼성전자주식회사 | 뉴럴 네트워크에서 데이터를 양자화하는 방법 및 장치 |
CN107256422A (zh) * | 2017-06-06 | 2017-10-17 | 上海兆芯集成电路有限公司 | 数据量化方法及装置 |
WO2018226014A1 (ko) * | 2017-06-07 | 2018-12-13 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102548718B1 (ko) | 2017-06-07 | 2023-06-28 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
US11272160B2 (en) * | 2017-06-15 | 2022-03-08 | Lenovo (Singapore) Pte. Ltd. | Tracking a point of interest in a panoramic video |
US11620514B2 (en) * | 2017-06-28 | 2023-04-04 | The Regents Of The University Of California | Training artificial neural networks with reduced computational complexity |
CN110785709B (zh) * | 2017-06-30 | 2022-07-15 | 科磊股份有限公司 | 从低分辨率图像产生高分辨率图像以用于半导体应用 |
KR102031982B1 (ko) | 2017-07-04 | 2019-10-14 | 주식회사 알고리고 | 언레이블드 데이터의 재학습 여부 결정을 이용한 압력분포 정보의 자세 분류 장치 |
SG11201911600VA (en) * | 2017-07-07 | 2020-01-30 | Mitsubishi Electric Corp | Data processing device, data processing method, and compressed data |
US10127494B1 (en) | 2017-08-02 | 2018-11-13 | Google Llc | Neural network crossbar stack |
US10706350B1 (en) * | 2017-08-11 | 2020-07-07 | Facebook, Inc. | Video analysis using convolutional networks |
US20190050710A1 (en) * | 2017-08-14 | 2019-02-14 | Midea Group Co., Ltd. | Adaptive bit-width reduction for neural networks |
US11676004B2 (en) * | 2017-08-15 | 2023-06-13 | Xilinx, Inc. | Architecture optimized training of neural networks |
WO2019036845A1 (en) * | 2017-08-21 | 2019-02-28 | Nokia Technologies Oy | METHOD, SYSTEM AND APPARATUS FOR PATTERN RECOGNITION |
US11055604B2 (en) * | 2017-09-12 | 2021-07-06 | Intel Corporation | Per kernel Kmeans compression for neural networks |
EP3682379A1 (en) * | 2017-09-15 | 2020-07-22 | Google LLC | Augmenting neural networks |
EP3685312A4 (en) * | 2017-09-19 | 2021-06-16 | Ramot at Tel-Aviv University Ltd. | METHOD AND SYSTEM FOR DETECTION OF IMAGE CONTENT |
KR102491546B1 (ko) | 2017-09-22 | 2023-01-26 | 삼성전자주식회사 | 객체를 인식하는 방법 및 장치 |
CN107622253B (zh) * | 2017-09-30 | 2024-02-02 | 上海引昱数字科技集团有限公司 | 一种基于神经网络识别设备类型的图像识别方法 |
US20190108442A1 (en) * | 2017-10-02 | 2019-04-11 | Htc Corporation | Machine learning system, machine learning method and non-transitory computer readable medium for operating the same |
DE102017218851A1 (de) | 2017-10-23 | 2019-04-25 | Robert Bosch Gmbh | Verfahren, Vorrichtung und Computerprogramm zur Erstellung eines tiefen neuronalen Netzes |
US11195096B2 (en) * | 2017-10-24 | 2021-12-07 | International Business Machines Corporation | Facilitating neural network efficiency |
US11270187B2 (en) | 2017-11-07 | 2022-03-08 | Samsung Electronics Co., Ltd | Method and apparatus for learning low-precision neural network that combines weight quantization and activation quantization |
KR20190061382A (ko) | 2017-11-27 | 2019-06-05 | 주식회사 알고리고 | Cnn 분류 모델에서의 전처리 방법 및 장치 |
KR20190061381A (ko) | 2017-11-27 | 2019-06-05 | 주식회사 알고리고 | Cnn 분류 모델에서의 하드웨어 변수 자동화 방법 및 장치 |
US10192115B1 (en) | 2017-12-13 | 2019-01-29 | Lowe's Companies, Inc. | Virtualizing objects using object models and object position data |
US11360930B2 (en) * | 2017-12-19 | 2022-06-14 | Samsung Electronics Co., Ltd. | Neural processing accelerator |
US11803734B2 (en) * | 2017-12-20 | 2023-10-31 | Advanced Micro Devices, Inc. | Adaptive quantization for neural networks |
GB2570792B (en) | 2017-12-26 | 2020-09-30 | Canon Kk | Image capturing apparatus, method of controlling the same, and storage medium |
US11562244B2 (en) * | 2018-02-07 | 2023-01-24 | Royal Bank Of Canada | Robust pruned neural networks via adversarial training |
CN108875899A (zh) * | 2018-02-07 | 2018-11-23 | 北京旷视科技有限公司 | 用于神经网络的数据处理方法、装置和系统及存储介质 |
JP6892606B2 (ja) * | 2018-03-02 | 2021-06-23 | 日本電信電話株式会社 | 位置特定装置、位置特定方法及びコンピュータプログラム |
US11468316B2 (en) * | 2018-03-13 | 2022-10-11 | Recogni Inc. | Cluster compression for compressing weights in neural networks |
US11468302B2 (en) * | 2018-03-13 | 2022-10-11 | Recogni Inc. | Efficient convolutional engine |
WO2019182378A1 (en) | 2018-03-21 | 2019-09-26 | Lg Electronics Inc. | Artificial intelligence server |
CN108875904A (zh) * | 2018-04-04 | 2018-11-23 | 北京迈格威科技有限公司 | 图像处理方法、图像处理装置和计算机可读存储介质 |
US10977338B1 (en) | 2018-04-20 | 2021-04-13 | Perceive Corporation | Reduced-area circuit for dot product computation |
US11481612B1 (en) | 2018-04-20 | 2022-10-25 | Perceive Corporation | Storage of input values across multiple cores of neural network inference circuit |
US11783167B1 (en) | 2018-04-20 | 2023-10-10 | Perceive Corporation | Data transfer for non-dot product computations on neural network inference circuit |
US11972347B2 (en) | 2018-04-22 | 2024-04-30 | Technion Research & Development Foundation Limited | System and method for emulating quantization noise for a neural network |
US10902302B2 (en) * | 2018-04-23 | 2021-01-26 | International Business Machines Corporation | Stacked neural network framework in the internet of things |
CN108628993B (zh) * | 2018-04-28 | 2021-01-05 | 国家基础地理信息中心 | 电子地图自适应分类方法、装置、设备及存储介质 |
KR20190128885A (ko) * | 2018-05-09 | 2019-11-19 | 삼성전자주식회사 | 전자 장치 및 그 제어 방법 |
KR102162895B1 (ko) | 2018-06-04 | 2020-10-07 | 주식회사 딥바이오 | 듀얼 클래스를 지원하는 질병 진단 시스템 및 그 방법 |
KR102172213B1 (ko) | 2018-06-04 | 2020-10-30 | 주식회사 딥바이오 | 투 페이스 질병 진단 시스템 및 그 방법 |
JP7045947B2 (ja) * | 2018-07-05 | 2022-04-01 | 株式会社日立製作所 | ニューラルネットワークの学習装置および学習方法 |
CN110795976B (zh) * | 2018-08-03 | 2023-05-05 | 华为云计算技术有限公司 | 一种训练物体检测模型的方法、装置以及设备 |
KR102185893B1 (ko) | 2018-08-07 | 2020-12-02 | 주식회사 딥바이오 | 뉴럴 네트워크를 이용한 질병의 진단 시스템 및 방법 |
KR102151723B1 (ko) | 2018-08-07 | 2020-09-03 | 주식회사 딥바이오 | 다중 색 모델 및 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법 |
KR102215269B1 (ko) | 2018-08-07 | 2021-02-15 | 주식회사 딥바이오 | 진단 결과 생성 시스템 및 방법 |
KR102174379B1 (ko) | 2018-08-27 | 2020-11-04 | 주식회사 딥바이오 | 세그멘테이션을 수행하는 뉴럴 네트워크를 이용한 질병 진단 시스템 및 방법 |
US11030480B2 (en) | 2018-08-31 | 2021-06-08 | Samsung Electronics Co., Ltd. | Electronic device for high-speed compression processing of feature map of CNN utilizing system and controlling method thereof |
KR102130687B1 (ko) * | 2018-09-18 | 2020-07-07 | 주식회사 스트리스 | 다중 센서 플랫폼 간 정보 융합을 위한 시스템 |
US11463750B2 (en) | 2018-09-28 | 2022-10-04 | Korea Advanced Institute Of Science And Technology | Method and apparatus for transmitting adaptive video in real time using content-aware neural network |
EP3629242A1 (de) * | 2018-09-28 | 2020-04-01 | Siemens Healthcare Diagnostics, Inc. | Verfahren zum konfigurieren einer bildauswerteeinrichtung sowie bildauswerteverfahren und bildauswerteeinrichtung |
CN109558892A (zh) * | 2018-10-30 | 2019-04-02 | 银河水滴科技(北京)有限公司 | 一种基于神经网络的目标识别方法及系统 |
KR102462910B1 (ko) | 2018-11-12 | 2022-11-04 | 한국전자통신연구원 | 배치 정규화 레이어의 웨이트들에 대한 양자화 방법 및 그 장치 |
US11847567B1 (en) | 2018-12-05 | 2023-12-19 | Perceive Corporation | Loss-aware replication of neural network layers |
US11610110B2 (en) | 2018-12-05 | 2023-03-21 | Bank Of America Corporation | De-conflicting data labeling in real time deep learning systems |
CN111291882A (zh) * | 2018-12-06 | 2020-06-16 | 北京百度网讯科技有限公司 | 一种模型转换的方法、装置、设备和计算机存储介质 |
KR101971278B1 (ko) | 2018-12-13 | 2019-04-26 | 주식회사 알고리고 | 인공신경망을 이용한 비정상 데이터 구분 장치 |
EP3899811A4 (en) * | 2018-12-18 | 2022-09-28 | Movidius Ltd. | NERVE NETWORK COMPRESSION |
US11823389B2 (en) * | 2018-12-20 | 2023-11-21 | Qatar Foundation For Education, Science And Community Development | Road network mapping system and method |
US10963746B1 (en) * | 2019-01-14 | 2021-03-30 | Xilinx, Inc. | Average pooling in a neural network |
US11347297B1 (en) | 2019-01-23 | 2022-05-31 | Perceive Corporation | Neural network inference circuit employing dynamic memory sleep |
KR102236948B1 (ko) | 2019-01-25 | 2021-04-06 | 주식회사 딥바이오 | 준-지도학습을 이용하여 질병의 발병 영역에 대한 어노테이션을 수행하기 위한 방법 및 이를 수행하는 진단 시스템 |
KR102226897B1 (ko) | 2019-01-25 | 2021-03-11 | 주식회사 딥바이오 | 다중 페이즈 생체 이미지를 이용하여 학습된 뉴럴 네트워크를 이용한 질병 진단 방법 및 이를 수행하는 질병 진단 시스템 |
WO2020209840A1 (en) * | 2019-04-09 | 2020-10-15 | Hewlett-Packard Development Company, L.P. | Applying directionality to audio by encoding input data |
KR102198224B1 (ko) | 2019-04-11 | 2021-01-05 | 주식회사 알고리고 | 공간 데이터를 기초로 한 인공신경망을 이용한 비정상 데이터 구분 장치 |
KR102119891B1 (ko) | 2019-04-11 | 2020-06-05 | 주식회사 알고리고 | 미세 변화 데이터 및 공간 데이터를 기초로 한 인공신경망을 이용한 비정상 데이터 구분 장치 |
CN111954206B (zh) * | 2019-05-17 | 2024-04-09 | 株式会社Ntt都科摩 | 终端和基站 |
KR20200139909A (ko) | 2019-06-05 | 2020-12-15 | 삼성전자주식회사 | 전자 장치 및 그의 연산 수행 방법 |
KR20210002906A (ko) * | 2019-07-01 | 2021-01-11 | 삼성전자주식회사 | 객체를 인식하기 위한 전자 장치 및 그의 동작 방법 |
CN110472502A (zh) * | 2019-07-10 | 2019-11-19 | 视联动力信息技术股份有限公司 | 视联网下危险物品图像检测的方法、装置、设备、介质 |
KR102329546B1 (ko) | 2019-07-13 | 2021-11-23 | 주식회사 딥바이오 | 뉴럴 네트워크 및 비국소적 블록을 이용하여 세그멘테이션을 수행하는 질병 진단 시스템 및 방법 |
US11847568B2 (en) | 2019-07-30 | 2023-12-19 | Perceive Corporation | Quantizing neural networks using shifting and scaling |
US11537880B2 (en) * | 2019-08-12 | 2022-12-27 | Bank Of America Corporation | System and methods for generation of synthetic data cluster vectors and refinement of machine learning models |
US11531883B2 (en) | 2019-08-12 | 2022-12-20 | Bank Of America Corporation | System and methods for iterative synthetic data generation and refinement of machine learning models |
WO2021028714A1 (en) * | 2019-08-13 | 2021-02-18 | Omron Corporation | Method, apparatuses, computer program and medium including computer instructions for performing inspection of an item |
US11900246B2 (en) * | 2019-09-02 | 2024-02-13 | Samsung Electronics Co., Ltd. | Method and apparatus for recognizing user based on on-device training |
US10872295B1 (en) | 2019-09-19 | 2020-12-22 | Hong Kong Applied Science and Technology Institute Company, Limited | Residual quantization of bit-shift weights in an artificial neural network |
KR20210036715A (ko) | 2019-09-26 | 2021-04-05 | 삼성전자주식회사 | 뉴럴 프로세싱 장치 및 뉴럴 프로세싱 장치에서 뉴럴 네트워크의 풀링을 처리하는 방법 |
CN111049836A (zh) * | 2019-12-16 | 2020-04-21 | 北京澎思科技有限公司 | 数据处理方法、电子设备及计算机可读存储介质 |
US11688051B2 (en) * | 2020-01-24 | 2023-06-27 | Johnson Controls Tyco IP Holdings LLP | Automating inspection using neural network |
CN111583196B (zh) * | 2020-04-22 | 2021-09-07 | 北京智芯微电子科技有限公司 | 用于输电线路的监测系统及监测方法 |
US11175844B1 (en) * | 2020-05-13 | 2021-11-16 | International Business Machines Corporation | Optimal placement of data structures in a hybrid memory based inference computing platform |
WO2022016278A1 (en) * | 2020-07-21 | 2022-01-27 | Royal Bank Of Canada | Facial recognition tokenization |
JP2023535144A (ja) | 2020-07-23 | 2023-08-16 | ディープ バイオ インク | 多相の生体画像を用いて学習されたニューラルネットワークを用いた疾患診断方法、およびそれを行う疾患診断システム |
CN116134535A (zh) | 2020-07-23 | 2023-05-16 | 第一百欧有限公司 | 利用半监督学习对疾病发病区域进行注解的方法及执行其的诊断系统 |
CN111835364B (zh) * | 2020-08-03 | 2023-11-14 | 辽宁工程技术大学 | 一种极化码的低复杂度神经bp译码方法 |
GB202101908D0 (en) | 2021-02-11 | 2021-03-31 | Axial Medical Printing Ltd | Axial3D pathology |
KR20240042459A (ko) * | 2021-07-23 | 2024-04-02 | 인텔렉추얼디스커버리 주식회사 | 비디오 압축을 이용한 추론 방법 및 장치 |
EP4207125A1 (en) | 2021-12-29 | 2023-07-05 | Verisure Sàrl | Remotely monitored premises security monitoring systems |
CN114145730A (zh) * | 2021-12-30 | 2022-03-08 | 中新国际联合研究院 | 基于深度学习与射频感知的生命体征监测动作去除方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101299233A (zh) * | 2008-04-08 | 2008-11-05 | 西安交通大学 | 基于fpga实现的运动目标识别与跟踪装置及方法 |
CN102411708A (zh) * | 2011-12-02 | 2012-04-11 | 湖南大学 | 一种融合双树复小波变换和离散小波变换的人脸识别方法 |
Family Cites Families (86)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4994927A (en) * | 1989-06-19 | 1991-02-19 | Gte Laboratories Inc | Self-adaptive neural net based vector quantizer for image compression |
US5101361A (en) | 1989-09-29 | 1992-03-31 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Analog hardware for delta-backpropagation neural networks |
US5444796A (en) * | 1993-10-18 | 1995-08-22 | Bayer Corporation | Method for unsupervised neural network classification with back propagation |
US5835901A (en) * | 1994-01-25 | 1998-11-10 | Martin Marietta Corporation | Perceptive system including a neural network |
JPH07239938A (ja) * | 1994-02-28 | 1995-09-12 | Matsushita Electric Ind Co Ltd | 検査方法 |
US5966701A (en) * | 1995-06-21 | 1999-10-12 | Matsushita Electric Industrial Co., Ltd. | Recognition and judgement apparatus having various learning functions |
US5812993A (en) | 1996-03-07 | 1998-09-22 | Technion Research And Development Foundation Ltd. | Digital hardware architecture for realizing neural network |
US6038337A (en) * | 1996-03-29 | 2000-03-14 | Nec Research Institute, Inc. | Method and apparatus for object recognition |
US5717833A (en) | 1996-07-05 | 1998-02-10 | National Semiconductor Corporation | System and method for designing fixed weight analog neural networks |
US8621032B2 (en) * | 1996-07-18 | 2013-12-31 | Ca, Inc. | Method and apparatus for intuitively administering networked computer systems |
US6324532B1 (en) * | 1997-02-07 | 2001-11-27 | Sarnoff Corporation | Method and apparatus for training a neural network to detect objects in an image |
US6128606A (en) * | 1997-03-11 | 2000-10-03 | At&T Corporation | Module for constructing trainable modular network in which each module inputs and outputs data structured as a graph |
GB9822573D0 (en) | 1998-10-16 | 1998-12-09 | Matra Marconi Space Uk Ltd | Block adaptive quantisation |
US6513023B1 (en) | 1999-10-01 | 2003-01-28 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Artificial neural network with hardware training and hardware refresh |
US7392185B2 (en) | 1999-11-12 | 2008-06-24 | Phoenix Solutions, Inc. | Speech based learning/training system using semantic decoding |
FR2803710B1 (fr) * | 2000-01-11 | 2002-03-22 | Canon Kk | Procede et dispositif d'insertion d'un signal de marquage dans une image |
US6976012B1 (en) * | 2000-01-24 | 2005-12-13 | Sony Corporation | Method and apparatus of using a neural network to train a neural network |
US6785647B2 (en) | 2001-04-20 | 2004-08-31 | William R. Hutchison | Speech recognition system with network accessible speech processing resources |
US7123655B2 (en) | 2001-08-09 | 2006-10-17 | Sharp Laboratories Of America, Inc. | Method for reduced bit-depth quantization |
US6836767B2 (en) | 2001-10-03 | 2004-12-28 | International Business Machines Corporation | Pipelined hardware implementation of a neural network circuit |
US6608924B2 (en) * | 2001-12-05 | 2003-08-19 | New Mexico Technical Research Foundation | Neural network model for compressing/decompressing image/acoustic data files |
US7016529B2 (en) | 2002-03-15 | 2006-03-21 | Microsoft Corporation | System and method facilitating pattern recognition |
US20040199482A1 (en) * | 2002-04-15 | 2004-10-07 | Wilson Scott B. | Systems and methods for automatic and incremental learning of patient states from biomedical signals |
KR100442835B1 (ko) * | 2002-08-13 | 2004-08-02 | 삼성전자주식회사 | 인공 신경망을 이용한 얼굴 인식 방법 및 장치 |
US7346208B2 (en) * | 2003-10-25 | 2008-03-18 | Hewlett-Packard Development Company, L.P. | Image artifact reduction using a neural network |
US7236615B2 (en) * | 2004-04-21 | 2007-06-26 | Nec Laboratories America, Inc. | Synergistic face detection and pose estimation with energy-based models |
JP2006048277A (ja) * | 2004-08-03 | 2006-02-16 | Dynacomware Taiwan Inc | ネットワークを利用した外字提供システム及び方法 |
US20060047704A1 (en) | 2004-08-31 | 2006-03-02 | Kumar Chitra Gopalakrishnan | Method and system for providing information services relevant to visual imagery |
CN100367706C (zh) * | 2004-10-28 | 2008-02-06 | 上海交通大学 | 基于网络服务资源框架的图像网格处理系统 |
WO2006057475A1 (en) | 2004-11-23 | 2006-06-01 | Kicheon Hong | Face detection and authentication apparatus and method |
JP2006268825A (ja) * | 2005-02-28 | 2006-10-05 | Toshiba Corp | オブジェクト検出装置、学習装置、オブジェクト検出システム、方法、およびプログラム |
US20060193520A1 (en) * | 2005-02-28 | 2006-08-31 | Takeshi Mita | Object detection apparatus, learning apparatus, object detection system, object detection method and object detection program |
US7593574B2 (en) * | 2005-07-01 | 2009-09-22 | Microsoft Corporation | Ink warping for normalization and beautification / ink beautification |
CA2513018A1 (en) | 2005-07-22 | 2007-01-22 | Research In Motion Limited | Method for training a proxy server for content delivery based on communication of state information from a mobile device browser |
US7747070B2 (en) | 2005-08-31 | 2010-06-29 | Microsoft Corporation | Training convolutional neural networks on graphics processing units |
US7634137B2 (en) * | 2005-10-14 | 2009-12-15 | Microsoft Corporation | Unfolded convolution for fast feature extraction |
JP4529919B2 (ja) | 2006-02-28 | 2010-08-25 | 日本ビクター株式会社 | 適応量子化装置及び適応量子化プログラム |
CN102611892B (zh) | 2006-03-16 | 2014-10-08 | 华为技术有限公司 | 在编码过程中实现自适应量化的方法及装置 |
US7711157B2 (en) * | 2006-08-01 | 2010-05-04 | California Institute Of Technology | Artificial intelligence systems for identifying objects |
US8185909B2 (en) * | 2007-03-06 | 2012-05-22 | Sap Ag | Predictive database resource utilization and load balancing using neural network model |
TW200842733A (en) * | 2007-04-17 | 2008-11-01 | Univ Nat Chiao Tung | Object image detection method |
US8600674B1 (en) | 2007-08-15 | 2013-12-03 | University Of South Florida | Using pattern recognition in real-time LBS applications |
US8234228B2 (en) | 2008-02-07 | 2012-07-31 | Nec Laboratories America, Inc. | Method for training a learning machine having a deep multi-layered network with labeled and unlabeled training data |
US8081816B1 (en) | 2008-06-06 | 2011-12-20 | Kevin Maurice Irick | Apparatus and method for hardware implementation of object recognition from an image stream using artificial neural network |
DE102008027605B4 (de) * | 2008-06-10 | 2010-04-08 | Optiming Gmbh | System und Verfahren zur rechnerbasierten Analyse großer Datenmengen |
EP2257636A4 (en) * | 2008-07-03 | 2014-10-15 | Nec Lab America Inc | EPITHELIAL LAYER DETECTOR AND RELATED METHODS |
US8385971B2 (en) | 2008-08-19 | 2013-02-26 | Digimarc Corporation | Methods and systems for content processing |
US9195898B2 (en) | 2009-04-14 | 2015-11-24 | Qualcomm Incorporated | Systems and methods for image recognition using mobile devices |
US8442927B2 (en) * | 2009-07-30 | 2013-05-14 | Nec Laboratories America, Inc. | Dynamically configurable, multi-ported co-processor for convolutional neural networks |
US8175617B2 (en) | 2009-10-28 | 2012-05-08 | Digimarc Corporation | Sensor-based mobile search, related methods and systems |
WO2011064207A1 (en) * | 2009-11-24 | 2011-06-03 | Oce-Technologies B.V. | Method for digital image adaption for printing an image on a printing apparatus |
US8345984B2 (en) | 2010-01-28 | 2013-01-01 | Nec Laboratories America, Inc. | 3D convolutional neural networks for automatic human action recognition |
US8582807B2 (en) * | 2010-03-15 | 2013-11-12 | Nec Laboratories America, Inc. | Systems and methods for determining personal characteristics |
US8660355B2 (en) | 2010-03-19 | 2014-02-25 | Digimarc Corporation | Methods and systems for determining image processing operations relevant to particular imagery |
KR101420960B1 (ko) | 2010-07-15 | 2014-07-18 | 비덱스 에이/에스 | 보청기 시스템에서의 신호 처리 방법 및 보청기 시스템 |
US9398205B2 (en) * | 2010-09-01 | 2016-07-19 | Apple Inc. | Auto-focus control using image statistics data with coarse and fine auto-focus scores |
US8856055B2 (en) | 2011-04-08 | 2014-10-07 | International Business Machines Corporation | Reconfigurable and customizable general-purpose circuits for neural networks |
US8463025B2 (en) * | 2011-04-26 | 2013-06-11 | Nec Laboratories America, Inc. | Distributed artificial intelligence services on a cell phone |
ES2611177T3 (es) * | 2012-03-15 | 2017-05-05 | Cortical.Io Gmbh | Procedimientos, aparatos y productos para el procesamiento semántico de texto |
CN102663432A (zh) * | 2012-04-18 | 2012-09-12 | 电子科技大学 | 结合支持向量机二次识别的模糊核聚类语音情感识别方法 |
US9208432B2 (en) | 2012-06-01 | 2015-12-08 | Brain Corporation | Neural network learning and collaboration apparatus and methods |
US8924322B2 (en) | 2012-06-15 | 2014-12-30 | International Business Machines Corporation | Multi-processor cortical simulations with reciprocal connections with shared weights |
US9025865B2 (en) | 2012-09-14 | 2015-05-05 | Xerox Corporation | Methods and systems for reducing memory footprints associated with classifiers |
US9710695B2 (en) * | 2013-03-15 | 2017-07-18 | Sony Corporation | Characterizing pathology images with statistical analysis of local neural network responses |
US9400955B2 (en) * | 2013-12-13 | 2016-07-26 | Amazon Technologies, Inc. | Reducing dynamic range of low-rank decomposition matrices |
WO2015134665A1 (en) * | 2014-03-04 | 2015-09-11 | SignalSense, Inc. | Classifying data with deep learning neural records incrementally refined through expert input |
US20150324690A1 (en) * | 2014-05-08 | 2015-11-12 | Microsoft Corporation | Deep Learning Training System |
WO2015180101A1 (en) * | 2014-05-29 | 2015-12-03 | Beijing Kuangshi Technology Co., Ltd. | Compact face representation |
US9251431B2 (en) * | 2014-05-30 | 2016-02-02 | Apple Inc. | Object-of-interest detection and recognition with split, full-resolution image processing pipeline |
BR112017003893A8 (pt) * | 2014-09-12 | 2017-12-26 | Microsoft Corp | Rede dnn aluno aprendiz via distribuição de saída |
US10417525B2 (en) * | 2014-09-22 | 2019-09-17 | Samsung Electronics Co., Ltd. | Object recognition with reduced neural network weight precision |
US9336483B1 (en) * | 2015-04-03 | 2016-05-10 | Pearson Education, Inc. | Dynamically updated neural network structures for content distribution networks |
US9786036B2 (en) * | 2015-04-28 | 2017-10-10 | Qualcomm Incorporated | Reducing image resolution in deep convolutional networks |
US10373050B2 (en) * | 2015-05-08 | 2019-08-06 | Qualcomm Incorporated | Fixed point neural network based on floating point neural network quantization |
US10262259B2 (en) * | 2015-05-08 | 2019-04-16 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
US20160358069A1 (en) * | 2015-06-03 | 2016-12-08 | Samsung Electronics Co., Ltd. | Neural network suppression |
US20160358075A1 (en) * | 2015-06-08 | 2016-12-08 | The Regents Of The University Of Michigan | System for implementing a sparse coding algorithm |
US10182783B2 (en) * | 2015-09-17 | 2019-01-22 | Cmt Medical Technologies Ltd. | Visualization of exposure index values in digital radiography |
US20170132511A1 (en) * | 2015-11-10 | 2017-05-11 | Facebook, Inc. | Systems and methods for utilizing compressed convolutional neural networks to perform media content processing |
US10831444B2 (en) * | 2016-04-04 | 2020-11-10 | Technion Research & Development Foundation Limited | Quantized neural network training and inference |
US10643126B2 (en) * | 2016-07-14 | 2020-05-05 | Huawei Technologies Co., Ltd. | Systems, methods and devices for data quantization |
US10802992B2 (en) * | 2016-08-12 | 2020-10-13 | Xilinx Technology Beijing Limited | Combining CPU and special accelerator for implementing an artificial neural network |
US10115393B1 (en) * | 2016-10-31 | 2018-10-30 | Microsoft Technology Licensing, Llc | Reduced size computerized speech model speaker adaptation |
US10650303B2 (en) * | 2017-02-14 | 2020-05-12 | Google Llc | Implementing neural networks in fixed point arithmetic computing systems |
US11556772B2 (en) * | 2017-04-28 | 2023-01-17 | Intel Corporation | Incremental precision networks using residual inference and fine-grain quantization |
US11640533B2 (en) * | 2018-08-03 | 2023-05-02 | Arm Limited | System, method and apparatus for training neural networks using multiple datasets |
-
2015
- 2015-03-19 US US14/663,233 patent/US10417525B2/en active Active
- 2015-09-17 KR KR1020150131798A patent/KR102545128B1/ko active IP Right Grant
- 2015-09-22 CN CN201510608615.7A patent/CN105447498B/zh active Active
-
2019
- 2019-08-27 US US16/553,158 patent/US11593586B2/en active Active
-
2022
- 2022-12-29 US US18/148,422 patent/US11875268B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101299233A (zh) * | 2008-04-08 | 2008-11-05 | 西安交通大学 | 基于fpga实现的运动目标识别与跟踪装置及方法 |
CN102411708A (zh) * | 2011-12-02 | 2012-04-11 | 湖南大学 | 一种融合双树复小波变换和离散小波变换的人脸识别方法 |
Also Published As
Publication number | Publication date |
---|---|
KR20160034814A (ko) | 2016-03-30 |
KR102545128B1 (ko) | 2023-06-20 |
US20230140474A1 (en) | 2023-05-04 |
US11593586B2 (en) | 2023-02-28 |
US11875268B2 (en) | 2024-01-16 |
US20160086078A1 (en) | 2016-03-24 |
US10417525B2 (en) | 2019-09-17 |
US20190392253A1 (en) | 2019-12-26 |
CN105447498A (zh) | 2016-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN105447498B (zh) | 配置有神经网络的客户端设备、系统和服务器系统 | |
US20210390653A1 (en) | Learning robotic tasks using one or more neural networks | |
JP6946572B2 (ja) | 加速された量子化積和演算 | |
JP6504590B2 (ja) | 画像のセマンティックセグメンテーションのためのシステム及びコンピューター実施方法、並びに非一時的コンピューター可読媒体 | |
JP2023156308A (ja) | ネットワーク計算エッジにわたってアプリケーションを連続して操作する、人工知能および深層学習においてメモリで境界された継続学習を可能にするシステムおよび方法 | |
US9195934B1 (en) | Spiking neuron classifier apparatus and methods using conditionally independent subsets | |
CN112183577A (zh) | 一种半监督学习模型的训练方法、图像处理方法及设备 | |
CN109840531A (zh) | 训练多标签分类模型的方法和装置 | |
US8504493B2 (en) | Self-organizing sequential memory pattern machine and reinforcement learning method | |
CN112016543A (zh) | 一种文本识别网络、神经网络训练的方法以及相关设备 | |
WO2020159890A1 (en) | Method for few-shot unsupervised image-to-image translation | |
WO2020061884A1 (en) | Composite binary decomposition network | |
WO2022012668A1 (zh) | 一种训练集处理方法和装置 | |
AU2024201361A1 (en) | Processing images using self-attention based neural networks | |
CN111898703A (zh) | 多标签视频分类方法、模型训练方法、装置及介质 | |
WO2022179588A1 (zh) | 一种数据编码方法以及相关设备 | |
Zhao et al. | Towards compact 1-bit cnns via bayesian learning | |
Burciu et al. | Sensing forest for pattern recognition | |
US11983903B2 (en) | Processing images using self-attention based neural networks | |
US20230360370A1 (en) | Neural network architectures for invariant object representation and classification using local hebbian rule-based updates | |
Brillet | Convolutional Neural Networks for embedded vision | |
Abrahamyan | Optimization of deep learning methods for computer vision | |
WO2023196917A1 (en) | Neural network architectures for invariant object representation and classification using local hebbian rule-based updates | |
CN117372798A (zh) | 一种模型训练方法及相关装置 | |
CN117203679A (zh) | 使用基于本地赫布规则的更新的不变对象表示和分类的神经网络体系架构 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |