CN108510067A - 基于工程化实现的卷积神经网络量化方法 - Google Patents
基于工程化实现的卷积神经网络量化方法 Download PDFInfo
- Publication number
- CN108510067A CN108510067A CN201810319586.6A CN201810319586A CN108510067A CN 108510067 A CN108510067 A CN 108510067A CN 201810319586 A CN201810319586 A CN 201810319586A CN 108510067 A CN108510067 A CN 108510067A
- Authority
- CN
- China
- Prior art keywords
- point
- floating
- layer
- quantization
- bit wide
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Data Mining & Analysis (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Neurology (AREA)
- Image Analysis (AREA)
- Compression Of Band Width Or Redundancy In Fax (AREA)
Abstract
本发明公开了一种基于工程化实现的卷积神经网路量化方法,主要解决现有技术耗费时间长,准确率不高的问题,其实现方案是:1)下载已经预训练好的浮点格式的卷积神经网络模型;2)在下载的浮点网络中定义量化层;3)在下载的浮点网络中每一层批量归一化层后面调用2)定义的量化层,并构建输入数据的量化公式对浮点输入数据进行量化;4)在1)下载的浮点网络中,构建权值量化公式对浮点权值进行量化。本发明与现有技术相比,在保持识别准确率的同时降低了图像分类任务的时间成本和存储需求,可用于专用芯片FPGA/ASIC硬件平台的部署。
Description
技术领域
本发明属于深度学习技术领域,具体涉及一种卷积神经网络量化方法,可用于专用芯片FPGA/ASIC硬件平台的部署。
背景技术
深度学习近年来发展迅速,已经被广泛应用到各个领域,特别是计算机视觉、语音识别和自然语言处理领域。卷积神经网络是深度学习的代表,在计算机视觉领域掀起了热潮,凭借其强大的学习能力被广泛应用于图像分类任务中。为了提高图像分类任务的识别准确率,卷积神经网络的层数越来越多,结构越来越复杂。提高识别准确率的同时也付出了巨大的代价,计算复杂度和模型存储需求大量增加,这不利于卷积神经网络在功率预算有限的硬件平台的部署。因此,改进卷积神经网络的算法,降低卷积神经网络的存储需求已成为趋势,从而可以促进卷积神经网络在硬件平台FPGA和ASIC芯片上的应用。目前,将卷积神经网络使用的32位浮点数的数制量化成低位宽的定点数这种方法可以使得硬件资源占用和功耗更少。
Gupta,S.在其发表的论文“Deep learning with limited numericalprecision”(《Computer Science》,2015)中提出了使用随机舍入的方法对卷积神经网络进行定点数的量化,该方法在网络量化位宽为16的时候也能取得与网络使用32位浮点数时几乎相同的性能。但是在硬件平台中随机数的实现特别复杂,所以该方法不易于部署在硬件平台上。
Rastegari M.在其发表的论文“XNOR-Net:ImageNet Classification UsingBinary Convolutional Neural Networks”(European Conference on Computer Vision,2016:525-542)中提出了XNOR-Net,XNOR-Net将卷积神经网络量化成了二值网络,量化位宽为1,该方法虽说能最大程度地降低硬件占用的资源和消耗的功率,实现起来非常的高效。但是对大规模图像数据集imagenet做分类任务时,该方法的识别准确率与网络使用32位浮点数时得到的识别准确率相比下降超过了10%。
发明内容
本发明的目的在于针对上述现有技术的问题,提出一种基于工程化实现的卷积神经网络量化方法,以在保持识别准确率的同时降低图像分类任务的时间成本和存储需求。
本发明的基本思路是:根据硬件平台处理器的位宽将卷积神经网络量化为位宽为16、8的定点网络,对定点数整数和小数进行不同的位宽组合,对量化后的定点网络进行测试,根据测试准确率选择最适合部署在硬件平台的定点数位宽和表示格式,其实现方案包括如下:
(1)从互联网下载两个已经预训练好的浮点格式卷积神经网络模型;
(2)在(1)下载的预训练浮点模型的每一层卷积层和全连接层后面都添加一层自定义的量化层,并用该自定义的量化层对浮点形式的输入数据进行量化,量化的公式为:
其中,Convert表示将浮点输入数据转化为定点输入数据,x为浮点输入数据,IL和FL分别表示定点输入数据的整数位宽和小数位宽,round为四舍五入函数,是编程语言的内置函数,2FL表示量化成小数位宽为FL的定点数,-2IL-1表示定点输入数据表示的数值范围的下限,2IL-1-2-FL表示定点输入数据表示的数值范围的上限;
(3)对(1)下载的预训练浮点模型中已经训练好的浮点权值进行量化,量化的公式为:
其中,Convert表示将浮点权值转化为定点权值,w为浮点权值,IL′和FL′分别表示定点权值的整数位宽和小数位宽,round为四舍五入函数,是编程语言的内置函数,2FL′表示量化成小数位宽为FL′的定点数,-2IL′-1表示定点权值表示的数值范围的下限,2IL′-1-2-FL′表示定点权值表示的数值范围的上限。
本发明与现有技术相比有以下优点:
第一、由于本发明将已经预训练好的的浮点卷积神经网络量化为定点卷积神经网络,数据经过量化由高位宽变为低位宽,充分地降低了时间成本。
第二、由于只需对网络的前向传播过程进行量化,网络模型设计简单,易于实现。
附图说明
图1为本发明的实现流程图;
图2为现有vgg16网络模型结构图;
图3为本发明使用位宽为16的定点网络测试cifar100得到的准确率;
图4为本发明使用位宽为8的定点网络测试cifar100得到的准确率;
图5为本发明使用位宽为16的定点网络测试imagenet得到的准确率;
图6为本发明使用位宽为8的定点网络测试imagenet得到的准确率。
具体实施方式
下面结合附图对本发明做进一步的描述。
参照附图1,本发明的具体步骤如下。
步骤1,获取预训练浮点模型。
本发明从互联网下载两个已经预训练好的浮点格式的卷积神经网络模型,一个是由3层卷积层和2层全连接层组成的小型网络模型,另一个是由带13层卷积层和3层全连接层组成的大型网络模型,其中:
小型网络模型中每一个卷积层后面按顺序加了一层批量归一化层、激活层、池化层,每一个全连接层后面都按顺序加了一层批量归一化层、激活层、Dropout层,最后一层全连接层除外;该小型网络模型用于测试中规模的数据集cifar100,cifar100的测试集包括10000张测试图片,图片分为100类。
该大型网络模型在vgg16模型的基础上在每层卷积层之后都加了一层批量归一化层;该大型网络模型用于测试大规模的数据集imagenet,imagenet是计算机视觉领域最大的数据库,本发明使用其中的分类数据集,分类数据集中验证集有50000张验证图片,图片分为1000类。
所述常用的vgg16模型,如图2。该vgg16一共有13层卷积层和3层全连接层,13层卷积层分为5段,每段卷积之后紧接着最大池化层。
步骤2,浮点模型定点化。
(2a)定义一个量化层,量化层对浮点输入数据进行量化,量化的定点数位宽用1+IL+FL表示,其中IL表示整数位宽,FL表示小数位宽;
(2b)利用编程语言python,在步骤1下载的小型预训练浮点模型的每一层批量归一化层后面调用(2a)定义的量化层;在步骤1下载的大型预训练浮点模型的每一层批量归一化层后面调用(2a)定义的量化层,由于全连接层后面没有批量归一化层,故直接在全连接层后面调用(2a)定义的量化层,最后一层全连接层不调用;
(2c)将(2b)中小型网络的每一层批量归一化层的输出作为(2a)定义的量化层的输入,将大型网络的每一层批量归一化层的输出和全连接层的输出作为(2a)定义的量化层的输入,量化层对这个浮点形式的输入进行量化,量化的公式为:
其中,Convert表示将浮点输入数据转化为定点输入数据,x为浮点输入数据,IL和FL分别表示定点输入数据的整数位宽和小数位宽,round为四舍五入函数,是编程语言的内置函数,2FL表示量化成小数位宽为FL的定点数,-2IL-1表示定点输入数据表示的数值范围的下限,2IL-1-2-FL表示定点输入数据表示的数值范围的上限;
(2d)对步骤1下载的预训练浮点模型中已经训练好的浮点权值进行量化,量化的定点数位宽用1+IL′+FL′表示,其中IL′表示整数位宽,FL′表示小数位宽,量化的公式为:
其中,Convert表示将浮点权值转化为定点权值,w为浮点权值,IL′和FL′分别表示定点权值的整数位宽和小数位宽,round为四舍五入函数,是编程语言的内置函数,2FL′表示量化成小数位宽为FL′的定点数,-2IL′-1表示定点权值表示的数值范围的下限,2IL′-1-2-FL′表示定点权值表示的数值范围的上限。
本发明的效果可通过以下仿真实验做进一步说明。
1.仿真条件:
本发明的仿真实验是在基于python的深度学习框架pytorch下进行的。
2.仿真内容:
本发明通过使用定点量化后的小型网络模型对图像数据集cifar100进行测试,使用定点量化后的大型网络模型对图像数据集imagenet进行测试,验证本发明提出的量化方法的效果。
仿真1,使用定点量化后的小型网络模型测试图像数据集cifar100。
将输入图像数据的范围从0到255映射到0到1,并通过设置均值和方差将数据归一化到-1到1;
根据硬件处理器的位宽,通过设置IL和FL将定点输入数据位宽分别设置成16、8,通过设置IL′和FL′将定点权值位宽分别设置成16、8,使用量化后的定点网络进行仿真测试,测试结果如图3和图4,其中:
图3是定点网络位宽为16时测试得到的准确率,图4是定点网络位宽为8时测试得到的准确率,该图3和图4是一个三维图,图中x维代表定点输入数据的整数位宽,y维代表定点权值的整数位宽,z维代表测试准确率。
从图3和图4可以看出:当定点输入数据整数位宽和小数位宽分别为4和11,定点权值整数位宽和小数位宽分别为2和13或3和12时,位宽为16的定点网络测试得到的准确率最高,为56.43%,比浮点型网络测试得到的准确率56.41%还要高。当定点输入数据整数位宽和小数位宽分别为4和3,定点权值整数位宽和小数位宽分别为3和4时,位宽为8的定点网络测试得到的准确率最高,为56.26%,比预训练的浮点型网络测试得到的准确率56.41%只低0.15%。
仿真2,使用定点量化后的大型网络模型测试图像数据集imagenet。
将输入图像数据的尺寸调整到256×256,再在图片的中间区域进行裁剪,将图片裁剪成224×224的尺寸,最后将裁剪后的图像数据的范围从0到255映射到0到1,并通过设置均值和方差将数据进行归一化处理。
根据硬件处理器的位宽,通过设置IL和FL将定点输入数据位宽分别设置成16、8,通过设置IL′和FL′将定点权值位宽分别设置成16、8,使用量化后的定点网络进行仿真测试,测试结果如图5和图6,其中:
图5是定点网络位宽为16时测试得到的准确率,图6是定点网络位宽为8时测试得到的准确率,图中x维代表定点输入数据的整数位宽,y维代表定点权值的整数位宽,z维代表测试准确率。
从图5和图6可以看出:当定点输入数据整数位宽和小数位宽分别为6和9,定点权值整数位宽和小数位宽分别为2和13时,位宽为16的定点网络测试得到的准确率最高,为73.496%,比预训练的浮点型网络测试得到的准确率73.476%还要高。当定点输入数据整数位宽和小数位宽分别为2和5,定点权值整数位宽和小数位宽分别为0和7时,位宽为8的定点网络测试得到的准确率最高,为71.968%,只比浮点型网络测试得到的准确率73.476%下降约1.5%。
Claims (3)
1.一种基于工程化实现的卷积神经网络量化方法,包括:
(1)从互联网下载两个已经预训练好的浮点格式卷积神经网络模型;
(2)在(1)下载的预训练浮点模型的每一层卷积层和全连接层后面都添加一层自定义的量化层,并用该自定义的量化层对浮点形式的输入数据进行量化,量化的公式为:
其中,Convert表示将浮点输入数据转化为定点输入数据,x为浮点输入数据,IL和FL分别表示定点输入数据的整数位宽和小数位宽,round为四舍五入函数,是编程语言的内置函数,2FL表示量化成小数位宽为FL的定点数,-2IL-1表示定点输入数据表示的数值范围的下限,2IL-1-2-FL表示定点输入数据表示的数值范围的上限;
(3)对(1)下载的预训练浮点模型中已经训练好的浮点权值进行量化,量化的公式为:
其中,Convert表示将浮点权值转化为定点权值,w为浮点权值,IL′和FL′分别表示定点权值的整数位宽和小数位宽,round为四舍五入函数,是编程语言的内置函数,2FL′表示量化成小数位宽为FL′的定点数,-2IL′-1表示定点权值表示的数值范围的下限,2IL′-1-2-FL′表示定点权值表示的数值范围的上限。
2.根据权利要求1所述的方法,其中步骤(2)中在步骤(1)下载的预训练浮点模型的每一层卷积层和全连接层后面都添加一层自定义的量化层,是利用编程语言python完成的,其步骤如下:
(2a)定义一个量化层,量化层对浮点输入数据进行量化,量化的定点数位宽用1+IL+FL表示,其中IL表示整数位宽,FL表示小数位宽;
(2b)在步骤(1)下载的预训练浮点网络的每一层卷积层和全连接层后面调用(2a)定义的量化层,用于网络的前向传播。
3.根据权利要求1所述的方法,其中步骤(1)从互联网下载两个已经预训练好的浮点格式卷积神经网络模型,包括:
由3层卷积层和2层全连接层组成的小型网络模型,
由13层卷积层和3层全连接层组成的大型网络模型。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810319586.6A CN108510067B (zh) | 2018-04-11 | 2018-04-11 | 基于工程化实现的卷积神经网络量化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810319586.6A CN108510067B (zh) | 2018-04-11 | 2018-04-11 | 基于工程化实现的卷积神经网络量化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108510067A true CN108510067A (zh) | 2018-09-07 |
CN108510067B CN108510067B (zh) | 2021-11-09 |
Family
ID=63381480
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810319586.6A Active CN108510067B (zh) | 2018-04-11 | 2018-04-11 | 基于工程化实现的卷积神经网络量化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108510067B (zh) |
Cited By (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109389212A (zh) * | 2018-12-30 | 2019-02-26 | 南京大学 | 一种面向低位宽卷积神经网络的可重构激活量化池化系统 |
CN109472353A (zh) * | 2018-11-22 | 2019-03-15 | 济南浪潮高新科技投资发展有限公司 | 一种卷积神经网络量化电路及量化方法 |
CN109800865A (zh) * | 2019-01-24 | 2019-05-24 | 北京市商汤科技开发有限公司 | 神经网络生成及图像处理方法和装置、平台、电子设备 |
CN110222821A (zh) * | 2019-05-30 | 2019-09-10 | 浙江大学 | 基于权重分布的卷积神经网络低位宽量化方法 |
CN110309877A (zh) * | 2019-06-28 | 2019-10-08 | 北京百度网讯科技有限公司 | 一种特征图数据的量化方法、装置、电子设备及存储介质 |
CN110717585A (zh) * | 2019-09-30 | 2020-01-21 | 上海寒武纪信息科技有限公司 | 神经网络模型的训练方法、数据处理方法和相关产品 |
CN110837890A (zh) * | 2019-10-22 | 2020-02-25 | 西安交通大学 | 一种面向轻量级卷积神经网络的权值数值定点量化方法 |
WO2020118553A1 (zh) * | 2018-12-12 | 2020-06-18 | 深圳鲲云信息科技有限公司 | 一种卷积神经网络的量化方法、装置及电子设备 |
CN111695671A (zh) * | 2019-03-12 | 2020-09-22 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
WO2020248424A1 (zh) * | 2019-06-12 | 2020-12-17 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
CN113222148A (zh) * | 2021-05-20 | 2021-08-06 | 浙江大学 | 一种面向物料识别的神经网络推理加速方法 |
CN114004352A (zh) * | 2021-12-31 | 2022-02-01 | 杭州雄迈集成电路技术股份有限公司 | 一种仿真实现方法、神经网络编译器以及计算机可读存储介质 |
US11397579B2 (en) | 2018-02-13 | 2022-07-26 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
US11442786B2 (en) | 2018-05-18 | 2022-09-13 | Shanghai Cambricon Information Technology Co., Ltd | Computation method and product thereof |
US11513586B2 (en) | 2018-02-14 | 2022-11-29 | Shanghai Cambricon Information Technology Co., Ltd | Control device, method and equipment for processor |
US11544059B2 (en) | 2018-12-28 | 2023-01-03 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Signal processing device, signal processing method and related products |
US11609760B2 (en) | 2018-02-13 | 2023-03-21 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11676029B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
WO2023164858A1 (en) * | 2022-03-03 | 2023-09-07 | Intel Corporation | Decimal-bit network quantization of convolutional neural network models |
US11762690B2 (en) | 2019-04-18 | 2023-09-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11847554B2 (en) | 2019-04-18 | 2023-12-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11966583B2 (en) | 2018-08-28 | 2024-04-23 | Cambricon Technologies Corporation Limited | Data pre-processing method and device, and related computer device and storage medium |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
US20160328647A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
CN107239829A (zh) * | 2016-08-12 | 2017-10-10 | 北京深鉴科技有限公司 | 一种优化人工神经网络的方法 |
CN107480770A (zh) * | 2017-07-27 | 2017-12-15 | 中国科学院自动化研究所 | 可调节量化位宽的神经网络量化与压缩的方法及装置 |
US20180018560A1 (en) * | 2016-07-14 | 2018-01-18 | Manuel SALDANA | Systems, methods and devices for data quantization |
CN107688855A (zh) * | 2016-08-12 | 2018-02-13 | 北京深鉴科技有限公司 | 针对于复杂神经网络的分层量化方法与装置 |
CN107844830A (zh) * | 2016-12-08 | 2018-03-27 | 上海兆芯集成电路有限公司 | 具有数据大小和权重大小混合计算能力的神经网络单元 |
-
2018
- 2018-04-11 CN CN201810319586.6A patent/CN108510067B/zh active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20160328647A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
CN105760933A (zh) * | 2016-02-18 | 2016-07-13 | 清华大学 | 卷积神经网络的逐层变精度定点化方法及装置 |
US20180018560A1 (en) * | 2016-07-14 | 2018-01-18 | Manuel SALDANA | Systems, methods and devices for data quantization |
CN107239829A (zh) * | 2016-08-12 | 2017-10-10 | 北京深鉴科技有限公司 | 一种优化人工神经网络的方法 |
CN107688855A (zh) * | 2016-08-12 | 2018-02-13 | 北京深鉴科技有限公司 | 针对于复杂神经网络的分层量化方法与装置 |
US20180046894A1 (en) * | 2016-08-12 | 2018-02-15 | DeePhi Technology Co., Ltd. | Method for optimizing an artificial neural network (ann) |
CN107844830A (zh) * | 2016-12-08 | 2018-03-27 | 上海兆芯集成电路有限公司 | 具有数据大小和权重大小混合计算能力的神经网络单元 |
CN107480770A (zh) * | 2017-07-27 | 2017-12-15 | 中国科学院自动化研究所 | 可调节量化位宽的神经网络量化与压缩的方法及装置 |
Non-Patent Citations (6)
Title |
---|
BENOIT JACOB等: "Quantization and Training of Neural Networks for Efficient Integer-Arithmetic-Only Inference", 《ARXIV:1712.05877V1》 * |
DARRYL D. LIN等: "Fixed Point Quantization of Deep Convolutional Networks", 《ARXIV:1511.06393V3》 * |
DARRYL D. LIN等: "Overcoming challenges in fixed point training of deep convolutional networks", 《ARXIV:1607.02241V1》 * |
SUYOG GUPTA等: "Deep Learning with Limited Numerical Precision", 《ARXIV:1502.02551V1》 * |
张荣华等: "基于FPGA的神经系统高速仿真", 《第二十九届中国控制会议论文集》 * |
邓文齐等: "分簇架构处理器上卷积并行计算算法的研究", 《小型微型计算机系统》 * |
Cited By (42)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11437032B2 (en) | 2017-09-29 | 2022-09-06 | Shanghai Cambricon Information Technology Co., Ltd | Image processing apparatus and method |
US11740898B2 (en) | 2018-02-13 | 2023-08-29 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11704125B2 (en) | 2018-02-13 | 2023-07-18 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Computing device and method |
US11709672B2 (en) | 2018-02-13 | 2023-07-25 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11720357B2 (en) | 2018-02-13 | 2023-08-08 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11609760B2 (en) | 2018-02-13 | 2023-03-21 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11630666B2 (en) | 2018-02-13 | 2023-04-18 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11397579B2 (en) | 2018-02-13 | 2022-07-26 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11620130B2 (en) | 2018-02-13 | 2023-04-04 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11663002B2 (en) | 2018-02-13 | 2023-05-30 | Shanghai Cambricon Information Technology Co., Ltd | Computing device and method |
US11507370B2 (en) | 2018-02-13 | 2022-11-22 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Method and device for dynamically adjusting decimal point positions in neural network computations |
US11513586B2 (en) | 2018-02-14 | 2022-11-29 | Shanghai Cambricon Information Technology Co., Ltd | Control device, method and equipment for processor |
US11442785B2 (en) | 2018-05-18 | 2022-09-13 | Shanghai Cambricon Information Technology Co., Ltd | Computation method and product thereof |
US11442786B2 (en) | 2018-05-18 | 2022-09-13 | Shanghai Cambricon Information Technology Co., Ltd | Computation method and product thereof |
US11966583B2 (en) | 2018-08-28 | 2024-04-23 | Cambricon Technologies Corporation Limited | Data pre-processing method and device, and related computer device and storage medium |
US11703939B2 (en) | 2018-09-28 | 2023-07-18 | Shanghai Cambricon Information Technology Co., Ltd | Signal processing device and related products |
CN109472353A (zh) * | 2018-11-22 | 2019-03-15 | 济南浪潮高新科技投资发展有限公司 | 一种卷积神经网络量化电路及量化方法 |
WO2020118553A1 (zh) * | 2018-12-12 | 2020-06-18 | 深圳鲲云信息科技有限公司 | 一种卷积神经网络的量化方法、装置及电子设备 |
US11544059B2 (en) | 2018-12-28 | 2023-01-03 | Cambricon (Xi'an) Semiconductor Co., Ltd. | Signal processing device, signal processing method and related products |
CN109389212B (zh) * | 2018-12-30 | 2022-03-25 | 南京大学 | 一种面向低位宽卷积神经网络的可重构激活量化池化系统 |
CN109389212A (zh) * | 2018-12-30 | 2019-02-26 | 南京大学 | 一种面向低位宽卷积神经网络的可重构激活量化池化系统 |
CN109800865B (zh) * | 2019-01-24 | 2021-03-23 | 北京市商汤科技开发有限公司 | 神经网络生成及图像处理方法和装置、平台、电子设备 |
CN109800865A (zh) * | 2019-01-24 | 2019-05-24 | 北京市商汤科技开发有限公司 | 神经网络生成及图像处理方法和装置、平台、电子设备 |
CN111695671B (zh) * | 2019-03-12 | 2023-08-08 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
CN111695671A (zh) * | 2019-03-12 | 2020-09-22 | 北京地平线机器人技术研发有限公司 | 训练神经网络的方法及装置、电子设备 |
US11762690B2 (en) | 2019-04-18 | 2023-09-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11847554B2 (en) | 2019-04-18 | 2023-12-19 | Cambricon Technologies Corporation Limited | Data processing method and related products |
US11934940B2 (en) | 2019-04-18 | 2024-03-19 | Cambricon Technologies Corporation Limited | AI processor simulation |
CN110222821B (zh) * | 2019-05-30 | 2022-03-25 | 浙江大学 | 基于权重分布的卷积神经网络低位宽量化方法 |
CN110222821A (zh) * | 2019-05-30 | 2019-09-10 | 浙江大学 | 基于权重分布的卷积神经网络低位宽量化方法 |
WO2020248424A1 (zh) * | 2019-06-12 | 2020-12-17 | 上海寒武纪信息科技有限公司 | 一种神经网络的量化参数确定方法及相关产品 |
US11676028B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11675676B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
US11676029B2 (en) | 2019-06-12 | 2023-06-13 | Shanghai Cambricon Information Technology Co., Ltd | Neural network quantization parameter determination method and related products |
CN110309877B (zh) * | 2019-06-28 | 2021-12-07 | 北京百度网讯科技有限公司 | 一种特征图数据的量化方法、装置、电子设备及存储介质 |
CN110309877A (zh) * | 2019-06-28 | 2019-10-08 | 北京百度网讯科技有限公司 | 一种特征图数据的量化方法、装置、电子设备及存储介质 |
CN110717585B (zh) * | 2019-09-30 | 2020-08-25 | 上海寒武纪信息科技有限公司 | 神经网络模型的训练方法、数据处理方法和相关产品 |
CN110717585A (zh) * | 2019-09-30 | 2020-01-21 | 上海寒武纪信息科技有限公司 | 神经网络模型的训练方法、数据处理方法和相关产品 |
CN110837890A (zh) * | 2019-10-22 | 2020-02-25 | 西安交通大学 | 一种面向轻量级卷积神经网络的权值数值定点量化方法 |
CN113222148A (zh) * | 2021-05-20 | 2021-08-06 | 浙江大学 | 一种面向物料识别的神经网络推理加速方法 |
CN114004352A (zh) * | 2021-12-31 | 2022-02-01 | 杭州雄迈集成电路技术股份有限公司 | 一种仿真实现方法、神经网络编译器以及计算机可读存储介质 |
WO2023164858A1 (en) * | 2022-03-03 | 2023-09-07 | Intel Corporation | Decimal-bit network quantization of convolutional neural network models |
Also Published As
Publication number | Publication date |
---|---|
CN108510067B (zh) | 2021-11-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108510067A (zh) | 基于工程化实现的卷积神经网络量化方法 | |
CN110516085B (zh) | 基于双向注意力的图像文本互检索方法 | |
CN106529569B (zh) | 基于深度学习的三维模型三角面特征学习分类方法及装置 | |
CN108985250A (zh) | 一种基于多任务网络的交通场景解析方法 | |
CN108537192A (zh) | 一种基于全卷积网络的遥感影像地表覆盖分类方法 | |
CN107944556A (zh) | 基于块项张量分解的深度神经网络压缩方法 | |
CN106600595A (zh) | 一种基于人工智能算法的人体特征尺寸自动测量方法 | |
CN109655815B (zh) | 基于ssd的声呐目标检测方法 | |
CN111259940A (zh) | 一种基于空间注意力地图的目标检测方法 | |
US11893491B2 (en) | Compound model scaling for neural networks | |
CN109242092B (zh) | 图像处理方法和装置、电子设备、存储介质 | |
CN107292458A (zh) | 一种应用于神经网络芯片的预测方法和预测装置 | |
CN107679572A (zh) | 一种图像判别方法、存储设备及移动终端 | |
CN107680044A (zh) | 一种图像超分辨率卷积神经网络加速计算方法 | |
CN115238893B (zh) | 面向自然语言处理的神经网络模型量化方法和装置 | |
CN112101487B (zh) | 一种细粒度识别模型的压缩方法和设备 | |
CN114677548A (zh) | 基于阻变存储器的神经网络图像分类系统及方法 | |
CN108629412A (zh) | 一种基于无网格最大互信息准则的神经网络训练加速方法 | |
CA3232610A1 (en) | Convolution attention network for multi-label clinical document classification | |
CN109948575A (zh) | 超声图像中眼球区域分割方法 | |
CN110082822B (zh) | 利用卷积神经网络进行地震检测的方法 | |
CN112800851B (zh) | 基于全卷积神经元网络的水体轮廓自动提取方法及系统 | |
CN116453096A (zh) | 图像异物检测方法、装置、电子设备和存储介质 | |
US20220245923A1 (en) | Image information detection method and apparatus and storage medium | |
CN112215241B (zh) | 一种基于小样本学习的图像特征提取装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |