CN109102064B - 一种高精度的神经网络量化压缩方法 - Google Patents

一种高精度的神经网络量化压缩方法 Download PDF

Info

Publication number
CN109102064B
CN109102064B CN201810668567.4A CN201810668567A CN109102064B CN 109102064 B CN109102064 B CN 109102064B CN 201810668567 A CN201810668567 A CN 201810668567A CN 109102064 B CN109102064 B CN 109102064B
Authority
CN
China
Prior art keywords
quantization
layer
data
index
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810668567.4A
Other languages
English (en)
Other versions
CN109102064A (zh
Inventor
葛益军
王军
朱旭东
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zhejiang Xinmai Microelectronics Co ltd
Original Assignee
Hangzhou Xiongmai Integrated Circuit Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hangzhou Xiongmai Integrated Circuit Technology Co Ltd filed Critical Hangzhou Xiongmai Integrated Circuit Technology Co Ltd
Priority to CN201810668567.4A priority Critical patent/CN109102064B/zh
Publication of CN109102064A publication Critical patent/CN109102064A/zh
Application granted granted Critical
Publication of CN109102064B publication Critical patent/CN109102064B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开的是一种高精度的神经网络量化压缩方法,该方法包括如下步骤:统计数据范围并对数据范围向内压缩以保证准确率不变的情况下每一层的数据范围向内压缩到最小;采用无符号的索引量化代替有符号的值量化以提升运算精度,避免造成量化空间浪费;采用索引代替真实值进行计算已进行索引和值之间的转换,本发明可以将量化宽度压缩到8比特及其以下的同时保存很高的计算精度,对最终的影响非常小,可以使得深度学习网络模型可以在嵌入式设备上得以部署运行。

Description

一种高精度的神经网络量化压缩方法
技术领域
本发明涉及一种压缩方法,更具体一点说,涉及一种高精度的神经网络量化压缩方法,属于人工智能神经网络深度学习技术领域。
背景技术
近年来,在语音、图像和自然语言处理等领域,深度学习的发展逐渐成熟并得到了广泛的应用,尤其是受到动物视觉模型启发而发明的卷积神经网络(ConvolutionalNeural Networks,CNN)在计算机视觉领域得到最为广泛的使用。目前的卷神经网络模型在著名的ImageNet问题上已经取得了世界性的最好结果,其使得对于图像识别的领域研究更进一步,对于现在的深度学习网络模型已经能够理解和识别一般的自然图像,但是深度学习网络模型在落地过程中还存在一些限制,因为深度学习网络模型的层数深、参数多、计算量大,所以往广大的嵌入式终端设备上部署的时候,在存储空间、计算资源和内存消耗等多个方面都遇到瓶颈,要想让深度学习网络模型可以在嵌入式终端设备上落地,必须对浮点模型进行量化和压缩,就是用低位宽(小于8bit)的定点数来代替浮点运算。
传统的量化压缩方案基本步骤如下:首先,选取一批测试样本进行前向运算以统计数据范围,然后再根据统计所得的数据范围决定对应的定点位置Qn,保证数据都不溢出,再然后采用公式xq=(int)x·2Q将浮点数据转成对应的定点数据,再用转换后的定点值进行卷积运算。其中Q格式表示为Qm.n,表示数据用m比特表示整数部分,n比特表示小数部分,共需要m+n+1位来表示这个数据,多余的一位用作符号位,假设小数点在n位的左边(从右向左数),从而确定小数的精度。例如Q15表示小数部分有15位,一个short型数据,占2个字节,最高位是符号位,后面15位是小数位,就假设小数点在第15位左边,表示的范围是:-1<X<0.9999695。
传统的量化压缩方案存在如下几个问题:1)精度不够高,当位宽大于16比特的时候和浮点版本误差不大,效果尚可,但当位宽小于8比特时则和浮点版本相差误差已经较大,在效果上也下降明显;2)压缩不充分,因为没有充分考虑挖掘CNN网络的特点,比如CNN网络中存在大量的类似于卷积加激活(Conv+Relu)这样的基本网络结构,而Relu之后的数据特征肯定是大于零的,如果按照传统方法逐层量化,至少符号位是没有用的,这样就会造成位宽的浪费。
发明内容
本发明目的在于解决现有技术问题,提供可以将量化位宽压缩到8比特及其以下,同时也可以保存很高的计算精度,对最终效果影响非常小,深度学习网络模型可以在嵌入式设备上得以部署运行等技术特点的一种高精度的神经网络量化压缩方法。
本发明一种高精度的神经网络量化压缩方法,该方法包括如下步骤:
S1:统计数据范围并对数据范围向内压缩:选取部分样本数据作为测试集输入的神经网络,对测试集中的神经网络从输入层到隐藏层再到输出层前向计算一遍,将输出层获得的准确率作为基准分;统计每一层的数据范围,获得最大值fmax、最小值fmin和设定的量化位宽bw,根据每一层数据的最大值fmax、最小值fmin和量化位宽bw分别计算获得一个搜索步长,采用每一层获得的搜索步长对每一层数据范围进行向内收缩搜索以节省量化空间和范围,并对每一层数据搜索都在测试集上计算出一次准确率,选择测试集上计算获得的的最大准确率与基准分进行比较,当偏差大于设定的阈值则停止搜索;
S2:网络量化压缩:根据每一层数据的最大值fmax、最小值fmin和量化位宽bw分别计算获得每一层数据的量化步长,并通过每一层数据的量化步长、最小值fmin以及最大值fmax、最小值fmin间的浮点值fdata计算获得浮点值fdata对应的无符号索引以实现采用无符号的索引量化;
S3:基于索引前向计算:基于索引前向计算:计算出无符号索引和该无符号索引对应的浮点值fdata之间的系数偏差C1和直流偏差C2以快速、便捷完成无符号索引到浮点值fdata的转换,并采用所述无符号索引代替对应的浮点值fdata进行网络运算。
作为一种改进,对数据范围向内压缩基于学习框架caffe,所述前向计算为采用浮点算法进行计算测试集中每一层的数据。
作为一种改进,所述量化步长计算公式为fstep=(fmax-fmin)/(2^bw),所述计算量化索引公式为index=(fdata-fmin)/fstep。
有益效果:本发明可以将量化宽度压缩到8比特及其以下的同时保存很高的计算精度,对最终的影响非常小;可以使得深度学习网络模型可以在嵌入式设备上得以部署运行;通过对数据范围向内压缩,获得节省量化空间和范围。
附图说明
图1是本发明流程示意图。
图2是本发明实施例1中索引代替真实值进行计算的卷积示意图。
具体实施方式
以下结合说明书附图,对本发明作进一步说明,但本发明并不局限于以下实施例。
实施例1本发明一种高精度的神经网络量化压缩方法,该方法包括如下步骤:
S1:统计数据范围并对数据范围向内压缩:选取部分样本数据作为测试集输入的神经网络,先使用未量化压缩的浮点版本网络模型对测试集中的神经网络从输入层到隐藏层再到输出层前向计算一遍,从输出层获得准确率,这个准确率也就是图1中所示的基准分,如在Caffe平台上通过Accuracy输出层就可以统计得到这个测试集的准确率,以这个准确率作为后续自适应搜索过程中的基准;统计测试集中神经网络每一层的数据范围,获得神经网络每一层数据范围最大值fmax、最小值fmin和设定的量化位宽bw,根据神经网络每一层数据的最大值fmax、最小值fmin和量化位宽bw分别计算获得一个搜索步长(搜索步长fstep=(fmax-fmin)/(2^bw)),以这个搜索步长对对应的神经网络层数据范围进行压缩试探,即采用获得的搜索步长对对应的神经网络层的数据范围进行向内收缩搜索以节省量化空间和范围,其中每一次搜索都在测试集上计算一次最终的准确率,这个准确率也就是图1中所示的量化分,将获得的量化分与基准分进行比较(作为终止收缩探索判断依据),例如对第一层进行探索计算得到准确率a,对第二层进行探索计算得到准确率b,对第n层进行探索计算得到准确率n,选择最大的准确率最大的那层探索作为当前次的结果加以确认保存,将最大的准确率(量化分)和准确率(基准分)进行比较,若偏差大于设定的阈值则触发退出机制,停止搜索,以此保证了每一层数据范围向内压缩到了最小;
S2:网络量化压缩(采用无符号的索引量化代替有符号的值量化):根据神经网络每一层数据的最大值fmax、最小值fmin和量化位宽bw分别计算获得神经网络每一层数据的量化步长,并通过神经网络每一层数据的量化步长、最小值fmin以及最大值fmax、最小值fmin间的浮点值fdata计算获得浮点值fdata对应的无符号索引以实现采用无符号的索引量化,采用无符号索引可以充分填满最大值fmax到最小值fmin的数据范围,可以显著提升运算精度,避免造成量化空间浪费,量化步长计算公式fstep=(fmax-fmin)/(2^bw),量化索引计算公式为index=(fdata-fmin)/fstep,其中对于网络量化压缩也可以对网络层进行优化组合成网络块,以网络块为单位进行量化,参考CNN网络中的一些层的运算关系和数据,提取网络层和网络层之间的关系,并对网络层和网络层进行合理的组合以减少不必要的中间量化输出,实现层与层之间的量化流水,提升精度,如Conv+Relu(卷积+激活)网络结构在CNN网络中是非常普通的,Relu(激活)的运算特点就是直接截取正数部分,可以将Conv+Relu组合成一个网络块,只需要取Relu(激活)后的数据作为这个网络块的量化输出,不再对Conv(卷积)后的数据进行量化,这样可以显著的提升运算精度,针对Caffe中所定义的常用层的计算特征,提供一种组合标准:不需要跨通道计算的层都可以和其前面的层组合成网络块。例如,激活层、池化层、通道内归一化层等,可以组合成如下网络块:Conv+Relu、Conv+Pool、Conv+Relu+Pool等;
S3:基于索引前向计算(采用索引代替真实值进行计算):计算出无符号索引和该无符号索引对应的浮点值fdata之间的系数偏差C1和直流偏差C2,并采用所述无符号索引代替对应的浮点值fdata进行网络运算以方便索引和值之间的转换,如图2所示,包括权值参数、输入数据,所述权值参数为滤波器矩形系数,包括K11、K12、K13、K21、K22、K23、K31、K32、K33,输入数据为代替真实值的量化索引,包括D11、D12、D13、D21、D22、D23、D31、D32、D33,在对网络进行前向运算的时候,直接采用索引代替真实值进行计算,以图2为例,推导过程如下:
以第一行计算为例
Y11=K11*D11+K12*D12+...+K13*D13+K21*D21+K22*D22+...+K23*D23+K31*D31+K32*D32+...+K33*D33+Bias1 【式1】
其中:Y是输出数据;K是权值参数(卷积滤波器的滤波系数);D是输入数据;Bias1是偏置参数(卷积滤波器的直流偏置系数)。
D=fstep*Dindex+fmin
其中:D表示值,Dindex表示量化索引。
代入【式1】则:变换为
Y11=K11*(fstep*Dindex11+fmin)+K12*(fstep*Dindex12+fmin)+…+K33*(fstep*Dindex33+fmin)+Bias1 【式2】
合并同类项则:
Y11=fstep*(K11*Dindex11+K12*Dindex12+K13*Dindex13+K21*Dindex21+K22*Dindex22+K23*Dindex23+K31*Dindex31+K32*Dindex32+K33*Dindex33)+fmin*(K11+K12+K13++K21+K22+K23+K31+K32+K33)+Bias1
设:C1=fstep
C2=fmin*(K11+K12+K13++K21+K22+K23+K31+K32+K33)+Bias1
得:Y11=C1*[(K11*D11_index+...+K13*D13_index)+(K21*D21_index+...+K23*D23_index)+(K31*D31_index+...+K33*D33_index)]+C2 【式3】
其中C1和C2是可计算所得的固定常数,可以用浮点保留高精度。因此实际在进行网络计算的时候,只需要计算中间索引表示的那部分,既用索引代替值进行运算,最后在输出的时候,很容易完成索引和值之间的转换。
以上仅是本发明的优选实施方式,本发明的保护范围并不限于上述实施例,凡属于本发明思路下的技术方案均属于本发明保护范围。应当指出,对于本技术领域的普通技术人员来说,在不脱离本发明原理前提下的若干改进和润饰,这些改进和润饰也应视为本发明的保护范围。

Claims (3)

1.一种高精度的神经网络量化压缩方法,其特征在于该方法包括如下步骤:
S1:统计数据范围并对数据范围向内压缩:选取部分样本数据作为测试集输入的神经网络,对测试集中的神经网络从输入层到隐藏层再到输出层前向计算一遍,将输出层获得的准确率作为基准分;统计每一层的数据范围,获得最大值fmax、最小值fmin和设定的量化位宽bw,根据每一层数据的最大值fmax、最小值fmin和量化位宽bw分别计算获得一个搜索步长,采用每一层获得的搜索步长对每一层数据范围进行向内收缩搜索以节省量化空间和范围,并对每一层数据搜索都在测试集上计算出一次准确率,选择测试集上计算获得的最大准确率与基准分进行比较,当偏差大于设定的阈值则停止搜索;
S2:网络量化压缩:根据每一层数据的最大值fmax、最小值fmin和量化位宽bw分别计算获得每一层数据的量化步长,并通过每一层数据的量化步长、最小值fmin以及最大值fmax、最小值fmin间的浮点值fdata计算获得浮点值fdata对应的无符号索引以实现采用无符号的索引量化;
S3:基于索引前向计算:计算出无符号索引和该无符号索引对应的浮点值fdata之间的系数偏差C1和直流偏差C2以快速、便捷完成无符号索引到浮点值fdata的转换,并采用所述无符号索引代替对应的浮点值fdata进行网络运算。
2.根据权利要求1所述的一种高精度的神经网络量化压缩方法,其特征在于:对数据范围向内压缩基于学习框架caffe,所述前向计算为采用浮点算法进行计算测试集中每一层的数据。
3.根据权利要求1所述的一种高精度的神经网络量化压缩方法,其特征在于:所述量化步长计算公式为fstep=(fmax-fmin)/(2^bw),所述计算量化索引公式为index=(fdata-fmin)/fstep。
CN201810668567.4A 2018-06-26 2018-06-26 一种高精度的神经网络量化压缩方法 Active CN109102064B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810668567.4A CN109102064B (zh) 2018-06-26 2018-06-26 一种高精度的神经网络量化压缩方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810668567.4A CN109102064B (zh) 2018-06-26 2018-06-26 一种高精度的神经网络量化压缩方法

Publications (2)

Publication Number Publication Date
CN109102064A CN109102064A (zh) 2018-12-28
CN109102064B true CN109102064B (zh) 2020-11-13

Family

ID=64845054

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810668567.4A Active CN109102064B (zh) 2018-06-26 2018-06-26 一种高精度的神经网络量化压缩方法

Country Status (1)

Country Link
CN (1) CN109102064B (zh)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109740737B (zh) * 2018-12-30 2021-02-19 联想(北京)有限公司 卷积神经网络量化处理方法、装置及计算机设备
CN111563600B (zh) * 2019-02-14 2024-05-10 北京嘀嘀无限科技发展有限公司 一种用于定点转化的系统和方法
CN109800877B (zh) * 2019-02-20 2022-12-30 腾讯科技(深圳)有限公司 神经网络的参数调整方法、装置及设备
KR102152374B1 (ko) * 2019-02-25 2020-09-07 주식회사 딥엑스 인공신경망의 비트 양자화 방법 및 시스템
CN109993296B (zh) * 2019-04-01 2020-12-29 安徽寒武纪信息科技有限公司 量化实现方法及相关产品
CN111767204B (zh) * 2019-04-02 2024-05-28 杭州海康威视数字技术股份有限公司 溢出风险检测方法、装置及设备
CN110059822A (zh) * 2019-04-24 2019-07-26 苏州浪潮智能科技有限公司 一种基于通道分组低比特神经网络参数压缩量化方法
CN110245753A (zh) * 2019-05-27 2019-09-17 东南大学 一种基于幂指数量化的神经网络压缩方法
CN112085192B (zh) * 2019-06-12 2024-03-29 上海寒武纪信息科技有限公司 一种神经网络的量化参数确定方法及相关产品
CN110322414B (zh) * 2019-07-05 2021-08-10 北京探境科技有限公司 一种基于ai处理器的图像数据在线量化矫正方法及系统
CN112561779B (zh) * 2019-09-26 2023-09-29 北京字节跳动网络技术有限公司 图像风格化处理方法、装置、设备及存储介质
US11263518B2 (en) * 2019-10-04 2022-03-01 International Business Machines Corporation Bi-scaled deep neural networks
CN111783957B (zh) * 2020-07-02 2024-05-03 厦门美图之家科技有限公司 模型量化训练方法、装置、机器可读存储介质及电子设备
CN112488291B (zh) * 2020-11-03 2024-06-04 珠海亿智电子科技有限公司 一种神经网络8比特量化压缩方法
CN112862096A (zh) * 2021-02-04 2021-05-28 百果园技术(新加坡)有限公司 一种模型训练和数据处理方法、装置、设备及介质
CN114676830B (zh) * 2021-12-31 2024-06-14 浙江芯劢微电子股份有限公司 一种基于神经网络编译器的仿真实现方法

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106485316A (zh) * 2016-10-31 2017-03-08 北京百度网讯科技有限公司 神经网络模型压缩方法以及装置
CN107122809A (zh) * 2017-04-24 2017-09-01 北京工业大学 基于图像自编码的神经网络特征学习方法
CN107229967A (zh) * 2016-08-22 2017-10-03 北京深鉴智能科技有限公司 一种基于fpga实现稀疏化gru神经网络的硬件加速器及方法
CN107239825A (zh) * 2016-08-22 2017-10-10 北京深鉴智能科技有限公司 考虑负载均衡的深度神经网络压缩方法
CN107480770A (zh) * 2017-07-27 2017-12-15 中国科学院自动化研究所 可调节量化位宽的神经网络量化与压缩的方法及装置
CN107967515A (zh) * 2016-10-19 2018-04-27 三星电子株式会社 用于神经网络量化的方法和设备
CN107967517A (zh) * 2016-10-19 2018-04-27 三星电子株式会社 用于神经网络量化的方法和设备
CN108133266A (zh) * 2017-12-12 2018-06-08 北京信息科技大学 一种基于非均匀量化的神经网络权值压缩方法及使用方法

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10685285B2 (en) * 2016-11-23 2020-06-16 Microsoft Technology Licensing, Llc Mirror deep neural networks that regularize to linear networks

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107229967A (zh) * 2016-08-22 2017-10-03 北京深鉴智能科技有限公司 一种基于fpga实现稀疏化gru神经网络的硬件加速器及方法
CN107239825A (zh) * 2016-08-22 2017-10-10 北京深鉴智能科技有限公司 考虑负载均衡的深度神经网络压缩方法
CN107967515A (zh) * 2016-10-19 2018-04-27 三星电子株式会社 用于神经网络量化的方法和设备
CN107967517A (zh) * 2016-10-19 2018-04-27 三星电子株式会社 用于神经网络量化的方法和设备
CN106485316A (zh) * 2016-10-31 2017-03-08 北京百度网讯科技有限公司 神经网络模型压缩方法以及装置
CN107122809A (zh) * 2017-04-24 2017-09-01 北京工业大学 基于图像自编码的神经网络特征学习方法
CN107480770A (zh) * 2017-07-27 2017-12-15 中国科学院自动化研究所 可调节量化位宽的神经网络量化与压缩的方法及装置
CN108133266A (zh) * 2017-12-12 2018-06-08 北京信息科技大学 一种基于非均匀量化的神经网络权值压缩方法及使用方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
神经网络模型压缩方法综述;曹文龙等;《计算机应用研究》;20180417(第3期);第649-656页 *

Also Published As

Publication number Publication date
CN109102064A (zh) 2018-12-28

Similar Documents

Publication Publication Date Title
CN109102064B (zh) 一种高精度的神经网络量化压缩方法
Tan et al. Mnasnet: Platform-aware neural architecture search for mobile
Yang et al. A method to estimate the energy consumption of deep neural networks
CN111667054B (zh) 生成神经网络模型的方法、装置、电子设备以及存储介质
CN109543816B (zh) 一种基于权重捏合的卷积神经网络计算方法和系统
TWI785227B (zh) 深度神經網絡中批量標準化層修剪的方法
CN109840589B (zh) 一种在fpga上运行卷积神经网络的方法和装置
CN108304928A (zh) 基于改进聚类的深度神经网络的压缩方法
CN110874625B (zh) 一种数据处理方法及装置
CN109947940B (zh) 文本分类方法、装置、终端及存储介质
CN112381205A (zh) 一种神经网络低比特量化方法
CN112466285B (zh) 离线语音识别方法、装置、电子设备及存储介质
CN113111889A (zh) 用于边缘计算端的目标检测网络处理方法
CN114418086B (zh) 压缩神经网络模型的方法、装置
CN114154626B (zh) 一种用于图像分类任务的滤波器剪枝方法
CN114781650A (zh) 一种数据处理方法、装置、设备以及存储介质
Zhang et al. Three-dimensional convolutional neural network pruning with regularization-based method
CN114092708A (zh) 特征图像的处理方法、装置和存储介质
CN110837885B (zh) 一种基于概率分布的Sigmoid函数拟合方法
CN109286817B (zh) 一种视频编码中dct系数的量化失真信息处理方法
CN116187416A (zh) 一种基于层剪枝灵敏度的迭代式重训练方法及一种图像处理器
CN116306808A (zh) 一种联合动态剪枝和条件卷积的卷积神经网络压缩方法及装置
WO2022247368A1 (en) Methods, systems, and mediafor low-bit neural networks using bit shift operations
CN112488291B (zh) 一种神经网络8比特量化压缩方法
CN115147283A (zh) 一种图像重建方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
CB02 Change of applicant information

Address after: 311400 4th floor, building 9, Yinhu innovation center, No. 9, Fuxian Road, Yinhu street, Fuyang District, Hangzhou City, Zhejiang Province

Applicant after: Hangzhou xiongmai integrated circuit technology Co.,Ltd.

Address before: 311422 four floor, 9 floor, Silver Lake innovation centre, 9 Fu Fu Road, Fuyang Lake District, Hangzhou, Zhejiang.

Applicant before: HANGZHOU XIONGMAI INTEGRATED CIRCUIT TECHNOLOGY Co.,Ltd.

CB02 Change of applicant information
GR01 Patent grant
GR01 Patent grant
CP03 Change of name, title or address

Address after: 311422 4th floor, building 9, Yinhu innovation center, 9 Fuxian Road, Yinhu street, Fuyang District, Hangzhou City, Zhejiang Province

Patentee after: Zhejiang Xinmai Microelectronics Co.,Ltd.

Address before: 311400 4th floor, building 9, Yinhu innovation center, No.9 Fuxian Road, Yinhu street, Fuyang District, Hangzhou City, Zhejiang Province

Patentee before: Hangzhou xiongmai integrated circuit technology Co.,Ltd.

CP03 Change of name, title or address