CN118095371A - 一种基于低秩字典的大模型量化算法 - Google Patents

一种基于低秩字典的大模型量化算法 Download PDF

Info

Publication number
CN118095371A
CN118095371A CN202410239722.6A CN202410239722A CN118095371A CN 118095371 A CN118095371 A CN 118095371A CN 202410239722 A CN202410239722 A CN 202410239722A CN 118095371 A CN118095371 A CN 118095371A
Authority
CN
China
Prior art keywords
quantization
dictionary
weight
rank
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202410239722.6A
Other languages
English (en)
Inventor
李武军
蔡文朴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nanjing University
Original Assignee
Nanjing University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nanjing University filed Critical Nanjing University
Priority to CN202410239722.6A priority Critical patent/CN118095371A/zh
Publication of CN118095371A publication Critical patent/CN118095371A/zh
Pending legal-status Critical Current

Links

Landscapes

  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明公开一种基于低秩字典的大模型量化算法,采用训练后权重量化算法对大模型进行压缩。为了解决在量化比特较低时大模型量化性能下降明显的问题,本发明引入低秩的量化字典量化权重,设置量化字典的秩大于1,不再限制量化字典的秩为1,从而增强了量化字典的表达能力,减小了模型的量化损失。基于梯度的优化算法优化量化字典参数。通过二次量化的方法进一步压缩量化字典参数,使得增大字典的秩带来的额外存储开销很小。本发明可以适用现有主流大模型的压缩,可以把大模型权重从原有的16比特量化到小于4比特。在自然语言生成任务上和零样本推理任务上可以取得较小的性能损失,且在3比特时可以取得接近原模型的性能。

Description

一种基于低秩字典的大模型量化算法
技术领域
本发明涉及一种基于低秩字典的大模型量化方法,适用于当前主流大模型的压缩。通过将模型权重量化到低比特,减小大模型极高的存储开销,减小大模型的推理延迟。
背景技术
近年来,GPT等一系列大模型的兴起,在多种模态的数据以及理解和生成等多种任务上展现了超越以往模型的卓越性能。但是大模型的存储和计算开销对比以往的模型也呈现巨大的增长,例如GPT模型可以达到175B的参数。因此一系列大模型压缩算法被提出。
权重量化算法不仅可以减小模型的存储开销,还可以通过减小访存开销降低推理延迟。尽管大模型权重量化在4比特量化的条件下已经可以取得接近原模型的性能,但是在更低比特的情况下依然和原模型的性能差距较大。通常来说每个通道/层的压缩误差会逐渐累积,由于在压缩率较高时每个线性层的量化误差较大,而这个误差会逐层累积,从而导致大模型最终输出的误差较大,因此在量化比特较低时大模型量化性能下降明显。
发明内容
发明目的:针对现有技术中存在的问题与不足,本发明提供一种基于低秩字典的大模型量化算法,本发明通过量化大模型的权重减少了大模型的存储开销,同时本发明能缓解在量化比特较低时大模型量化性能下降明显的问题。
技术方案:一种基于低秩字典的大模型量化算法,引入低秩的量化字典量化权重,设置量化字典的秩大于1,不再限制量化字典的秩为1,从而增强了量化字典的表达能力,减小了模型的量化损失。进一步地,基于梯度的优化算法优化量化字典参数。进一步地,引入了二次量化的方法进一步压缩量化字典参数,使得增大字典的秩带来的额外存储开销很小。
所述的基于低秩字典的大模型量化算法,引入低秩的量化字典,具体步骤为:
步骤100,获取当前模型块的预训练权重对于其中一个线性层权重的一个子块对权重进行分组量化,定义权重W的分组大小G,权重W的分组数目为NG,量化偏移量/>量化的索引记为/>NQ=2b为每个分组的量化字典对应的量化值数目,其中b为比特数。当前模型块的所有校准样本的全精度输入特征为其中/>代表第i个校准样本对应的全精度输入特征,NX为校准样本总数。
步骤101,将量化字典的秩设置为大于1,也就是采用多个缩放向量和量化点集向量而不是一个,从而增强了量化字典的表达能力,更好地适应不同权重分组的不同分布,减小了模型的量化损失。本发明定义量化字典的缩放参数定义量化点集参数/>Si是S中的第i行,代表一个缩放向量,Vi是V中的第i行,代表一个量化点集向量,其中ND代表秩的大小,ND可以大于1。
步骤102,计算量化字典,量化字典C由S,V通过矩阵乘法得到,字典根据函数Φ(S,V,B)计算得到,具体定义如下:
C=Φ(S,V,B)=STV-B
步骤103,根据量化字典得到当前权重的量化结果,把每个权重量化到距离最近的量化值:
其中Zi,j为量化索引Z的第i行,第j列对应的元素。Wi,j为权重W的第i行,第j列对应的元素,为Wi,j的量化结果。Ci,k为量化字典C的第i行,第k列对应的元素,Ci为量化字典C的第i行。Q(Wi,j,Ci)为量化函数。
步骤104,定义每个模型块的优化目标,最小化当前模型块量化权重的输出和不量化权重的输出的差值的F-范数:
其中S,V,B对应到一个Transformer模型块的参数记为为一个Transformer模型块的所有权重,函数h(·)代表一个Transformer模型块。
所述步骤104中优化目标,采用了一种基于梯度的优化算法优化这个目标,求解最优的字典参数,具体步骤为:
步骤200,对量化函数Q(Wi,j,Ci)的梯度进行近似。首先,将量化函数重写为多段相加的形式:
排序函数πi(·):N+→N+,把一个正整数的索引映射到另外一个正整数的索引,负责对量化字典Ci按照从小到大排序。clip(x,0,1)函数把输入x限制在[0,1]之内。其中阶跃函数是一个逐元素函数,起到离散化权重的作用,定义如下:
为了解决阶跃函数梯度几乎处处为零的问题,对阶跃函数/>的反向传播函数采用STE近似,定义如下:
然后通过链式法则得到量化权重WQ对S,B,V的梯度
步骤201,量化参数重参数化把量化参数S,B,V分别重参数化为
首先对于S采用重参数化技巧解决量化参数中数值相差较大难以收敛的问题,把权重的范围从S中解耦出来,对第i分组权重Wi对应的缩放参数S*,i(S*,i为S的第i列对应的参数)进行重参数化,可以写为如下形式:
其中为/>的第i列对应的参数。
然后重参数化B,首先定义参数B′如下(B′i为B′的第i行):
其中为/>的第i行,然后需要根据B′i计算偏移量Bi,保证在使用偏移量Bi时数值0是包含在量化值Ci中,偏移量Bi的计算公式为Bi=Q(B′i,C′i),其中/>
最后重参数化V,由于权重的范围已经由S所表示,V不需要再表示权重的范围,因此重参数化表示如下:
步骤202,采用AWQ AWQ:Activaiton-aware Weight Quantization for LLMCompression and Acceleration.Ji Lin et.al arXiv’2023)的结果初始化具体步骤如下:运行AWQ算法,得到量化字典参数S1,B′,V1,根据S1,B′,V1和步骤201中的三个重参数化函数/> 对应的反函数分别计算出对应的/>具体形式如下:
其中为/>的第i个元素,/>为/>的第i行,arctanh为tanh的反函数。
对于剩余参数,初始化为全零,/>采用标准高斯分布的等分位点初始化。
所述的基于低秩字典的大模型量化算法,引入了二次量化的方法进一步压缩量化字典参数,使得增大字典的秩带来的额外存储开销很小,具体步骤为:
步骤301,定义二次量化的优化目标,最小化F-范数量化误差:
其中Sdq,Vdq,Bdq为二次量化的量化参数,分别为二次量化的缩放参数、二次量化的量化点集参数和二次量化的偏移量。
步骤302,通过网格搜索找到S对应的二次量化参数,然后固定。
步骤303,再通过网格搜索V对应的二次量化参数。
所述的基于低秩字典的大模型量化算法,最后需要把量化字典S,V和量化索引Z存储到计算机的硬盘上,不需要存储原来的全精度权重W。量化字典S,V通常是一个分组的权重共享,参数数目相比权重W自身的参数数目少很多,同时量化索引Z可以把每个权重编码到小于4比特,而原来的全精度权重W是采用16比特编码,因此最终的存储开销得到了极大地降低。在推理时根据量化参数S,V和量化索引Z解码得到量化权重WQ,由于解码时只读取当前层的量化参数S,V和量化索引Z到计算机内存中,读取的参数量相比直接读取全精度权重的参数量降低很多,因此也可以降低推理时的访存开销。
有益效果:本发明通过引入低秩的量化字典,增强了量化字典的表达能力,减小了模型的量化损失,从而解决在量化比特较低时大模型量化性能下降明显的问题。本发明可以适用现有主流大模型的压缩,例如GPT,LLama,本发明可以把大模型权重从原有的16比特量化到小于4比特(如2比特、3比特),不仅可以减小大模型极高的存储开销,还可以通过减小访存开销降低大模型的推理延迟。在自然语言生成任务上和零样本推理任务上对比以往的大模型量化算法可以取得较小的性能损失,且在3比特时可以取得接近原模型的性能。
附图说明
图1为本发明的低秩量化字典示意图;
图2为本发明的优化算法总体流程图;
图3为本发明的重参数化方法示意图;
图4为本发明的二次量化方法流程图。
具体实施方式
下面结合具体实施例,进一步阐明本发明,应理解这些实施例仅用于说明本发明而不用于限制本发明的范围,在阅读了本发明之后,本领域技术人员对本发明的各种等价形式的修改均落于本申请所附权利要求所限定的范围。
基于低秩字典的大模型量化算法,低秩量化字典示意图如图1所示。本发明将量化字典的秩设置为大于1,也就是采用多个缩放向量和量化点集向量而不是一个,从而增强了量化字典的表达能力,更好地适应不同权重分组的不同分布,减小了模型的量化损失。本发明定义量化字典的缩放参数和量化点集参数: 然后计算量化字典,量化字典C由S,V通过矩阵乘法得到,形式化定义如下:C=Φ(S,V,B)=STV-B。最后根据量化字典得到当前权重的量化结果,把每个权重量化到距离最近的量化值。
基于低秩字典的大模型量化算法,优化算法总体流程如图2所示。每个模型块的量化参数单独求解。对于第i个模型块,首先获取当前模型块的全精度输入特征作为训练样本,然后每次从中随机采样一个批量的输入特征,计算得到步骤104中的目标函数,之后根据步骤200中的梯度近似算法计算梯度,通过梯度下降优化模型中的量化参数。由于本发明对量化参数进行了重参数化(如步骤201所述),把S,B,V参数重参数化为因此量化参数的更新是在/>上进行的,重参数化示意图如图3所示。梯度下降达到指定轮数之后结束当前模型块的优化,对量化参数S,V进行二次量化并保存。二次量化算法流程图如图4所示,二次量化采用均匀量化算法,二次量化首先通过网格搜索找到S对应的二次量化参数,然后固定,再通过网格搜索V对应的二次量化参数,二次量化算法采用最小化F-范数量化误差作为优化目标。循环优化每个模型块的量化参数,直到所有的模型块都优化完一遍,优化流程结束。
具体实施的方法步骤为:
步骤100,获取当前模型块的预训练权重对于其中一个线性层权重的一个子块对权重进行分组量化,定义权重W的分组大小G,权重W的分组数目为NG,量化偏移量/>量化的索引记为/>NQ=2b为每个分组的量化字典对应的量化值数目,其中b为比特数。当前模型块的所有校准样本的全精度输入特征为其中/>代表第i个校准样本对应的全精度输入特征,NX为校准样本总数。
步骤101,将量化字典的秩设置为大于1,也就是采用多个缩放向量和量化点集向量而不是一个,从而增强了量化字典的表达能力,更好地适应不同权重分组的不同分布,减小了模型的量化损失。本发明定义量化字典的缩放参数定义量化点集参数/>Si是S中的第i行,代表一个缩放向量,Vi是V中的第i行,代表一个量化点集向量,其中ND代表秩的大小,ND可以大于1。
步骤102,计算量化字典,量化字典C由S,V通过矩阵乘法得到,字典根据函数Φ(S,V,B)计算得到,具体定义如下:
C=Φ(S,V,B)=STV-B
步骤103,根据量化字典得到当前权重的量化结果,把每个权重量化到距离最近的量化值:
其中Zi,j为量化索引Z的第i行,第j列对应的元素。Wi,j为权重W的第i行,第j列对应的元素,为Wi,j的量化结果。Ci,k为量化字典C的第i行,第k列对应的元素,Ci为量化字典C的第i行。Q(Wi,j,Ci)为量化函数。
步骤104,定义每个模型块的优化目标,最小化当前模型块量化权重的输出和不量化权重的输出的差值的F-范数:
其中S,V,B对应到一个Transformer模型块的参数记为为一个Transformer模型块的所有权重,函数h(·)代表一个Transformer模型块。
步骤104中优化目标,采用了一种基于梯度的优化算法优化这个目标,求解最优的字典参数,具体步骤为:
步骤200,对量化函数Q(Wi,j,Ci)的梯度进行近似。首先,将量化函数重写为多段相加的形式:
排序函数πi(·):N+→N+,把一个正整数的索引映射到另外一个正整数的索引,负责对量化字典Ci按照从小到大排序。clip(x,0,1)函数把输入x限制在[0,1]之内。其中阶跃函数是一个逐元素函数,起到离散化权重的作用,定义如下:
为了解决阶跃函数梯度几乎处处为零的问题,对阶跃函数/>的反向传播函数采用STE近似,定义如下:
然后通过链式法则得到量化权重WQ对S,B,V的梯度
步骤201,量化参数重参数化把量化参数S,B,V分别重参数化为
首先对于S采用重参数化技巧解决量化参数中数值相差较大难以收敛的问题,把权重的范围从S中解耦出来,对第i分组权重Wi对应的缩放参数S*,i(S*,i为S的第i列对应的参数)进行重参数化,可以写为如下形式:
其中为/>的第i列对应的参数。
然后重参数化B,首先定义参数B′如下(B′i为B′的第i行):
其中为/>的第i行,然后需要根据B′i计算偏移量Bi,保证在使用偏移量Bi时数值0是包含在量化值Ci中,偏移量Bi的计算公式为Bi=Q(B′i,C′i),其中/>
最后重参数化V,由于权重的范围已经由S所表示,V不需要再表示权重的范围,因此重参数化表示如下:
步骤202,采用AWQ的结果初始化具体步骤如下:运行AWQ算法,得到量化字典参数S1,B′,V1,根据S1,B′,V1和步骤201中的三个重参数化函数/> 对应的反函数分别计算出对应的/>具体形式如下:
其中为/>的第i个元素,/>为/>的第i行,arctanh为tanh的反函数。
对于剩余参数,初始化为全零,/>采用标准高斯分布的等分位点初始化。
引入二次量化的方法进一步压缩量化字典参数,使得增大字典的秩带来的额外存储开销很小,具体步骤为:
步骤301,定义二次量化的优化目标,最小化F-范数量化误差:
其中Sdq,Vdq,Bdq为二次量化的量化参数,分别为二次量化的缩放参数、二次量化的量化点集参数和二次量化的偏移量。
步骤302,通过网格搜索找到S对应的二次量化参数,然后固定。
步骤303,再通过网格搜索V对应的二次量化参数。
最后需要把量化字典S,V和量化索引Z存储到计算机的硬盘上,不需要存储原来的全精度权重W。量化字典S,V通常是一个分组的权重共享,参数数目相比权重W自身的参数数目少很多,同时量化索引Z可以把每个权重编码到小于4比特,而原来的全精度权重W是采用16比特编码,因此最终的存储开销得到了极大地降低。在推理时根据量化参数S,V和量化索引Z解码得到量化权重WQ,由于解码时只读取当前层的量化参数S,V和量化索引Z到计算机内存中,读取的参数量相比直接读取全精度权重的参数量降低很多,因此也可以降低推理时的访存开销。
本发明在一些公开的数据集上进行了实验,数据集包括wikitext2、c4、ptb,采用ppl(perplexity)指标评估模型预测下一个单词的能力,评估模型的自然语言生成能力。本发明也对比了量化模型在零样本推理任务上的性能,采用了几个常用的数据集:PIQA、ARC_easy、WinoGrande。实验对比了目前已有的最好方法,已有的最好方法是发表在2024年计算机项级会ICLR上的论文OmniQuant(Wenqi Shao et.al.OmniQuant:OmnidirectionallyCalibrated Quantization for Large Language Models.ICLR’2024)以及在arXiv上的受到广泛关注的论文AWQ(Ji Lin et.al.AWQ:Activaiton-aware Weight Quantization forLLM Compression and Acceleration.arXiv’2023)。实验结果表明,对比以往的方法,本发明能够在相同的压缩率下取得更好的模型效果,在更低的压缩率下可以取得更为明显的性能提升(例如在零样本任务上采用2比特量化可以取得平均4%的性能提升),验证了本文提出的低秩字典的有效性。

Claims (5)

1.一种基于低秩字典的大模型量化算法,其特征在于,引入低秩的量化字典量化权重,设置量化字典的秩大于1;基于梯度的优化算法优化量化字典参数;引入了二次量化的方法进一步压缩量化字典参数,使得增大字典的秩带来的额外存储开销很小。
2.根据权利要求1所述的基于低秩字典的大模型量化算法,其特征在于,引入低秩的量化字典量化权重,具体步骤为:
步骤100,获取当前模型块的预训练权重对于其中一个线性层权重的一个子块对权重进行分组量化,定义权重W的分组大小G,权重W的分组数目为NG,量化偏移量/>量化的索引记为/>NQ=2b为每个分组的量化字典对应的量化值数目,其中b为比特数;当前模型块的所有校准样本的全精度输入特征为其中/>代表第i个校准样本对应的全精度输入特征,NX为校准样本总数;
步骤101,将量化字典的秩设置为大于1,定义量化字典的缩放参数: 定义量化点集参数:/>其中ND代表秩的大小,ND大于1;
步骤102,计算量化字典,量化字典由S,V通过矩阵乘法得到,字典根据函数Φ(S,V,B)计算得到,具体定义如下:
C=Φ(S,V,B)=STV-B
步骤103,根据量化字典得到当前权重的量化结果,把每个权重量化到距离最近的量化值:
其中Zi,j为量化索引Z的第i行,第j列对应的元素;Wi,j为权重W的第i行,第j列对应的元素,为Wi,j的量化结果;Ci,k为量化字典C的第i行,第k列对应的元素,Ci为量化字典C的第i行;Q(Wi,j,Ci)为量化函数;
步骤104,定义每个模型块的优化目标,最小化当前模型块量化权重的输出和不量化权重的输出的差值的F-范数:
其中S,V,B对应到一个Transformer模型块的参数记为 为一个Transformer模型块的所有权重,函数h(·)代表一个Transformer模型块。
3.根据权利要求1所述的基于低秩字典的大模型量化算法,其特征在于,所述步骤104中优化目标,采用了一种基于梯度的优化算法优化这个目标,求解最优的字典参数,具体步骤为:
步骤200,对量化函数Q(Wi,j,Ci)的梯度进行近似;首先,将量化函数等价地重写为多段相加的形式:
排序函数πi(·):N+→N+,把一个正整数的索引映射到另外一个正整数的索引,负责对量化字典Ci按照从小到大排序;cliμ(x,0,1)函数把输入x限制在[0,1]之内;其中阶跃函数是一个逐元素函数,定义如下:
对阶跃函数的反向传播函数采用STE近似,定义如下:
然后通过链式法则得到量化权重WQ对S,B,V的梯度
步骤201,量化参数重参数化把量化参数S,B,V分别重参数化为
首先重参数化S,把权重的范围从S中解耦出来;对第i分组权重Wi对应的缩放参数S*,i进行重参数化,S*,i为S的第i列对应的参数,写为如下形式:
其中为/>的第i列对应的参数。
然后重参数化B,首先定义参数B′如下(B′i为B′的第i行):
其中为/>的第i行,然后需要根据B′i计算偏移量Bi,保证在使用偏移量Bi时数值0是包含在量化值Ci中,偏移量Bi的计算公式为Bi=Q(B′i,C′i),其中/>
最后重参数化V,由于权重的范围已经由S表示,V不需要再表示权重的范围,因此重参数化表示如下:
步骤202,采用AWQ的结果初始化具体步骤如下:运行AWQ算法,得到量化字典参数S1,B′,V1,根据S1,B′,V1和步骤201中的三个重参数化函数/> 对应的反函数分别计算出对应的/>具体形式如下:
其中为/>的第i个元素,/>为/>的第i行,arctanh为tanh的反函数;
对于剩余参数,初始化为全零,/>采用标准高斯分布的等分位点初始化。
4.根据权利要求1所述的基于低秩字典的大模型量化算法,其特征在于,引入了二次量化的方法进一步压缩量化字典参数,具体步骤为:
步骤301,定义二次量化的优化目标,以缩放参数S的二次量化为例,最小化F-范数量化误差:
其中Sdq,Vdq,Bdq为二次量化的量化参数,分别为二次量化的缩放参数、二次量化的量化点集参数和二次量化的偏移量;
步骤302,通过网格搜索找到S对应的二次量化参数,然后固定;
步骤303,再通过网格搜索V对应的二次量化参数。
5.根据权利要求1所述的基于低秩字典的大模型量化算法,其特征在于,最后需要把量化字典S,V和量化索引Z存储到计算机的硬盘上,不需要存储原来的全精度权重W;在推理时根据量化参数S,V和量化索引Z解码得到量化权重WQ
CN202410239722.6A 2024-03-04 2024-03-04 一种基于低秩字典的大模型量化算法 Pending CN118095371A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202410239722.6A CN118095371A (zh) 2024-03-04 2024-03-04 一种基于低秩字典的大模型量化算法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202410239722.6A CN118095371A (zh) 2024-03-04 2024-03-04 一种基于低秩字典的大模型量化算法

Publications (1)

Publication Number Publication Date
CN118095371A true CN118095371A (zh) 2024-05-28

Family

ID=91163429

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202410239722.6A Pending CN118095371A (zh) 2024-03-04 2024-03-04 一种基于低秩字典的大模型量化算法

Country Status (1)

Country Link
CN (1) CN118095371A (zh)

Similar Documents

Publication Publication Date Title
CN110378468B (zh) 一种基于结构化剪枝和低比特量化的神经网络加速器
CN107239825B (zh) 考虑负载均衡的深度神经网络压缩方法
KR101152707B1 (ko) 다단계 양자화 방법 및 장치
CN108304928A (zh) 基于改进聚类的深度神经网络的压缩方法
KR20040027041A (ko) 벡터 양자화를 위한 고속 탐색방법
CN110718211B (zh) 一种基于混合压缩卷积神经网络的关键词识别系统
CN113741858B (zh) 存内乘加计算方法、装置、芯片和计算设备
CN110020721B (zh) 一种基于参数压缩的目标检测深度学习网络优化方法
JP5006404B2 (ja) ベクトル量子化装置
US11531884B2 (en) Separate quantization method of forming combination of 4-bit and 8-bit data of neural network
CN113269312A (zh) 一种联合量化与剪枝搜索的模型压缩方法及其系统
JP5584203B2 (ja) 数値データの処理方法
CN111523637A (zh) 一种信息保留网络的生成方法及装置
Yang et al. Dtqatten: Leveraging dynamic token-based quantization for efficient attention architecture
Lowry et al. Binary search trees for vector quantisation
CN118095371A (zh) 一种基于低秩字典的大模型量化算法
CN116227563A (zh) 一种基于数据量化的卷积神经网络压缩与加速方法
CN113590748B (zh) 基于迭代网络组合的情感分类持续学习方法及存储介质
CN110830044B (zh) 基于稀疏最小二乘优化的数据压缩方法
CN110674335B (zh) 一种基于多生成多对抗的哈希码与图像双向转换方法
CN112308215A (zh) 基于神经网络中数据稀疏特性的智能训练加速方法及系统
CN112734021A (zh) 一种基于位稀疏计算的神经网络加速方法
JP2011522497A (ja) 規則的点ネットワークにおけるベクトルをカウントする方法
CN112396178B (zh) 一种提高cnn网络压缩效率的方法
CN112800268B (zh) 图像视觉特征的量化与近似最近邻搜索方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination