CN113408724A - 模型压缩方法及装置 - Google Patents

模型压缩方法及装置 Download PDF

Info

Publication number
CN113408724A
CN113408724A CN202110673860.1A CN202110673860A CN113408724A CN 113408724 A CN113408724 A CN 113408724A CN 202110673860 A CN202110673860 A CN 202110673860A CN 113408724 A CN113408724 A CN 113408724A
Authority
CN
China
Prior art keywords
network model
assigned
layer
node
compressed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110673860.1A
Other languages
English (en)
Inventor
孙强
陈瑞侠
刘恩甫
刘胜
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Bozhon Precision Industry Technology Co Ltd
Original Assignee
Bozhon Precision Industry Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bozhon Precision Industry Technology Co Ltd filed Critical Bozhon Precision Industry Technology Co Ltd
Priority to CN202110673860.1A priority Critical patent/CN113408724A/zh
Publication of CN113408724A publication Critical patent/CN113408724A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Evolutionary Biology (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

本发明实施例公开了一种模型压缩方法及装置,该方法包括:获取待压缩网络模型以及目标压缩比;根据所述目标压缩比确定节点压缩方式,并且基于所述节点压缩方式以及所述目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型;根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点对应的权重值;基于各权重值以及所述待赋值网络模型,确定目标压缩网络模型。通过本发明实施例的技术方案,实现了对深度学习模型的压缩,节约模型占用资源的技术效果。

Description

模型压缩方法及装置
技术领域
本发明实施例涉及数据处理技术,尤其涉及一种模型压缩方法及装置。
背景技术
随着深度学习的普及,在计算机视觉,语音识别,自然语言处理等领域中各种深度学习模型都得到了广泛的应用。
但是,由于深度学习模型的网络规模越来越大,模型越来越复杂,深度学习模型的存储就会占用较大的空间,在进行运算时,耗费的计算资源过大,时间过长。并且,移植和部署这些深度学习模型时也会存在速度过慢,甚至无法移植和部署的情况。
目前,模型压缩往往存在定制化的现象,没有一个统一的通用化的压缩算法,可以覆盖视觉,语音,编码器等诸多领域,使算法开发和模型压缩互不干扰。
发明内容
本发明实施例提供了一种模型压缩方法及装置,以实现对深度学习模型的压缩,节约模型占用资源的技术效果。
第一方面,本发明实施例提供了一种模型压缩方法,该方法包括:
获取待压缩网络模型以及目标压缩比;
根据所述目标压缩比确定节点压缩方式,并且基于所述节点压缩方式以及所述目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型;
根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点对应的权重值;
基于各权重值以及所述待赋值网络模型,确定目标压缩网络模型。
第二方面,本发明实施例还提供了一种模型压缩装置,该装置包括:
待压缩网络模型模型获取模块,用于获取待压缩网络模型以及目标压缩比;
待赋值网络模型确定模块,用于根据所述目标压缩比确定节点压缩方式,并且基于所述节点压缩方式以及所述目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型;
权重值确定模块,用于根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点对应的权重值;
目标压缩网络模型确定模块,用于基于各权重值以及所述待赋值网络模型,确定目标压缩网络模型。
第三方面,本发明实施例还提供了一种电子设备,所述电子设备包括:
一个或多个处理器;
存储装置,用于存储一个或多个程序,
当所述一个或多个程序被所述一个或多个处理器执行,使得所述一个或多个处理器实现如本发明实施例任一所述的模型压缩方法。
第四方面,本发明实施例还提供了一种计算机可读存储介质,其上存储有计算机程序,该程序被处理器执行时实现如本发明实施例任一所述的模型压缩方法。
本发明实施例的技术方案,通过获取待压缩网络模型以及目标压缩比,并根据目标压缩比确定节点压缩方式,以使模型压缩效果符合目标压缩比,基于节点压缩方式以及目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型,根据待压缩网络模型以及待赋值网络模型,确定与待赋值网络模型中各待赋值节点对应的权重值,并基于各权重值以及待赋值网络模型,确定目标压缩网络模型,解决了深度学习模型占用存储空间大,模型使用时资源耗费多的问题,实现了对深度学习模型的压缩,节约模型占用资源的技术效果。
附图说明
为了更加清楚地说明本发明示例性实施例的技术方案,下面对描述实施例中所需要用到的附图做一简单介绍。显然,所介绍的附图只是本发明所要描述的一部分实施例的附图,而不是全部的附图,对于本领域普通技术人员,在不付出创造性劳动的前提下,还可以根据这些附图得到其他的附图。
图1为本发明实施例一所提供的一种模型压缩方法的流程示意图;
图2为本发明实施例二所提供的一种模型压缩方法的流程示意图;
图3为本发明实施例三所提供的一种模型压缩方法的流程示意图;
图4为本发明实施例四所提供的一种模型压缩装置的结构示意图;
图5为本发明实施例五所提供的一种电子设备的结构示意图。
具体实施方式
下面结合附图和实施例对本发明作进一步的详细说明。可以理解的是,此处所描述的具体实施例仅仅用于解释本发明,而非对本发明的限定。另外还需要说明的是,为了便于描述,附图中仅示出了与本发明相关的部分而非全部结构。
实施例一
图1为本发明实施例一所提供的一种模型压缩方法的流程示意图,本实施例可适用于在对深度学习模型建立和存储时,对模型进行压缩的情况,该方法可以由模型压缩装置来执行,该装置可以通过软件和/或硬件的形式实现,该硬件可以是电子设备,可选的,电子设备可以是移动终端等。
如图1所述,本实施例的方法具体包括如下步骤:
S110、获取待压缩网络模型以及目标压缩比。
其中,待压缩网络模型可以是完整的深度学习网络模型,目标压缩比可以是根据需求设定的压缩比,也可以是用户输入的压缩比。
具体的,用户在完成深度学习网络模型构建之后,可以将完整的深度学习网络模型作为待压缩网络模型,并设置目标压缩比。若用户并未设置目标压缩比,则可以选择默认压缩比作为目标压缩比,如:30%等。当检测到用户输入待压缩网络模型以及目标压缩比完成,可以获取待压缩网络模型以及目标压缩比以用于模型压缩。
S120、根据目标压缩比确定节点压缩方式,并且基于节点压缩方式以及目标压缩比对待压缩网络模型进行压缩,得到待赋值网络模型。
其中,节点压缩方式可以是后续进行模型压缩时使用的节点的删除方式,可以包括待压缩网络模型中的每个层中的节点删除的方式,还可以包括删除整个层的节点删除方式等。待赋值网络模型可以是针对待压缩网络模型删除部分节点后的结构所构建的无权重值的网络模型。
具体的,根据目标压缩比可以确定对待压缩网络模型进行压缩时所使用的节点压缩方式。进而,可以根据节点压缩方式对待压缩网络模型进行压缩,以获取无权重值的网络模型结构,并使压缩后的网络模型结构达到目标压缩比,将压缩后的模型结构作为待赋值网络模型。
可选的,可以通过下述方式确定节点压缩方式:
若目标压缩比小于或等于预设压缩比,则确定节点压缩方式为层内节点删除方式;若目标压缩比大于预设压缩比,则确定节点压缩方式为层内节点和层删除方式。
其中,预设压缩比可以是两种节点压缩方式的区分值。层内节点删除方式可以是从待压缩网络模型的各个层内删除节点的方式。层内节点和层删除方式可以是既删除待压缩网络模型中的某些层,又删除剩余层中的节点的方式。
具体的,若目标压缩比小于或等于预设压缩比,则表明需要删除的节点数量并不多,可以依靠删除层内节点的方式进行节点压缩,就可以确定节点压缩方式为层内节点删除方式。若目标压缩比大于预设压缩比,则表明需要删除的节点数量较多,只删除层内节点可能会严重影响模型的效果。此时,可以抽取某些模型层进行整层的删除,以使节点压缩后的模型既能够符合目标压缩比的要求,又能够达到降低模型精度损失的效果,就可以确定节点压缩方式为层内节点和层删除方式。
分别以两中节点压缩方式为例,介绍如何基于节点压缩方式以及目标压缩比对待压缩网络模型进行压缩,得到待赋值网络模型:
1、节点压缩方式为层内节点删除方式。
步骤一、针对待压缩网络模型的每个待压缩层,确定待压缩层的层节点数量。
其中,待压缩层可以是待压缩网络模型中的各个层结构。
具体的,根据待压缩网络模型可以得到待压缩网络模型的各个待压缩层,针对每一个待压缩层,都可以计算出层节点数量。
步骤二、根据层节点数量以及目标压缩比,确定保留节点数量。
其中,保留节点数量可以是压缩后,各待压缩层中剩余节点的数量。
具体的,根据每个层节点数量和目标压缩比的乘积可以确定出每个待压缩层中剩余节点的数量,即保留节点数量。
示例性的,某一个待压缩网络模型的一个待压缩层的层节点数量为100个,目标压缩比为20%,那么,可以确定需要删除的节点数量为20个,剩余节点的数量为80个,即保留节点数量为80。
步骤三、根据各待压缩层所对应的保留节点数量,构建待赋值网络模型。
具体的,在确定各待压缩层所对应的保留节点数量后,可以根据这些保留节点数量,构建新的网络模型结构,并将这个新的网络模型结构作为待赋值网络模型。
2、节点压缩方式为层内节点和层删除方式。
步骤一、根据待压缩网络模型以及目标压缩比,确定至少一个待删除层,并将各待删除层从待压缩网络模型中删除,得到待处理网络模型。
其中,待删除层可以是全部节点都需要删除的待压缩层。
具体的,根据目标压缩比可以确定当前需要删除的待压缩层的数量。进而,可以确定待删除层在待压缩网络模型中的具体位置,进而构建待处理网络模型。
示例性的,某一个待压缩网络模型包括100个待压缩层,目标压缩比为50%,预设压缩比为30%。此时可以确定30%左右的节点可以通过层内节点删除方式删除,但是剩余的20%左右的节点需要通过删除层的方式删除。可以先粗略确定待删除层数为20%与待压缩层数的乘积,即确定20个待压缩层为待删除层。在确定待删除层数后,可以从各待压缩层中均匀的,或以其他选择方式选择待删除层。进而,可以确定待删除层的总节点数量是否能够达到20%,若超过20%,且小于或等于50%,则进行下一步骤;若未超过20%,则增加一个待删除层,重新计算待删除层的总节点数量,直至待删除层的总节点数量超过20%,且小于或等于50%;若大于50%,则减少一个待删除层,重新计算待删除层的总节点数量,直至待删除层的总节点数量超过20%,且小于或等于50%。
步骤二、根据待压缩网络模型,待处理网络模型以及目标压缩比,确定待保留节点比例。
其中,待保留节点比例可以是剩余的各待处理层中可以保留的节点的比例。
具体的,可以确定待处理网络模型中的节点总数,还可以确定待压缩网络模型中的节点总数,此时,可以确定还需要删除的节点数量。根据还需要删除的节点数量,可以确定当前的待处理网络模型中的保留节点比例。
示例性的,待压缩网络模型中包含1000个节点,待处理网络模型中包含700个节点,目标压缩比为50%。此时,可以知道还需要删除的节点数量为200个。根据还需要删除的节点数量和待处理网络模型中的节点数量可以计算得到待保留节点比例为200/700=28.57%。
需要说明的是,本示例只是列举了一种计算待保留节点比例的算法,还可以通过其他计算方式得到待保留节点比例,在本实施例中不做具体限定。
步骤三、针对待处理网络模型的每个待处理层,确定待处理层的层节点数量。
具体的,确定待保留节点比例之后,可以确定待处理网络模型的每个待处理层中包含的层节点数量。
步骤四、根据层节点数量以及待保留节点比例,确定保留节点数量。
具体的,将层节点数量与待保留节点比例相乘,可以确定保留节点数量。通过上述方式,可以确定各待处理层所对应的保留节点数量。
步骤五、根据各待处理层所对应的保留节点数量,构建待赋值网络模型。
具体的,在确定各待处理层所对应的保留节点数量之后,可以重新构建各个层结构,并将层结构进行连接,以构建不包含权重值的待赋值网络模型。
S130、根据待压缩网络模型以及待赋值网络模型,确定与待赋值网络模型中各待赋值节点对应的权重值。
其中,待赋值节点可以是待赋值网络模型中的各未赋权重值的节点。待赋值网络模型可以由多个待赋值层构成,每个待赋值层可以由多个待赋值节点构成。
具体的,根据待压缩网络模型和待赋值网络模型,可以确定待压缩网络模型中与待赋值网络模型中的各个待赋值层相对应的待压缩层,即确定待赋值网络模型中各待赋值层所对应的原来的层结构。由于待压缩网络模型中的各个节点是具有权重值的,因此,可以根据这些权重值确定待赋值网络模型中各待赋值节点的权重值。
以待赋值网络模型中的任一待赋值层为例,可以先确定与该待赋值层相对应的待压缩网络模型中的待压缩层。此时,待赋值层的层节点数量应当小于或等于待压缩层的层节点数量。因此,可以将待压缩层的各节点按照权重值从大至小排列,确定待赋值层的层节点数量的权重值。并且,后续可以将确定出的权重值,按照待压缩层中的顺序,赋值给待赋值层中的各待赋值节点。
S140、基于各权重值以及待赋值网络模型,确定目标压缩网络模型。
其中,目标压缩网络模型可以是压缩后得到的网络模型。
具体的,将各权重值赋值给待赋值网络模型中的各待赋值节点,可以得到具有权重值的压缩网络模型,并将具有权重值的压缩网络模型作为目标压缩网络模型。
本发明实施例的技术方案,通过获取待压缩网络模型以及目标压缩比,并根据目标压缩比确定节点压缩方式,以使模型压缩效果符合目标压缩比,基于节点压缩方式以及目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型,根据待压缩网络模型以及待赋值网络模型,确定与待赋值网络模型中各待赋值节点对应的权重值,并基于各权重值以及待赋值网络模型,确定目标压缩网络模型,解决了深度学习模型占用存储空间大,模型使用时资源耗费多的问题,实现了对深度学习模型的压缩,节约模型占用资源的技术效果。
实施例二
图2为本发明实施例二所提供的一种模型压缩方法的流程示意图,本实施例在上述各实施例的基础上,针对权重值的确定方式可参见本实施例的技术方案。其中,与上述各实施例相同或相应的术语的解释在此不再赘述。
如图2所述,本实施例的方法具体包括如下步骤:
S210、获取待压缩网络模型以及目标压缩比。
S220、根据目标压缩比确定节点压缩方式,并且基于节点压缩方式以及目标压缩比对待压缩网络模型进行压缩,得到待赋值网络模型。
S230、根据待压缩网络模型以及待赋值网络模型,确定与待赋值网络模型中各待赋值节点所对应的待压缩网络模型中的各待处理节点。
其中,待处理节点可以是待压缩网络模型中的各节点。
具体的,可以从待压缩网络模型的待处理节点中确定出与待赋值网络模型中的各待赋值节点相对应的各节点,以用于后续赋予权重值。
可选的,可以基于下述步骤确定与待赋值网络模型中各待赋值节点所对应的待压缩网络模型中的各待处理节点:
步骤一、针对待赋值网络模型中的各待赋值层,确定与待赋值层相对应的待压缩网络模型中的待压缩层。
其中,待赋值层可以是待赋值网络模型中的各个层结构。
具体的,根据待压缩网络模型和待赋值网络模型,可以确定待压缩网络模型中与待赋值网络模型中的各个待赋值层相对应的待压缩层,即确定待赋值网络模型中各待赋值层所对应的原来的层结构。
步骤二、根据待赋值层中的待赋值节点数量以及与待压缩层中各待处理节点的权重值,确定待压缩层中的与待赋值层中的各待赋值节点相对应的待处理节点。
具体的,由于待压缩层中的各个待处理节点都具有相对应的权重值,因此,可以将这些权重值赋值给对应的待赋值节点。首先,可以确定待赋值层中的待赋值节点的数量,即确定所需要的权重值数量。进而,可以从与待赋值层相对应的待压缩层中确定所需要的权重值数量的权重值。可以是,将待压缩层中的权重值从大至小排列,确定排序靠前的待赋值节点的数量的权重值。并且,将确定出的权重值所对应的待处理节点作为与各待赋值节点相对应的待处理节点。
S240、将各待处理节点的权重值确定为各待赋值节点的权重值。
具体的,在确定待处理节点和待赋值节点的对应关系后,可以根据对应关系,将待处理节点的权重值确定为待赋值节点的权重值。
在深度学习网络模型中,通常包括卷积层以及与卷积层相对应的批量归一化层(Batch Normalization,BN),此时,可以简化权重值的赋值过程。具体可以是通过下述方式完成:
根据批量归一化层中各待处理节点所对应的权重值确定与批量归一化层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值以及与卷积层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。
其中,批量归一化层与卷积层是具有对应关系的。
具体的,由于确定批量归一化层的权重值相较于确定卷积层的权重值更为简单便捷,因此,可以根据对应关系将批量归一化层中的各待处理节点与卷积层中的各待处理节点进行对应,即可以将批量归一化层中的待处理节点作为索引,根据索引可以确定与批量归一化层对应的卷积层中的待处理节点。进而,可以将批量归一化层中的确定出的权重值作为与批量归一化层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。还可以根据批量归一化层中的确定出的权重值为索引,确定卷积层中对应的权重值,并将这些权重值作为与卷积层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。
需要说明的是,针对确定出的各待赋值节点的权重值,可以进行量化处理,以便于存储和后续计算。例如,量化前的权重值为32位浮点数据,量化后的权重值为固定位宽的量化数据。
可选的,可以通过下述步骤确定待赋值网络模型中的待赋值层中各待赋值节点的权重值:
步骤一、确定与批量归一化层相对应的待赋值网络模型中的待赋值层中的待赋值节点数量为第一节点数量。
其中,第一节点数量可以是与批量归一化层相对应的待赋值层中的待赋值节点数量,由于卷积层与批量归一化层是对应的,则第一节点数量也是与卷积层相对应的待赋值层中的待赋值节点数量。
具体的,可以确定与批量归一化层对应的待赋值层,进而,确定待赋值层中待赋值节点的数量为第一节点数量,即需要确定的权重值的数量。
步骤二、将批量归一化层中各待处理节点所对应的权重值从大至小进行排序,确定排序靠前的第一节点数量的权重值为第一节点权重值。
其中,第一节点权重值可以是从批量归一化层中的各权重值中选出的用于赋值给待赋值层的权重值。
具体的,可以将批量归一化层中各待处理节点所对应的权重值从大至小进行排序,选取排序靠前的第一节点数量的权重值作为第一节点权重值,以为与批量归一化层对应的待赋值层赋值。
步骤三、将各第一节点权重值作为与批量归一化层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。
具体的,确定各第一节点权重值所对应的待处理节点,根据这些待处理节点的排列顺序,将排序后的各第一节点权重值确定为与批量归一化层相对应的待赋值层中各待赋值节点的权重值。
步骤四、根据与各第一节点权重值对应的待处理节点确定卷积层中的各待处理节点,并将各待处理节点的权重值作为与卷积层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。
具体的,根据各第一节点权重值可以确定批量归一化层中的第一节点数量的待处理节点,进而,根据这些待处理节点可以确定卷积层中对应的待处理节点。可以认为,卷积层中的这些待处理节点的权重值就是与卷积层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。
S250、基于各权重值以及待赋值网络模型,确定目标压缩网络模型。
在上述各实施例的基础上,为了使压缩后的网络模型的效果与待压缩网络模型的效果相适应,可以对目标压缩网络模型进行微调,具体可以是:对目标压缩网络模型在训练集上进行训练,通过反向传播降低网络的训练误差,更新目标压缩网络模型中各待微调节点的权重值,确定目标已调整压缩网络模型。
其中,训练集可以是预先确定的数据集,也可以是建立待压缩网络模型时使用的训练数据集。待微调节点可以是目标压缩网络模型中的各节点。目标已调整压缩网络模型可以是经过网络微调后得到的模型。
具体的,由于节点压缩的过程中对部分节点进行删除,会导致目标压缩网络模型的准确率降低。为了弥补降低的准确率,可以对目标压缩网络模型进行微调,即在训练集上继续进行训练,通过反向传播进一步降低网络模型的训练误差,更新目标压缩网络模型中各待微调节点的权重值,还可以改变学习率等。
需要说明的是,可以预设模型精度损失阈值,以保证微调后的目标已调整压缩网络模型的精度在可接受的范围内。
本发明实施例的技术方案,通过获取待压缩网络模型以及目标压缩比,并根据目标压缩比确定节点压缩方式,以使模型压缩效果符合目标压缩比,基于节点压缩方式以及目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型,根据待压缩网络模型以及待赋值网络模型,确定,与待赋值网络模型中各待赋值节点所对应的待压缩网络模型中的各待处理节点,将各待处理节点的权重值确定为各待赋值节点的权重值,以准确的确定待赋值网络模型,基于各权重值以及待赋值网络模型,确定目标压缩网络模型,解决了深度学习模型占用存储空间大,模型使用时资源耗费多,对模型压缩后得到的模型效果不佳的问题,实现了在保证模型精度的前提下,对深度学习模型的压缩,节约模型占用资源的技术效果。
实施例三
作为上述各实施例的可选实施方案,图3为本发明实施例三所提供的一种模型压缩方法的流程示意图。其中,与上述各实施例相同或相应的术语的解释在此不再赘述。
如图3所述,本实施例的方法具体包括如下步骤:
1.获取未压缩模型(待压缩网络模型)。
具体的,可以是获取基于PyTorch(一个开源的Python机器学习库)框架的未压缩模型。若未压缩模型是其余框架模型的,则可以使用Open Neural Network Exchange(ONNX,开放神经网络交换)等工具转换得到未压缩模型。
2.设定压缩比(目标压缩比),计算未压缩模型在横纵方向上的层数和节点数。
具体的,可以预先设置压缩比,并根据未压缩模型确定模型的层数,以及各层中的节点数。
3.计算各层保留的节点权重,并赋值到新模型(待赋值网络模型)。
具体的,可以根据节点压缩方式确定未压缩模型中可以保留下来的节点,并将保留下来的节点组成新模型。进而,将保留下来的节点的权重赋值给新模型。
可选的,在赋值过程中可以对权重进行量化。
可选的,在计算各层保留的节点权重时,可以采用BN因子作为相应卷积层的判定条件。
需要说明的是,BN层的计算过程如下:
Figure BDA0003120269670000151
其中,μB和σB是激活值的均值和方差,ε为一个极小值常数,zin为BN层的输入值,
Figure BDA0003120269670000152
为归一化结果。
Figure BDA0003120269670000153
其中,γ和β是可训练的仿射变换参数(scale和shift),zout为BN层的输出值。
可以理解的是,在得到归一化结果后,由于限制了标准差,数据的分布特征发生了变化,进而,引入两个重构参数γ和β,通过学习到的重构参数重构出原始分布。
具体的,对未压缩模型的BN层的权重进行从大到小排序,记录待赋值节点数量的权重,并将这些权重对应的节点作为BN层中的索引,根据索引可以获得卷积层中对应的权重。
4.输出压缩模型。
具体的,可以将赋值得到的新模型作为压缩模型,进行输出。
5.微调压缩模型。
具体的,为了获得最佳效果,可以对压缩模型进行微调,得到实用化的压缩模型。
6.输出实用化的压缩模型。
根据上述步骤可以实现模型压缩,表1为不同压缩比下,某一模型的尺寸,召回率以及推理速度对比表。可以看出,本发明实施例提供的模型压缩算法可以在较高压缩比的情况下,保证较高的召回率,节省了存储空间和计算时间。
表1
压缩比(Ratio) 尺寸(Size) 召回率(Recall) 推理速度(Speed)
0 246.4M 98.98% 230ms~250ms
25% 139.5M 98.54% 170ms~190ms
50% 57.6M 97.7% 100ms~130ms
本实施例的技术方案,通过获取未压缩模型,设定压缩比,计算未压缩模型在横纵方向上的层数和节点数,计算各层保留的节点权重,并赋值到新模型,以对未压缩模型进行压缩,进而,输出压缩模型并微调压缩模型,输出实用化的压缩模型,解决了深度学习模型在实际部署的时面临的速度过慢,精度不高的问题,实现了建立通用的模型压缩算法,推进模型小型化,提升模型部署能力的技术效果。
实施例四
图4为本发明实施例四所提供的一种模型压缩装置的结构示意图,该装置包括:待压缩网络模型模型获取模块410,待赋值网络模型确定模块420,权重值确定模块430和目标压缩网络模型确定模块440。
其中,待压缩网络模型模型获取模块410,用于获取待压缩网络模型以及目标压缩比;待赋值网络模型确定模块420,用于根据所述目标压缩比确定节点压缩方式,并且基于所述节点压缩方式以及所述目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型;权重值确定模块430,用于根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点对应的权重值;目标压缩网络模型确定模块440,用于基于各权重值以及所述待赋值网络模型,确定目标压缩网络模型。
可选的,所述节点压缩方式包括层内节点删除方式;待赋值网络模型确定模块420,还用于针对所述待压缩网络模型的每个待压缩层,确定待压缩层的层节点数量;根据所述层节点数量以及所述目标压缩比,确定保留节点数量;根据各待压缩层所对应的保留节点数量,构建待赋值网络模型。
可选的,所述节点压缩方式包括层内节点和层删除方式;待赋值网络模型确定模块420,还用于根据所述待压缩网络模型以及所述目标压缩比,确定至少一个待删除层,并将各待删除层从所述待压缩网络模型中删除,得到待处理网络模型;根据所述待压缩网络模型,所述待处理网络模型以及所述目标压缩比,确定待保留节点比例;针对所述待处理网络模型的每个待处理层,确定待处理层的层节点数量;根据所述层节点数量以及所述待保留节点比例,确定保留节点数量;根据各待处理层所对应的保留节点数量,构建待赋值网络模型。
可选的,权重值确定模块430,还用于根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点所对应的待压缩网络模型中的各待处理节点;将所述各待处理节点的权重值确定为各待赋值节点的权重值。
可选的,权重值确定模块430,还用于针对所述待赋值网络模型中的各待赋值层,确定与所述待赋值层相对应的待压缩网络模型中的待压缩层;根据所述待赋值层中的待赋值节点数量以及与所述待压缩层中各待处理节点的权重值,确定待压缩层中的与所述待赋值层中的各待赋值节点相对应的待处理节点。
可选的,待赋值网络模型确定模块420,还用于若所述目标压缩比小于或等于预设压缩比,则确定节点压缩方式为层内节点删除方式;若所述目标压缩比大于所述预设压缩比,则确定节点压缩方式为层内节点和层删除方式。
可选的,所述待压缩网络模型中包括卷积层以及与所述卷积层对应的批量归一化层;权重值确定模块430,还用于根据所述批量归一化层中各待处理节点所对应的权重值确定与所述批量归一化层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值以及与所述卷积层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。
可选的,权重值确定模块430,还用于确定与所述批量归一化层相对应的待赋值网络模型中的待赋值层中的待赋值节点数量为第一节点数量;将所述批量归一化层中各待处理节点所对应的权重值从大至小进行排序,确定排序靠前的第一节点数量的权重值为第一节点权重值;将各第一节点权重值作为与所述批量归一化层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值;根据与各第一节点权重值对应的待处理节点确定所述卷积层中的各待处理节点,并将所述各待处理节点的权重值作为与所述卷积层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。
可选的,所述装置还包括:微调模块,用于在所述确定目标压缩网络模型之后,对所述目标压缩网络模型在训练集上进行训练,通过反向传播降低网络的训练误差,更新所述目标压缩网络模型中各待微调节点的权重值,确定目标已调整压缩网络模型。
本发明实施例的技术方案,通过获取待压缩网络模型以及目标压缩比,并根据目标压缩比确定节点压缩方式,以使模型压缩效果符合目标压缩比,基于节点压缩方式以及目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型,根据待压缩网络模型以及待赋值网络模型,确定与待赋值网络模型中各待赋值节点对应的权重值,并基于各权重值以及待赋值网络模型,确定目标压缩网络模型,解决了深度学习模型占用存储空间大,模型使用时资源耗费多的问题,实现了对深度学习模型的压缩,节约模型占用资源的技术效果。
本发明实施例所提供的模型压缩装置可执行本发明任意实施例所提供的模型压缩方法,具备执行方法相应的功能模块和有益效果。
值得注意的是,上述装置所包括的各个单元和模块只是按照功能逻辑进行划分的,但并不局限于上述的划分,只要能够实现相应的功能即可;另外,各功能单元的具体名称也只是为了便于相互区分,并不用于限制本发明实施例的保护范围。
实施例五
图5为本发明实施例五所提供的一种电子设备的结构示意图。图5示出了适于用来实现本发明实施例实施方式的示例性电子设备50的框图。图5显示的电子设备50仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
如图5所示,电子设备50以通用计算设备的形式表现。电子设备50的组件可以包括但不限于:一个或者多个处理器或者处理单元501,系统存储器502,连接不同系统组件(包括系统存储器502和处理单元501)的总线503。
总线503表示几类总线结构中的一种或多种,包括存储器总线或者存储器控制器,外围总线,图形加速端口,处理器或者使用多种总线结构中的任意总线结构的局域总线。举例来说,这些体系结构包括但不限于工业标准体系结构(ISA)总线,微通道体系结构(MAC)总线,增强型ISA总线、视频电子标准协会(VESA)局域总线以及外围组件互连(PCI)总线。
电子设备50典型地包括多种计算机系统可读介质。这些介质可以是任何能够被电子设备50访问的可用介质,包括易失性和非易失性介质,可移动的和不可移动的介质。
系统存储器502可以包括易失性存储器形式的计算机系统可读介质,例如随机存取存储器(RAM)504和/或高速缓存存储器505。电子设备50可以进一步包括其它可移动/不可移动的、易失性/非易失性计算机系统存储介质。仅作为举例,存储系统506可以用于读写不可移动的、非易失性磁介质(图5未显示,通常称为“硬盘驱动器”)。尽管图5中未示出,可以提供用于对可移动非易失性磁盘(例如“软盘”)读写的磁盘驱动器,以及对可移动非易失性光盘(例如CD-ROM,DVD-ROM或者其它光介质)读写的光盘驱动器。在这些情况下,每个驱动器可以通过一个或者多个数据介质接口与总线503相连。系统存储器502可以包括至少一个程序产品,该程序产品具有一组(例如至少一个)程序模块,这些程序模块被配置以执行本发明各实施例的功能。
具有一组(至少一个)程序模块507的程序/实用工具508,可以存储在例如系统存储器502中,这样的程序模块507包括但不限于操作系统、一个或者多个应用程序、其它程序模块以及程序数据,这些示例中的每一个或某种组合中可能包括网络环境的实现。程序模块507通常执行本发明所描述的实施例中的功能和/或方法。
电子设备50也可以与一个或多个外部设备509(例如键盘、指向设备、显示器510等)通信,还可与一个或者多个使得用户能与该电子设备50交互的设备通信,和/或与使得该电子设备50能与一个或多个其它计算设备进行通信的任何设备(例如网卡,调制解调器等等)通信。这种通信可以通过输入/输出(I/O)接口511进行。并且,电子设备50还可以通过网络适配器512与一个或者多个网络(例如局域网(LAN),广域网(WAN)和/或公共网络,例如因特网)通信。如图所示,网络适配器512通过总线503与电子设备50的其它模块通信。应当明白,尽管图5中未示出,可以结合电子设备50使用其它硬件和/或软件模块,包括但不限于:微代码、设备驱动器、冗余处理单元、外部磁盘驱动阵列、RAID系统、磁带驱动器以及数据备份存储系统等。
处理单元501通过运行存储在系统存储器502中的程序,从而执行各种功能应用以及数据处理,例如实现本发明实施例所提供的模型压缩方法。
实施例六
本发明实施例六还提供一种包含计算机可执行指令的存储介质,所述计算机可执行指令在由计算机处理器执行时用于执行一种模型压缩方法,该方法包括:
获取待压缩网络模型以及目标压缩比;
根据所述目标压缩比确定节点压缩方式,并且基于所述节点压缩方式以及所述目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型;
根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点对应的权重值;
基于各权重值以及所述待赋值网络模型,确定目标压缩网络模型。
本发明实施例的计算机存储介质,可以采用一个或多个计算机可读的介质的任意组合。计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子(非穷举的列表)包括:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本文件中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。
计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。
计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括——但不限于无线、电线、光缆、RF等等,或者上述的任意合适的组合。
可以以一种或多种程序设计语言或其组合来编写用于执行本发明实施例操作的计算机程序代码,所述程序设计语言包括面向对象的程序设计语言—诸如Java、Smalltalk、C++,还包括常规的过程式程序设计语言——诸如“C”语言或类似的程序设计语言。程序代码可以完全地在用户计算机上执行、部分地在用户计算机上执行、作为一个独立的软件包执行、部分在用户计算机上部分在远程计算机上执行、或者完全在远程计算机或服务器上执行。在涉及远程计算机的情形中,远程计算机可以通过任意种类的网络——包括局域网(LAN)或广域网(WAN)—连接到用户计算机,或者,可以连接到外部计算机(例如利用因特网服务提供商来通过因特网连接)。
注意,上述仅为本发明的较佳实施例及所运用技术原理。本领域技术人员会理解,本发明不限于这里所述的特定实施例,对本领域技术人员来说能够进行各种明显的变化、重新调整和替代而不会脱离本发明的保护范围。因此,虽然通过以上实施例对本发明进行了较为详细的说明,但是本发明不仅仅限于以上实施例,在不脱离本发明构思的情况下,还可以包括更多其他等效实施例,而本发明的范围由所附的权利要求范围决定。

Claims (10)

1.一种模型压缩方法,其特征在于,包括:
获取待压缩网络模型以及目标压缩比;
根据所述目标压缩比确定节点压缩方式,并且基于所述节点压缩方式以及所述目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型;
根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点对应的权重值;
基于各权重值以及所述待赋值网络模型,确定目标压缩网络模型。
2.根据权利要求1所述的方法,其特征在于,所述节点压缩方式包括层内节点删除方式;
所述基于所述节点压缩方式以及所述目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型,包括:
针对所述待压缩网络模型的每个待压缩层,确定待压缩层的层节点数量;
根据所述层节点数量以及所述目标压缩比,确定保留节点数量;
根据各待压缩层所对应的保留节点数量,构建待赋值网络模型。
3.根据权利要求1所述的方法,其特征在于,所述节点压缩方式包括层内节点和层删除方式;
所述基于所述节点压缩方式以及所述目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型,包括:
根据所述待压缩网络模型以及所述目标压缩比,确定至少一个待删除层,并将各待删除层从所述待压缩网络模型中删除,得到待处理网络模型;
根据所述待压缩网络模型,所述待处理网络模型以及所述目标压缩比,确定待保留节点比例;
针对所述待处理网络模型的每个待处理层,确定待处理层的层节点数量;
根据所述层节点数量以及所述待保留节点比例,确定保留节点数量;
根据各待处理层所对应的保留节点数量,构建待赋值网络模型。
4.根据权利要求1所述的方法,其特征在于,所述根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点对应的权重值,包括:
根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点所对应的待压缩网络模型中的各待处理节点;
将所述各待处理节点的权重值确定为各待赋值节点的权重值。
5.根据权利要求4所述的方法,其特征在于,所述根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点所对应的待压缩网络模型中的各待处理节点,包括:
针对所述待赋值网络模型中的各待赋值层,确定与所述待赋值层相对应的待压缩网络模型中的待压缩层;
根据所述待赋值层中的待赋值节点数量以及与所述待压缩层中各待处理节点的权重值,确定待压缩层中的与所述待赋值层中的各待赋值节点相对应的待处理节点。
6.根据权利要求1所述的方法,其特征在于,所述根据所述目标压缩比确定节点压缩方式,包括:
若所述目标压缩比小于或等于预设压缩比,则确定节点压缩方式为层内节点删除方式;
若所述目标压缩比大于所述预设压缩比,则确定节点压缩方式为层内节点和层删除方式。
7.根据权利要求1所述的方法,其特征在于,所述待压缩网络模型中包括卷积层以及与所述卷积层对应的批量归一化层;
所述根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点对应的权重值,包括:
根据所述批量归一化层中各待处理节点所对应的权重值确定与所述批量归一化层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值以及与所述卷积层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。
8.根据权利要求7所述的方法,其特征在于,所述根据所述批量归一化层中各待处理节点所对应的权重值确定与所述批量归一化层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值以及与所述卷积层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值,包括:
确定与所述批量归一化层相对应的待赋值网络模型中的待赋值层中的待赋值节点数量为第一节点数量;
将所述批量归一化层中各待处理节点所对应的权重值从大至小进行排序,确定排序靠前的第一节点数量的权重值为第一节点权重值;
将各第一节点权重值作为与所述批量归一化层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值;
根据与各第一节点权重值对应的待处理节点确定所述卷积层中的各待处理节点,并将所述各待处理节点的权重值作为与所述卷积层相对应的待赋值网络模型中的待赋值层中各待赋值节点的权重值。
9.根据权利要求1所述的方法,其特征在于,在所述确定目标压缩网络模型之后,还包括:
对所述目标压缩网络模型在训练集上进行训练,通过反向传播降低网络的训练误差,更新所述目标压缩网络模型中各待微调节点的权重值,确定目标已调整压缩网络模型。
10.一种模型压缩装置,其特征在于,包括:
待压缩网络模型模型获取模块,用于获取待压缩网络模型以及目标压缩比;
待赋值网络模型确定模块,用于根据所述目标压缩比确定节点压缩方式,并且基于所述节点压缩方式以及所述目标压缩比对所述待压缩网络模型进行压缩,得到待赋值网络模型;
权重值确定模块,用于根据所述待压缩网络模型以及所述待赋值网络模型,确定与所述待赋值网络模型中各待赋值节点对应的权重值;
目标压缩网络模型确定模块,用于基于各权重值以及所述待赋值网络模型,确定目标压缩网络模型。
CN202110673860.1A 2021-06-17 2021-06-17 模型压缩方法及装置 Pending CN113408724A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110673860.1A CN113408724A (zh) 2021-06-17 2021-06-17 模型压缩方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110673860.1A CN113408724A (zh) 2021-06-17 2021-06-17 模型压缩方法及装置

Publications (1)

Publication Number Publication Date
CN113408724A true CN113408724A (zh) 2021-09-17

Family

ID=77685127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110673860.1A Pending CN113408724A (zh) 2021-06-17 2021-06-17 模型压缩方法及装置

Country Status (1)

Country Link
CN (1) CN113408724A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114647234A (zh) * 2022-05-23 2022-06-21 医链数科医疗科技(江苏)有限公司 一种基于物联网的医疗设备监控方法、装置及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108416187A (zh) * 2018-05-21 2018-08-17 济南浪潮高新科技投资发展有限公司 一种确定剪枝阈值的方法及装置、模型剪枝方法及装置
US20190205759A1 (en) * 2017-12-29 2019-07-04 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for compressing neural network
CN110728361A (zh) * 2019-10-15 2020-01-24 四川虹微技术有限公司 一种基于强化学习的深度神经网络压缩方法
CN111709516A (zh) * 2020-06-09 2020-09-25 深圳先进技术研究院 神经网络模型的压缩方法及压缩装置、存储介质、设备
CN112488313A (zh) * 2020-12-10 2021-03-12 电子科技大学 一种基于显式权重的卷积神经网络模型压缩方法
CN112884149A (zh) * 2021-03-19 2021-06-01 华南理工大学 一种基于随机敏感度st-sm的深度神经网络剪枝方法及系统

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190205759A1 (en) * 2017-12-29 2019-07-04 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for compressing neural network
CN108416187A (zh) * 2018-05-21 2018-08-17 济南浪潮高新科技投资发展有限公司 一种确定剪枝阈值的方法及装置、模型剪枝方法及装置
CN110728361A (zh) * 2019-10-15 2020-01-24 四川虹微技术有限公司 一种基于强化学习的深度神经网络压缩方法
CN111709516A (zh) * 2020-06-09 2020-09-25 深圳先进技术研究院 神经网络模型的压缩方法及压缩装置、存储介质、设备
CN112488313A (zh) * 2020-12-10 2021-03-12 电子科技大学 一种基于显式权重的卷积神经网络模型压缩方法
CN112884149A (zh) * 2021-03-19 2021-06-01 华南理工大学 一种基于随机敏感度st-sm的深度神经网络剪枝方法及系统

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114647234A (zh) * 2022-05-23 2022-06-21 医链数科医疗科技(江苏)有限公司 一种基于物联网的医疗设备监控方法、装置及存储介质

Similar Documents

Publication Publication Date Title
WO2020224106A1 (zh) 基于神经网络的文本分类方法、系统及计算机设备
CN112434188B (zh) 一种异构数据库的数据集成方法、装置及存储介质
CN112906865B (zh) 神经网络架构搜索方法、装置、电子设备及存储介质
CN113723618B (zh) 一种shap的优化方法、设备及介质
CN111310834B (zh) 数据处理方法及装置、处理器、电子设备、存储介质
CN111062431A (zh) 图像聚类方法、图像聚类装置、电子设备及存储介质
CN112101543A (zh) 神经网络模型确定方法、装置、电子设备及可读存储介质
CN113408724A (zh) 模型压缩方法及装置
CN114861907A (zh) 数据计算方法、装置、存储介质和设备
CN111966473B (zh) 一种线性回归任务的运行方法及装置、电子设备
CN112686365B (zh) 运行神经网络模型的方法、装置和计算机设备
CN115774854B (zh) 一种文本分类方法、装置、电子设备和存储介质
CN116560968A (zh) 一种基于机器学习的仿真计算时间预测方法、系统及设备
CN116957006A (zh) 预测模型的训练方法、装置、设备、介质及程序产品
CN115049003A (zh) 一种预训练模型微调方法、装置、设备和存储介质
CN110442714B (zh) Poi名称规范性评估方法、装置、设备和存储介质
CN115686597A (zh) 一种数据处理方法、装置、电子设备及存储介质
CN111949765A (zh) 基于语义的相似文本搜索方法、系统、设备和存储介质
CN111612069A (zh) 基于动态网格哈希索引的密度聚类方法及装置
CN115408401B (zh) 数据存储方法、装置、计算机设备及存储介质
CN115578583B (zh) 图像处理方法、装置、电子设备和存储介质
CN110647519B (zh) 对测试样本中的缺失属性值进行预测的方法及装置
CN114840692B (zh) 图像库构建方法、图像检索方法、装置及相关设备
CN113159100B (zh) 电路故障诊断方法、装置、电子设备和存储介质
CN115147669B (zh) 基于视觉转换器模型的图像处理方法、训练方法和设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination