CN113159296A - 一种二值神经网络的构建方法 - Google Patents
一种二值神经网络的构建方法 Download PDFInfo
- Publication number
- CN113159296A CN113159296A CN202110462157.6A CN202110462157A CN113159296A CN 113159296 A CN113159296 A CN 113159296A CN 202110462157 A CN202110462157 A CN 202110462157A CN 113159296 A CN113159296 A CN 113159296A
- Authority
- CN
- China
- Prior art keywords
- neural network
- binary
- weight
- binarization
- input data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 68
- 238000010276 construction Methods 0.000 title abstract description 7
- 238000004364 calculation method Methods 0.000 claims abstract description 21
- 238000000034 method Methods 0.000 claims abstract description 18
- 238000012549 training Methods 0.000 claims abstract description 9
- 238000012545 processing Methods 0.000 claims abstract description 7
- 230000004913 activation Effects 0.000 claims description 12
- 239000011159 matrix material Substances 0.000 claims description 10
- 238000010606 normalization Methods 0.000 claims description 10
- 238000005457 optimization Methods 0.000 claims description 9
- 238000011176 pooling Methods 0.000 claims description 6
- 239000000126 substance Substances 0.000 claims description 5
- ODKSFYDXXFIFQN-UHFFFAOYSA-M argininate Chemical compound [O-]C(=O)C(N)CCCNC(N)=N ODKSFYDXXFIFQN-UHFFFAOYSA-M 0.000 claims description 3
- 238000013527 convolutional neural network Methods 0.000 abstract description 5
- 230000006870 function Effects 0.000 description 18
- 230000008569 process Effects 0.000 description 4
- 230000008859 change Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 238000013139 quantization Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明提供一种二值神经网络的构建方法,包括以下步骤:S1:构建初始的神经网络;S2:分别对所述神经网络的权重和输入数据进行二值化处理,得到二值化权重和二值化输入数据;S3:根据二值化输入数据和二值化权重对所述神经网络进行训练,得到优化的神经网络;S4:判断优化的神经网络是否收敛;若是,则执行步骤S6;若否,则执行步骤S5;S5:更新神经网络的参数,得到新的二值化权重,并返回步骤S3;S6:得到二值神经网络。本发明提供一种二值神经网络的构建方法,通过将权重和输入数据二值化,可以在小内存和没有GPU的便携式设备中实现实时推算,解决了目前基于卷积神经网络的识别系统需要大量的内存和计算能力,不适用于便携式设备的问题。
Description
技术领域
本发明涉及人工智能的技术领域,更具体的,涉及一种二值神经网络的构建方法。
背景技术
随着深度学习理论的提出和数值计算设备的改进,卷积神经网络发展迅速,并被应用于计算机视觉和语音识别等多个领域,其在目标识别和检测方面具有高效、可靠的优点。
近年来,虚拟现实、增强现实和智能可穿戴设备也得到了快速的发展,人们开始探寻神经网络和便携式设备的结合方式。然而,基于卷积神经网络的识别系统需要大量的内存和计算能力,适用于昂贵的基于GPU的设备上,但不适用于如手机和嵌入式电子产品等便携式设备。例如,AlexNet有61M参数,执行1.5B的高精度操作对一个图像进行分类。对于更深层次的,例如VGG,这些参数甚至更高。然而目前所有的便携式设备都只能提供有限的计算能力,以及容量并不算大的片上存储。卷积神经网络在便携式设备上的移植变得越来越艰难。庞大的计算量采用浮点数作为操作数运行在轻量级芯片上,传统浮点神经网络的计算效率低、能耗大、速度慢,无疑已经超出便携式设备的能力范围,同时也很难达到比较好的实时效果。
现有技术中,如2019-07-30公开的专利,一种基于二值化深度神经网络的手写数字图像识别分类方法,公开号为CN110070119A,基于BinaryConnect二值化深度神经网络,并通过公式推导得出最优权重缩放因子α,将该因子α在前向传播过程中与权重W相乘,以达到增强网络表达能力、提高训练精度的目的,但不适用于便携式设备。
发明内容
本发明为克服目前基于卷积神经网络的识别系统需要大量的内存和计算能力,不适用于便携式设备的技术缺陷,提供一种二值神经网络的构建方法。
为解决上述技术问题,本发明的技术方案如下:
一种二值神经网络的构建方法,包括以下步骤:
S1:构建初始的神经网络;
S2:分别对所述神经网络的权重和输入数据进行二值化处理,得到二值化权重和二值化输入数据;
S3:根据二值化输入数据和二值化权重对所述神经网络进行训练,得到优化的神经网络;
S4:判断优化的神经网络的所有权重和输入数据是否全部收敛为+1或-1;
若是,则执行步骤S6;
若否,则执行步骤S5;
S5:更新神经网络的参数,得到新的二值化权重,并返回步骤S3;
S6:得到二值神经网络。
优选的,所述神经网络包括二值归一化层、二值激活层、二值卷积层和池化层。
优选的,所述神经网络的计算顺序依次为:二值归一化层、二值激活层、二值卷积层、池化层;
其中,在二值归一化层对输入数据进行标准化,使之均值为0,在二值卷积层后插入一个非二进制激活函数。
优选的,所述非二进制激活函数为ReLU函数。
优选的,在步骤S2中,利用二值矩阵B和第一尺度因子α∈R+代替所述神经网络的权重W。
优选的,通过以下步骤求得二值矩阵B和第一尺度因子α∈R+的最优值:
用I*W表示卷积层的操作,其中,I表示输入数据,W表示权重,维度是c*w*h,c表示通道数,w表示宽度,h表示高度,
令W贴近B时得到:
得到优化目标函数:
J(B,α)=||W-αB||2
其中,nin()为取最小值函数,arg()为取自变量函数;
将优化目标函数展开为:
J(B,α)=α2BTB-2αWTB+WTW
其中,B是一个1*n的向量,取-1或者1,BTB=n,即为一个常量,
结合可得B的最优值计算公式:
B∈{+1,-1}n
B*=sign(W)
B的最优值即决定W的符号,
根据优化目标函数展开式对第一尺度因子α求导,从而得到α的最优值计算公式:
结合B*=sign(W)求得α最终的最优值计算公式:
其中,α的最优值是W的每个元素的绝对值之和的均值,||W||表示l1范数。
优选的,在步骤S2中,利用β和H近似表示输入数据I,其中,β为第二尺度因子,H为二值卷积核,H∈{+1,-1}n,β∈R+,
期望得到β、H、α和B使得
ITW≈βHTαB
优化表达式为:
其中,⊙表示点乘,
用Y表示IW,C表示HB,γ表示βα,得到
因此,得到C和γ的计算公式:
C*=sign(Y)=sign(I)⊙sign(W)=H*⊙B*
其中,|Ii|和|Wi|是相互独立的,
根据C和γ的计算公式求得β、H、α和B的最优值。
优选的,使用二值操作近似得到输入数据I和权重W的卷积结果:
通过对输入数据I在通道求绝对值的均值A,A和卷积核k卷积得到
K=A*k
优选的,在步骤S3中,对所述神经网络进行训练包括以下步骤:
S3.1:前向传播:使用二值化权重W≈αB进行前向传播;
其中,B为二值矩阵,α为第一尺度因子;
S3.2:反向传播:使用宽松化函数Htanh(x)对前向数据处理进行反向传播:
Htanh(x)=Clip(x,-1,1)=max(-1,min(1,x))
其中,x为前向数据。
与现有技术相比,本发明技术方案的有益效果是:
本发明提供了一种二值神经网络的构建方法,通过将权重和输入数据二值化,实现有效的卷积操作,减小内存占用,降低功耗,减小面向深度学习的硬件的开销,可以在小内存和没有GPU的便携式设备中实现实时推算,能够获得与标准网络相似的分类精度,同时能够提高效率。
附图说明
图1为本发明的技术方案实施流程图;
图2为本发明中所述二值神经网络的应用示意图。
具体实施方式
附图仅用于示例性说明,不能理解为对本专利的限制;
为了更好说明本实施例,附图某些部件会有省略、放大或缩小,并不代表实际产品的尺寸;
对于本领域技术人员来说,附图中某些公知结构及其说明可能省略是可以理解的。
下面结合附图和实施例对本发明的技术方案做进一步的说明。
实施例1
如图1所示,一种二值神经网络的构建方法,包括以下步骤:
S1:构建初始的神经网络;
S2:分别对所述神经网络的权重和输入数据进行二值化处理,得到二值化权重和二值化输入数据;
S3:根据二值化输入数据和二值化权重对所述神经网络进行训练,得到优化的神经网络;
S4:判断优化的神经网络的所有权重和输入数据是否全部收敛为+1或-1;
在实际实施时,如权重是一组(3,-2,2,0.5)(2,3,4,-0.5),一次训练处理一行数据(1,-1,1,1)(2,3,4,-0.5),最后训练好的权重是(1,-1,1,1)(1,1,1,-1);
若是,则执行步骤S6;
若否,则执行步骤S5;
S5:更新神经网络的参数,得到新的二值化权重,并返回步骤S3;
S6:得到二值神经网络。
实施例2
更具体的,所述神经网络包括二值归一化层、二值激活层、二值卷积层和池化层。
在具体实施过程中,所述神经网络内的32位浮点数乘加运算可以被1位二值同或计算操作代替,将权重和输入值都用二值来表示,也即是说权重的值要么为-1,要么为1。在神经网络的前向传播和反向传播中一直遵循这个规则。
更具体的,所述神经网络的计算顺序依次为:二值归一化层、二值激活层、二值卷积层、池化层;
其中,在二值归一化层对输入数据进行标准化,使之均值为0,在二值卷积层后插入一个非二进制激活函数。
在具体实施过程中,如果直接把输入数据转化成-1或+1,再进行操作会丢失许多信息。为了减少二值化带来的信息损失,把二值归一化层放到二值激活层前确保了数据保持零均值,阈值为零可以减少量化误差。
更具体的,所述非二进制激活函数为ReLU函数。
更具体的,在步骤S2中,利用二值矩阵B和第一尺度因子α∈R+代替所述神经网络的权重W。
更具体的,通过以下步骤求得二值矩阵B和第一尺度因子α∈R+的最优值:
用I*W表示卷积层的操作,其中,I表示输入数据,W表示权重,维度是c*w*h,c表示通道数,w表示宽度,h表示高度,
令W贴近B时得到:
其中,表示不含任何乘法的卷积,用二值矩阵B和第一尺度因子α来代替原来的权重W,前者尽可能等于后者,由于权重是二值化的,所以实现了只有加法和减法的卷积,二值化权重的卷积核相比于单精度浮点数内存占用减少了32倍,
得到优化目标函数:
J(B,α)=||W-αB||2
其中,min()为取最小值函数,arg()为取自变量函数;
将优化目标函数展开为:
J(B,α)=α2BTB-2αWTB+WTW
其中,B是一个1*n的向量,取-1或者1,BTB=n,即为一个常量,
结合可得B的最优值计算公式:
B∈{+1,-1}n
B*=sign(W)
B的最优值即决定W的符号,
根据优化目标函数展开式对第一尺度因子α求导,从而得到α的最优值计算公式:
结合B*=sign(W)求得α最终的最优值计算公式:
其中,α的最优值是W的每个元素的绝对值之和的均值,||W||表示l1范数。
在具体实施过程中,通过上述步骤得到二值化权重sign(W)。
更具体的,在步骤S2中,利用β和H近似表示输入数据I,其中,β为第二尺度因子,H为二值卷积核,H∈{+1,-1}n,β∈R+,
期望得到β、H、α和B使得
ITW≈βHTαB
优化表达式为:
其中,⊙表示点乘,
用Y表示IW,C表示HB,γ表示βα,得到
因此,得到C和γ的计算公式:
C*=sign(Y)=sign(I)⊙sign(W)=H*⊙B*
其中,|Ii|和|Wi|是相互独立的,以上两个等式右边的结果就是参数β、H、α和B的最优解,
根据C和γ的计算公式求得β、H、α和B的最优值。
在具体实施过程中,通过上述步骤得到二值化输入数据sign(I)。
更具体的,使用二值操作近似得到输入数据I和权重W的卷积结果:
通过对输入数据I在通道求绝对值的均值A,A和卷积核k卷积得到
K=A*k
更具体的,在步骤S3中,对所述神经网络进行训练包括以下步骤:
S3.1:前向传播:使用二值化权重W≈αB进行前向传播;
其中,B为二值矩阵,α为第一尺度因子;
S3.2:反向传播:使用宽松化函数Htanh(x)对前向数据处理进行反向传播:
Htanh(x)=Clip(x,-1,1)=max(-1,min(1,x))
其中,x为前向数据。
实施例3
如图2所示,通过python语言配置好参数建立相应API将训练好的二值神经网络存储,并将二值神经网络配置成便携式设备端可接受参数,实现便携式设备对二值神经网络的存储及运用。
显然,本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (10)
1.一种二值神经网络的构建方法,其特征在于,包括以下步骤:
S1:构建初始的神经网络;
S2:分别对所述神经网络的权重和输入数据进行二值化处理,得到二值化权重和二值化输入数据;
S3:根据二值化输入数据和二值化权重对所述神经网络进行训练,得到优化的神经网络;
S4:判断优化的神经网络的所有权重和输入数据是否全部收敛为+1或-1;
若是,则执行步骤S6;
若否,则执行步骤S5;
S5:更新神经网络的参数,得到新的二值化权重,并返回步骤S3;
S6:得到二值神经网络。
2.根据权利要求1所述的一种二值神经网络的构建方法,其特征在于,所述神经网络包括二值归一化层、二值激活层、二值卷积层和池化层。
3.根据权利要求2所述的一种二值神经网络的构建方法,其特征在于,所述神经网络的计算顺序依次为:二值归一化层、二值激活层、二值卷积层、池化层;
其中,在二值归一化层对输入数据进行标准化,使之均值为0,在二值卷积层后插入一个非二进制激活函数。
4.根据权利要求3所述的一种二值神经网络的构建方法,其特征在于,所述非二进制激活函数为ReLU函数。
5.根据权利要求2所述的一种二值神经网络的构建方法,其特征在于,在步骤S2中,利用二值矩阵B和第一尺度因子α∈R+代替所述神经网络的权重W。
6.根据权利要求5所述的一种二值神经网络的构建方法,其特征在于,通过以下步骤求得二值矩阵B和第一尺度因子α∈R+的最优值:
用I*W表示卷积层的操作,其中,I表示输入数据,W表示权重,维度是c*w*h,c表示通道数,w表示宽度,h表示高度,
令W贴近B时得到:
I*W≈(I⊕B)α
其中,⊕表示不含任何乘法的卷积,
得到优化目标函数:
J(B,α)=||W-αB||2
其中,min()为取最小值函数,arg()为取自变量函数;
将优化目标函数展开为:
J(B,α)=α2BTB-2αWTB+WTW
其中,B是一个1*n的向量,取-1或者1,BTB=n,即为一个常量,
结合可得B的最优值计算公式:
B∈{+1,-1}n
B*=sign(W)
B的最优值即决定W的符号,
根据优化目标函数展开式对第一尺度因子α求导,从而得到α的最优值计算公式:
结合B*=sign(W)求得α最终的最优值计算公式:
其中,α的最优值是W的每个元素的绝对值之和的均值,||W||表示l1范数。
9.根据权利要求1所述的一种二值神经网络的构建方法,其特征在于,在步骤S3中,对所述神经网络进行训练包括以下步骤:
S3.1:前向传播:使用二值化权重W≈αB进行前向传播;
其中,B为二值矩阵,α为第一尺度因子;
S3.2:反向传播:使用宽松化函数Htanh(x)对前向数据处理进行反向传播:
Htanh(x)=Clip(x,-1,1)=max(-1,min(1,x))
其中,x为前向数据。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110462157.6A CN113159296B (zh) | 2021-04-27 | 2021-04-27 | 一种二值神经网络的构建方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110462157.6A CN113159296B (zh) | 2021-04-27 | 2021-04-27 | 一种二值神经网络的构建方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113159296A true CN113159296A (zh) | 2021-07-23 |
CN113159296B CN113159296B (zh) | 2024-01-16 |
Family
ID=76871945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110462157.6A Active CN113159296B (zh) | 2021-04-27 | 2021-04-27 | 一种二值神经网络的构建方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113159296B (zh) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115456860A (zh) * | 2022-11-09 | 2022-12-09 | 深圳市唯特视科技有限公司 | 基于fpga的图像增强方法、装置、头盔、设备及介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784488A (zh) * | 2019-01-15 | 2019-05-21 | 福州大学 | 一种适用于嵌入式平台的二值化卷积神经网络的构建方法 |
CN110837887A (zh) * | 2019-11-12 | 2020-02-25 | 西安微电子技术研究所 | 一种深度卷积神经网络的压缩及加速方法、神经网络模型及其应用 |
CN110929852A (zh) * | 2019-11-29 | 2020-03-27 | 中国科学院自动化研究所 | 深度二值神经网络训练方法及系统 |
CN112446431A (zh) * | 2020-11-27 | 2021-03-05 | 鹏城实验室 | 特征点提取与匹配方法、网络、设备及计算机存储介质 |
-
2021
- 2021-04-27 CN CN202110462157.6A patent/CN113159296B/zh active Active
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109784488A (zh) * | 2019-01-15 | 2019-05-21 | 福州大学 | 一种适用于嵌入式平台的二值化卷积神经网络的构建方法 |
CN110837887A (zh) * | 2019-11-12 | 2020-02-25 | 西安微电子技术研究所 | 一种深度卷积神经网络的压缩及加速方法、神经网络模型及其应用 |
CN110929852A (zh) * | 2019-11-29 | 2020-03-27 | 中国科学院自动化研究所 | 深度二值神经网络训练方法及系统 |
CN112446431A (zh) * | 2020-11-27 | 2021-03-05 | 鹏城实验室 | 特征点提取与匹配方法、网络、设备及计算机存储介质 |
Non-Patent Citations (1)
Title |
---|
刘美菊;运勃;: "深度卷积网络压缩算法在焊缝识别中的应用", 激光与光电子学进展, no. 05 * |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115456860A (zh) * | 2022-11-09 | 2022-12-09 | 深圳市唯特视科技有限公司 | 基于fpga的图像增强方法、装置、头盔、设备及介质 |
Also Published As
Publication number | Publication date |
---|---|
CN113159296B (zh) | 2024-01-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108133188B (zh) | 一种基于运动历史图像与卷积神经网络的行为识别方法 | |
WO2018058509A1 (en) | Dynamic neural network surgery | |
CN110414344B (zh) | 一种基于视频的人物分类方法、智能终端及存储介质 | |
CN107273458B (zh) | 深度模型训练方法及装置、图像检索方法及装置 | |
CN114067153B (zh) | 基于并行双注意力轻量残差网络的图像分类方法及系统 | |
CN111639692A (zh) | 一种基于注意力机制的阴影检测方法 | |
CN111340814A (zh) | 一种基于多模态自适应卷积的rgb-d图像语义分割方法 | |
CN113505792B (zh) | 面向非均衡遥感图像的多尺度语义分割方法及模型 | |
CN110135460B (zh) | 基于vlad卷积模块的图像信息强化方法 | |
CN110738241A (zh) | 一种基于神经网络的双目立体视觉匹配方法及其运算框架 | |
CN110942471A (zh) | 一种基于时空约束的长时目标跟踪方法 | |
CN116580257A (zh) | 特征融合模型训练及样本检索方法、装置和计算机设备 | |
CN114255474A (zh) | 一种基于多尺度、多粒度行人重识别方法 | |
CN113962281A (zh) | 基于Siamese-RFB的无人机目标跟踪方法 | |
CN112150497A (zh) | 基于二值神经网络的局部激活方法与系统 | |
CN113159296B (zh) | 一种二值神经网络的构建方法 | |
CN115222754A (zh) | 一种基于知识蒸馏和对抗学习的镜面图像分割方法 | |
CN114202473A (zh) | 一种基于多尺度特征和注意力机制的图像复原方法及装置 | |
CN112308213A (zh) | 一种基于全局特征关系的卷积神经网络压缩方法 | |
CN109583406B (zh) | 基于特征关注机制的人脸表情识别方法 | |
US20230143985A1 (en) | Data feature extraction method and related apparatus | |
CN113691863B (zh) | 一种提取视频关键帧的轻量化方法 | |
CN116091792A (zh) | 视觉注意力预测模型的构建方法、系统、终端及介质 | |
CN115471718A (zh) | 基于多尺度学习的轻量级显著性目标检测模型的构建和检测方法 | |
CN113239215B (zh) | 多媒体资源的分类方法、装置、电子设备及存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |