CN113128560A - 一种基于注意力模块增强的cnn楷体书法风格分类方法 - Google Patents

一种基于注意力模块增强的cnn楷体书法风格分类方法 Download PDF

Info

Publication number
CN113128560A
CN113128560A CN202110296395.4A CN202110296395A CN113128560A CN 113128560 A CN113128560 A CN 113128560A CN 202110296395 A CN202110296395 A CN 202110296395A CN 113128560 A CN113128560 A CN 113128560A
Authority
CN
China
Prior art keywords
layer
style
training
calligraphy
feature map
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202110296395.4A
Other languages
English (en)
Other versions
CN113128560B (zh
Inventor
张九龙
于文航
屈小娥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian University of Technology
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN202110296395.4A priority Critical patent/CN113128560B/zh
Publication of CN113128560A publication Critical patent/CN113128560A/zh
Application granted granted Critical
Publication of CN113128560B publication Critical patent/CN113128560B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2415Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/153Segmentation of character regions using recognition of characters or words
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/24Character recognition characterised by the processing or recognition method
    • G06V30/242Division of the character sequences into groups prior to recognition; Selection of dictionaries
    • G06V30/244Division of the character sequences into groups prior to recognition; Selection of dictionaries using graphical properties, e.g. alphabet type or font
    • G06V30/2455Discrimination between machine-print, hand-print and cursive writing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Abstract

本发明公开的一种基于注意力模块增强的CNN楷体书法风格分类方法,具体为:步骤1、获取四种不同书法风格的图像,组成数据集并分成训练样本和测试样本;步骤2、组成卷积块结构;步骤3、组成基线模型;步骤4、向步骤3构造的基线模型中的第三个卷积块与第四个卷积块之间嵌入第一个CBAM、第四个卷积块与Flatten层之间嵌入第二个CBAM形成组合模型;步骤5、设置损失函数和训练参数,将步骤1数据集中的训练样本与测试样本输入到步骤4构造的组合模型,进行训练与测试;步骤6、将步骤5中训练结果中测试准确率最高的模型保存下来。该方法解决了现有技术中存在的书法风格分类困难的问题,并提高分类的精准度。

Description

一种基于注意力模块增强的CNN楷体书法风格分类方法
技术领域
本发明属于人工智能技术领域,具体涉及一种基于注意力模块增强的CNN楷体书法风格分类方法。
背景技术
中国书法作品是文化瑰宝,具有重要的研究价值。与中国书法字体相比,不同风格的特征对于外行人来说更难识别,例如,对于五种书法字体:篆书,隶书,楷书,行书,草书来说,它们的外形具有较为明显的差异,容易被人们分辨出来。然而,我国古代四位著名书法家,欧阳询,颜真卿,柳公权,赵孟頫创作的作品欧体,颜体,柳体,赵体都属于楷书,它们之间外形上的差异就要比五种字体之间的差异小很多,因此书法风格的分类是一项重要而具有挑战性的任务。本发明为了将四种楷体书法风格,欧体,颜体,柳体,赵体进行更高精度的分类,提出一种基于注意力模块增强的卷积神经网络的书法图像风格分类方法。该分类模型的提出不仅可以自动分类欧体,颜体,柳体,赵体这四种风格的书法图像,还可以为将来的下游视觉任务提供帮助,如目标识别等。
发明内容
本发明的目的是提供一种基于注意力模块增强的CNN楷体书法风格分类方法,解决了现有技术中存在的书法风格分类困难的问题,并提高分类的精准度。
本发明所采用的技术方案是,一种基于注意力模块增强的CNN楷体书法风格分类方法,具体按照以下步骤实施:
步骤1、获取四种不同书法风格的图像,组成数据集并分成训练样本和测试样本;
步骤2、构建由卷积层,池化层,批量归一化层和非线性层组成的卷积块结构;
步骤3、将一个Dropout层、四个步骤2构造的卷积块、一个Flatten层及一个全连接层顺序排列在一起组成基线模型;
步骤4、向步骤3构造的基线模型中的第三个卷积块与第四个卷积块之间嵌入第一个CBAM、第四个卷积块与Flatten层之间嵌入第二个CBAM形成组合模型;
步骤5、设置损失函数和训练参数,将步骤1数据集中的训练样本与测试样本输入到步骤4构造的组合模型,进行训练与测试,训练每经过1个epoch,会在测试集上测试一遍当前网络的分类准确率,这个过程由设置的训练参数自动控制完成;
步骤6、将步骤5中训练结果中测试准确率最高的模型保存下来,作为书法风格分类模型,即为最终得到的书法风格分类器。
本发明的特征还在于,
步骤1具体按照以下步骤实施:
步骤1.1、利用现有的最小包围盒切算法从欧体,颜体,柳体及赵体四不同书法风格的整幅楷书作品中分割出单个字符图像,每种风格的书法字符图像数量相等;
步骤1.2、从步骤1.1中获得的每种风格的书法字符图像中,按照3:1的比例分成训练集和测试集待用。
步骤2具体为:按照顺序将卷积层,最大池化层,批量归一层和非线性层排列在一起,并将它们封装在一个卷积块中;其中,卷积层的滤波器大小为5×5,步长为1;最大池化层的窗口大小为3×3,步长为2;非线性层使用ReLU激活函数。此外,在输入图像之后和第一个卷积块之间添加dropout层来减少过拟合,其概率设置为0.1。在第四个卷积块和全连接层之间添加flatten(扁平)层来改变输入到全连接层的特征图的形状。该层无任何参数。
步骤3中,四个卷积块中的卷积层滤波器组的数量分别为32,32,64,128;全连接层的神经元个数为4,激活函数为ReLU。
步骤4中,CBAM由上下设置的通道模块及空间模块两部分组成;
通道模块由第一全局平均池化层、第一全局最大池化层、由第一全连接层及第二全连接层组成的多层感知机及ADD层组成;其中,全局平均池化层和全局最大池化层在输入特征图的每个通道切片上沿着空间维度进行;多层感知机中第一全连接层的神经元数量为输入特征图通道数的
Figure BDA0002984519660000031
并使用ReLU激活函数,第二全连接层的神经元数量为输入特征图的通道数;ADD层输出结果对其使用sigmoid激活函数;
空间模块由第二全局平均池化层、第二全局最大池化层、串连接层以及卷积层组成;其中,第二全局平均池化层和第二全局最大池化层在输入特征图的每个像素位置处沿着通道维度进行操作。
步骤5中,损失函数选择交叉熵损失函数,并且使用小批量梯度下降算法优化网络模型;训练参数epoch为200,batch size为32,learning rate为0.0001。
本发明的有益效果是:
1、本发明方法缓解了在模型训练过程出现梯度爆炸现象;
2、本发明方法比现有方法的分类准确率高;
3、本发明方法使用的参数数量较少,效率高。
附图说明
图1是本发明方法中卷积块的内部结构图;
图2是本发明方法中提出的基于注意力模块增强的卷积神经网络的结构图;
图3是本发明方法中CBAM的工作原理图;
图4是实施例的测试准确率结果。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明一种基于注意力模块增强的CNN楷体书法风格分类方法,如图1-3所示,具体按照以下步骤实施:
步骤1、获取四种不同书法风格的图像,组成数据集并分成训练样本和测试样本;
步骤1具体按照以下步骤实施:
步骤1.1、利用现有的最小包围盒切算法从欧体,颜体,柳体及赵体四不同书法风格的整幅楷书作品中分割出单个字符图像,每种风格的书法字符图像数量相等;
步骤1.2、从步骤1.1中获得的每种风格的书法字符图像中,按照3:1的比例分成训练集和测试集待用。
步骤2、构建由卷积层,池化层,批量归一化层和非线性层组成的卷积块结构;
步骤2具体为:按照顺序将卷积层,最大池化层,批量归一层和非线性层排列在一起,并将它们封装在一个卷积块中;其中,卷积层的滤波器大小为5×5,步长为1;最大池化层的窗口大小为3×3,步长为2;非线性层使用ReLU激活函数。此外,在输入图像之后和第一个卷积块之间添加dropout层来减少过拟合,其概率设置为0.1。在第四个卷积块和全连接层之间添加flatten(扁平)层来改变输入到全连接层的特征图的形状。该层无任何参数。
步骤3、将一个Dropout层、四个步骤2构造的卷积块、一个Flatten层及一个全连接层顺序排列在一起组成基线模型;
步骤3中,四个卷积块中的卷积层滤波器组的数量分别为32,32,64,128;全连接层的神经元个数为4,激活函数为ReLU。
步骤4、向步骤3构造的基线模型中的第三个卷积块与第四个卷积块之间嵌入第一个CBAM、第四个卷积块与Flatten层之间嵌入第二个CBAM形成组合模型;如图2所示,所使用到的CBAM结构图如图3所示:
步骤4中,CBAM由上下设置的通道模块及空间模块两部分组成;
通道模块由第一全局平均池化层、第一全局最大池化层、由第一全连接层及第二全连接层组成的多层感知机及ADD层组成;其中,全局平均池化层和全局最大池化层在输入特征图的每个通道切片上沿着空间维度进行;多层感知机中第一全连接层的神经元数量为输入特征图通道数的
Figure BDA0002984519660000051
并使用ReLU激活函数,第二全连接层的神经元数量为输入特征图的通道数;ADD层输出结果对其使用sigmoid激活函数;
空间模块由第二全局平均池化层、第二全局最大池化层、串连接层以及卷积层组成;其中,第二全局平均池化层和第二全局最大池化层在输入特征图的每个像素位置处沿着通道维度进行操作。
CBAM的内部工作流程为,假设特征图F作为CBAM通道模块的输入,F的大小为H×W×C。在F的每个通道上分别经过第一全局平均池化层的全局平均池化和全局最大池化层的全局最大池化产生2个大小1×1×C的池化特征图,记为:FAvg(F)和FMax(F),其过程如公式(1),(2)所示:
Figure BDA0002984519660000061
Figure BDA0002984519660000062
其中,F为输入的特征图,H,W,C分别为F的长度、宽度和通道数量。x为F的像素值,xij为F的(i,j)位置处的像素值。
将上面产生的池化特征图FAvg(F)和FMax(F)分别输入到由第一全连接层及第二全连接层组成的多层感知机(MLP)中,产生两个大小为1×1×C通道注意特征图,记为:MLP(FAvg)和MLP(FMax)。多层感知机中第一全连接层的神经元个数为
Figure BDA0002984519660000063
r的值为16,并对结果使用ReLU激活函数,第二全连接层的神经元个数为C,过程如公式(3),(4)所示:
MLP(FAvg)=W1ReLU(W0(FAvg)) (3)
MLP(FMax)=W1ReLU(W0(FMax)) (4)
其中FAvg和FMax分别为刚才产生的全局平均池化特征图和全局最大池化特征图,W0和W1分别为多层感知机中第一全连接层的权重及第二全连接层的权重,W0的大小为
Figure BDA0002984519660000071
W1的大小为
Figure BDA0002984519660000072
ReLU表示激活函数。
将MLP处理后的两个通道注意特征图MLP(FAvg)和MLP(FMax)在ADD层处对应元素相加合并为一个结果。然后对合并后的结果使用sigmoid函数,得到一个1×1×C大小的通道注意特征图Mc(F)。将Mc(F)与输入F对应元素相乘,得到大小为H×W×C通道微调特征图F′,过程如公式(5),(6)所示:
Mc(F)=σ(MLP(FAvg)+MLP(FMax)) (5)
F′=F*Mc(F) (6)
其中,σ为sigmoid函数,Mc(F)为合并后的通道注意特征图。公式(6)中F为输入进CBAM通道模块的特征图,F′为通道微调特征图,“*”表示对应元素相乘。
将上面得到的通道微调特征图F′再由CBAM的空间模块进行处理。在F′每个像素位置处,沿着通道维度方向分别通过第二全局平均池化层及第二全局最大池化层进行平均池化和最大池化,得到两个大小为H×W×1池化特征图FAvg(F′)和FMax(F′)。接着,通过串连接层处的串连接操作,将FAvg(F′)和FMax(F′)合并为一个大小为H×W×2的特征图。然后,使用卷积层处理合并后的特征图,产生一个大小为H×W×1空间注意特征图MS(F′)。其中卷积层中滤波器大小7×7,步长为1,滤波器组的数量为1,激活函数为sigmoid。最后,将产生的空间注意特征图MS(F′)与通道微调特征图F′对应元素相乘,得到空间微调特征图F″,其过程如公式(7),(8)所示,空间微调特征图F″即为CBAM的完整输出,
MS(F′)=σ(f7×7([FAvg(F′);FMax(F′)])) (7)
F″=F′*MS(F′) (8)
公式中:F′为通道微调特征图,[FAvg(F′);FMax(F′)]表示串连接操作,f7×7表示卷积操作,σ为sigmoid函数,Ms(F′)为空间注意特征图,F″为空间微调特征图。
向步骤3构造的基线模型中的第3个卷积块与第4个卷积块之间嵌入第一个CBAM,CBAM中通道模块全连接层的参数C为64。即,让第3个卷积块产生的输出作为CBAM的输入,由CBAM处理后,产生的输出作为第4个卷积块的输入。第4个卷积块与全连接层之间嵌入第二个CBAM,CBAM中通道模块全连接层的参数C为128。即,让第4个卷积块产生的输出作为第二个CBAM的输入。
步骤5、设置损失函数和训练参数,将步骤1数据集中的训练样本与测试样本输入到步骤4构造的组合模型,进行训练与测试,训练每经过1个epoch,会在测试集上测试一遍当前网络的分类准确率,这个过程由设置的训练参数自动控制完成;
步骤5中,损失函数选择交叉熵损失函数,并且使用小批量梯度下降算法优化网络模型;训练参数epoch为200,batch size为32,learning rate为0.0001;
步骤6、将步骤5中训练结果中测试准确率最高的模型保存下来,作为书法风格分类模型,即为最终得到的书法风格分类器。
实施例
将训练集2400张书法风格图像和测试图像800张书法风格图像,图像大小为64×64。输入到本方法提出的步骤4的组合模型中,根据步骤5设置的训练参数,在训练集上训练组合模型200个epoch,每经过1个epoch,将组合模型在测试集上进行测试,得到测试准确率,本方法的测试准确率结果如图4。因此,该图一共表示200个测试准确率,其中在第131个epoch时,测试准确率达到一个最大值,为97.37%,实现了较高的分类效果。此外,从图中可以可看出,在训练过程中,组合模型的测试准确率变化幅度稳定,说明本方法既是一个性能良好,又是一个鲁棒性高的分类方法。并且,该方法具有的参数数量非常少,组合模型的可训练参数大约为295000,浮点运算次数(FLOPs)为580000左右。

Claims (6)

1.一种基于注意力模块增强的CNN楷体书法风格分类方法,其特征在于,具体按照以下步骤实施:
步骤1、获取四种不同书法风格的图像,组成数据集并分成训练样本和测试样本;
步骤2、构建由卷积层,池化层,批量归一化层和非线性层组成的卷积块结构;
步骤3、将一个Dropout层、四个步骤2构造的卷积块、一个Flatten层及一个全连接层顺序排列在一起组成基线模型;
步骤4、向步骤3构造的基线模型中的第三个卷积块与第四个卷积块之间嵌入第一个CBAM、第四个卷积块与Flatten层之间嵌入第二个CBAM形成组合模型;
步骤5、设置损失函数和训练参数,将步骤1数据集中的训练样本与测试样本输入到步骤4构造的组合模型,进行训练与测试,训练每经过1个epoch,会在测试集上测试一遍当前网络的分类准确率,这个过程由设置的训练参数自动控制完成;
步骤6、将步骤5中训练结果中测试准确率最高的模型保存下来,作为书法风格分类模型,即为最终得到的书法风格分类器。
2.根据权利要求1所述的一种基于注意力模块增强的CNN楷体书法风格分类方法,其特征在于,步骤1具体按照以下步骤实施:
步骤1.1、利用现有的最小包围盒切算法从欧体,颜体,柳体及赵体四不同书法风格的整幅楷书作品中分割出单个字符图像,每种风格的书法字符图像数量相等;
步骤1.2、从步骤1.1中获得的每种风格的书法字符图像中,按照3:1的比例分成训练集和测试集待用。
3.根据权利要求1所述的一种基于注意力模块增强的CNN楷体书法风格分类方法,其特征在于,步骤2具体为:按照顺序将卷积层,最大池化层,批量归一层和非线性层排列在一起,并将它们封装在一个卷积块中;其中,卷积层的滤波器大小为5×5,步长为1;最大池化层的窗口大小为3×3,步长为2;非线性层使用ReLU激活函数;此外,在输入图像之后和第一个卷积块之间添加dropout层来减少过拟合,其概率设置为0.1;在第四个卷积块和全连接层之间添加flatten层来改变输入到全连接层的特征图的形状。
4.根据权利要求1所述的一种基于注意力模块增强的CNN楷体书法风格分类方法,其特征在于,步骤3中,四个卷积块中的卷积层滤波器组的数量分别为32,32,64,128;全连接层的神经元个数为4,激活函数为ReLU。
5.根据权利要求1所述的一种基于注意力模块增强的CNN楷体书法风格分类方法,其特征在于,步骤4中,CBAM由上下设置的通道模块及空间模块两部分组成;
通道模块由第一全局平均池化层、第一全局最大池化层、由第一全连接层及第二全连接层组成的多层感知机及ADD层组成;其中,全局平均池化层和全局最大池化层在输入特征图的每个通道切片上沿着空间维度进行;多层感知机中第一全连接层的神经元数量为输入特征图通道数的
Figure FDA0002984519650000021
并使用ReLU激活函数,第二全连接层的神经元数量为输入特征图的通道数;ADD层输出结果对其使用sigmoid激活函数;
空间模块由第二全局平均池化层、第二全局最大池化层、串连接层以及卷积层组成;其中,第二全局平均池化层和第二全局最大池化层在输入特征图的每个像素位置处沿着通道维度进行操作。
6.根据权利要求1所述的一种基于注意力模块增强的CNN楷体书法风格分类方法,其特征在于,步骤5中,损失函数选择交叉熵损失函数,并且使用小批量梯度下降算法优化网络模型;训练参数epoch为200,batch size为32,learning rate为0.0001。
CN202110296395.4A 2021-03-19 2021-03-19 一种基于注意力模块增强的cnn楷体书法风格分类方法 Active CN113128560B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110296395.4A CN113128560B (zh) 2021-03-19 2021-03-19 一种基于注意力模块增强的cnn楷体书法风格分类方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110296395.4A CN113128560B (zh) 2021-03-19 2021-03-19 一种基于注意力模块增强的cnn楷体书法风格分类方法

Publications (2)

Publication Number Publication Date
CN113128560A true CN113128560A (zh) 2021-07-16
CN113128560B CN113128560B (zh) 2023-02-24

Family

ID=76773652

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110296395.4A Active CN113128560B (zh) 2021-03-19 2021-03-19 一种基于注意力模块增强的cnn楷体书法风格分类方法

Country Status (1)

Country Link
CN (1) CN113128560B (zh)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926845A (zh) * 2022-06-07 2022-08-19 哈尔滨理工大学 一种基于深度学习的汉字书法风格识别方法
CN117727053A (zh) * 2024-02-08 2024-03-19 西南科技大学 一种多类别汉字单样本字体识别方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596051A (zh) * 2018-04-04 2018-09-28 浙江大学城市学院 一种面向产品风格意象的智能识别方法
WO2019192397A1 (zh) * 2018-04-04 2019-10-10 华中科技大学 一种任意形状的场景文本端到端识别方法
CN110334782A (zh) * 2019-06-28 2019-10-15 西安理工大学 多卷积层驱动的深度信念网络书法风格识别方法
CN111709443A (zh) * 2020-05-09 2020-09-25 西安理工大学 一种基于旋转不变卷积神经网络的书法字风格分类方法
CN112069868A (zh) * 2020-06-28 2020-12-11 南京信息工程大学 一种基于卷积神经网络的无人机实时车辆检测方法
US20210012181A1 (en) * 2019-01-03 2021-01-14 Boe Technology Group Co., Ltd. Computer-implemented method of training convolutional neural network, convolutional neural network, computer-implemented method using convolutional neural network, apparatus for training convolutional neural network, and computer-program product

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108596051A (zh) * 2018-04-04 2018-09-28 浙江大学城市学院 一种面向产品风格意象的智能识别方法
WO2019192397A1 (zh) * 2018-04-04 2019-10-10 华中科技大学 一种任意形状的场景文本端到端识别方法
US20210012181A1 (en) * 2019-01-03 2021-01-14 Boe Technology Group Co., Ltd. Computer-implemented method of training convolutional neural network, convolutional neural network, computer-implemented method using convolutional neural network, apparatus for training convolutional neural network, and computer-program product
CN110334782A (zh) * 2019-06-28 2019-10-15 西安理工大学 多卷积层驱动的深度信念网络书法风格识别方法
CN111709443A (zh) * 2020-05-09 2020-09-25 西安理工大学 一种基于旋转不变卷积神经网络的书法字风格分类方法
CN112069868A (zh) * 2020-06-28 2020-12-11 南京信息工程大学 一种基于卷积神经网络的无人机实时车辆检测方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
MINHUI JIN等: ""An Enhanced Convolutional Neural Network in Side-Channel Attacks and Its Visualization"", 《HTTPS://ARXIV.ORG/ABS/2009.08898》 *
田学东等: ""古籍汉字图像的可变形卷积网络检索模型"", 《中国科技论文》 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114926845A (zh) * 2022-06-07 2022-08-19 哈尔滨理工大学 一种基于深度学习的汉字书法风格识别方法
CN117727053A (zh) * 2024-02-08 2024-03-19 西南科技大学 一种多类别汉字单样本字体识别方法
CN117727053B (zh) * 2024-02-08 2024-04-19 西南科技大学 一种多类别汉字单样本字体识别方法

Also Published As

Publication number Publication date
CN113128560B (zh) 2023-02-24

Similar Documents

Publication Publication Date Title
CN110210551B (zh) 一种基于自适应主体敏感的视觉目标跟踪方法
CN107491726B (zh) 一种基于多通道并行卷积神经网络的实时表情识别方法
CN104866810B (zh) 一种深度卷积神经网络的人脸识别方法
CN110348399B (zh) 基于原型学习机制和多维残差网络的高光谱智能分类方法
CN109492529A (zh) 一种多尺度特征提取及全局特征融合的人脸表情识别方法
CN112446388A (zh) 一种基于轻量化二阶段检测模型的多类别蔬菜幼苗识别方法及系统
CN110399821B (zh) 基于人脸表情识别的顾客满意度获取方法
CN107451565B (zh) 一种半监督小样本深度学习图像模式分类识别方法
CN108614997B (zh) 一种基于改进AlexNet的遥感图像识别方法
CN113128560B (zh) 一种基于注意力模块增强的cnn楷体书法风格分类方法
CN110363253A (zh) 一种基于卷积神经网络的热轧带钢表面缺陷分类方法
CN111652273B (zh) 一种基于深度学习的rgb-d图像分类方法
CN111832546A (zh) 一种轻量级自然场景文本识别方法
CN110321805B (zh) 一种基于时序关系推理的动态表情识别方法
CN110211127B (zh) 基于双相关性网络的图像分割方法
CN107506792A (zh) 一种半监督的显著对象检测方法
CN112766283B (zh) 一种基于多尺度卷积网络的两相流流型识别方法
CN112749663B (zh) 基于物联网和ccnn模型的农业果实成熟度检测系统
CN109784151A (zh) 一种基于卷积神经网络的脱机手写汉字识别方法
CN103617609A (zh) 基于图论的k-means非线性流形聚类与代表点选取方法
CN114330516A (zh) 基于多图引导神经网络模型的小样本徽景图像分类
CN113920516A (zh) 一种基于孪生神经网络的书法字骨架匹配方法及系统
CN114972753A (zh) 基于上下文信息聚合和辅助学习的轻量级语义分割方法及系统
CN114118186A (zh) 一种基于方向特征增强的书法图像风格分类方法
CN112800979A (zh) 一种基于表征流嵌入网络的动态表情识别方法及系统

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant