CN108985348A - 基于卷积神经网络的书法风格识别方法 - Google Patents

基于卷积神经网络的书法风格识别方法 Download PDF

Info

Publication number
CN108985348A
CN108985348A CN201810662708.1A CN201810662708A CN108985348A CN 108985348 A CN108985348 A CN 108985348A CN 201810662708 A CN201810662708 A CN 201810662708A CN 108985348 A CN108985348 A CN 108985348A
Authority
CN
China
Prior art keywords
layer
calligraphy
recognition methods
training
sample
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810662708.1A
Other languages
English (en)
Other versions
CN108985348B (zh
Inventor
张九龙
张福成
屈小娥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XI'AN FEIDIE VIRTUAL REALITY TECHNOLOGY Co.,Ltd.
Original Assignee
Xian University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian University of Technology filed Critical Xian University of Technology
Priority to CN201810662708.1A priority Critical patent/CN108985348B/zh
Publication of CN108985348A publication Critical patent/CN108985348A/zh
Application granted granted Critical
Publication of CN108985348B publication Critical patent/CN108985348B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

本发明公开的基于卷积神经网络的书法风格识别方法,包括以下步骤:获得并预处理书法作品,得到书法样本;将书法样本分成训练样本集和验证样本集;将训练样本集输入模型分类器并不断迭代训练,同时使用验证样本集不断验证模型分类器;将书法样本输入训练后的模型分类器中,完成书法风格识别。本发明识别方法将书法风格识别的过程实现了处理流程的简化,将书法图像特征提取及风格识别融为一体,识别速度快,而且识别准确率高;模型分类器参数量比较少,训练用时少,收敛速度快,识别准确率高;能够不断增加风格类别,具有较好的鲁棒性、扩展性。

Description

基于卷积神经网络的书法风格识别方法
技术领域
本发明属于图像分类识别方法技术领域,具体涉及一种基于卷积神经网络的书法风格识别方法。
背景技术
中国书法是中华传统文化的重要组成部分,不仅历史悠久,沉淀浓厚,而且还传播广泛,对民族文化影响巨大,和其他优秀文化诸如绘画堪当中国文化和艺术瑰宝,对中国书法的研究有着极其重要的实际意义。
利用现代的计算机技术来指导研究和学习书法,传承、传播传统文化有着的极其重要的作用。目前,现有的方法大都是应用一些传统的模式识别算法进行书法风格的识别,是面对大量不同的书法作品时,会导致识别难度的增加,效率的降低,而且得到的效果也不是很理想。因此,如何高效、准确的识别书法风格识迫切需要解决的问题。
发明内容
本发明的目的是提供一种基于卷积神经网络的书法风格识别方法,解决了现有识别方法效率低下、准确率低的问题。
本发明所采用的技术方案是,基于卷积神经网络的书法风格识别方法,包括以下步骤:
步骤1,获得并预处理书法作品,得到书法样本;
步骤2,将步骤1的书法样本分成训练样本集和验证样本集;
步骤3,将步骤2中的训练样本集输入模型分类器并不断迭代训练,同时使用验证样本集不断验证模型分类器;
步骤4,将步骤1的书法样本输入步骤3训练后的模型分类器中,完成书法风格识别。
本发明的特征还在于,
步骤1具体为:
步骤1.1,将每幅书法作品处理成图像格式,随后应用最小包围将每幅书法作品切割成无畸变的单个书法字图像;
步骤1.2,通过中心填充归一化,将步骤1.1得到的单个书法字图像归一化成大小统一的正方形单字图像;
步骤1.3,将步骤1.2的正方形单字图像统一压缩至分辨率为64×64的单个书法字图像,得到书法样本。
步骤2具体为:
将步骤1得到的书法样本按照9:1的比例随机分为训练数据集和验证数据集。
步骤3具体为:
将步骤2中的训练样本集批量输入模型分类器中,首次迭代时,模型分类器权重参数为随机初始化参数,通过前向传播算法不断向前传递特征,并计算残差,随后通过反向传播算法将残差不断向后传递,修正权重参数,不断迭代直至收敛;
当模型分类器中每迭代10次,将验证样本集输入模型分类器中识别准确率:当识别准确率出现两极分化,则需要重新训练模型分类器;如未出现两极分化,继续训练。
收敛的条件为:迭代次数不大于在10000且达到残差值最小。
模型分类器中网络模型包含11层,输入是通道为1的灰度图像,分辨率大小64×64;
第一层是32个感受野大小为5×5的卷积层,步长为1,边缘填充为2,参数量为5×5×1×32+32,即832,输出为32个通道、大小为64×64的特征;
第二层采用重叠的最大池化层,即感受野大小为3×3,步长为2,边缘填充为1,输出为32个通道,图像大小为64×64的特征;
第三层至第六层是两组与第一层和第二层相类似的卷积层和最大池化层:第三层的卷积核数量是32,大小5×5,边缘填充为2,步长为1,参数量为5×5×32×32+32,即26624;第五层是64个卷积核大小为5×5卷积层,步长为1,边缘填充是2,该卷积层的参数量为5×5×32×64+64,即53248;第四层和第六层均为最大池化层;
第七层为卷积层,即128个大小为5×5的卷积核,步长为1,边缘填充为2,参数量为5×5×64×128+128,即212992;
第八层为平均池化层,感受野大小为3×3,步长为2,边缘填充为1,输出为128个通道,图像大小为4×4的特征,可以有效降低前面两层重叠池化带来的噪音;
第九层为Concat(avg,std)层,在第七层的卷积和第八层放平均池化层之后的输出为128×4×4,即128个通道大小为4×4的特征作为Concat(avg,std)层的输入;
第十层为全连接层,全连接层的输入为128个4×4的特征,输出为256个特征,则参数量为4×4×128×256+256,即524288;
第十一层为softmax分类层,用于计算输出属于每一类的概率。
本发明的有益效果是:
(1)本发明的识别方法将书法风格识别的过程实现了处理流程的简化,将书法图像特征提取及风格识别融为一体,识别速度快,而且识别准确率高;
(2)本发明的识别方法所训练的模型分类器参数量比较少,训练用时少,收敛速度快,识别准确率高;
(3)本发明的识别方法能够不断增加风格类别,具有较好的鲁棒性、扩展性。
附图说明
图1是本发明基于卷积神经网络的书法风格识别方法中模型分类器训练流程图;
图2是本发明基于卷积神经网络的书法风格识别方法中模型分类器网络结构图;
图3是本发明基于卷积神经网络的书法风格识别方法中模型分类器网络结构中的concat结构图;
图4是基于卷积神经网络的书法风格识别方法中模型提取不同级别的抽象特征;
图4中(a)表示第一层组成卷积层提取的抽象特征,图4中(b)表示第三层组成卷积层提取的抽象特征,图4中(c)表示第五层组成卷积层提取的抽象特征,图4中(d)表示第七层组成卷积层提取的抽象特征。
具体实施方式
下面结合附图和具体实施方式对本发明进行详细说明。
本发明基于卷积神经网络的书法风格识别方法,包括以下步骤:
步骤1,获得并预处理书法作品,得到书法样本;
将每幅书法作品处理成图像格式,随后应用最小包围将每幅书法作品切割成无畸变的单个书法字图像;通过中心填充归一化,将得到的单个书法字图像归一化成大小统一的正方形单字图像;将正方形单字图像统一压缩至分辨率为64×64的单个书法字图像,得到书法样本。
步骤2,将步骤1的书法样本分成训练样本集和验证样本集;
将步骤1得到的书法样本按照9:1的比例随机分为训练数据集和验证数据集。
为了防止在训练模型分类器过程中出现过拟合,抽出一小部分数据作为验证数据集,检验模型分类器是否出现过拟合(在不断迭代的过程中,当训练数据集的识别准确率很高而验证集的识别准确率却很低时,即出现了过拟合现象)。
步骤3,将步骤2中的训练样本集输入模型分类器并不断迭代训练,同时使用验证样本集不断验证模型分类器;
将步骤2中的训练样本集批量输入模型分类器中,首次迭代时,模型分类器权重参数为随机初始化参数,通过前向传播算法不断向前传递特征,并计算残差,随后通过反向传播算法将残差不断向后传递,修正权重参数,如此不断迭代以使得残差值最小或者残差值保持相对稳定,一般迭代在10000以内都能够达到残差值最小,即收敛,具体流程如图1所示。
同时为了验证模型是否出现过拟合,当模型分类器中每迭代10次,将验证样本集输入模型分类器中识别准确率:当识别准确率出现两极分化,则需要重新训练模型分类器;如未出现两极分化,继续训练。
如图2和图3所示,模型分类器中网络模型包含11层,输入是通道为1的灰度图像,分辨率大小64×64;
第一层是32个感受野大小为5×5的卷积层,步长为1,边缘填充为2,参数量为5×5×1×32+32,即832,经过第一层的卷积运算得到的输出为32个通道、图像大小为64×64的特征;
第二层采用重叠的最大池化层,即感受野大小为3×3,步长为2,边缘填充为1,输出为32个通道,图像大小为64×64的特征;最大池化能够避免平均池化的模糊化的影响,重叠和覆盖提高了特征提取的丰富性,并且池化能有效降低特征的映射的维度;池化层的计算简单,故没有权重参数;在池化层之后增加BN(Batch Normalization)层来防止函数损失反向传播过程中的梯度弥散并加速训练模型的收敛;在BN之后连接了非线性激活函数ReLU来进一步增加非线性变换的特征;
第三层至第六层是两组与第一层和第二层相类似的卷积层和最大池化层:第三层的卷积核数量是32,大小5×5,边缘填充为2,步长为1,参数量为5×5×32×32+32,即26624;第五层是64个卷积核大小为5×5卷积层,步长为1,边缘填充是2,该卷积层的参数量为5×5×32×64+64,即53248;第四层和第六层均为最大池化层,并在池化之后进行批量归一化(BN)以及ReLU激活函数的映射;
第七层为卷积层,即128个大小为5×5的卷积核,步长为1,边缘填充为2,参数量为5×5×64×128+128,即212992;
第八层为平均池化层,感受野大小为3×3,步长为2,边缘填充为1,输出为128个通道,图像大小为4×4的特征,可有效降低前面重叠池化带来的噪音;
第九层为Concat(avg,std)层,在第七层的卷积和第八层放平均池化层之后的输出为128×4×4,即128个通道大小为4×4的特征作为Concat(avg,std)层的输入,在该层中依照公式(1)、(2)分别计算均值μ和标准方差σ,对于128个通道的输入,分别计算得到128个均值和方差的值,然后将均值和方差重新连接成一个256维的向量特征作为该层的输出,然后输出到下一层全连接层中;
其中,参数I(i,j)表示二维矩阵且大小为4×4,参数i表示横坐标,参数j表示纵坐标;
第十层为全连接层,全连接层的输入为128个4×4的特征,输出为256个特征,则参数量为4×4×128×256+256,即524288;
第十一层为softmax分类层,softmax是logistic回归模型对于多分类问题的推广,即类的数量可以是两个以上,softmax可以计算输出属于每一类的概率。故整个网络结构权重参数量为817984。
步骤4,将步骤1的书法样本输入步骤3训练后的模型分类器中,完成书法风格识别。由于模型分类内部是不断提取抽象特征并分类识别的过程,因而也可将提取的抽象特征可视化,如图4所示,为第一、三、五、七层组成的四组卷积层提取的抽象特征。

Claims (6)

1.基于卷积神经网络的书法风格识别方法,其特征在于,包括以下步骤:
步骤1,获得并预处理书法作品,得到书法样本;
步骤2,将步骤1的书法样本分成训练样本集和验证样本集;
步骤3,将步骤2中的训练样本集输入模型分类器并不断迭代训练,同时使用验证样本集不断验证模型分类器;
步骤4,将步骤1的书法样本输入步骤3训练后的模型分类器中,完成书法风格识别。
2.根据权利要求1所述的基于卷积神经网络的书法风格识别方法,其特征在于,所述步骤1具体为:
步骤1.1,将每幅书法作品处理成图像格式,随后应用最小包围将每幅书法作品切割成无畸变的单个书法字图像;
步骤1.2,通过中心填充归一化,将步骤1.1得到的单个书法字图像归一化成大小统一的正方形单字图像;
步骤1.3,将步骤1.2的正方形单字图像统一压缩至分辨率为64×64的单个书法字图像,得到书法样本。
3.根据权利要求1所述的基于卷积神经网络的书法风格识别方法,其特征在于,所述步骤2具体为:
将步骤1得到的书法样本按照9:1的比例随机分为训练数据集和验证数据集。
4.根据权利要求1所述的基于卷积神经网络的书法风格识别方法,其特征在于,所述步骤3具体为:
将步骤2中的训练样本集批量输入模型分类器中,首次迭代时,模型分类器权重参数为随机初始化参数,通过前向传播算法不断向前传递特征,并计算残差,随后通过反向传播算法将残差不断向后传递,修正权重参数,不断迭代直至收敛;
当模型分类器中每迭代10次,将验证样本集输入模型分类器中识别准确率:当识别准确率出现两极分化,则需要重新训练模型分类器;如未出现两极分化,继续训练。
5.根据权利要求4所述的基于卷积神经网络的书法风格识别方法,其特征在于,所述收敛的条件为:迭代次数不大于在10000且达到残差值最小。
6.根据权利要求1或4所述的基于卷积神经网络的书法风格识别方法,其特征在于,所述模型分类器中网络模型包含11层,输入是通道为1的灰度图像,分辨率大小64×64;
第一层是32个感受野大小为5×5的卷积层,步长为1,边缘填充为2,参数量为5×5×1×32+32,即832,输出为32个通道、大小为64×64的特征;
第二层采用重叠的最大池化层,即感受野大小为3×3,步长为2,边缘填充为1,输出为32个通道,图像大小为64×64的特征;
第三层至第六层是两组与第一层和第二层相类似的卷积层和最大池化层:第三层的卷积核数量是32,大小5×5,边缘填充为2,步长为1,参数量为5×5×32×32+32,即26624;第五层是64个卷积核大小为5×5卷积层,步长为1,边缘填充是2,该卷积层的参数量为5×5×32×64+64,即53248;第四层和第六层均为最大池化层;
第七层为卷积层,即128个大小为5×5的卷积核,步长为1,边缘填充为2,参数量为5×5×64×128+128,即212992;
第八层为平均池化层,感受野大小为3×3,步长为2,边缘填充为1,输出为128个通道,图像大小为4×4的特征;
第九层为Concat(avg,std)层,在第七层的卷积和第八层放平均池化层之后的输出为128×4×4,即128个通道大小为4×4的特征作为Concat(avg,std)层的输入;
第十层为全连接层,全连接层的输入为128个4×4的特征,输出为256个特征,则参数量为4×4×128×256+256,即524288;
第十一层为softmax分类层,用于计算输出属于每一类的概率。
CN201810662708.1A 2018-06-25 2018-06-25 基于卷积神经网络的书法风格识别方法 Active CN108985348B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810662708.1A CN108985348B (zh) 2018-06-25 2018-06-25 基于卷积神经网络的书法风格识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810662708.1A CN108985348B (zh) 2018-06-25 2018-06-25 基于卷积神经网络的书法风格识别方法

Publications (2)

Publication Number Publication Date
CN108985348A true CN108985348A (zh) 2018-12-11
CN108985348B CN108985348B (zh) 2019-06-14

Family

ID=64538764

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810662708.1A Active CN108985348B (zh) 2018-06-25 2018-06-25 基于卷积神经网络的书法风格识别方法

Country Status (1)

Country Link
CN (1) CN108985348B (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871851A (zh) * 2019-03-06 2019-06-11 长春理工大学 一种基于卷积神经网络算法的汉字书写规范性判定方法
CN110070089A (zh) * 2019-04-24 2019-07-30 京东方科技集团股份有限公司 书法指导方法及装置、计算机设备及介质
CN110097087A (zh) * 2019-04-04 2019-08-06 浙江科技学院 一种自动钢筋捆扎位置识别方法
CN110334782A (zh) * 2019-06-28 2019-10-15 西安理工大学 多卷积层驱动的深度信念网络书法风格识别方法
CN111415325A (zh) * 2019-11-11 2020-07-14 杭州电子科技大学 一种基于卷积神经网络的铜箔基板缺陷检测方法
CN112949460A (zh) * 2021-02-26 2021-06-11 陕西理工大学 一种基于视频的人体行为网络模型及识别方法
CN113065480A (zh) * 2021-04-09 2021-07-02 暨南大学 书法作品风格的识别方法、装置、电子装置和存储介质
CN113128442A (zh) * 2021-04-28 2021-07-16 华南师范大学 基于卷积神经网络的汉字书法风格识别方法和评分方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106599941A (zh) * 2016-12-12 2017-04-26 西安电子科技大学 基于卷积神经网络与支持向量机的手写数字识别方法
CN106709486A (zh) * 2016-11-11 2017-05-24 南京理工大学 基于深度卷积神经网络的自动车牌识别方法
CN106919942A (zh) * 2017-01-18 2017-07-04 华南理工大学 用于手写汉字识别的深度卷积神经网络的加速压缩方法
CN107633220A (zh) * 2017-09-13 2018-01-26 吉林大学 一种基于卷积神经网络的车辆前方目标识别方法

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106709486A (zh) * 2016-11-11 2017-05-24 南京理工大学 基于深度卷积神经网络的自动车牌识别方法
CN106599941A (zh) * 2016-12-12 2017-04-26 西安电子科技大学 基于卷积神经网络与支持向量机的手写数字识别方法
CN106919942A (zh) * 2017-01-18 2017-07-04 华南理工大学 用于手写汉字识别的深度卷积神经网络的加速压缩方法
CN107633220A (zh) * 2017-09-13 2018-01-26 吉林大学 一种基于卷积神经网络的车辆前方目标识别方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109871851A (zh) * 2019-03-06 2019-06-11 长春理工大学 一种基于卷积神经网络算法的汉字书写规范性判定方法
CN109871851B (zh) * 2019-03-06 2023-05-12 长春理工大学 一种基于卷积神经网络算法的汉字书写规范性判定方法
CN110097087A (zh) * 2019-04-04 2019-08-06 浙江科技学院 一种自动钢筋捆扎位置识别方法
CN110097087B (zh) * 2019-04-04 2021-06-11 浙江科技学院 一种自动钢筋捆扎位置识别方法
CN110070089A (zh) * 2019-04-24 2019-07-30 京东方科技集团股份有限公司 书法指导方法及装置、计算机设备及介质
CN110334782A (zh) * 2019-06-28 2019-10-15 西安理工大学 多卷积层驱动的深度信念网络书法风格识别方法
CN111415325B (zh) * 2019-11-11 2023-04-25 杭州电子科技大学 一种基于卷积神经网络的铜箔基板缺陷检测方法
CN111415325A (zh) * 2019-11-11 2020-07-14 杭州电子科技大学 一种基于卷积神经网络的铜箔基板缺陷检测方法
CN112949460A (zh) * 2021-02-26 2021-06-11 陕西理工大学 一种基于视频的人体行为网络模型及识别方法
CN112949460B (zh) * 2021-02-26 2024-02-13 陕西理工大学 一种基于视频的人体行为网络模型及识别方法
CN113065480A (zh) * 2021-04-09 2021-07-02 暨南大学 书法作品风格的识别方法、装置、电子装置和存储介质
CN113065480B (zh) * 2021-04-09 2023-07-07 暨南大学 书法作品风格的识别方法、装置、电子装置和存储介质
CN113128442A (zh) * 2021-04-28 2021-07-16 华南师范大学 基于卷积神经网络的汉字书法风格识别方法和评分方法
CN113128442B (zh) * 2021-04-28 2023-09-26 华南师范大学 基于卷积神经网络的汉字书法风格识别方法和评分方法

Also Published As

Publication number Publication date
CN108985348B (zh) 2019-06-14

Similar Documents

Publication Publication Date Title
CN108985348B (zh) 基于卷积神经网络的书法风格识别方法
WO2021134871A1 (zh) 基于局部二值模式和深度学习的合成人脸图像取证方法
CN107844795B (zh) 基于主成分分析的卷积神经网络特征提取方法
CN104992191B (zh) 基于深度学习的特征和最大置信路径的图像分类方法
CN105975968B (zh) 一种基于Caffe框架的深度学习车牌字符识别方法
CN109063719B (zh) 一种联合结构相似性和类信息的图像分类方法
CN106250931A (zh) 一种基于随机卷积神经网络的高分辨率图像场景分类方法
CN105354581B (zh) 融合颜色特征与卷积神经网络的彩色图像特征提取方法
CN104598885B (zh) 街景图像中的文字标牌检测与定位方法
CN113239954B (zh) 基于注意力机制的图像语义分割特征融合方法
CN107341510B (zh) 基于稀疏正交的双图非负矩阵分解的图像聚类方法
CN111861906B (zh) 一种路面裂缝图像虚拟增广模型建立及图像虚拟增广方法
CN106845525A (zh) 一种基于底层融合特征的深度置信网络图像分类协议
CN105893968A (zh) 基于深度学习的文本无关的端到端的笔迹识别方法
CN106503694B (zh) 基于八邻域特征的数字识别方法
CN112766315B (zh) 一种用于测试人工智能模型鲁棒性的方法和系统
CN105224937A (zh) 基于人体部件位置约束的细粒度语义色彩行人重识别方法
CN110334782A (zh) 多卷积层驱动的深度信念网络书法风格识别方法
CN104156690B (zh) 一种基于图像空间金字塔特征包的手势识别方法
CN111311702B (zh) 一种基于BlockGAN的图像生成和识别模块及方法
CN110472652A (zh) 基于语义引导的少量样本分类方法
CN103778913A (zh) 一种病理嗓音的识别方法
CN111241933A (zh) 一种基于通用对抗扰动的养猪场目标识别方法
CN112580502A (zh) 基于sicnn的低质量视频人脸识别方法
CN110991563B (zh) 一种基于特征融合的胶囊网络随机路由方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant
TR01 Transfer of patent right
TR01 Transfer of patent right

Effective date of registration: 20210326

Address after: Floor 19, block B, northwest Guojin center, 168 Fengcheng 8th Road, Weiyang District, Xi'an City, Shaanxi Province, 710000

Patentee after: XI'AN FEIDIE VIRTUAL REALITY TECHNOLOGY Co.,Ltd.

Address before: 710048 No. 5 Jinhua South Road, Shaanxi, Xi'an

Patentee before: XI'AN University OF TECHNOLOGY