CN109063670A - 基于字头分组的印刷体满文单词识别方法 - Google Patents

基于字头分组的印刷体满文单词识别方法 Download PDF

Info

Publication number
CN109063670A
CN109063670A CN201810934923.2A CN201810934923A CN109063670A CN 109063670 A CN109063670 A CN 109063670A CN 201810934923 A CN201810934923 A CN 201810934923A CN 109063670 A CN109063670 A CN 109063670A
Authority
CN
China
Prior art keywords
language
manchus
word
layers
identification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN201810934923.2A
Other languages
English (en)
Inventor
郑蕊蕊
李敏
贺建军
许爽
吴宝春
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dalian Minzu University
Original Assignee
Dalian Nationalities University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dalian Nationalities University filed Critical Dalian Nationalities University
Priority to CN201810934923.2A priority Critical patent/CN109063670A/zh
Publication of CN109063670A publication Critical patent/CN109063670A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/40Document-oriented image-based pattern recognition
    • G06V30/41Analysis of document content
    • G06V30/413Classification of content, e.g. text, photographs or tables
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/28Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet
    • G06V30/293Character recognition specially adapted to the type of the alphabet, e.g. Latin alphabet of characters other than Kanji, Hiragana or Katakana

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Character Discrimination (AREA)

Abstract

基于字头分组的印刷体满文单词识别方法,属于文字识别领域,为了解决提高满文识别正确率的问题,要点是包括如下步骤:对满文单词彩色图像,根据满文单词的首字母对满文单词分组,满文单词词头字母相同的单词分配到同一识别网络,满文单词词头字母不相同的单词分配到不同识别网络,能够独立表达含义的单独字母,不同字母分配到不同的识别网络,识别网络是深度卷积神经网络,识别网络对满文单词识别,降低了识别复杂度,且使用深度卷积神经网络识别网络对满文单词无须分割,同时也无需人工设计特征提取器,从而识别正确率被提高。

Description

基于字头分组的印刷体满文单词识别方法
技术领域
本发明属于文字识别领域,涉及一种基于字头分组的印刷体满文单词识别方法。
背景技术
“满语”和“满文”是满族的语言和文字。清朝将满文作为法定文字推广和使用,形成了大 量满文古籍文献,内容涉及政治、历史、经济和文化等各个方面,具有重要的历史文化价值。 满语在2009年被联合国教科文组织列为极度濒临灭绝的语言,满族语言文化遗产亟待抢救 和保护得到了国家和社会各界的认同和重视。目前国际主流的历史文献保护措施是数字化保 护与开发:依托数字图书馆、数字博物馆和数字档案馆等“互联网+”模式,采用机器学习、 图像处理、计算机视觉和互联网等现代信息技术,达到对历史文档的保护、共享、检索和信 息挖掘等目的。满文濒临灭绝的现状迫切要求以数字化满文历史文档为对象,开展满文文档 图像的光学字符识别技术研究,对于保护和传承中华民族历史文化遗产,推进少数民族古籍 数字化和信息化等方面具有重要意义。
发明内容
为了解决提高满文识别正确率的问题,且实现满文识别无需分割步骤、也不需要人工设 计特征提取器、降低识别复杂度,本发明提出如下技术方案:
一种基于字头分组的印刷体满文单词识别方法,包括如下步骤:对满文单词彩色图像, 根据满文单词的首字母对满文单词分组,满文单词词头字母相同的单词分配到同一识别网 络,满文单词词头字母不相同的单词分配到不同识别网络,能够独立表达含义的单独字母, 不同字母分配到不同的识别网络,识别网络是深度卷积神经网络,识别网络对满文单词识别。
进一步,所述识别网络,卷积神经网络共包含9层,其中有4层卷积层C1、C2、C3、C4,2层下采样层S1、S2,3层全连接层。
进一步,所述识别网络,其输入为64像素×64像素的RGB满文单词图像
进一步,每个卷积层的滤波器尺寸是5像素×5像素,滤波器的个数是32,激活函数是 RELU函数,RELU函数如下:
R(x)=max(0,x) (1)
式中,x表示神经元的输入值,R(x)表示神经元的输出值。
进一步,采样层S1、S2采用最大值池化,池化滤波器尺寸为2像素×2像素,步长为2像素,对输入图像的2像素×2像素区域,取该区域的最大值替代整个区域的4点像素值。
进一步,3层全连接层位于识别网络的最后三层。
进一步,全连结层的激活函数是softmax函数,如下式:
式中,N表示类别个数,j表示某一个类别,j={1,2,…,N},m表示每个类别的训练样本个数, (x(i),y(i))表示第i对训练样本,i={1,2,…,m},x(i)∈RM×M,y (i)∈R,x(i)和y(i)分别是样本的 特征相量和标签,θj T和θl T都表示神经网络学习的参数,对应第j类和第l类的参数,T表 示矩阵的转置,M表示维度。
进一步,所述3层全连接层包括Flatten层、Fully connection层、Output层,Flatten层 对上一层最大值池化的结果进行1维展平而得,Fully connection层的神经元个数是128,最 Output层的神经元个数是每个分组中包含的满文单词类别数;识别模型的代价函数采用交叉 熵函数,如下式:
式中,Loss表示损失函数,yi表示期望的分类对应标签向量的序号,a表示样本x属于某一 类别yi的概率,n表示每次训练神经网络所使用的样本的个数。
进一步,正则化采用L2正则化,采用AdaDelta优化方法在训练过程中更新神经网络的 权重;训练迭代次数=50,全连接层采用50%的随机断连接,dropout=0.5,则代价函数C由 下式表示:
式中,w为整个神经网络的神经元之间的连接权重,λ为正则化参数,正则化参数λ=0.0001, n为样本数量。
一种识别网络,是深度卷积神经网络,用于对满文单词识别,对满文单词彩色图像,根 据满文单词的首字母对满文单词分组,满文单词词头字母相同的单词分配到同一识别网络, 满文单词词头字母不相同的单词分配到不同识别网络,能够独立表达含义的单独字母,不同 字母分配到不同的识别网络,卷积神经网络共包含9层,其中有4层卷积层C1、C2、C3、 C4,2层下采样层S1、S2,3层全连接层,所述识别网络:
其输入为64像素×64像素的RGB满文单词图像;
识别网络的每个卷积层的滤波器尺寸是5像素×5像素,滤波器的个数是32,激活函数 是RELU函数,RELU函数如下:
R(x)=max(0,x) (1)
式中,x表示神经元的输入值,R(x)表示神经元的输出值;
识别网络的采样层S1、S2采用最大值池化,池化滤波器尺寸为2像素×2像素,步长为 2像素,对输入图像的2像素×2像素区域,取该区域的最大值替代整个区域的4点像素值;
识别网络的3层全连接层位于识别网络的最后三层,全连结层的激活函数是softmax函 数,如下式:
式中,N表示类别个数,j表示某一个类别,j={1,2,…,N},m表示每个类别的训练样本个数, (x(i),y(i))表示第i对训练样本,i={1,2,…,m},x(i)∈RM×M,y (i)∈R,x(i)和y(i)分别是样本的 特征相量和标签,都表示神经网络学习的参数,对应第j类和第l类的参数,T表 示矩阵的转置,M表示维度;所述3层全连接层包括Flatten层、Fully connection层、Output 层,Flatten层对上一层最大值池化的结果进行1维展平而得,Fullyconnection层的神经元个 数是128,最Output层的神经元个数是每个分组中包含的满文单词类别数;识别模型的代价 函数采用交叉熵函数,如下式:
式中,Loss表示损失函数,yi表示期望的分类对应标签向量的序号,a表示样本x属于某一 类别yi的概率,n表示每次训练神经网络所使用的样本的个数;
识别网络的正则化采用L2正则化,采用AdaDelta优化方法在训练过程中更新神经网络 的权重;训练迭代次数=50,全连接层采用50%的随机断连接,dropout=0.5,则代价函数C 由下式表示:
式中,w为整个神经网络的神经元之间的连接权重,λ为正则化参数,正则化参数λ=0.0001, n为样本数量。
有益效果:本发明根据组成满文单词的字母个数对满文单词分组,组成字母个数相同分 配到同一识别网络,降低了识别复杂度,且使用度卷积神经网络识别网络对满文单词无须分 割,且识别正确率被提高。
附图说明
图1印刷体满文单词提取流程示意图;
图2无分割印刷体满文单词识别流程图;
图2中上面的“……”表示判断表1中满文字头3,,字头4,……,字头38的字母的SVM分类器,下面的“……”表示对应的识别网络CNN3,CNN4,…,CNN38;
图3印刷体满文单词识别的深度卷积神经网络结构图;
图4同一类单词的7种不同印刷体;
图5不同输入图像尺寸的识别正确率;
图6不同正则化参数对识别正确率的影响;
图7不同卷积核尺寸对识别正确率的影响;
图8数据增广技术框架图;
图9数据增广效果图;
图10最大值池化原理图。
具体实施方式
一种基于字头分组的印刷体满文单词识别方法,包括如下步骤:
(1)满文文档版面分析:目的是从整篇满文文档图像中提取单独的满文单词图像。采 用扫描仪或数码相机采集的满文文档图像,虽然看起来是黑白两色,但是从数字图像处理的 角度看,一般是RGB彩色图像。所以满文文档版面分析的一般步骤包括:彩色文档图像→ 文档图像灰度化→文档图像二值化→倾斜校正→垂直投影法提取满文文本列图像→对满文 文本列图像采用水平投影法提取满文单词图像位置信息→在原彩色满文文档图像中,根据满 文单词图像位置信息提取满文单词彩色图像。述及过程如图1所示。
(2)满文单词预分组:满文单词类别数比较多,单独采用1个识别网络识别虽然在理 论上可行,但是实际操作起来模型复杂度过高,对硬件要求更高。采用如图2所示的预分组 方式,则每组的单词类别数就能够降到合理范围。由于满文是一种音素文字,则可以考虑以 类似词典目录的方式对满文单词按照其首字母来分组。然而在满文中,相同的字母,其位于 单词中的不同位置,写法(字形)是有区别的,通常相同字母因位于词头、词中、词尾或作 为独立字母而具有不同的写法(字形),为此,按照首字母分组满文单词,应该考虑满文中 能够作为单词词头的字母的形式,以及独立字母的形式进行分组,将其称之为满文单字字头, 据统计,满文中共计40个字母能够作为单词词头字母或独立字母表达含义,如表1所示, 则在本申请中,为了降低了识别复杂度,根据能够作为单词词头的字母和能够独立表达含义 的字母对满文单词分组,相应建立40个识别网络,即满文单词词头字母相同的单词分配到 同一识别网络,满文单词词头字母不相同的单词分配到不同识别网络,能够独立表达含义的 单独字母,不同的字母,每个字母分配到一个识别网络,各个字母分配到不同的识别网络。 采用一组训练好的SVM判断单词的首字母或者独立字母,然后分配到不同的识别网络中去。 每个分组对应的识别网络都采用深度卷积神经网络,其具体结构如下述步骤(3)所描述。
表1满文单字字头
(3)满文单词识别:采用深度卷积神经网络实现一种端到端的满文单词识别。目前, 在计算机视觉、目标检测、文字识别等领域,深度学习方法都获得了领先的技术优势。深度 卷积神经网络是深度学习方法的一种,很多视觉处理领域的模式识别研究都使用卷积神经网 络。针对满文单词识别的任务,提出一种深度卷积神经网络,其结构模型如图3所示。输入 为64像素×64像素(以下用数值×数值代替,不再每个都标注像素。即后面的5×5也是指5 像素×5像素)的RGB满文单词图像,卷积神经网络共包含9层:C1,C2,C3,C4是卷积层,每个卷积层的滤波器尺寸都是5×5,滤波器组的个数都是32,激活函数采用RELU,如 公式1所示:
R(x)=max(0,x) (1)
式中,x表示神经元的输入值,R(x)表示神经元的输出值。
S1,S2是下采样层(又称池化层),采用最大值池化(max-pooling),池化滤波器尺寸 为2×2,步长为2像素,对输入图像的2像素×2像素区域,取该区域的最大值(1个值)替代整个区域的4点像素值。例如:输入图像是4像素×4像素,则被分为4个2像素×2像素区域,用每个区域的最大值代替整个区域的4点像素值,则输出为一个2像素×2像素的图像。如图9所示;最后3层是全连接层,全连结层的激活函数采用softmax函数,如公式2所示:
式中,N表示类别个数,j={1,2,…,N}表示某一个类别,m表示每个类别的训练样本个数,(x(i),y(i))表示第i对训练样本,i={1,2,…,m},x(i)∈RM×My (i)∈R,x(i)和 y(i)分别是样本的特征相量和标签,在满文单词识别的应用中,类别对应着满文单词,1个 类别就是1个满文单词,以英文做类比:单词we是一个类别,单词you是另一个类别。N 个类别就表示N个不同的满文单词。都表示神经网络学习的参数,对应第j类和第 l类的参数,T表示矩阵的转置,M表示维度。
Flatten层即对上一层最大值池化的结果进行1维展平,中间的全连接层(Fullyconnection)的神经元个数是128,最后一层输出层(Output)的神经元个数即每个分组中包含的满文单词类别数(实施例中我们设定为666类满文单词)。识别模型的代价函数采用交叉熵函数,如公式3所示:
式中,Loss表示损失函数,yi表示期望的分类对应标签向量的序号,a表示样本x属于 某一类别yi的概率,n表示每次训练神经网络所使用的样本的个数。
采用L2正则化,正则化参数λ=0.0001,如公式4所示;采用AdaDelta优化方法在训练 过程中更新神经网络的权重;训练迭代次数=50,全连接层采用50%的随机断连接,即dropout=0.5,则代价函数C由下式表示:
式中,Loss即为式(3)中的交叉熵损失函数,w为整个神经网络的神经元之间的连接 权重,λ为正则化参数,n为样本数量。
图3中的模型参数都经过了实验优化,下面结合参数在不同取值情况下的实验结果进行 说明。在测试实验中,为了验证模型对不同满文字体的识别情况,构建了一个包含7种印刷 字体的满文单词数据集。该测试集共666类单词,每类单词都包含7种不同的印刷字体。如 图4所示。图4中,字体a~g分别表示《满语365句》印刷体,正白,文鉴,雅白,古风, 正黑,标黑共7种印刷体。为了图示的方便,后续图中,凡是涉及到字体,均按照图4用字 体a~g表示。采用如图3所示的深度卷积神经网络,在a~g这7种印刷体满文单词测试集上 的识别率如表1所示。根据迁移学习的理论,每个分组的深度卷积神经网络采用相同的结构 (输出层神经元个数不同,根据分组中满文单词的数量确定)和参数。
表1在7种不同印刷体上的识别正确率
(3-1)输入图像尺寸优化
首先统计了不同输入图像尺寸情况下,满文单词识别的卷积神经网络模型在2种印刷体 上的精度。由于满文单词是一种拼写单词,因此具有不同的长度。统计了2315张满文单词 图像的尺寸,图像尺寸(高度×宽度)的中位数=平均值=132×71,众数=87×74。分别采用 28×28,64×64,80×80,96×96,87×74,132×71大小的输入图像尺寸,在2种印刷体满文 单词测试集上的识别率如图5所示。通过图5发现,当输入图像尺寸采用64×64时,模型 在两种印刷体字体上都取得了较高的识别率,因此满文单词识别的卷积神经网络模型的输入 图像尺寸定为64×64。
(3-2)L2正则化参数优化
为了减少过拟合,提高模型在不同字体上的泛化性能,引入L2正则化。如公式4所示, 正则化参数λ表示在模型的最终代价函数中,权重w所占的比例。λ过小,则起不到正则化 的效果;λ过大,则导致模型欠拟合。当λ取值>0.01时,模型进入欠拟合状态,识别率快速下降。分别测试了,λ1=0.0001,λ2=0.001,在7种不同印刷体满文单词上的识别率如图6所示。如图6所示,λ1=0.0001在所有7种印刷体满文单词上的识别率均高于λ2=0.001,因此本发明选择正则化参数λ=0.0001。
(3-3)卷积核尺寸优化
卷积核尺寸不仅关系到提取特征的维度,而且对模型的复杂度和时间消耗都有影响。卷 积核一般选取3×3,5×5和7×7。对上述3种卷积核都进行了实验。例如,采用3×3的卷 积核时,图2中的结构图中的所有4层卷积层都采用3×3的卷积核,以此类推。此外,还对组合的卷积核也进行了实验,则模型中每一层的卷积核采用如下配置:C1:3×3,C2:5×5, C3:5×5,C4:7×7。实验结果如图7所示,不同的卷积核对模型对不同印刷体上的识别率影响还是比较大的,而在模型的全部4层卷积层均采用5×5的卷积核时,在所有的7种印 刷体上均获得了较高的识别率。所以本发明的卷积神经网络模型的全部4层卷积层都采用 5×5的卷积核。
(3-4)满文训练数据的合成
由于深度学习技术需要海量数据来训练模型,而满文数据相对匮乏,收集困难。本发明 以一本常用满语教材《满语365句》(作者:何荣伟编,ISBN 9787807226901,出版社:辽宁民族出版社,出版时间:2009-06)为蓝本,首先收集整理了一个满文数据原型库。对《满语365句》中的满文单词进行切分和归类整理,共计666类满文单词,共2135张单词图片。 每一类单词的样本数都不尽相同,统计结果显示,样本数最多的满文单词有82张图片,样 本数最少的满文单词只有1张图片。所以,满文数据原型库样本总数少,并且样本数量不均衡,这两个缺陷制约了该数据库的使用。在深度学习的研究中,训练样本数量不足是一个常见问题,其解决方案就是采用数据合成技术人工合成满足需要的质量和数量的训练图像。针 对满文历史文档的特点和图像采集中常见的情况,在模型训练中设计了一个图像增广系统来 合成图像。大致技术框架如图4所示:共设计了9种图像合成方式,分别模拟满文文档的书 写和满文文档采集时的常见情况。每种合成方式都有本方式的参数。在扩充训练数据时,对 原始满文图像采用至少2种图像合成方式。部分合成样本如图9所示。图9中,a图是来自 满文数据原型库的满文单词,图b~f是混合了2种以上的合成方法生成的样本图像。训练深 度卷积神经网络时,对每一类单词都增广为1000张图像,训练只采用增广的图像而不采用 满文数据原型库中的图像,满文数据原型库中的图像用于测试,即图4中的a字体。
以上所述,仅为本发明创造较佳的具体实施方式,但本发明创造的保护范围并不局限于 此,任何熟悉本技术领域的技术人员在本发明创造披露的技术范围内,根据本发明创造的技 术方案及其发明构思加以等同替换或改变,都应涵盖在本发明创造的保护范围之内。

Claims (9)

1.一种基于字头分组的印刷体满文单词识别方法,包括如下步骤:对满文单词彩色图像,根据满文单词的首字母对满文单词分组,满文单词词头字母相同的单词分配到同一识别网络,满文单词词头字母不相同的单词分配到不同识别网络,能够独立表达含义的单独字母,不同字母分配到不同的识别网络,识别网络是深度卷积神经网络,识别网络对满文单词识别。
2.如权利要求1所述的基于字头分组的印刷体满文单词识别方法,其特征在于,所述识别网络,卷积神经网络共包含9层,其中有4层卷积层C1、C2、C3、C4,2层下采样层S1、S2,3层全连接层。
3.如权利要求1所述的基于字头分组的印刷体满文单词识别方法,其特征在于,所述识别网络,其输入为64像素×64像素的RGB满文单词图像。
4.如权利要求2所述的基于字头分组的印刷体满文单词识别方法,其特征在于,每个卷积层的滤波器尺寸是5像素×5像素,滤波器的个数是32,激活函数是RELU函数,RELU函数如下:
R(x)=max(0,x) (1)
式中,x表示神经元的输入值,R(x)表示神经元的输出值。
5.如权利要求2所述的基于字头分组的印刷体满文单词识别方法,其特征在于,采样层S1、S2采用最大值池化,池化滤波器尺寸为2像素×2像素,步长为2像素,对输入图像的2像素×2像素区域,取该区域的最大值替代整个区域的4点像素值。
6.如权利要求2所述的基于字头分组的印刷体满文单词识别方法,其特征在于,3层全连接层位于识别网络的最后三层。
7.如权利要求6所述的基于字头分组的印刷体满文单词识别方法,其特征在于,全连结层的激活函数是softmax函数,如下式:
式中,N表示类别个数,j表示某一个类别,j={1,2,…,N},m表示每个类别的训练样本个数,(x(i),y(i))表示第i对训练样本,i={1,2,…,m},x(i)∈RM×M,y(i)∈R,x(i)和y(i)分别是样本的特征相量和标签,都表示神经网络学习的参数,对应第j类和第l类的参数,T表示矩阵的转置,M表示维度。
8.如权利要求6所述的基于字头分组的印刷体满文单词识别方法,其特征在于,所述3层全连接层包括Flatten层、Fully connection层、Output层,Flatten层对上一层最大值池化的结果进行1维展平而得,Fully connection层的神经元个数是128,最Output层的神经元个数是每个分组中包含的满文单词类别数;识别模型的代价函数采用交叉熵函数,如下式:
式中,Loss表示损失函数,yi表示期望的分类对应标签向量的序号,a表示样本x属于某一类别yi的概率,n表示每次训练神经网络所使用的样本的个数。
9.如权利要求8所述的基于字头分组的印刷体满文单词识别方法,其特征在于,正则化采用L2正则化,采用AdaDelta优化方法在训练过程中更新神经网络的权重;训练迭代次数=50,全连接层采用50%的随机断连接,dropout=0.5,则代价函数C由下式表示:
式中,w为整个神经网络的神经元之间的连接权重,λ为正则化参数,正则化参数λ=0.0001,n为样本数量。
CN201810934923.2A 2018-08-16 2018-08-16 基于字头分组的印刷体满文单词识别方法 Pending CN109063670A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810934923.2A CN109063670A (zh) 2018-08-16 2018-08-16 基于字头分组的印刷体满文单词识别方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810934923.2A CN109063670A (zh) 2018-08-16 2018-08-16 基于字头分组的印刷体满文单词识别方法

Publications (1)

Publication Number Publication Date
CN109063670A true CN109063670A (zh) 2018-12-21

Family

ID=64686261

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810934923.2A Pending CN109063670A (zh) 2018-08-16 2018-08-16 基于字头分组的印刷体满文单词识别方法

Country Status (1)

Country Link
CN (1) CN109063670A (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110037684A (zh) * 2019-04-01 2019-07-23 上海数创医疗科技有限公司 基于改进卷积神经网络的识别心律类型的装置
CN110037682A (zh) * 2019-04-01 2019-07-23 上海数创医疗科技有限公司 基于改进卷积神经网络的识别心律类型的方法
CN110245353A (zh) * 2019-06-20 2019-09-17 腾讯科技(深圳)有限公司 自然语言表示方法、装置、设备及存储介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101017533A (zh) * 2007-03-09 2007-08-15 清华大学 印刷体蒙古文字符识别方法
CN102737629A (zh) * 2011-11-11 2012-10-17 东南大学 一种嵌入式语音情感识别方法及装置
CN105550169A (zh) * 2015-12-11 2016-05-04 北京奇虎科技有限公司 一种基于字符长度识别兴趣点名称的方法和装置
CN106408002A (zh) * 2016-08-29 2017-02-15 大连民族大学 手写满文字母识别的系统
CN106991407A (zh) * 2017-04-10 2017-07-28 吉林大学 一种车道线检测的方法以及装置
CN107506702A (zh) * 2017-08-08 2017-12-22 江西高创保安服务技术有限公司 基于多角度的人脸识别模型训练及测试系统及方法
CN107784310A (zh) * 2017-11-08 2018-03-09 浙江国自机器人技术有限公司 设备状态信息获取方法、装置、系统、存储介质及机器人
CN108337505A (zh) * 2018-01-30 2018-07-27 百度在线网络技术(北京)有限公司 信息获取方法和装置

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101017533A (zh) * 2007-03-09 2007-08-15 清华大学 印刷体蒙古文字符识别方法
CN102737629A (zh) * 2011-11-11 2012-10-17 东南大学 一种嵌入式语音情感识别方法及装置
CN105550169A (zh) * 2015-12-11 2016-05-04 北京奇虎科技有限公司 一种基于字符长度识别兴趣点名称的方法和装置
CN106408002A (zh) * 2016-08-29 2017-02-15 大连民族大学 手写满文字母识别的系统
CN106991407A (zh) * 2017-04-10 2017-07-28 吉林大学 一种车道线检测的方法以及装置
CN107506702A (zh) * 2017-08-08 2017-12-22 江西高创保安服务技术有限公司 基于多角度的人脸识别模型训练及测试系统及方法
CN107784310A (zh) * 2017-11-08 2018-03-09 浙江国自机器人技术有限公司 设备状态信息获取方法、装置、系统、存储介质及机器人
CN108337505A (zh) * 2018-01-30 2018-07-27 百度在线网络技术(北京)有限公司 信息获取方法和装置

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
周兴华等: "印刷体满文文字数据库的构建与实现", 《大连民族学院学报》 *
张晶等: "基于深度卷积神经网络的手写哈萨克文字母识别方法", 《大连民族大学学报》 *
毕佳晶等: "面向满文字符识别的训练数据增广方法研究", 《大连民族大学学报》 *
王立国等: "《高光谱图像处理技术》", 31 May 2013 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110037684A (zh) * 2019-04-01 2019-07-23 上海数创医疗科技有限公司 基于改进卷积神经网络的识别心律类型的装置
CN110037682A (zh) * 2019-04-01 2019-07-23 上海数创医疗科技有限公司 基于改进卷积神经网络的识别心律类型的方法
CN110245353A (zh) * 2019-06-20 2019-09-17 腾讯科技(深圳)有限公司 自然语言表示方法、装置、设备及存储介质
CN110245353B (zh) * 2019-06-20 2022-10-28 腾讯科技(深圳)有限公司 自然语言表示方法、装置、设备及存储介质

Similar Documents

Publication Publication Date Title
CN110059694B (zh) 电力行业复杂场景下的文字数据的智能识别方法
KR102102161B1 (ko) 이미지 내 객체의 대표 특성을 추출하는 방법, 장치 및 컴퓨터 프로그램
CN105825511B (zh) 一种基于深度学习的图片背景清晰度检测方法
CN106815604B (zh) 基于多层信息融合的注视点检测方法
CN110276402B (zh) 一种基于深度学习语义边界增强的盐体识别方法
CN107341518A (zh) 一种基于卷积神经网络的图像分类方法
CN104408449B (zh) 智能移动终端场景文字处理方法
CN107844740A (zh) 一种脱机手写、印刷汉字识别方法及系统
CN109063670A (zh) 基于字头分组的印刷体满文单词识别方法
CN108764247B (zh) 基于稠密连接的深度学习物体检测方法及装置
CN108052523A (zh) 基于卷积神经网络的赌博网站识别方法和系统
CN109740406A (zh) 无分割印刷体满文单词识别方法及识别网络
CN103824373B (zh) 一种票据图像金额分类方法及系统
CN110196945B (zh) 一种基于LSTM与LeNet融合的微博用户年龄预测方法
CN107886127A (zh) 一种基于卷积神经网络的组织病理学图像分类方法
CN110178139A (zh) 使用具有注意力机制的全卷积神经网络的字符识别的系统和方法
CN109784151A (zh) 一种基于卷积神经网络的脱机手写汉字识别方法
CN110059539A (zh) 一种基于图像分割的自然场景文本位置检测方法
CN113837366A (zh) 一种多风格字体生成方法
CN110956167A (zh) 一种基于定位字符的分类判别强化分离的方法
CN108764361A (zh) 基于集成学习的游梁式抽油机示功图的工况识别方法
CN106874929A (zh) 一种基于深度学习的珍珠分类方法
CN109063720A (zh) 手写字训练样本获取方法、装置、计算机设备及存储介质
CN110188662A (zh) 一种水表数字的ai智能识别方法
CN112883926B (zh) 表格类医疗影像的识别方法及装置

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
RJ01 Rejection of invention patent application after publication

Application publication date: 20181221

RJ01 Rejection of invention patent application after publication