CN113516124B - 基于计算机视觉技术的电能表用电信息识别算法 - Google Patents
基于计算机视觉技术的电能表用电信息识别算法 Download PDFInfo
- Publication number
- CN113516124B CN113516124B CN202110596087.3A CN202110596087A CN113516124B CN 113516124 B CN113516124 B CN 113516124B CN 202110596087 A CN202110596087 A CN 202110596087A CN 113516124 B CN113516124 B CN 113516124B
- Authority
- CN
- China
- Prior art keywords
- network
- recognition
- text
- feature
- sequence
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000005611 electricity Effects 0.000 title claims abstract description 21
- 238000005516 engineering process Methods 0.000 title claims abstract description 12
- 238000004422 calculation algorithm Methods 0.000 title abstract description 63
- 238000001514 detection method Methods 0.000 claims abstract description 43
- 230000007246 mechanism Effects 0.000 claims abstract description 27
- 238000013528 artificial neural network Methods 0.000 claims abstract description 11
- 125000004122 cyclic group Chemical group 0.000 claims abstract description 11
- 230000015654 memory Effects 0.000 claims abstract description 8
- 238000004458 analytical method Methods 0.000 claims abstract description 7
- 238000000605 extraction Methods 0.000 claims abstract description 7
- 238000011156 evaluation Methods 0.000 claims abstract description 5
- 238000000034 method Methods 0.000 claims description 40
- 238000012549 training Methods 0.000 claims description 20
- 239000013598 vector Substances 0.000 claims description 14
- 230000006870 function Effects 0.000 claims description 13
- 238000005070 sampling Methods 0.000 claims description 13
- 238000002372 labelling Methods 0.000 claims description 7
- 230000000007 visual effect Effects 0.000 claims description 6
- 238000010586 diagram Methods 0.000 claims description 5
- 238000011176 pooling Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 238000007781 pre-processing Methods 0.000 claims description 2
- 230000001419 dependent effect Effects 0.000 claims 1
- 238000002474 experimental method Methods 0.000 abstract description 17
- 238000002679 ablation Methods 0.000 abstract description 9
- 238000013135 deep learning Methods 0.000 description 9
- 238000012937 correction Methods 0.000 description 7
- 230000011218 segmentation Effects 0.000 description 7
- 102100032202 Cornulin Human genes 0.000 description 6
- 101000920981 Homo sapiens Cornulin Proteins 0.000 description 6
- 230000008901 benefit Effects 0.000 description 6
- 238000013527 convolutional neural network Methods 0.000 description 6
- 230000000694 effects Effects 0.000 description 6
- 230000000306 recurrent effect Effects 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013461 design Methods 0.000 description 3
- 238000004880 explosion Methods 0.000 description 3
- 230000000750 progressive effect Effects 0.000 description 3
- 238000011160 research Methods 0.000 description 3
- 240000004760 Pimpinella anisum Species 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 230000002457 bidirectional effect Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 238000006731 degradation reaction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000001914 filtration Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000001788 irregular Effects 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000002156 mixing Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000004931 aggregating effect Effects 0.000 description 1
- 230000002776 aggregation Effects 0.000 description 1
- 238000004220 aggregation Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 238000005452 bending Methods 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000002490 cerebral effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000010790 dilution Methods 0.000 description 1
- 239000012895 dilution Substances 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 238000003702 image correction Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 230000007787 long-term memory Effects 0.000 description 1
- 230000000877 morphologic effect Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 239000000243 solution Substances 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/047—Probabilistic or stochastic networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Molecular Biology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Mathematical Physics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Probability & Statistics with Applications (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Biology (AREA)
- Image Analysis (AREA)
Abstract
基于计算机视觉技术的电能表用电信息识别算法,该框架集检测、识别于一体,实现了端到端的文本定位和预测。首先,检测端结合了特征金字塔网络和残差网络思想,对输入图像进行特征提取,通过四个控制点生成贝塞尔曲线,更好地拟合文本框;然后,识别端采用了基于卷积循环神经网络的文本识别算法,引入门控循环单元替代长短期记忆单元,再结合注意力机制对目标区域文本进行识别;最后,进行五组消融实验,通过实验数据进行性能对比和评估分析。实验结果显示,该算法识别精度高达99.08%,推理速度快,可以运用于用电信息检测与识别的实际应用中。
Description
技术领域
本发明属于利用计算机视觉技术来自动识别电能表用电信息技术领域,特别涉及基于自适应贝塞尔曲线网络的电能表用电信息识别算法。
背景技术
随着我国人工智能技术的不断发展和电力行业的转型与扩张,电能表作为获取用电信息的计量工具,在人们的日常生活中发挥着重要的作用。传统的人工抄表方法比较容易受到外界不稳定因素的影响,因此,快速、准确获得电表用电信息对于电力相关部门信息收集具有时代意义和研究价值。
通常,将电表摆放整齐,摄像镜头垂直于表盘平面,通过拍照的方式获取电表用电信息区域的图像。针对电表图像,利用计算机视觉技术进行用电信息检测与识别,可分为两类方法:基于手工图像特征的方法和基于深度学习的方法。前者是先通过手工方式获取图像特征,再对文本信息进行检测和识别的方法,如Anis等[1]和Zhang等[2]采用改进的二值化算法以及形态学操作,结合电表示数的几何特征定位,然后根据数字的笔画特征进行识别。基于手工设计特征进行检测的方法[1-2]在光照充足时具有较高的识别精度,当环境不理想时,识别精度会变差。因此,基于手工设计特征方法不但消耗了大量的人力和时间,并且训练时间比较长,实际检测效果也并不理想。基于深度学习的方法,如Laroca等[3]以YOLO(YouOnly Look Once你只需看一眼)算法为基础使用轻量级的YOLOv2-Tiny(You Only LookOnce version2 Tiny你只需看一眼第二版轻量级)网络快速定位电表示数区域,然后分别使用CR-NET(Character recognition Network)[4]、卷积循环神经网络(CRNN)[5]两种识别方法进行数字识别并做了对比实验,CR-NET的识别也只到89.5%;龚安等[6]在此基础上将网络升级,提出了轻量级的YOLOv3-Tiny(You Only Look Once version3 Tiny你只需看一眼第三版轻量级)网络的定位和识别模型,修改NMS后计数器识别准确率达到了92.13%;Li等[7]同样以YOLO为基础,采用多阈值软切分方法进行识别,准确率达到了93.61%,比原始YOLO算法提高了9个百分点;Liu等[8]提出了自适应贝塞尔曲线网络(Adaptive BezierCurve Network,ABCNet),该网络集检测与识别于一体,检测端结合了残差网络[9]和特征金字塔网络[10]两种思想,使用贝塞尔曲线拟合文本框;识别端则采用了基于CRNN的轻量级识别算法,速度快,检测的准确率达到了93.56%。显然,相比较于传统方法[1,2],深度学习方法[3-7]优势明显,不仅可以显著地提升检测速度,还可以提高检测精度。
发明内容
本发明的目的是提供基于计算机视觉技术的电能表用电信息识别算法,利用计算机视觉技术来自动识别电能表用电信息,实现电表数据远程获取,在日常生活中具有重要作用。
采用的技术方案是:
本技术方案提出基于计算机视觉技术的电能表用电信息识别算法。该框架集检测、识别于一体,实现了端到端的文本定位和预测。首先,检测端结合了特征金字塔网络和残差网络思想,对输入图像进行特征提取,通过四个控制点生成贝塞尔曲线,更好地拟合文本框;然后,识别端采用了基于卷积循环神经网络的文本识别算法,引入门控循环单元替代长短期记忆单元,再结合注意力机制对目标区域文本进行识别;最后,进行五组消融实验,通过实验数据进行性能对比和评估分析。实验结果显示,该算法识别精度高达99.08%,推理速度快,可以运用于用电信息检测与识别的实际应用中。
其优点在于:
本技术方案基于深度学习算法,针对电能表用电信息的智能检测与识别进行了研究,检测准确率达到了95.28%,识别准确率达到了99.08%。主要贡献如下:
(1)在电表信息文本检测方面,为了获得更丰富的全局语义,减轻信息稀释,本技术方案改进了特征提取网络。首先,在上采样过程中,以前两级集成的特征作为输入,使高层的语义信息传递到各个级别的特征映射,与位置信息更好的融合,从而捕获丰富的多尺度上下文信息;最后,将四个特征图以合并多个数组的方式连接起来,合成一个高级特征,这样不仅改善了梯度消失和网络退化问题,而且特征增强网络使该算法具备检测多尺度特征的能力。对比实验结果表明该算法的检测效果在准确率、召回率、和F值三个维度上均有提升。
(2)在电表信息文本识别方面,本技术方案提出了基于改进CRNN的文本识别算法。首先,为了提升识别精度,本技术方案的矫正网络选用贝塞尔对齐网络,采样网格不再受矩形框的条件限制,将采样点线性索引后进行双线性插值,实现图像矫正和文本对齐。然后,在识别算法中引入门控循环单元(Gate Recurrent Unit,GRU)[12],代替长短期记忆(Long-Short Term Memory,LSTM)网络[13]对特征序列进行编码,使用结合注意力机制(Attentionmechanism)算法[14]代替连续时序分类算法(Continuous temporal classification,CTC)对特征序列进行解码,得到最终的识别结果。通过消融实验验证了矫正网络可以提升模型性能;GRU的引入可以优化模型精度、简化模型复杂度;注意力机制对识别效果有明显提升。
(3)本技术方案所提出的网络框架,集检测与识别于一体,实现了端到端的文本定位和预测,网络结构简单、推理速度快、识别精度高,对复杂的背景问题具有抗干扰能力,适合识别在阴暗、强光、灰尘处放置的电表屏幕,对电力相关部门快速准确地收集用户用电信息提供了实用价值,从而解决了传统抄表方法费时费力以及现有识别算法精度不高、实用性不强的问题。
附图说明
图1为网络整体结构。
图2为骨干网络结构图。
图3为用电信息文本框生成的实例结果。
图4为改进的CRNN模型。
图5为双向GRU结构。
图6为注意力机制示意图。
图7为电能表标注案例。
图8为可视化结果展示。
具体实施方式
电能表用电信息检测与识别是场景文本检测与识别的一个分支。得益于深度学习的快速发展,自然场景下的文字检测与识别技术研究虽然已经相对成熟,但仍是一个开放性研究问题。它主要包含两大模块:文字检测和文字识别。
2.1文字检测:
文本检测算法可以分为基于回归、基于分割、基于巨大脑神经元(Giant CerebralNeuron,GCN)和基于混合的四种类型。与一般对象不同,文本通常以具有各种纵横比的不规则形状存在。为了解决这个问题,RRD(Rotation Regression Detection基于旋转的回归检测)[15]在SSD(Single Shot Detector单射检测器)[16]的基础上重新设定锚框,以适应不规则形状的文本,减少纵横比变化所带来的误差。Textboxes++(文本框)[17]则是把卷积内核和锚框机制进行修改,以便适应各种文本形状的检测。但是复杂的锚框机制,导致这一类算法具有一定的局限性。Tian等[18]提出的CTPN(Connectionist Text Proposal Network连续文本区域网络)是基于回归算法中比较经典的一个,创新之处在于引入垂直锚框机制,将不同尺寸的文本简化成多个固定宽度的候选框,能够检测多尺度多语言的文字,基于回归算法的不足之处在于检测弯曲文本时精度不高;为了解决深度学习算法在耗时和弯曲文本检测精度不高的问题,Zhou等[19]在2017年提出EAST(Efficient and Accurate SceneText Detector高效精确的场景文本检测器)算法,该算法在速度上取得领先,能直接预测任意形状文本,省去了候选方案、文本区域形成等交互步骤;Li等[20]提出了基于像素分割的渐进尺度扩展网络,使得该方法可以很好地适用于曲线文本以及距离较近的文本行区分。但基于分割算法容易受到分割精度、内核数量的影响;Wang等[21]提出了一种新颖的文本检测方法,采用基于频谱的图卷积网络进行深度关系推理,可以适应更复杂情况下的任意形状文本检测,但是该方法的泛化能力不太理想。
1.2文字识别:
文字识别算法主要有三种类型:第一种是Graves等[22]提出的连续时序分类算法,它被广泛应用于文本识别领域,主要解决输入序列和输出序列对应的问题,但是在进行去重操作时容易产生误差,把原本相邻的两个相同字符识别成一个。CTC的升级版本GTC(guided training of CTC CTC指导训练)[23],是利用CTC进行监督和引导,然后再CTC分支中加入GCN图卷积神经网络提高模型表达能力,但是前向后向算法的实现很复杂。第二种方法是基于注意力机制算法,Attention最早是被Vaswani等[24]引入到深度学习中的,提供了一种代替传统RNN的新思路。Yin等[25]在此基础上,提出了融合语句间相互影响的注意力方案;Wojna等[26]提出了一种基于CNN(Convolutional Neural Network卷积神经网络)、RNN(Recurrent Neural Network循环神经网络)和一种新颖的注意力机制神经网络模型,将其应用于法国街道名称标识数据集[27]。基于注意力机制算法的不足之处在于存储需求和计算消耗更大,但是识别的准确率更高。第三种算法是文字识别领域的后起之秀,它提出一个全新的损失函数计算方法:聚合叉(Aggregation cross-entropy,ACE)[28],就是把每一个时间序列预测的概率进行聚合再归一化,计算简单,节省内存。对比三种算法,基于注意力机制算法可以在耗时和精度上取得平衡。
2算法原理:
ABCNet是一个可以实现端到端可训练的网络框架,不需要预定义锚设置,计算开销小,主要包含三个模块:主干网络、贝塞尔检测网络和基于注意力机制的识别模块,整体结构框架如图1所示。首先构建50层的残差神经网络作为骨干网络,用特征金字塔网络[10]来提取输入的图像特征,然后通过基于贝塞尔曲线检测算法的单阶段无锚(anchor-free)网络[29]回归坐标点,通过坐标点的参数信息将电表显示屏中的文字框出,然后通过特征匹配算法,将区域内文字特征进行对齐,最后通过一个轻量级的文字识别模型进行文本识别,并以图像的形式输出最终的可视化结果。
2.1骨干网络:
本技术方案使用特征金字塔网络来聚合残差网络的2/3/4/5级特征作为主干网络,对文本的位置信息和语义信息进行预测。整个骨干网络结构如图2所示,它由包括五部分:自底而上的五级卷积、自顶而下的上采样过程、1*1卷积核侧向连接、3*3卷积滤波、特征融合。其中,卷积层每进行一级卷积之后,大小变成上一级的1/2,通道数变为2倍;上采样采用最近邻插值法,将特征图尺寸扩大2倍;侧向链接主要是起到改变通道数的作用,以便特征图相加。然后,将每一级的特征图用3*3卷积核进行滤波,减轻上采样过程带来的混叠影响;最后,将所得的特征图以合并多个数组的方式进行融合。因此,最终输出特征图的大小是原始输入图像的1/4,通道数为256。
2.2贝塞尔算法相关理论:
2.2.1贝塞尔曲线:
贝塞尔曲线是由法国数学家Bezier研究出的受控制点调整而变化的动态数学曲线[30]。它可以用伯恩斯坦多项式[31]来表示成一条参数化曲线c(t),其定义公式如下:
其中n代表贝塞尔曲线的阶数,bi代表第i个控制点,Bi,n(t)代表伯恩斯坦多项式,其定义公式如下:
其中,代表多项式系数,根据经验以及论文验证得知:当n=3时,也就是三阶的贝塞尔曲线,便可以较好地拟合任意形状文本框。在检测电能表用电信息时,可以将边界框简化为一个由(多个,8个以上)8个控制点组成的边界框,8个控制点是指4个标注的顶点以及两条长边上的4个三等分点,然后通过两条长边上的4个控制点分别生成一条贝塞尔曲线,如图3所示。当标注点大于4时,本方法同样适用,可以通过最小二乘法,来获取4个控制点的最优参数组合,实现多边形标注的贝塞尔参数化。
2.2.1贝塞尔对齐:
自适应贝塞尔曲线网络框架是一个可以实现端到端训练的网络框架。为了达到端到端训练的目的,通常在连接识别网络分支前进行一步预处理操作——将候选文本区域的视觉特征对齐后输出一个新的特征图。特征对齐的目的明确,即找到合适的映射关系,方法也多种多样,比如:感兴趣区域对齐法(Region-of-Interest Align,ROI Align)[11]、感兴趣区域池化法(Region-of-Interest Pooling,ROI Pooling)[32]和文本对齐采样法(Text-Align-Sampling)[33]等。
本技术方案构建一个贝塞尔对齐网络(Bezier Align Network,BAN),采用的方法是贝塞尔特征匹配法,是感兴趣区域对齐法的进阶版,它的创新之处在于采样网格可以是任意形状,不再受矩形框的条件限制。该对齐方法是根据特征图的像素点位置坐标,利用贝塞尔曲线上、下边界点坐标,将采样点线性索引后进行双线性插值,从而输出一个统一尺寸大小的矩形特征图,作为后续文字识别分支的基础。以像素点位置坐标gi(giw,gih)为例,通过比例公式(3)和线性索引公式(4)计算:
其中,hout×wout代表输出的矩形特征图的像素大小;tp、bp分别代表贝塞尔曲线的上、下边界点;op代表采样点。
2.3基于CRNN的文本识别模块:
得益于共享骨干网络和贝塞尔对齐网络的优异表现,识别分支的负担大大减轻了,所以本技术方案选用轻量级的识别网络结构即可。深度学习时代,文本识别通常采用的是卷积循环神经网络,它是一种结合了CNN和RNN的一种全新网络模型。该网络将提取出的图像深度特征,送入循环经网络预测每帧序列的标签分布,然后使用CTC进行解码,将特征序列转化为标签序列。本技术方案在此基础上进行改进,改进的模型结构如图4所示。本技术方案引入门控循环单元代替长短期记忆网络,使用基于注意力机制的解码器代替CTC,这样的改进不仅可以降低网络的复杂度,还可以提升网络的性能表现。
2.3.1序列建模:
由于经过贝塞尔特征对齐处理后的输出图像已经被调整成统一的高度和宽度,所以在构建卷积特征提取网络时,只选取卷积层、池化层和激活函数的叠加组合,就可以保证能够将输入图像特征比较完整地映射到隐藏层,所以可以舍弃全连接层。最终生成的卷积特征图,可以用于提取特征序列,特征序列的划分标准则是以列为单位,从左至右每一个像素点生成一个特征向量,也就是说特征序列的长就是特征图的列长,特征序列的宽则为固定数值,即一个像素点的大小。
假设一共输入T条特征序列,每一条序列理论上都会对应一个标签,所以循环层发挥的主要作用就是对输入的特征序列进行标签标注和标签预测。在本环节中,最常用的算法是反向传播算法,一般采用的激活函数是tanh函数(双曲正切函数)或者Logistic函数(逻辑函数(分对数的反函数)),所以在进行反向传播时极易造成梯度消失或者梯度爆炸现象的发生,导致训练时网络的权重参数受到影响。
为了解决上述问题,以往的方法中大部分是在RNN的基础上构建一个长短期记忆网络。但是LSTM网络结构复杂,参数量巨大,因此本技术方案拟采用的是门控循环单元网络。
GRU是循环神经网络的一种,和LSTM一样,也是为了解决长期记忆和反向传播中的梯度等问题而提出来的。它主要通过引入重置门(Reset Gate)和更新门(Update Gate)来修改循环神经网络中隐藏状态的计算方式。与LSTM相比,GRU内部少了一个“门控”,参数比LSTM少,但能够达到与LSTM相当的功能。
考虑到单向的GRU网络只能通过一个方向来捕捉其上下文的信息,因此使用双向GRU从特征序列的两个方向进行序列建模,然后再拼接得到一个更好的特征序列,网络结构如图5所示。这样的特殊设计一举两得,不但能够缓解RNN的梯度消失或者梯度爆炸问题,而且可以捕捉到序列的上下文之间的内部联系。
2.3.2解码网络:
解码网络是由加入注意力机制的双向GRU网络构成,核心思想是将序列建模所得的特征序列转换为字符序列,得到识别的最终结果。
注意力机制是一种模仿人类视觉注意力的算法。起初,将注意力机制加入到序列到序列模型(Sequence To Sequence,Seq2Seq)[34]中用于处理图像中视觉特征对齐和词嵌入。标准的seq2seq模型通常将输入序列编码为固定长度的向量(最后一个为隐藏状态),解码器根据该向量生成输出序列。但是,假设所有必要的信息都在一个向量中进行编码是不合理的。因此,需要让解码器依赖于关注向量,该关注向量是基于输入隐藏状态的加权和,然后作为网络体系结构的一部分,注意力权重同网络一起训练,图6是注意力机制示意图。
解码器首先通过注意力机制计算一个注意力向量相关公式如下:
et,i=wTtanh(Wst-1+Vhi+b) (6)。
其中,w,W,V是可训练的权重值。然后把权重值作为系数,将编码器输出序列的列线性组合成一个向量gt:
gt作为译码器循环单元的输入,产生一个输出向量xt和一个新的状态向量st。
(xt,st)=rnn(st-1,(gt,f(yt-1))) (9)。
式中(gt,f(yt-1))为gt与yt-1的one-hot(独热编码)嵌入。rnn表示循环单元GRU的阶跃函数,其输出和新的内部状态分别用xt和st表示,最后,采用xt来预测当前步的字符:
p(yt)=softmax(Woxt+bo) (10)。
yt~p(yt) (11)。
这是一种隐式的语义模型,它可以帮助识别之前所学的语义信息。
3实验过程及结果分析:
为了验证所提出的电表检测与识别模型的有效性,本技术方案在电表数据集上进行了五组消融实验,分别是(1)选取近五年提出的不同的文本检测算法进行对比;(2)探究残差网络的结构和深度对模型的影响;(3)对比不同Epoch(时期,一个Epoch就是将所有训练样本训练一次的过程)对训练结果的影响;(4)对比文本矫正网络对识别准确度的影响;(5)对比CTC和ATTN(Attention注意力)两种不同机制的识别准确度。
3.1数据集:
数据集方面,本实验收集并使用labelme标注软件标注2200张coco格式(CommonObjects in Context图像识别数据集)的低压场景电表数据集,其中2000张用于训练,剩余的200张用于测试。此外,还采用了数据增强,如随机尺度训练,最小训练尺寸在640像素到896像素之间随机选取,最大训练尺寸小于1600像素;在确保文字部分不被裁剪的情况下进行0.1比例随机尺度裁剪,因此数据集训练具有通用性。
电能表标注案例图像如图7所示,左面是标注图像,右面是生成的对应标签。可以看出,针对每一幅电表图像,主要标注四个区域,其中右上角区域的用电时段信息和最下方的用电量数值是电表识别的重点对象。右上角区域的用电时段信息分为峰、平、谷、尖、总五种标签类型,其中“峰、平、谷、尖”表示四个用电时段,“总”代表当前总用电量;最下方的电量数值标签则由数字“0-9”和小数点“.”构成。
3.2实验细节:
本网络的主干网络是采用了带有FPN(Feature Pyramid Network特征金字塔网络)思想的50层ResNet(Residual Network残差网络)。检测部分,本网络在输入图像的5个不同分辨率的特征图上进行实验;识别部分,本技术方案采用基于改进CRNN的文本识别算法,并结合了注意力机制。本网络在一个GTX 2080TiGPU显卡上进行训练,训练批次batchsize(Common Objects in Context图像识别数据集)为2。初始学习率为0.01,分别在迭代次数为160K和220K时乘以0.1,最大迭代次数为400K,整个训练时长大约为1天。其中K为千。
3.3消融实验:
3.3.1不同文本检测算法的消融实验:
为了增强模型对更复杂情况的鲁棒性,本技术方案选取近五年提出的五种文本检测算法,在尽量保证公平公正的环境下进行对比实验,评价指标分别为准确率、召回率和综合评价指标(F值)。衡量检测效果采用针对任意方向自然场景文本检测提出的ICDAR 2015(International Conference on Document Analysis and Recogition文档分析与识别国际会议)[35]方法。表1展示了本技术方案算法和其他算法[18-21]的ICDAR2015比较结果,从表1中可以看出,本技术方案改进后的算法在检测精度上更具有优越性,因此在接下来的实验中,选择该算法对电表信息进行检测定位。
表1各算法在ICDAR2015的检测结果比较
算法 | 算法类型 | 准确率/% | 召回率/% | F值/% |
EAST | Hybrid | 83.27 | 78.33 | 80.72 |
PSENet | Segmentation | 87.26 | 85.37 | 86.30 |
DRRG | GCN | 89.24 | 84.69 | 86.91 |
ABCNet | Regression | 93.56 | 89.60 | 91.54 |
Ours | Regression | 95.28 | 90.86 | 93.02 |
其中PSENet为Progressive Scale Expansion Network渐进尺度扩展网络。
Hybrid:混合。
Segmentation:分割
DRRG:Deep Relational Reasoning Graph深度关系推理图。
Regression:回归。
Ours:我们的方法,本技术方案的方法。
3.3.2残差网络结构和深度对模型的影响:
为了避免深度神经网络的梯度消失、梯度爆炸和网络退化的问题,本技术方案选取残差网络作为特征提取的主干网络,残差网络可以分为两类:一类是BasicBlock(基本块)结构模型,比如RESNet18,RESNet34;另一类是BottleNeck(瓶颈块)结构模型,比如RESNet 50,RESNet101,RESNet152等。本技术方案选取具有代表性的RESNet34,RESNet50,RESNet101三个不同结构和深度的残差网络进行消融实验,具体的实验结果如表2所示,从表中可以看出,RESNet50得益于BottleNeck结构的特殊性,在参数量和精度之间取得了平衡。
表2不同深度的残差网络对比结果
骨干网络 | 模型结构 | 准确率/% | 召回率/% | F值/% | 参数量/×106 |
RESNet 34 | BasicBlock | 91.30 | 93.76 | 92.51 | 63.47 |
RESNet 50 | BottleNeck | 99.08 | 99.30 | 99.19 | 46.16 |
RESNet 101 | BottleNeck | 99.12 | 99.45 | 99.28 | 85.21 |
3.3.3 Epoch对准确率的影响:
Epoch是深度学习算法的一个重要超参数,数据集完整地训练一次,epoch记为1。Epoch数量增加,网络的权重系数更新的次数也会随之增加。为了减少模型的错误率,同时避免过拟合现象的发生,本技术方案在四个不同epoches次数下开展消融实验,训练结果对比如表3所示,在相同的权重衰减作用下,针对本技术方案的电表数据集,模型在epoches=400,IoU(Intersection over Union交并比)大于或等于0.5和0.75两个标准下,训练结果都达到基本稳定。
表3 Epoch对准确率的影响
3.3.4矫正网络的有效性研究:
为了验证BezierAlign矫正网络在本技术方案所提出的检测识别模型上对识别性能具有提升的作用,分别使用带有BAN网络和没有BAN网络的模型在数据集上进行消融实验,然后将两个结果进行对比,如表4所示:
表4矫正网络有效性的对比结果
算法 | 推理速度/fps | 准确率/% | 召回率/% | F值/% |
Without BAN | 22.8 | 98.06 | 99.15 | 98.60 |
With BAN | 22.5 | 99.08 | 99.30 | 99.19 |
根据表4的结果可以看出,经过矫正网络处理的识别算法,在数据集上具有更高的识别准确率,性能更好,且在推理速度方面,并没有引入太多的额外消耗。
3.3.5基于不同机制的识别准确度分析:
识别分支,本技术方案训练了三个模型,分别验证了使用GRU代替LSTM、加入注意力机制替换CTC对模型精度、耗时和参数量的影响。实验结果如表5所示,GRU和LSTM的识别准确率不分伯仲,GRU微微领先,且GRU模型大幅度减少了参数量,降低了耗时;引入注意力机制后,模型可以更好地获取特征信息,准确率提升了3.33%,在耗时、参数量和精度之间取得了平衡。
表5不同机制的识别准确度对比结果
骨干网络 | 序列建模 | 识别机制 | 准确率/% | 耗时/ms/image | 参数量/×106 |
RESNet50 | LSTM | CTC | 95.69 | 13.2 | 52.72 |
RESNet50 | GRU | CTC | 95.75 | 9.8 | 42.58 |
RESNet50 | GRU | Attention | 99.08 | 16.5 | 46.16 |
3.4实验结果:
两种识别算法的可视化结果对比如图8所示,其中左侧为GRU+CTC算法识别结果,右侧为GRU+Attention算法识别结果。通过三组对比组图分别可以看出,基于Attention算法具有以下三点优势:(1)处理相邻的两个相同字符时,Attention算法可以避免去重操作所带来的的误差;(2)受拍摄噪声、图片模糊等因素影响时,Attention算法可以将电能表用电信息相对准确地检测并识别出来;(3)当表盘污渍导致电能表信息被遮挡时,Attention算法识别结果的可信度更高。
本技术方案改进了ABCNet框架,并将其应用于电能表检测及示数识别。实验表明基于ABCNet的文本检测与识别算法,在精度和速度上都有所提升,对电力相关部门快速准确地收集用户用电信息具有应用价值和时代意义。
文中人名未翻译。
参考文献:
[1]Anis A,Khaliluzzaman M,Yakub M,et al.基于水平和垂直二值模式的数字电表读取识别.2017年第三届国际电气信息和通信技术会议,2017:1–6。
[2]Zhang Y,Yang X,Hong T,et al.基于图像轮廓拓扑特征的数字电表识别方法.2019IEEE宽带多媒体系统与广播国际研讨会.济州岛,韩国:IEEE计算机协会。
[3]Laroca R,Barroso V,Diniz MA,et al.自动抄表的卷积神经网络.电子成像杂志,2019,28(1):013023。
[4]Silva SM,Jung CR..基于深度卷积神经网络的巴西车牌实时检测与识别.2017年第30届SIBGRAPI图形、模式和图像会议.尼泰罗伊,巴西.2017.55–62。
[5]Shi BG,Bai X,Yao C.基于图像序列识别的端到端可训练神经网络及其在场景文本识别中的应用.IEEE模式分析与机器智能汇刊,2017,39(11):2298–2304。
[6]龚安,张洋,唐永红.基于YOLOv3网络的电能表示数识别方法.计算机系统应用,2020,29(1):196–202。
[7]厉建宾,张旭东,吴彬彬.结合深度神经网络和多阈值软切分的电能表示数自动识别方法.计算机应用,2019,39(S1):223-227。
[8]Liu,Yuliang,Hao Chen,Chunhua Shen,Tong He,Lianwen Jin,and LiangweiWang.2020.基于自适应贝塞尔曲线网络的实时场景文本识别.2020年IEEE/CVF计算机视觉与模式识别会议,9809–18。
[9]He,K.,Zhang,X.,Ren,S.,&Sun,J.(2016).图像识别的深度残差学习.2016年IEEE计算机视觉与模式识别会议,770-778。
[10]Lin,T.,Dollár,P.,Girshick,R.B.,He,K.,Hariharan,B.,&Belongie,S.J.(2017).用于目标检测的特征金字塔网络.2017年IEEE计算机视觉与模式识别会议,936-944。
[11]Kaiming He,Georgia Gkioxari,Piotr Dollr,and Ross Girshick.掩码循环卷积神经网络.机器视觉国际会议会刊,2017。
[12]Dey,R.,&Salem,F.(2017).门控循环单元神经网络的变体.2017IEEE第60届国际中西部电路与系统研讨会,1597-1600。
[13]Hochreiter,S.,&Schmidhuber,J.(1997).长短期记忆.神经计算,9,1735-1780。
[14]Fukui,H.,Hirakawa,T.,Yamashita,T.,&Fujiyoshi,H.(2019).注意分支网络:视觉解释注意机制的学习.2019IEEE/CVF计算机视觉和模式识别会议,10697-10706。
[15]Liao,M.,Zhu,Z.,Shi,B.,Xia,G.,&Bai,X.(2018).面向场景文本检测的旋转敏感回归.2018 IEEE/CVF计算机视觉和模式识别会议,5909-5918。
[16]Liu,W.,Anguelov,D.,Erhan,D.,Szegedy,C.,Reed,S.E.,Fu,C.,&Berg,A.单发多盒检测器.欧洲计算机视觉国际会议,2016。
[17]Liao,M.,Shi,B.,&Bai,X.(2018).面向单发场景的文本检测器.IEEE图像处理会议,27,3676-3690。
[18]Tian Z,Huang W,He T,et al.利用连接文本建议网络检测自然图像中的文本.欧洲计算机视觉会议,2016:56-72。
[19]Zhou X,Yao C,Wen H,et al.高效准确的场景文本检测器.IEEE国际计算机视觉与模式识别会议2017:2642-2651。
[20]Li,X.,Wang,W.,Hou,W.,Liu,R.,Lu,T.,&Yang,J.(2019).基于渐进尺度扩展网络的形状鲁棒文本检测.2019年IEEE/CVF计算机视觉与模式识别会议,9328-9337。
[21]Zhang,S.,Zhu,X.,Hou,J.,Liu,C.,Yang,C.,Wang,H.,&Yin,X.(2020).面向任意形状文本检测的深度关系推理图网络.2020IEEE/CVF计算机视觉与模式识别(CVPR),9696-9705。
[22]Graves,A.,Fernández,S.,Gomez,F.,&Schmidhuber,J.(2006).连接时间序列分类:用循环神经网络标记非分段序列数据.第23届机器学习国际会议论文集。
[23]Hu,W.,Cai,X.,Hou,J.,Yi,S.,&Lin,Z.(2020).面向高效和准确的场景文本识别的CTC指导训练.ArXiv,abs/2002.01276。
[24]Vaswani,A.,Shazeer,N.M.,Parmar,N.,Uszkoreit,J.,Jones,L.,Gomez,A.N.,Kaiser,L.,&Polosukhin,I.(2017).无可或缺的注意力.ArXiv,abs/1706.03762。
[25]Yin,W.,Schütze,H.,Xiang,B.,&Zhou,B.(2016).基于注意力的句子对建模卷积神经网络.计算语言学协会汇刊,4,259-272。
[26]Wojna,Z.,Gorban,A.N.,Lee,D.,Murphy,K.,Yu,Q.,Li,Y.,&Ibarz,J.(2017).基于注意力的街景图像结构化信息提取.2017第14届国际文献分析与识别会议,01,844-850。
[27]Smith,R.,Gu,C.,Lee,D.,Hu,H.,Unnikrishnan,R.,Ibarz,J.,Arnoud,S.,&Lin,S.(2016).法国街道名称标志数据集.ArXiv,abs/1702.03970。
[28]Xie,Z.,Huang,Y.,Zhu,Y.,Jin,L.,Liu,Y.,&Xie,L.(2019).序列识别的聚合交叉熵.2019年IEEE/CVF计算机视觉与模式识别会议,6531-6540。
[29]Tian,Z.,Shen,C.,Chen,H.,&He,T.(2019).全卷积单阶段目标检测.2019IEEE/CVF计算机视觉国际会议,9626-9635。
[30]Liu,Y.,Chen,H.,Shen,C.,He,T.,Jin,L.,&Wang,L.(2020).基于自适应贝塞尔曲线网络的实时场景文本识别.2020年IEEE/CVF计算机视觉与模式识别会议,9806-9815。
[31]George G.Lorentz.伯恩斯坦多项式.美国数学学会,2013。
[32]Hui Li,Peng Wang,and Chunhua Shen.基于卷积循环神经网络的端到端文本识别.机器视觉国际会议会刊,5238–5246,2017。
[33]Tong He,Zhi Tian,Weilin Huang,Chunhua Shen,Yu Qiao,and ChangmingSun.基于精确对齐和注意力的一种端到端的文本识别器.机器视觉与模式识别国际会议会刊,5020–5029,2018。
[34]Sutskever,I.,Vinyals,O.,&Le,Q.V.利用神经网络进行序列到序列学习.神经信息处理系统进展大会,2014。
[35]Zhou,X.,Zhou,S.,Yao,C.,Cao,Z.,&Yin,Q.(2015).ICDAR 2015场景文本识别比赛.ArXiv,abs/1506.03184。
Claims (1)
1.基于计算机视觉技术的电能表用电信息识别方法,其特征在于包括下列步骤:
首先,检测端结合了特征金字塔网络和残差网络思想,对输入图像进行特征提取,通过四个控制点生成贝塞尔曲线,更好地拟合文本框;然后,识别端采用了基于卷积循环神经网络的文本识别方法,引入门控循环单元替代长短期记忆单元,再结合注意力机制对目标区域文本进行识别;最后,通过实验数据进行性能对比和评估分析;
贝塞尔曲线用伯恩斯坦多项式来表示成一条参数化曲线c(t),定义公式如下:
其中n代表贝塞尔曲线的阶数,bi代表第i个控制点,Bi,n(t)代表伯恩斯坦多项式,其定义公式如下:
其中,代表多项式系数,当n=3时,也就是三阶的贝塞尔曲线,便可以较好地拟合任意形状文本框;在检测电能表用电信息时,将边界框简化为一个由8个以上控制点组成的边界框,是指4个标注的顶点以及两条长边上的相同个数等分点,然后通过两条长边上的4个控制点分别生成一条贝塞尔曲线;
为了达到端到端训练的目的,在连接识别网络分支前进行一步预处理操作:将候选文本区域的视觉特征对齐后输出一个新的特征图;
构建一个贝塞尔对齐网络,采用的方法是贝塞尔特征匹配法,对齐方法是根据特征图的像素点位置坐标,利用贝塞尔曲线上、下边界点坐标,将采样点线性索引后进行双线性插值,从而输出一个统一尺寸大小的矩形特征图,作为后续文字识别分支的基础;以像素点位置坐标gi(giw,gih)为例,通过比例公式(3)和线性索引公式(4)计算:
其中,hout×wout代表输出的矩形特征图的像素大小;tp、bp分别代表贝塞尔曲线的上、下边界点;op代表采样点;
网络将提取出的图像深度特征,送入循环经网络预测每帧序列的标签分布,然后使用CTC进行解码,将特征序列转化为标签序列,并引入门控循环单元和使用基于注意力机制的解码器;
在构建卷积特征提取网络时,选取卷积层、池化层和激活函数的叠加组合,保证将输入图像特征比较完整地映射到隐藏层;最终生成的卷积特征图,用于提取特征序列,特征序列的划分标准则是以列为单位,从左至右每一个像素点生成一个特征向量;
使用双向GRU从特征序列的两个方向进行序列建模,然后再拼接得到一个更好的特征序列:
使解码器依赖于关注向量,关注向量是基于输入隐藏状态的加权和,然后作为网络体系结构的一部分,注意力权重同网络一起训练;
解码器首先通过注意力机制计算一个注意力向量相关公式如下:
et,i=wTtanh(Wst-1+Vhi+b) (6);
其中,w,W,V是可训练的权重值;然后把权重值作为系数,将编码器输出序列的列线性组合成一个向量gt:
gt作为译码器循环单元的输入,产生一个输出向量xt和一个新的状态向量st;
(xt,st)=rnn(st-1,(gt,f(yt-1))) (9);
式中(gt,f(yt-1))为gt与yt-1的one-hot嵌入;rnn表示循环单元GRU的阶跃函数,其输出和新的内部状态分别用xt和st表示,最后,采用xt来预测当前步的字符:
p(yt)=softmax(Woxt+bo) (10);
yt~p(yt)(11);
当两条长边上为三等分点,则通过两条长边上的4个控制点分别生成一条贝塞尔曲线;
或者,当两条长边标注点大于4时,则通过最小二乘法,来获取4个控制点的最优参数组合,实现多边形标注的贝塞尔参数化。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110596087.3A CN113516124B (zh) | 2021-05-29 | 2021-05-29 | 基于计算机视觉技术的电能表用电信息识别算法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110596087.3A CN113516124B (zh) | 2021-05-29 | 2021-05-29 | 基于计算机视觉技术的电能表用电信息识别算法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113516124A CN113516124A (zh) | 2021-10-19 |
CN113516124B true CN113516124B (zh) | 2023-08-11 |
Family
ID=78065166
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110596087.3A Active CN113516124B (zh) | 2021-05-29 | 2021-05-29 | 基于计算机视觉技术的电能表用电信息识别算法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113516124B (zh) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114898345A (zh) * | 2021-12-13 | 2022-08-12 | 华东师范大学 | 一种阿拉伯语文本识别方法及系统 |
CN113920308A (zh) * | 2021-12-13 | 2022-01-11 | 山东矩阵软件工程股份有限公司 | 一种钢卷号的识别方法和识别系统 |
CN114821558A (zh) * | 2022-03-10 | 2022-07-29 | 电子科技大学 | 基于文本特征对齐的多方向文本检测方法 |
CN115601744B (zh) * | 2022-12-14 | 2023-04-07 | 松立控股集团股份有限公司 | 一种车身与车牌颜色相近的车牌检测方法 |
CN116129375B (zh) * | 2023-04-18 | 2023-07-21 | 华中科技大学 | 一种基于多曝光生成融合的弱光车辆检测方法 |
CN116343223A (zh) * | 2023-05-31 | 2023-06-27 | 南京畅洋科技有限公司 | 一种基于深度学习的字轮式水表读数方法 |
CN117037130B (zh) * | 2023-07-05 | 2024-09-17 | 重庆理工大学 | 基于加权对齐金字塔结构的场景文本提取方法 |
CN117635905A (zh) * | 2023-12-13 | 2024-03-01 | 国网上海市电力公司 | 基于图像识别算法的电能表装接质量智能监测方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399845A (zh) * | 2019-07-29 | 2019-11-01 | 上海海事大学 | 一种图像中连续成段文本检测与识别方法 |
CN111027562A (zh) * | 2019-12-06 | 2020-04-17 | 中电健康云科技有限公司 | 基于多尺度cnn和结合注意力机制的rnn的光学字符识别方法 |
CN111401372A (zh) * | 2019-12-20 | 2020-07-10 | 国家电网有限公司 | 一种扫描文档图文信息提取与鉴别的方法 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US12020147B2 (en) * | 2018-11-16 | 2024-06-25 | Royal Bank Of Canada | System and method for a convolutional neural network for multi-label classification with partial annotations |
-
2021
- 2021-05-29 CN CN202110596087.3A patent/CN113516124B/zh active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110399845A (zh) * | 2019-07-29 | 2019-11-01 | 上海海事大学 | 一种图像中连续成段文本检测与识别方法 |
CN111027562A (zh) * | 2019-12-06 | 2020-04-17 | 中电健康云科技有限公司 | 基于多尺度cnn和结合注意力机制的rnn的光学字符识别方法 |
CN111401372A (zh) * | 2019-12-20 | 2020-07-10 | 国家电网有限公司 | 一种扫描文档图文信息提取与鉴别的方法 |
Non-Patent Citations (1)
Title |
---|
黄金星 ; 潘翔 ; 郑河荣 ; .基于残差连接的场景文本识别端到端网络结构优化.计算机科学.2020,(第08期),全文. * |
Also Published As
Publication number | Publication date |
---|---|
CN113516124A (zh) | 2021-10-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113516124B (zh) | 基于计算机视觉技术的电能表用电信息识别算法 | |
Zhou et al. | BOMSC-Net: Boundary optimization and multi-scale context awareness based building extraction from high-resolution remote sensing imagery | |
CN115049936A (zh) | 一种面向高分遥感影像的边界增强型语义分割方法 | |
CN113221874A (zh) | 基于Gabor卷积和线性稀疏注意力的文字识别系统 | |
CN114187450A (zh) | 一种基于深度学习的遥感图像语义分割方法 | |
Fan et al. | Real time power equipment meter recognition based on deep learning | |
CN115100652A (zh) | 基于高分遥感图像的电子地图自动化生成方法 | |
CN106023249A (zh) | 一种基于局部二值相似性模式的运动目标检测方法 | |
Du et al. | Improved detection method for traffic signs in real scenes applied in intelligent and connected vehicles | |
CN116205962A (zh) | 基于完整上下文信息的单目深度估计方法及系统 | |
Le et al. | Surface defect detection of industrial parts based on YOLOv5 | |
CN114241194A (zh) | 一种基于轻量级网络的仪表识别及读数方法 | |
Peng et al. | Deep learning-based autonomous real-time digital meter reading recognition method for natural scenes | |
CN113936034A (zh) | 一种结合帧间光流的表观运动联合弱小运动目标检测方法 | |
CN117315543A (zh) | 一种基于置信度门控时空记忆网络的半监督视频目标分割方法 | |
CN117197632A (zh) | 一种基于Transformer的电镜花粉图像目标检测方法 | |
CN117173595A (zh) | 基于改进YOLOv7的无人机航拍图像目标检测方法 | |
Cheng et al. | Text Detection of Transformer Based on Deep Learning Algorithm | |
Zhao et al. | A Practical Unified Network for Localization and Recognition of Arbitrary-oriented Container code and type | |
Tang et al. | Category feature transformer for semantic segmentation | |
CN112132835A (zh) | 基于SeFa和人工智能的光伏轨道相机果冻效应分析方法 | |
CN115035526B (zh) | 基于深度学习的led字符自动定位和识别方法 | |
Sun et al. | Detection of water meter digits based on improved faster R-CNN | |
CN118628674B (zh) | 基于改进的神经辐射场算法对群体小麦的三维重建方法 | |
Liao et al. | Automatic meter reading based on bi-fusion MSP network and carry-out rechecking |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |