CN112966684B - 一种注意力机制下的协同学习文字识别方法 - Google Patents
一种注意力机制下的协同学习文字识别方法 Download PDFInfo
- Publication number
- CN112966684B CN112966684B CN202110274267.XA CN202110274267A CN112966684B CN 112966684 B CN112966684 B CN 112966684B CN 202110274267 A CN202110274267 A CN 202110274267A CN 112966684 B CN112966684 B CN 112966684B
- Authority
- CN
- China
- Prior art keywords
- feature
- network
- branch
- supervision
- module
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/62—Text, e.g. of license plates, overlay texts or captions on TV images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/25—Fusion techniques
- G06F18/253—Fusion techniques of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
Abstract
本发明涉及一种注意力机制下的协同学习文字识别方法,构建协同监督数据集,利用协同监督数据集训练一个强文本检测网络和一个弱文本检测网络,构建协同框架保持感知一致性。把协同监督数据集输入到卷积网络提取特征,得到特征输入基于注意力机制的上采样网络,构建特征金字塔。构建强监督检测器与弱监督检测器,把特征金字塔分别输入到一个强文本检测网络分支和一个弱文本检测网络分支分别得到字符定位结果,构建协同框架保持两个子网络分支对于字符的定位结果的一致性。使得大量弱监督数据能够训练提升整体文字识别网络性能。提高了文字识别能力。
Description
技术领域
本发明涉及计算机视觉和机器学习领域,具体涉及一种注意力机制下的协同学习文字识别方法。
背景技术
近些年,自然场景图像中的文字区域检测由于兼顾挑战性和和实用性一直是计算机视觉研究领域和工程应用领域的热门研究方向。一般来说,把从自然场景图像中提取文字信息定义为两个子任务:一是自然场景中的文本定位任务,二是自然场景文本识别任务。因此自然场景文本检测往往有如下两种框架,如图一是任务分离式框架,先进行文本区域定位,将检测出的文本框从原图中抠出作为文字识别模型的输入,得到该区域的文本信息。两种任务模型互不干涉。另一种是将两种任务整合到一个模型中进行端到端的优化。
分离式框架自然场景中文本区域定位,受到深度卷积在通用目标领域检测一阶检测算法和二阶检测算法的影响,当前主流的有两种方案:一种是Anchor-based方法,另一种是Region proposal方法。由于自然场景文字识别因采集设备因素,光照,扭曲等问题和文档识别有很大不同。分离式框架中文字识别方案,基于卷积网络和时间序列模型成为了主流,主要衍生出两个方向:一是基于CTC转录的预测模型,另一种是基于注意力机制的Sequence-to-Sequence预测模型。
端到端的文字识别系统产生是受通用物体检测算法的启发,该方法将单词视为一种特殊的对象,将字符视为对象的一部分。通过对单个字符的检测和字符之间的空间关系建模来搜索最可能的识别结果。最近的端到端方案提出具有非常相似的整体架构,包括检测分支和识别分支。分别采用EAST和YOLOv2作为检测分支,并有一个类似的文本识别分支,对文本提议映射特征区域通过双线性采样映射到固定高度张量,然后通过基于CTC的转录为字符串。其中一方案基于注意力的识别分支中引入了显著性信息作为显性监督。
卷积网络的学习依赖大量的训练数据驱动,不同于印刷体文本图像可以采用多种方式生成逼真数据,自然场景下的文本数据集的标注需要耗费大量的人力物力。其中文本的精确位置标注作为标注最为耗时的一部分,其标注数据的数量和质量直接影响模型最后的性能表现。现有OCR模型方案主要针对完整及精确的标注数据。弱监督目标检测最近受到了很多关注,因为它只需要更简单的标注方式,如点标注,线标注或者图像级标注。其中图像级别的标注是指针对图像中含有的文本进行标注,而不需要具体的框画出字符的位置从而节省了大量的标注成本。作为强监督学习的替代方案,弱监督检测可从富媒体中以标签检索等方式快速获取大量的图像级注释数据。然而,弱信息标签通常是以模型精度为代价的,因此仅用弱标签训练出的OCR模型很能将其应用到真正的实际生活中。因此能否通过大量弱标注图像数据提升强监督学习模型的性能成为该领域的一个值得探究的研究方向,而将弱监督学习器和强监督学习器这两个相似的任务协同训练,使得大量的弱监督标签数据能够更好地提升强监督框架的准确度是一个行之有效的方法。
发明内容
为解决上述背景技术中存在的问题,本发明目的是提出一种基于深度学习注意力机制下协同学习的文本识别方法。该实例包含一种基于注意力机制的上采样特征金字塔网络,和一种弱监督文本检测器和强监督文本检测器协同学习的框架。
实现本发明的技术思路是,构建协同监督数据集,利用协同监督数据集训练一个强文本检测网络和一个弱文本检测网络,构建协同框架保持感知一致性。把协同监督数据集输入到卷积网络提取特征,得到特征输入基于注意力机制的上采样网络,构建特征金字塔。构建强监督检测器与弱监督检测器,把特征金字塔分别输入到一个强文本检测网络分支和一个弱文本检测网络分支分别得到字符定位结果,构建协同框架保持两个子网络分支对于字符的定位结果的一致性。使得大量弱监督数据能够训练提升整体文字识别网络性能。
本发明的技术方案包含以下步骤:
步骤S1,构建协同监督图像数据集,并划分为训练集与测试集,所述数据集中包含全标注数据集与弱标注训练集;
步骤S2,构建主干神经网络模型,该模型包括基础特征提取模块、特征金字塔构建模块和特征金字塔融合模块;
步骤S3,构建一种弱监督文本检测器和强监督文本检测器协同学习的框架,该框架包括强监督检测器网络、弱监督检测器网络、分支任务协同学习模块和协同损失设计;
步骤S4,强弱监督协同学习网络的端到端训练,使用S1构建的图像数据集对步骤S2及S3构建的整体神经网络模型进行自监督训练。
进一步地,上述步骤S1所述数据集中包含带强标注的图片数据及带弱标注的图片数据。全标注数据集内部为带强标注的图片数据。
数据集来源于ICDAR2013,ICDAR2015,ICDAR2017 MLT,ICDAR2017 Total-text等文本检测标准数据集。其中数据图像总量为5.5K,其中包含大量复杂背景,弯曲文本,模糊难以辨别的文本区域,测试集总共1.5K,而训练集则等比例划分1:3为全标注数据集1k和弱标注训练集3K。
进一步地,上述步骤S2所述主干神经网络模型包括基础特征提取模块、特征金字塔构建模块、特征金字塔融合模块3个组成部分。本发明所设计的主干神经网络架构具体如下:。
特征金字塔构建模块是Attention-based Feature Pyramid Network(FPN-Attention)特征金字塔网络。输入基础特征提取模块的输出特征图,进行多尺度上采样,构建了含三种感受野的特征金字塔。具体过程如下:
同时结合全局池化的注意力分支可以学习更好的高级特征表示。从高级特征生成的全局上下文是通过1×1卷积、正则化及relu实现的。通过上采样后的注意力权重与底层特征进行点乘融合,得到最终特征图尺寸大小不变为FPA模块可以在不降低卷积感受野的前提下得到更高分辨率的特征图,代替VGG-net中Conv5层的输出。
特征融合模块。采用新型特征上采样结构Feature Attention Up-sample(FAU),它能有效地利用高层特征指导监督底层特征融合。利用了FAU结构思想构建,将特征金字塔构建模块与基础特征提取模块的特征融合。具体过程如下:
FAU结构包含两种注意力机制,分别是通道注意力和位置注意力。假设低层特征图的大小为(H×W×C),高层特征图的大小为的通道注意力首先将高层特征经过全局平均池化变为的特征向量,在经1×1卷积层映射(等效于全连接层)得到通道注意力图,和低层注意力点乘高层注意力图经双线性插值采样后大小(H×W×C),在积极注意力中在经1×1卷积层映射得到积极注意力特征图。通道注意力和积极注意力均采用跳跃连接的方式,最后和上采样的高层语义相加得到最终的特征图。
融合过程包含前4个基础特征提取模块与一个含特征金字塔层模块特征融合处理,得到步骤2最终的三个不同尺度特征。具体工作流程如下:
进一步地,步骤S3构建一种弱监督文本检测器和强监督文本检测器协同学习的框架,该框架包括强监督检测器网络、弱监督检测器网络、分支任务协同学习模块和协同损失设计,如图4,步骤S2构建的主干神经网络模型的输出,作为步骤S3强监督检测器网络与弱监督检测器网络的输入。本发明所设计的协同框架具体如下:
步骤S3-1,构建强监督检测器网络,主要包含RPN网络模块、预测框分类和回归任务模块与分割支路模块3个部分。详细过程如下:
主干网络特征图是步骤S2输出多尺度的特征图
RPN网络模块是输入主干网络特征图,通过RPN网络对特征层提取可能包含文字区域的ROI特征。该模型中关于Anchor尺寸的初始化采用FPN算法的方式。
预测框分类和回归任务模块主要使用FastRCNN模型,RPN网络模块为该模块生成文本提议,把ROI特征经过ROI Align算法输出7×7分辨率图片,将7×7分辨率图片作为FastRCNN的输入,通过全连接卷积实现对预测框回归与分类
分割支路模块包含单独的文本分割和文本识别两个分割支路。
标签如下:
P={p1,p2...pm}
C={c1=(cc1,cl1),c2=(cc2,cl2),...,cn=(ccn,cln)}
这里的pi是表示文本区域的标注的多边形,ccj和clj分别是字符的类别和位置。RPN网络模块为该模块提供掩膜输入。首先输入ROI特征图的二维尺寸为16×64,然后经过一些卷积层和反卷积层继续提取特征,最后通过卷积核数量为38的卷积层输出38个特征图,每个特征图的二维尺寸都是32×128,首先将多边形以最小外接矩形的方式转换为水平矩形。之后为掩膜分支生成两种类型的目标图分别是用于文本实例分割的全局图和字符语义分割的字符图。但是在字符实例分割分支中,并不是直接回归单个字符的位置,而是通过高斯卷积核对字符图进行卷积生成的字符位置密度图。
步骤S3-2,构建弱监督检测器网络,包含弱监督注意力感知与特征融合两个模块。
把步骤S2得到的金字塔特征图输入RPN算法进行弱监督注意力感知,骤S2输出的金字塔特征图在经过1x1卷积、Relu、1x1卷积及sigmoid得到相应的感知权重,步骤S2得到的输出经过3x3卷积提取结果与上述感知权重点乘,步骤S2得到的输出经过3x3卷积,将所述点乘结果叠加到该卷积结果上。
特征融合模块是特征图经过弱监督注意力感知后,将三层卷积层的前两层上采样之后和第三层合并为图样大小的特征层,在经过3x3卷积后将其通道数降为36,在经过全局平均池化作为聚合及sigmoid输出多标签类别向量。
由于这种设计,上一层卷积隐藏层的每一个通道对应一个相应的字符,起诉至对应着相应的类激活图,将每一个字符的激活图累加得到最终的的文字区域激活图
步骤S3-3,分支任务协同学习,包含对强监督分支网络与弱监督分支网络的分析及实现算法。
强监督分支网络,不直接预测字符图,而是预测字符密度图。字符图可以看作是字符中心位置在图中的坐标预测,而字符密度图可以认为是字符中心在图中的在该像素出现的概率图。其次弱监督网络采用了全卷积网络,在最后的卷积特征图含有36通道,经GlobalAverage Pooling直接得到对应每个字符的置信度,因此卷积特征图通道和字符是一一对应的。所以本发明认为弱监督网络的最后一层特征图和强监督网络的字符分割分支回归字符密度图的任务是相同的,应该在训练过程中保持感知一致性。
在弱标签数据训练弱监督分支任务时,强监督分支的字符密度图应该与弱监督分支的字符密度图保持一致,从而产生感知一致性loss协同监督强分支网络,在训练强监督分支任务时,弱监督分支产生的密度图应该与强监督分支产生的字符密度图保持一致,从而通过感知一致loss协同监督弱监督分支网络。
分支任务协同学习实现手段:将经过ROI Align采样后的特征图预测对应弱监督分支网络的中间层结果,类似RoIUpsample采样,可以看作是RoIAlign的逆操作,根据对应的ROI的精确空间位置恢复特征贴图。
步骤S3-4,构建协同损失网络
为了更好地监督两个分支网络的互补学习过程,模型训练设计了一下两组损失函数:第一组损失是关于强监督子任务分支和弱监督子任务分支损失函数。第二组侧重于检查两个分支网络之间的感知一致性损失。
对于强监督子网络,损失函数分为以下几个部分:1、RPN网络的Lrpn;2、Fast RCNN的分类和回归Lrcnn;3、分割支路的Lmask,实验中α1、α2和β都设置为1。其中前两部分损失函数和Fast RCNN一致,重点在于分割支路的Lmask。
Ltotal=Lrpn+α1Lrcnn+α2Lmask
分割支路损失函数Lmask所示,主要包含两个部分:1、文本分割的损失函数Lglobal,这部分是针对分割支路的掩膜输出分支;2、文本分割(识别)的损失函数Lchar,这部分是针对分割支路输出的38个通道的后36个通道进行计算。
Lmask=Lglobal+βLchar
Lglobal采用cross entropy loss,N表示输出map的点数量;yn∈[0,1],表示每个像素点的标签;xn表示分割支路输出的预测图的第n个像素值;输入概率是通过sigmoid函数S(xn)得到的。
Lchar不同于Mask TextSpotter,对字符的位置采用了密度图的方式回归,因此采用交叉熵损失函数衡量期间的损失。其中n带指的是特定通道的像素。
对于弱监督子任务,它输出图像级别上的字符类别预测。鉴于图像级别的监督较弱,以图像级别预测的多标签二元交叉熵损失的形式定义分类损失,其中c带指的是字符的种类:
对于感知一致性损失函数,为了避免训练初始阶段弱监督检测器和强监督检测器糟糕的性能导致误差过大影响网络收敛,采用基于Loss的加权样本的方式,其中M是ROI的经筛选之后得到的数量,λ是平衡两个损失函数权值,实际实验中设值为2。
其中密度图采用欧氏距离来衡量其差距,其中N指代的像素数量,x是密度估计图对应的激活值,i是对应像素位置:
进一步地,步骤S4,强弱监督协同学习网络的端到端训练,使用S1构建的图像数据集对步骤S2及S3构建的整体神经网络模型进行自监督训练。方法如下:
采用SGD进行优化,优化器的参数设置略有不同,其中强文本检测分支初始学习率设置为0.005,权重衰减为0.0001,动量为0.9。弱文本检测分支初始学习速率设置为0.01,权重衰减为0.0005,动量为0.9.RPN和ROI Head的训练样本ROI的数量设置为256和512,具有1:3的正数与负数的采样比。掩膜分支的ROI训练样本为16。在训练时采用数据增强,包含扭曲,旋转,多尺度训练,文本裁切,遮挡,模糊。对于多尺度训练,输入图像的短边随机调整为三个尺度(600,800,1000)。将batchsize设置为1,在强监督标注数据和弱监督标注数据轮次迭代,在迭代70k时候停止。
在损失函数部分,设置强监督学习器的Lmask,Lrcnn,Lrcnn比例系数为1:1:1,其中Lmask中的β设置为2.在感知一致性损失中,λ1和λ2比例设置为1和10。该模型是并行训练的,并在单个GPU上进行评估。
在测试阶段,输入图像的比例取决于不同的数据集。在NMS之后,1000个提议被输入Fast R-CNN。Fast R-CNN和NMS分别过滤掉错误和冗余候选框。保留的候选框被输入到掩码分支以生成全局文本实例映射和字符映射。最后,从预测的映射生成文本实例边界框和序列。
本发明的优点:
1、本发明设计了一种适用于协同训练模型的注意力感知主干网络(FeaturePyramid Network With Attention,FPN-Attention),该网络使用大量特征注意力模块用于更好的通过大量弱标签数据训练使得强监督模型对于背景误检率显著降低。通过设计Feature Attention Up-sample(FAU)模块改进了传统的反卷积或者双线性插值上采样,使模型在上采样过程中可以避免引入背景噪声。通过Feature Pyramid Attention(FPA)和Feature Attention Up-sample(FAU)堆叠,主干网络在不损失卷积感受野的情况下拥有更高分辨率和更有效的特征图。
2、本发明创新地提出一种基于注意力机制的弱监督检测器和强监督检测器协同学习的框架,将弱监督学习网络和强监督学习网络连接成为一个整体网络,在共享主干网络的同时也通过RPN-attention将强监督任务和弱监督任务更好地结合在一起。通过量化强监督和弱监督学习网络间感知水平上的一致性,实现强监督和弱监督学习网络的协同增强学习并从开源的数据集中构建了严格的对比实验数据集,与其他的工作比较,本发明的训练框架取得了先进性效果。本发明基于深度卷积神经网络,在光学字符检测领域寻求更为有效的混合协同监督框架,使得强监督文字检测模型能通过海量的弱监督数据进一步提升性能。
附图说明
图1是本发明实例的FPN-Attention特征金字塔模型架构图。
图2是本发明实例的FAU特征融合模型架构图。
图3是本发明实例的FPA与FAU特征交互工作流程图。
图4是本发明实例的文本检测协同学习框架结构示意图。
具体实施方式
为使本发明实施方式的目的、技术方案和和特点说明更加清楚,下面结合本发明的附图,对本发明实施方式中的技术方案进行清晰、完整地描述。显然,所描述的实施方式是本发明实施方法中的一部分,而不是全部。本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施方式,都属于本发明保护的范围。因此,以下对在本发明附图中所提供的消息描述并非旨在限制要求本发明的保护范围,而是仅仅表示本发明的选定实施方式。基于本发明中的实施方式,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其它实施方式,都属于本发明保护的范围。
为解决上述背景技术中存在的问题,本发明目的是提出一种基于深度学习注意力机制下协同学习的文本识别方法。该实例包含一种基于注意力机制的上采样特征金字塔网络,和一种弱监督文本检测器和强监督文本检测器协同学习的框架。图1是本发明实例的FPN-Attention特征金字塔模型架构图。图2是本发明实例的FAU特征融合模型架构图。图3是本发明实例的FPA与FAU特征交互工作流程图。图4是本发明实例的文本检测协同学习框架结构示意图。
本发明的技术方案包含以下步骤:
步骤S1,构建协同监督图像数据集,并划分为训练集与测试集,所述数据集中包含全标注数据集与弱标注训练集;
步骤S2,构建主干神经网络模型,该模型包括基础特征提取模块、特征金字塔构建模块和特征金字塔融合模块;
步骤S3,构建一种弱监督文本检测器和强监督文本检测器协同学习的框架,该框架包括强监督检测器网络、弱监督检测器网络、协同损失网络;
步骤S4,强弱监督协同学习网络的端到端训练,使用S1构建的图像数据集对步骤S2及S3构建的整体神经网络模型进行自监督训练。
进一步地,上述步骤S1所述数据集中包含带强标注的图片数据及带弱标注的图片数据。全标注数据集内部为带强标注的图片数据。
数据集来源于ICDAR2013,ICDAR2015,ICDAR2017 MLT,ICDAR2017 Total-text等文本检测标准数据集。其中数据图像总量为5.5K,其中包含大量复杂背景,弯曲文本,模糊难以辨别的文本区域,测试集总共1.5K,而训练集则等比例划分1:3为全标注数据集1k和弱标注训练集3K。
进一步地,上述步骤S2所述主干神经网络模型包括基础特征提取模块、特征金字塔构建模块、特征金字塔融合模块3个组成部分。本发明所设计的主干神经网络架构具体如下:。
基础特征提取模块是VGG-Net的前四层卷积,原始输入图片尺寸(H×W×3),输入到第一层卷积(包含两次卷积:卷积核大小都为3×3,卷积核个数为64,使用Relu激活;),然后经过最大池化,得到从第一层输出尺寸分别为将第一层卷积输出输入到第二层卷积(包含两次卷积:卷积核大小都为3×3,卷积核个数为128,使用Relu激活),然后经过最大池化,得到从第二层输出尺寸分别为将第二层卷积输出输入到第三层卷积(包含四次卷积:卷积核大小都为3×3,卷积核个数为128,使用Relu激活),然后经过最大池化,得到从第三层输出尺寸分别为将第三层卷积输出输入到第四层卷积(包含四次卷积:卷积核大小都为3×3,卷积核个数为512,使用Relu激活),然后经过maxpool,得到从第四层输出尺寸分别为
特征金字塔构建模块是Attention-based Feature Pyramid Network特征金字塔网络,如图1所示。输入基础特征提取模块的输出特征图,进行多尺度上采样,构建了含三种感受野的特征金字塔。具体过程如下:
同时结合全局池化的注意力分支可以学习更好的高级特征表示。从高级特征生成的全局上下文是通过1×1卷积、正则化及relu实现的。通过上采样后的注意力权重与底层特征进行点乘融合,得到最终特征图尺寸大小不变为FPA模块可以在不降低卷积感受野的前提下得到更高分辨率的特征图,代替VGG-Net中Conv5层的输出。
特征融合模块。本发明采用新型特征上采样结构Feature Attention Up-sample(FAU),它能有效地利用高层特征指导监督底层特征融合。利用了FAU结构思想构建,将特征金字塔构建模块与基础特征提取模块的特征融合。具体过程如下:
FAU结构包含两种注意力机制,分别是通道注意力和位置注意力。假设低层特征图的大小为(H×W×C),高层特征图的大小为首先将高层特征经过全局平均池化变为的特征向量,在经1×1卷积层映射(等效于全连接层)得到通道注意力图,和低层特征图点乘。高层特征图经双线性插值采样后大小(H×W×C),在积极注意力中在经1×1卷积层映射得到积极注意力图。通道注意力和积极注意力均采用跳跃连接的方式,最后和上采样的高层语义相加得到最终的特征图。
融合过程包含前4个基础特征提取模块与一个含特征金字塔层模块特征融合处理,得到步骤2最终的三个不同尺度特征,如图3。具体工作流程如下:
进一步地,步骤S3构建一种弱监督文本检测器和强监督文本检测器协同学习的框架,该框架包括强监督检测器网络、弱监督检测器网络、协同损失网络,如图4,步骤S2构建的主干神经网络模型的输出,作为步骤S3强监督检测器网络与弱监督检测器网络的输入。本发明所设计的协同框架具体如下:。
步骤S3-1,构建强监督检测器网络,主要包含RPN网络模块、预测框分类和回归任务模块与分割支路模块3个部分。详细过程如下:
主干网络特征图是步骤S2输出多尺度的特征图
RPN网络模块是输入主干网络特征图,通过RPN得到ROI结果。根据Anchor大小在不同阶段分配Anchor。为后续的Fast-R-CNN分类与回归任务模块生成文本提议和掩膜分支。
构建强监督检测器网络,主要包含RPN网络模块、预测框分类和回归任务模块与分割支路模块3个部分。详细过程如下:
RPN网络模块是输入Backbone特征图,通过RPN网络对特征层提取可能包含文字区域的ROI特征。该模型中关于Anchor尺寸的初始化采用FPN算法的方式,宽高比例采用0.5、1和2,Anchor大小设置为(32×32,64×64,128×128,256×256,512×512),步长设置为2.
预测框分类和回归任务模块主要使用FastRCNN模型,RPN网络模块为该模块生成文本提议,把ROI特征经过ROI Align算法输出7×7分辨率图片得到(7×7×256),将7×7分辨率图片作为FastRCNN的输入,通过全连接卷积实现对预测框回归与分类。将(7×7×256)输入到一个卷积层(卷积核大小为7×7,卷积核个数为1024,使用Relu激活),再输入到一个卷积层(卷积核大小为1×1,卷积核个数为1024,使用Relu激活)得到预测框分类及回归结果。
分割支路模块包含单独的文本分割和文本识别两个分割支路。
标签如下:
P={p1,p2...pm}
C={c1=(cc1,cl1),c2=(cc2,cl2),...,cn=(ccn,cln)}
这里的pi是表示文本区域的标注的多边形,ccj和clj分别是字符的类别和位置。RPN网络模块为该模块提供掩膜输入。首先输入ROI特征图的二维尺寸为16×64,然后经过4个卷积,1个反卷积提取特征,输出的大小都为(16×64×256),最后通过卷积核数量为38的卷积层输出38个特征图,每个特征图的尺寸都是(32×128×256),首先将多边形以最小外接矩形的方式转换为水平矩形。之后为掩膜分支生成两种类型的目标图分别是用于文本实例分割的全局图和字符语义分割的字符图。但是在字符实例分割分支中,并不是直接回归单个字符的位置,而是通过高斯卷积核对字符图进行卷积生成的字符位置密度图。
密度图的计算方式:假设xi表示字符中心位置坐标,Gi代表的是高斯核,则密度图的计算公式
步骤S3-2,构建弱监督检测器网络,包含弱监督注意力感知与特征融合两个模块。
把步骤S2得到的金字塔特征图输入RPN算法进行弱监督注意力感知,骤S2输出的金字塔特征图在经过1x1卷积、Relu、1x1卷积及sigmoid得到相应的感知权重,步骤S2得到的输出经过3x3卷积提取结果与上述感知权重点乘,步骤S2得到的输出经过3x3卷积,将所述点乘结果叠加到该卷积结果上。
特征融合模块是特征图经过弱监督注意力感知后,将三层卷积层的前两层上采样之后和第三层合并为图样大小的特征层,在经过3x3卷积后将其通道数降为36,在经过全局平均池化作为聚合及sigmoid输出多标签类别向量。
由于这种设计,上一层卷积隐藏层的每一个通道对应一个相应的字符,起诉至对应着相应的类激活图,将每一个字符的激活图累加得到最终的的文字区域激活图
步骤S3-4,分支任务协同学习,包含对强监督分支网络与弱监督分支网络的分析及实现算法。
强监督分支网络,不直接预测字符图,而是预测字符密度图。字符图可以看作是字符中心位置在图中的坐标预测,而字符密度图可以认为是字符中心在图中的在该像素出现的概率图。其次弱监督网络采用了全卷积网络,在最后的卷积特征图含有36通道,经全局平均池化直接得到对应每个字符的置信度,因此卷积特征图通道和字符是一一对应的。所以弱监督网络的最后一层特征图和强监督网络的字符分割分支回归字符密度图的任务是相同的,应该在训练过程中保持感知一致性。
在弱标签数据训练弱监督分支任务时,强监督分支的字符密度图应该与弱监督分支的字符密度图保持一致,从而产生感知一致性loss协同监督强分支网络,在训练强监督分支任务时,弱监督分支产生的密度图应该与强监督分支产生的字符密度图保持一致,从而通过感知一致loss协同监督弱监督分支网络。
分支任务协同学习实现手段:将经过ROI Align采样后的特征图预测对应弱监督分支网络的中间层结果,类似RoIUpsample采样,可以看作是RoIAlign的逆操作,根据对应的ROI的精确空间位置恢复特征贴图。
步骤S3-4,构建协同损失网络
为了更好地监督两个分支网络的互补学习过程,为模型训练设计了一下两组损失函数:第一组损失是关于强监督子任务分支和弱监督子任务分支损失函数。第二组侧重于检查两个分支网络之间的感知一致性损失。
对于强监督子网络,损失函数分为以下几个部分:1、RPN网络的Lrpn;2、Fast RCNN的分类和回归Lrcnn;3、分割支路的Lmask,实验中α1、α2和β都设置为1。其中前两部分损失函数和Fast RCNN一致,重点在于分割支路的Lmask。
Ltotal=Lrpn+α1Lrcnn+α2Lmask
分割支路损失函数Lmask所示,主要包含两个部分:1、文本分割的损失函数Lglobal,这部分是针对分割支路的掩膜输出分支;2、文本分割(识别)的损失函数Lchar,这部分是针对分割支路输出的38个通道的后36个通道进行计算。
Lmask=Lglobal+βLchar
Lglobal采用交叉熵损失函数,N表示输出特征图的点数量;yn∈[0,1],表示每个像素点的标签;xn表示分割支路输出的预测图的第n个像素值;输入概率是通过sigmoid函数S(xn)得到的。
Lchar不同于Mask TextSpotter,对字符的位置采用了密度图的方式回归,因此采用交叉熵损失函数衡量期间的损失。其中n带指的是特定通道的像素。
对于弱监督子任务,它输出图像级别上的字符类别预测。鉴于图像级别的监督较弱,以图像级别预测的多标签二元交叉熵损失的形式定义分类损失,其中c带指的是字符的种类:
对于感知一致性损失函数,为了避免训练初始阶段弱监督检测器和强监督检测器糟糕的性能导致误差过大影响网络收敛,采用基于Loss的加权样本的方式,其中M是ROI的经筛选之后得到的数量,λ是平衡两个损失函数权值,实际实验中设值为2。
其中密度图采用欧氏距离来衡量其差距,其中N指代的像素数量,x是密度估计图对应的激活值,i是对应像素位置:
进一步地,步骤S4,强弱监督协同学习网络的端到端训练,使用S1构建的图像数据集对步骤S2及S3构建的整体神经网络模型进行自监督训练。方法如下:
采用SGD进行优化,优化器的参数设置略有不同,其中强文本检测分支初始学习率设置为0.005,权重衰减为0.0001,动量为0.9。弱文本检测分支初始学习速率设置为0.01,权重衰减为0.0005,动量为0.9.RPN和ROI Head的训练样本ROI的数量设置为256和512,具有1:3的正数与负数的采样比。掩膜分支的ROI训练样本为16。在训练时采用了数据增强,包含扭曲,旋转,多尺度训练,文本裁切,遮挡,模糊。对于多尺度训练,输入图像的短边随机调整为三个尺度(600,800,1000)。将batchsize设置为1,在强监督标注数据和弱监督标注数据轮次迭代,在迭代70k时候停止。
在损失函数部分,设置强监督学习器的Lmask,Lrcnn,Lrcnn比例系数为1:1:1,其中Lmask中的β设置为2.在感知一致性损失中,λ1和λ2比例设置为1和10。该模型是并行训练的,并在单个GPU上进行评估。
在测试阶段,输入图像的比例取决于不同的数据集。在NMS之后,1000个提议被输入Fast R-CNN。Fast R-CNN和NMS分别过滤掉错误和冗余候选框。保留的候选框被输入到掩码分支以生成全局文本实例映射和字符映射。最后,从预测的映射生成文本实例边界框和序列。
训练方式比对实验:
由于本发明中的模型采用协同监督的方式,其中强标注样本1K,弱标注样本3K。但是本发明中的模型也可以只进行强监督或只进行弱监督训练。为此,首先划定数据集范围,并注明标识,如下所示:
(1):1K具有完全标注样本
(2):1K+3K具有完全标注的样本
(3):3K具有图像级标注的样本
(4):3K+1K具有图像级标注的样本
(5):1K完全标注和3K弱标注的训练样本
为了探究训练方式对模型的影响,模型自身的训练方式比较。模型训练方式总计有三种方式:
(1)第一种是全强监督训练方式,这种情况训练数据为完全标注样本,同时生成图像级弱标注用于监督弱监督分支网络,最后评估强监督子网络的检测效果。
(2)第二种是全弱监督训练方式,这种情况训练数据为图像级标注样本,强监督网络仅通过感知一致性约束学习,最后评估强监督子网络的检测效果。
(3)第三种是协同监督训练方式,通过部分完全标注样本和大量图像级标注样本,训练协同框架,最后评估强监督子网络的检测效果。
对比结果见下表:
训练方式 | 准确率(%) | 召回率(%) | F值(%) |
强监督D<sub>strong</sub> | 69.0 | 55.0 | 61.3 |
强监督D<sub>strong+</sub> | 80.4 | 75.9 | 78.1 |
弱监督D<sub>weak</sub> | 37.7 | 52.1 | 43.8 |
弱监督D<sub>weak+</sub> | 44.8 | 53.9 | 49.0 |
协同监督D<sub>normal</sub> | 76.2 | 68.9 | 72.4 |
本发明优点:
1.本发明设计了一种适用于协同训练模型的注意力感知主干网络(FeaturePyramid Network With Attention,FPN-Attention),该网络使用大量特征注意力模块用于更好的通过大量弱标签数据训练使得强监督模型对于背景误检率显著降低。通过设计Feature Attention Up-sample(FAU)模块改进了传统的反卷积或者双线性插值上采样,使模型在上采样过程中可以避免引入背景噪声。通过Feature Pyramid Attention(FPA)和Feature Attention Up-sample(FAU)堆叠,主干网络在不损失卷积感受野的情况下拥有更高分辨率和更有效的特征图。
2.本发明创新地提出一种基于注意力机制的弱监督检测器和强监督检测器协同学习的框架,将弱监督学习网络和强监督学习网络连接成为一个整体网络,在共享主干网络的同时也通过RPN-attention将强监督任务和弱监督任务更好地结合在一起。通过量化强监督和弱监督学习网络间感知水平上的一致性,实现强监督和弱监督学习网络的协同增强学习并从开源的数据集中构建了严格的对比实验数据集,与其他的工作比较,本发明的训练框架取得了先进性效果。本发明基于深度卷积神经网络,在光学字符检测领域寻求更为有效的混合协同监督框架,使得强监督文字检测模型能通过海量的弱监督数据进一步提升性能。
Claims (5)
1.一种注意力机制下的协同学习文字识别方法,其特征在于,包括以下步骤:
步骤S1,构建协同监督图像数据集,并划分为训练集与测试集,所述数据集中包含全标注数据集与弱标注训练集;
步骤S2,构建主干神经网络模型,该模型包括基础特征提取模块、特征金字塔构建模块和特征金字塔融合模块,基础特征提取模块获取输入图像的基础特征,特征金字塔构建模块其输入基础特征提取模块的输出特征图,进行多尺度上采样,构建含三种感受野的特征金字塔得到三个不同尺度特征,特征金字塔融合模块将特征金字塔构建模块与基础特征提取模块的特征融合,得到三个不同尺度融合后的特征图;
步骤S3,构建一种弱监督文本检测器和强监督文本检测器协同学习的框架,该框架包括强监督检测器网络、弱监督检测器网络、分支任务协同学习模块和协同损失设计,具体如下;
步骤S3-1,构建强监督检测器网络,主要包含RPN网络模块、预测框分类和回归任务模块与分割支路模块3个部分;详细过程如下:
主干网络特征图是步骤S2输出多尺度的特征图;
RPN网络模块是输入主干网络特征图,通过RPN网络对特征层提取可能包含文字区域的ROI特征;该模型中关于Anchor尺寸的初始化采用FPN算法的方式;
预测框分类和回归任务模块主要使用FastRCNN模型,RPN网络模块为该模块生成文本提议,把ROI特征经过ROIAlign算法输出,并将该输出图片作为FastRCNN的输入,通过全连接卷积实现对预测框回归与分类;
分割支路模块包含单独的文本分割和文本识别两个分割支路;
RPN网络模块为该模块提供掩膜输入;首先输入ROI特征图,然后经过一些卷积层和反卷积层继续提取特征,最后通过卷积核数量为38的卷积层输出38个特征图,首先将多边形以最小外接矩形的方式转换为水平矩形;之后为文本分割分支生成两种类型的目标图分别是用于文本实例分割的全局图和字符语义分割的字符图;其中,文本实例分割中,采用高斯卷积核对字符图进行卷积生成字符位置密度图;
步骤S3-2,构建弱监督检测器网络,包含弱监督注意力感知与特征融合两个模块;
把步骤S2得到的金字塔特征图输入RPN算法进行弱监督注意力感知,步骤S2输出的金字塔特征图在经过1x1卷积、Relu、1x1卷积及sigmoid得到相应的感知权重,步骤S2得到的输出经过3x3卷积提取结果与上述感知权重点乘,步骤S2得到的输出经过3x3卷积,将所述点乘结果叠加到该卷积结果上;
在特征融合模块中将每一个字符的激活图累加得到最终的的文字区域激活图;
步骤S3-3,分支任务协同学习,包含对强监督分支网络与弱监督分支网络的分析及实现算法;
强监督分支预测网络字符密度图,字符图可以看作是字符中心位置在图中的坐标预测,而字符密度图认为是字符中心在图中的像素出现的概率图,弱监督网络采用了全卷积网络,在最后的卷积特征图含有36通道,经全局平均池化直接得到对应每个字符的置信度,因此卷积特征图通道和字符是一一对应的;
在弱标签数据训练弱监督分支任务时,强监督分支的字符密度图应该与弱监督分支的字符密度图保持一致,从而产生感知一致性loss协同监督强分支网络,在训练强监督分支任务时,弱监督分支产生的密度图应该与强监督分支产生的字符密度图保持一致,从而通过感知一致loss协同监督弱监督分支网络;
分支任务协同学习实现手段:将经过ROI Align采样后的特征图预测对应弱监督分支网络的中间层结果,类似RoIUpsample采样,可以看作是RoIAlign的逆操作,根据对应的ROI的精确空间位置恢复特征贴图;
步骤S3-4,构建协同损失网络
构建一组关于强监督子任务分支和弱监督子任务分支损失函数;和一组侧重于检查两个分支网络之间的感知一致性损失;
对于强监督子网络,损失函数分为以下几个部分:1、RPN网络的Lrpn;2、Fast RCNN的分类和回归Lrcnn;3、分割支路的Lmask,实验中α1、α2和β都设置为1;其中前两部分损失函数和Fast RCNN一致,重点在于分割支路的Lmask;
Ltotal=Lrpn+a1Lrcnn+a2Lmask
分割支路损失函数Lmask所示,主要包含两个部分:1、文本分割的损失函数Lglobal,这部分是针对分割支路的掩膜输出分支;2、文本识别的损失函数Lchar,这部分是针对分割支路输出的38个通道的后36个通道进行计算;
Lmask=Lglobal+βLchar
Lglobal采用交叉熵损失,N表示输出特征图的点数量;yn∈[0,1],表示每个像素点的标签;x表示分割支路输出的预测图的第n个像素值;输入概率是通过sigmoid函数S(xn)得到的;
Lchar不同于Mask TextSpotter,对字符的位置采用了密度图的方式回归,因此采用交叉熵损失衡量期间的损失;其中n带指的是特定通道的像素;
对于弱监督子任务,它输出图像级别上的字符类别预测;鉴于图像级别的监督较弱,我们以图像级别预测的多标签二元交叉熵损失的形式定义分类损失,其中c带指的是字符的种类:
对于感知一致性损失函数,为了避免训练初始阶段弱监督检测器和强监督检测器糟糕的性能导致误差过大影响网络收敛,我们采用基于Loss的加权样本的方式,其中M是ROI的经筛选之后得到的数量,λ是平衡两个损失函数权值,实际实验中设值为2;
其中密度图采用欧氏距离来衡量其差距,其中N指代的像素数量,x是密度估计图对应的激活值,i是对应像素位置:
步骤S4,强弱监督协同学习网络的端到端训练,使用S1构建的图像数据集对步骤S2及S3构建的整体神经网络模型进行自监督训练。
2.根据权利要求1所述的方法,其特征在于:步骤S1所述数据集中包含带强标注的图像数据及带弱标注的图像数据;所述全标注数据集内部为带强标注的图像数据。
3.根据权利要求2所述的方法,其特征在于:
所述图像数据集来源包含但不限于ICDAR2013,ICDAR2015,ICDAR2017MLT,ICDAR2017Total-text文本检测标准数据集;其中,训练集等比例划分1:3为全标注数据集和弱标注训练集。
4.根据权利要求1所述的方法,其特征在于:
步骤S2所述主干神经网络模型包括基础特征提取模块、特征金字塔构建模块、特征金字塔融合模块;所述主干神经网络架构具体如下:
特征金字塔构建模块是Attention-based Feature Pyramid Network特征金字塔网络;其输入基础特征提取模块的输出特征图,进行多尺度上采样,构建了含三种感受野的特征金字塔,具体过程如下:
同时结合全局池化的注意力分支可以学习更好的高级特征表示,从高级特征生成的全局上下文是通过1×1卷积、正则化及relu实现的;通过上采样后的注意力权重与底层特征进行点乘融合,得到最终特征图尺寸大小不变为特征金字塔注意力模块可以在不降低卷积感受野的前提下得到更高分辨率的特征图,代替VGG-net中Conv5层的输出;
特征融合模块具体过程如下:
假设低层特征图的大小为(H×W×C),高层特征图的大小为 首先将高层特征经过全局平均池化变为的特征向量,在经1×1卷积层映射得到通道注意力图,和低层特征图点乘;高层特征图经双线性插值采样后大小为(H×W×C),在特征注意力上采样结构的积极注意力在经1×1卷积层映射得到积极注意力图;通道注意力和积极注意力均采用跳跃连接的方式,最后和上采样的高层语义相加得到最终的特征图;
融合过程包含前4个基础特征提取模块与一个含特征金字塔层模块特征融合处理,得到步骤2最终的三个不同尺度特征,具体工作流程如下:
5.根据权利要求4所述的方法,其特征在于:步骤S4具体过程如下:
采用SGD进行优化,其中强文本检测分支初始学习率设置为0.005,权重衰减为0.0001,动量为0.9;弱文本检测分支初始学习速率设置为0.01,权重衰减为0.0005,动量为0.9;RPN和ROI Head的训练样本ROI的数量设置为256和512,具有1:3的正数与负数的采样比;掩膜分支的ROI训练样本为16;在训练时采用了数据增强,包含扭曲,旋转,多尺度训练,文本裁切,遮挡,模糊;对于多尺度训练,输入图像的短边随机调整为三个尺度(600,800,1000);将batchsize设置为1,在强监督标注数据和弱监督标注数据轮次迭代,在迭代70k时候停止;
在损失函数部分,设置强监督学习器的Lmask,Lrcnn,Lrcnn比例系数为1:1:1,其中Lmask中的β设置为2;在感知一致性损失中,λ1和λ2比例设置为1和10;该模型是并行训练的,并在单个GPU上进行评估;
在测试阶段,输入图像的比例取决于不同的数据集;在NMS之后,1000个提议被输入Fast R-CNN;Fast R-CNN和NMS分别过滤掉错误和冗余候选框;保留的候选框被输入到掩码分支以生成全局文本实例映射和字符映射;最后,从预测的映射生成文本实例边界框和序列。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110274267.XA CN112966684B (zh) | 2021-03-15 | 2021-03-15 | 一种注意力机制下的协同学习文字识别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110274267.XA CN112966684B (zh) | 2021-03-15 | 2021-03-15 | 一种注意力机制下的协同学习文字识别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112966684A CN112966684A (zh) | 2021-06-15 |
CN112966684B true CN112966684B (zh) | 2022-11-04 |
Family
ID=76279059
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110274267.XA Active CN112966684B (zh) | 2021-03-15 | 2021-03-15 | 一种注意力机制下的协同学习文字识别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112966684B (zh) |
Families Citing this family (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113673338B (zh) * | 2021-07-16 | 2023-09-26 | 华南理工大学 | 自然场景文本图像字符像素弱监督自动标注方法、系统及介质 |
CN113378826B (zh) * | 2021-08-11 | 2021-12-07 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、装置、设备及存储介质 |
CN113743291B (zh) * | 2021-09-02 | 2023-11-07 | 南京邮电大学 | 一种融合注意力机制的多尺度检测文本的方法及装置 |
CN115423818A (zh) * | 2021-10-11 | 2022-12-02 | 深圳硅基智能科技有限公司 | 基于紧框标的识别方法、测量方法及识别装置 |
CN114332841A (zh) * | 2021-12-31 | 2022-04-12 | 福州大学 | 一种基于选择性特征融合金字塔的场景文本检测方法 |
CN114549413B (zh) * | 2022-01-19 | 2023-02-03 | 华东师范大学 | 基于ct图像的多尺度融合全卷积网络淋巴结转移检测方法 |
CN114863434B (zh) * | 2022-04-21 | 2023-05-23 | 北京百度网讯科技有限公司 | 文字分割模型的获取方法、文字分割方法及其装置 |
CN114743206B (zh) * | 2022-05-17 | 2023-10-27 | 北京百度网讯科技有限公司 | 文本检测方法、模型训练方法、装置、电子设备 |
CN115080749B (zh) * | 2022-08-16 | 2022-11-08 | 之江实验室 | 一种基于自监督训练的弱监督文本分类方法、系统和装置 |
CN115116122B (zh) * | 2022-08-30 | 2022-12-16 | 杭州魔点科技有限公司 | 一种基于双分支协同监督的口罩识别方法和系统 |
CN115187783B (zh) * | 2022-09-09 | 2022-12-27 | 之江实验室 | 基于联邦学习的多任务混合监督医疗图像分割方法及系统 |
CN115546778B (zh) * | 2022-10-22 | 2023-06-13 | 清华大学 | 一种基于多任务学习的场景文本检测方法及系统 |
CN116524363A (zh) * | 2023-05-18 | 2023-08-01 | 东北农业大学 | 一种基于自监督学习的油菜亚健康区域嵌入式自动检测器及检测方法 |
CN116958998B (zh) * | 2023-09-20 | 2023-12-26 | 四川泓宝润业工程技术有限公司 | 一种基于深度学习的数字仪表读数的识别方法 |
CN117556806B (zh) * | 2023-12-28 | 2024-03-22 | 大连云智信科技发展有限公司 | 一种中医证候名细粒度分割方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322495A (zh) * | 2019-06-27 | 2019-10-11 | 电子科技大学 | 一种基于弱监督深度学习的场景文本分割方法 |
CN111860348A (zh) * | 2020-07-21 | 2020-10-30 | 国网山东省电力公司青岛供电公司 | 基于深度学习的弱监督电力图纸ocr识别方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108399406B (zh) * | 2018-01-15 | 2022-02-01 | 中山大学 | 基于深度学习的弱监督显著性物体检测的方法及系统 |
CN110533086B (zh) * | 2019-08-13 | 2021-01-26 | 天津大学 | 图像数据半自动标注方法 |
CN111309921A (zh) * | 2020-01-19 | 2020-06-19 | 上海方立数码科技有限公司 | 一种文本三元组抽取方法及抽取系统 |
CN111444939B (zh) * | 2020-02-19 | 2022-06-28 | 山东大学 | 电力领域开放场景下基于弱监督协同学习的小尺度设备部件检测方法 |
CN112183414A (zh) * | 2020-09-29 | 2021-01-05 | 南京信息工程大学 | 一种基于混合空洞卷积的弱监督遥感目标检测方法 |
CN112241766B (zh) * | 2020-10-27 | 2023-04-18 | 西安电子科技大学 | 基于样本生成和迁移学习的肝脏ct图像多病变分类方法 |
-
2021
- 2021-03-15 CN CN202110274267.XA patent/CN112966684B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110322495A (zh) * | 2019-06-27 | 2019-10-11 | 电子科技大学 | 一种基于弱监督深度学习的场景文本分割方法 |
CN111860348A (zh) * | 2020-07-21 | 2020-10-30 | 国网山东省电力公司青岛供电公司 | 基于深度学习的弱监督电力图纸ocr识别方法 |
Also Published As
Publication number | Publication date |
---|---|
CN112966684A (zh) | 2021-06-15 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN112966684B (zh) | 一种注意力机制下的协同学习文字识别方法 | |
CN111210443B (zh) | 基于嵌入平衡的可变形卷积混合任务级联语义分割方法 | |
CN106547880B (zh) | 一种融合地理区域知识的多维度地理场景识别方法 | |
CN110287960A (zh) | 自然场景图像中曲线文字的检测识别方法 | |
CN108537269B (zh) | 一种弱交互式的物体检测深度学习方法及其系统 | |
Zhong et al. | Multiagent object-based classifier for high spatial resolution imagery | |
CN113609896A (zh) | 基于对偶相关注意力的对象级遥感变化检测方法及系统 | |
CN113591968A (zh) | 一种基于非对称注意力特征融合的红外弱小目标检测方法 | |
CN106408030A (zh) | 基于中层语义属性和卷积神经网络的sar图像分类方法 | |
CN111626993A (zh) | 一种基于嵌入式FEFnet网络的图像自动检测计数方法及系统 | |
CN111353544B (zh) | 一种基于改进的Mixed Pooling-YOLOV3目标检测方法 | |
CN113159120A (zh) | 一种基于多尺度跨图像弱监督学习的违禁物检测方法 | |
CN114694038A (zh) | 基于深度学习的高分辨率遥感影像分类方法及系统 | |
CN114648665A (zh) | 一种弱监督目标检测方法及系统 | |
CN115512103A (zh) | 多尺度融合遥感图像语义分割方法及系统 | |
CN114022793A (zh) | 一种基于孪生网络的光学遥感图像变化检测方法 | |
CN114724155A (zh) | 基于深度卷积神经网络的场景文本检测方法、系统及设备 | |
Liu et al. | Survey of road extraction methods in remote sensing images based on deep learning | |
Wang et al. | Urban building extraction from high-resolution remote sensing imagery based on multi-scale recurrent conditional generative adversarial network | |
CN112950780A (zh) | 一种基于遥感影像的网络地图智能生成方法及系统 | |
CN114820655A (zh) | 可靠区域作为注意力机制监督的弱监督建筑物分割方法 | |
Li et al. | Small object detection algorithm based on feature pyramid-enhanced fusion SSD | |
Chen et al. | Exchange means change: An unsupervised single-temporal change detection framework based on intra-and inter-image patch exchange | |
Wang et al. | LCS-EnsemNet: A semisupervised deep neural network for SAR image change detection with dual feature extraction and label-consistent self-ensemble | |
Huang et al. | A correlation context-driven method for sea fog detection in meteorological satellite imagery |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |