CN113569871A - 一种基于深度学习的图书馆自动盘书方法及系统 - Google Patents
一种基于深度学习的图书馆自动盘书方法及系统 Download PDFInfo
- Publication number
- CN113569871A CN113569871A CN202110883939.7A CN202110883939A CN113569871A CN 113569871 A CN113569871 A CN 113569871A CN 202110883939 A CN202110883939 A CN 202110883939A CN 113569871 A CN113569871 A CN 113569871A
- Authority
- CN
- China
- Prior art keywords
- book
- data set
- labeling
- images
- coordinate
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 27
- 238000013135 deep learning Methods 0.000 title claims abstract description 20
- 238000002372 labelling Methods 0.000 claims abstract description 61
- 238000012360 testing method Methods 0.000 claims abstract description 17
- 238000007781 pre-processing Methods 0.000 claims abstract description 14
- 238000012549 training Methods 0.000 claims abstract description 11
- 230000004927 fusion Effects 0.000 claims description 29
- 238000000605 extraction Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 claims description 13
- 238000001514 detection method Methods 0.000 claims description 12
- 230000011218 segmentation Effects 0.000 claims description 6
- 238000004364 calculation method Methods 0.000 abstract description 7
- 238000010586 diagram Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 3
- 238000013527 convolutional neural network Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 1
- 125000004122 cyclic group Chemical group 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000002265 prevention Effects 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 238000011160 research Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2415—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on parametric or probabilistic models, e.g. based on likelihood ratio or false acceptance rate versus a false rejection rate
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Probability & Statistics with Applications (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开一种基于深度学习的图书馆自动盘书方法及系统,方法包括:对原始图像进行预处理获得样本数据集;利用标签工具对样本数据集中书名和书名坐标进行标注获得标签数据集;采用U‑net网络将标签数据集输入到EAST网络模型中进行训练获得预测模型;对测试集中的书籍进行书名坐标标注获得多个书名坐标标注图像;采用python算法对多个书名坐标标注图像分别进行裁剪;将裁剪后的多个书名坐标标注图像输入所述预测模型中进行文字识别,获得测试集中各书籍对应的书名。本发明将U‑net网络与EAST网络模型相结合获得预测模型,既可以利用不同级别的特征提高识别精度,又可以节省计算成本,实现结构轻量化。
Description
技术领域
本发明涉及图像处理技术领域,特别是涉及一种基于深度学习的图书馆自动盘书方法及系统。
背景技术
由于场景图像中包含着丰富的文本信息,可以在很大程度上帮助人们去捕获和认知场景图像的内容及含义。如果使用计算机自动识别场景图像中包含的文本内容,并应用于盲人辅助导航、无人驾驶导航、安全保卫、危机预防及处理等领域,将给人们的工作生活带来极大便利。
自然场景文本定位被认为是文档分析领域中最困难也是最有价值的一个难题。自然图像中的文本越来越受到计算机视觉界的关注,因为它在文档分析、场景理解、机器人导航和图像检索等方面有大量的实际应用。虽然之前的研究在文本检测和文本识别方面都取得了显著的进展,但针对大差异的文本或背景高度复杂的文本仍然存在识别精度低的问题。
发明内容
本发明的目的是提供一种基于深度学习的图书馆自动盘书方法及系统,以提高识别精度。
为实现上述目的,本发明提供了一种基于深度学习的图书馆自动盘书方法,所述方法包括:
步骤S1:获取各书籍对应的原始图像;
步骤S2:对各书籍对应的所述原始图像进行预处理,获得样本数据集;
步骤S3:利用标签工具对所述样本数据集中书名和书名坐标进行标注,获得标签数据集;
步骤S4:采用U-net网络将所述标签数据集输入到EAST网络模型中进行训练,获得预测模型;
步骤S5:对测试集中的书籍进行书名坐标标注,获得多个书名坐标标注图像;
步骤S6:采用python算法对多个所述书名坐标标注图像分别进行裁剪;
步骤S7:将裁剪后的多个所述书名坐标标注图像输入所述预测模型中进行文字识别,获得测试集中各书籍对应的书名。
可选地,所述利用标签工具对所述样本数据集中书名和书名坐标进行标注,获得标签数据集,具体为:
利用labelimg标签工具,将有效的样本图像中文本行的坐标按照从左上角开始顺时针的方向存储在txt格式的文本中,获得标签数据集。
可选地,所述EAST网络模型包括:特征提取层、特征融合层和特征输出层;
所述特征提取层用于对已标注各书名以及各书名对应书名坐标的图像进行特征提取,获得不同尺度特征图像;
所述特征融合层用于采用U-net网络对不同尺度特征图像进行融合,获得融合图像;
所述特征输出层用于根据融合图像输出检测框位置。
可选地,所述对各书籍对应的所述原始图像进行预处理,获得样本数据集,具体为:
利用剪辑工具对各书籍对应的所述原始图像进行分割处理,获得样本数据集。
本发明还提供一种基于深度学习的图书馆自动盘书系统,所述系统包括:
获取模块,用于获取各书籍对应的原始图像;
预处理模块,用于对各书籍对应的所述原始图像进行预处理,获得样本数据集;
第一标注模块,用于利用标签工具对所述样本数据集中书名和书名坐标进行标注,获得标签数据集;
训练模块,用于采用U-net网络将所述标签数据集输入到EAST网络模型中进行训练,获得预测模型;
第二标注模块,用于对测试集中的书籍进行书名坐标标注,获得多个书名坐标标注图像;
裁剪模块,用于采用python算法对多个所述书名坐标标注图像分别进行裁剪;
文字识别模块,用于将裁剪后的多个所述书名坐标标注图像输入所述预测模型中进行文字识别,获得测试集中各书籍对应的书名。
可选地,所述第一标注模块,具体为:
利用labelimg标签工具,将有效的样本图像中文本行的坐标按照从左上角开始顺时针的方向存储在txt格式的文本中,获得标签数据集。
可选地,所述EAST网络模型包括:特征提取层、特征融合层和特征输出层;
所述特征提取层用于对已标注各书名以及各书名对应书名坐标的图像进行特征提取,获得不同尺度特征图像;
所述特征融合层用于采用U-net网络对不同尺度特征图像进行融合,获得融合图像;
所述特征输出层用于根据融合图像输出检测框位置。
可选地,所述预处理模块,具体为:
利用剪辑工具对各书籍对应的所述原始图像进行分割处理,获得样本数据集。
根据本发明提供的具体实施例,本发明公开了以下技术效果:
本发明将U-net网络与EAST网络模型相结合获得预测模型,其思想为逐步合并特征图,同时保持上采样分支较小,既可以利用不同级别的特征提高识别精度,又可以节省计算成本,实现结构轻量化。
附图说明
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动性的前提下,还可以根据这些附图获得其他的附图。
图1为本发明基于深度学习的图书馆自动盘书方法流程图;
图2为本发明剪辑后有效的样本图像示意图;
图3为本发明标签数据集示意图;
图4为本发明EAST网络模型示意图;
图5为本发明书名坐标标注图像示意图;
图6为本发明裁剪后的书名坐标标注图像示意图;
图7为本发明attention原理图;
图8为本发明基于深度学习的图书馆自动盘书系统结构图;
图9为本发明字符识别的网络结构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
本发明的目的是提供一种基于深度学习的图书馆自动盘书方法及系统,以提高识别精度。
为使本发明的上述目的、特征和优点能够更加明显易懂,下面结合附图和具体实施方式对本发明作进一步详细的说明。
实施例1
如图1所示,本发明公开一种基于深度学习的图书馆自动盘书方法,其特征在于,所述方法包括:
步骤S1:获取各书籍对应的原始图像。
步骤S2:对各书籍对应的所述原始图像进行预处理,获得样本数据集。
步骤S3:利用标签工具对所述样本数据集中书名和书名坐标进行标注,获得标签数据集。
步骤S4:采用U-net网络将所述标签数据集输入到EAST网络模型中进行训练,获得预测模型。
步骤S5:对测试集中的书籍进行书名坐标标注,获得多个书名坐标标注图像。
步骤S6:采用python算法对多个所述书名坐标标注图像分别进行裁剪。
步骤S7:将裁剪后的多个所述书名坐标标注图像输入所述预测模型中进行文字识别,获得测试集中各书籍对应的书名。
下面对各个步骤进行详细论述:
步骤S2:对各书籍对应的所述原始图像进行预处理,获得样本数据集,具体为:利用剪辑工具对各书籍对应的所述原始图像进行分割处理,获得样本数据集。所述样本数据集中包括多张有效的样本图像;所述剪辑工具可以为看图王工具包里的剪辑工具,也可以使用ps剪辑工具。本发明使用的是电脑自带剪辑工具。
本发明采用NIKON D750单反相机来获取各书籍对应的原始图像,采集形式为图像数据,图像数据的分辨率为6016×4016,采集完毕后,由于各书籍对应的原始图像的样本分辨率较高且图书摆放存在不整齐的现象,所以利用剪辑工具对图像数据进行分割处理,将剪辑之后的图像看做有效的样本图像,剪辑后有效的样本图像如图2所示。
步骤S3:利用标签工具对所述样本数据集中书名和书名坐标进行标注,获得标签数据集;所述标签数据集包括已标注各书名以及各书名对应书名坐标的图像。本实施例中,标签工具为labelimg标签工具;标注方式是将有效的样本图像中文本行的坐标按照从左上角开始顺时针的方向存储在txt格式的文本中,获得标签数据集,所述标签数据集如图3所示。
步骤S4:采用U-net网络将所述标签数据集输入到EAST网络模型中进行训练,获得预测模型。
因为文本区域的大小差别很大,所以定位大文本将需要更深层的特征,而定位小文本则需要浅层特征。因此,网络必须使用不同级别的特征来满足这些要求,但是在大型特征图上合并大量通道会显著增加后期计算开销。为了弥补这一点,本发明采用U-shape的思想逐步合并特征图,同时保持上采样分支较小。共同建立一个网络,既可以利用不同级别的特征,又可以节省很少的计算成本。
如图4所示,图4中conv stage为卷积层,concat unpool为连接层。本发明所述EAST网络模型包括特征提取层(即Feature extractor stme(PVANet))、特征融合层(即Feature-merging branch)和特征输出层(即Output layer)。所述特征提取层用于对已标注各书名以及各书名对应书名坐标的图像进行特征提取,获得不同尺度特征图像。所述特征融合层用于采用U-net网络对不同尺度特征图像进行融合,获得融合图像。所述特征输出层用于根据融合图像h4输出检测框位置(即图4中text boxes)。另外,所述特征输出层还用于根据融合图像h4输出检测框置信度(即图4中score map)、检测框旋转角度(即图4中textrotation angle)和任意四边形检测框位置(即图4中text quadrangle coordinates)。
所述特征提取层基于VGG16作为网络结构的骨干,所述特征提取层包括输入层、第一卷积层、第二卷积层、第三卷积层和第四卷积层;所述输入层包括16个7×7的卷积核,所述第一卷积层包括16个卷积核,所述第二卷积层包括64个卷积核,所述第三卷积层包括256个卷积核,所述第四卷积层包括384个卷积核。所述第一卷积层输出的第一特征图像f1为输入图像(即已标注各书名以及各书名对应书名坐标的图像)大小的1/32,所述第二卷积层输出的第二特征图像f2为输入图像大小的1/16,所述第三卷积层输出的第三特征图像f3为输入图像大小的1/8,所述第四卷积层输出的第四特征图像f4为输入图像大小的1/4。
本发明采用U-net网络将前面抽取的不同尺度特征图像按一定的规则进行合并,具体步骤如下:
所述融合特征层包括第一连接层(即图4中concat unpool)、第二连接层、第三连接层和第五卷积层。
所述第三连接层用于对第四特征图像f4进行放大1倍,并将放大后的第四特征图像f4与第三特征图像f3依次做1×1和3×3(即图4中1*1和3*3)的卷积处理,获得第一特征融合图像h1;此实施例中,所述第三连接层中包括128个1×1的卷积核和128个3×3的卷积核。
所述第二连接层用于对第一特征融合图像h1进行放大1倍,并将放大后的第一特征融合图像h1与第二特征图像f2依次做1×1和3×3的卷积处理,获得第二特征融合图像h2;所述第二连接层中包括64个1×1的卷积核和64个3×3的卷积核。
所述第一连接层用于对第二特征融合图像h2进行放大1倍,并将放大后的第二特征融合图像h2与第一特征图像f1依次做1×1和3×3的卷积处理,获得第三特征融合图像h3;所述第一连接层包括32个1×1的卷积核和32个3×3的卷积核。
所述第五卷积层用于对第三特征融合图像h3做3×3的卷积处理,获得融合图像h4;所述第五卷积层包括32个3×3的卷积核。
所述输出层用于对融合图像h4做1×1的卷积处理,获得检测框位置;所述输出层包括4个1×1的卷积核;所述检测框位置为已进行书名坐标标注的位置。
步骤S5:对测试集中的书籍进行书名坐标标注,获得多个书名坐标标注图像,具体如图5所示。图2和图5中,除了书名之外的文字没有特殊意义,本发明仅仅给出一个示例。
步骤S6:采用python算法对多个所述书名坐标标注图像进行裁剪,如图6所示。
步骤S7:将裁剪后的多个所述书名坐标标注图像输入所述预测模型中进行文字识别,获得测试集中各书籍对应的书名。具体的,本发明采用注意力机制(即Attention机制),将裁剪后的多个所述书名坐标标注图像输入所述预测模型中进行文字识别,获得测试集中各书籍对应的书名。本发明基于注意力机制Attention进行文字识别,融入了人类视觉对特征点的重视程度不同的特点,使其对特征点识别更加精准。
如图7所示,Attention机制的具体计算过程,可以将其归纳为两个过程:第一个过程是根据Query和Key计算权重系数,第二个过程根据权重系数对Value进行加权求和。而第一个过程又可以细分为两个阶段:第一个阶段根据Query和Key计算两者的相似性或者相关性;第二个阶段对第一阶段的原始分值进行归一化处理。
在第一个阶段,根据Query和Key,计算两者的相似性或者相关性,最常见的方法包括:求两者的向量点积、求两者的向量Cosine相似性或者通过再引入额外的神经网络来求值。
方式如下:
点积:
Similarity(Query、Keyi)=Query*Keyi
Cosin相识性:
MLP网络:
Similarity(Query,Keyi)=MLP(Query,Keyi)
Similarity表示Q和K的相似性
Encoder-Decoder框架在文本处理领域的应用:将构成Source的元素分解成是由一系列的(Key,Value)组成的数据对,此时给定Target中的某个元素Query,通过计算Query和各个Key的相似性或者相关性,得到每个Key对应Value的权重系数,然后对Value进行加权求和,求得最终的注意力权重。所以根本上Attention机制是对Source中元素的Value值进行加权求和,而Query和Key用来计算对应Value的权重系数。Source和Target可以是语言、语音、图片等。注意力机制实际上可以看成是一个Query到一系列Key-Value对的映射。从图7可以理解,从每个Key地址都会取出内容,取出内容的重要性根据Query和Key的相似性来决定,之后对Value进行加权求和,这样就可以取出最终的Value值,即是Attention权值。
第一阶段产生的分值根据具体产生的方法不同其数值取值范围也不一样,第二阶段引入类似SoftMax的计算方式对第一阶段的得分进行数值转换,一方面可以进行归一化,将原始计算分值整理成所有元素权重之和为1的概率分布;另一方面也可以通过SoftMax的内在机制更加突出重要元素的权重。即一般采用如下公式计算:
第二阶段的计算结果ai即为valuei对应的权重系数,然后进行加权求和即可得到Attention数值。加权求和公式如下:
经过上面三个阶段的计算,就可以得到针对Query的注意力权值。
注意力权值的作用如下:
汉字识别网络主要有三部分:卷积神经网络、循环神经网络和注意力模型。在网络的前端,卷积神经网络自动从输入的图片中提取特征,接着注意力模型根据循环神经网络神经元的隐藏状态及上一时刻的输出计算出注意力权重,最后将卷积神经网络输出的特征图与注意力权重结合起来,输入到LSTM中进行解码后,得到整个字符集的概率分布,最后直接提取概率最高的编号所对应的字符作为最后的识别结果。字符识别的网络结构如9图所示。
实施例2
如图8所示,本发明还提供一种基于深度学习的图书馆自动盘书系统,所述系统包括:
获取模块801,用于获取各书籍对应的原始图像。
预处理模块802,用于对各书籍对应的所述原始图像进行预处理,获得样本数据集。
第一标注模块803,用于利用标签工具对所述样本数据集中书名和书名坐标进行标注,获得标签数据集。
训练模块804,用于采用U-net网络将所述标签数据集输入到EAST网络模型中进行训练,获得预测模型。
第二标注模块805,用于对测试集中的书籍进行书名坐标标注,获得多个书名坐标标注图像。
裁剪模块806,用于采用python算法对多个所述书名坐标标注图像分别进行裁剪。
文字识别模块807,用于将裁剪后的多个所述书名坐标标注图像输入所述预测模型中进行文字识别,获得测试集中各书籍对应的书名。
作为一种可选的实施方式,本发明所述第一标注模块803,具体为:
利用labelimg标签工具,将有效的样本图像中文本行的坐标按照从左上角开始顺时针的方向存储在txt格式的文本中,获得标签数据集。
作为一种可选的实施方式,本发明所述EAST网络模型包括:特征提取层、特征融合层和特征输出层;
所述特征提取层用于对已标注各书名以及各书名对应书名坐标的图像进行特征提取,获得不同尺度特征图像。
所述特征融合层用于采用U-net网络对不同尺度特征图像进行融合,获得融合图像。
所述特征输出层用于根据融合图像输出检测框位置。
作为一种可选的实施方式,本发明所述预处理模块802,具体为:
利用剪辑工具对各书籍对应的所述原始图像进行分割处理,获得样本数据集。
本说明书中各个实施例采用递进的方式描述,每个实施例重点说明的都是与其他实施例的不同之处,各个实施例之间相同相似部分互相参见即可。对于实施例公开的系统而言,由于其与实施例公开的方法相对应,所以描述的比较简单,相关之处参见方法部分说明即可。
本文中应用了具体个例对本发明的原理及实施方式进行了阐述,以上实施例的说明只是用于帮助理解本发明的方法及其核心思想;同时,对于本领域的一般技术人员,依据本发明的思想,在具体实施方式及应用范围上均会有改变之处。综上所述,本说明书内容不应理解为对本发明的限制。
Claims (8)
1.一种基于深度学习的图书馆自动盘书方法,其特征在于,所述方法包括:
步骤S1:获取各书籍对应的原始图像;
步骤S2:对各书籍对应的所述原始图像进行预处理,获得样本数据集;
步骤S3:利用标签工具对所述样本数据集中书名和书名坐标进行标注,获得标签数据集;
步骤S4:采用U-net网络将所述标签数据集输入到EAST网络模型中进行训练,获得预测模型;
步骤S5:对测试集中的书籍进行书名坐标标注,获得多个书名坐标标注图像;
步骤S6:采用python算法对多个所述书名坐标标注图像分别进行裁剪;
步骤S7:将裁剪后的多个所述书名坐标标注图像输入所述预测模型中进行文字识别,获得测试集中各书籍对应的书名。
2.根据权利要求1所述的基于深度学习的图书馆自动盘书方法,其特征在于,所述利用标签工具对所述样本数据集中书名和书名坐标进行标注,获得标签数据集,具体为:
利用labelimg标签工具,将有效的样本图像中文本行的坐标按照从左上角开始顺时针的方向存储在txt格式的文本中,获得标签数据集。
3.根据权利要求1所述的基于深度学习的图书馆自动盘书方法,其特征在于,所述EAST网络模型包括:特征提取层、特征融合层和特征输出层;
所述特征提取层用于对已标注各书名以及各书名对应书名坐标的图像进行特征提取,获得不同尺度特征图像;
所述特征融合层用于采用U-net网络对不同尺度特征图像进行融合,获得融合图像;
所述特征输出层用于根据融合图像输出检测框位置。
4.根据权利要求1所述的基于深度学习的图书馆自动盘书方法,其特征在于,所述对各书籍对应的所述原始图像进行预处理,获得样本数据集,具体为:
利用剪辑工具对各书籍对应的所述原始图像进行分割处理,获得样本数据集。
5.一种基于深度学习的图书馆自动盘书系统,其特征在于,所述系统包括:
获取模块,用于获取各书籍对应的原始图像;
预处理模块,用于对各书籍对应的所述原始图像进行预处理,获得样本数据集;
第一标注模块,用于利用标签工具对所述样本数据集中书名和书名坐标进行标注,获得标签数据集;
训练模块,用于采用U-net网络将所述标签数据集输入到EAST网络模型中进行训练,获得预测模型;
第二标注模块,用于对测试集中的书籍进行书名坐标标注,获得多个书名坐标标注图像;
裁剪模块,用于采用python算法对多个所述书名坐标标注图像分别进行裁剪;
文字识别模块,用于将裁剪后的多个所述书名坐标标注图像输入所述预测模型中进行文字识别,获得测试集中各书籍对应的书名。
6.根据权利要求5所述的基于深度学习的图书馆自动盘书系统,其特征在于,所述第一标注模块,具体为:
利用labelimg标签工具,将有效的样本图像中文本行的坐标按照从左上角开始顺时针的方向存储在txt格式的文本中,获得标签数据集。
7.根据权利要求5所述的基于深度学习的图书馆自动盘书系统,其特征在于,所述EAST网络模型包括:特征提取层、特征融合层和特征输出层;
所述特征提取层用于对已标注各书名以及各书名对应书名坐标的图像进行特征提取,获得不同尺度特征图像;
所述特征融合层用于采用U-net网络对不同尺度特征图像进行融合,获得融合图像;
所述特征输出层用于根据融合图像输出检测框位置。
8.根据权利要求5所述的基于深度学习的图书馆自动盘书系统,其特征在于,所述预处理模块,具体为:
利用剪辑工具对各书籍对应的所述原始图像进行分割处理,获得样本数据集。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110883939.7A CN113569871A (zh) | 2021-08-03 | 2021-08-03 | 一种基于深度学习的图书馆自动盘书方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110883939.7A CN113569871A (zh) | 2021-08-03 | 2021-08-03 | 一种基于深度学习的图书馆自动盘书方法及系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113569871A true CN113569871A (zh) | 2021-10-29 |
Family
ID=78170029
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110883939.7A Pending CN113569871A (zh) | 2021-08-03 | 2021-08-03 | 一种基于深度学习的图书馆自动盘书方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113569871A (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150371085A1 (en) * | 2014-06-19 | 2015-12-24 | Bitlit Media Inc. | Method and system for identifying books on a bookshelf |
CN110097049A (zh) * | 2019-04-03 | 2019-08-06 | 中国科学院计算技术研究所 | 一种自然场景文本检测方法及系统 |
CN110197175A (zh) * | 2019-04-28 | 2019-09-03 | 南京邮电大学 | 一种图书书名定位及词性标注的方法及系统 |
CN110321894A (zh) * | 2019-04-23 | 2019-10-11 | 浙江工业大学 | 一种基于深度学习ocr的图书馆图书快速定位方法 |
CN110909743A (zh) * | 2019-11-25 | 2020-03-24 | 章志亮 | 图书盘点方法及图书盘点系统 |
CN111738262A (zh) * | 2020-08-21 | 2020-10-02 | 北京易真学思教育科技有限公司 | 目标检测模型训练、检测方法、装置、设备及存储介质 |
CN111967471A (zh) * | 2020-08-20 | 2020-11-20 | 华南理工大学 | 一种基于多尺度特征的场景文本识别方法 |
US20210224568A1 (en) * | 2020-07-24 | 2021-07-22 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for recognizing text |
CN113159023A (zh) * | 2021-03-14 | 2021-07-23 | 西北工业大学 | 基于显式监督注意力机制的场景文本识别方法 |
-
2021
- 2021-08-03 CN CN202110883939.7A patent/CN113569871A/zh active Pending
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150371085A1 (en) * | 2014-06-19 | 2015-12-24 | Bitlit Media Inc. | Method and system for identifying books on a bookshelf |
CN110097049A (zh) * | 2019-04-03 | 2019-08-06 | 中国科学院计算技术研究所 | 一种自然场景文本检测方法及系统 |
CN110321894A (zh) * | 2019-04-23 | 2019-10-11 | 浙江工业大学 | 一种基于深度学习ocr的图书馆图书快速定位方法 |
CN110197175A (zh) * | 2019-04-28 | 2019-09-03 | 南京邮电大学 | 一种图书书名定位及词性标注的方法及系统 |
CN110909743A (zh) * | 2019-11-25 | 2020-03-24 | 章志亮 | 图书盘点方法及图书盘点系统 |
US20210224568A1 (en) * | 2020-07-24 | 2021-07-22 | Beijing Baidu Netcom Science And Technology Co., Ltd. | Method and apparatus for recognizing text |
CN111967471A (zh) * | 2020-08-20 | 2020-11-20 | 华南理工大学 | 一种基于多尺度特征的场景文本识别方法 |
CN111738262A (zh) * | 2020-08-21 | 2020-10-02 | 北京易真学思教育科技有限公司 | 目标检测模型训练、检测方法、装置、设备及存储介质 |
CN113159023A (zh) * | 2021-03-14 | 2021-07-23 | 西北工业大学 | 基于显式监督注意力机制的场景文本识别方法 |
Non-Patent Citations (2)
Title |
---|
孙婧婧 等: "基于轻量级网络的自然场景下的文本检测", 《电子测量技术》, no. 08, pages 101 - 107 * |
王建新 等: "基于深度学习的自然场景文本检测与识别综述", 《软件学报》, no. 05, pages 1465 - 1496 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110298037B (zh) | 基于增强注意力机制的卷积神经网络匹配的文本识别方法 | |
CN112926396B (zh) | 一种基于双流卷积注意力的动作识别方法 | |
CN110276316B (zh) | 一种基于深度学习的人体关键点检测方法 | |
KR20200098379A (ko) | 이미지 기반의 데이터 처리 방법, 장치, 기기 및 판독 가능 저장 매체 | |
CN110795543A (zh) | 基于深度学习的非结构化数据抽取方法、装置及存储介质 | |
CN114743020B (zh) | 一种结合标签语义嵌入和注意力融合的食物识别方法 | |
CN111582044A (zh) | 基于卷积神经网络和注意力模型的人脸识别方法 | |
CN110781744A (zh) | 一种基于多层次特征融合的小尺度行人检测方法 | |
CN112085120B (zh) | 多媒体数据的处理方法、装置、电子设备及存储介质 | |
CN112836702B (zh) | 一种基于多尺度特征提取的文本识别方法 | |
KR20200010672A (ko) | 딥러닝을 이용한 스마트 상품 검색 방법 및 시스템 | |
CN112801099B (zh) | 一种图像处理方法、装置、终端设备及介质 | |
CN117033609B (zh) | 文本视觉问答方法、装置、计算机设备和存储介质 | |
CN111444850A (zh) | 一种图片检测的方法和相关装置 | |
Bhalekar et al. | D-CNN: a new model for generating image captions with text extraction using deep learning for visually challenged individuals | |
CN114357206A (zh) | 基于语义分析的教育类视频彩色字幕生成方法及系统 | |
CN112464775A (zh) | 一种基于多分支网络的视频目标重识别方法 | |
CN112347997A (zh) | 一种试题检测识别方法、装置、电子设备及介质 | |
CN117010500A (zh) | 一种多源异构知识联合增强的视觉知识推理问答方法 | |
CN112990213B (zh) | 一种基于深度学习的数字万用表字符识别系统和方法 | |
CN117370498B (zh) | 一种3d开放词汇检测与密集字幕生成统一的建模方法 | |
CN113569871A (zh) | 一种基于深度学习的图书馆自动盘书方法及系统 | |
Rayeed et al. | Bangla sign digits recognition using depth information | |
CN117392392B (zh) | 一种割胶线识别与生成方法 | |
Wang et al. | A fast and robust algorithm for face detection and localization |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |