CN113762050B - 图像数据处理方法、装置、设备以及介质 - Google Patents
图像数据处理方法、装置、设备以及介质 Download PDFInfo
- Publication number
- CN113762050B CN113762050B CN202110518209.7A CN202110518209A CN113762050B CN 113762050 B CN113762050 B CN 113762050B CN 202110518209 A CN202110518209 A CN 202110518209A CN 113762050 B CN113762050 B CN 113762050B
- Authority
- CN
- China
- Prior art keywords
- coding
- image
- information
- recognition model
- text recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000003672 processing method Methods 0.000 title claims abstract description 13
- 238000012512 characterization method Methods 0.000 claims abstract description 171
- 238000000605 extraction Methods 0.000 claims abstract description 108
- 238000000034 method Methods 0.000 claims abstract description 72
- 238000002372 labelling Methods 0.000 claims abstract description 48
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims description 97
- 239000013598 vector Substances 0.000 claims description 92
- 238000012937 correction Methods 0.000 claims description 76
- 230000006870 function Effects 0.000 claims description 66
- 239000011159 matrix material Substances 0.000 claims description 37
- 238000004590 computer program Methods 0.000 claims description 19
- 230000015654 memory Effects 0.000 claims description 17
- 238000009826 distribution Methods 0.000 claims description 13
- 230000000694 effects Effects 0.000 abstract description 7
- 238000005516 engineering process Methods 0.000 description 26
- 238000012015 optical character recognition Methods 0.000 description 23
- 230000008569 process Effects 0.000 description 22
- 238000013473 artificial intelligence Methods 0.000 description 16
- 238000010586 diagram Methods 0.000 description 15
- 238000004364 calculation method Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 8
- 230000009466 transformation Effects 0.000 description 7
- 238000005070 sampling Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 230000009286 beneficial effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000004913 activation Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 239000006071 cream Substances 0.000 description 1
- 238000013479 data entry Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 239000012633 leachable Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000003058 natural language processing Methods 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 230000000306 recurrent effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 238000009827 uniform distribution Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19127—Extracting features by transforming the feature space, e.g. multidimensional scaling; Mappings, e.g. subspace methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/30—Semantic analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/18—Extraction of features or characteristics of the image
- G06V30/1801—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections
- G06V30/18019—Detecting partial patterns, e.g. edges or contours, or configurations, e.g. loops, corners, strokes or intersections by matching or filtering
- G06V30/18038—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters
- G06V30/18048—Biologically-inspired filters, e.g. difference of Gaussians [DoG], Gabor filters with interaction between the responses of different filters, e.g. cortical complex cells
- G06V30/18057—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/19007—Matching; Proximity measures
- G06V30/19013—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/19007—Matching; Proximity measures
- G06V30/19093—Proximity measures, i.e. similarity or distance measures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19147—Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V30/00—Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
- G06V30/10—Character recognition
- G06V30/19—Recognition using electronic means
- G06V30/191—Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
- G06V30/19173—Classification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Biodiversity & Conservation Biology (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Computational Linguistics (AREA)
- General Engineering & Computer Science (AREA)
- Computing Systems (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Software Systems (AREA)
- Image Analysis (AREA)
Abstract
本申请实施例提供了一种图像数据处理方法、装置、设备以及介质,该方法包括:将包含文本信息的图像数据输入至初始文本识别模型,根据初始文本识别模型中的特征提取组件,获取图像数据对应的图像表征信息;根据图像编码组件得到图像表征信息对应的语义编码信息;根据离散编码组件中所包含的码表,获取图像表征信息对应的码表索引置信度,根据码表索引置信度在码表中获取图像表征信息对应的离散编码信息;根据语义编码信息与离散编码信息之间的编码相似度,以及码表索引置信度,对初始文本识别模型的网络参数进行修正,得到目标文本识别模型。采用本申请实施例,可以降低数据的标注成本,并提高文本识别模型的识别效果。
Description
技术领域
本申请涉及人工智能技术领域,尤其涉及一种图像数据处理方法、装置、设备以及介质。
背景技术
OCR(optical character recognition,光学字符识别)文字识别是指通过图像处理和模式识别技术对光学的字符进行识别,以输出图像中的文字信息。
目前,可以使用OCR模型对包含文字信息的图像进行识别,提取该图像中的文字信息,在采用OCR模型对图像进行识别之前,需要使用大量的标注图像数据进行模型训练;然而图像的标注是一项非常耗费人力和时间的工作,这会造成图像数据的标注成本过高,在对图像进行标注时,通常是对某个特定场景中的图像进行标注,将基于上述标注图像训练得到的OCR模型应用在其余场景时,容易造成文字识别的识别准确性过低。
发明内容
本申请实施例提供一种图像数据处理方法、装置、设备以及介质,可以降低数据的标注成本,并提高文本识别模型的识别效果。
本申请实施例一方面提供了一种图像数据处理方法,包括:
将包含文本信息的图像数据输入至初始文本识别模型,根据初始文本识别模型中的特征提取组件,获取图像数据对应的图像表征信息;
根据初始文本识别模型中的图像编码组件,对图像表征信息进行编码,得到图像表征信息对应的语义编码信息;语义编码信息与图像数据中的文本信息相关联;
根据初始文本识别模型的离散编码组件中所包含的码表,获取图像表征信息对应的码表索引置信度,根据码表索引置信度,在码表中获取图像表征信息对应的离散编码信息;码表包括用于表征文本特征的可学习编码向量;
根据语义编码信息与离散编码信息之间的编码相似度,以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型;目标文本识别模型用于识别待处理图像数据中的文本信息。
本申请实施例一方面提供了一种图像数据处理装置,包括:
特征提取模块,用于将包含文本信息的图像数据输入至初始文本识别模型,根据初始文本识别模型中的特征提取组件,获取图像数据对应的图像表征信息;
语义编码模块,用于根据初始文本识别模型中的图像编码组件,对图像表征信息进行编码,得到图像表征信息对应的语义编码信息;语义编码信息与图像数据中的文本信息相关联;
离散编码模块,用于根据初始文本识别模型的离散编码组件中所包含的码表,获取图像表征信息对应的码表索引置信度,根据码表索引置信度,在码表中获取图像表征信息对应的离散编码信息;码表包括用于表征文本特征的可学习编码向量;
参数修正模块,用于根据语义编码信息与离散编码信息之间的编码相似度,以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型;目标文本识别模型用于识别待处理图像数据中的文本信息。
其中,图像表征信息包括T个图像表征特征,码表包括V个可学习编码向量,T和V均为正整数;
离散编码模块包括:
码表获取单元,用于获取初始文本识别模型的离散编码组件中所包含的码表,在图像表征信息中的图像表征特征zi;i为小于或等于T的正整数;
置信度获取单元,用于获取图像表征特征zi分别与V个可学习编码向量之间的码表索引置信度;
编码向量选取单元,用于在V个可学习编码向量中,将最大的码表索引置信度所对应的可学习编码向量确定为目标编码向量;
离散特征确定单元,用于根据目标编码向量确定图像表征特征zi对应的离散编码特征qi,将T个图像表征特征分别对应的离散编码特征组成离散编码信息。
其中,置信度获取单元包括:
随机数获取子单元,用于获取图像表征特征zi中的特征值所对应的分布随机数,将图像表征特征zi中的特征值与分布随机数进行相加,得到图像表征特征zi对应的候选表征特征;
索引置信度获取子单元,用于根据候选表征特征中的特征值所对应的指数值,获取候选表征特征分别与V个可学习编码向量之间的码表索引置信度。
其中,码表的数量为G个,每个码表均对应一个目标编码向量,G为正整数;
离散特征确定单元包括:
拼接子单元,用于对G个码表中的目标编码向量进行拼接,得到图像表征特征zi对应的联合特征;
网络输出子单元,用于将联合特征输入至全连接网络层,根据全连接网络层中的权重矩阵,输出图像表征特征zi对应的离散编码特征qi。
其中,语义编码信息包括T个语义编码特征,离散编码信息包括T个离散编码特征,编码相似度包括第一相似度和第二相似度,T为正整数;
参数修正模块包括:
正负样本确定单元,用于在语义编码信息中获取语义编码特征ci,将离散编码信息中的离散编码特征qi,确定为语义编码特征ci的正样本,将离散编码信息中的离散编码特征qj,确定为语义编码特征ci的负样本;i和j均为小于或等于T的正整数,且i和j不相等;
模型损失确定单元,用于根据语义编码特征ci与正样本之间的第一相似度、语义编码特征ci与负样本之间的第二相似度以及码表索引置信度,确定初始文本识别模型对应的模型损失函数;
网络参数修正单元,用于根据模型损失函数,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型。
其中,模型损失确定单元包括:
对比损失确定子单元,用于获取语义编码特征ci与正样本之间的第一相似度,获取语义编码特征ci与负样本之间的第二相似度,根据第一相似度和第二相似度确定对比损失函数;
多样性损失确定子单元,用于获取码表索引置信度对应的对数值,根据对数值和码表索引置信度之间的乘积,确定多样性损失函数;
损失连接子单元,用于根据对比损失函数和多样性损失函数,确定初始文本识别模型对应的模型损失函数。
其中,网络参数修正单元包括:
训练子单元,用于根据模型损失函数,对特征提取组件的网络参数、图像编码组件的网络参数以及离散编码组件中的码表进行修正;
模型确定子单元,用于当初始文本识别模型对应的训练次数满足训练终止条件时,将满足训练终止条件的特征提取组件和图像编码组件,确定为目标文本识别模型。
其中,初始文本识别模型还包括分类网络层;
参数修正模块包括:
无监督训练单元,用于根据语义编码信息、离散编码信息以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为候选文本识别模型;
标注数据获取单元,用于获取包含文本信息的标注图像数据,将标注图像数据输入至候选文本识别模型;标注图像数据携带标签信息;
语义信息输出单元,用于根据候选文本识别模型中的参数修正后的特征提取组件,以及参数修正后的图像编码组件,输出标注图像数据对应的标注语义信息;
标注数据预测单元,用于根据分类网络层,对标注语义信息进行预测,得到与标注图像数据中的文本信息相关联的预测文本识别结果;
监督微调单元,用于根据标签信息与预测文本识别结果之间的误差,对候选文本识别模型和分类网络层的网络参数进行修正,将参数修正后的候选文本识别模型和参数修正后的分类网络层确定为目标文本识别模型。
其中,特征提取组件包括L个网络层,L为正整数;
特征提取模块包括:
输出结果联合单元,用于在初始文本识别模型的特征提取组件中,获取图像数据在前(L-1)个网络层中的输出结果,将前(L-1)个网络层所对应的输出结果组合为联合输出结果;
图像表征获取单元,用于根据特征提取组件中的第L个网络层所对应的权重矩阵,得到联合输出结果对应的目标输出结果,将目标输出结果确定为图像数据对应的图像表征信息。
其中,语义编码模块包括:
注意力层计算单元,用于在初始文本识别模型的图像编码组件中,根据图像编码组件的自注意力层所对应的权重矩阵,对图像表征信息进行乘积运算,得到图像表征信息对应的注意力输出向量;
文本位置编码单元,用于根据图像编码组件中的编码层,对注意力输出向量进行文本位置编码,得到图像表征信息对应的语义编码信息。
其中,该装置还包括:
待处理数据获取模块,用于将包含文本信息的业务推广图片确定为待处理图像数据,将待处理图像数据输入至目标文本识别模型;
推广特征提取模块,用于通过目标文本识别模型中的参数修正后的特征提取组件,输出待处理图像数据对应的推广表征信息;
推广文本语义获取模块,用于通过目标文本识别模型中的参数修正后的图像编码组件,输出推广表征信息对应的推广文本语义信息;
文本识别结果获取模块,用于根据目标文本识别模型中的分类网络层,对推广文本语义信息进行预测,得到推广文本语义信息对应的推广文本内容。
本申请实施例一方面提供了一种计算机设备,包括存储器和处理器,存储器与处理器相连,存储器用于存储计算机程序,处理器用于调用计算机程序,以使得该计算机设备执行本申请实施例中上述一方面提供的方法。
本申请实施例一方面提供了一种计算机可读存储介质,计算机可读存储介质中存储有计算机程序,计算机程序适于由处理器加载并执行,以使得具有处理器的计算机设备执行本申请实施例中上述一方面提供的方法。
根据本申请的一个方面,提供了一种计算机程序产品或计算机程序,该计算机程序产品或计算机程序包括计算机指令,该计算机指令存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器执行该计算机指令,使得该计算机设备执行上述一方面提供的方法。
本申请实施例可以将包含文本信息的图像数据输入至初始文本识别模型,根据初始识别模型中的特征提取组件,获取图像数据对应的图像表征信息,根据初始识别模型中的图像编码组件,对该图像表征信息进行编码,得到图像表征信息对应的语义编码信息;还可以根据初始文本识别模型的离散编码组件中的码表,获取图像表征信息对应的码表索引置信度,根据该码表索引置信度,在码表中获取图像表征信息对应的离散编码信息,该码表可以包括用于表征图像特征的可学习编码向量,根据语义编码信息与离散编码信息之间的编码相似度,以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型。可见,该初始文本识别模型可以包括特征提取组件、图像编码组件以及离散编码组件;通过特征提取组件可以获取图像数据的图像表征信息,将图像表征信息通过图像编码组件可以得到语义编码信息,将图像表征信息通过离散编码组件可以得到离散编码信息,进而可以通过语义编码信息与离散编码信息之间的编码相似度,对初始文本识别模型的网络参数进行修正,也就是说,该离散编码信息可以作为初始文本识别模型在训练过程中的拟合目标,在上述训练过程中无需使用图像数据的标注信息,可以降低数据的标注成本;由于未标注的图像数据具有数据量大,覆盖范围广等多样性特点,直接使用无标注的图像数据进行训练,可以提高目标文本识别模型的泛化能力,从而提高目标文本识别模型的识别效果。
附图说明
为了更清楚地说明本申请实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本申请的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1是本申请实施例提供的一种网络架构的结构示意图;
图2是本申请实施例提供的一种文本识别模型的训练场景图;
图3是本申请实施例提供的一种图像数据处理方法的流程示意图;
图4是本申请实施例提供的一种离散编码组件的处理示意图;
图5是本申请实施例提供的一种无监督训练方式的示意图;
图6是本申请实施例提供的一种监督训练方式的示意图;
图7是本申请实施例提供的一种文本识别场景图;
图8是本申请实施例提供的一种文本识别场景图:
图9是本申请实施例提供的一种图像数据处理装置的结构示意图;
图10是本申请实施例提供的一种计算机设备的结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本申请一部分实施例,而不是全部的实施例。基于本申请中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本申请保护的范围。
本申请涉及人工智能(Artificial Intelligence,AI)技术、区块链(BlockChain)技术以及云技术。人工智能是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。换句话说,人工智能是计算机科学的一个综合技术,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器。人工智能也就是研究各种智能机器的设计原理与实现方法,使机器具有感知、推理与决策的功能。人工智能技术是一门综合学科,涉及领域广泛,既有硬件层面的技术也有软件层面的技术。人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。本申请具体涉及人工智能技术下属的计算机视觉技术(Computer Vision,CV)。
其中,计算机视觉是一门研究如何使机器“看”的科学,更进一步的说,就是指用摄影机和电脑代替人眼对目标进行识别、跟踪和测量等机器视觉,并进一步做图形处理,使电脑处理成为更适合人眼观察或传送给仪器检测的图像。作为一个科学学科,计算机视觉研究相关的理论和技术,试图建立能够从图像或者多维数据中获取信息的人工智能系统。计算机视觉技术通常包括图像处理、图像识别、图像语义理解、图像检索、OCR、视频处理、视频语义理解、视频内容/行为识别、三维物体重建、3D技术、虚拟现实、增强现实、同步定位与地图构建等技术,还包括常见的人脸识别、指纹识别等生物特征识别技术。本申请具体涉及计算机视觉下属的OCR,通过未标注的图像数据对OCR模型(也可以称为文本识别模型)进行训练(即OCR模型在训练过程中不需要以图像数据的标签信息作为先验信息),让OCR模型自主学习图像数据之间的关联性,训练所得到的OCR模型可以应用在不同的文本识别场景中,该OCR模型可以用于识别图片中的文字信息。
区块链是分布式数据存储,点对点传输,共识机制,加密算法等计算机技术的新型应用模型。区块链本质上是一个去中心化的数据库,同时作为比特币的底层技术,是一串使用密码学相关联产生的数据块(又称区块),各个数据块之间通过随机散列(也称哈希算法)实现链接,后一个区块包含了前一个区块的加密散列、相应时间戳记以及交易数据(通常用默克尔树(Merkle tree)算法计算的散列值表示),这样的设计使得区块内容具有难以篡改的特性。用区块链技术所串接的分布式账本能让两方有效纪录交易,且可永久查验此交易。本申请所涉及的图像数据以及文本识别结果均可以存储在区块链上,以确保图像数据以及文本识别结果的不可篡改性。
本申请涉及云技术下属的人工智能云服务,该人工智能云服务也可以称为AIaaS(AI as a Service,中文为“AI即服务”)。这是目前主流的一种人工智能平台的服务方式,具体来说AIaaS平台会把几类常见的AI服务进行拆分,并在云端提供独立或者打包的服务。这种服务模式类似于开了一个AI主题商城,所有的开发者都可以通过API(ApplicationProgram Interface,应用程序接口)接口的方式来接入使用平台提供的一种或者是多种人工智能服务,部分资深的开发者还可以使用平台提供的AI框架和AI基础设施来部署和运维自己专属的云人工智能服务。本申请可以使用平台提供的AI框架和AI基础设施来部署OCR服务,在训练得到OCR模型后,可以将训练完成的OCR模型应用在云人工智能服务中的OCR服务中。
本申请还涉及以下几个概念:
OCR技术:OCR技术是通过扫描等光学输入方式将各种票据、报刊、书籍、文稿以及其它印刷品的文字转化为图像信息,再利用文字识别技术将图像信息转化为可以使用的计算机输入技术。换言之,通过OCR技术可以直接从影像中提取金额、帐号、文字资料等重要数据,生成日常生活中所需的新文本,进而代替人的手工录入文本数据。
无监督训练(unsupervised learning,也可以称为无监督学习,或者自监督学习,或者非监督学习):无监督训练用于处理未被标记类别的样本集。在无监督训练中,样本数据没有被标记,也没有确定的结果;由于样本数据类别未知,需要根据样本数据之间的相似度对样本集进行分类,试图使相同类别内的差距最小化,不同类别之间的差距最大化。
监督训练(supervised learning,也可以称为监督学习,或者有教师学习):监督训练可以利用一组已知类别的样本数据调整网络模型的参数,使其达到所要求性能的过程。在监督训练中,训练数据集要求包括输入(特征)和输出(目标),训练数据集中的目标可以进行人工标注;通过已有的训练数据集(已知样本数据及其对应输出)去训练得到一个最佳模型,利用这个最佳模型可以将所有的输入映射为相应的输出,对输出进行简单的判断从而实现分类的目的。
请参见图1,图1是本申请实施例提供的一种网络架构的结构示意图。如图1所示,该网络架构可以包括服务器10d和用户终端集群,该用户终端集群可以包括一个或者多个用户终端,这里不对用户终端的数量进行限制。如图1所示,该用户终端集群可以具体包括用户终端10a、用户终端10b以及用户终端10c等。其中,服务器10d可以是独立的物理服务器,也可以是多个物理服务器构成的服务器集群或者分布式系统,还可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN、以及大数据和人工智能平台等基础云计算服务的云服务器。用户终端10a、用户终端10b以及用户终端10c等均可以包括:智能手机、平板电脑、笔记本电脑、掌上电脑、移动互联网设备(mobile internet device,MID)、可穿戴设备(例如智能手表、智能手环等)以及智能电视等具有文本识别功能的智能终端。如图1所示,用户终端10a、用户终端10b以及用户终端10c等可以分别与服务器10d进行网络连接,以便于每个用户终端可以通过该网络连接与服务器10d之间进行数据交互。
如图1所示,以用户终端集群中的用户终端10a为例,该用户终端10a可以通过电子设备(例如,扫描仪、照相设备等)采集不同场景中的图像数据,上述图像数据可以包括照相设备(可以为用户终端10a中自带的照相机,或者与用户终端10a具有数据传输通道的外接照相设备)拍摄的业务推广图片(例如,墙壁上的广告图片、横幅宣传语图片、宣传画报图片等)、扫描仪所扫描的文字资料图片等。该用户终端10a可以获取初始文本识别模型(可以理解为初始化的文本识别模型,也可以称为初始OCR模型),并通过采集到的图像数据对初始文本识别模型进行训练;该初始文本识别模型可以包括特征提取组件、图像编码组件以及离散编码组件,对于输入至初始文本识别模型的每个图像数据,可以通过特征提取组件对图像数据进行特征提取(图像下采样),输出图像数据对应的图像表征信息,通过图像编码组件可以输出图像表征信息对应的语义编码信息,还可以通过离散编码组件输出图像表征信息对应的离散编码信息,进而可以通过语义编码信息与离散编码信息之间的编码相似度,以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为训练完成的目标文本识别模型,该目标文本识别模型可以用于识别待处理图像数据中的文本信息。本申请实施例中,初始文本识别模型的训练无需使用图像数据的标注信息,可以降低图像数据的标注成本;由于所采集图像数据的多样性,使得训练得到的目标文本识别模型具有更好地识别效果。
请一并参见图2,图2是本申请实施例提供的一种文本识别模型的训练场景图,下面以上述图1所示的用户终端集群中的用户终端10a为例,采用无监督训练的方式对文本识别模型进行训练。如图2所示,用户终端10a可以采用未携带标签信息的图像数据对初始化的文本识别模型(可以称为初始文本识别模型)进行训练,该初始文本识别模型可以包括特征提取组件20a、图像编码组件20d以及离散编码器组件20f,在训练完成后,可以得到包含参数更新后的特征提取组件和参数更新后的图像编码组件的目标文本识别模型。换言之,采用无监督训练的方式对初始文本识别模型进行训练的过程中,最主要的目的在于训练上述特征提取组件20a的网络参数和图像编码组件20d的网络参数。
如图2所示,对于输入初始文本识别模型的样本图像20b(该样本图像20b可以包含文本信息),首先输入至初始文本识别模型20b中的特征提取组件20a,可以对样本图像20b进行图像预处理,该图像预处理可以包括但不限于:图像灰度化、图像归一化、图像尺寸调整、图像去噪处理;如样本图像20b为彩色图像时,可以对该样本图像20b进行图像灰度化,将该样本图像20b转换为灰度图像,可以降低初始文本识别模型在训练过程中的计算复杂度;当然,为了进一步减少训练过程中的计算复杂度,还可以对图像灰度化处理后的样本图像20b进行图像归一化;当特征提取组件20a对输入图像的尺寸具有尺寸规定时,可以将样本图像20b的尺寸调整至特征提取组件20a所规定的尺寸;可以对样本图像20b进行去噪处理,以优化该样本图像20b等。用户终端10a可以采用上述一种或者多种图像预处理方式对样本图像20b进行预处理,得到预处理后的图像20c。通过特征提取组件20a可以对图像20c进行下采样,从该图像20c中提取出可以用于描述该图像20c的图像表征信息Z={z1,z2,z3,…,zT},其中T可以是指图像20c的图像宽度与图像下采样倍率之间的比值,该T可以取值为正整数,当图像宽度与图像下采样倍率之间的比值为非正整数时,可以对图像宽度与图像下采样倍率之间的比值进行取整。可以理解地,通过特征提取组件20a对图像20c进行下采样,可以从图像20c中提取出文本信息所在区域的图像表征信息,也就是说,特征提取组件20a的目的在于检测图像20c中所包含的文本信息所在的区域,并提取文本信息所在区域的图像表征信息。
进一步地,可以将特征提取组件20a输出的图像表征信息Z={z1,z2,z3,…,zT}作为图像编码组件20d的输入数据,该图像编码组件20d中可以包括编码器20e,通过该编码器20e可以对图像表征信息Z={z1,z2,z3,…,zT}进行文本位置编码,得到语义编码信息C={c1,c2,c3,…,cT}。
其中,特征提取组件20a输出的图像表征信息Z={z1,z2,z3,…,zT}还可以作为离散编码组件20f的输入数据,该离散编码组件20f可以包括一个或者多个可学习的码表,每个码表内部可以包含V个可学习编码向量,其中V为正整数,如V可以取值为1,2,3,……,每个码表中所包含的可学习编码向量在训练过程中是可以进行不断更新的。对于图像表征信息Z={z1,z2,z3,…,zT}中的任意一个图像表征特征zi(其中i为小于或等于T的正整数),均可以计算得到图像表征特征zi分别与码表中所包含的V个可学习编码向量之间的码表索引置信度,如图像表征特征zi与每个码表之间均可以计算得到V个码表索引置信度,在V个码表索引置信度中选择最大的码表索引置信度,根据最大的码表索引置信度所对应的可学习编码向量,获取离散编码信息Q={q1,q2,q3,…,qT},其中离散编码信息Q={q1,q2,q3,…,qT}中的离散编码特征qi与上述语义编码信息C={c1,c2,c3,…,cT}中的语义编码特征ci具有相同的尺寸。
进一步地,本申请可以将离散编码信息Q={q1,q2,q3,…,qT}作为无监督训练的拟合目标,如可以根据语义编码信息C={c1,c2,c3,…,cT}和离散编码信息Q={q1,q2,q3,…,qT}之间的编码相似度,以及码表索引置信度,计算初始文本识别模型对应的模型损失函数,通过最小化模型损失函数优化初始文本识别模型的网络参数(可以包括特征提取组件20a的网络参数、图像编码组件20d的网络参数以及离散编码组件20f中的码表),当初始文本识别模型达到训练终止条件时,可以保存此时的特征提取组件20a的网络参数以及图像编码组件20d的网络参数,作为目标文本识别模型。在无监督训练中,对于语义编码信息C={c1,c2,c3,…,cT}中的语义编码特征ci,可以将离散编码信息Q={q1,q2,q3,…,qT}中的离散编码特征qi作为语义编码特征ci的正样本,将离散编码信息Q={q1,q2,q3,…,qT}中的离散编码特征qj(i不等于j,j为小于或等于T的正整数)作为语义编码特征ci的负样本,根据语义编码特征ci与正负样本之间的编码相似度,以及码表索引置信度,计算模型损失函数,根据该模型损失函数对初始文本识别模型的网络参数进行修正,以得到最终训练完成的目标文本识别模型,该目标文本识别模型可以用于识别待处理图像数据中的文本信息。
请参见图3,图3是本申请实施例提供的一种图像数据处理方法的流程示意图。可以理解地,该图像数据处理方法可以由计算机设备执行,该计算机设备可以为用户终端,或者服务器,或者为用户终端和服务器组成的系统,或者为一个计算机程序应用(包括程序代码),这里不做具体限定。如图3所示,该图像数据处理方法可以包括以下步骤:
步骤S101,将包含文本信息的图像数据输入至初始文本识别模型,根据初始文本识别模型中的特征提取组件,获取图像数据对应的图像表征信息。
具体的,在OCR文本识别应用中,可以使用文本识别模型(也可以称为OCR模型)对图像数据中所包含的文本信息进行检测并识别,以输出图像数据中所包含的文本内容。在使用文本识别模型之前,可以采用无监督训练的方式对文本识别模型进行训练,以得到训练完成的文本识别模型。为方便描述,本申请实施例中可以将初始化的文本识别模型称为初始文本识别模型,将训练完成的文本识别模型称为目标文本识别模型,初始文本识别模型可以包括特征提取组件、图像编码组件以及离散编码组件。
在收集到用于训练初始文本识别模型的样本数据集后,计算机设备(例如,上述图1所对应实施例中的用户终端10a)可以获取初始文本识别模型,将样本数据集中所包含的图像数据分批次(batch)输入至初始文本识别模型,利用上述样本数据集对初始文本识别模型进行无监督训练。其中,样本数据集中所包含的图像数据均为包含文本信息的图像,如样本数据集可以包括业务推广图片(广告图片)、文件资料扫描图片、证件扫描图片,截图等图像数据,上述样本数据集中所包含的所有图像数据均可以为无标注数据(即不携带标签信息的图像数据);在无监督训练过程中,可以将样本数据集中的图像数据进行分批次处理,batch中所包含的图像数据输入初始文本识别模型后,首先输入至初始文本识别模型中的特征提取组件,通过该特征提取组件可以对图像数据进行下采样,检测图像数据中的文本信息所在的区域,并提取文本信息所在区域中的图像表征信息,此处的图像表征信息可以表示为Z={z1,z2,z3,…,zT},T=图像宽度(width)/图像下采样倍率,该图像表征信息可以包括T个图像表征特征,每个图像表征特征的维度可以表示为RG·V,如G=2,V=256时,每个图像表征特征的维度为512。
其中,初始文本识别模型对所输入的图像数据设置有数据输入格式(此时的数据输入格式也可以理解为特征提取组件所规定的数据输入格式),该数据输入格式可以表示为:shape=batch size*channels*height*width,此时的shape可以表示为数据输入格式,batch size可以表示为批次大小,channels可以表示为通道数,height可以表示为图像数据对应的图像高度,width可以表示为图像数据对应的图像宽度;任何图像数据在输入特征提取组件中时,均需要满足上述数据输入格式,若图像数据不满足上述数据输入格式,则可以将图像数据转换为上述数据输入格式。图像表征信息的格式可以表示为:shape=batchsize*Time step*channel,此时的shape可以表示为图像表征信息的格式,Time step可以表示为文本识别场景中所涉及的文本序列长度。上述特征提取组件可以包括但不限于:VGGNet(一种卷积神经网络模型,可以包括16至19个网络层,在卷积层中所使用的卷积核的尺寸可以为3*3,在池化层中所使用的滤波器的尺寸可以为2*2)、GoogLeNet(一种卷积神经网络模型,可以包括22个网络层,并在网络模型中引入inception(起始)结构,该inception结构可以用于提供计算效率)、ResNet(一种卷积神经网络模型,通过引入残差结构可以包括152个网络层)、DenseNet(一种卷积神经网络模型,该网络模型中每一个网络层的输入来自前面所有网络层的输出)。
可选的,当特征提取组件为ResNet网络时,假设该ResNet网络包括L个网络层,L为正整数,如L可以取值为1,2,3……;对于ResNet网络中的第l个网络层(l可以为小于或等于L的正整数),该第l个网络层的输入可以表示为xl-1,输出可以表示为:xl=Hl(xl-1)+xl-1,其中xl-1也可以表示为第(l-1)个网络层的输出,Hl可以表示为第l个网络层的非线性变换函数(non-liear transformation),该Hl可以理解为一个组合操作,如一系列的BN(BatchNormalization,分批归一化)、激活函数、池化、卷积等操作。换言之,ResNet网络中第l个网络层的输出可以为第(l-1)个网络层的输出与第(l-1)个网络层输出的非线性变换,将ResNet网络中第L个网络层(最后一个网络层)的输出xL作为特征提取组件输出的图像表征信息。需要说明的是,此处的第l个网络层与第(l-1)个网络层之间可以包括一个或者多个卷积层。
可选的,当特征提取组件为DenseNet网络时,同样假设特征提取组件包括L个网络层,在初始文本识别模型的特征提取组件(DenseNet网络)中,计算机设备可以获取图像数据在前(L-1)个网络层中的输出结果,将前(L-1)个网络层所对应的输出结果组合为联合输出结果;进而可以根据特征提取组件中的第L个网络层所对应的权重矩阵,得到联合输出结果对应的目标输出结果,将目标输出结果确定为图像数据对应的图像表征信息。其中,DenseNet网络中第L个网络层(最后一个网络层)的输出可以作为特征提取组件输出的图像表征信息,第L个网络层的输出可以表示为:xL=HL([x0,x1,…,xL-1]),其中x0可以表示为DenseNet网络中的初始化值,x1可以表示为DenseNet网络中第1个网络层的输出,……,xL-1可以表示为DenseNet网络中第(L-1)个网络层的输出,HL可以表示为第L个网络层所对应的权重矩阵,也可以理解为非线性变换函数中所涉及到的权重矩阵,与上述非线性变换函数Hl类似;[x0,x1,…,xL-1]可以表示为将DenseNet网络中第0层至第(L-1)个网络的输出做拼接(concatenation),concatenation是指做通道的合并(即上述联合输出结果)。换言之,对于DenseNet网络中的任意一个网络层l(即第l个网络层),该第l个网络层的输出可以为前(l-1)个网络层的输出进行concatenation后的非线性变换,进而将DenseNet网络中第L个网络层的输出xL作为特征提取组件输出的图像表征信息。
步骤S102,根据初始文本识别模型中的图像编码组件,对图像表征信息进行编码,得到图像表征信息对应的语义编码信息;语义编码信息与图像数据中的文本信息相关联。
具体的,在上述特征提取组件输出图像表征信息Z={z1,z2,z3,…,zT}后,计算机设备可以将图像表征信息输入初始文本模型的图像编码组件中,通过对图像编码组件,可以对图像表征信息编码,以得到图像表征信息对应的语义编码信息,该语义编码信息与图像数据中所包含的文本信息相关联,该语义编码信息可以表示为C={c1,c2,c3,…,cT}。其中,图像编码组件可以用于学习图像数据中所包含的文本信息之间的语义信息,可以更关注语义上相关的词语,并弱化不相相关的词语。上述图像编码组件可以包括但不限于:含mask(掩码)模块的Transformer编码器(一种编码器模型结构)、LSTM(Long Short-TermMemory,长短期记忆网络)、RNN(Recurrent Neural Network,循环神经网络)。
可选的,当图像编码器组件为含mask模块的Transformer编码器时,该Transformer编码器可以包括自注意力层和编码层,计算机设备可以在初始文本识别模型的图像编码组件中,可以根据图像编码组件的自注意力层所对应的权重矩阵,对图像表征信息进行乘积运算,得到图像表征信息对应的注意力输出向量;进而可以根据图像编码组件中的编码层,对注意力输出向量进行文本位置编码,得到图像表征信息对应的语义编码信息。对于图像表征信息Z={z1,z2,z3,…,zT}中的每个图像表征特征,通过Transformer编码器中的自注意力层,均可以生成每个图像表征特征分别对应的查询向量(Query)、键向量(Key)以及值向量(Value),T个图像表征特征分别对应的查询向量可以组成查询矩阵QU,T个图像表征特征分别对应的键向量可以组成键矩阵KE,T个图像表征信息分别对应的值向量可以组成值矩阵VA。将图像表征信息Z与查询权阵矩阵WQU进行相乘后可以得到查询矩阵QU,将图像表征信息Z与键权阵矩阵WKE进行相乘后可以得到键矩阵KE,将图像表征信息Z与值权阵矩阵WVA进行相乘后可以得到值矩阵VA,根据上述查询矩阵QU、键矩阵KE以及值矩阵VA,得到自注意力层的输出结果(即上述注意力输出向量,T个图像表征特征分别对应的注意力输出向量可以组成注意力输出矩阵),该自注意力层的输出结果可以表示为:其中dke可以表示为键向量的维数,softmax可以表示为分类器,⊙可以表示为矩阵点乘运算。进一步地,为了理解图像表征信息中每个图像表征特征所对应的文本顺序,可以采用根据图像编码组件中的编码层,对自注意力层的输出结果进行文本位置编码,得到图像表征信息对应的语义编码信息C={c1,c2,c3,…,cT}。
步骤S103,根据初始文本识别模型的离散编码组件中所包含的码表,获取图像表征信息对应的码表索引置信度,根据码表索引置信度,在码表中获取图像表征信息对应的离散编码信息;码表包括用于表征文本特征的可学习编码向量。
具体的,在初始文本识别模型的离散编码组件中可以包括码表,该码表可以包括用于表征文本特征的可编码学习向量。计算机设备可以根据离散编码组件中的码表,获取图像表征信息中的每个图像表征特征分别与码表之间的码表索引置信度,根据该码表索引置信度从大到小的排列顺序,可以从码表中获取图像表征信息所对应的离散编码信息。
可选的,离散编码组件中的码表均可以包括V个可学习编码向量,图像表征信息可以包括T个图像表征特征,V为正整数,如V可以取值为1,2,3……;计算机设备可以获取初始文本识别模型的离散编码组件中所包含的码表,在图像表征信息中的图像表征特征zi,其中i为小于或等于T的正整数,其中图像表征特征zi可以表示为图像表征信息中所包含的任意一个图像表征特征;进而可以获取图像表征特征zi分别与V个可学习编码向量之间的码表索引置信度,在V个可学习编码向量中,将最大的码表索引置信度所对应的可学习编码向量确定为目标编码向量,进而可以根据目标编码向量确定图像表征特征zi对应的离散编码特征qi,将T个图像表征特征分别对应的离散编码特征组成离散编码信息。
其中,获取码表索引置信度的方法可以包括但不限于:基于softmax的采样方法、基于gumbel(耿贝尔)-max的采样方法、基于gumbel-softmax的采样方法。本申请实施例中,若采用基于gumbel-softmax的采样方法获取码表索引置信度,则计算机设备可以获取图像表征特征zi中的特征值所对应的分布随机数(此处的分布随机数可以为gumbel分布随机数),进而可以将图像表征特征zi中的特征值与分布随机数进行相加,得到图像表征特征zi对应的候选表征特征;根据候选表征特征中的特征值所对应的指数值,获取候选表征特征分别与V个可学习编码向量之间的码表索引置信度。
可选的,码表的数量为G个,每个码表均对应一个目标编码向量,G为正整数,G可以取值为1,2,3……,其中G和V的取值与文本识别场景中的文字数量相关联;对G个码表中的目标编码向量进行拼接,得到图像表征特征zi对应的联合特征;进而可以将联合特征输入至全连接网络层,根据全连接网络层中的权重矩阵,输出图像表征特征zi对应的离散编码特征qi。
可选的,若离散编码组件中包括G个码表,每个码表均可以包括V个可学习编码向量e,每个可学习编码向量e的维度均为d维(e∈Rd),则该码表的尺寸可以表示为:G×V×d。在实际应用中,可以创建一个可学习张量codebook∈RG×V×d作为码表,在初始文本识别模型的训练过程中,可以对该码表进行不断更新。对于图像表征信息中的任意一个图像表征特征zi∈RG·V,均可以展开为尺寸是G×V的矩阵S,由于离散编码组件中可能存在截断梯度的操作,因此在将图像表征特征zi展开为矩阵S时,可以不做任何数值上的变换,即zi—>S,S∈RG×V,即可以将向量形式表示的图像表征特征zi展开为矩阵形式。
进一步地,可以通过基于gumbel-softmax的采样方法得到图像表征特征zi分别与码表中的V个可学习编码向量之间的码表索引置信度,如码表索引置信度可以表示为:
其中,上述公式(1)中的pg,v可以表示为矩阵S中第g行第v列特征值所对应的码表索引置信度,对于G个码表而言,该pg,v的维度可以为G;sg,v可以表示为矩阵S中的第g行第v列的特征值,nv可以表示为特征值sg,v对应的Gumbel分布随机数(即上述分布随机数),Gumbel分布随机数可以表示为:nv=-log(-log(U(0,1)),其中(U(0,1)可以表示服从均匀分布,(sg,v+nv)可以称为候选表征特征;τ可以为gumbel-softmax采样方法中所涉及的非负常数,该常数τ可以用于控制gumbel-softmax采样的平滑程度,常数τ越大,生成的gumbel分布越平滑,常数τ越小,生成的gumbel分布越接近离散的one-hot分布。在初始文本识别模型的训练初期,由于网络不稳定,为了避免梯度爆炸或消失等情况出现,可以将常数τ设置大一些(如将常数τ设置为2)。在初始文本识别模型的训练过程中,可以逐渐减小常数τ,每一轮迭代(epoch,完整训练一次样本数据集的次数)均可以乘以小于1的系数(例如该系数可以设置为0.9995),这样可以在保证网络稳定收敛的情况下,使得Gumbel分布逐步逼近真实的离散分布。
进一步地,根据上述公式(1)计算得到与图像表征特征zi相关联的V个码表索引置信度后,可以取最大的码表索引置信度所对应的码表索引Idx,码表索引Idx的维度与码表索引置信度pg,v的维度相同,该码表索引Idx可以表示为:
通过上述公式(2)确定码表索引Idx后,可以从G个码表中个取一个可学习编码向量,此时从G个码表中所选取的可学习编码向量均可以称为目标编码向量,即基于码表索引Idx可以分别从各个码表中获取一个目标编码向量,将G个码表中所获得的目标编码向量进行拼接,得到图像表征特征zi对应的联合特征E,即通过G个码表,码表索引Idx可以得到联合特征E={e1,e2,…,eG},E∈RG·d;将该联合特征输入至全连接网络层,根据全连接网络层中的权重矩阵,输出图像表征特征zi对应的离散编码特征qi,该离散编码特征qi可以表示为:
qi=EW+b,W∈RG.d×G·V, (3)
其中,上述公式(3)中的W可以表示为全连接网络层中的权重矩阵,b可以表示为全连接网络层中的偏置,其中W的尺寸为G·d×G·V。通过上述公式(1)至公式(3),可以计算得到每个图像表征特征分别对应的离散编码特征,将每个图像表征特征分别对应的离散编码特征进行组合,可以得到离散编码信息Q={q1,q2,q3,…,qT}。
需要说明的是,本申请实施例中所涉及的形如G·d的描述均表示为两个数值的乘积,如G=2,d=4时,G·d表示8,此时可以理解为是一个8维的向量,而形如d×G的描述可以表示为二维矩阵,如G=2,d=4时,d×G表示尺寸为4×2的矩阵。在实际应用中,可以根据实际需求构建码表的尺寸,例如,常用字符的类别数量大约在40000上下时,可以将G设置为2,V设置为256,这样码表所能表达的文本特征数量为VG=2562。
请一并参见图4,图4是本申请实施例提供的一种离散编码组件的处理示意图。如图4所示,在通过特征提取组件输出图像表征信息Z={z1,z2,z3,…,zT}后,可以将该图像表征信息Z输入至离散编码组件,该离散编码组件中包含有G个可学习的码表,每个码表内部均包含由V个可学习编码向量,将图像表征信息Z中所包含的每个图像表征特征均可以展开为尺寸是G×V的矩阵,进而可以通过上述公式(1)计算得到V个维度为2的码表索引置信度,在每个码表所对应的V个码表索引置信度中选择最大的码表索引置信度,进而确定最大的码表索引置信度所对应的码表索引(上述公式(2)),根据该码表索引可以从G个码表中各选择一个可学习编码向量作为目标编码向量,将G个目标编码向量进行连接,在通过一个全连接网络层可以得到每个图像表征特征对应的离散编码特征(根据上述公式(3)可以计算得到),如图像编码特征z1所对应离散编码特征可以表示为q1,将T个图像表征特征分别对应的离散编码特征进行组合,可以得到离散编码信息Q={q1,q2,q3,…,qT}。
步骤S104,根据语义编码信息与离散编码信息之间的编码相似度,以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型;目标文本识别模型用于识别待处理图像数据中的文本信息。
具体的,在初始文本识别模型的训练过程中,可以根据语义编码信息与离散编码信息之间的编码相似度,以及码表索引置信度,确定初始文本识别模型的网络优化目标,该网络优化目标也可以称为模型损失函数。计算机设备可以在语义编码信息中获取语义编码特征ci(该语义编码特征ci可以为语义编码信息中的任意一个语义编码特征),可以将离散编码信息中的离散编码特征qi,确定为语义编码特征ci的正样本,将离散编码信息中的离散编码特征qj,确定为语义编码特征ci的负样本,其中i和j均为小于或等于T的正整数,且i和j不相等;进而可以根据语义编码特征ci与正样本之间的第一相似度、语义编码特征ci与负样本之间的第二相似度以及码表索引置信度,确定初始文本识别模型对应的模型损失函数(此时的第一相似度和第二相似度可以称为编码相似度);根据模型损失函数,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型。
可选的,上述模型损失函数可以由两部分组成,分别为对比损失函数和多样性损失函数,其中对比损失函数可以让语义编码信息C在一组含正样本和负样本的表征信息(上述码表)中可以找到正确的离散编码信息Q,通过计算语义编码信息C与离散编码信息Q之间的夹角信息,优化初始文本识别模型的网络参数,使得语义编码特征ci与正样本的夹角变小,与负样本的夹角变大;多样性损失函数可以提升离散编码组件中码表的利用率,通过优化码表索引的信息熵,提升生成的码表索引的多样性。具体的,计算机设备可以获取语义编码特征ci与正样本之间的第一相似度,获取语义编码特征ci与负样本之间的第二相似度,根据第一相似度和第二相似度确定对比损失函数,该对比损失函数可以表示为:
其中,上述公式(4)中的可以表示为对比函数损失,sim(ci,qi)可以表示为语义编码特征ci与正样本qi之间的第一相似度,sim(ci,qj)可以表示为语义编码特征ci与正样本qj之间的第二相似度,此处的第一相似度和第二相似度均可以为余弦相似度,κ可以表示为常数,可以根据实际需求进行设置,公式(5)表示两个向量a和向量b之间的余弦相似度计算方式,‖a‖可以表示为向量a的2范数,即向量a中的元素绝对值的平方和再开方。当sim(ci,qi)增大或sim(ci,qj)减小时,对比损失函数/>降低。
计算机设备可以获取码表索引置信度对应的对数值,根据对数值和码表索引置信度之间的乘积,确定多样性损失函数,该多样性损失函数可以表示为:
其中,上述公式(6)中,可以表示为多样性损失函数,H{}可以表示为信息熵,可以表示为训练过程中所计算得到的码表索引置信度。当码表索引置信度趋于均匀分布时,多样性损失函数/>降低。
进一步地,根据对比损失函数和多样性损失函数,确定初始文本识别模型对应的模型损失函数,该模型损失函数可以表示为其中α为用于连接对比损失函数和多样性损失函数的超参数,模型损失函数/>为超参数α与多样性损失函数/>的乘积再与对比损失函数/>求和。
进一步地,根据模型损失函数对特征提取组件的网络参数、图像编码组件的网络参数以及离散编码组件中的码表进行修正;当初始文本识别模型对应的训练次数满足训练终止条件(初始文本识别模型的训练次数达到设置的最大训练次数,或者初始文本识别模型的训练达到收敛条件)时,将满足训练终止条件的特征提取组件和图像编码组件,确定为目标文本识别模型。
需要说明的是,上述对比损失函数的计算中,是对同一个图像数据内部的特征之间的运算,不涉及不同图像数据之间的运算,而离散编码组件可以学习多个码表,在无监督训练过程中可以对初始文本识别模型的训练方向起指导作用。在无监督训练过程中,由不同图像数据所得到的特征可以向码表靠拢,不同码表之间会相互远离,使得不同图像数据之间相似的特征互相靠近,不想死的特征互相远离。离散编码组件避免了不同图像数据之间的运算(可以称为跨图运算)带来的计算量暴增,减少了内存需求,降低了训练网络的时间成本。
本申请实施例中,可以将上述对初始文本识别模型的整个训练过程称为无监督训练过程,在满足训练终止条件时所获得的特征提取组件和图像编码组件可以称为训练完成的目标文本识别模型,此时的目标文本识别模型可以应用在文本识别场景中,用于识别待处理图像数据中的文本信息。请一并参见图5,图5是本申请实施例提供的一种无监督训练方式的示意图。如图5所示,初始文本识别模型可以包括特征提取组件、图像编码组件以及离散编码组件,通过特征提取组件可以输出图像数据对应的图像表征信息Z={z1,z2,z3,…,zT},该图像表征信息Z可以输入两个分支,一个分支为图像编码组件,一个分支为离散编码组件,通过图像编码组件可以输出图像表征信息Z对应的语义编码信息C={c1,c2,c3,…,cT},通过离散编码组件可以输出图像表征信息Z对应的离散编码信息Q={q1,q2,q3,…,qT},该离散编码信息Q可以作为无监督训练的拟合目标;对于语义编码信息C中的任意一个语义编码特征ci,可以将离散编码信息Q中的离散编码特征qi标记为正样本,将离散编码特征qj标记为负样本,根据正负样本可以计算损失、优化初始文本识别模型的网络参数。很显然,在无监督训练中,进行训练的图像数据为未携带标签信息的图像,可以降低图像数据的标注成本。
可选的,在无监督训练得到的模型基础上,可以利用少量的标注图像数据微调网络模型(该微调过程可以称为监督训练过程),以增强目标文本识别模型的鲁棒性,进而提高目标文本识别模型的识别效果。在对模型进行微调的过程中,该初始文本识别模型还可以包括分类网络层(也可以称为前馈网络);根据语义编码信息、离散编码信息以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为候选文本识别模型,即将前述无监督训练完成的特征提取组件和图像编码组件称为候选文本识别模型。计算机设备可以获取包含文本信息的标注图像数据,将标注图像数据输入至候选文本识别模型,该标注图像数据可以携带标签信息;根据候选文本识别模型中的参数修正后的特征提取组件,以及参数修正后的图像编码组件,输出标注图像数据对应的标注语义信息;进而可以根据分类网络层,对标注语义信息进行预测,得到与标注图像数据中的文本信息相关联的预测文本识别结果;根据标签信息与预测文本识别结果之间的误差,对候选文本识别模型和分类网络层的网络参数进行修正,将参数修正后的候选文本识别模型和参数修正后的分类网络层确定为目标文本识别模型。换言之,在监督训练中,可以将标注图像数据的标签信息作为候选文本识别模型的期望输出结果,而候选文本识别模型输出的预测文本识别结果可以理解为实际输出结果,通过计算期望输出结果与实际输出结果之间的误差,在候选文本识别模型中进行反向传播,以对候选文本识别模型的网络参数以及分类网络层的网络参数进行更新,最终得到训练完成的目标文本识别模型,此时的目标文本识别模型是指经过无监督训练和有监督微调之后所得到的网络模型。其中,分类网络层可以包括但不限于:softmax(一种多分类器)、人工神经网络(Artificial Neural Networks,ANNs)、支持向量机(support vector machines,SVM)。
请一并参见图6,图6是本申请实施例提供的一种监督训练方式的示意图。如图6所示,在无监督训练完成之后,还可以使用一部分标注数据对无监督训练的模型进行有监督微调(也可以称为监督训练),即监督训练是在无监督训练之后进行的,对于输入候选文本识别模型(无监督训练完成后所得到的文本识别模型)的标注图像,在特征提取组件和图像编码组件中对标注图像的处理过程(前向计算过程)与前述无监督训练过程中对无标注图像的处理过程相同,这里不再进行赘述。通过候选文本识别模型中的图像编码组件输出标注语义信息后,可以将标注语义信息输入至前馈网络(可以理解为分类网络层),通过该前馈网络可以输出标注图像对应的预测文本识别结果,其中该前馈网络的输入为图像编码组件输出的标注语义信息,该前馈网络的输出为一个向量,该向量的维度等于文本字符的类别数量,如该候选文本识别适用于识别300种文本字符类别,则该前馈网络的输出可以为一个维度为300的向量。该前馈网络的输出向量可以作为标注图像在候选文本识别模型中的预测文本识别结果,进而可以计算标注图像的标签信息与预测文本识别结果之间的误差计算损失、优化候选文本识别模型的网络参数,以得到最终训练完成的目标文本识别模型。
可选的,在训练得到目标文本识别模型之后,可以将该目标文本识别模型应用在任何文本识别场景中,例如寄送快递时的收货地址识别场景(通过利用目标文本识别模型对包含地址信息的图片进行识别,以获取图片中的地址内容,并将识别到的地址信息自动填入收货地址所在输入区域,可以简化收货地址输入操作,提高寄件速度)、业务推广识别场景(通过利用目标文本识别模型对广告图片进行识别,以获取广告图片中的广告文本内容)、文件资料录入场景(当书面文件中的文字资料需要录入到电子系统中时,可以对书面文件进行扫描或拍照,进而利用目标文本识别模型对扫描或拍照所得到的图片进行识别,以获取图片中的文件资料内容,并将识别到的文件资料内容自动录入到电子系统中进行保存,可以减少人力资源,进而提高文件资料内容的录入效率)、账号录入场景(当需要输入银行卡账号或者身份证号时,可以对银行卡或身份证进行拍照,并利用目标文本识别模型对拍摄的照片进行识别,以自动输入银行卡账号或者身份证号,避免人工输入时出现错误)、内容审核场景(通过目标文本识别模型对图片中所包含的文本信息进行识别,自动进行内容审核,减少人为工作量,提高审核效率)、图片搜索场景(通过目标文本识别模型对图片中所包含的文本信息进行识别,将识别到的文本内容作为关键词进行搜索)等。
举例来说,将目标文本识别模型应用在业务推广识别场景时,计算机设备可以获取包含文本信息的业务推广图片,将包含文本信息的业务推广图片(例如,可以为广告图片)确定为待处理图像数据,将待处理图像数据输入至目标文本识别模型;通过目标文本识别模型中的参数修正后的特征提取组件,输出待处理图像数据对应的推广表征信息;通过目标文本识别模型中的参数修正后的图像编码组件,输出推广表征信息对应的推广文本语义信息;根据目标文本识别模型中的分类网络层,对推广文本语义信息进行预测,得到推广文本语义信息对应的推广文本内容,即对业务推广图片进行文本识别,以输出业务推广图片中所包含的推广文本内容。
请一并参见图7,图7是本申请实施例提供的一种文本识别场景图。如图7所示的用户终端30a可以为上述计算机设备,该用户终端30a可以为用户小A所使用的终端设备,该用户终端30a中安装有搜索应用。如图7所示的当前显示界面为搜索应用的主页面,在该主页面中可以显示搜索框,在该搜索框中可以包括照相入口30b,当用户小A对搜索框中的照相入口30b执行触发操作时,用户终端30a可以响应针对照相入口30b的触发操作,启动用户终端30a中的照相机,将用户终端30a靠近实物广告单30c进行拍摄,在用户小A拍摄了照片30d且对控件30e执行触发操作时,用户终端30a可以利用前述预先训练完成的目标识别模型对照片30d进行文本识别,输出照片30d中所包含的文本内容30e,该文本内容30e包括:“2020海洋日”、“限量版精华面霜”、“品牌A”。
进一步地,在识别得到文本内容30e后,以文本内容30e作为搜索关键词进行检索,可以在搜索应用中检索与上述文本内容30e相关联的检索结果,并在搜索应用的搜索页面30f中显示检索结果,该检索结果可以按照与上述文本内容30e的关联度,在搜索页面30f中进行排序显示,如该检索结果可以包括结果展示栏30g,当用户小A对某个结果展示栏(例如,结果展示栏30g)中的内容感兴趣时,可以点击该结果展示栏查看内容详情。
请一并参加图8,图8是本申请实施例提供的一种文本识别场景图。如图8所示的用户终端40a可以为上述计算机设备,该用户终端40a可以为用户小A所使用的终端设备,该用户终端30a中集成有快递寄件应用(或者快递寄件小程序)。当用户小A想要给用户小B寄快递时,可以打开快递寄件应用(或快递寄件小程序)进入寄件信息页面40b,在该寄件信息页面40b中要求用户小A填写寄件人姓名、寄件人联系方式、收件人姓名、收件人联系方式、收件人收货地址、邮政编码等信息。若用户小A对用户小B的收货地址不太熟悉,则用户小A需要预先记下用户小B的地址在纸上或其余地方,再在寄件信息页面40b中手动输入收货地址,或者在用户终端40a反复切换显示页面进行地址输入。
可选的,当寄件信息页面40b包括图片识别控件40c时,可以对图片识别控件40c执行触发操作,此时的用户终端40a可以响应针对图片识别控件40c的触发操作,打开用户终端40a中的本地图库应用,在该图库应用中选择包含用户小B收货地址的图片40d,并对确认控件执行触发操作,用户终端40a可以响应针对确认控件的触发操作,利用前述预先训练完成的目标识别模型对图片40d进行文本识别,输出图片40d中所包含的文本内容,并将识别出的文本内容与寄件信息页面40b中的关键词进行匹配,将匹配到的文本内容自动填入对应输入框,如在收件人那一栏自动填入“小B”,在收件人联系方式那一栏自动填入“130xxxxxx14”,在收件地址那一栏自动填入“xx省xx市xx县…”,用户小A在检查没问题后,可以确认提交信息,可以提高用户的寄件效率。
本申请实施例中,该初始文本识别模型可以包括特征提取组件、图像编码组件以及离散编码组件;通过特征提取组件可以获取图像数据的图像表征信息,将图像表征信息通过图像编码组件可以得到语义编码信息,将图像表征信息通过离散编码组件可以得到离散编码信息,进而可以通过语义编码信息与离散编码信息之间的编码相似度,对初始文本识别模型的网络参数进行修正,也就是说,该离散编码信息可以作为初始文本识别模型在训练过程中的拟合目标,在上述训练过程中无需使用图像数据的标注信息,可以降低数据的标注成本;由于未标注的图像数据具有数据量大,覆盖范围广等多样性特点,直接使用无标注的图像数据进行训练,可以提高目标文本识别模型的泛化能力,从而提高目标文本识别模型的识别效果,并且可以提高目标文本识别模型的适用性。
请参见图9,图9是本申请实施例提供的一种图像数据处理装置的结构示意图。可以理解地,图像数据处理装置可以是应用于计算机设备中的一个计算机程序(包括程序代码),例如该图像数据处理装置可以为一个OCR文字识别应用软件,该图像数据处理装置可以用于执行本申请实施例提供的方法中的相应步骤。如图9所示,图像数据处理装置1可以包括:特征提取模块11,语义编码模块12,离散编码模块13,参数修正模块14;
特征提取模块11,用于将包含文本信息的图像数据输入至初始文本识别模型,根据初始文本识别模型中的特征提取组件,获取图像数据对应的图像表征信息;
语义编码模块12,用于根据初始文本识别模型中的图像编码组件,对图像表征信息进行编码,得到图像表征信息对应的语义编码信息;语义编码信息与图像数据中的文本信息相关联;
离散编码模块13,用于根据初始文本识别模型的离散编码组件中所包含的码表,获取图像表征信息对应的码表索引置信度,根据码表索引置信度,在码表中获取图像表征信息对应的离散编码信息;码表包括用于表征文本特征的可学习编码向量;
参数修正模块14,用于根据语义编码信息与离散编码信息之间的编码相似度,以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型;目标文本识别模型用于识别待处理图像数据中的文本信息。
其中,特征提取模块11,语义编码模块12,离散编码模块13,参数修正模块14的具体功能实现方式可以参见上述图3所对应实施例中的步骤S101-步骤S104,这里不再进行赘述。
在一些可行的实施方式中,图像表征信息包括T个图像表征特征,码表包括V个可学习编码向量,T和V均为正整数;
离散编码模块13可以包括:码表获取单元131,置信度获取单元132,编码向量选取单元133,离散特征确定单元134;
码表获取单元131,用于获取初始文本识别模型的离散编码组件中所包含的码表,在图像表征信息中的图像表征特征zi;i为小于或等于T的正整数;
置信度获取单元132,用于获取图像表征特征zi分别与V个可学习编码向量之间的码表索引置信度;
编码向量选取单元133,用于在V个可学习编码向量中,将最大的码表索引置信度所对应的可学习编码向量确定为目标编码向量;
离散特征确定单元134,用于根据目标编码向量确定图像表征特征zi对应的离散编码特征qi,将T个图像表征特征分别对应的离散编码特征组成离散编码信息。
其中,码表获取单元131,置信度获取单元132,编码向量选取单元133,离散特征确定单元134的具体功能实现方式可以参见上述图3所对应实施例中的步骤S103,这里不再进行赘述。
在一些可行的实施方式中,置信度获取单元13可以包括:随机数获取子单元131,索引置信度获取子单元132;
随机数获取子单元131,用于获取图像表征特征zi中的特征值所对应的分布随机数,将图像表征特征zi中的特征值与分布随机数进行相加,得到图像表征特征zi对应的候选表征特征;
索引置信度获取子单元132,用于根据候选表征特征中的特征值所对应的指数值,获取候选表征特征分别与V个可学习编码向量之间的码表索引置信度。
其中,随机数获取子单元131,索引置信度获取子单元132的具体功能实现方式可以参见上述图3所对应实施例中的步骤S103,这里不再进行赘述。
在一些可行的实施方式中,码表的数量为G个,每个码表均对应一个目标编码向量,G为正整数;
离散特征确定单元134可以包括:拼接子单元1341,网络输出子单元1342;
拼接子单元1341,用于对G个码表中的目标编码向量进行拼接,得到图像表征特征zi对应的联合特征;
网络输出子单元1342,用于将联合特征输入至全连接网络层,根据全连接网络层中的权重矩阵,输出图像表征特征zi对应的离散编码特征qi。
其中,拼接子单元1341,网络输出子单元1342的具体功能实现方式可以参见上述图3所对应实施例中的步骤S103,这里不再进行赘述。
在一些可行的实施方式中,语义编码信息包括T个语义编码特征,离散编码信息包括T个离散编码特征,编码相似度包括第一相似度和第二相似度,T为正整数;
参数修正模块14可以包括:正负样本确定单元141,模型损失确定单元142,网络参数修正单元143;
正负样本确定单元141,用于在语义编码信息中获取语义编码特征ci,将离散编码信息中的离散编码特征qi,确定为语义编码特征ci的正样本,将离散编码信息中的离散编码特征qj,确定为语义编码特征ci的负样本;i和j均为小于或等于T的正整数,且i和j不相等;
模型损失确定单元142,用于根据语义编码特征ci与正样本之间的第一相似度、语义编码特征ci与负样本之间的第二相似度以及码表索引置信度,确定初始文本识别模型对应的模型损失函数;
网络参数修正单元143,用于根据模型损失函数,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型。
其中,正负样本确定单元141,模型损失确定单元142,网络参数修正单元143的具体功能实现方式可以参见上述图3所对应实施例中的步骤S104,这里不再进行赘述。
在一些可行的实施方式中,模型损失确定单元142可以包括:对比损失确定子单元1421,多样性损失确定子单元1422,损失连接子单元1423;
对比损失确定子单元1421,用于获取语义编码特征ci与正样本之间的第一相似度,获取语义编码特征ci与负样本之间的第二相似度,根据第一相似度和第二相似度确定对比损失函数;
多样性损失确定子单元1422,用于获取码表索引置信度对应的对数值,根据对数值和码表索引置信度之间的乘积,确定多样性损失函数;
损失连接子单元1423,用于根据对比损失函数和多样性损失函数,确定初始文本识别模型对应的模型损失函数。
其中,对比损失确定子单元1421,多样性损失确定子单元1422,损失连接子单元1423的具体功能实现方式可以参见上述图3所对应实施例中的步骤S104,这里不再进行赘述。
在一些可行的实施方式中,网络参数修正单元143可以包括:训练子单元1431,模型确定子单元1432;
训练子单元1431,用于根据模型损失函数,对特征提取组件的网络参数、图像编码组件的网络参数以及离散编码组件中的码表进行修正;
模型确定子单元1432,用于当初始文本识别模型对应的训练次数满足训练终止条件时,将满足训练终止条件的特征提取组件和图像编码组件,确定为目标文本识别模型。
其中,训练子单元1431,模型确定子单元1432的具体功能实现方式可以参见上述图3所对应实施例中的步骤S104,这里不再进行赘述。
在一些可行的实施方式中,初始文本识别模型还包括分类网络层;
参数修正模块14可以包括:无监督训练单元144,标注数据获取单元145,语义信息输出单元146,标注数据预测单元147,监督微调单元148;
无监督训练单元144,用于根据语义编码信息、离散编码信息以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为候选文本识别模型;
标注数据获取单元145,用于获取包含文本信息的标注图像数据,将标注图像数据输入至候选文本识别模型;标注图像数据携带标签信息;
语义信息输出单元146,用于根据候选文本识别模型中的参数修正后的特征提取组件,以及参数修正后的图像编码组件,输出标注图像数据对应的标注语义信息;
标注数据预测单元147,用于根据分类网络层,对标注语义信息进行预测,得到与标注图像数据中的文本信息相关联的预测文本识别结果;
监督微调单元148,用于根据标签信息与预测文本识别结果之间的误差,对候选文本识别模型和分类网络层的网络参数进行修正,将参数修正后的候选文本识别模型和参数修正后的分类网络层确定为目标文本识别模型。
其中,无监督训练单元144,标注数据获取单元145,语义信息输出单元146,标注数据预测单元147,监督微调单元148的具体功能实现方式可以参见上述图3所对应实施例中的步骤S104,这里不再进行赘述。
在一些可行的实施方式中,特征提取组件包括L个网络层,L为正整数;
特征提取模块11可以包括:输出结果联合单元111,图像表征获取单元112;
输出结果联合单元111,用于在初始文本识别模型的特征提取组件中,获取图像数据在前(L-1)个网络层中的输出结果,将前(L-1)个网络层所对应的输出结果组合为联合输出结果;
图像表征获取单元112,用于根据特征提取组件中的第L个网络层所对应的权重矩阵,得到联合输出结果对应的目标输出结果,将目标输出结果确定为图像数据对应的图像表征信息。
其中,输出结果联合单元111,图像表征获取单元112的具体功能实现方式可以参见上述图3所对应实施例中的步骤S101,这里不再进行赘述。
在一些可行的实施方式中,语义编码模块12可以包括:注意力层计算单元121,文本位置编码单元122;
注意力层计算单元121,用于在初始文本识别模型的图像编码组件中,根据图像编码组件的自注意力层所对应的权重矩阵,对图像表征信息进行乘积运算,得到图像表征信息对应的注意力输出向量;
文本位置编码单元122,用于根据图像编码组件中的编码层,对注意力输出向量进行文本位置编码,得到图像表征信息对应的语义编码信息。
其中,注意力层计算单元121,文本位置编码单元122的具体功能实现方式可以参见上述图3所对应实施例中的步骤S101,这里不再进行赘述。
在一些可行的实施方式中,该图像数据处理装置还可以包括:待处理数据获取模块15,推广特征提取模块16,推广文本语义获取模块17,文本识别结果获取模块18;
待处理数据获取模块15,用于将包含文本信息的业务推广图片确定为待处理图像数据,将待处理图像数据输入至目标文本识别模型;
推广特征提取模块16,用于通过目标文本识别模型中的参数修正后的特征提取组件,输出待处理图像数据对应的推广表征信息;
推广文本语义获取模块17,用于通过目标文本识别模型中的参数修正后的图像编码组件,输出推广表征信息对应的推广文本语义信息;
文本识别结果获取模块18,用于根据目标文本识别模型中的分类网络层,对推广文本语义信息进行预测,得到推广文本语义信息对应的推广文本内容。
其中,待处理数据获取模块15,推广特征提取模块16,推广文本语义获取模块17,文本识别结果获取模块18的具体功能实现方式可以参见上述图3所对应实施例中的步骤S104,这里不再进行赘述。
本申请实施例中,该初始文本识别模型可以包括特征提取组件、图像编码组件以及离散编码组件;通过特征提取组件可以获取图像数据的图像表征信息,将图像表征信息通过图像编码组件可以得到语义编码信息,将图像表征信息通过离散编码组件可以得到离散编码信息,进而可以通过语义编码信息与离散编码信息之间的编码相似度,对初始文本识别模型的网络参数进行修正,也就是说,该离散编码信息可以作为初始文本识别模型在训练过程中的拟合目标,在上述训练过程中无需使用图像数据的标注信息,可以降低数据的标注成本;由于未标注的图像数据具有数据量大,覆盖范围广等多样性特点,直接使用无标注的图像数据进行训练,可以提高目标文本识别模型的泛化能力,从而提高目标文本识别模型的识别效果,并且可以提高目标文本识别模型的适用性。
请参见图10,图10是本申请实施例提供的一种计算机设备的结构示意图。如图10所示,该计算机设备1000可以包括:处理器1001,网络接口1004和存储器1005,此外,上述计算机设备1000还可以包括:用户接口1003,和至少一个通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。其中,用户接口1003可以包括显示屏(Display)、键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。可选的,网络接口1004可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是非不稳定的存储器(non-volatile memory),例如至少一个磁盘存储器。可选的,存储器1005还可以是至少一个位于远离前述处理器1001的存储装置。如图10所示,作为一种计算机可读存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及设备控制应用程序。
在如图10所示的计算机设备1000中,网络接口1004可提供网络通讯功能;而用户接口1003主要用于为用户提供输入的接口;而处理器1001可以用于调用存储器1005中存储的设备控制应用程序,以实现:
将包含文本信息的图像数据输入至初始文本识别模型,根据初始文本识别模型中的特征提取组件,获取图像数据对应的图像表征信息;
根据初始文本识别模型中的图像编码组件,对图像表征信息进行编码,得到图像表征信息对应的语义编码信息;语义编码信息与图像数据中的文本信息相关联;
根据初始文本识别模型的离散编码组件中所包含的码表,获取图像表征信息对应的码表索引置信度,根据码表索引置信度,在码表中获取图像表征信息对应的离散编码信息;码表包括用于表征文本特征的可学习编码向量;
根据语义编码信息与离散编码信息之间的编码相似度,以及码表索引置信度,对初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型;目标文本识别模型用于识别待处理图像数据中的文本信息。
应当理解,本申请实施例中所描述的计算机设备1000可执行前文图3所对应实施例中对图像数据处理方法的描述,也可执行前文图9所对应实施例中对图像数据处理装置1的描述,在此不再赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。
此外,这里需要指出的是:本申请实施例还提供了一种计算机可读存储介质,且计算机可读存储介质中存储有前文提及的图像数据处理装置1所执行的计算机程序,且计算机程序包括程序指令,当处理器执行程序指令时,能够执行前文图3所对应实施例中对图像数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机可读存储介质实施例中未披露的技术细节,请参照本申请方法实施例的描述。作为示例,程序指令可被部署在一个计算设备上执行,或者在位于一个地点的多个计算设备上执行,又或者,在分布在多个地点且通过通信网络互连的多个计算设备上执行,分布在多个地点且通过通信网络互连的多个计算设备可以组成区块链系统。
此外,需要说明的是:本申请实施例还提供了一种计算机程序产品或计算机程序,该计算机程序产品或者计算机程序可以包括计算机指令,该计算机指令可以存储在计算机可读存储介质中。计算机设备的处理器从计算机可读存储介质读取该计算机指令,处理器可以执行该计算机指令,使得该计算机设备执行前文图3所对应实施例中对图像数据处理方法的描述,因此,这里将不再进行赘述。另外,对采用相同方法的有益效果描述,也不再进行赘述。对于本申请所涉及的计算机程序产品或者计算机程序实施例中未披露的技术细节,请参照本申请方法实施例的描述。
需要说明的是,对于前述的各个方法实施例,为了简单描述,故将其都表述为一系列的动作组合,但是本领域技术人员应该知悉,本申请并不受所描述的动作顺序的限制,因为依据本申请,某一些步骤可以采用其他顺序或者同时进行。其次,本领域技术人员也应该知悉,说明书中所描述的实施例均属于优选实施例,所涉及的动作和模块并不一定是本申请所必须的。
本申请实施例方法中的步骤可以根据实际需要进行顺序调整、合并和删减。
本申请实施例装置中的模块可以根据实际需要进行合并、划分和删减。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,计算机程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,存储介质可为磁碟、光盘、只读存储器(Read-Only Memory,ROM)或随机存储器(Random Access Memory,RAM)等。
以上所揭露的仅为本申请较佳实施例而已,当然不能以此来限定本申请之权利范围,因此依本申请权利要求所作的等同变化,仍属本申请所涵盖的范围。
Claims (14)
1.一种图像数据处理方法,其特征在于,包括:
将包含文本信息的图像数据输入至初始文本识别模型,根据所述初始文本识别模型中的特征提取组件,获取所述图像数据对应的图像表征信息;
根据所述初始文本识别模型中的图像编码组件,对所述图像表征信息进行编码,得到所述图像表征信息对应的语义编码信息;所述语义编码信息与所述图像数据中的文本信息相关联;
根据所述初始文本识别模型的离散编码组件中所包含的码表,获取所述图像表征信息对应的码表索引置信度,根据所述码表索引置信度,在所述码表中获取所述图像表征信息对应的离散编码信息;所述码表包括用于表征文本特征的可学习编码向量;
根据所述语义编码信息与所述离散编码信息之间的编码相似度,以及所述码表索引置信度,对所述初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型;所述目标文本识别模型用于识别待处理图像数据中的文本信息;
其中,所述语义编码信息包括T个语义编码特征,所述离散编码信息包括T个离散编码特征,所述编码相似度包括第一相似度和第二相似度,T为正整数;
所述根据所述语义编码信息与所述离散编码信息之间的编码相似度,以及所述码表索引置信度,对所述初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型,包括:
在所述语义编码信息中获取语义编码特征ci,将所述离散编码信息中的离散编码特征qi,确定为所述语义编码特征ci的正样本,将所述离散编码信息中的离散编码特征qj,确定为所述语义编码特征ci的负样本;i和j均为小于或等于T的正整数,且i和j不相等;
根据所述语义编码特征ci与所述正样本之间的第一相似度、所述语义编码特征ci与所述负样本之间的第二相似度以及所述码表索引置信度,确定所述初始文本识别模型对应的模型损失函数;
根据所述模型损失函数,对所述初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为所述目标文本识别模型。
2.根据权利要求1所述的方法,其特征在于,所述图像表征信息包括T个图像表征特征,所述码表包括V个可学习编码向量,T和V均为正整数;
所述根据所述初始文本识别模型的离散编码组件中所包含的码表,获取所述图像表征信息对应的码表索引置信度,根据所述码表索引置信度,在所述码表中获取所述图像表征信息对应的离散编码信息,包括:
获取所述初始文本识别模型的离散编码组件中所包含的码表,在所述图像表征信息中的图像表征特征zi;i为小于或等于T的正整数;
获取所述图像表征特征zi分别与所述V个可学习编码向量之间的码表索引置信度;
在所述V个可学习编码向量中,将最大的码表索引置信度所对应的可学习编码向量确定为目标编码向量;
根据所述目标编码向量确定所述图像表征特征zi对应的离散编码特征qi,将T个图像表征特征分别对应的离散编码特征组成所述离散编码信息。
3.根据权利要求2所述的方法,其特征在于,所述获取所述图像表征特征zi分别与所述V个可学习编码向量之间的码表索引置信度,包括:
获取所述图像表征特征zi中的特征值所对应的分布随机数,将所述图像表征特征zi中的特征值与所述分布随机数进行相加,得到所述图像表征特征zi对应的候选表征特征;
根据所述候选表征特征中的特征值所对应的指数值,获取所述候选表征特征分别与所述V个可学习编码向量之间的码表索引置信度。
4.根据权利要求2所述的方法,其特征在于,所述码表的数量为G个,每个码表均对应一个目标编码向量,G为正整数;
所述根据所述目标编码向量确定所述图像表征特征zi对应的离散编码特征qi,包括:
对G个码表中的目标编码向量进行拼接,得到所述图像表征特征zi对应的联合特征;
将所述联合特征输入至全连接网络层,根据所述全连接网络层中的权重矩阵,输出所述图像表征特征zi对应的离散编码特征qi。
5.根据权利要求1所述的方法,其特征在于,所述根据所述语义编码特征ci与所述正样本之间的第一相似度、所述语义编码特征ci与所述负样本之间的第二相似度以及所述码表索引置信度,确定所述初始文本识别模型对应的模型损失函数,包括:
获取所述语义编码特征ci与所述正样本之间的第一相似度,获取所述语义编码特征ci与所述负样本之间的第二相似度,根据所述第一相似度和所述第二相似度确定对比损失函数;
获取所述码表索引置信度对应的对数值,根据所述对数值和所述码表索引置信度之间的乘积,确定多样性损失函数;
根据所述对比损失函数和所述多样性损失函数,确定所述初始文本识别模型对应的模型损失函数。
6.根据权利要求1所述的方法,其特征在于,所述根据所述模型损失函数,对所述初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为所述目标识别模型,包括:
根据所述模型损失函数,对所述特征提取组件的网络参数、所述图像编码组件的网络参数以及所述离散编码组件中的码表进行修正;
当所述初始文本识别模型对应的训练次数满足训练终止条件时,将满足训练终止条件的特征提取组件和图像编码组件,确定为所述目标文本识别模型。
7.根据权利要求1所述的方法,其特征在于,所述初始文本识别模型还包括分类网络层;
所述根据所述语义编码信息与所述离散编码信息之间的编码相似度,以及所述码表索引置信度,对所述初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型,包括:
根据所述语义编码信息、所述离散编码信息以及所述码表索引置信度,对所述初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为候选文本识别模型;
获取包含文本信息的标注图像数据,将所述标注图像数据输入至所述候选文本识别模型;所述标注图像数据携带标签信息;
根据所述候选文本识别模型中的所述参数修正后的特征提取组件,以及所述参数修正后的图像编码组件,输出所述标注图像数据对应的标注语义信息;
根据所述分类网络层,对所述标注语义信息进行预测,得到与所述标注图像数据中的文本信息相关联的预测文本识别结果;
根据所述标签信息与所述预测文本识别结果之间的误差,对所述候选文本识别模型和所述分类网络层的网络参数进行修正,将参数修正后的候选文本识别模型和参数修正后的分类网络层确定为目标文本识别模型。
8.根据权利要求1所述的方法,其特征在于,所述特征提取组件包括L个网络层,L为正整数;
所述根据所述初始文本识别模型中的特征提取组件,获取所述图像数据对应的图像表征信息,包括:
在所述初始文本识别模型的特征提取组件中,获取所述图像数据在前(L-1)个网络层中的输出结果,将所述前(L-1)个网络层所对应的输出结果组合为联合输出结果;
根据所述特征提取组件中的第L个网络层所对应的权重矩阵,得到所述联合输出结果对应的目标输出结果,将所述目标输出结果确定为所述图像数据对应的图像表征信息。
9.根据权利要求1所述的方法,其特征在于,所述根据所述初始文本识别模型中的图像编码组件,对所述图像表征信息进行编码,得到所述图像表征信息对应的语义编码信息,包括:
在所述初始文本识别模型的图像编码组件中,根据所述图像编码组件的自注意力层所对应的权重矩阵,对所述图像表征信息进行乘积运算,得到所述图像表征信息对应的注意力输出向量;
根据所述图像编码组件中的编码层,对所述注意力输出向量进行文本位置编码,得到所述图像表征信息对应的语义编码信息。
10.根据权利要求1所述的方法,其特征在于,还包括:
将包含文本信息的业务推广图片确定为所述待处理图像数据,将所述待处理图像数据输入至所述目标文本识别模型;
通过所述目标文本识别模型中的所述参数修正后的特征提取组件,输出所述待处理图像数据对应的推广表征信息;
通过所述目标文本识别模型中的所述参数修正后的图像编码组件,输出所述推广表征信息对应的推广文本语义信息;
根据所述目标文本识别模型中的分类网络层,对所述推广文本语义信息进行预测,得到所述推广文本语义信息对应的推广文本内容。
11.一种图像数据处理装置,其特征在于,包括:
特征提取模块,用于将包含文本信息的图像数据输入至初始文本识别模型,根据所述初始文本识别模型中的特征提取组件,获取所述图像数据对应的图像表征信息;
语义编码模块,用于根据所述初始文本识别模型中的图像编码组件,对所述图像表征信息进行编码,得到所述图像表征信息对应的语义编码信息;所述语义编码信息与所述图像数据中的文本信息相关联;
离散编码模块,用于根据所述初始文本识别模型的离散编码组件中所包含的码表,获取所述图像表征信息对应的码表索引置信度,根据所述码表索引置信度,在所述码表中获取所述图像表征信息对应的离散编码信息;所述码表包括用于表征文本特征的可学习编码向量;
参数修正模块,用于根据所述语义编码信息与所述离散编码信息之间的编码相似度,以及所述码表索引置信度,对所述初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为目标文本识别模型;所述目标文本识别模型用于识别待处理图像数据中的文本信息;
其中,所述语义编码信息包括T个语义编码特征,所述离散编码信息包括T个离散编码特征,所述编码相似度包括第一相似度和第二相似度,T为正整数;
所述参数修正模块包括:
正负样本确定单元,用于在所述语义编码信息中获取语义编码特征ci,将所述离散编码信息中的离散编码特征qi,确定为所述语义编码特征ci的正样本,将所述离散编码信息中的离散编码特征qj,确定为所述语义编码特征ci的负样本;i和j均为小于或等于T的正整数,且i和j不相等;
模型损失确定单元,用于根据所述语义编码特征ci与所述正样本之间的第一相似度、所述语义编码特征ci与所述负样本之间的第二相似度以及所述码表索引置信度,确定所述初始文本识别模型对应的模型损失函数;
网络参数修正单元,用于根据所述模型损失函数,对所述初始文本识别模型的网络参数进行修正,将参数修正后的特征提取组件和参数修正后的图像编码组件确定为所述目标文本识别模型。
12.一种计算机设备,其特征在于,包括存储器和处理器;
所述存储器与所述处理器相连,所述存储器用于存储计算机程序,所述处理器用于调用所述计算机程序,以使得所述计算机设备执行权利要求1-10任一项所述的方法。
13.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质中存储有计算机程序,所述计算机程序适于由处理器加载并执行,以使得具有所述处理器的计算机设备执行权利要求1-10任一项所述的方法。
14.一种计算机程序产品,其特征在于,所述计算机程序产品包括计算机指令,所述计算机指令被处理器执行时实现权利要求1至10任一项所述的方法。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110518209.7A CN113762050B (zh) | 2021-05-12 | 2021-05-12 | 图像数据处理方法、装置、设备以及介质 |
PCT/CN2021/107653 WO2022236959A1 (zh) | 2021-05-12 | 2021-07-21 | 图像数据处理方法、装置、设备以及存储介质 |
EP21941528.8A EP4339831A1 (en) | 2021-05-12 | 2021-07-21 | Image data processing method and apparatus, and device and storage medium |
US18/306,208 US20230260304A1 (en) | 2021-05-12 | 2023-04-24 | Image data processing method, apparatus and device, and storage medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110518209.7A CN113762050B (zh) | 2021-05-12 | 2021-05-12 | 图像数据处理方法、装置、设备以及介质 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113762050A CN113762050A (zh) | 2021-12-07 |
CN113762050B true CN113762050B (zh) | 2024-05-24 |
Family
ID=78787063
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110518209.7A Active CN113762050B (zh) | 2021-05-12 | 2021-05-12 | 图像数据处理方法、装置、设备以及介质 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20230260304A1 (zh) |
EP (1) | EP4339831A1 (zh) |
CN (1) | CN113762050B (zh) |
WO (1) | WO2022236959A1 (zh) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114449345B (zh) * | 2022-02-08 | 2023-06-23 | 腾讯科技(深圳)有限公司 | 视频处理方法、装置、设备及存储介质 |
CN114529765B (zh) * | 2022-02-16 | 2024-07-26 | 腾讯科技(深圳)有限公司 | 一种数据处理方法、设备以及计算机可读存储介质 |
CN116645700B (zh) * | 2023-07-27 | 2023-11-03 | 腾讯科技(深圳)有限公司 | 特征提取模型处理方法、装置和特征提取方法、装置 |
CN117194605B (zh) * | 2023-11-08 | 2024-01-19 | 中南大学 | 用于多模态医学数据缺失的哈希编码方法、终端及介质 |
CN118196958B (zh) * | 2024-03-05 | 2024-09-13 | 中电装备山东电子有限公司 | 一种基于用电智能预测的预付费电表 |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492679A (zh) * | 2018-10-24 | 2019-03-19 | 杭州电子科技大学 | 基于注意力机制与联结时间分类损失的文字识别方法 |
CN109993109A (zh) * | 2019-03-29 | 2019-07-09 | 成都信息工程大学 | 图像文字识别方法 |
CN110569846A (zh) * | 2019-09-16 | 2019-12-13 | 北京百度网讯科技有限公司 | 图像文字识别方法、装置、设备及存储介质 |
WO2020199730A1 (zh) * | 2019-03-29 | 2020-10-08 | 北京市商汤科技开发有限公司 | 文本识别方法及装置、电子设备和存储介质 |
CN111797834A (zh) * | 2020-05-28 | 2020-10-20 | 华南理工大学 | 文本识别方法、装置、计算机设备和存储介质 |
CN112016543A (zh) * | 2020-07-24 | 2020-12-01 | 华为技术有限公司 | 一种文本识别网络、神经网络训练的方法以及相关设备 |
CN112257716A (zh) * | 2020-12-08 | 2021-01-22 | 之江实验室 | 一种基于尺度自适应及方向注意力网络的场景文字识别方法 |
CN112598000A (zh) * | 2021-03-03 | 2021-04-02 | 北京世纪好未来教育科技有限公司 | 题目识别方法、装置、电子设备及计算机存储介质 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107590192B (zh) * | 2017-08-11 | 2023-05-05 | 深圳市腾讯计算机系统有限公司 | 文本问题的数学化处理方法、装置、设备和存储介质 |
US11068493B2 (en) * | 2018-11-07 | 2021-07-20 | Adobe Inc. | Guided content discovery in visual search |
CN112148870B (zh) * | 2019-06-26 | 2022-09-16 | 阿里巴巴集团控股有限公司 | 摘要生成方法、装置、电子设备及计算机可读存储介质 |
CN112633290A (zh) * | 2021-03-04 | 2021-04-09 | 北京世纪好未来教育科技有限公司 | 文本识别方法、电子设备及计算机可读介质 |
-
2021
- 2021-05-12 CN CN202110518209.7A patent/CN113762050B/zh active Active
- 2021-07-21 EP EP21941528.8A patent/EP4339831A1/en active Pending
- 2021-07-21 WO PCT/CN2021/107653 patent/WO2022236959A1/zh active Application Filing
-
2023
- 2023-04-24 US US18/306,208 patent/US20230260304A1/en active Pending
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109492679A (zh) * | 2018-10-24 | 2019-03-19 | 杭州电子科技大学 | 基于注意力机制与联结时间分类损失的文字识别方法 |
CN109993109A (zh) * | 2019-03-29 | 2019-07-09 | 成都信息工程大学 | 图像文字识别方法 |
WO2020199730A1 (zh) * | 2019-03-29 | 2020-10-08 | 北京市商汤科技开发有限公司 | 文本识别方法及装置、电子设备和存储介质 |
CN110569846A (zh) * | 2019-09-16 | 2019-12-13 | 北京百度网讯科技有限公司 | 图像文字识别方法、装置、设备及存储介质 |
CN111797834A (zh) * | 2020-05-28 | 2020-10-20 | 华南理工大学 | 文本识别方法、装置、计算机设备和存储介质 |
CN112016543A (zh) * | 2020-07-24 | 2020-12-01 | 华为技术有限公司 | 一种文本识别网络、神经网络训练的方法以及相关设备 |
CN112257716A (zh) * | 2020-12-08 | 2021-01-22 | 之江实验室 | 一种基于尺度自适应及方向注意力网络的场景文字识别方法 |
CN112598000A (zh) * | 2021-03-03 | 2021-04-02 | 北京世纪好未来教育科技有限公司 | 题目识别方法、装置、电子设备及计算机存储介质 |
Non-Patent Citations (3)
Title |
---|
SCAN:Sequence-character Aware Network for Text Recognition;Hassan H等;《VISIGRAPP》;20210228;全文 * |
结合密集神经网络与长短时记忆模型的中文识别;张艺玮;赵一嘉;王馨悦;董兰芳;;计算机系统应用;20181114(11);全文 * |
自然场景中特定文字图像优化识别研究与仿真;李月洁;;计算机仿真;20161115(11);全文 * |
Also Published As
Publication number | Publication date |
---|---|
EP4339831A1 (en) | 2024-03-20 |
CN113762050A (zh) | 2021-12-07 |
WO2022236959A1 (zh) | 2022-11-17 |
US20230260304A1 (en) | 2023-08-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113762050B (zh) | 图像数据处理方法、装置、设备以及介质 | |
CN109543690B (zh) | 用于提取信息的方法和装置 | |
CN105631479B (zh) | 基于非平衡学习的深度卷积网络图像标注方法及装置 | |
CN110866140A (zh) | 图像特征提取模型训练方法、图像搜索方法及计算机设备 | |
US20160364633A1 (en) | Font recognition and font similarity learning using a deep neural network | |
CN112232149A (zh) | 一种文档多模信息和关系提取方法及系统 | |
CN111582409A (zh) | 图像标签分类网络的训练方法、图像标签分类方法及设备 | |
CN111738169B (zh) | 一种基于端对端网络模型的手写公式识别方法 | |
CN116580257A (zh) | 特征融合模型训练及样本检索方法、装置和计算机设备 | |
CN113836992A (zh) | 识别标签的方法、训练标签识别模型的方法、装置及设备 | |
CN114282013A (zh) | 一种数据处理方法、装置及存储介质 | |
CN115115910A (zh) | 图像处理模型的训练方法、使用方法、装置、设备及介质 | |
CN112801099A (zh) | 一种图像处理方法、装置、终端设备及介质 | |
CN114330514A (zh) | 一种基于深度特征与梯度信息的数据重建方法及系统 | |
CN115905605A (zh) | 一种数据处理方法、设备以及计算机可读存储介质 | |
CN117635275A (zh) | 基于大数据的智能电商运营商品管理平台及方法 | |
CN116524574A (zh) | 一种面部区域识别方法、装置及电子设备 | |
CN114511741B (zh) | 图像的识别方法、装置、设备、存储介质及程序产品 | |
CN114419514B (zh) | 一种数据处理方法、装置、计算机设备及存储介质 | |
CN115131807A (zh) | 一种文本处理方法、装置、存储介质及设备 | |
CN114692715A (zh) | 一种样本标注方法及装置 | |
CN114328884A (zh) | 一种图文去重方法及装置 | |
CN111444331A (zh) | 基于内容的分布式特征提取方法、装置、设备及介质 | |
CN118349700B (zh) | 信息抽取方法及装置 | |
CN117831075B (zh) | 视频流分析训练的人体骨骼关键点推理方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |