CN117558007A - 图像识别方法、图像识别装置、电子设备及存储介质 - Google Patents

图像识别方法、图像识别装置、电子设备及存储介质 Download PDF

Info

Publication number
CN117558007A
CN117558007A CN202311492565.1A CN202311492565A CN117558007A CN 117558007 A CN117558007 A CN 117558007A CN 202311492565 A CN202311492565 A CN 202311492565A CN 117558007 A CN117558007 A CN 117558007A
Authority
CN
China
Prior art keywords
image
text
sample
target
content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202311492565.1A
Other languages
English (en)
Inventor
易苗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202311492565.1A priority Critical patent/CN117558007A/zh
Publication of CN117558007A publication Critical patent/CN117558007A/zh
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/146Aligning or centring of the image pick-up or image-field
    • G06V30/147Determination of region of interest
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/14Image acquisition
    • G06V30/148Segmentation of character regions
    • G06V30/15Cutting or merging image elements, e.g. region growing, watershed or clustering-based techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Image Analysis (AREA)

Abstract

本申请实施例提供了一种图像识别方法、图像识别装置、电子设备及存储介质,属于金融科技领域。该方法包括:获取样本文字图像;对样本文字图像进行图像分割,得到第一样本文本行图像;基于预设的参考文字内容进行图像生成,得到第二样本文本行图像;对第一样本文本行图像、第二样本文本行图像进行数据增广,得到增广文字图像;基于第一样本文本行图像、第二样本文本行图像、增广文字图像对预设的神经网络模型进行训练,得到图像识别模型;获取目标文字图像,基于图像识别模型对目标文字图像进行识别处理,得到目标文字图像的文字内容数据。本申请实施例能够提高对低质量图像中的文字内容的识别准确性和效率。

Description

图像识别方法、图像识别装置、电子设备及存储介质
技术领域
本申请涉及金融科技领域,尤其涉及一种图像识别方法、图像识别装置、电子设备及存储介质。
背景技术
随着人工智能技术的快速发展,光学字符识别技术被运用在各个业务领域。例如,在保单核查、金融业务办理等金融场景中,常常会利用光学字符识别技术来识别图像中的文字内容。
但是,这一方式常常无法对低质量的图像(受到光照、亮度等环境因素干扰、或者印刷质量较差的图像)进行准确识别。目前,对于低质量图像的内容识别,仍然需要依赖于人工的方式进行识别,存在着识别准确性和效率低下的问题。
发明内容
本申请实施例的主要目的在于提出一种图像识别方法、图像识别装置、电子设备及存储介质,旨在提高对低质量图像中的文字内容的识别准确性和效率。
为实现上述目的,本申请实施例的第一方面提出了一种图像识别方法,所述方法包括:
获取样本文字图像;
对所述样本文字图像进行图像分割,得到第一样本文本行图像;
基于预设的参考文字内容进行图像生成,得到第二样本文本行图像;
对所述第一样本文本行图像、所述第二样本文本行图像进行数据增广,得到增广文字图像;
基于所述第一样本文本行图像、所述第二样本文本行图像、所述增广文字图像对预设的神经网络模型进行训练,得到图像识别模型;
获取目标文字图像,基于所述图像识别模型对所述目标文字图像进行识别处理,得到所述目标文字图像的文字内容数据。
在一些实施例,所述对所述第一样本文本行图像、所述第二样本文本行图像进行数据增广,得到增广文字图像,包括:
对所述第一样本文本行图像、所述第二样本文本行图像进行整合,得到训练图像;
对所述训练图像中的文字进行增广处理,得到第一增广图像;
对所述训练图像的文本行背景进行增广处理,得到第二增广图像;
对所述第一增广图像和所述第二增广图像进行图像融合,得到融合增广图像;
对所述融合增广图像进行图像增广,得到所述增广文字图像。
在一些实施例,所述对所述样本文字图像进行图像分割,得到第一样本文本行图像,包括:
对所述样本文字图像进行文本位置检测,得到所述样本文字图像的文本检测框;
对所述文本检测框进行文本内容检测,确定所述文本检测框的文本内容;
基于所述文本内容和所述文本检测框对所述样本文字图像进行图像分割,得到所述第一样本文本行图像。
在一些实施例,所述基于所述图像识别模型对所述目标文字图像进行识别处理,得到所述目标文字图像的文字内容数据,包括:
对所述目标文字图像进行文本位置检测,得到目标文本框;
基于所述目标文本框对所述目标文字图像进行抠图处理,得到所述目标文字图像的目标行文本图像;
基于所述图像识别模型对所述目标行文本图像进行内容识别,得到所述文字内容数据。
在一些实施例,所述基于预设的参考文字内容进行图像生成,得到第二样本文本行图像,包括:
调用文本渲染组件;
基于所述文本渲染组件将所述参考文字内容渲染至预设模板图像,得到所述第二样本文本行图像。
在一些实施例,所述基于所述第一样本文本行图像、所述第二样本文本行图像、所述增广文字图像对预设的神经网络模型进行训练,得到图像识别模型,包括
对所述第一样本文本行图像、所述第二样本文本行图像、所述增广文字图像进行整合,得到目标训练图像,其中,目标训练图像具有文字内容标签;
基于所述神经网络模型对所述目标训练图像进行第一卷积处理,得到训练图像特征;
基于所述神经网络模型对所述训练图像特征进行激活处理,得到激活图像特征;
基于所述神经网络模型对所述激活图像特征进行第二卷积处理,得到内容识别结果,其中,所述内容识别结果用于指示所述目标训练图像的预测文字内容;
基于所述内容识别结果和所述文字内容标签对所述神经网络模型进行训练,得到所述图像识别模型。
在一些实施例,所述基于所述内容识别结果和所述文字内容标签对所述神经网络模型进行训练,得到所述图像识别模型,包括:
对所述内容识别结果和所述文字内容标签进行损失计算,得到模型损失数据;
基于所述模型损失数据对所述神经网络模型进行参数调整,以训练所述神经网络模型,得到所述图像识别模型。
为实现上述目的,本申请实施例的第二方面提出了一种图像识别装置,所述装置包括:
样本获取模块,用于获取样本文字图像;
图像分割模块,用于对所述样本文字图像进行图像分割,得到第一样本文本行图像;
图像生成模块,用于基于预设的参考文字内容进行图像生成,得到第二样本文本行图像;
数据增广模块,用于对所述第一样本文本行图像、所述第二样本文本行图像进行数据增广,得到增广文字图像;
训练模块,用于基于所述第一样本文本行图像、所述第二样本文本行图像、所述增广文字图像对预设的神经网络模型进行训练,得到图像识别模型;
图像识别模块,用于获取目标文字图像,基于所述图像识别模型对所述目标文字图像进行识别处理,得到所述目标文字图像的文字内容数据。
为实现上述目的,本申请实施例的第三方面提出了一种电子设备,所述电子设备包括存储器、处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现上述第一方面所述的方法。
为实现上述目的,本申请实施例的第四方面提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序被处理器执行时实现上述第一方面所述的方法。
本申请提出的图像识别方法、图像识别装置、电子设备及存储介质,其通过获取样本文字图像;对样本文字图像进行图像分割,得到第一样本文本行图像;基于预设的参考文字内容进行图像生成,得到第二样本文本行图像,能够提高行文本图像的来源多样性。接着,对第一样本文本行图像、第二样本文本行图像进行数据增广,得到增广文字图像,能够较为方便地增加用于模型训练的文字图像的数目。进一步地,基于第一样本文本行图像、第二样本文本行图像、增广文字图像对预设的神经网络模型进行训练,得到图像识别模型,能够通过扩大模型训练的训练图像数量来提高模型训练效果,使图像识别模型具备较好的图像内容识别精度。最后,获取目标文字图像,基于图像识别模型对目标文字图像进行识别处理,得到目标文字图像的文字内容数据,能够提高对低质量图像中的文字内容的识别准确性和效率。
附图说明
图1是本申请实施例提供的图像识别方法的流程图;
图2是图1中的步骤S102的流程图;
图3是图1中的步骤S103的流程图;
图4是图1中的步骤S104的流程图;
图5是图1中的步骤S105的流程图;
图6是图5中的步骤S505的流程图;
图7是图1中的步骤S106的流程图;
图8是本申请实施例提供的图像识别装置的结构示意图;
图9是本申请实施例提供的电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(artificial intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(natural language processing,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息意图识别、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
信息抽取(Information Extraction,NER):从自然语言文本中抽取指定类型的实体、关系、事件等事实信息,并形成结构化数据输出的文本处理技术。信息抽取是从文本数据中抽取特定信息的一种技术。文本数据是由一些具体的单位构成的,例如句子、段落、篇章,文本信息正是由一些小的具体的单位构成的,例如字、词、词组、句子、段落或是这些具体的单位的组合。抽取文本数据中的名词短语、人名、地名等都是文本信息抽取,当然,文本信息抽取技术所抽取的信息可以是各种类型的信息。
随着人工智能技术的快速发展,光学字符识别技术被运用在各个业务领域。例如,在保单核查、金融业务办理等金融场景中,常常会利用光学字符识别技术来识别图像中的文字内容。
但是,这一方式常常无法对低质量的图像(受到光照、亮度等环境因素干扰、或者印刷质量较差的图像)进行准确识别。目前,对于低质量图像的内容识别,仍然需要依赖于人工的方式进行识别,存在着识别准确性和效率低下的问题。
基于此,本申请实施例提供了一种图像识别方法、图像识别装置、电子设备及存储介质,旨在提高对低质量图像中的文字内容的识别准确性和效率。
本申请实施例提供的图像识别方法和装置、电子设备及存储介质,具体通过如下实施例进行说明,首先描述本申请实施例中的图像识别方法。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的图像识别方法,涉及数字医疗技术领域。本申请实施例提供的图像识别方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机等;服务器端可以配置成独立的物理服务器,也可以配置成多个物理服务器构成的服务器集群或者分布式系统,还可以配置成提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、CDN以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现图像识别方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
需要说明的是,在本申请的各个具体实施方式中,当涉及到需要根据对象信息、对象行为数据,对象历史数据以及对象位置信息等与对象身份或特性相关的数据进行相关处理时,都会先获得对象的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关法律法规和标准。此外,当本申请实施例需要获取对象的个人信息时,会通过弹窗或者跳转到确认页面等方式获得对象的单独许可或者单独同意,在明确获得对象的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的对象相关数据。
图1是本申请实施例提供的图像识别方法的一个可选的流程图,图1中的方法可以包括但不限于包括步骤S101至步骤S106。
步骤S101,获取样本文字图像;
步骤S102,对样本文字图像进行图像分割,得到第一样本文本行图像;
步骤S103,基于预设的参考文字内容进行图像生成,得到第二样本文本行图像;
步骤S104,对第一样本文本行图像、第二样本文本行图像进行数据增广,得到增广文字图像;
步骤S105,基于第一样本文本行图像、第二样本文本行图像、增广文字图像对预设的神经网络模型进行训练,得到图像识别模型;
步骤S106,获取目标文字图像,基于图像识别模型对目标文字图像进行识别处理,得到目标文字图像的文字内容数据。
本申请实施例所示意的步骤S101至步骤S106,通过获取样本文字图像;对样本文字图像进行图像分割,得到第一样本文本行图像;基于预设的参考文字内容进行图像生成,得到第二样本文本行图像,能够提高行文本图像的来源多样性。接着,对第一样本文本行图像、第二样本文本行图像进行数据增广,得到增广文字图像,能够较为方便地增加用于模型训练的文字图像的数目。进一步地,基于第一样本文本行图像、第二样本文本行图像、增广文字图像对预设的神经网络模型进行训练,得到图像识别模型,能够通过扩大模型训练的训练图像数量来提高模型训练效果,使图像识别模型具备较好的图像内容识别精度。最后,获取目标文字图像,基于图像识别模型对目标文字图像进行识别处理,得到目标文字图像的文字内容数据,能够提高对低质量图像中的文字内容的识别准确性和效率。
在一些实施例的步骤S101中,获取样本文字图像。
样本文字图像指的是一些较为干净的文档图片数据,样本文字图像主要用于模型训练。
在该实施例具体实现时,可以从预设的图像数据库中获取样本文字图像。其中,预设的图像数据库是记录有各个业务领域的历史图像资料的数据库。
例如,在保险业务领域中,可以从预设的保单数据库中提取高质量的保单图像作为样本文字图像。
在步骤S102中,对样本文字图像进行图像分割,得到第一样本文本行图像。
第一样本文本行图像指的是样本文字图像中含有文字内容的图像部分。
请参阅图2,在一些实施例中,步骤S102可以包括但不限于包括步骤S201至步骤S203:
步骤S201,对样本文字图像进行文本位置检测,得到样本文字图像的文本检测框;
步骤S202,对文本检测框进行文本内容检测,确定文本检测框的文本内容;
步骤S203,基于文本内容和文本检测框对样本文字图像进行图像分割,得到第一样本文本行图像。
下面对步骤S201至步骤S203进行详细描述。
在一些实施例的步骤S201中,对样本文字图像进行文本位置检测,得到样本文字图像的文本检测框。
本申请实施例中,可以利用可微二值化模型(Differenttiable Binarizationmodule,DBNet)对样本文字图像进行文本位置检测。其中,可微二值化模型包含特征提取网络、特征金字塔网络、和卷积网络。
在该实施例具体实现时,首先将样本文字图像输入至可微二值化模型中,经由特征提取网络对样本文字图像进行特征提取,得到样本图像特征,接着,经由特征金字塔网络对样本图像特征进行特征增强,得到样本增强图像特征。进一步地,经由卷积层对样本增强图像特征进行文本区域预测,得到样本文本区域预测概率图和样本阈值图。最后,根据样本阈值图和样本文本区域预测概率图对样本文字图像进行文本区域框选,得到样本文字图像的文本检测框。其中,针对样本文字图像,在文本检测框内的图像部分即为样本文字图像的文字内容部分。
在一些实施例的步骤S202中,对文本检测框进行文本内容检测,确定文本检测框的文本内容。
本申请实施例中,可以利用CRNN模型对文本检测框进行文本内容检测。其中,CRNN模型包含卷积层、循环层、和转录层。
在该实施例具体实现时,基于CRNN模型对文本检测框内的文本进行内容检测。首先,经由CRNN模型的卷积层对样本文字图像的文本检测框内的文本进行特征提取,得到文本图像特征。接着,经由CRNN模型的循环层使用双向长短期记忆算法对文本图像特征进行内容预测,得到预测文本分布。最后,经由CRNN模型的转录层使用CTC损失对预测文本分布进行转换,得到文本检测框的文本内容。
在一些实施例的步骤S203中,基于文本内容和文本检测框对样本文字图像进行图像分割,得到第一样本文本行图像。
在该实施例具体实现时,首先根据文本检测框的坐标对样本文字图像进行图像分割,从样本文字图像中分割出文本检测框所圈定的图像部分。接着,基于文本内容对分割出的图像部分进行内容标注,得到标注文本图像,将标注文本图像作为第一样本文本行图像。
通过上述步骤S201至步骤S203能够较为方便地识别出样本文字图像中的文字内容的所处位置、以及文字内容的内容含义,进一步地,根据文字内容的所处位置,将该文字内容从样本文字图像截取出来,剔除了样本文字图像不包含文字的部分,能够有效地减小图像尺寸和不相关图像内容的干扰,得到图像质量较高的、带有标注的第一样本文本行图像。
在步骤S103中,基于预设的参考文字内容进行图像生成,得到第二样本文本行图像。
参考文字内容指的是用于生成文本行图像的文字内容。
第二样本文本行图像指的是基于参考文字内容生成的文字图像。
请参阅图3,在一些实施例中,步骤S103可以包括但不限于包括步骤S301至步骤S302:
步骤S301,调用文本渲染组件;
步骤S302,基于文本渲染组件将参考文字内容渲染至预设模板图像,得到第二样本文本行图像。
下面对步骤S301至步骤S302进行详细描述。
在一些实施例的步骤S301中,调用文本渲染组件。
文本渲染组件指的是基于给定文本内容生成与文本内容对应的文本行图片的组件,本申请实施例中的文本渲染组件包括但不限于Text Render等等。
在该实施例具体实现时,可以通过AP I接口调用的方式调用文本渲染组件,也可以采用其他方式调用文本渲染组件,不做限制。
在一些实施例的步骤S302中,基于文本渲染组件将参考文字内容渲染至预设模板图像,得到第二样本文本行图像。
预设模板图像是存储在模板库中的模板素材,模板库是将预先获取到各种模板素材统一存储形成的数据库。
在该实施例具体实现时,基于文本渲染组件将参考文字内容渲染至预设模板图像,实现对预设模板图像的二值化,将参考文字内容对应的像素值设置为1,将预设模板图像中的背景像素值设置为0,得到二值化图像,将参考文字内容作为二值化图像的图像标注,将带有图像标注的二值化图像作为第二样本文本行图像。
通过上述步骤S301至步骤S302能够基于文本渲染组件和预设模板图像实现参考文字内容的图像化处理,能够在图像维度下识别参考文字内容中的各个字符,提高第二样本文本行图像的图像质量。
在步骤S104中,对第一样本文本行图像、第二样本文本行图像进行数据增广,得到增广文字图像。
数据增广是指通过对第一样本文本行图像、第二样本文本行图像进行特定变换,从而增加训练数据集的方法,这一方式能让训练数据集尽可能的多样化,使得训练的模型具有更强的泛化能力。
增广文字图像指的是通过对第一样本文本行图像、第二样本文本行图像进行特定变换得到的文字图像。
请参阅图4,在一些实施例中,步骤S104可以包括但不限于包括步骤S401至步骤S405:
步骤S401,对第一样本文本行图像、第二样本文本行图像进行整合,得到训练图像;
步骤S402,对训练图像中的文字进行增广处理,得到第一增广图像;
步骤S403,对训练图像的文本行背景进行增广处理,得到第二增广图像;
步骤S404,对第一增广图像和第二增广图像进行图像融合,得到融合增广图像;
步骤S405,对融合增广图像进行图像增广,得到增广文字图像。
下面对步骤S401至步骤S405进行详细描述。
在一些实施例的步骤S401中,对第一样本文本行图像、第二样本文本行图像进行整合,得到训练图像。
训练图像是第一样本文本行图像、第二样本文本行图像的总和。
在该实施例具体实现时,将第一样本文本行图像、第二样本文本行图像纳入同一个集合,将这个集合中的所有图像作为训练图像。
在一些实施例的步骤S402中,对训练图像中的文字进行增广处理,得到第一增广图像。
本申请实施例中对训练图像中的文字行增广的方式包括但不限于包括:模糊变换(Blur)、模拟文字墨水溢出效果(InkBleed)、墨水溢出效果(DirtyInk)、对输入图像应用抖动(Dithering)、模拟文档传真效果(Faxity)、模仿油墨不均匀地压在纸上地效果(letterpress)、创建一组在整个图像中以周期性方式重复地线条(LowInkLine)、在训练图像中添加平滑地文本划线、高亮或下划线下过(Markup)等等。
需要说明的是,本申请实施例中对训练图像中的文字行增广的方式可以自由组合使用,不做限制。
在该实施例具体实现时,首先对训练图像中的文字进行模拟文字墨水溢出效果,接着,将经过模拟文字墨水溢出效果的训练图像创建一组在整个图像中以周期性方式重复地线条,最后,将经过模拟文字墨水溢出效果、且创建一组重复地线条的训练图像进行模糊变换,得到第一增广图像。
在一些实施例的步骤S403中,对训练图像的文本行背景进行增广处理,得到第二增广图像。
本申请实施例中对训练图像的文本行背景进行增广的方式包括但不限于包括:背景纹理的明暗对比度变化、在背景上添加随机噪声、改变输入背景的色相和饱和度等等。
需要说明的是,本申请实施例中对训练图像的文本行背景进行增广的方式可以自由组合使用,不做限制。
在该实施例具体实现时,首先对训练图像的文本行背景进行添加随机噪声。接着,将添加了随机噪声的文本行背景进行色相和饱和度调整,得到第二增广图像。
在一些实施例的步骤S404中,对第一增广图像和第二增广图像进行图像融合,得到融合增广图像。
在该实施例具体实现时,在对第一增广图像和第二增广图像进行图像融合时,首先提取第一增广图像的第一图像特征,并提取第二增广图像的第二图像特征,其中,第一图像特征用于表征第一增广图像的全部图像信息,第二图像特征用于表征第二增广图像的全部图像信息。接着,将提取到的第一图像特征和第二图像特征进行特征拼接,得到拼接图像特征。最后,基于拼接图像特征,生成融合增广图像。
在一些实施例的步骤S405中,对融合增广图像进行图像增广,得到增广文字图像。
本申请实施例中对融合增广图像进行图像增广的方式包括但不限于包括:为图像的上下左右两侧加入边框效果(PaperBorder)、调整图像亮度(Brightness)、图像Gamma矫正等。
需要说明的是,本申请实施例中对融合增广图像进行图像增广的方式可以自由组合使用,不做限制。
在该实施例具体实现时,首先对融合增广图像进行亮度调整。接着,对将经过亮度调整的融合增广图像的上下左右两侧加入边框效果,将最终生成的图像作为增广文字图像。
通过上述步骤S401至步骤S405能够通过多种形式的增广处理对训练图像的、文字、背景进行增强处理,模拟生成打印、扫描、复印时可能产生的噪声数据,以及各种物理形变等,实现了对训练图像的多维度增广,使得得到的增广文字图像更加多样化,能够有利于提高模型在实际应用场景的鲁棒性。另外,本申请实施例中的增广文字图像更多来源于虚拟生成或者按照上述增广处理得到,能够满足模型训练时需要较大数据量的要求,仅需较少的带标注的文本行图像就可以实现大量的数据增强,能够极大地减少人工标注成本和标注耗时。
在步骤S105中,基于第一样本文本行图像、第二样本文本行图像、增广文字图像对预设的神经网络模型进行训练,得到图像识别模型。
预设的神经网络模型指的是基于轻量化模型构建而成的模型,其中,轻量化模型包括但不限于包括MobileNet等等。
图像识别模型指的是利用一系列的文本行图像、和增广文字图像作为训练样本,并基于ctc损失函数对预设的神经网络模型进行训练得到的模型,图像识别模型能够用于对输入的文字图像中的文字内容进行识别。
请参阅图5,在一些实施例中,步骤S105可以包括但不限于包括步骤S501至步骤S505:
步骤S501,对第一样本文本行图像、第二样本文本行图像、增广文字图像进行整合,得到目标训练图像,其中,目标训练图像具有文字内容标签;
步骤S502,基于神经网络模型对目标训练图像进行第一卷积处理,得到训练图像特征;
步骤S503,基于神经网络模型对训练图像特征进行激活处理,得到激活图像特征;
步骤S504,基于神经网络模型对激活图像特征进行第二卷积处理,得到内容识别结果,其中,内容识别结果用于指示目标训练图像的预测文字内容;
步骤S505,基于内容识别结果和文字内容标签对神经网络模型进行训练,得到图像识别模型。
下面对步骤S501至步骤S505进行详细描述。
在一些实施例的步骤S501中,对第一样本文本行图像、第二样本文本行图像、增广文字图像进行整合,得到目标训练图像,其中,目标训练图像具有文字内容标签。
目标训练图像是第一样本文本行图像、第二样本文本行图像、增广文字图像的总和。文字内容标签用于指示目标训练图像的文字内容。
在该实施例具体实现时,将第一样本文本行图像、第二样本文本行图像、增广文字图像纳入同一个集合,将这个集合中的所有图像作为目标训练图像。
需要说明的是,当目标训练图像是第一样本文本行图像、或者是基于第一样本文本行图像的增广文字图像时,目标训练图像的文字内容标签是样本文字图像中文本检测框的文本内容。当目标训练图像是第二样本文本行图像、或者是基于第二样本文本行图像的增广文字图像时,目标训练图像的文字内容标签是上述的参考文字内容。
在一些实施例的步骤S502中,基于神经网络模型对目标训练图像进行第一卷积处理,得到训练图像特征。
在该实施例具体实现时,基于神经网络模型对目标训练图像进行第一卷积处理,提取目标训练图像中的图像内容信息,得到训练图像特征。
在一些实施例的步骤S503中,基于神经网络模型对训练图像特征进行激活处理,得到激活图像特征。
在该实施例具体实现时,基于神经网络模型对训练图像特征进行激活处理,将训练图像特征进行特征映射,使训练图像特征被映射到预设的向量空间,得到激活图像特征。
在一些实施例的步骤S504中,基于神经网络模型对激活图像特征进行第二卷积处理,得到内容识别结果,其中,内容识别结果用于指示目标训练图像的预测文字内容。
在该实施例具体实现时,基于神经网络模型对激活图像特征进行第二卷积处理,预测激活图像特征中的文字内容信息,得到目标训练图像的预测文字内容,将目标训练图像的预测文字内容作为内容识别结果。
在一些实施例的步骤S505中,基于内容识别结果和文字内容标签对神经网络模型进行训练,得到图像识别模型。
在该实施例具体实现时,先对内容识别结果和文字内容标签进行损失计算,得到模型损失数据,再基于模型损失数据对神经网络模型进行参数调整,以训练神经网络模型,得到图像识别模型。
通过上述步骤S501至步骤S505能够将第一样本文本行图像、第二样本文本行图像、增广文字图像整合成目标训练图像,使目标训练图像更多、且更加多样化,有利于提高模型的训练效果。另外,增广文字图像对现实场景中可能存在的低质量文档图片的模拟,采用增广文字图像进行模型训练,能让模型学习到真实场景中的数据分布,进而在针对真实文本图片进行识别时,能有更好的鲁棒性,且能极大提高模型识别准确率。
请参阅图6,在一些实施例,步骤S505包括但不限于包括步骤S601至步骤S602:
步骤S601,对内容识别结果和文字内容标签进行损失计算,得到模型损失数据;
步骤S602,基于模型损失数据对神经网络模型进行参数调整,以训练神经网络模型,得到图像识别模型。
下面对步骤S601至步骤S602进行详细描述。
在一些实施例的步骤S601中,对内容识别结果和文字内容标签进行损失计算,得到模型损失数据。
模型损失数据用于指示目标训练图像的内容识别结果和文字内容标签的整体差异程度。
在该实施例具体实现时,将交叉熵损失函数作为损失计算的损失函数。利用交叉熵损失函数来衡量内容识别结果和文字内容标签之间的差异程度。具体地,首先利用交叉熵损失函数计算每个目标训练图像的内容识别结果和文字内容标签的损失数据。接着,将所有目标训练图像的损失数据进行求平均,得到模型损失数据。
在一些实施例的步骤S602中,基于模型损失数据对神经网络模型进行参数调整,以训练神经网络模型,得到图像识别模型。
在该实施例具体实现时,基于反向传播算法对模型损失数据进行反向传播,根据模型损失数据对神经网络模型的模型参数进行调整,并不断地重复上述步骤S501至步骤S505,在每个迭代训练轮次中,将模型损失数据和预设阈值进行比较,直到模型损失数据小于预设阈值,停止迭代训练。将使模型损失数据小于预设阈值得迭代轮次中的模型参数作为最终的模型参数,从而完成对神经网络模型的训练,得到图像识别模型。
通过上述步骤S601至步骤S602能够利用反向传播算法对模型损失数据进行反向传播,以根据模型损失数据与预设阈值的大小关系来不断地对神经网络模型进行迭代训练,能够提高模型的训练速度和训练效果,使训练得到的图像识别模型能够具备较好的识别精度。
在步骤S106中,获取目标文字图像,基于图像识别模型对目标文字图像进行识别处理,得到目标文字图像的文字内容数据。
目标文字图像指的是需要识别图像中的文字内容的文字图像。
文字内容数据指的是经由图像识别模型识别出的目标文字图像中的文字内容。
在该实施例具体实现时,获取目标文字图像的具体实现过程与上述步骤S101中获取样本文字图像的具体实现过程类似。区别在于,步骤S106获取的目标文字图像是需要识别图像中的文字内容的文字图像,目的在于进行图像识别;而步骤S101获取的是样本文字图像,目的在于利用样本文字图像构建训练数据,以进行模型训练。为节省篇幅,不再赘述。
请参阅图7,在一些实施例中,步骤S106可以包括但不限于包括步骤S701至步骤S703:
步骤S701,对目标文字图像进行文本位置检测,得到目标文本框;
步骤S702,基于目标文本框对目标文字图像进行抠图处理,得到目标文字图像的目标行文本图像;
步骤S703,基于图像识别模型对目标行文本图像进行内容识别,得到文字内容数据。
下面对步骤S701至步骤S703进行详细描述。
在一些实施例的步骤S701中,对目标文字图像进行文本位置检测,得到目标文本框。
本申请实施例中可以利用可微二值化模型(Differenttiable Binarizationmodule,DBNet)对目标文字图像进行文本位置检测。其中,可微二值化模型包含特征提取网络、特征金字塔网络、和卷积网络。
在该实施例具体实现时,首先将目标文字图像输入至可微二值化模型中,经由特征提取网络对目标文字图像进行特征提取,得到目标图像特征,接着,经由特征金字塔网络对目标图像特征进行特征增强,得到目标增强图像特征。进一步地,经由卷积层对目标增强图像特征进行文本区域预测,得到目标文本区域预测概率图和目标阈值图。最后,根据目标阈值图和目标文本区域预测概率图对目标文字图像进行文本区域框选,得到目标文字图像的目标文本检测框。其中,针对目标文字图像,在目标文本检测框内的图像部分即为目标文字图像的文字内容部分。
在一些实施例的步骤S702中,基于目标文本框对目标文字图像进行抠图处理,得到目标文字图像的目标行文本图像。
在该实施例具体实现时,可以利用OpenCV等图像处理工具,基于目标文本框的坐标对目标文字图像进行抠图处理,将目标文本框所圈定的图像区域从目标文字图像中截取出来,将截取处理的图像区域作为目标文字图像的目标行文本图像。
在一些实施例的步骤S703中,基于图像识别模型对目标行文本图像进行内容识别,得到文字内容数据。
在该实施例具体实现时,首先基于图像识别模型对目标行文本图像进行第一卷积处理,得到目标图像特征。接着,基于图像识别模型对目标图像特征进行激活处理,得到激活图像特征。最后,基于图像识别模型对激活图像特征进行第二卷积处理,得到文字内容数据。
需要说明的是,步骤S703的具体实现过程与上述步骤S502-步骤S504的具体实现过程类似。为节省篇幅,不再赘述。
通过上述步骤S701至步骤S703能够先对目标文字图像进行文本位置检测,得到目标文本框,基于目标文本框对目标文字图像进行抠图处理,得到目标文字图像的目标行文本图像,消除目标文字图像中不相干图像内容对内容识别的干扰。进一步地,基于图像识别模型对目标行文本图像进行内容识别,得到文字内容数据,能够提高图像内容识别的准确性和效率。
请参阅图8,本申请实施例还提供一种图像识别装置,可以实现上述图像识别方法,该装置包括:
样本获取模块801,用于获取样本文字图像;
图像分割模块802,用于对样本文字图像进行图像分割,得到第一样本文本行图像;
图像生成模块803,用于基于预设的参考文字内容进行图像生成,得到第二样本文本行图像;
数据增广模块804,用于对第一样本文本行图像、第二样本文本行图像进行数据增广,得到增广文字图像;
训练模块805,用于基于第一样本文本行图像、第二样本文本行图像、增广文字图像对预设的神经网络模型进行训练,得到图像识别模型;
图像识别模块806,用于获取目标文字图像,基于图像识别模型对目标文字图像进行识别处理,得到目标文字图像的文字内容数据。
该图像识别装置的具体实施方式与上述图像识别方法的具体实施例基本相同,在此不再赘述。
本申请实施例还提供了一种电子设备,电子设备包括:存储器、处理器、存储在存储器上并可在处理器上运行的程序以及用于实现处理器和存储器之间的连接通信的数据总线,程序被处理器执行时实现上述图像识别方法。该电子设备可以为包括平板电脑、车载电脑等任意智能终端。
请参阅图9,图9示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器901,可以采用通用的CPU(CentralProcessingUnit,中央处理器)、微处理器、应用专用集成电路(ApplicationSpecificIntegratedCircuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本申请实施例所提供的技术方案;
存储器902,可以采用只读存储器(ReadOnlyMemory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(RandomAccessMemory,RAM)等形式实现。存储器902可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器902中,并由处理器901来调用执行本申请实施例的图像识别方法;
输入/输出接口903,用于实现信息输入及输出;
通信接口904,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WI F I、蓝牙等)实现通信;
总线905,在设备的各个组件(例如处理器901、存储器902、输入/输出接口903和通信接口904)之间传输信息;
其中处理器901、存储器902、输入/输出接口903和通信接口904通过总线905实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种计算机可读存储介质,计算机可读存储介质存储有一个或者多个程序,一个或者多个程序可被一个或者多个处理器执行,以实现上述图像识别方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本申请实施例提供的图像识别方法、图像识别装置、电子设备及计算机可读存储介质,其通过获取样本文字图像;对样本文字图像进行图像分割,得到第一样本文本行图像;基于预设的参考文字内容进行图像生成,得到第二样本文本行图像,能够提高行文本图像的来源多样性。接着,对第一样本文本行图像、第二样本文本行图像进行数据增广,得到增广文字图像,能够较为方便地增加用于模型训练的文字图像的数目。进一步地,基于第一样本文本行图像、第二样本文本行图像、增广文字图像对预设的神经网络模型进行训练,得到图像识别模型,能够通过扩大模型训练的训练图像数量来提高模型训练效果,使图像识别模型具备较好的图像内容识别精度。最后,获取目标文字图像,基于图像识别模型对目标文字图像进行识别处理,得到目标文字图像的文字内容数据,能够提高对低质量图像中的文字内容的识别准确性和效率。
本申请实施例描述的实施例是为了更加清楚的说明本申请实施例的技术方案,并不构成对于本申请实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本申请实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图1-7中示出的技术方案并不构成对本申请实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,上述单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
上述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台计算机设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例的方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,简称ROM)、随机存取存储器(Random Access Memory,简称RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本申请实施例的优选实施例,并非因此局限本申请实施例的权利范围。本领域技术人员不脱离本申请实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本申请实施例的权利范围之内。

Claims (10)

1.一种图像识别方法,其特征在于,所述方法包括:
获取样本文字图像;
对所述样本文字图像进行图像分割,得到第一样本文本行图像;
基于预设的参考文字内容进行图像生成,得到第二样本文本行图像;
对所述第一样本文本行图像、所述第二样本文本行图像进行数据增广,得到增广文字图像;
基于所述第一样本文本行图像、所述第二样本文本行图像、所述增广文字图像对预设的神经网络模型进行训练,得到图像识别模型;
获取目标文字图像,基于所述图像识别模型对所述目标文字图像进行识别处理,得到所述目标文字图像的文字内容数据。
2.根据权利要求1所述的图像识别方法,其特征在于,所述对所述第一样本文本行图像、所述第二样本文本行图像进行数据增广,得到增广文字图像,包括:
对所述第一样本文本行图像、所述第二样本文本行图像进行整合,得到训练图像;
对所述训练图像中的文字进行增广处理,得到第一增广图像;
对所述训练图像的文本行背景进行增广处理,得到第二增广图像;
对所述第一增广图像和所述第二增广图像进行图像融合,得到融合增广图像;
对所述融合增广图像进行图像增广,得到所述增广文字图像。
3.根据权利要求1所述的图像识别方法,其特征在于,所述对所述样本文字图像进行图像分割,得到第一样本文本行图像,包括:
对所述样本文字图像进行文本位置检测,得到所述样本文字图像的文本检测框;
对所述文本检测框进行文本内容检测,确定所述文本检测框的文本内容;
基于所述文本内容和所述文本检测框对所述样本文字图像进行图像分割,得到所述第一样本文本行图像。
4.根据权利要求1所述的图像识别方法,其特征在于,所述基于所述图像识别模型对所述目标文字图像进行识别处理,得到所述目标文字图像的文字内容数据,包括:
对所述目标文字图像进行文本位置检测,得到目标文本框;
基于所述目标文本框对所述目标文字图像进行抠图处理,得到所述目标文字图像的目标行文本图像;
基于所述图像识别模型对所述目标行文本图像进行内容识别,得到所述文字内容数据。
5.根据权利要求1所述的图像识别方法,其特征在于,所述基于所述第一样本文本行图像、所述第二样本文本行图像、所述增广文字图像对预设的神经网络模型进行训练,得到图像识别模型,包括
对所述第一样本文本行图像、所述第二样本文本行图像、所述增广文字图像进行整合,得到目标训练图像,其中,目标训练图像具有文字内容标签;
基于所述神经网络模型对所述目标训练图像进行第一卷积处理,得到训练图像特征;
基于所述神经网络模型对所述训练图像特征进行激活处理,得到激活图像特征;
基于所述神经网络模型对所述激活图像特征进行第二卷积处理,得到内容识别结果,其中,所述内容识别结果用于指示所述目标训练图像的预测文字内容;
基于所述内容识别结果和所述文字内容标签对所述神经网络模型进行训练,得到所述图像识别模型。
6.根据权利要求5所述的图像识别方法,其特征在于,所述基于所述内容识别结果和所述文字内容标签对所述神经网络模型进行训练,得到所述图像识别模型,包括:
对所述内容识别结果和所述文字内容标签进行损失计算,得到模型损失数据;
基于所述模型损失数据对所述神经网络模型进行参数调整,以训练所述神经网络模型,得到所述图像识别模型。
7.根据权利要求1所述的图像识别方法,其特征在于,所述基于预设的参考文字内容进行图像生成,得到第二样本文本行图像,包括:
调用文本渲染组件;
基于所述文本渲染组件将所述参考文字内容渲染至预设模板图像,得到所述第二样本文本行图像。
8.一种图像识别装置,其特征在于,所述装置包括:
样本获取模块,用于获取样本文字图像;
图像分割模块,用于对所述样本文字图像进行图像分割,得到第一样本文本行图像;
图像生成模块,用于基于预设的参考文字内容进行图像生成,得到第二样本文本行图像;
数据增广模块,用于对所述第一样本文本行图像、所述第二样本文本行图像进行数据增广,得到增广文字图像;
训练模块,用于基于所述第一样本文本行图像、所述第二样本文本行图像、所述增广文字图像对预设的神经网络模型进行训练,得到图像识别模型;
图像识别模块,用于获取目标文字图像,基于所述图像识别模型对所述目标文字图像进行识别处理,得到所述目标文字图像的文字内容数据。
9.一种电子设备,其特征在于,所述电子设备包括存储器和处理器,所述存储器存储有计算机程序,所述处理器执行所述计算机程序时实现权利要求1至7任一项所述的图像识别方法。
10.一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,其特征在于,所述计算机程序被处理器执行时实现权利要求1至7中任一项所述的图像识别方法。
CN202311492565.1A 2023-11-08 2023-11-08 图像识别方法、图像识别装置、电子设备及存储介质 Pending CN117558007A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311492565.1A CN117558007A (zh) 2023-11-08 2023-11-08 图像识别方法、图像识别装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311492565.1A CN117558007A (zh) 2023-11-08 2023-11-08 图像识别方法、图像识别装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN117558007A true CN117558007A (zh) 2024-02-13

Family

ID=89822536

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311492565.1A Pending CN117558007A (zh) 2023-11-08 2023-11-08 图像识别方法、图像识别装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN117558007A (zh)

Similar Documents

Publication Publication Date Title
US20150093021A1 (en) Table recognizing method and table recognizing system
US20150095022A1 (en) List recognizing method and list recognizing system
CN113688837B (zh) 图像脱敏方法、装置、电子设备及计算机可读存储介质
CN115526259A (zh) 一种多模态预训练模型的训练方法和装置
CN111666937A (zh) 一种图像中的文本识别方法及系统
CN114821613A (zh) 一种pdf中表格信息的抽取方法和系统
Kawabe et al. Application of deep learning to classification of braille dot for restoration of old braille books
CN117373591A (zh) 电子病历的疾病识别方法和装置、电子设备及存储介质
CN116701604A (zh) 问答语料库的构建方法和装置、问答方法、设备及介质
CN116543798A (zh) 基于多分类器的情感识别方法和装置、电子设备、介质
CN114399782B (zh) 文本图像处理方法、装置、设备、存储介质及程序产品
CN111753836A (zh) 文字识别方法、装置、计算机可读介质及电子设备
CN114398903B (zh) 意图识别方法、装置、电子设备及存储介质
CN117558007A (zh) 图像识别方法、图像识别装置、电子设备及存储介质
CN115034177A (zh) 演示文稿转换方法、装置、设备及存储介质
CN115204300A (zh) 文本和表格语义交互的数据处理方法、装置及存储介质
CN117037171A (zh) 证件图像识别方法和装置、电子设备及存储介质
Dinesh Reddy et al. Deep Neural Transfer Network Technique for Lung Cancer Detection
CN117037170A (zh) 图像信息提取方法和装置、电子设备、存储介质
Gupta et al. Artificial Eye for the Visually Impaired
CN115063819A (zh) 一种信息提取方法、信息提取系统、电子设备及存储介质
CN117422886A (zh) 垃圾检测方法、系统、电子设备及存储介质
CN116310346A (zh) 图像分割方法、图像分割装置、电子设备及存储介质
CN115294557A (zh) 图像处理方法、图像处理装置、电子设备及存储介质
CN117373043A (zh) 图片信息抽取方法和装置、电子设备、存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination