CN115294557A - 图像处理方法、图像处理装置、电子设备及存储介质 - Google Patents

图像处理方法、图像处理装置、电子设备及存储介质 Download PDF

Info

Publication number
CN115294557A
CN115294557A CN202210949907.7A CN202210949907A CN115294557A CN 115294557 A CN115294557 A CN 115294557A CN 202210949907 A CN202210949907 A CN 202210949907A CN 115294557 A CN115294557 A CN 115294557A
Authority
CN
China
Prior art keywords
image
segmentation
target
original
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202210949907.7A
Other languages
English (en)
Inventor
易苗
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ping An Life Insurance Company of China Ltd
Original Assignee
Ping An Life Insurance Company of China Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ping An Life Insurance Company of China Ltd filed Critical Ping An Life Insurance Company of China Ltd
Priority to CN202210949907.7A priority Critical patent/CN115294557A/zh
Publication of CN115294557A publication Critical patent/CN115294557A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/26Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
    • G06V10/267Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion by performing operations on regions, e.g. growing, shrinking or watersheds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/28Quantising the image, e.g. histogram thresholding for discrimination between background and foreground patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/42Global feature extraction by analysis of the whole pattern, e.g. using frequency domain transformations or autocorrelation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/70Labelling scene content, e.g. deriving syntactic or semantic representations

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Character Input (AREA)

Abstract

本实施例涉及人工智能技术领域,尤其涉及一种图像处理方法、图像处理装置、电子设备及存储介质。其中,图像处理方法包括:获取原始图像数据;其中,原始图像数据包括原始证件图像;对原始证件图像进行背景分割处理,得到初始证件图像;将初始证件图像输入至预设的目标语义分割模型进行区域分割处理,得到原始分割图像;对原始分割区域进行区域划分,得到第一目标区域;其中,第一目标区域用于表征证件所在区域;获取第一目标区域的顶点坐标;根据顶点坐标和预设的标准坐标进行映射关系计算,得到映射参数;根据映射参数对初始证件图像进行矫正处理,得到目标证件图像。本申请实施例的技术方案,能够提高证件识别的识别精度和识别效率。

Description

图像处理方法、图像处理装置、电子设备及存储介质
技术领域
本发明涉及人工智能领域,尤其涉及一种图像处理方法、图像处理装置、电子设备及存储介质。
背景技术
证件识别,是指通过光学字符识别(Optical Character Recognition,OCR)技术将如身份证、银行卡、出生医学证明、营业执照等证件图像上的文字内容识别为结构化文本的过程。
相关技术中,证件识别对证件图像的规范要求较高。但在实际拍摄中,受光线、背景等因素的影响,所获取的证件图像往往不符合该规范要求,从而对证件识别的识别精度,以及证件识别的识别效率造成影响。
发明内容
本申请实施例的主要目的在于提出一种图像处理方法、图像处理装置、电子设备及存储介质,能够提高证件识别的识别精度和识别效率。
为实现上述目的,本申请实施例的第一方面提出了一种图像处理方法,包括:
获取原始图像数据;其中,所述原始图像数据包括原始证件图像;
对所述原始证件图像进行背景分割处理,得到初始证件图像;
将所述初始证件图像输入至预设的目标语义分割模型进行区域分割处理,得到原始分割图像;其中,所述原始分割图像包括原始分割区域;
对所述原始分割区域进行区域划分,得到第一目标区域;其中,所述第一目标区域用于表征证件所在区域;
获取所述第一目标区域的顶点坐标;
根据所述顶点坐标和预设的标准坐标进行映射关系计算,得到映射参数;
根据所述映射参数对所述初始证件图像进行矫正处理,得到目标证件图像。
在一些实施例中,所述对所述原始分割区域进行区域划分,得到第一目标区域,包括:
获取所述原始分割区域的边界长度;
对多个所述边界长度进行求和,得到总长度;
对多个所述总长度进行比较,得到长度最大值;
将所述长度最大值的所述原始分割区域作为所述第一目标区域。
在一些实施例中,所述原始分割图像还包括所述原始分割区域的第一标签值;
所述对所述原始分割区域进行区域划分,得到第一目标区域,包括:
获取所述第一标签值的第一标签属性;其中,所述第一标签属性用于表征所述原始分割区域的第一分割对象,所述第一分割对象包括所述证件所在区域;
将所述证件所在区域的所述原始分割区域作为所述第一目标区域。
在一些实施例中,所述原始分割图像还包括所述原始分割区域的颜色值;
所述对所述原始分割区域进行区域划分,得到第一目标区域,包括:
获取所述颜色值;
将与预设值相等的所述颜色值作为目标值;
将所述目标值的所述原始分割区域作为所述第一目标区域。
在一些实施例中,在所述将所述初始证件图像输入至预设的目标语义分割模型进行区域分割处理,得到原始分割图像之前,所述方法还包括训练所述目标语义分割模型,具体包括:
获取原始样本数据;其中,所述原始样本数据包括原始样本证件图像;
对所述原始样本证件图像进行背景分割处理,得到初始样本证件图像;
获取所述初始样本证件图像的训练分割图像;其中,所述训练分割图像包括训练分割区域;
根据所述初始样本证件图像、所述训练分割图像对预设的原始语义分割模型进行训练处理,得到所述目标语义分割模型。
在一些实施例中,所述根据所述映射参数对所述初始证件图像进行矫正处理,得到目标证件图像,包括:
根据所述映射参数对所述初始证件图像进行矫正处理,得到待识别证件图像;
将所述待识别证件图像输入至预设的分类模型进行类型检测,得到放置类型;其中,所述放置类型包括倒置;
将所述倒置的所述待识别证件图像进行旋转处理,得到所述目标证件图像。
在一些实施例中,所述方法还包括:
根据所述映射参数对所述原始分割图像进行矫正处理,得到目标分割图像;其中,所述目标分割图像包括目标分割区域和所述目标分割区域的第二标签值;
获取所述第二标签值的第二标签属性;其中,所述第二标签属性用于表征所述目标分割区域的第二分割对象,所述第二分割对象包括关键字段所在区域;
将所述关键字段所在区域的所述目标分割区域作为第二目标区域;
根据所述第二目标区域从所述目标证件图像中获取待识别字段图像;
将所述待识别字段图像输入至预设的文字识别模型进行文字识别,得到所述关键字段。
为实现上述目的,本申请实施例的第二方面提出了一种图像处理装置,包括:
图像数据获取模块,用于获取原始图像数据;其中,所述原始图像数据包括原始证件图像;
背景分割模块,用于对所述原始证件图像进行背景分割处理,得到初始证件图像;
语义分割模块,用于将所述初始证件图像输入至预设的目标语义分割模型进行区域分割处理,得到原始分割图像;其中,所述原始分割图像包括原始分割区域;
矫正模块,用于对所述原始分割区域进行区域划分,得到第一目标区域;其中,所述第一目标区域用于表征证件所在区域;获取所述第一目标区域的顶点坐标;根据所述顶点坐标和预设的标准坐标进行映射关系计算,得到映射参数;根据所述映射参数对所述初始证件图像进行矫正处理,得到目标证件图像。
为实现上述目的,本申请实施例的第三方面提出了一种电子设备,包括:
至少一个存储器;
至少一个处理器;
至少一个计算机程序;
所述计算机程序被存储在所述存储器中,处理器执行所述至少一个计算机程序以实现:
如第一方面所述的图像处理方法。
为实现上述目的,本申请实施例的第四方面提出了一种计算机可读存储介质,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行:
如第一方面所述的图像处理方法。
本申请实施例提供的图像处理方法、图像处理装置、电子设备及存储介质,通过对原始证件图像进行背景分割处理,避免了背景对后续区域分割处理的影响。通过将背景分割处理得到的初始证件图像作为目标语义分割模型的输入数据,得到以目标证件所在区域、关键字段所在区域作为感兴趣区域的原始分割图像。并通过原始分割图像中表征目标证件所在区域的第一目标区域的顶点坐标,以及目标证件的标准坐标,得到用于进行图像畸变矫正的映射参数,从而避免了相关技术中通过边缘检测直接获取目标证件所在区域的顶点坐标,并根据该顶点坐标进行图像畸变矫正时,若边缘检测容易受到光照、拍摄角度、背景等的干扰,则无法有效获取顶点坐标的问题。通过映射参数对初始证件图像进行矫正处理,得到符合证件识别规范要求的目标证件图像。由此可知,本申请实施例提供的图像处理方法,能够在一定程度上避免光照、拍摄角度、背景等的干扰,从而能够提高后续证件识别的识别精度性和识别效率。
附图说明
图1是本申请实施例图像处理方法的一流程示意图;
图2A是本申请实施例原始证件图像的一示意图;
图2B是本申请实施例初始证件图像的一示意图;
图2C是本申请实施例对原始证件图像进行目标检测的一示意图;
图3是本申请实施例原始分割图像的一示意图;
图4是本申请实施例标准识别规范图像的一示意图;
图5是本申请实施例对目标证件图像的一示意图;
图6是本申请实施例图像处理方法的另一流程示意图;
图7是本申请实施例图像处理方法的另一流程示意图;
图8是本申请实施例图像处理方法的另一流程示意图;
图9是本申请实施例图像处理方法的另一流程示意图;
图10是本申请实施例图像处理方法的另一流程示意图;
图11是本申请实施例图像处理方法的另一流程示意图;
图12是本申请实施例目标分割图像的一示意图;
图13是本申请实施例图像处理装置的一模块示意图;
图14是本申请实施例电子设备的硬件结构示意图。
具体实施方式
为了使本申请的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本申请进行进一步详细说明。应当理解,此处所描述的具体实施例仅用以解释本申请,并不用于限定本申请。
需要说明的是,虽然在装置示意图中进行了功能模块划分,在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于装置中的模块划分,或流程图中的顺序执行所示出或描述的步骤。说明书和权利要求书及上述附图中的术语“第一”、“第二”等是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。
除非另有定义,本文所使用的所有的技术和科学术语与属于本申请的技术领域的技术人员通常理解的含义相同。本文中所使用的术语只是为了描述本申请实施例的目的,不是旨在限制本申请。
首先,对本申请中涉及的若干名词进行解析:
人工智能(Artificial Intelligence,AI):是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学;人工智能是计算机科学的一个分支,人工智能企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能可以对人的意识、思维的信息过程的模拟。人工智能还是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
自然语言处理(natural language processing,NLP):NLP用计算机来处理、理解以及运用人类语言(如中文、英文等),NLP属于人工智能的一个分支,是计算机科学与语言学的交叉学科,又常被称为计算语言学。自然语言处理包括语法分析、语义分析、篇章理解等。自然语言处理常用于机器翻译、手写体和印刷体字符识别、语音识别及文语转换、信息检索、信息抽取与过滤、文本分类与聚类、舆情分析和观点挖掘等技术领域,它涉及与语言处理相关的数据挖掘、机器学习、知识获取、知识工程、人工智能研究和与语言计算相关的语言学研究等。
光学字符识别(Optical Character Recognition,OCR):OCR是指电子设备检查纸上打印的字符,通过检测暗、亮的模式确定其形状,然后用字符识别方法将形状翻译成对应文字的过程。对应的,OCR文字识别指利用OCR技术,将图像、照片上的文字内容,直接转换为可编辑文本的过程。
目标检测(Object Detection):也称为目标提取,是一种基于目标几何和统计特征的图像分割,其将目标的分割和识别合二为一。目标检测的任务是找出图像中所有感兴趣的目标(物体),确定它们的类别和位置,目标检测是计算机视觉领域的核心问题之一。传统的目标检测方法主要包括目标特征提取、目标识别、目标定位等步骤。具体地,通过HOG(Histogram of Oriented Gradient,方向梯度直方图特征)、SURF(Speeded Up RobustFeatures,加速稳健特征)等方法对图像进行特征提取,通过这些特征对目标进行识别,然后再结合相应的定位策略对目标进行定位。基于深度学习的目标检测方法主要包括图像的深度特征提取、基于深度神经网络的目标识别与定位等步骤。其中,基于深度学习的目标检测算法主要包括以下三类:第一类,基于区域建议的目标检测,包括R-CNN、Fast-R-CNN、Faster-R-CNN等算法;第二类,基于回归的目标检测,包括YOLO、SDD等算法;第三类,基于搜索的目标检测,包括基于视觉注意的AteentionNet、基于强化学习的算法等。
语义分割(Semantic Segmentation):是一种计算视觉任务,其用于将原始数据(如平面图像)作为输入,并将该原始数据转换为具有突出显示的感兴趣区域的掩模。其中,图像中的每个像素根据其所属的感兴趣区域被分配不同的类别ID。与图像分类、目标检测等其他基于图像的任务相比,语义分割是通过查找像素识别图像中存在的内容以及位置,即语义分割实现了图像像素级的分类。语义分割可分为标准语义分割(standard semanticsegmentation)和实例感知语义分割(instance aware semantic segmentation)。其中,标准语义分割也被称为全像素语义分割,其是将每个像素分类为属于对象类的过程;实例感知语义分割是标准语义分割的子类型,其是将每个像素分类为属于对象类以及该类的实体ID。
图像畸变矫正:由于相机制造精度以及组装工艺的偏差引入的畸变,或者由于照片拍摄时的角度、旋转、缩放等问题,可能会导致原始图像失真。如果要修复这些失真,可以通过透视变化(Perspective Transmation)、仿射变换(Affine Transmation)等方法对图像进行畸变校正。其中,透视变换是将图像投影至一个新的视平面,也称为投影映射。透视变换的目的是把现实中为直线,但在图像上可能呈现为斜线的物体,通过透视变换转换成直线的变换。仿射变换又称为仿射映射,是指在几何中,图像从一个向量空间进行一次线性变换和一次平移,变换到另一个向量空间的过程。因此,仿射变换为透视变换的特例。
证件识别,是指通过光学字符识别(Optical Character Recognition,OCR)技术将如身份证、银行卡、出生医学证明、营业执照等证件图像上的文字内容识别为结构化文本的过程。
相关技术中,证件识别对证件图像的规范要求较高,如对证件图像中证件的放置角度、证件图像的亮度等要求较高。但在实际拍摄中,受光线、背景等因素的影响,所获取的证件图像往往不符合该规范要求,从而对证件识别的识别精度,以及证件识别的识别效率造成影响。
基于此,本申请实施例提供了一种图像处理方法、图像处理装置、电子设备及存储介质,能够降低光线、背景等因素对证件识别的影响,从而提高证件识别的识别精度和识别效率。
本申请实施例可以基于人工智能技术对相关的数据进行获取和处理。其中,人工智能(Artificial Intelligence,AI)是利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、方法、技术及应用系统。
人工智能基础技术一般包括如传感器、专用人工智能芯片、云计算、分布式存储、大数据处理技术、操作/交互系统、机电一体化等技术。人工智能软件技术主要包括计算机视觉技术、机器人技术、生物识别技术、语音处理技术、自然语言处理技术以及机器学习/深度学习等几大方向。
本申请实施例提供的图像处理方法,涉及人工智能技术领域,尤其涉及图像处理技术领域。本申请实施例提供的图像处理方法可应用于终端中,也可应用于服务器端中,还可以是运行于终端或服务器端中的软件。在一些实施例中,终端可以是智能手机、平板电脑、笔记本电脑、台式计算机或者智能手表等;服务器可以是独立的服务器,也可以是提供云服务、云数据库、云计算、云函数、云存储、网络服务、云通信、中间件服务、域名服务、安全服务、内容分发网络(Content Delivery Network,CDN)、以及大数据和人工智能平台等基础云计算服务的云服务器;软件可以是实现图像处理方法的应用等,但并不局限于以上形式。
本申请可用于众多通用或专用的计算机系统环境或配置中。例如:个人计算机、服务器计算机、手持设备或便携式设备、平板型设备、多处理器系统、基于微处理器的系统、置顶盒、可编程的消费电子设备、网络PC、小型计算机、大型计算机、包括以上任何系统或设备的分布式计算环境等等。本申请可以在由计算机执行的计算机可执行指令的一般上下文中描述,例如程序模块。一般地,程序模块包括执行特定任务或实现特定抽象数据类型的例程、程序、对象、组件、数据结构等等。也可以在分布式计算环境中实践本申请,在这些分布式计算环境中,由通过通信网络而被连接的远程处理设备来执行任务。在分布式计算环境中,程序模块可以位于包括存储设备在内的本地和远程计算机存储介质中。
需要说明的是,在本申请的各个具体实施方式中,当涉及到需要根据用户信息、用户行为数据,用户历史数据以及用户位置信息等与用户身份或特性相关的数据进行相关处理时,都会先获得用户的许可或者同意,而且,对这些数据的收集、使用和处理等,都会遵守相关国家和地区的相关法律法规和标准。此外,当本申请实施例需要获取用户的敏感个人信息时,会通过弹窗或者跳转到确认页面等方式获得用户的单独许可或者单独同意,在明确获得用户的单独许可或者单独同意之后,再获取用于使本申请实施例能够正常运行的必要的用户相关数据。
参照图1,本申请实施例提供了一种图像处理方法,该图像处理方法包括但不限于有步骤S110至步骤S170。
S110、获取原始图像数据;其中,原始图像数据包括原始证件图像;
可以理解的是,获取用于进行证件识别的原始图像数据,该原始图像数据包括目标证件的原始证件图像。例如,若目标证件可以为身份证、银行卡、出生医学证明、港澳通行证、营业执照等证件,则原始证件图像为采集设备对上述目标证件拍摄采集得到的图像。可以理解的是,上述目标证件仅为示例性的,本申请实施例对此不作具体限定。
S120、对原始证件图像进行背景分割处理,得到初始证件图像;
可以理解的是,参照图2A和图2B,原始证件图像除包含目标证件的图像以外,还会包含拍摄时的背景(如图2A阴影区域所示,即区域100除去区域200后的剩余区域)。因此,为了降低背景对后续证件识别的干扰,对原始证件图像进行背景分割处理,以得到包括少量背景的初始证件图像(如图2B所示)。
具体地,可采用SSD、YOLO等目标检测方法对原始证件图像进行背景分割处理,即将目标证件作为目标检测中感兴趣的目标,通过目标检测识别目标证件所在区域的位置,并对原始证件图像中除目标证件所在区域以外的区域进行分割,从而得到包括少量背景的初始证件图像。其中,参照图2C,边框300为目标检测得到的识别边框,即目标检测根据边框300对初始证件图像进行分割,以得到初始证件图像。
S130、将初始证件图像输入至预设的目标语义分割模型进行区域分割处理,得到原始分割图像;其中,原始分割图像包括原始分割区域;
可以理解的是,预先训练或获取得到以目标证件所在区域,以及关键字段所在区域作为感兴趣区域的目标语义分割模型,以根据该目标语义分割模型得到目标证件和关键字段的掩模(即原始分割区域,如图3中区域401至区域407所示)。其中,关键字段指目标证件中用于进行证件识别的字段,例如:当将身份证作为目标证件时,关键字段包括姓名、性别、民族、地址等。
具体地,将初始证件图像作为该目标语义模型的输入数据,得到原始分割图像。其中,原始分割图像包括表征目标证件所在区域的原始分割区域(如图3中区域401所示),以及表征关键字段所在区域的原始分割区域(如图3中区域402至区域407所示)。
可以理解的是,当以其他类型的证件作为目标证件时,原始分割图像还可以包括用于表征其他证件特征区域的原始分割区域,对此本申请实施例不作具体限定。
S140、对原始分割区域进行区域划分,得到第一目标区域;其中,第一目标区域用于表征证件所在区域;
可以理解的是,对原始分割图像中的多个原始分割区域进行区域划分,以对多个原始分割区域进行分类,从而查找得到用于表征目标证件所在区域的原始分割区域,将该原始分割区域作为第一目标区域。
S150、获取第一目标区域的顶点坐标;
可以理解的是,基于目标证件的几何特点,第一目标区域为四边形区域。根据第一目标区域在原始分割图像中的像素坐标或图像坐标得到顶点坐标。或,根据opencv中的approxPolyDP函数得到该顶点坐标。参照图3,顶点坐标包括顶点X1的坐标、顶点X2的坐标、顶点X3的坐标以及顶点X4的坐标。
可以理解的是,approxPolyDP函数是opencv中对指定点集进行多边形逼近的函数,其逼近精度可通过函数参数设置。
可以理解的是,像素坐标指以像素坐标系作为目标坐标系的坐标,图像坐标指以图像坐标系作为目标坐标系的坐标,本申请实施例对顶点坐标对应的目标坐标系不作具体限定。但为了便于说明,在本申请实施例中,各图像均以像素坐标系作为目标坐标系为例进行具体说明。
S160、根据顶点坐标和预设的标准坐标进行映射关系计算,得到映射参数;
可以理解的是,根据目标证件的先验知识,得到目标证件的标准坐标。其中,参照图4,标准坐标包括顶点X5的坐标、顶点X6的坐标、顶点X7的坐标以及顶点X8的坐标。例如,根据目标证件的先验知识可知,目标证件所在区域在第一方向(如图4所示的左右方向)的像素数量为1280,目标证件所在区域在第二方向(如图4所示的上下方向)的像素数量为825。因此,顶点X5的坐标为(0,0),顶点X6的坐标为(1280,0),顶点X7的坐标为(1280,825),顶点X8的坐标为(0,825)。
可以理解的是,根据顶点坐标与对应的标准坐标进行映射关系计算,以得到映射参数H。其中,映射参数H用于表征对第一目标区域进行图像畸变矫正得到的参数,即将线段X1-X2变换为线段X5-X6、将线段X2-X3变换为线段X6-X7、将线段X3-X4变换为线段X7-X8、将线段X4-X1变换为线段X8-X5的参数。
例如,根据opencv中的投影透视变换函数cv2.getPerspectiveTransform得到映射参数H=cv2.getPerspectiveTransform(rect,transform_axes)。其中,rect表示需变换的坐标,即rect=(X1,X2,X3,X4);transform_axes表示变换后的坐标,即transform_axes=(X5,X6,X7,X8)。
S170、根据映射参数对初始证件图像进行矫正处理,得到目标证件图像。
可以理解的是,原始分割图像为将初始证件图像作为目标语义分割模型的输入数据时,得到的输出数据。因此,原始分割图像与初始证件图像具有相同的图像几何特征,即第一目标区域在原始分割图像中的几何位置,与目标证件所在区域在初始证件图像中的几何位置相同。所以,可根据上述步骤得到的映射参数H对初始证件图像进行图像畸变矫正,以得到符合证件识别规范要求的图像(如图5所示),即该图像中目标证件所在区域的边界与第一方向(如图5所示的左右方向),或与第二方向(如图5所示的上下方向)平行。可以理解的是,可以将图像畸变矫正处理后的图像直接作为目标证件图像,或对图像畸变矫正处理后的图像进行提亮、锐化等其他操作,将该其他操作后的图像作为目标图像,对此本申请实施例不作具体限定。由此可知,当根据OCR技术对目标证件图像进行证件识别时,能够避免目标证件图像中关键字段歪斜而影响识别精度的问题。
本申请实施例提供的图像处理方法,通过对原始证件图像进行背景分割处理,避免了背景对后续区域分割处理的影响。通过将背景分割处理得到的初始证件图像作为目标语义分割模型的输入数据,得到以目标证件所在区域、关键字段所在区域作为感兴趣区域的原始分割图像。并通过原始分割图像中表征目标证件所在区域的第一目标区域的顶点坐标,以及目标证件的标准坐标,得到用于进行图像畸变矫正的映射参数,从而避免了相关技术中通过边缘检测直接获取目标证件所在区域的顶点坐标,并根据该顶点坐标进行图像畸变矫正时,若边缘检测容易受到光照、拍摄角度、背景等的干扰,则无法有效获取顶点坐标的问题。通过映射参数对初始证件图像进行矫正处理,得到符合证件识别规范要求的目标证件图像。由此可知,本申请实施例提供的图像处理方法,能够在一定程度上避免光照、拍摄角度、背景等的干扰,从而能够提高后续证件识别的识别精度性和识别效率。
参照图6,在一些实施例中,步骤S140包括但不限于有子步骤S610至子步骤S640。
S610、获取原始分割区域的边界长度;
可以理解的是,分别获取多个原始分割区域,其中,多个原始分割区域包括目标证件所在区域,以及各个关键字段所在区域。通过原始分割区域的各个顶点的坐标,得到原始分割区域各个边界的边界长度。例如,参照图3,根据顶点X1的坐标、顶点X2的坐标、顶点X3的坐标以及顶点X4的坐标,得到目标证件所在区域的边界X1-X2的长度、边界X2-X3的长度、边界X3-X4的长度、边界X4-X1的长度。同理,得到关键字段所在区域各个边界的边界长度。可以理解的是,上述边界长度的获取方法仅为示例性的,本申请实施例对此不作具体限定。
S620、对多个边界长度进行求和,得到总长度;
可以理解的是,对原始分割区域的多个边界长度进行累加求和,得到该原始分割区域所有边界的总长度。
S630、对多个总长度进行比较,得到长度最大值;
可以理解的是,根据上述方法获取所有原始分割区域的总长度,并将所有总长度进行比较,得到数值最大的总长度。将该数值最大的总长度作为长度最大值。
S640、将长度最大值的原始分割区域作为第一目标区域。
可以理解的是,由目标证件的几何特征可知,目标证件所在区域的边界总长度,应大于各个关键词所在区域的边界总长度。因此,长度最大值对应的原始分割区域即为目标证件所在区域。
参照图7,在另一些实施例中,原始分割图像还包括原始分割区域的第一标签值。步骤S140包括但不限于有子步骤S710至子步骤S720。
S710、获取第一标签值的第一标签属性;其中,第一标签属性用于表征原始分割区域的第一分割对象,第一分割对象包括证件所在区域;
可以理解的是,当将初始证件图像作为目标语义分割模型的输入数据时,目标语义分割模型的输出数据还包括第一标签值。不同第一标签值具有不同的第一标签属性,第一标签属性用于表征对应原始分割区域所分割的第一分割对象。以身份证为目标证件为例,当将身份证的初始证件图像作为目标语义模型的输入数据时,该目标语义模型的输出数据包括表征身份证所在区域的原始分割区域,表征姓名、性别、民族、地址等关键字段所在区域的原始分割区域,以及上述各个原始分割区域的第一标签值。其中,表征身份证所在区域的原始分割区域的第一标签值为1,表征姓名所在区域的原始分割区域的第一标签值为2,表征性别所在区域的原始分割区域的第一标签值为3,表征民族所在区域的原始分割区域的第一标签值为4,表征地址所在区域的原始分割区域的第一标签值为5。可以理解的是,上述第一标签值仅为示例性的,本申请实施例对此不作具体限定。
S720、将证件所在区域的原始分割区域作为第一目标区域。
可以理解的是,根据第一标签值确定对应原始分割区域的第一分割对象,将第一分割对象为目标证件所在区域的原始分割区域作为第一目标区域。例如,将第一标签值为1的原始分割区域作为第一目标区域。
参照图8,在另一些实施例中,原始分割图像还包括原始分割区域的颜色值。步骤S140包括但不限于有子步骤S810至子步骤S830。
S810、获取颜色值;
可以理解的是,当将初始证件图像作为目标语义分割模型的输入数据时,目标语义分割模型的输出数据还包括颜色值,不同颜色值对应不同的原始分割区域。以身份证为目标证件为例,当将身份证的初始证件图像作为目标语义模型的输入数据时,该目标语义模型的输出数据包括表征身份证所在区域的原始分割区域,表征姓名、性别、民族、地址等关键字段所在区域的原始分割区域,以及上述各个原始分割区域的颜色值。其中,表征身份证所在区域的原始分割区域的颜色值为(255,0,0)(即对表征身份证所在区域的原始分割区域填充红色),表征姓名所在区域的原始分割区域的颜色值为(255,215,0)(即对表征姓名所在区域的原始分割区域填充金黄色),表征性别所在区域的原始分割区域的颜色值为(128,42,42)(即对表征性别所在区域的原始分割区域填充棕色),表征地址所在区域的原始分割区域的颜色值为(0,0,255)(即对表征地址所在区域的原始分割区域填充蓝色)。可以理解的是,上述颜色值仅为示例性的,本申请实施例对此不作具体限定。其中,颜色值为RGB数值,根据实际需要,还可以将颜色代码作为颜色值,例如红色的颜色代码为#FF0000,金黄色的颜色代码为#FFD700等。
S820、将与预设值相等的颜色值作为目标值;
可以理解的是,预先设置颜色值与原始分割区域的映射关系,并将表征目标证件所在区域的原始分割区域映射的颜色值作为预设值。例如,将颜色值(255,0,0)与表征目标证件所在区域的原始分割区域映射,此时将颜色值(255,0,0)作为预设值。对目标语义分割模型输出的多个颜色值进行查询,将与该预设值相等的颜色值作为目标值。
S830、将目标值的原始分割区域作为第一目标区域。
可以理解的是,将与目标值对应的原始分割区域作为第一目标区域,即与目标值对应的原始分割区域表征目标证件所在区域。
参照图9,在一些实施例中,在步骤S130之前,本申请实施例提供的图像处理方法还包括:训练目标语义分割模块,具体包括步骤S910至步骤S940。
S910、获取原始样本数据;其中,原始样本数据包括原始样本证件图像;
可以理解的是,获取不同类型的样本证件的原始样本证件图像,如获取身份证的原始样本证件图像、银行卡的原始样本证件图像、港澳通行证的原始证件图像等。
S920、对原始样本证件图像进行背景分割处理,得到初始样本证件图像;
可以理解的是,对原始证件图像进行相同的背景分割处理,以得到包括少量背景的初始样本证件图像。其中,“相同的背景分割处理”指使用与原始证件图像相同的目标检测方法。
S930、获取初始样本证件图像的训练分割图像;其中,训练分割图像包括训练分割区域;
可以理解的是,预先采用标注工具对初始样本证件图像进行区域分割处理,以得到训练分割图像。获取该训练分割图像,并将该训练分割图像作为原始语义分割模型的训练数据。因此,若期望目标语义分割模型的输出数据包括用于表征目标证件所在区域的原始分割区域,以及用于表征关键字段所在区域的原始分割区域,对应的,训练分割图像应包括用于表征样本证件所在区域的训练分割区域,以及用于表征样本证件中关键字段所在区域的训练分割区域。
S940、根据初始样本证件图像、训练分割图像对预设的原始语义分割模型进行训练处理,得到目标语义分割模型。
可以理解的是,将初始样本证件图像作为原始语义分割模型的输入数据,将训练分割图像作为原始语义分割模型的训练数据,以使原始语义分割模型根据监督学习的方式学习到初始样本证件图像与训练分割图像之间的映射函数,根据该映射函数对原始语义分割模型进行参数调整,从而得到目标语义分割模型。其中,可选用deeplab系统的分割算法或其他系列算法作为原始语义分割模型,对此本申请实施例不作具体限定。以deeplab系统为例,deeplab系统的分割算法采用了空洞卷积,通过调整空洞卷积的采样率可以使原始语义分割模型从训练数据中获取更多的图像信息,即当使用目标语义分割模型对目标证件的初始证件图像进行区域分割处理时,能够使原始分割区域将包含更多的目标证件信息,或包含更多的目标证件中关键字段的信息,从而能够提高后续图像矫正处理的矫正精度。
参照图10,在一些实施例中,步骤S170包括子步骤S171至子步骤S173。
S171、根据映射参数对初始证件图像进行矫正处理,得到待识别证件图像;
可以理解的是,根据映射参数H对初始证件图像进行图像畸变矫正,使得矫正处理后的初始证件图像(即待识别证件图像)符合证件识别规范要求。
S172、将待识别证件图像输入至预设的分类模型进行类型检测,得到放置类型;其中,放置类型包括倒置;
可以理解的是,预先获取或训练得到能够进行图像放置类型检测的分类模型,其中,放置类型包括正置和倒置。具体地,“正置”表示输入图像中目标物与参考图像中目标物的放置方向相同;“倒置”表示输入图像中目标物与参考图像中目标物的放置方向不同,即输入图像中的目标物相较于参考图像中的目标物旋转了180°。在本申请实施例中,将待识别证件图像作为输入图像,待识别证件图像中的目标证件作为目标物。可以理解的是,分类模型可选用mobilev2-ssd模型、ssdlite模型,或其他模型,对此本申请实施例不作具体限定。
S173、将倒置的待识别证件图像进行旋转处理,得到目标证件图像。
可以理解的是,当根据分类模型的输出数据确定待识别证件图像的放置类型为倒置时,对待识别证件图像进行180°旋转处理,以得到目标证件图像,从而避免了根据目标证件图像进行证件识别时,因目标证件图像中关键字段倒置而影响识别准确性和识别效率的问题。
参照图11,在一些实施例中,本申请实施例提供的图像处理方法还包括步骤S1110至步骤S1150。
S1110、根据映射参数对原始分割图像进行矫正处理,得到目标分割图像;其中,目标分割图像包括目标分割区域和目标分割区域的第二标签值;
可以理解的是,根据映射参数H对原始分割图像进行图像畸变矫正处理,得到目标分割图像。其中,目标分割图像包括目标分割区域,以及目标分割区域的第二标签值。具体地,目标分割区域为根据映射参数H对原始分割区域进行图像畸变矫正后得到的区域,第二标签值用于表征目标分割区域的第二分割对象。由此可知,第二标签值的数值与对应区域的第一标签值的数值实质相同。
S1120、获取第二标签值的第二标签属性;其中,第二标签属性用于表征目标分割区域的第二分割对象,第二分割对象包括关键字段所在区域;
可以理解的是,因目标分割区域为原始分割区域进行图像畸变矫正处理后得到的区域,所以目标分割区域的分割对象与原始分割区域的分割对象实质相同。即目标分割图像包括表征目标证件所在区域的目标分割区域,以及表征关键字段所在区域的目标分割区域。以身份证为目标证件为例,在目标分割图像中,第二标签值为1的目标分割区域用于表征身份证所在区域,第二标签值为2的目标分割区域用于表征姓名所在区域。
S1130、将关键字段所在区域的目标分割区域作为第二目标区域;
可以理解的是,根据第二标签值的第二标签属性,在多个目标分割区域中查找得到用于表征关键字段所在区域的目标分割区域,并将该目标分割区域作为第二目标区域。以身份证为例,将第二标签值为2、第二标签值为3、第二标签值为4、第二标签值为5的目标分割区域均作为第二目标区域。
S1140、根据第二目标区域从目标证件图像中获取待识别字段图像;
可以理解的是,获取第二目标区域的顶点坐标,以根据该顶点坐标在目标证件图像中定位对应关键字段所在区域,从而得到用于表征该关键字段所在区域的图像(即待识别字段图像)。例如,参照图12,获取用于表征姓名所在区域的第二目标区域(如图12区域406所示)的顶点坐标(包括顶点X9的坐标、顶点X10的坐标、顶点X11的坐标、顶点X12的坐标),从而根据该顶点坐标在目标证件图像(如图5所示)中得到姓名所在区域的图像,将该图像作为待识别字段图像。
S1150、将待识别字段图像输入至预设的文字识别模型进行文字识别,得到关键字段。
可以理解的是,将根据上述步骤得到的待识别图像作为文字识别模型的输入数据,以得到待识别图像中对应的关键字段,从而实现了对目标证件关键字段的识别。例如,当将上述步骤得到的待识别字段图像作为文字识别模型的输入数据时,将得到“姓名”的结构化文本。
本申请实施例提供的图像处理方法,通过对原始证件图像进行背景分割处理,避免了背景对后续区域分割处理的影响。通过将背景分割处理得到的初始证件图像作为目标语义分割模型的输入数据,得到以目标证件所在区域、关键字段所在区域作为感兴趣区域的原始分割图像。并通过原始分割图像中表征目标证件所在区域的第一目标区域的顶点坐标,以及目标证件的标准坐标,得到用于进行图像畸变矫正的映射参数,从而避免了相关技术中通过边缘检测直接获取目标证件所在区域的顶点坐标,并根据该顶点坐标进行图像畸变矫正时,若边缘检测容易受到光照、拍摄角度、背景等的干扰,则无法有效获取顶点坐标的问题。通过该映射参数对初始证件图像进行矫正处理,并对畸变矫正处理后的初始证件图像进行放置类型检测,对倒置的图像进行旋转处理,从而得到符合证件识别规范要求的目标证件图像。通过目标分割图像获取用于表征关键字段所在区域的坐标,根据该坐标对该目标证件图像中的对应区域进行文字识别,从而避免了直接对原始证件图像或目标证件图像进行文字识别时,原始证件图像或目标证件图像因模糊、光照不均、关键字段歪斜等问题影响识别准精度和识别效率。
参照图13,本申请实施例还提供了一种图像处理装置,该图像处理装置包括:
图像数据获取模块1310,用于获取原始图像数据;其中,原始图像数据包括原始证件图像;
背景分割模块1320,用于对原始证件图像进行背景分割处理,得到初始证件图像;
语义分割模块1330,用于将初始证件图像输入至预设的目标语义分割模型进行区域分割处理,得到原始分割图像;其中,原始分割图像包括原始分割区域;
矫正模块1340,用于对原始分割区域进行区域划分,得到第一目标区域;其中,第一目标区域用于表征证件所在区域;获取第一目标区域的顶点坐标;根据顶点坐标和预设的标准坐标进行映射关系计算,得到映射参数;根据映射参数对初始证件图像进行矫正处理,得到目标证件图像。
可见,上述图像处理方法实施例中的内容均适用于本图像处理装置的实施例中,本图像处理装置实施例所具体实现的功能与上述图像处理方法实施例相同,并且达到的有益效果与上述图像处理方法实施例所达到的有益效果也相同。
本申请实施例还提供了一种电子设备,包括:
至少一个存储器;
至少一个处理器;
至少一个程序;
程序被存储在存储器中,处理器执行至少一个程序以实现本公开实施上述的图像处理方法。该电子设备可以为包括手机、平板电脑、个人数字助理(Personal DigitalAssistant,PDA)、车载电脑等任意智能终端。
下面结合图14对本申请实施例的电子设备进行详细介绍。
如图14,图14示意了另一实施例的电子设备的硬件结构,电子设备包括:
处理器1410,可以采用通用的中央处理器(Central Processing Unit,CPU)、微处理器、应用专用集成电路(Application Specific Integrated Circuit,ASIC)、或者一个或多个集成电路等方式实现,用于执行相关程序,以实现本公开实施例所提供的技术方案;
存储器1420,可以采用只读存储器(Read Only Memory,ROM)、静态存储设备、动态存储设备或者随机存取存储器(Random Access Memory,RAM)等形式实现。存储器1420可以存储操作系统和其他应用程序,在通过软件或者固件来实现本说明书实施例所提供的技术方案时,相关的程序代码保存在存储器1420中,并由处理器1410来调用执行本公开实施例的图像处理方法;
输入/输出接口1430,用于实现信息输入及输出;
通信接口1440,用于实现本设备与其他设备的通信交互,可以通过有线方式(例如USB、网线等)实现通信,也可以通过无线方式(例如移动网络、WIFI、蓝牙等)实现通信;
总线1450,在设备的各个组件(例如处理器1410、存储器1420、输入/输出接口1430和通信接口1440)之间传输信息;
其中处理器1410、存储器1420、输入/输出接口1430和通信接口1440通过总线1450实现彼此之间在设备内部的通信连接。
本申请实施例还提供了一种存储介质,该存储介质是计算机可读存储介质,该计算机可读存储介质存储有计算机可执行指令,该计算机可执行指令用于使计算机执行上述图像处理方法。
存储器作为一种非暂态计算机可读存储介质,可用于存储非暂态软件程序以及非暂态性计算机可执行程序。此外,存储器可以包括高速随机存取存储器,还可以包括非暂态存储器,例如至少一个磁盘存储器件、闪存器件、或其他非暂态固态存储器件。在一些实施方式中,存储器可选包括相对于处理器远程设置的存储器,这些远程存储器可以通过网络连接至该处理器。上述网络的实例包括但不限于互联网、企业内部网、局域网、移动通信网及其组合。
本公开实施例描述的实施例是为了更加清楚的说明本公开实施例的技术方案,并不构成对于本公开实施例提供的技术方案的限定,本领域技术人员可知,随着技术的演变和新应用场景的出现,本公开实施例提供的技术方案对于类似的技术问题,同样适用。
本领域技术人员可以理解的是,图中示出的技术方案并不构成对本公开实施例的限定,可以包括比图示更多或更少的步骤,或者组合某些步骤,或者不同的步骤。
以上所描述的装置实施例仅仅是示意性的,其中作为分离部件说明的单元可以是或者也可以不是物理上分开的,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部模块来实现本实施例方案的目的。
本领域普通技术人员可以理解,上文中所公开方法中的全部或某些步骤、系统、设备中的功能模块/单元可以被实施为软件、固件、硬件及其适当的组合。
本申请的说明书及上述附图中的术语“第一”、“第二”、“第三”、“第四”等(如果存在)是用于区别类似的对象,而不必用于描述特定的顺序或先后次序。应该理解这样使用的数据在适当情况下可以互换,以便这里描述的本申请的实施例能够以除了在这里图示或描述的那些以外的顺序实施。此外,术语“包括”和“具有”以及他们的任何变形,意图在于覆盖不排他的包含,例如,包含了一系列步骤或单元的过程、方法、系统、产品或设备不必限于清楚地列出的那些步骤或单元,而是可包括没有清楚地列出的或对于这些过程、方法、产品或设备固有的其它步骤或单元。
应当理解,在本申请中,“至少一个(项)”是指一个或者多个,“多个”是指两个或两个以上。“和/或”,用于描述关联对象的关联关系,表示可以存在三种关系,例如,“A和/或B”可以表示:只存在A,只存在B以及同时存在A和B三种情况,其中A,B可以是单数或者复数。字符“/”一般表示前后关联对象是一种“或”的关系。“以下至少一项(个)”或其类似表达,是指这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b或c中的至少一项(个),可以表示:a,b,c,“a和b”,“a和c”,“b和c”,或“a和b和c”,其中a,b,c可以是单个,也可以是多个。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个系统,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是或者也可以不是物理单元,即可以位于一个地方,或者也可以分布到多个网络单元上。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本申请的技术方案本质上或者说对现有技术做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质中,包括多指令用以使得一台电子设备(可以是个人计算机,服务器,或者网络设备等)执行本申请各个实施例方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(Read-Only Memory,ROM)、随机存取存储器(Random Access Memory,RAM)、磁碟或者光盘等各种可以存储程序的介质。
以上参照附图说明了本公开实施例的优选实施例,并非因此局限本公开实施例的权利范围。本领域技术人员不脱离本公开实施例的范围和实质内所作的任何修改、等同替换和改进,均应在本公开实施例的权利范围之内。

Claims (10)

1.一种图像处理方法,其特征在于,包括:
获取原始图像数据;其中,所述原始图像数据包括原始证件图像;
对所述原始证件图像进行背景分割处理,得到初始证件图像;
将所述初始证件图像输入至预设的目标语义分割模型进行区域分割处理,得到原始分割图像;其中,所述原始分割图像包括原始分割区域;
对所述原始分割区域进行区域划分,得到第一目标区域;其中,所述第一目标区域用于表征证件所在区域;
获取所述第一目标区域的顶点坐标;
根据所述顶点坐标和预设的标准坐标进行映射关系计算,得到映射参数;
根据所述映射参数对所述初始证件图像进行矫正处理,得到目标证件图像。
2.根据权利要求1所述的图像处理方法,其特征在于,所述对所述原始分割区域进行区域划分,得到第一目标区域,包括:
获取所述原始分割区域的边界长度;
对多个所述边界长度进行求和,得到总长度;
对多个所述总长度进行比较,得到长度最大值;
将所述长度最大值的所述原始分割区域作为所述第一目标区域。
3.根据权利要求1所述的图像处理方法,其特征在于,所述原始分割图像还包括所述原始分割区域的第一标签值;
所述对所述原始分割区域进行区域划分,得到第一目标区域,包括:
获取所述第一标签值的第一标签属性;其中,所述第一标签属性用于表征所述原始分割区域的第一分割对象,所述第一分割对象包括所述证件所在区域;
将所述证件所在区域的所述原始分割区域作为所述第一目标区域。
4.根据权利要求1所述的图像处理方法,其特征在于,所述原始分割图像还包括所述原始分割区域的颜色值;
所述对所述原始分割区域进行区域划分,得到第一目标区域,包括:
获取所述颜色值;
将与预设值相等的所述颜色值作为目标值;
将所述目标值的所述原始分割区域作为所述第一目标区域。
5.根据权利要求1所述的图像处理方法,其特征在于,在所述将所述初始证件图像输入至预设的目标语义分割模型进行区域分割处理,得到原始分割图像之前,所述方法还包括训练所述目标语义分割模型,具体包括:
获取原始样本数据;其中,所述原始样本数据包括原始样本证件图像;
对所述原始样本证件图像进行背景分割处理,得到初始样本证件图像;
获取所述初始样本证件图像的训练分割图像;其中,所述训练分割图像包括训练分割区域;
根据所述初始样本证件图像、所述训练分割图像对预设的原始语义分割模型进行训练处理,得到所述目标语义分割模型。
6.根据权利要求1至5任一项所述的图像处理方法,其特征在于,所述根据所述映射参数对所述初始证件图像进行矫正处理,得到目标证件图像,包括:
根据所述映射参数对所述初始证件图像进行矫正处理,得到待识别证件图像;
将所述待识别证件图像输入至预设的分类模型进行类型检测,得到放置类型;其中,所述放置类型包括倒置;
将所述倒置的所述待识别证件图像进行旋转处理,得到所述目标证件图像。
7.根据权利要求1至5任一项所述的图像处理方法,其特征在于,所述方法还包括:
根据所述映射参数对所述原始分割图像进行矫正处理,得到目标分割图像;其中,所述目标分割图像包括目标分割区域和所述目标分割区域的第二标签值;
获取所述第二标签值的第二标签属性;其中,所述第二标签属性用于表征所述目标分割区域的第二分割对象,所述第二分割对象包括关键字段所在区域;
将所述关键字段所在区域的所述目标分割区域作为第二目标区域;
根据所述第二目标区域从所述目标证件图像中获取待识别字段图像;
将所述待识别字段图像输入至预设的文字识别模型进行文字识别,得到所述关键字段。
8.一种图像处理装置,其特征在于,包括:
图像数据获取模块,用于获取原始图像数据;其中,所述原始图像数据包括原始证件图像;
背景分割模块,用于对所述原始证件图像进行背景分割处理,得到初始证件图像;
语义分割模块,用于将所述初始证件图像输入至预设的目标语义分割模型进行区域分割处理,得到原始分割图像;其中,所述原始分割图像包括原始分割区域;
矫正模块,用于对所述原始分割区域进行区域划分,得到第一目标区域;其中,所述第一目标区域用于表征证件所在区域;获取所述第一目标区域的顶点坐标;根据所述顶点坐标和预设的标准坐标进行映射关系计算,得到映射参数;根据所述映射参数对所述初始证件图像进行矫正处理,得到目标证件图像。
9.一种电子设备,其特征在于,包括:
至少一个存储器;
至少一个处理器;
至少一个计算机程序;
所述计算机程序被存储在所述存储器中,处理器执行所述至少一个计算机程序以实现:
如权利要求1至7任一项所述的图像处理方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质存储有计算机可执行指令,所述计算机可执行指令用于使计算机执行:
如权利要求1至7任一项所述的图像处理方法。
CN202210949907.7A 2022-08-09 2022-08-09 图像处理方法、图像处理装置、电子设备及存储介质 Pending CN115294557A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202210949907.7A CN115294557A (zh) 2022-08-09 2022-08-09 图像处理方法、图像处理装置、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202210949907.7A CN115294557A (zh) 2022-08-09 2022-08-09 图像处理方法、图像处理装置、电子设备及存储介质

Publications (1)

Publication Number Publication Date
CN115294557A true CN115294557A (zh) 2022-11-04

Family

ID=83829055

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202210949907.7A Pending CN115294557A (zh) 2022-08-09 2022-08-09 图像处理方法、图像处理装置、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN115294557A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117872816A (zh) * 2023-09-07 2024-04-12 九阳股份有限公司 烹饪控制方法及装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117872816A (zh) * 2023-09-07 2024-04-12 九阳股份有限公司 烹饪控制方法及装置

Similar Documents

Publication Publication Date Title
US9811749B2 (en) Detecting a label from an image
US11367310B2 (en) Method and apparatus for identity verification, electronic device, computer program, and storage medium
WO2019033571A1 (zh) 面部特征点检测方法、装置及存储介质
CN110659647A (zh) 印章图像识别方法及装置、智能发票识别设备和存储介质
WO2019061658A1 (zh) 眼镜定位方法、装置及存储介质
CN108491866B (zh) 色情图片鉴定方法、电子装置及可读存储介质
EP4109332A1 (en) Certificate authenticity identification method and apparatus, computer-readable medium, and electronic device
CN110427972B (zh) 证件视频特征提取方法、装置、计算机设备和存储介质
CN112330331A (zh) 基于人脸识别的身份验证方法、装置、设备及存储介质
CN113011144A (zh) 表单信息的获取方法、装置和服务器
CN114092938B (zh) 图像的识别处理方法、装置、电子设备及存储介质
CN110717497A (zh) 图像相似度匹配方法、装置及计算机可读存储介质
CN112085094B (zh) 单证图像翻拍检测方法、装置、计算机设备和存储介质
CN114821590A (zh) 文档信息提取方法、装置、设备及介质
CN117831056A (zh) 票据信息提取方法、装置及票据信息提取系统
CN112801099A (zh) 一种图像处理方法、装置、终端设备及介质
WO2019071476A1 (zh) 一种基于智能终端的快递信息录入方法及录入系统
CN115294557A (zh) 图像处理方法、图像处理装置、电子设备及存储介质
CN113177542A (zh) 识别印章文字的方法、装置、设备和计算机可读介质
CN110853115B (zh) 一种开发流程页面的创建方法及设备
CN110909733A (zh) 基于ocr图片识别的模版定位方法、装置和计算机设备
US12033376B2 (en) Method and system for training neural network for entity detection
CN116311290A (zh) 基于深度学习的手写及打印文本检测方法和装置
CN114494678A (zh) 文字识别方法和电子设备
CN114818627A (zh) 一种表格信息抽取方法、装置、设备及介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination