CN113313113B - 证件信息获取方法、装置、设备以及存储介质 - Google Patents

证件信息获取方法、装置、设备以及存储介质 Download PDF

Info

Publication number
CN113313113B
CN113313113B CN202110651962.3A CN202110651962A CN113313113B CN 113313113 B CN113313113 B CN 113313113B CN 202110651962 A CN202110651962 A CN 202110651962A CN 113313113 B CN113313113 B CN 113313113B
Authority
CN
China
Prior art keywords
determining
target
recognition result
text recognition
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110651962.3A
Other languages
English (en)
Other versions
CN113313113A (zh
Inventor
朱雄威
孙逸鹏
魏翔
姚锟
韩钧宇
丁二锐
刘经拓
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Priority to CN202110651962.3A priority Critical patent/CN113313113B/zh
Publication of CN113313113A publication Critical patent/CN113313113A/zh
Application granted granted Critical
Publication of CN113313113B publication Critical patent/CN113313113B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/62Text, e.g. of license plates, overlay texts or captions on TV images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • Computing Systems (AREA)
  • Software Systems (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Multimedia (AREA)
  • Character Discrimination (AREA)

Abstract

本公开提供了证件信息获取方法、装置、设备以及存储介质,涉及人工智能技术领域,具体涉及计算机视觉和深度学习技术领域。具体实现方案为:获取目标证件图像;对目标证件图像进行文本识别,确定文本识别结果;根据文本识别结果,在目标证件图像中确定至少一个预设类型的字段所处的目标区域;对目标区域进行字符识别,确定字符识别结果;融合文本识别结果和字符识别结果,确定以及输出目标证件图像的文本信息。本实现方式能够分别识别文本和字符,提高文本识别的准确度。

Description

证件信息获取方法、装置、设备以及存储介质
技术领域
本公开涉及人工智能技术领域,具体涉及计算机视觉和深度学习技术领域,尤其涉及证件信息获取方法、装置、设备以及存储介质,可应用于智慧城市和智慧金融场景下。
背景技术
随着计算机技术的发展,越来越多的技术应用在金融领域,传统金融业正在逐步向金融科技转变,但由于金融行业的安全性、实时性要求,也对技术提出的更高的要求。比如客户在办理金融业务时,为了确保业务操作的安全性,需要对客户的身份信息进行校验,一般都是客户在客户业务办理系统上传自己的证件照片,以便业务人员利用OCR(OpticalCharacter Recognition,光学字符识别)技术对该证件照片进行校验。
然而,现有的证件识别方法存在检测精度不高、准确性低的问题。
发明内容
本公开提供了一种证件信息获取方法、装置、设备以及存储介质。
根据第一方面,提供了一种证件信息获取方法,包括:获取目标证件图像;对目标证件图像进行文本识别,确定文本识别结果;根据文本识别结果,在目标证件图像中确定至少一个预设类型的字段所处的目标区域;对目标区域进行字符识别,确定字符识别结果;融合文本识别结果和字符识别结果,确定以及输出目标证件图像的文本信息。
根据第二方面,提供了一种证件信息获取装置,包括:图像获取单元,被配置成获取目标证件图像;文本识别单元,被配置成对目标证件图像进行文本识别,确定文本识别结果;区域确定单元,被配置成根据文本识别结果,在目标证件图像中确定至少一个预设类型的字段所处的目标区域;字符识别单元,被配置成对目标区域进行字符识别,确定字符识别结果;结果融合单元,被配置成融合文本识别结果和字符识别结果,确定以及输出目标证件图像的文本信息。
根据第三方面,提供了一种电子设备,包括:至少一个处理器;以及与上述至少一个处理器通信连接的存储器;其中,存储器存储有可被至少一个处理器执行的指令,上述指令被至少一个处理器执行,以使至少一个处理器能够执行如第一方面所描述的方法。
根据第四方面,提供了一种存储有计算机指令的非瞬时计算机可读存储介质,上述计算机指令用于使计算机执行如第一方面所描述的方法。
根据第五方面,一种计算机程序产品,包括计算机程序,上述计算机程序在被处理器执行时实现如第一方面所描述的方法。
根据本公开的技术提供了一种证件识别技术,能够分别准确地识别文字和字符,提高文本识别的准确度。
应当理解,本部分所描述的内容并非旨在标识本公开的实施例的关键或重要特征,也不用于限制本公开的范围。本公开的其它特征将通过以下的说明书而变得容易理解。
附图说明
附图用于更好地理解本方案,不构成对本公开的限定。其中:
图1是本公开的一个实施例可以应用于其中的示例性系统架构图;
图2是根据本公开的证件信息获取方法的一个实施例的流程图;
图3是根据本公开的证件信息获取方法的一个应用场景的示意图;
图4是根据本公开的证件信息获取方法的另一个实施例的流程图;
图5是根据本公开的证件信息获取装置的一个实施例的结构示意图;
图6是用来实现本公开实施例的证件信息获取方法的电子设备的框图。
具体实施方式
以下结合附图对本公开的示范性实施例做出说明,其中包括本公开实施例的各种细节以助于理解,应当将它们认为仅仅是示范性的。因此,本领域普通技术人员应当认识到,可以对这里描述的实施例做出各种改变和修改,而不会背离本公开的范围和精神。同样,为了清楚和简明,以下的描述中省略了对公知功能和结构的描述。
需要说明的是,在不冲突的情况下,本公开中的实施例及实施例中的特征可以相互组合。下面将参考附图并结合实施例来详细说明本公开。
图1示出了可以应用本公开的证件信息获取方法或证件信息获取装置的实施例的示例性系统架构100。
如图1所示,系统架构100可以包括终端设备101、102、103,网络104和服务器105。网络104用以在终端设备101、102、103和服务器105之间提供通信链路的介质。网络104可以包括各种连接类型,例如有线、无线通信链路或者光纤电缆等等。
用户可以使用终端设备101、102、103通过网络104与服务器105交互,以接收或发送消息等。终端设备101、102、103上可以安装有各种通讯客户端应用,例如图像处理类应用等。
终端设备101、102、103可以是硬件,也可以是软件。当终端设备101、102、103为硬件时,可以是各种电子设备,包括但不限于智能手机、平板电脑、电子书阅读器、车载电脑、膝上型便携计算机和台式计算机等等。当终端设备101、102、103为软件时,可以安装在上述所列举的电子设备中。其可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
服务器105可以是提供各种服务的服务器,例如为终端设备101、102、103提供图像处理过程中所使用的模型的后台服务器。后台服务器可以利用训练样本对模型进行训练,得到训练好的模型,并将训练好的模型反馈给终端设备101、102、103。
需要说明的是,服务器105可以是硬件,也可以是软件。当服务器105为硬件时,可以实现成多个服务器组成的分布式服务器集群,也可以实现成单个服务器。当服务器105为软件时,可以实现成多个软件或软件模块(例如用来提供分布式服务),也可以实现成单个软件或软件模块。在此不做具体限定。
需要说明的是,本公开实施例所提供的证件信息获取方法一般由终端设备101、102、103执行。相应地,证件信息获取装置一般设置于终端设备101、102、103中。
应该理解,图1中的终端设备、网络和服务器的数目仅仅是示意性的。根据实现需要,可以具有任意数目的终端设备、网络和服务器。
继续参考图2,示出了根据本公开的证件信息获取方法的一个实施例的流程200。本实施例的证件信息获取方法,包括以下步骤:
步骤201,获取目标证件图像。
本实施例中,证件信息获取方法的执行主体可以通过各种方式获取目标证件图像。这里,目标证件图像可以各种具有固定模板的图像,例如员工卡、出入证等等。上述目标证件图像中可以包括用户的相关信息,例如可以包括用户的姓名、工作部门等等。需要说明的是,此处获取的目标证件图像是经过了用户的授权的,即上述目标证件图像是用户主动提供给执行主体的。
步骤202,对目标证件图像进行文本识别,确定文本识别结果。
本实施例中,执行主体在获取到目标证件图像后,可以对目标证件图像进行文本识别,确定文本识别结果。具体的,执行主体可以利用预先训练好的文本识别模型进行文本识别。上述文本识别模型可以是卷积神经网络等等。或者,执行主体可以首先利用图像处理算法,确定目标证件图像中各字段所在的行区域。然后对行区域进行文本识别,得到文本识别结果。上述文本识别结果中可以至少包括汉字、数字、字母中的一项。
步骤203,根据文本识别结果,在目标证件图像中确定至少一个预设类型的字段所处的目标区域。
本实施例中,执行主体可以首先从文本识别结果中确定出多个字段。字段可以包括姓名、入职时间、工号等等。执行主体可以确定出预设类型的字段,上述预设类型可以是对应的信息包括字符的字段,例如工号、入职时间等等。执行主体可以从目标证件图像中确定出上述类型的字段所处的目标区域。具体的,执行主体可以将上述类型的字段所在行的区域作为目标区域。或者,执行主体可以通过提取目标证件图像的特征,根据上述特征确定出目标区域。
步骤204,对目标区域进行字符识别,确定字符识别结果。
执行主体在确定出目标区域后,可以对目标区域进行字符识别,确定字符识别结果。这里,字符可以指汉字之外的数字、字母或符号等。具体的,执行主体在再次识别时可以采用与步骤202中的文本识别不同的算法进行识别。此算法可以是对字符识别效果较好的算法,例如Attention模型。Attention模型就是对输入特征进行加权以衡量每个特征对当前识别的重要性,它自己集中于重要的特征,忽略不重要的特征。可以理解的是,字符识别结果中字符的置信度要高于文本识别结果中字符的置信度。
步骤205,融合文本识别结果和字符识别结果,确定以及输出目标证件图像的文本信息。
执行主体在得到文本识别结果和字符识别结果后,可以对二者进行融合,将融合后的结果作为目标证件图像的文本信息,并将上述文本信息进行输出。具体的,执行主体可以直接利用字符识别结果替换文本识别结果中的字符。或者,执行主体可以判断文本识别结果中字符串的合理性和字符优化结果中字符串的合理性,将合理性高的作为准确的结果。举例来说,目标证件图像为员工的工作证,其文本识别结果中包括入职时间为“2022年3月1日”,字符优化结果为“2018年3月1日”。那执行主体可以认定字符优化结果的合理性更高,将其作为准确结果。
继续参见图3,其示出了根据本公开的证件信息获取方法的一个应用场景的示意图。在图3的应用场景中,居民通过小区门口安装的摄像头采集出入证的照片。摄像头将照片传送给相连接的终端设备。终端设备可以通过步骤201~205确定出入证的文本识别结果。
本公开的上述实施例提供的证件信息获取方法,能够分别准确地识别文字和字符,提高文本识别的准确度。
继续参见图4,其示出了根据本公开的证件信息获取方法的另一个实施例的流程400。如图4所示,本实施例的方法可以包括以下步骤:
步骤401,获取待分析图像;响应于确定待分析图像中包括证件图像,确定证件图像的边框;根据边框,确定目标证件图像。
本实施例中,执行主体首先获取待分析图像,并对待分析图像进行证件检测。具体的,执行主体可以利用预先训练的检测模型进行证件检测。上述检测模型可以为各种神经网络。由于拍摄视角、距离等因素影响,会出现证件大小和仿射形变,利用不同感受野特征融合的方式可以获取更丰富抽象特征,一般浅层特征对小证件具有较好检测效果,深层特征对大证件有较好检测效果,通过对多层特征进行融合利用FPN(Feature PyramidNetworks,特征金字塔网络)将语义信息和定位信息进行有效融合,送入后续模型。在一些具体的实践中,执行主体可以采用ResNet50(残差网络,Residual Network)+FPN的模型进行特征提取,选用EAST(cvpr2017提出的文字检测算法,可以检测任意四边形形状的文本:EAST,An Efficient and Accurate Scene Text Detector)检测模型进行证件检测,训练数据可以选用证件和非证件两个类别进行区分,训练一个二分类检测器,得到检测结果。
如果检测到证件图像则可以继续对图像处理。如果未检测到证件图像则可以直接丢弃待分析图像。在确定待分析图像中包括证件图像后,可以确定证件图像的边框。在确定边框时可以采用现有的图像处理算法,例如角点提取、二值分割等。在确定边框后,可以将边框包围的图像作为目标证件图像。
在本实施例的一些可选的实现方式中,执行主体可以在确定边框后,对证件图像进行矫正,将矫正后得到的图像作为目标证件图像。在矫正时,执行主体可以根据各边框,确定证件图像的四个角点的坐标。通过调整角点的坐标,实现证件图像的矫正。矫正后,目标证件图像的边框可以是水平方向和数值方向的。
步骤402,确定目标证件图像中各字段所在的行区域;对各行区域进行文本识别,确定文本识别结果。
本实施例中,执行主体可以首先对目标证件图像进行行检测,确定各字段所在的行区域。具体的,执行主体可以利用EAST模型提取目标证件图像的特征,通过上述特征确定出行区域。然后,执行主体可以对各行区域进行文本识别,确定文本识别结果。
在本实施例的一些可选的实现方式中,上述步骤402具体可以通过步骤4021以及步骤4022来实现:
步骤4021,提取目标证件图像的特征,得到特征图;根据特征图,确定各字段所在的多个行候选框;对于每个字段,从多个行候选框中确定出该字段所在的行区域。
本实现方式中,执行主体可以利用全卷积神经网络提取目标证件图像的特征,得到特征图。在一些具体的实践中,全卷积网络的输出为9通道的特征图,其中一个通道为图片中每个像素位置是否为文字的置信度,其余8个通道表示若该像素位置为文字,则该位置对应文字的包围盒四角点的x,y坐标偏移量(Δx1,Δy1,Δx2,Δy2,Δx3,Δy3,Δx4,Δy4)。通过设置置信度阈值可提取出高置信度文字像素点位置(X,Y),而后通过偏移图回归出文字候选的包围盒坐标(x1,y1,x2,y2,x3,y3,x4,y4)=(X+Δx1,Y+Δy1,X+Δx2,Y+Δy2,X+Δx3,Y+Δy3,X+Δx4,Y+Δy4)。给定一张图上的文字候选,通过非极大值抑制(NMS)后可滤除重复检出的包围盒,给出重复度较高的文字候选。
步骤4022,将各行区域所在图像进行仿射变换,得到对应的变换特征图;对变换特征图进行解码,确定文本识别结果。
本实施例中,执行主体可以将各行区域通过仿射变换为统一尺度的特征图,然后进行后续识别处理。具体来说,给定一个特征图F及一个包围盒四角点坐标,通过仿射变换,将包围盒内的特征图变换至定高变宽的特征图F’上,同时保持长宽比不变,可以用(W,H,C)来表示F’的维度。
本实施例中,执行主体可以采用序列至序列模型(seq2seq)进行文本识别。具体来说,该模型由一个RNN编码器及一个RNN解码器组成。首先将特征图F’按列切片,组成一个时间序列,其中沿宽的每一列为一个编码时间步,该步的特征为F’在该步上特征的扁平化,特征维度为(H*C)。该时间序列通过RNN编码器,得到编码特征。解码器为另一个RNN模型,在每一个解码时间步接收上一解码步得到的字符编码(char embedding)以及上一解码步得到的上下文向量(context vector),输出该解码步的字符预测分布。如此循环往复,直到某时刻的输出结果为结束符号(<\s>),即停止解码。解码的第0个时刻输入为预设的开始符编码(<s>),上下文向量由注意力机制得到,其详细算法为给定解码器隐含层状态h,计算h与编码特征每一时刻的相似度,通过softmax归一化所有编码时刻的相似度,而后将编码特征通过归一化的相似度特征进行加权平均,平均后的特征即为上下文向量。
步骤403,根据文本识别结果,在目标证件图像中确定至少一个预设类型的字段所处的目标区域。
步骤404,对目标区域进行字符识别,确定字符识别结果。
本实施例中,执行主体可以利用Attention模型进行字符识别。通过构建骨架网络提取特征,然后利用RNN模型对特征进行解码获取整图各字段识别结果,Attention识别模型对于日期、符号等识别准确率极高,能对文本识别结果进行有效修补。
步骤405,确定字符优化结果中第一预设位置的第一字符串;确定文本识别结果中第二预设位置的第二字符串;根据第一字符串和第二字符串,确定目标字符串;根据文本识别结果以及目标字符串,确定以及输出目标证件图像的文本信息。
在得到字符优化结果后,为了进一步提高字符识别的准确性,可以确定字符优化结果中第一预设位置的第一字符串以及文本识别结果中第二预设位置的第二字符串。需要说明的是,第一字符串与第二字符串表示的意义相同,例如都表示出生日期。第一预设位置和第二预设位置是执行主体根据实际应用场景预先设定的。
第一字符串可以是多个,第二字符串也可以是多个。例如,字符优化结果中可以包括出生日期字段,还可以包括生日字段。文本优化结果中也包括出生日期字段和生日字段。执行主体可以从第一字符串和第二字符串中确定出目标字符串。具体的,当第一字符串和第二字符串的数量大于3个时,可以对各字段进行交叉投票,将投票得数最高的字符串作为目标字符串。然后根据文本识别结果以及目标字符串,确定以及输出目标证件图像的文本信息。具体的,执行主体可以直接利用目标字符串替换字符识别结果中的第一字符串,然后将替换后的字符识别结果与文本识别结果进行融合。
本实现方式通过对表示同一意义的字符串进行再次确认,从而能够提高字符识别的准确度。
在本实施例的一些可选的实现方式中,上述第一字符串和第二字符串都表示日期。如果第一字符串和第二字符串表示的日期都位于预设日期之后,则执行主体可以直接将第二字符串作为目标字符串。由于字符识别模型由样本训练而来,样本中的日期可能在预设日期之后的较少,导致字符识别模型对新日期的识别准确率较低,在这种情况下,执行主体可以直接将文本识别结果中识别出的日期作为最终的日期。
本公开的上述实施例提供的证件信息获取方法,可以对表示同一意义的字符串进行再次确认,从而能够提高字符识别的准确度。
进一步参考图5,作为对上述各图所示方法的实现,本公开提供了一种证件信息获取装置的一个实施例,该装置实施例与图2所示的方法实施例相对应,该装置具体可以应用于各种电子设备中。
如图5所示,本实施例的证件信息获取装置500包括:图像获取单元501、文本识别单元502、区域确定单元503、字符识别单元504和结果融合单元505。
图像获取单元501,被配置成获取目标证件图像。
文本识别单元502,被配置成对目标证件图像进行文本识别,确定文本识别结果。
区域确定单元503,被配置成根据文本识别结果,在目标证件图像中确定至少一个预设类型的字段所处的目标区域。
字符识别单元504,被配置成对目标区域进行字符识别,确定字符识别结果。
结果融合单元505,被配置成融合文本识别结果和字符识别结果,确定以及输出目标证件图像的文本信息。
在本实施例的一些可选的实现方式中,结果融合单元505可以进一步被配置成:确定字符识别结果中第一预设位置的第一字符串;确定文本识别结果中第二预设位置的第二字符串;根据第一字符串和第二字符串,确定目标字符串;根据文本识别结果以及目标字符串,确定以及输出目标证件图像的文本信息。
在本实施例的一些可选的实现方式中,第一字符串以及第二字符串表示日期。结果融合单元505可以进一步被配置成:响应于确定第一字符串以及第二字符串表示的日期在预设日期之后,将第二字符串作为目标字符串。
在本实施例的一些可选的实现方式中,文本识别单元502可以进一步被配置成:确定目标证件图像中各字段所在的行区域;对各行区域进行文本识别,确定文本识别结果。
在本实施例的一些可选的实现方式中,文本识别单元502可以进一步被配置成:提取目标证件图像的特征,得到特征图;根据特征图,确定各字段所在的多个包围盒;对于每个字段,从多个包围盒中确定出该字段所在的行区域。
在本实施例的一些可选的实现方式中,文本识别单元502可以进一步被配置成:将各行区域所在图像进行仿射变换,得到对应的变换特征图;对变换特征图进行解码,确定文本识别结果。
在本实施例的一些可选的实现方式中,图像获取单元501可以进一步被配置成:获取待分析图像;响应于确定待分析图像中包括证件图像,确定证件图像的边框;根据边框,确定目标证件图像。
在本实施例的一些可选的实现方式中,图像获取单元501可以进一步被配置成:对边框进行矫正,将矫正后的图像作为目标证件图像。
应当理解,证件信息获取装置500中记载的单元501至单元505分别与参考图2中描述的方法中的各个步骤相对应。由此,上文针对证件信息获取方法描述的操作和特征同样适用于装置500及其中包含的单元,在此不再赘述。
本公开的技术方案中,所涉及的用户个人信息的获取、存储和应用等,均符合相关法律法规的规定,且不违背公序良俗。
根据本公开的实施例,本公开还提供了还提供了一种电子设备、一种可读存储介质和一种计算机程序产品。
图6示出了根据本公开实施例的执行证件信息获取方法的电子设备600的框图。电子设备旨在表示各种形式的数字计算机,诸如,膝上型计算机、台式计算机、工作台、个人数字助理、服务器、刀片式服务器、大型计算机、和其它适合的计算机。电子设备还可以表示各种形式的移动装置,诸如,个人数字处理、蜂窝电话、智能电话、可穿戴设备和其它类似的计算装置。本文所示的部件、它们的连接和关系、以及它们的功能仅仅作为示例,并且不意在限制本文中描述的和/或者要求的本公开的实现。
如图6所示,电子设备600包括处理器601,其可以根据存储在只读存储器(ROM)602中的计算机程序或者从存储器608加载到随机访问存储器(RAM)603中的计算机程序,来执行各种适当的动作和处理。在RAM 603中,还可存储电子设备600操作所需的各种程序和数据。处理器601、ROM 602以及RAM 603通过总线604彼此相连。I/O接口(输入/输出接口)605也连接至总线604。
电子设备600中的多个部件连接至I/O接口605,包括:输入单元606,例如键盘、鼠标等;输出单元607,例如各种类型的显示器、扬声器等;存储器608,例如磁盘、光盘等;以及通信单元609,例如网卡、调制解调器、无线通信收发机等。通信单元609允许电子设备600通过诸如因特网的计算机网络和/或各种电信网络与其他设备交换信息/数据。
处理器601可以是各种具有处理和计算能力的通用和/或专用处理组件。处理器601的一些示例包括但不限于中央处理单元(CPU)、图形处理单元(GPU)、各种专用的人工智能(AI)计算芯片、各种运行机器学习模型算法的处理器、数字信号处理器(DSP)、以及任何适当的处理器、控制器、微控制器等。处理器601执行上文所描述的各个方法和处理,例如证件信息获取方法。例如,在一些实施例中,证件信息获取方法可被实现为计算机软件程序,其被有形地包含于机器可读存储介质,例如存储器608。在一些实施例中,计算机程序的部分或者全部可以经由ROM 602和/或通信单元609而被载入和/或安装到电子设备600上。当计算机程序加载到RAM 603并由处理器601执行时,可以执行上文描述的证件信息获取方法的一个或多个步骤。备选地,在其他实施例中,处理器601可以通过其他任何适当的方式(例如,借助于固件)而被配置为执行证件信息获取方法。
本文中以上描述的系统和技术的各种实施方式可以在数字电子电路系统、集成电路系统、场可编程门阵列(FPGA)、专用集成电路(ASIC)、专用标准产品(ASSP)、芯片上系统的系统(SOC)、负载可编程逻辑设备(CPLD)、计算机硬件、固件、软件、和/或它们的组合中实现。这些各种实施方式可以包括:实施在一个或者多个计算机程序中,该一个或者多个计算机程序可在包括至少一个可编程处理器的可编程系统上执行和/或解释,该可编程处理器可以是专用或者通用可编程处理器,可以从存储系统、至少一个输入装置、和至少一个输出装置接收数据和指令,并且将数据和指令传输至该存储系统、该至少一个输入装置、和该至少一个输出装置。
用于实施本公开的方法的程序代码可以采用一个或多个编程语言的任何组合来编写。上述程序代码可以封装成计算机程序产品。这些程序代码或计算机程序产品可以提供给通用计算机、专用计算机或其他可编程数据处理装置的处理器或控制器,使得程序代码当由处理器601执行时使流程图和/或框图中所规定的功能/操作被实施。程序代码可以完全在机器上执行、部分地在机器上执行,作为独立软件包部分地在机器上执行且部分地在远程机器上执行或完全在远程机器或服务器上执行。
在本公开的上下文中,机器可读存储介质可以是有形的介质,其可以包含或存储以供指令执行系统、装置或设备使用或与指令执行系统、装置或设备结合地使用的程序。机器可读存储介质可以是机器可读信号存储介质或机器可读存储介质。机器可读存储介质可以包括但不限于电子的、磁性的、光学的、电磁的、红外的、或半导体系统、装置或设备,或者上述内容的任何合适组合。机器可读存储介质的更具体示例会包括基于一个或多个线的电气连接、便携式计算机盘、硬盘、随机存取存储器(RAM)、只读存储器(ROM)、可擦除可编程只读存储器(EPROM或快闪存储器)、光纤、便捷式紧凑盘只读存储器(CD-ROM)、光学存储设备、磁存储设备、或上述内容的任何合适组合。
为了提供与用户的交互,可以在计算机上实施此处描述的系统和技术,该计算机具有:用于向用户显示信息的显示装置(例如,CRT(阴极射线管)或者LCD(液晶显示器)监视器);以及键盘和指向装置(例如,鼠标或者轨迹球),用户可以通过该键盘和该指向装置来将输入提供给计算机。其它种类的装置还可以用于提供与用户的交互;例如,提供给用户的反馈可以是任何形式的传感反馈(例如,视觉反馈、听觉反馈、或者触觉反馈);并且可以用任何形式(包括声输入、语音输入或者、触觉输入)来接收来自用户的输入。
可以将此处描述的系统和技术实施在包括后台部件的计算系统(例如,作为数据服务器)、或者包括中间件部件的计算系统(例如,应用服务器)、或者包括前端部件的计算系统(例如,具有图形用户界面或者网络浏览器的用户计算机,用户可以通过该图形用户界面或者该网络浏览器来与此处描述的系统和技术的实施方式交互)、或者包括这种后台部件、中间件部件、或者前端部件的任何组合的计算系统中。可以通过任何形式或者介质的数字数据通信(例如,通信网络)来将系统的部件相互连接。通信网络的示例包括:局域网(LAN)、广域网(WAN)和互联网。
计算机系统可以包括客户端和服务器。客户端和服务器一般远离彼此并且通常通过通信网络进行交互。通过在相应的计算机上运行并且彼此具有客户端-服务器关系的计算机程序来产生客户端和服务器的关系。服务器可以是云服务器,又称为云计算服务器或云主机,是云计算服务体系中的一项主机产品,以解决了传统物理主机与VPS服务(“Virtual Private Server”,或简称“VPS”)中,存在的管理难度大,业务扩展性弱的缺陷。服务器也可以是分布式系统的服务器,或者是结合了区块链的服务器。
应该理解,可以使用上面所示的各种形式的流程,重新排序、增加或删除步骤。例如,本公开中记载的各步骤可以并行地执行也可以顺序地执行也可以不同的次序执行,只要能够实现本公开的技术方案所期望的结果,本文在此不进行限制。
上述具体实施方式,并不构成对本公开保护范围的限制。本领域技术人员应该明白的是,根据设计要求和其他因素,可以进行各种修改、组合、子组合和替代。任何在本公开的精神和原则之内所作的修改、等同替换和改进等,均应包含在本公开的保护范围之内。

Claims (18)

1.一种证件信息获取方法,包括:
获取目标证件图像;
对所述目标证件图像进行文本识别,确定文本识别结果;
根据所述文本识别结果,在所述目标证件图像中确定至少一个预设类型的字段所处的目标区域;
对所述目标区域进行字符识别,确定字符识别结果;
融合所述文本识别结果和所述字符识别结果,确定以及输出所述目标证件图像的文本信息;
其中,所述融合所述文本识别结果和所述字符识别结果,确定以及输出所述目标证件图像的文本信息,包括:
根据所述字符识别结果中第一预设位置的第一字符串和所述文本识别结果中第二预设位置的第二字符串,确定目标字符串;
利用所述目标字符串替换所述第一字符串,将替换后的字符识别结果与所述文本识别结果进行融合,生成以及输出所述目标证件图像的文本信息。
2.根据权利要求1所述的方法,其中,所述融合所述文本识别结果和所述字符识别结果,确定以及输出所述目标证件图像的文本信息,包括:
确定所述字符识别结果中第一预设位置的第一字符串;
确定所述文本识别结果中第二预设位置的第二字符串;
根据所述第一字符串和所述第二字符串,确定目标字符串;
根据所述文本识别结果以及所述目标字符串,确定以及输出所述目标证件图像的文本信息。
3.根据权利要求2所述的方法,其中,所述第一字符串以及所述第二字符串表示日期;以及
所述根据所述第一字符串和所述第二字符串,确定目标字符串,包括:
响应于确定所述第一字符串以及所述第二字符串表示的日期在预设日期之后,将所述第二字符串作为所述目标字符串。
4.根据权利要求1所述的方法,其中,所述对所述目标证件图像进行文本识别,确定文本识别结果,包括:
确定所述目标证件图像中各字段所在的行区域;
对各行区域进行文本识别,确定文本识别结果。
5.根据权利要求4所述的方法,其中,所述确定所述目标证件图像中各字段所在的行区域,包括:
提取所述目标证件图像的特征,得到特征图;
根据所述特征图,确定各字段所在的多个行候选框;
对于每个字段,从所述多个行候选框中确定出该字段所在的行区域。
6.根据权利要求4所述的方法,其中,所述对各行区域进行文本识别,确定文本识别结果,包括:
将各行区域所在图像进行仿射变换,得到对应的变换特征图;
对所述变换特征图进行解码,确定文本识别结果。
7.根据权利要求1-6任一项所述的方法,其中,获取证件图像,包括:
获取待分析图像;
响应于确定所述待分析图像中包括证件图像,确定所述证件图像的边框;
根据所述边框,确定目标证件图像。
8.根据权利要求7所述的方法,其中,所述根据所述边框,确定目标证件图像,包括:
对所述边框进行矫正,将矫正后的图像作为目标证件图像。
9.一种证件信息获取装置,包括:
图像获取单元,被配置成获取目标证件图像;
文本识别单元,被配置成对所述目标证件图像进行文本识别,确定文本识别结果;
区域确定单元,被配置成根据所述文本识别结果,在所述目标证件图像中确定至少一个预设类型的字段所处的目标区域;
字符识别单元,被配置成对所述目标区域进行字符识别,确定字符识别结果;
结果融合单元,被配置成融合所述文本识别结果和所述字符识别结果,确定以及输出所述目标证件图像的文本信息;
其中,所述结果融合单元进一步被配置成:
根据所述字符识别结果中第一预设位置的第一字符串和所述文本识别结果中第二预设位置的第二字符串,确定目标字符串;
利用所述目标字符串替换所述第一字符串,将替换后的字符识别结果与所述文本识别结果进行融合,生成以及输出所述目标证件图像的文本信息。
10.根据权利要求9所述的装置,其中,所述结果融合单元进一步被配置成:
确定所述字符识别结果中第一预设位置的第一字符串;
确定所述文本识别结果中第二预设位置的第二字符串;
根据所述第一字符串和所述第二字符串,确定目标字符串;
根据所述文本识别结果以及所述目标字符串,确定以及输出所述目标证件图像的文本信息。
11.根据权利要求9所述的装置,其中,所述第一字符串以及所述第二字符串表示日期;以及
所述结果融合单元进一步被配置成:
响应于确定所述第一字符串以及所述第二字符串表示的日期在预设日期之后,将所述第二字符串作为所述目标字符串。
12.根据权利要求9所述的装置,其中,所述文本识别单元进一步被配置成:
确定所述目标证件图像中各字段所在的行区域;
对各行区域进行文本识别,确定文本识别结果。
13.根据权利要求12所述的装置,其中,所述文本识别单元进一步被配置成:
提取所述目标证件图像的特征,得到特征图;
根据所述特征图,确定各字段所在的多个行候选框;
对于每个字段,从所述多个行候选框中确定出该字段所在的行区域。
14.根据权利要求12所述的装置,其中,所述文本识别单元进一步被配置成:
将各行区域所在图像进行仿射变换,得到对应的变换特征图;
对所述变换特征图进行解码,确定文本识别结果。
15.根据权利要求9-14任一项所述的装置,其中,所述图像获取单元进一步被配置成:
获取待分析图像;
响应于确定所述待分析图像中包括证件图像,确定所述证件图像的边框;
根据所述边框,确定目标证件图像。
16.根据权利要求15所述的装置,其中,所述图像获取单元进一步被配置成:
对所述边框进行矫正,将矫正后的图像作为目标证件图像。
17.一种电子设备,包括:
至少一个处理器;以及
与所述至少一个处理器通信连接的存储器;其中,
所述存储器存储有可被所述至少一个处理器执行的指令,所述指令被所述至少一个处理器执行,以使所述至少一个处理器能够执行权利要求1-8中任一项所述的方法。
18.一种存储有计算机指令的非瞬时计算机可读存储介质,所述计算机指令用于使所述计算机执行权利要求1-8中任一项所述的方法。
CN202110651962.3A 2021-06-11 2021-06-11 证件信息获取方法、装置、设备以及存储介质 Active CN113313113B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202110651962.3A CN113313113B (zh) 2021-06-11 2021-06-11 证件信息获取方法、装置、设备以及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202110651962.3A CN113313113B (zh) 2021-06-11 2021-06-11 证件信息获取方法、装置、设备以及存储介质

Publications (2)

Publication Number Publication Date
CN113313113A CN113313113A (zh) 2021-08-27
CN113313113B true CN113313113B (zh) 2022-09-23

Family

ID=77378568

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110651962.3A Active CN113313113B (zh) 2021-06-11 2021-06-11 证件信息获取方法、装置、设备以及存储介质

Country Status (1)

Country Link
CN (1) CN113313113B (zh)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114842489A (zh) * 2022-05-13 2022-08-02 北京百度网讯科技有限公司 表格解析方法及装置
CN117333421A (zh) * 2022-06-24 2024-01-02 北京京东振世信息技术有限公司 一种图像清晰度确定方法、装置、设备及存储介质
CN115331230B (zh) * 2022-08-17 2023-04-14 北京睿企信息科技有限公司 一种获取文本识别区域的数据处理系统

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110689010B (zh) * 2019-09-27 2021-05-11 支付宝(杭州)信息技术有限公司 一种证件识别方法及装置
CN111291794A (zh) * 2020-01-21 2020-06-16 上海眼控科技股份有限公司 字符识别方法、装置、计算机设备和计算机可读存储介质
CN112507946A (zh) * 2020-12-18 2021-03-16 北京百度网讯科技有限公司 用于处理图像的方法、装置、设备以及存储介质
CN112699775A (zh) * 2020-12-28 2021-04-23 中国平安人寿保险股份有限公司 基于深度学习的证件识别方法、装置、设备及存储介质

Also Published As

Publication number Publication date
CN113313113A (zh) 2021-08-27

Similar Documents

Publication Publication Date Title
CN113313113B (zh) 证件信息获取方法、装置、设备以及存储介质
CN112949415B (zh) 图像处理方法、装置、设备和介质
JP2023541532A (ja) テキスト検出モデルのトレーニング方法及び装置、テキスト検出方法及び装置、電子機器、記憶媒体並びにコンピュータプログラム
CN113971751A (zh) 训练特征提取模型、检测相似图像的方法和装置
CN113205041B (zh) 结构化信息提取方法、装置、设备和存储介质
CN113239807B (zh) 训练票据识别模型和票据识别的方法和装置
CN115578735B (zh) 文本检测方法和文本检测模型的训练方法、装置
CN115546488B (zh) 信息分割方法、信息提取方法和信息分割模型的训练方法
CN116311214B (zh) 车牌识别方法和装置
CN113901909A (zh) 基于视频的目标检测方法、装置、电子设备和存储介质
CN112989995A (zh) 文本检测方法、装置及电子设备
CN113313114B (zh) 证件信息获取方法、装置、设备以及存储介质
CN113657274A (zh) 表格生成方法、装置、电子设备、存储介质及产品
CN113643260A (zh) 用于检测图像质量的方法、装置、设备、介质和产品
CN113255501A (zh) 生成表格识别模型的方法、设备、介质及程序产品
CN114764874B (zh) 深度学习模型的训练方法、对象识别方法和装置
CN115565186A (zh) 文字识别模型的训练方法、装置、电子设备和存储介质
CN114120305B (zh) 文本分类模型的训练方法、文本内容的识别方法及装置
CN115631502A (zh) 文字识别方法、装置、模型训练方法、电子设备及介质
CN114549904A (zh) 视觉处理及模型训练方法、设备、存储介质及程序产品
CN114724144A (zh) 文本识别方法、模型的训练方法、装置、设备及介质
CN114612971A (zh) 人脸检测方法、模型训练方法、电子设备及程序产品
CN115035351A (zh) 基于图像的信息提取模型、方法、装置、设备及存储介质
CN114677566A (zh) 深度学习模型的训练方法、对象识别方法和装置
CN114359931A (zh) 一种快递面单识别方法、装置、计算机设备及存储介质

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant