CN117132749A - 彩打证件识别模型训练方法、彩打证件识别方法及装置 - Google Patents
彩打证件识别模型训练方法、彩打证件识别方法及装置 Download PDFInfo
- Publication number
- CN117132749A CN117132749A CN202310985015.7A CN202310985015A CN117132749A CN 117132749 A CN117132749 A CN 117132749A CN 202310985015 A CN202310985015 A CN 202310985015A CN 117132749 A CN117132749 A CN 117132749A
- Authority
- CN
- China
- Prior art keywords
- certificate
- sample
- image
- target
- color printing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 129
- 238000012549 training Methods 0.000 title claims abstract description 69
- 238000005286 illumination Methods 0.000 claims abstract description 49
- 230000008569 process Effects 0.000 claims description 48
- 238000004590 computer program Methods 0.000 claims description 25
- 230000004927 fusion Effects 0.000 claims description 17
- 238000012545 processing Methods 0.000 claims description 12
- 238000007781 pre-processing Methods 0.000 claims description 10
- 238000000605 extraction Methods 0.000 claims description 7
- 238000012360 testing method Methods 0.000 description 13
- 238000004422 calculation algorithm Methods 0.000 description 11
- 238000013527 convolutional neural network Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 10
- 230000008859 change Effects 0.000 description 8
- 239000000463 material Substances 0.000 description 8
- 238000004891 communication Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 6
- 238000004364 calculation method Methods 0.000 description 5
- 238000002372 labelling Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 4
- 230000000903 blocking effect Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 230000009286 beneficial effect Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 238000013507 mapping Methods 0.000 description 2
- 238000007500 overflow downdraw method Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- PXFBZOLANLWPMH-UHFFFAOYSA-N 16-Epiaffinine Natural products C1C(C2=CC=CC=C2N2)=C2C(=O)CC2C(=CC)CN(C)C1C2CO PXFBZOLANLWPMH-UHFFFAOYSA-N 0.000 description 1
- 241000565357 Fraxinus nigra Species 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000002452 interceptive effect Effects 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 230000002093 peripheral effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/141—Control of illumination
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
- G06N3/0455—Auto-encoder networks; Encoder-decoder networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0464—Convolutional networks [CNN, ConvNet]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
- G06V10/765—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/766—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using regression, e.g. by projecting features on hyperplanes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/80—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level
- G06V10/806—Fusion, i.e. combining data from various sources at the sensor level, preprocessing level, feature extraction level or classification level of extracted features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Biomedical Technology (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Image Analysis (AREA)
Abstract
本说明书实施例公开了一种彩打证件识别模型训练方法,包括:针对每个证件样本,在所述证件样本上的不同位置引入光照信息,并对所述证件样本进行图像采集,得到证件样本图像序列;所述证件样本包括真实证件样本和彩打证件样本;为所述证件样本图像序列设置分类标签;通过所述证件样本图像序列和所述分类标签训练预先构建的分类器模型,直至获得满足预设条件的彩打证件识别模型。相应地,本发明公开了彩打证件识别模型训练装置、彩打证件识别方法及装置。
Description
技术领域
本发明涉及计算机技术领域,尤其涉及一种彩打证件识别模型训练方法、彩打证件识别方法及装置。
背景技术
在基于证件的身份认证过程中,通常需要采集证件图像,然后通过防伪算法识别图像的真实性,进而核验图像中的身份信息是否正确。目前,黑灰产行业会采用彩打证件来骗过防伪算法。彩打证件与真实证件的差异较小,当前防伪算法对这种微小差异并不敏感,不能较好地抵抗彩打证件的攻击。
发明内容
本说明书的一个或多个实施例提供了一种彩打证件识别模型训练方法、彩打证件识别方法及装置,能够通过采集证件视频序列,并引入光照,有效区分彩打证件与真实证件。
根据第一方面,提供了一种彩打证件识别模型训练方法,包括:
针对每个证件样本,在所述证件样本上的不同位置引入光照信息,并对所述证件样本进行图像采集,得到证件样本图像序列;所述证件样本包括真实证件样本和彩打证件样本;
为所述证件样本图像序列设置分类标签;
通过所述证件样本图像序列和所述分类标签训练预先构建的分类器模型,直至获得满足预设条件的彩打证件识别模型。
作为第一方面所述方法的一种可选实施方式,所述在所述证件样本上的不同位置引入光照信息,具体包括:
在对所述证件样本进行图像采集的过程中,通过光源照射所述证件样本的不同位置,以在所述证件样本上的不同位置引入所述光照信息。
作为第一方面所述方法的一种可选实施方式,所述方法还包括:在对所述证件样本进行图像采集的过程中,对图像采集设备与所述证件样本之间的相对位置进行至少一轮位置调整,直至获得所有预设采集角度的证件样本图像;每一轮所述位置调整具体包括:
针对当前采集到的证件样本图像,基于所述证件样本图像中所述证件样本的四个角点的位置,确定所述证件样本图像的采集角度;
基于所述采集角度和预设的目标采集角度,确定调整角度;
基于所述调整角度,调整所述图像采集设备与所述证件样本之间的相对位置。
作为第一方面所述方法的一种可选实施方式,所述方法还包括:在对所述证件样本进行图像采集的过程中,基于所述证件样本与图像采集设备之间的相对位置关系确定采集角度;
当所述采集角度发生变化时,对所述证件样本进行隔帧图像采集。
作为第一方面所述方法的一种可选实施方式,所述方法还包括:在对所述证件样本进行图像采集的过程中,对所述证件样本进行目标跟踪,以使所述证件样本完整落入图像采集框中。
作为第一方面所述方法的一种可选实施方式,所述方法还包括:
在得到所述证件样本图像序列后,针对所述证件样本图像序列中的每一张证件样本图像,确定所述证件样本图像中证件样本的四个角点的位置;
基于所述证件样本图像中证件样本的四个角点的位置,对所述证件样本图像序列中的所述证件样本图像进行对齐处理。
作为第一方面所述方法的一种可选实施方式,所述分类器模型包括多个独立编码器和一个全局编码器;所述多个独立编码器的卷积核各不相同;
所述多个独立编码器对输入的所述证件样本图像序列分别进行特征提取,得到不同维度的第一特征图像;
所述全局编码器将所述多个独立编码器输出的不同维度的所述第一特征图像进行聚合,得到第二特征图像,并将所述第二特征映射到预设的类别输出层。
具体地,相邻的所述独立编码器之间通过特征融合结构连接;
所述独立编码器对输入的所述证件样本图像序列进行特征提取后,通过所述特征融合结构将提取的特征与相邻独立编码器提取的中间特征进行融合,得到所述第一特征图像。
根据第二方面,提供了一种彩打证件识别方法,包括:
获取待识别的目标证件;
在所述目标证件上的不同位置引入光照信息,并对所述目标证件进行图像采集,得到目标证件图像序列;
将所述目标证件图像序列输入至彩打证件识别模型,所述彩打证件识别模型通过任意一项上述的彩打证件识别模型训练方法预先训练得到;
基于所述彩打证件识别模型的识别结果,确定所述目标证件是否为彩打证件。
根据第三方面,提供了一种彩打证件识别模型训练装置,包括:
第一图像采集模块,配置为对证件样本进行图像采集,得到证件样本图像序列;所述证件样本包括真实证件样本和彩打证件样本;
第一光源模块,配置为在所述第一图像采集模块对所述证件样本进行图像采集的过程中,在所述证件样本上的不同位置引入光照信息;
第一数据获取模块,配置为获取用户为所述证件样本图像序列设置的分类标签;
训练模块,配置为基于所述证件样本图像序列和所述分类标签训练预先构建的分类器模型,直至获得满足预设条件的彩打证件识别模型。
作为第三方面所述装置的一种可选实施方式,所述第一图像采集模块还包括第一目标跟踪模块;所述第一目标跟踪模块配置为在对所述证件样本进行图像采集的过程中,对所述证件样本进行目标跟踪,以使所述证件样本完整落入图像采集框中。
作为第三方面所述装置的一种可选实施方式,所述第一图像采集模块还包括角度调整模块;所述角度调整模块配置为在对所述证件样本进行图像采集的过程中,对所述第一图像采集模块与所述证件样本之间的相对位置进行至少一轮位置调整,直至获得所有预设采集角度的证件样本图像;每一轮所述位置调整具体包括:
针对当前采集到的证件样本图像,基于所述证件样本图像中所述证件样本的四个角点的位置,确定所述证件样本图像的采集角度;基于所述采集角度和预设的目标采集角度,确定调整角度;基于所述调整角度,调整所述第一图像采集模块与所述证件样本之间的相对位置。
作为第三方面所述装置的一种可选实施方式,所述装置还包括预处理模块;所述预处理模块配置为在得到所述证件样本图像序列后,针对所述证件样本图像序列中的每一张证件样本图像,确定所述证件样本图像中证件样本的四个角点的位置;基于所述证件样本图像中证件样本的四个角点的位置,对所述证件样本图像序列中的所述证件样本图像进行对齐处理。
根据第四方面,提供了一种彩打证件识别装置,包括:
第二图像采集模块,配置为对目标证件进行图像采集,得到目标证件图像序列;
第二光源模块,配置为在所述第二图像采集模块对所述目标证件进行图像采集的过程中,在所述目标证件上的不同位置引入光照信息;
彩打证件识别模块,配置为将所述目标证件图像序列输入彩打证件识别模型,基于所述彩打证件识别模型的识别结果,确定所述目标证件是否为彩打证件;所述彩打证件识别模型通过权利要求1至8任意一项所述的彩打证件识别模型训练方法预先训练得到。
根据第五方面,提供了一种计算机可读取存储介质,包括计算机程序指令,当所述计算机程序指令由处理器执行时,所述处理器执行所述计算机程序指令时实现任意一项上述的彩打证件识别模型训练方法,或者所述处理器执行所述计算机程序指令时实现上述的彩打证件识别方法。
根据第六方面,提供了一种包含计算机程序指令的计算机程序产品,当所述计算机程序指令被处理器运行时实现任意一项上述的彩打证件识别模型训练方法,或者实现上述的彩打证件识别方法。
根据第七方面,提供了一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序指令,所述处理器执行所述计算机程序指令时实现任意一项上述的彩打证件识别模型训练方法,或者所述处理器执行所述计算机程序时实现上述的彩打证件识别方法。
本说明书一个或多个实施例所述的彩打证件识别模型训练方法的有益效果在于,在证件样本上的不同位置处引入光照信息有利于获取证件在不同位置处的图像特征,包括内容特征和材质特征等,从而基于图像特征之间的差异能够更准确地区分彩打证件和真实证件;此外,在证件图像采集过程中进行位置调整能够较完整地获取证件的不同位置在光照下的变化情况,优化彩打证件识别模型的训练效果。在模型训练过程中,预先构建的分类器模型通过其拥有的多个独立编码器分别对证件样本图像序列进行不同维度的特征提取,获得的不同维度的特征之间还可以互相融合,最终将特征聚合并解码得到分类结果;通过特征融合使不同维度的图像特征相互关联,使聚合后的特征可以较全面地表示证件图像序列的内容,从而获得的分类结果更加准确。
本说明书一个或多个实施例所述的彩打证件识别方法基于目标证件的图像序列,并引入光照信息,通过训练好的、有一定防伪能力的彩打证件识别模型可以准确识别出彩打证件,减少用户的损失。
本说明书实施例所述的彩打证件识别模型训练装置以及彩打证件识别装置同样具有上述有益效果。
附图说明
为了更清楚地说明本说明书实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图是本说明书的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
图1示例性地示出了本说明书一个或多个实施例提供的一种彩打证件识别系统的示意图。
图2示例性地示出了本说明书一个或多个实施例提供的另一种彩打证件识别系统的示意图。
图3示例性地示出了本说明书一个或多个实施例所述的彩打证件识别模型训练方法在一种实施方式下的流程示意图。
图4示例性地示出了本说明书一个或多个实施例所述的彩打证件识别模型在一种场景下的结构示意图。
图5示例性地示出了本说明书一个或多个实施例所述的彩打证件识别方法在一种实施方式下的流程示意图。
图6示例性地示出了本说明书一个或多个实施例所述的彩打证件识别模型训练装置在一种实施方式下的结构框图。
图7示例性地示出了本说明书一个或多个实施例所述的彩打证件识别装置在一种实施方式下的结构框图。
图8示例性地示出了本说明书实施例提供的一种电子设备的结构图。
具体实施方式
首先,本领域技术人员可以理解,在本发明实施例中使用的术语是仅仅出于描述特定实施例的目的,而非旨在限制本发明。在本发明实施例和所附权利要求书中所使用的单数形式的“一种”、“所述”和“该”也旨在包括多数形式,除非上下文清楚地表示其他含义。
在基于证件的线上身份认证过程中,通常需要采集证件图像,然后通过各种类型的防伪算法识别证件图像的真实性,进而核验图像中的身份信息是否正确。目前,黑灰产行业试图采用彩打证件来骗过防伪算法,仅从单张的证件图片上看,彩打证件与真实证件的差异较小,当前防伪算法对这种微小差异并不敏感,不能较好地抵抗彩打证件的攻击。
而在证件采集过程中,当晃动证件时,在光线作用下彩打证件和真实证件的材质会有明显的区别;另外,部分真实证件上的防伪标志在光照下可以反光,因此彩打证件与真实证件在防伪标志等不同位置处的图像特征也不相同。
有鉴于此,本说明书的一个或多个实施例提出一种新的防御彩打证件的方法,能够有效区分彩打证件和真证的差别,并且适用于多种证件,识别准确率高。
为了使本技术领域的人员更好地理解本说明书中的技术方案,下面将结合本说明书实施例中的附图,对本说明书实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本说明书一部分实施例,而不是全部的实施例。基于本说明书中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其他实施例,都应当属于本说明书保护的范围。
需要说明的是:在其他实施例中并不一定按照本说明书示出和描述的顺序来执行相应方法的步骤。在一些其他实施例中,其方法所包括的步骤可以比本说明书所描述的更多或更少。此外,本说明书中所描述的单个步骤,在其他实施例中可能被分解为多个步骤进行描述;而本说明书中所描述的多个步骤,在其他实施例中也可能被合并为单个步骤进行描述。
本发明的一个或多个实施例提供了一种彩打证件识别模型训练方法以及彩打证件识别方法。请参考图1,图1示例性的显示了一种彩打证件识别系统,可以用于实现该彩打证件识别模型训练方法以及彩打证件识别方法。需要说明的是,本申请的一个或多个实施例所述的彩打证件识别模型训练方法以及彩打证件识别方法,可以依赖图1所示的彩打证件识别系统实现,但不限于该彩打证件识别系统。
如图1所示,彩打证件识别系统包括采集端和测试端,在本实施例中,采集端与测试端可以分别部署于两个终端内。采集端通过通信链路与测试端连接,所述通信链路可以为有线网络,也可以是无线网络。例如,采集端可以采用WIFI、蓝牙、红外等通信方式与测试端建立通信连接。或者,采集端也可以通过移动网络与测试端建立通信连接,其中,移动网络的网络制式可以为2G(GSM)、2.5G(GPRS)、3G(WCDMA、TD-SCDMA、CDMA2000、UTMS)、4G(LTE)、4G+(LTE+)、WiMax等中的任意一种。
采集端可以是手机、智能手表、平板电脑、可穿戴设备等具备图像采集功能的设备,其中安装了可以用于采集证件图片的前端app,通过调用app中的相关算法采集到证件图片序列后,采集端将采集结果传输至测试端进行防伪识别。
测试端可以是电脑、手机等可以存储数据并执行算法的终端,测试端中部署了彩打证件识别模型,该模型可以在当前测试端中训练,也可以在外设的其他终端中训练。测试端接收到证件图片序列后,利用彩打证件识别模型判断是否为假证来实现证件防伪。
图2示例性的显示了另一种彩打证件识别系统,同样可以用于实现本说明书一个或多个实施例中所述的彩打证件识别模型训练方法以及彩打证件识别方法。在另一个实施方式中,在同一个终端内分别部署采集模块和测试模块,双方通过该终端内的通信链路建立通信连接,例如可以在同一个手机中部署采集模块和测试模块,采集模块在前端采集到证件图片序列后直接传输给后端的测试模块进行防伪识别。
对应于上述彩打证件识别系统,在一些实施例中,本说明书提供了一种彩打证件识别模型训练方法,请参考图3,该方法包括以下步骤:
S100:针对每个证件样本,在证件样本上的不同位置引入光照信息,并对证件样本进行图像采集,得到证件样本图像序列;证件样本包括真实证件样本和彩打证件样本。
在证件样本采集过程中,当证件移动幅度较大时,在光线作用下彩打证件和真实证件的材质会有明显的区别,在移动过程中一些真实证件上甚至可以观察到反光的防伪标志,因此,针对彩打证件可以通过采集视频得到证件样本图像序列,并在采集过程中引入光照,通过晃动证件样本得到其在光照下的不同位置处的图像特征,据此可以提高彩打证件识别的准确性。
在一些实施例中,在证件样本上的不同位置引入光照信息,具体包括:
在对证件样本进行图像采集的过程中,通过光源照射证件样本的不同位置,以在证件样本上的不同位置引入光照信息。
具体地,移动终端可以采用手机来进行图像采集,则光源可以使用手机闪光灯。通过晃动手机使闪光灯照射在证件上的不同位置并采集到相应的证件图像,从而根据彩打证件与真实证件之间的差异性,可以较准确地识别出彩打证件。
在一些实施例中,在对证件样本进行图像采集的过程中,对证件样本进行目标跟踪,以使证件样本完整落入图像采集框中。
在实际应用中,用户打开移动终端上的客户端后,进入证件图像采集界面,则移动终端的屏幕上将显示一个图像采集框,以待采集的证件形状为矩形为例,图像采集框的四个角可以加粗显示,以提醒用户将证件的四角对齐。
可选地,可以采用如下述目标跟踪方法来实时采集证件图像,包括:针对每一帧图像,首先利用预设的第一级证件跟踪模型识别图像采集框中是否存在待采集的证件,若存在,则继续识别证件的四个角点位置,以作为证件的详细位置;否则调整移动终端或者证件的位置重新采集。接着,利用预设的第二级证件跟踪模型对获取到详细位置的证件图像进行质量检测,以判断证件类型以及证件质量,例如清晰度、抖动程度、角度、正反面类型和遮挡程度等,是否符合要求,若证件类型和证件质量均符合要求,则确认采集落入图像采集框中的证件样本,具体地,可以在预设的采集时间内选择质量最好的一帧证件图像进行采集;否则,通过交互窗口向用户反馈证件的质量问题,以引导用户调整证件或者环境从而提高采集成功率;然后重复上述步骤进行下一帧图像的采集,最终可以得到证件样本图像序列。需要说明的是,第一级证件跟踪模型与第二级证件跟踪模型可以是同一个模型,也可以是不同的模型。
具体地,预设的证件跟踪模型可以是基于以下算法中的一种训练得到的:卷积神经网络(Convolutional Neural Networks,CNN)和支持向量机(support vectormachines,SVM)等。
在训练第一级证件跟踪模型时,输入样本包括包含证件的图像序列和正标签,以及不包含证件的图像序列和负标签,标签内还包含证件在图像中的位置信息;将样本输入第一级证件跟踪模型,输出为图像序列中是否包含证件以及在包含证件时证件在图像中的详细位置,例如矩形证件的四个角点的坐标;通过计算样本标签与模型输出结果之间的差距确定第一损失,并以第一损失最小化为目标训练第一级证件跟踪模型。第一级证件跟踪模型的训练为多任务训练,包括分类任务,检测图像中是否有证件,以及回归任务,确定图像中证件的位置信息。
在训练第二级证件跟踪模型时,输入样本为不同类型的证件图像以及对应的样本标签,标签内包含证件图像的类型和真实质量分数;将样本输入第二级证件跟踪模型,预测出样本对应的证件类型以及质量分数;通过计算样本标签与模型输出结果之间的差距确定第二损失,并以第二损失最小化为目标训练第二级证件跟踪模型。
在一些实施例中,在对证件样本进行图像采集的过程中,对图像采集设备与证件样本之间的相对位置进行至少一轮位置调整,直至获得所有预设采集角度的证件样本图像;每一轮位置调整具体包括:
针对当前采集到的证件样本图像,基于证件样本图像中证件样本的四个角点的位置,确定证件样本图像的采集角度;
基于采集角度和预设的目标采集角度,确定调整角度;
基于调整角度,调整图像采集设备与证件样本之间的相对位置。
预设的目标采集角度内包含至少两种不同的角度,为了完整记录在光照条件下证件的状态,通过调整图像采集设备与证件样本之间的相对位置获得至少两帧不同角度的证件样本图像,其中,图像采集设备可以是手机、智能手表等移动终端。
在一些具体的实施方式中,可以采用CNN模型确定证件样本图像的采集角度,CNN模型可以根据证件样本的四个角点的坐标,计算出证件样本的角度标注信息,进而通过回归学习角度标注信息,得到证件在各方向上的姿态以及角度。
更具体地,以矩形证件为例,首先定位证件样本的四个角点,分别获取四个角点的坐标;根据角点坐标可以计算出证件四条边的长度A1、A2、B1、B2,其中A1与A2表示证件的长,B1与B2表示证件的宽;接着通过下式计算各边之间的比值并归一化:
其中,1.0、1.0、1.52分别为证件角度为正面时各边之间的比例;S1、S2、S3可以作为证件的角度标注信息,取值范围均为[-1,1]。
将角度标注信息输入预先训练的CNN模型中可以学习得到证件的姿态角度,进而根据姿态角度输出证件的采集角度,包括俯仰角(pitch)、偏航角(yaw)、翻滚角(roll),其分别为围绕x轴、y轴、z轴旋转产生的角度。
此处训练CNN模型的过程为回归任务,训练样本为大量不同角度下的证件图像。针对每张证件图像,计算证件的角度标注信息,并计算出对应的姿态角度以及采集角度(pitch、yaw、roll)作为样本标签,基于角度标注信息和样本标签构建映射曲线,基于映射曲线构建CNN模型;在每轮训练中,将训练样本输入CNN模型后,通过计算模型预测结果和样本标签之间的差异确定损失,以损失最小化为目标训练CNN模型。
移动图像采集设备以采集到不同环境下的至少两帧证件图像,可以较完整地记录下证件在不同光照环境下的变化情况,从而更好地区分彩打证件。
在一些实施例中,在对证件样本进行图像采集的过程中,基于证件样本与图像采集设备之间的相对位置关系确定采集角度;当采集角度发生变化时,对证件样本进行隔帧图像采集。
在证件样本与图像采集设备之间的相对位置或者角度发生变化时,按照预设的步长进行隔帧图像采集,或者还可以随机抽取图像帧进行采集,例如可以在采集到的证件图像之间插入一个空白帧,在记录证件姿态变化的同时区分不同的数据集,提高证件识别效率。
在一些实施例中,在得到证件样本图像序列后,针对证件样本图像序列中的每一张证件样本图像,确定证件样本图像中证件样本的四个角点的位置;基于证件样本图像中证件样本的四个角点的位置,对证件样本图像序列中的证件样本图像进行对齐处理。
可选地,可以采用基于回归的角点检测算法,提取证件样本图像序列中每一帧图像的角点,再基于证件样本图像序列中的第一帧正面的证件图像,根据提取出的角点位置将证件样本图像序列中的其他帧证件图像与第一帧证件图像对齐。具体地,可以采用SIFT算法提取出每一帧图像的四个角点,并基于证件样本图像序列中的第一帧正面的证件图像对其余帧证件图像进行仿射变换,从而能够快速有效地实现图像对齐。
检测到证件位置后采集证件视频,并从视频中提取出证件样本图像序列后,通过对齐预处理将各帧证件图像的大小、形状进行统一,能够去除背景因素的干扰,从而提高彩打证件识别的运算速度,节约计算成本。
S102:为证件样本图像序列设置分类标签。
分类标签包括当前采集到的证件样本图像序列是彩打证件或者真实证件,需要说明的是,在光照下彩打证件和真实证件的不同位置处有较明显的差异,例如真实证件上包含的防伪标志会变色或者高亮,另外,在光照下移动证件时,彩打证件和真实证件的材质差异也会体现。
S104:通过证件样本图像序列和分类标签训练预先构建的分类器模型,直至获得满足预设条件的彩打证件识别模型。
可选地,可以将证件样本图像序列输入预先构建的分类器模型中,得到对应的分类结果,通过计算分类结果和证件样本图像序列对应的分类标签之间的差异确定损失,以损失最小化为目标训练分类器模型,从而得到能准确区分彩打证件与真实证件的彩打证件识别模型。
具体地,可以通过计算分类结果和证件样本图像序列对应的分类标签之间的交叉熵或者均方差来确定损失。
在一些实施例中,分类器模型包括多个独立编码器和一个全局编码器;多个独立编码器的卷积核各不相同;多个独立编码器对输入的证件样本图像序列分别进行特征提取,得到不同维度的第一特征图像;全局编码器将多个独立编码器输出的不同维度的第一特征图像进行聚合,得到第二特征图像,并将第二特征映射到预设的类别输出层。
证件样本图像序列在输入多个独立编码器前,会先通过三维卷积进行图像分块并嵌入的操作,具体表现为:采用不同大小的卷积核分别将证件样本图像序列中的各帧图像划分为不重叠的图像块,图像块的大小与卷积核大小对应;再通过统一的线性投射将二维的图像块转化为一维的向量,得到各图像块对应的令牌(token),从而将待输入的二维的图像序列转化为独立编码器更易于处理的向量形式,类似于获得了进入模型的“通行证”,该过程为嵌入过程;将获得的所有向量连接起来,则可以得到分类器模型的输入,即证件样本图像序列对应的令牌集合(tokens)。需要说明的是,可以在得到的令牌中加入位置编码来记录图像块之间的位置关系;还可以添加一个可学习的令牌用于记录所有其他令牌的信息以用于最终的分类。
利用不同大小的卷积核对证件样本图像序列进行图像分块以及嵌入,可以得到表示同一证件样本图像序列的不同维度的令牌集合,这些令牌集合分别构成对应大小的视图。其中,使用较大的卷积核得到较大的视图,使用较小的卷积核得到的是较小的视图,所以较大的视图中特征较少,较小的视图中特征较多,进而从较大的视图中可以捕捉图像中大致的重点信息,而较小的视图中包含更多的细节信息。
每个视图都包含不同维度的特征信息,每个视图都分别使用不同的独立编码器进行特征编码,得到对应维度的第一特征图像;接着利用全局编码器有效地聚合所有第一特征图像,融合所有视图信息,最终得到第二特征图像,根据第二特征图像进行分类以判断是否为彩打证件。独立的编码器之间在体系结构上存在差异,只会处理对应维度的视图,因此可以有效减轻计算量,提高计算效率。
在一些更具体的实施例中,相邻的独立编码器之间通过特征融合结构连接;
独立编码器对输入的证件样本图像序列进行特征提取后,通过特征融合结构将提取的特征与相邻独立编码器提取的中间特征进行融合,得到第一特征图像。
不同的独立编码器之间横向连接了特征融合结构以融合不同视图中的特征信息,特征融合结构可以使用多种交叉视图融合方法进行特征融合,包括但不限于交叉视图注意力(Cross-view attention,CVA)、瓶颈令牌以及MLP融合;在每个相邻的独立编码器之间重复使用上述方法中至少一种,随着两两视图特征融合的进行,最终可以完成所有视图特征的融合,使得每个视图对应的第一特征图像都与其他视图相关联,能被其他视图所影响,从而能更好地表现图像特征,以使证件识别结果更加准确。
需要说明的是,由于每个独立的编码器层数不一定相同,相邻编码器之间的特征融合可以在不同层之间进行。
下面以一种具体场景为例详细说明本说明书实施例中所述的彩打证件识别模型训练方法,但该详细说明不构成对本发明的限制,该场景下的彩打证件识别模型如图4所示。
图4示例性地示出了本说明书一个或多个实施例所述的彩打证件识别模型在一种场景下的结构示意图。该场景下基于Transformer网络的结构构建彩打证件识别模型,其中多个独立的编码器以及全局编码器都采用Tranformer编码器。对于同一个证件样本图像序列,通过V个不同大小的卷积核进行图像分块以及嵌入,提取出不同维度,或者说不同隐藏尺寸的令牌集合(tokens)以作为模型输入,图4中用不同大小的黑色块表示不同隐藏尺寸的令牌,不同的令牌集合中令牌数量以及每个令牌的大小都依据卷积核大小决定。不同的令牌集合构成N个不同大小的视图,其中N小于等于V。可以用下式表示即将输入多视图Transformer模型的总令牌集合Z:
Z0=[z0,(1),z0,(2),...,z0,(V)]
其中,0表示Transformer编码器的第0层,则Z0表示输入Transformer编码器前的总令牌集合;z0,(V)表示位于Transformer编码器第0层的(输入Transformer编码器前的)、证件样本图像序列经过第V个卷积核处理后获得的令牌集合;V表示不同大小的卷积核的数量,即不同的令牌集合的数量。在每个z0中,还包括记录了图像块之间位置关系的位置编码p,以及用于记录所有其他令牌信息的分类令牌zcls,可以用于最终的分类。
每个视图都输入一个独立的视图Transformer编码器进行特征编码处理,输出对应的第一特征图像。图4中共有N个独立的视图Transformer编码器,对应地分别处理N个不同大小的视图,其中用L表示视图Transformer编码器中包含的层数,则L(1)表示第一个视图Transformer编码器的层数。
在相邻视图Transformer编码器之间,通过MLP融合的方法实现交叉视图融合,以横向地融合不同视图的特征,假设视图i与视图i+1为一对相邻视图,则在第i个视图Transformer编码器中,直接将视图i+1的令牌集合zi+1与视图i的令牌集合zi进行拼接,并通过第i个视图Transformer编码器中的MLP层输出视图i对应的第一特征图像;在每对相邻视图中重复上述步骤,从而实现特征融合。
当然,在其他实施例中,也可以采用交叉视图注意力(Cross-view attention,CVA)或者瓶颈令牌的方法来实现交叉视图融合。
每个独立的视图Transformer编码器分别输出特征融合后的第一特征图像后,通过全局Transformer编码器聚合特征,从而得到能代表全局特征的第二特征图像,可以用表示;并将第二特征图像输入MLP层进行分类,得到证件识别结果。
在本说明书的一些实施例中,提出了一种彩打证件识别方法。图5示例性地示出了本说明书一个或多个实施例所述的彩打证件识别方法在一种实施方式下的流程示意图。
如图5所示,该方法包括:
S200:获取待识别的目标证件;
S202:在目标证件上的不同位置引入光照信息,并对目标证件进行图像采集,得到目标证件图像序列;
S204:将目标证件图像序列输入至彩打证件识别模型,彩打证件识别模型通过任意一项上述的彩打证件识别模型训练方法预先训练得到;
S206:基于彩打证件识别模型的识别结果,确定目标证件是否为彩打证件。
在证件采集过程中,当晃动证件时,在光线作用下彩打证件和真实证件的材质会有明显的区别;另外,部分真实证件上的防伪标志在光照下可以反光,因此彩打证件与真实证件在防伪标志等不同位置处的图像特征也不相同。因此具体地,可以在闪光灯环境下晃动目标证件,使目标证件的不同位置处都引入光照信息,并利用客户端采集晃动目标证件过程的视频,从视频中提取目标证件图像序列。
在一些实施例中,在目标证件上的不同位置引入光照信息,具体包括:
在对目标证件进行图像采集的过程中,通过光源照射目标证件的不同位置,以在目标证件上的不同位置引入光照信息。
在一些实施例中,在对目标证件进行图像采集的过程中,对目标证件进行目标跟踪,以使目标证件完整落入图像采集框中。
在实际应用中,用户打开移动终端上的客户端后,进入证件图像采集界面,则移动终端的屏幕上将显示一个图像采集框,以待采集的证件形状为矩形为例,图像采集框的四个角可以加粗显示,以提醒用户将证件的四角对齐。
在一些实施例中,在对目标证件进行图像采集的过程中,对图像采集设备与目标证件之间的相对位置进行至少一轮位置调整,直至获得所有预设采集角度的目标证件图像;每一轮位置调整具体包括:
针对当前采集到的目标证件图像,基于目标证件图像中目标证件的四个角点的位置,确定目标证件图像的采集角度;
基于采集角度和预设的目标采集角度,确定调整角度;
基于调整角度,调整图像采集设备与目标证件之间的相对位置。
预设的目标采集角度内包含至少两种不同的角度,为了完整记录在光照条件下证件的状态,通过调整图像采集设备与目标证件之间的相对位置获得至少两帧不同角度的目标证件图像,这样可以较完整地记录下证件在不同光照环境下的变化情况,从而更好地区分彩打证件。
在一些实施例中,在对目标证件进行图像采集的过程中,基于目标证件与图像采集设备之间的相对位置关系确定采集角度;当采集角度发生变化时,对目标证件进行隔帧图像采集。
在证件样本与图像采集设备之间的相对位置或者角度发生变化时,按照预设的步长进行隔帧图像采集,或者还可以随机抽取图像帧进行采集,例如可以在采集到的证件图像之间插入一个空白帧,在记录证件姿态变化的同时区分不同的数据集,提高证件识别效率。
在一些实施例中,在得到目标证件图像序列后,针对目标证件图像序列中的每一张目标证件图像,确定目标证件图像中目标证件的四个角点的位置;基于目标证件图像中目标证件的四个角点的位置,对目标证件图像序列中的目标证件图像进行对齐处理。
通过对齐预处理可以将各帧证件图像的大小、形状进行统一,能够去除背景因素的干扰,从而提高彩打证件识别的运算速度,节约计算成本。
在彩打证件识别过程中,彩打证件识别模型将目标证件图像序列划分为不同视图进行特征提取,并横向交叉融合不同视图之间的特征,使得提取出的每个视图的特征互相关联,从而能够更好地表示目标证件图像序列的特点,使彩打证件识别结果更加准确。
在本说明书的另一些实施例中,提出了一种彩打证件识别模型训练装置30,如图6所示,包括:
第一图像采集模块32,配置为对证件样本进行图像采集,得到证件样本图像序列;证件样本包括真实证件样本和彩打证件样本;
第一光源模块34,配置为在第一图像采集模块对证件样本进行图像采集的过程中,在证件样本上的不同位置引入光照信息;
第一数据获取模块36,配置为获取用户为证件样本图像序列设置的分类标签;
训练模块38,配置为基于证件样本图像序列和分类标签训练预先构建的分类器模型,直至获得满足预设条件的彩打证件识别模型。
在证件样本采集过程中,当证件移动幅度较大时,在光线作用下彩打证件和真实证件的材质会有明显的区别,在移动过程中一些真实证件上甚至可以观察到反光的防伪标志,因此,第一图像采集模块通过采集视频得到证件样本图像序列,并在采集过程中引入光照,通过晃动证件样本得到其在光照下的不同位置处的图像特征,据此可以提高彩打证件识别的准确性。
在一些实施例中,第一光源模块具体包括:
在第一图像采集模块对证件样本进行图像采集的过程中,通过光源照射证件样本的不同位置,以在证件样本上的不同位置引入光照信息。
在一些实施例中,第一图像采集模块还包括第一目标跟踪模块;第一目标跟踪模块配置为在对证件样本进行图像采集的过程中,对证件样本进行目标跟踪,以使证件样本完整落入图像采集框中。
在实际应用中,用户打开移动终端上的客户端后,进入证件图像采集界面,则移动终端的屏幕上将显示一个图像采集框,以待采集的证件形状为矩形为例,图像采集框的四个角可以加粗显示,以提醒用户将证件的四角对齐。
在一些实施例中,第一图像采集模块还包括角度调整模块;角度调整模块配置为在对证件样本进行图像采集的过程中,对第一图像采集模块与证件样本之间的相对位置进行至少一轮位置调整,直至获得所有预设采集角度的证件样本图像;每一轮位置调整具体包括:
针对当前采集到的证件样本图像,基于证件样本图像中证件样本的四个角点的位置,确定证件样本图像的采集角度;基于采集角度和预设的目标采集角度,确定调整角度;基于调整角度,调整第一图像采集模块与证件样本之间的相对位置。
预设的目标采集角度内包含至少两种不同的角度,为了完整记录在光照条件下证件的状态,第一图像采集模块通过调整图像采集设备与证件样本之间的相对位置获得至少两帧不同角度的证件样本图像,这样可以较完整地记录下证件在不同光照环境下的变化情况,从而更好地区分彩打证件。
在一些实施例中,第一图像采集模块还包括:基于证件样本与图像采集设备之间的相对位置关系确定采集角度;当采集角度发生变化时,对证件样本进行隔帧图像采集。
在证件样本与图像采集设备之间的相对位置或者角度发生变化时,按照预设的步长进行隔帧图像采集,或者还可以随机抽取图像帧进行采集,例如可以在采集到的证件图像之间插入一个空白帧,在记录证件姿态变化的同时区分不同的数据集,提高证件识别效率。
在一些实施例中,还包括预处理模块;预处理模块配置为在得到证件样本图像序列后,针对证件样本图像序列中的每一张证件样本图像,确定证件样本图像中证件样本的四个角点的位置;基于证件样本图像中证件样本的四个角点的位置,对证件样本图像序列中的证件样本图像进行对齐处理。
预处理模块能够将各帧证件图像的大小、形状进行统一,去除背景因素的干扰,从而提高彩打证件识别的运算速度,节约计算成本。
第一数据获取模块获取的分类标签包括当前采集到的证件样本图像序列是彩打证件或者真实证件,需要说明的是,在光照下彩打证件和真实证件的不同位置处有较明显的差异,例如真实证件上包含的防伪标志会变色或者高亮,另外,在光照下移动证件时,彩打证件和真实证件的材质差异也会体现。
在训练模块中,可选地,可以将证件样本图像序列输入预先构建的分类器模型中,得到对应的分类结果,训练模块通过计算分类结果和证件样本图像序列对应的分类标签之间的差异确定损失,以损失最小化为目标训练分类器模型,从而得到能准确区分彩打证件与真实证件的彩打证件识别模型。
具体地,训练模块可以通过计算分类结果和证件样本图像序列对应的分类标签之间的交叉熵或者均方差来确定损失。
在本说明书的一些实施例中,提出了一种彩打证件识别装置40,如图7所示,包括:
第二图像采集模块42,配置为对目标证件进行图像采集,得到目标证件图像序列;
第二光源模块44,配置为在第二图像采集模块对目标证件进行图像采集的过程中,在目标证件上的不同位置引入光照信息;
彩打证件识别模块46,配置为将目标证件图像序列输入彩打证件识别模型,基于彩打证件识别模型的识别结果,确定目标证件是否为彩打证件;彩打证件识别模型通过任意一项上述的彩打证件识别模型训练方法预先训练得到。
在证件采集过程中,当证件移动幅度较大时,在光线作用下彩打证件和真实证件的材质会有明显的区别,在移动过程中真实证件上甚至可以观察到反光的防伪标志。因此具体地,第二图像采集模块可以通过在闪光灯环境下晃动目标证件,使目标证件的不同位置处都引入光照信息,并利用客户端采集晃动目标证件过程的视频,从视频中提取目标证件图像序列。
在一些实施例中,第二光源模块具体包括:
在对目标证件进行图像采集的过程中,通过光源照射目标证件的不同位置,以在目标证件上的不同位置引入光照信息。
在一些实施例中,第二图像采集模块还包括第二目标跟踪模块;第二目标跟踪模块配置为在对目标证件进行图像采集的过程中,对目标证件进行目标跟踪,以使目标证件完整落入图像采集框中。
在一些实施例中,第二图像采集模块还包括角度调整模块;角度调整模块配置为在对目标证件进行图像采集的过程中,对第二图像采集模块与目标证件之间的相对位置进行至少一轮位置调整,直至获得所有预设采集角度的目标证件图像;每一轮位置调整具体包括:
针对当前采集到的目标证件图像,基于目标证件图像中目标证件的四个角点的位置,确定目标证件图像的采集角度;基于采集角度和预设的目标采集角度,确定调整角度;基于调整角度,调整第一图像采集模块与目标证件之间的相对位置。
预设的目标采集角度内包含至少两种不同的角度,为了完整记录在光照条件下证件的状态,第二图像采集模块通过调整图像采集设备与目标证件之间的相对位置获得至少两帧不同角度的目标证件图像,这样可以较完整地记录下证件在不同光照环境下的变化情况,从而更好地区分彩打证件。
在一些实施例中,第二图像采集模块还包括:基于目标证件与图像采集设备之间的相对位置关系确定采集角度;当采集角度发生变化时,对目标证件进行隔帧图像采集。
在一些实施例中,还包括预处理模块;预处理模块配置为在得到目标证件图像序列后,针对目标证件图像序列中的每一张目标证件图像,确定目标证件图像中目标证件的四个角点的位置;基于目标证件图像中目标证件的四个角点的位置,对目标证件图像序列中的目标证件图像进行对齐处理。
预处理模块能够将各帧证件图像的大小、形状进行统一,去除背景因素的干扰,从而提高彩打证件识别的运算速度,节约计算成本。
彩打证件识别模块用于将目标证件图像序列划分为不同视图进行特征提取,并横向交叉融合不同视图之间的特征,使得提取出的每个视图的特征互相关联,从而能够更好地表示目标证件图像序列的特点,使彩打证件识别结果更加准确。
本说明书中的一种实施方式还提供一种计算机可读取存储介质,包括计算机程序指令,当所述计算机程序指令由处理器执行时,所述处理器执行所述计算机程序指令时实现任意一项上述的彩打证件识别模型训练方法,或者所述处理器执行所述计算机程序指令时实现上述的彩打证件识别方法。
本说明书中的一种实施方式还提供一种包含计算机程序指令的计算机程序产品,当所述计算机程序指令被处理器运行时实现任意一项上述的彩打证件识别模型训练方法,或者实现上述的彩打证件识别方法。
本说明书中的一种实施方式还提供一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序指令,所述处理器执行所述计算机程序指令时实现任意一项上述的彩打证件识别模型训练方法,或者所述处理器执行所述计算机程序时实现上述的彩打证件识别方法。
图8示例性地示出了本说明书实施例提供的一种电子设备的结构图,其示出了适于用来实现本发明实施例的终端设备或服务器的计算机系统500的结构示意图。图8示出的终端设备或服务器仅仅是一个示例,不应对本发明实施例的功能和使用范围带来任何限制。
在一个典型的配置中,计算机500包括一个或多个处理器(CPU)502、输入接口508、输出接口510、网络接口506和存储器504。
存储器504可能包括计算机可读介质中的非永久性存储器,随机存取存储器(RAM)和/或非易失性内存等形式,如只读存储器(ROM)或闪存(flash RAM)。存储器是计算机可读介质的示例。
特别地,根据本发明公开的实施例,上文参考流程图描述的过程可以被实现为计算机软件程序。例如,本发明公开的实施例包括一种计算机程序产品,其包括承载在计算机可读介质上的计算机程序,该计算机程序包含用于执行流程图所示的方法的程序代码。在该计算机程序被中央处理单元(CPU)502执行时,执行本发明的方法中限定的上述功能。
需要说明的是,本发明所示的计算机可读介质可以是计算机可读信号介质或者计算机可读存储介质或者是上述两者的任意组合。计算机可读存储介质例如可以是——但不限于——电、磁、光、电磁、红外线、或半导体的系统、装置或器件,或者任意以上的组合。计算机可读存储介质的更具体的例子可以包括但不限于:具有一个或多个导线的电连接、便携式计算机磁盘、硬盘、随机访问存储器(RAM)、只读存储器(ROM)、可擦式可编程只读存储器(EPROM或闪存)、光纤、便携式紧凑磁盘只读存储器(CD-ROM)、光存储器件、磁存储器件、或者上述的任意合适的组合。在本发明中,计算机可读存储介质可以是任何包含或存储程序的有形介质,该程序可以被指令执行系统、装置或者器件使用或者与其结合使用。而在本发明中,计算机可读的信号介质可以包括在基带中或者作为载波一部分传播的数据信号,其中承载了计算机可读的程序代码。这种传播的数据信号可以采用多种形式,包括但不限于电磁信号、光信号或上述的任意合适的组合。计算机可读的信号介质还可以是计算机可读存储介质以外的任何计算机可读介质,该计算机可读介质可以发送、传播或者传输用于由指令执行系统、装置或者器件使用或者与其结合使用的程序。计算机可读介质上包含的程序代码可以用任何适当的介质传输,包括但不限于:无线、电线、光缆、RF等等,或者上述的任意合适的组合。
描述于本发明实施例中所涉及到的单元或模块可以通过软件的方式实现,也可以通过硬件的方式来实现。所描述的单元或模块也可以设置在处理器中,例如,可以描述为:一种处理器包括第一图像采集模块、第一光源模块、第一数据获取模块和训练模块。其中,这些单元或模块的名称在某种情况下并不构成对该单元或模块本身的限定,例如,第一光源模块还可以被描述为“配置为在所述第一图像采集模块对所述证件样本进行图像采集的过程中,在所述证件样本上的不同位置引入光照信息的单元”。
作为另一方面,本发明还提供了一种计算机可读介质,该计算机可读介质可以是上述实施例中描述的设备中所包含的;也可以是单独存在,而未装配入该设备中。上述计算机可读介质承载有一个或者多个程序,当上述一个或者多个程序被一个该设备执行时,使得该设备包括:针对每个证件样本,在所述证件样本上的不同位置引入光照信息,并对所述证件样本进行图像采集,得到证件样本图像序列;所述证件样本包括真实证件样本和彩打证件样本;为所述证件样本图像序列设置分类标签;通过所述证件样本图像序列和所述分类标签训练预先构建的分类器模型,直至获得满足预设条件的彩打证件识别模型。此外,彩打证件识别模型在可以直接在该计算机可读介质中训练,也可以训练好后再加载到该计算机可读介质中。
上述对本说明书特定实施例进行了描述。其它实施例在所附权利要求书的范围内。在一些情况下,在权利要求书中记载的动作或步骤可以按照不同于实施例中的顺序来执行并且仍然可以实现期望的结果。另外,在附图中描绘的过程不一定要求示出的特定顺序或者连续顺序才能实现期望的结果。在某些实施方式中,多任务处理和并行处理也是可以的或者可能是有利的。还要注意的是,附图中的每个方框、以及附图中的方框的组合,可以用执行规定的功能或操作的专用的基于硬件的系统来实现,或者可以用专用硬件与计算机指令的组合来实现。
需要注意的是,以上列举的仅为本发明的具体实施例,显然本发明不限于以上实施例,随之有着许多的类似变化。本领域的技术人员如果从本发明公开的内容直接导出或联想到的所有变形,均应属于本发明的保护范围。
Claims (17)
1.一种彩打证件识别模型训练方法,包括:
针对每个证件样本,在所述证件样本上的不同位置引入光照信息,并对所述证件样本进行图像采集,得到证件样本图像序列;所述证件样本包括真实证件样本和彩打证件样本;
为所述证件样本图像序列设置分类标签;
通过所述证件样本图像序列和所述分类标签训练预先构建的分类器模型,直至获得满足预设条件的彩打证件识别模型。
2.如权利要求1所述的方法,所述在所述证件样本上的不同位置引入光照信息,具体包括:
在对所述证件样本进行图像采集的过程中,通过光源照射所述证件样本的不同位置,以在所述证件样本上的不同位置引入所述光照信息。
3.如权利要求1所述的方法,还包括:在对所述证件样本进行图像采集的过程中,对图像采集设备与所述证件样本之间的相对位置进行至少一轮位置调整,直至获得所有预设采集角度的证件样本图像;每一轮所述位置调整具体包括:
针对当前采集到的证件样本图像,基于所述证件样本图像中所述证件样本的四个角点的位置,确定所述证件样本图像的采集角度;
基于所述采集角度和预设的目标采集角度,确定调整角度;
基于所述调整角度,调整所述图像采集设备与所述证件样本之间的相对位置。
4.如权利要求1所述的方法,还包括:
在对所述证件样本进行图像采集的过程中,基于所述证件样本与图像采集设备之间的相对位置关系确定采集角度;
当所述采集角度发生变化时,对所述证件样本进行隔帧图像采集。
5.如权利要求1所述的方法,还包括:在对所述证件样本进行图像采集的过程中,对所述证件样本进行目标跟踪,以使所述证件样本完整落入图像采集框中。
6.如权利要求1所述的方法,还包括:
在得到所述证件样本图像序列后,针对所述证件样本图像序列中的每一张证件样本图像,确定所述证件样本图像中证件样本的四个角点的位置;
基于所述证件样本图像中证件样本的四个角点的位置,对所述证件样本图像序列中的所述证件样本图像进行对齐处理。
7.如权利要求1所述的方法,所述分类器模型包括多个独立编码器和一个全局编码器;所述多个独立编码器的卷积核各不相同;
所述多个独立编码器对输入的所述证件样本图像序列分别进行特征提取,得到不同维度的第一特征图像;
所述全局编码器将所述多个独立编码器输出的不同维度的所述第一特征图像进行聚合,得到第二特征图像,并将所述第二特征映射到预设的类别输出层。
8.如权利要求7所述的方法,相邻的所述独立编码器之间通过特征融合结构连接;
所述独立编码器对输入的所述证件样本图像序列进行特征提取后,通过所述特征融合结构将提取的特征与相邻独立编码器提取的中间特征进行融合,得到所述第一特征图像。
9.一种彩打证件识别方法,包括:
获取待识别的目标证件;
在所述目标证件上的不同位置引入光照信息,并对所述目标证件进行图像采集,得到目标证件图像序列;
将所述目标证件图像序列输入至彩打证件识别模型,所述彩打证件识别模型通过权利要求1至8任意一项所述的彩打证件识别模型训练方法预先训练得到;
基于所述彩打证件识别模型的识别结果,确定所述目标证件是否为彩打证件。
10.一种彩打证件识别模型训练装置,包括:
第一图像采集模块,配置为对证件样本进行图像采集,得到证件样本图像序列;所述证件样本包括真实证件样本和彩打证件样本;
第一光源模块,配置为在所述第一图像采集模块对所述证件样本进行图像采集的过程中,在所述证件样本上的不同位置引入光照信息;
第一数据获取模块,配置为获取用户为所述证件样本图像序列设置的分类标签;
训练模块,配置为基于所述证件样本图像序列和所述分类标签训练预先构建的分类器模型,直至获得满足预设条件的彩打证件识别模型。
11.如权利要求10所述的装置,所述第一图像采集模块还包括第一目标跟踪模块;所述第一目标跟踪模块配置为在对所述证件样本进行图像采集的过程中,对所述证件样本进行目标跟踪,以使所述证件样本完整落入图像采集框中。
12.如权利要求10所述的装置,所述第一图像采集模块还包括角度调整模块;所述角度调整模块配置为在对所述证件样本进行图像采集的过程中,对所述第一图像采集模块与所述证件样本之间的相对位置进行至少一轮位置调整,直至获得所有预设采集角度的证件样本图像;每一轮所述位置调整具体包括:
针对当前采集到的证件样本图像,基于所述证件样本图像中所述证件样本的四个角点的位置,确定所述证件样本图像的采集角度;基于所述采集角度和预设的目标采集角度,确定调整角度;基于所述调整角度,调整所述第一图像采集模块与所述证件样本之间的相对位置。
13.如权利要求10所述的装置,还包括预处理模块;所述预处理模块配置为在得到所述证件样本图像序列后,针对所述证件样本图像序列中的每一张证件样本图像,确定所述证件样本图像中证件样本的四个角点的位置;基于所述证件样本图像中证件样本的四个角点的位置,对所述证件样本图像序列中的所述证件样本图像进行对齐处理。
14.一种彩打证件识别装置,包括:
第二图像采集模块,配置为对目标证件进行图像采集,得到目标证件图像序列;
第二光源模块,配置为在所述第二图像采集模块对所述目标证件进行图像采集的过程中,在所述目标证件上的不同位置引入光照信息;
彩打证件识别模块,配置为将所述目标证件图像序列输入彩打证件识别模型,基于所述彩打证件识别模型的识别结果,确定所述目标证件是否为彩打证件;所述彩打证件识别模型通过权利要求1至8任意一项所述的彩打证件识别模型训练方法预先训练得到。
15.一种计算机可读取存储介质,包括计算机程序指令,当所述计算机程序指令由处理器执行时,所述处理器执行所述计算机程序指令时实现如权利要求1至8任意一项所述的彩打证件识别模型训练方法,或者所述处理器执行所述计算机程序指令时实现权利要求9所述的彩打证件识别方法。
16.一种包含计算机程序指令的计算机程序产品,当所述计算机程序指令被处理器运行时实现权利要求1至8任意一项所述的彩打证件识别模型训练方法,或者实现根据权利要求9所述的彩打证件识别方法。
17.一种电子设备,包括存储器、处理器及存储在存储器上并可在处理器上运行的计算机程序指令,所述处理器执行所述计算机程序指令时实现如权利要求1至8任意一项所述的彩打证件识别模型训练方法,或者所述处理器执行所述计算机程序时实现根据权利要求9所述的彩打证件识别方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310985015.7A CN117132749A (zh) | 2023-08-07 | 2023-08-07 | 彩打证件识别模型训练方法、彩打证件识别方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202310985015.7A CN117132749A (zh) | 2023-08-07 | 2023-08-07 | 彩打证件识别模型训练方法、彩打证件识别方法及装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117132749A true CN117132749A (zh) | 2023-11-28 |
Family
ID=88859205
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202310985015.7A Pending CN117132749A (zh) | 2023-08-07 | 2023-08-07 | 彩打证件识别模型训练方法、彩打证件识别方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117132749A (zh) |
-
2023
- 2023-08-07 CN CN202310985015.7A patent/CN117132749A/zh active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102138082B1 (ko) | 다수의 이미지 일치성을 바탕으로 보험클레임 사기 방지를 실현하는 방법, 시스템, 기기 및 판독 가능 저장매체 | |
CN111931664A (zh) | 混贴票据图像的处理方法、装置、计算机设备及存储介质 | |
Zang et al. | Vehicle license plate recognition using visual attention model and deep learning | |
CN110853033B (zh) | 基于帧间相似度的视频检测方法和装置 | |
CN111914812B (zh) | 图像处理模型训练方法、装置、设备及存储介质 | |
CN111914838B (zh) | 一种基于文本行识别的车牌识别方法 | |
Farag | A lightweight vehicle detection and tracking technique for advanced driving assistance systems | |
Gong et al. | Unified Chinese license plate detection and recognition with high efficiency | |
CN111325107A (zh) | 检测模型训练方法、装置、电子设备和可读存储介质 | |
CN103336938A (zh) | 一种基于一维条形码图像的识别方法 | |
Cho et al. | Semantic segmentation with low light images by modified CycleGAN-based image enhancement | |
CN111091023A (zh) | 一种车辆检测方法、装置及电子设备 | |
CN107251048A (zh) | 可靠指尖和手掌检测 | |
CN111738036A (zh) | 图像处理方法、装置、设备及存储介质 | |
CN114331949A (zh) | 一种图像数据处理方法、计算机设备以及可读存储介质 | |
CN110866900A (zh) | 水体颜色识别方法及装置 | |
Manjunatha et al. | Deep learning-based technique for image tamper detection | |
Ke et al. | An ultra-fast automatic license plate recognition approach for unconstrained scenarios | |
WO2022068931A1 (zh) | 非接触指纹识别方法、装置、终端及存储介质 | |
Shit et al. | An encoder‐decoder based CNN architecture using end to end dehaze and detection network for proper image visualization and detection | |
CN109523570B (zh) | 运动参数计算方法及装置 | |
CN113591603A (zh) | 证件的验证方法、装置、电子设备及存储介质 | |
CN113486715A (zh) | 图像翻拍识别方法、智能终端以及计算机存储介质 | |
Agarwal et al. | The advent of deep learning-based image forgery detection techniques | |
CN117132749A (zh) | 彩打证件识别模型训练方法、彩打证件识别方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |