CN108921006B - 手写签名图像真伪鉴别模型建立方法及真伪鉴别方法 - Google Patents
手写签名图像真伪鉴别模型建立方法及真伪鉴别方法 Download PDFInfo
- Publication number
- CN108921006B CN108921006B CN201810414281.3A CN201810414281A CN108921006B CN 108921006 B CN108921006 B CN 108921006B CN 201810414281 A CN201810414281 A CN 201810414281A CN 108921006 B CN108921006 B CN 108921006B
- Authority
- CN
- China
- Prior art keywords
- handwritten signature
- image
- signature image
- surf
- visual vocabulary
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/30—Writer recognition; Reading and verifying signatures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2411—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/462—Salient features, e.g. scale invariant feature transforms [SIFT]
- G06V10/464—Salient features, e.g. scale invariant feature transforms [SIFT] using a plurality of salient features, e.g. bag-of-words [BoW] representations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/50—Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
- G06V10/507—Summing image-intensity values; Histogram projection analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/40—Spoof detection, e.g. liveness detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/46—Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
- G06V10/467—Encoded features or binary features, e.g. local binary patterns [LBP]
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Data Mining & Analysis (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Life Sciences & Earth Sciences (AREA)
- Human Computer Interaction (AREA)
- Probability & Statistics with Applications (AREA)
- Collating Specific Patterns (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种手写签名图像真伪鉴别模型建立方法及真伪鉴别方法,该方法通过掩模剪裁方式对签名图像进行预处理,通过分别提取签名图像基于SURF特征与基于笔划区域的P‑ULBP特征的视觉词汇直方图,并将两个视觉词汇直方图进行拼接,构造最终的视觉词汇直方图,采用分类器构建手写签名图像真伪鉴别模型,再利用该模型进行图像真伪鉴别;其中通过掩模剪裁的方式,有效解决了当前方法原始图像细节信息丢失的问题,最大程度的保留了图像签名部位的信息;通过提取P‑ULBP特征,有效的解决了传统ULBP算子在签名图像特征提取中,有效信息实际占比低的问题,提高了离线手写签名真伪鉴别方法的鲁棒性。
Description
技术领域
本发明涉及手写签名真伪鉴别方法,具体涉及一种手写签名图像真伪鉴别模型建立方法及真伪鉴别方法。
背景技术
“生物测定学”是一种利用人的生理或行为等生物特征来进行个人身份鉴定的学科,目前,诸如指纹、掌纹、虹膜以及视网膜等生物特征都已广泛应用于身份识别,以增强安全性和隐私性。作为生物特征的一种,手写签名不仅具有稳定性和不变性的特点,而且具有采集过程为非侵入性的优势,因此手写签名系统广泛应用于商业、司法、政府部门等领域。
根据签名获取的方式不同,签名真伪鉴别分为在线(on-line)签名鉴别和离线(off-line)签名鉴别。在线签名鉴别是指在书写者书写的过程中,使用专门的输入设备(如手写板)实时记录书写人书写过程中的书写速度、握笔姿势、笔画书写顺序等实时动态信息作为签名特征,从而使签名鉴别有较高的准确率;离线签名鉴别是通过扫描仪输入签名样本,处理整幅手写签名的图像,通过提取诸如签名高宽比等与时间无关的静态特征来判别书写人身份。与在线笔迹鉴别相比,离线笔迹鉴别无法捕捉写字过程中的动态信息,因此准确率较低,鉴别起来更为困难。但是,离线签名鉴别不需要特别的样本输入设备,应用范围更广,更加具有使用价值。
传统的预处理方法,如签名图像二值化、平滑、去噪、压缩签名、骨架提取等方法都不可避免的导致了签名图像信息的丢失;而传统的特征提取方法,通常都是直接提取整幅输入图像上的特征,将角点特征(如SURF特征)、灰度特征(如LBP特征、HOG特征)提取后,进行直接的拼接,继而训练分类器。这不可避免的产生了如下两个问题:一方面,签名图像中大部分空间为空白区域,只在笔迹处具有特征,针对整幅图像提取特征会造成特征冗余;另一方面,通常不同的特征维度是不同的,直接拼接必然难以取得理想的效果。
发明内容
本发明的目的在于提供一种手写签名图像真伪鉴别模型建立方法及真伪鉴别方法,用以解决现有技术对手写签名真伪进行鉴别时特征提取时冗余信息较多,特征提取精度低导致签名鉴别结果不稳定的问题。
为了实现上述任务,本发明采用以下技术方案:
一种手写签名图像真伪鉴别模型建立方法,方法包括:
步骤1、采集多张手写签名图像,并为每张手写签名图像进行标签标记,所述的标签包括[1]代表真迹以及[0]代表伪迹;
步骤2、采用掩模裁剪的方式对所述的手写签名图像进行预处理,获得预处理后的手写签名图像;
步骤3、对所述的预处理后的手写签名图像中含有手写签名的区域提取ULBP特征,获得预处理后的手写签名图像的P-ULBP特征,所述的P-ULBP特征为所有含有手写签名的区域的ULBP特征的集合;
步骤4、建立预处理后的手写签名图像的SURF特征视觉词汇直方图,建立预处理后的手写签名图像的P-ULBP特征视觉词汇直方图;
步骤5、将所述的P-ULBP特征视觉词汇直方图与所述的SURF特征视觉词汇直方图首尾拼接,获得手写签名图像视觉词汇直方图;
步骤6、将多个手写签名图像视觉词汇直方图转换为向量形式作为输入,将多个手写签名图像对应的多个标签作为输出对分类器进行训练,获得手写签名图像真伪鉴别模型。
进一步地,所述的步骤2,包括以下步骤:
步骤21、对所述的手写签名图像进行图像增强,获得增强后的手写签名图像;
步骤22、对所述的增强后的手写签名图像进行膨胀,获得膨胀后的手写签名图像;
步骤23、对所述的膨胀后的手写签名图像进行滤波,获得掩模图像;
步骤24、利用所述的掩模图像对所述的手写签名图像进行裁剪,获得预处理后的手写签名图像。
进一步地,采用直方图均衡化的方式对所述的手写签名图像进行图像增强,采用中值滤波对所述的膨胀后的手写签名图像进行滤波。
进一步地,所述的步骤3,包括以下步骤:
步骤31、在所述预处理后的手写签名图像中设定2n×2n的滑动窗口,n>=1;
步骤32、使所述的滑动窗口以步长n进行滑动,检测当前滑动窗口中是否含有所述的手写签名,若当前滑动窗口中含有所述的手写签名,则执行步骤33;若当前滑动窗口中没有所述的手写签名,则执行步骤34;
步骤33、提取当前滑动窗口内部的ULBP特征向量;
步骤34、判断所述的滑动窗口是否在所述预处理后的手写签名图像中遍历一遍,若没有遍历一遍,则返回步骤32,若已经遍历了一遍,获得预处理后的手写签名图像内所有滑动窗口中的ULBP特征向量,获得所述预处理后的手写签名图像的P-ULBP特征向量。
进一步地,检测当前滑动窗口中是否含有所述的手写签名的方法为检测当前滑动窗口的像素值是否全为255,若像素值全为255,则当前滑动窗口为空白窗口,不包含手写签名;若像素值不全为255,则当前滑动窗口中包含手写签名。
进一步地,建立预处理后的手写签名图像的SURF特征视觉词汇直方图,包括以下步骤:
A、对所述的预处理后的手写签名图像提取SURF特征,获得SURF特征向量;
B、在所述的SURF特征向量中设置N个第一初始聚类中心进行聚类,获得N个第一最终聚类中心,将所述的第一最终聚类中心作为SURF视觉词汇,N>=1;
C、将所述的每一个SURF特征向量归入与其具有最短欧氏距离的SURF视觉词汇标签下,统计每个所述SURF视觉词汇标签下SURF特征向量的个数,获得SURF视觉词汇向量;
D、采用TF-IDF方法为所述SURF视觉词汇向量中每一个元素进行加权并转换成直方图的形式,建立所述SURF特征视觉词汇直方图。
进一步地,建立预处理后的手写签名图像的P-ULBP特征视觉词汇直方图,包括以下步骤:
a、设置M个第二初始聚类中心对所述的P-ULBP特征向量进行聚类,获得M个第二最终聚类中心,将所述的第二最终聚类中心作为P-ULBP视觉词汇,M>=1;
b、将所述的每一个P-ULBP特征向量归入与其具有最短欧氏距离的P-ULBP视觉词汇标签下,统计每个所述P-ULBP视觉词汇标签下P-ULBP特征向量的个数,获得P-ULBP视觉词汇向量;
c、采用TF-IDF方法为所述P-ULBP视觉词汇向量中每一个元素进行加权并转换成直方图的形式,获得所述P-ULBP特征视觉词汇直方图。
进一步地,采用K-means聚类算法对所述的SURF特征向量进行聚类,获得N个所述的SURF视觉词汇;采用K-means聚类算法对所述的P-ULBP特征向量进行聚类,获得M个所述的P-ULBP视觉词汇。
进一步地,所述的分类器为支持向量机。
一种手写签名图像真伪鉴别方法,方法包括:利用本发明所述的手写签名图像真伪鉴别模型对经过所述步骤2-5处理的待鉴别手写签名图像进行鉴别。
本发明与现有技术相比具有以下技术特点:
1、在预处理方面,本发明提供的方法相对于传统的图像二值化、平滑、骨架化等签名真伪鉴别预处理方法,采用掩模剪裁的方式,最大程度的保留了原始签名图像中的笔划处特征。
2、在特征提取方面,本发明提供的方法相对于传统的uniform LBP特征提取方法,考虑到签名图像大部分为空白区域,只在笔划处具有纹理特征的特点,因此提取签名图像的P-ULBP特征,克服了提取到的特征精确度低,冗余信息太多的问题。
3、本发明提供的方法采用基于双词袋模型的离线签名提取方案,避免了特征维度差异大的多特征直接拼接对鉴别结果的影响。
附图说明
图1为本发明提供的手写签名图像离线真伪鉴别方法的流程图;
图2为本发明的一个实施例中提供的手写签名图像;
图3为本发明的一个实施例中提供的增强后的手写签名图像;
图4为本发明的一个实施例中提供的膨胀后的手写签名图像;
图5为本发明的一个实施例中提供的掩模图像;
图6为本发明的一个实施例中提供的预处理后的手写签名图像;
图7为本发明的一个实施例中提供的滑动窗口示意图;
图8为本发明的一个实施例中提供的特征视觉词汇直方图示意图;
图9本发明的一个实施例中提供的伪迹手写签名图像。
具体实施方式
以下是发明人提供的具体实施例,以对本发明的技术方案作进一步解释说明。
实施例一
如图1至图9所示,本发明公开了一种手写签名图像真伪鉴别模型建立方法,如图1所示,包括以下步骤:
步骤1、采集多张手写签名图像,并为每张手写签名图像进行标签标记,所述的标签包括[1]代表真迹以及[0]代表伪迹;
通过电子设备采集签名样本,使之成为图像格式的手写签名,该电子设备可以是相机、手机等带有摄像头的电子设备,也可以是扫描仪等能够将纸质签名样本转换成图像格式的设备;手写签名图像也可以在图像数据库中直接调取。
在本实施例中,选择公开签名数据集CEDAR与MCYT-SignatureOff-75签名数据集中的所有图像作为手写签名图像,如图2所示,该张图像为本实施例中采集的其中一张手写签名图像,该幅手写签名图像的标签为[1],代表真迹。
步骤2、采用掩模裁剪对所述的手写签名图像进行预处理,获得预处理后的手写签名图像;
手写签名图像在采集过程中不可避免的带来了噪声、动态信息缺失等问题,这给之后的特征提取、真伪鉴别工作带来了影响,传统的预处理方式如二值化、细化、消除噪声等,直接在手写签名图像上进行操作,不可避免的改变了原始签名的信息,本发明采用掩模裁剪的方法对手写签名图像进行预处理,其中掩模剪裁是通过指定的数据值、数据范围、有限或无限值、感兴趣区和注释文件等方式来制作图像掩模,将图像掩模与原始图像叠加后,将原始图像中不需要出现的像素点进行遮盖。
在本实施例中,采用感兴趣区域来定义图像掩模,具体地,包括以下步骤:
步骤21、对所述的手写签名图像进行图像增强,获得增强后的手写签名图像;
采用图像增强的方式使得手写签名图像中有用的信息更加突出,主要是将图像中有手写签名的部分的信息进行增强。
对手写签名图像进行图像增强时,可以选择基于二维傅里叶变化的信号增强方法,也可以是基于空间域的方法,包括高通滤波、直方图均衡化等方法。
可选地,采用直方图均衡化的方式对所述的手写签名图像进行图像增强。
在本实施例中,对采集的到如图2所示的手写签名图像进行直方图均衡化,获得如图3所示的增强后的手写签名图像,使手写签名图像的灰度级能够均匀分布,提高了手写签名图像的对比度,使手写签名图像更加清晰。
步骤22、对所述的增强后的手写签名图像进行膨胀,获得膨胀后的手写签名图像;
由于步骤2的目的是制作一个掩模图像,对手写签名图像中有笔迹区域进行提取,删除掉手写签名图像中其他区域的干扰,在掩模图像中笔迹区域应该较签名图像中的笔迹区域大一些,这样才能完整的提取出手写签名图像中的笔迹区域。因此在本步骤中采用形态学膨胀的方法进行处理,相当于将笔迹放大了一圈。
在本步骤中,对如图3所示的增强后的手写签名图像进行膨胀,其中膨胀矩阵设置为:
获得如图4所示的膨胀后的手写签名图像,经过膨胀后的手写签名图像相比于增强后的手写签名图像,签名的线条明显加粗。
步骤23、对所述的膨胀后的手写签名图像进行滤波,获得掩模图像;
由于膨胀后的手写签名图像中还存在噪声的干扰,因此本步骤中需要对噪声进行滤波,在对噪声进行滤波时,可以采用低通滤波、高通滤波、中值滤波、均值滤波等方法。当膨胀后的手写签名图像中的噪声被滤除之后,就获得了掩模图像。
作为一种优选的实施方式,采用中值滤波对所述的膨胀后的手写签名图像进行滤波,由于中值滤波对脉冲噪声有良好的滤除作用,特别是在滤除噪声的同时,能够保护信号的边缘,使之不被模糊。
在本实施例中,对如图4所示的经过膨胀后的手写签名图像采用中值滤波的方法进行滤波,创建n×n的模板窗口,一般而言,n多选择3或者5,在本实施例中选用5,获得了如图5所示的掩模图像。
步骤24、利用所述的掩模图像对所述的手写签名图像进行裁剪,获得预处理后的手写签名图像。
为了提取出手写签名图像中含有笔迹的区域,从而将其他区域的信息进行删除,本发明提供的方法利用掩模图像对手写签名图像进行裁剪,具体地,通过对掩模图像二值化的方式,将含有笔迹区域以外的区域的像素值变更为255,含有笔迹区域的像素值为0,在采用掩模图像对手写签名图像进行遮挡,因此含有笔迹的区域的像素值为0,即没有被遮挡住,而含有笔迹区域以外的所有区域的像素值均变为255,即全部变为白色被遮挡住。因此经过本步骤的操作,能够提取出更为精确的手写签名图像中的笔迹部分。
在本实施例中,采用如图5所示的掩模图像对手写签名图像进行裁剪,获得了如图6所示的预处理后的手写签名图像,在该幅图像中可以明显的看到,经过掩模裁剪操作后的手写签名图像最大程度的保留了签名笔迹的基本信息。
由于对预处理后的手写签名图像中单一特征的提取无法完全代表手写签名图像的特征,而在提取多个特征向量时,由于一种特征向量与另一种特征向量之间维数的差异较大,因此将多个特征向量进行融合时,由于维数之间的差异,采用融合后的特征向量进行分类时,效果往往不加,因此本方案将特征向量转换为视觉词汇直方图的形式,相当于对于特征向量进行了降维,使得融合后的特征向量中,各种特征向量能够均衡分布。
步骤3、对所述的预处理后的手写签名图像中含有手写签名的区域提取ULBP特征,获得预处理后的手写签名图像的P-ULBP特征,所述预处理后的手写签名图像的P-ULBP特征为所有含有手写签名的区域的ULBP特征;
本步骤中对ULBP特征提取时,提出了仅提取含有手写签名笔迹的区域中ULBP特征,因此对于整幅预处理后的手写签名图像提取了P-ULBP(Partial-Uniform LocalBinary Patterns)特征,即区域性的ULBP特征,对于整幅手写签名图像中的每一个含有手写签名笔迹的区域,将其ULBP特征均提取出来后,进行汇总,获得整幅图像的P-ULBP特征。
在对含有手写签名的区域提取ULBP特征时,可以采用全局的方法检测手写签名区域,即将手写签名图像进行分割;也可以采用局部的方法,通过设定滑动窗口的方式检测手写签名区域。
在本实施例中,采用设定滑动窗口的方式对含有手写签名的区域提取ULBP特征,具体包括:
步骤31、在所述预处理后的手写签名图像中设定2n×2n的滑动窗口,n>=1;
由于需要检测整幅预处理后的手写签名图像中含有手写签名字迹的部分,因此本方案采用滑动窗口的方式进行检测,即当对滑动窗口第一次滑动时,窗口内部的图像检测完成时,滑动窗口自行以设定的步长进行下一次滑动,作为一种优选的实施方式,设定滑动窗口的大小为2n×2n。滑动窗口大小以及滑动步长的设定根据预处理后的手写签名图像的大小设定,在本实施例中,设定滑动窗口的大小为4×4。
步骤32、使所述的滑动窗口以步长n进行滑动,检测当前滑动窗口中是否含有所述的手写签名,若当前滑动窗口中含有所述的手写签名,则执行步骤33;若当前滑动窗口中没有所述的手写签名,则执行步骤34;
设置滑动窗口的步长为n,因此滑动窗口每滑动一次,当前的窗口与上一次进行滑动时的窗口中总会存在重叠区域,能够提高检测的精度。当滑动窗口滑动一次后,会选中预处理后的图像中的一部分进行检测,主要是检测当前滑动窗口中的图像是否存在手写签名笔迹,检测当前滑动窗口中是否含有手写签名笔迹的方法可以是对滑动窗口中的形状、纹理等特征参数进行提取检测,也可以通过检测当前滑动窗口中像素点的方式进行检测。
可选地,本实施例中采用检测当前滑动窗口的像素值是否全为255的方法检测当前滑动窗口中是否含有所述的手写签名,若像素值全为255,则当前滑动窗口为空白窗口,不包含手写签名;若像素值不全为255,则当前滑动窗口中包含手写签名。
由于手写签名笔迹相对于空白区域是存在像素点的,因此仅需检测当前窗口中图像的像素值是否全为255,若当前窗口中的图像的像素值均为255,则该区域为空白区域,若当前窗口中的图像的像素值不是均为255,则认为该区域中有手写签名笔迹出现,利用像素点检测的方法使得算法的速度提升。
若当前区域为空白区域,不做任何特征提取的处理,直接执行步骤34;若当前区域为含有手写签名笔迹的区域,则进行步骤33进行检测。
在本实施例中,步长设置为2,对于如图6所示的预处理后的手写签名图像设定滑动窗口,如图7所示,第一个滑动窗口中检测到了手写签名笔迹,因此需要对该区域进行ULBP特征提取,在滑动窗口滑动到第6次,在该滑动窗口中图像的像素值均为255,因此该部分为空白区域,不做任何处理,再使滑动窗口进行第7次滑动。
步骤33、提取当前滑动窗口内部的ULBP特征向量;
对含有手写签名笔迹的滑动窗口中的图像区域进行ULBP特征向量的提取,提取完成之后,获得在该滑动窗口内部的ULBP特征向量。
在本实施例中,对于滑动窗口第一次滑动时,检测到其内部图像存在手写签名笔迹,因此对该图像区域进行ULBP特征向量的提取,获得了48个59维的ULBP特征向量。
步骤34、判断所述的滑动窗口是否在所述预处理后的手写签名图像中遍历一遍,若没有遍历一遍,则返回步骤32,若已经遍历了一遍,将所有滑动窗口内提取的ULBP特征向量进行汇总,获得所述预处理后的手写签名图像的P-ULBP特征向量。
当滑动窗口在预处理后的手写签名图像中遍历一遍后,即预处理后的手写签名图像均落入滑动窗口的范围内,完成预处理后的手写签名图像中所有ULBP特征向量的提取,即完成了所有P-ULBP特征向量的提取。
在本实施例中,滑动窗口在如图6所示的预处理后的手写签名图像中滑动了48次之后,该图像中所有的部分均落入滑动窗口的范围内,一共提取了48×59维的P-ULBP特征向量,针对第一名书写者的所有签名,共提取了5308×59维P-ULBP特征。
步骤4、建立预处理后的手写签名图像的SURF特征视觉词汇直方图,建立预处理后的手写签名图像的P-ULBP特征视觉词汇直方图;
在本步骤中,需要分别建立SURF特征视觉词汇直方图以及P-ULBP特征视觉词汇直方图。
建立视觉词汇直方图的过程可以为:获取图像的特征数据,用聚类的方法把特征数据分为若干类,每一类相当于一个视觉词汇;统计每一类下的特征词的个数,用直方图的形式表达出来,获得视觉词汇直方图,其中聚类的方法可以是K-means聚类、神经网络等。
作为一种优选的实施方式,本发明采用聚类的方法进行分类能够更加贴合特征之间的临近关系。
具体地,建立SURF特征视觉词汇直方图,包括以下步骤:
A、对所述的预处理后的手写签名图像提取SURF特征,获得SURF特征向量;
在本实施例中,对数据集中第一个人的48幅签名共提取到3907个64维的SURF特征向量。
B、在所述的SURF特征向量中设置N个第一初始聚类中心进行聚类,获得N个第一最终聚类中心,将所述的第一最终聚类中心作为SURF视觉词汇,N>=1;
在上一步已经将预处理后的手写签名图像中的全部SURF特征向量都提取出来了,现在需将这些SURF特征向量进行分类,采用聚类的方式进行分类时,在全部SURF特征向量中随机选取600个向量作为设定的初始聚类中心,经过聚类完成后,获得600个最终聚类中心,则这600个聚类中心就是600个SURF视觉词汇,将这600个SURF视觉词汇进行编号就是SURF特征视觉词汇直方图的横坐标。
可选地,采用K-means聚类算法对所述的SURF特征向量进行聚类,获得N个所述的SURF视觉词汇。
首先随机设定600个初始聚类中心,这600个初始聚类中心在提取到的SURF特征向量中随机选取,接着为每一个SURF特征向量找到与其最近的聚类中心,将其分配到该类,当提取到的SURF特征向量均被分配到一个聚类中心后,再更正以这个聚类中心为一簇的区域的新的中心点,作为更正后的聚类中心,如此循环计算,直至获得600个最终聚类中心,这600个聚类中心即为600个SURF视觉词汇。
在本实施例中,针对签名数据集的3907个64维的SURF特征向量,从3907个特征向量中设定N=600个初始聚类中心,最终获得了600个特征词汇。
C、将所述的每一个SURF特征向量归入与其具有最短欧氏距离的SURF视觉词汇标签下,统计每个所述SURF视觉词汇标签下SURF特征向量的个数,获得SURF视觉词汇向量;
本步骤需要根据所有SURF特征向量与所有SURF视觉词汇之间的欧氏距离,并采用最短距离进行分类,即将SURF特征向量归入到距离其最近的SURF视觉词汇标签下面,并且统计每一类SURF视觉词汇标签下SURF特征向量的个数,获得N个SURF视觉词汇向量,并为这N个视觉词汇向量进行编号。
在本实施例中,对3907个64维的SURF特征向量以及600个64维的SURF视觉词汇,需要计算3907个64维的SURF特征向量中每个SURF特征向量分别与这600个64维的特征词汇之间的欧氏距离,其中a[i]为SURF特征词汇,b[i]为SURF特征向量。
3907个64维的SURF特征向量被分配到600个SURF视觉词汇下,如表1所示。
表1SURF视觉词汇与SURF特征向量对应关系表
SURF视觉词汇编号 | SURF特征向量个数 | SURF视觉词汇编号 | SURF特征向量个数 |
1 | 14 | 6 | 3 |
2 | 5 | 7 | 16 |
3 | 9 | 8 | 11 |
4 | 18 | …… | …… |
5 | 6 | 600 | 15 |
根据表1能够获得一个SURF视觉词汇向量[14,5,9,18,6,3,16,11,……,15],其中SURF视觉词汇向量中元素按照其对应的SURF视觉词汇的编号进行排序。
C、采用TF-IDF方法为所述SURF视觉词汇向量中每一个元素进行加权并转换成直方图的形式,获得所述SURF特征视觉词汇直方图。
在本实施例中,采用TF-IDF加权对SURF视觉词汇向量[14,5,9,18,6,3,16,11,……,15]进行加权,加权后的SURF视觉词汇向量,即向量形式的SURF特征视觉词汇直方图为:[0.0212,0,0,0.0063,0.0273,0.0457,……,0],SURF特征视觉词汇直方图如图8所示。
可选地,建立预处理后的手写签名图像的P-ULBP特征视觉词汇直方图包括以下步骤:
a、设置M个第二初始聚类中心对所述的P-ULBP特征向量进行聚类,获得M个第二最终聚类中心,将所述的第二最终聚类中心作为P-ULBP视觉词汇,M>=1;
作为一种优选的实施方式,得到的M个P-ULBP视觉词汇与N个SURF视觉词汇个数一种,即M=N=600,使得P-ULBP特征与SURF特征的维数相同,分类准确度提高。
可选地,采用K-means聚类算法对所述的P-ULBP特征向量进行聚类,获得M个所述的P-ULBP视觉词汇。
在本实施例中,针对第一名签名书写者的所有签名图像提取预处理后的图像特征,提取到了5308个59维的SURF特征向量,从5308个特征向量中设定M=600个初始聚类中心,经过聚类完成后,获得了600个特征词汇。
b、将所述的每一个P-ULBP特征向量归入与其具有最短欧氏距离的P-ULBP视觉词汇标签下,统计每个所述P-ULBP视觉词汇标签下P-ULBP特征向量的个数,获得P-ULBP视觉词汇向量;
在实施例中,对于5308个59维的P-ULBP特征向量以及600个59维的P-ULBP视觉词汇,需要计算5308个59维的P-ULBP特征向量中每个P-ULBP特征向量分别与这600个59维的P-ULBP特征词汇之间的欧氏距离,其中c[i]为P-ULBP特征词汇,d[i]为P-ULBP特征向量。
5308个59维的SURF特征向量被分配到600个P-ULBP视觉词汇下,如表2所示。
表2P-ULBP视觉词汇与P-ULBP特征向量对应关系表
根据表2能够获得一个P-ULBP视觉词汇向量[1,0,0,11,0,8,3,2,……,0],其中P-ULBP视觉词汇向量中元素按照其对应的P-ULBP视觉词汇的编号进行排序。
c、采用TF-IDF方法为所述P-ULBP视觉词汇向量中每一个元素进行加权并转换成直方图的形式,获得所述P-ULBP特征视觉词汇直方图。
在本实施例中,对于P-ULBP视觉词汇向量[1,0,0,11,0,8,3,2,……,0],进行TF-IDF加权后,得到了一个加权后的P-ULBP视觉词汇向量,即向量形式的P-ULBP特征视觉词汇直方图为:[0.0095,0,0,0.0147,0,0.0069,0.0032,……,0],P-ULBP特征视觉词汇直方图如图8所示。
步骤5、将所述的P-ULBP特征视觉词汇直方图与所述的SURF特征视觉词汇直方图首尾拼接,获得手写签名图像视觉词汇直方图;
由于经过两步的操作,对预处理后的手写签名图像已经提取了SURF特征视觉词汇直方图以及P-ULBP特征视觉词汇直方图,本步骤将两个直方图的首尾进行拼接,即将P-ULBP特征视觉词汇直方图加入到SURF特征视觉词汇直方图的后面,并更改P-ULBP特征视觉词汇直方图横坐标的数字。则手写签名图像视觉词汇直方图的横坐标为1-N+M,其中SURF特征视觉词汇直方图的横坐标从1到N,P-ULBP特征视觉词汇直方图的横坐标从N+1开始,到N+M。
在本实施例中,将SURF特征视觉词汇直方图向量,以及P-ULBP特征视觉词汇直方图向量进行拼接,得到的向量形式的手写签名图像视觉词汇直方图为:[0.0212,0,0,0.0063,0.0273,0.0457,……,0,0.0095,0,0,0.0147,0,0.0069,0.0032,……,0],手写签名图像视觉词汇直方图如图8所示。
步骤6、将多个手写签名图像视觉词汇直方图转换为向量形式作为输入,将多个手写签名图像对应的多个标签作为输出对分类器进行训练,获得手写签名图像真伪鉴别模型;
在对手写签名图像进行分类时,由于视觉词汇直方图无法直接输入到分类器中,因此还需要将视觉词汇直方图转换为向量的形式作为输入,获得视觉词汇向量,并且一个视觉词汇向量对应一个标签,即对于一幅预处理后的手写签名图像能够提取到一个视觉词汇向量,并且该手写签名图像标记有真迹1或伪迹0的标签,因此每一个视觉词汇向量均对应一个手写签名图像的标签。
其中,分类器可以选择神经网络、支持向量机、极限学习机等,将多张手写签名图像采用步骤2-5进行处理,获得多个视觉词汇直方图,再转换成向量形式输入到分类器中进行训练,选择其中分类效果最好的一组模型,作为手写签名图像真伪鉴别模型。
在本实施例中,选择支持向量机作为分类器对向量形式的手写签名图像视觉词汇直方图进行分类,首先将视觉词汇直方图转换为向量形式,如图8所示的视觉词汇直方图转换为向量形式即为:[0.0212,0,0,0.0063,0.0273,0.0457,…,0.0095,0,0,0.0147,0,0.0069,…,0],并且加入其对应的标签,用1代表真迹、0代表伪迹;选取公开签名数据集CEDAR以及MCYT-SignatureOff-75签名数据集中的每一张手写签名图像采用步骤2-5的方法进行处理,获得了多个视觉词汇直方图,其中CEDAR数据集包含有55名书写者的离线签名样本,对于每位书写者提供24个真实签名和24个熟练伪签名,MCYT数据库包含有75名书写者的离线签名样本。针对每位书写者,提供15个真签名与15个熟练伪签名,则一共有4890幅手写签名图像,将这4890幅图像采用步骤1-5获得了4890个视觉词汇直方图,再转换成向量形式,得到4890个视觉词汇向量,这4890个视觉词汇向量对应了4890个标签,包括2445个[1]真迹标签,2445个[0]伪迹标签。
在进行分类器训练时,针对每个数据库,将其随机分为3个大小相等的集合。将其中两个签名集合作为训练样本,第3个集合作为测试样本,进行10次交叉验证,以获得可靠的结果。例如CEDAR签名数据集每个书写者取16个真实签名以及16个熟练伪签名作为训练,剩下的8个真实签名以及8个熟练伪签名作为测试。选取训练结果准确率最高的一组模型,作为手写签名图像真伪鉴别模型。
实施例二
一种手写签名图像真伪鉴别方法,包括:利用实施例一中的所述的手写签名图像真伪鉴别模型对经过步骤2-5处理的待鉴别的手写签名图像进行鉴别。
将待鉴别的手写签名图像(如图9所示)采用步骤2-5提取其手写签名图像视觉词汇直方图,并转换为向量形式,输入到由步骤6得到的手写签名图像真伪鉴别模型中进行鉴别,鉴别结果为0,该签名为伪迹。
为验证本发明提供的离线签名鉴别方法的有效性,采用分类鉴别准确率(Accuracy)和等错误率(EER)作为评价参数,对本发明提供的方法与其他方法对于同样的数据集中的图像数据进行试验,对比特征直方图拼接效果,获得结果见表3,此时设置聚类中心有M=N=600个,即SURF有600个特征词汇,P-ULBP有600个特征词汇。
表3特征融合实验结果
将本发明提供的方法分别采用支持向量机与极限学习机进行分类与现有技术相比,对于CEDAR数据集分类效果见表4,对于MCYT数据集分类效果见表5。
表4 CEDAR数据集实验结果
表5 MCYT数据集实验结果
从表4与表5中可以看出,本申请提供的一种基于双词袋模型的离线签名鉴别方法相比于现有技术对手写签名图像进行分类时,其准确率较现有技术高,其错误率较现有技术低,因此本申请提供的一种基于双词袋模型的离线签名鉴别方法能够有效的对手写签名图像进行分类,并且提高了手写签名图像分类的正确率。
本发明相对于传统的图像二值化、平滑、骨架化等签名真伪鉴别预处理方法,采用掩模剪裁的方式,最大程度的保留了原始签名图像中的笔划处特征,相对于传统的uniformLBP特征提取方法,考虑到签名图像大部分为空白区域,只在笔划处具有纹理特征的特点,因此提取签名图像的P-ULBP特征,克服了提取到的特征精确度低,冗余信息太多的问题;采用基于双词袋模型的离线签名提取方案,避免了特征维度差异大的多特征直接拼接对鉴别结果的影响。
本发明并不限于上述实施方式,对于本发明所属技术领域的普通技术人员来说,在不脱离本发明构思的前提下,一些简单的改进都应当视为属于本发明的保护范围。
Claims (8)
1.一种手写签名图像真伪鉴别模型建立方法,其特征在于,方法包括:
步骤1、采集多张手写签名图像,并为每张手写签名图像进行标签标记,所述的标签包括[1]代表真迹以及[0]代表伪迹;
步骤2、采用掩模裁剪的方式对所述的手写签名图像进行预处理,获得预处理后的手写签名图像;
步骤3、对所述的预处理后的手写签名图像中含有手写签名的区域提取ULBP特征,获得预处理后的手写签名图像的P-ULBP特征,所述的P-ULBP特征为所有含有手写签名的区域的ULBP特征的集合;
所述的步骤3,包括以下步骤:
步骤31、在所述预处理后的手写签名图像中设定2n×2n的滑动窗口,n>=1;
步骤32、使所述的滑动窗口以步长n进行滑动,检测当前滑动窗口中是否含有所述的手写签名,若当前滑动窗口中含有所述的手写签名,则执行步骤33;若当前滑动窗口中没有所述的手写签名,则执行步骤34;
检测当前滑动窗口中是否含有所述的手写签名的方法为检测当前滑动窗口的像素值是否全为255,若像素值全为255,则当前滑动窗口为空白窗口,不包含手写签名;若像素值不全为255,则当前滑动窗口中包含手写签名;
步骤33、提取当前滑动窗口内部的ULBP特征向量;
步骤34、判断所述的滑动窗口是否在所述预处理后的手写签名图像中遍历一遍,若没有遍历一遍,则返回步骤32,若已经遍历了一遍,获得预处理后的手写签名图像内所有滑动窗口中的ULBP特征向量,获得所述预处理后的手写签名图像的P-ULBP特征向量;
步骤4、建立预处理后的手写签名图像的SURF特征视觉词汇直方图,建立预处理后的手写签名图像的P-ULBP特征视觉词汇直方图;
步骤5、将所述的P-ULBP特征视觉词汇直方图与所述的SURF特征视觉词汇直方图首尾拼接,获得手写签名图像视觉词汇直方图;
步骤6、将多个手写签名图像视觉词汇直方图转换为向量形式作为输入,将多个手写签名图像对应的多个标签作为输出对分类器进行训练,获得手写签名图像真伪鉴别模型。
2.根据权利要求1所述的手写签名图像真伪鉴别模型建立方法,其特征在于,所述的步骤2、预处理包括以下步骤:
步骤21、对所述的手写签名图像进行图像增强,获得增强后的手写签名图像;
步骤22、对所述的增强后的手写签名图像进行膨胀,获得膨胀后的手写签名图像;
步骤23、对所述的膨胀后的手写签名图像进行滤波,获得掩模图像;
步骤24、利用所述的掩模图像对所述的手写签名图像进行裁剪,获得预处理后的手写签名图像。
3.根据权利要求2所述的手写签名图像真伪鉴别模型建立方法,其特征在于,采用直方图均衡化的方式对所述的手写签名图像进行图像增强,采用中值滤波对所述的膨胀后的手写签名图像进行滤波。
4.根据权利要求1所述的手写签名图像真伪鉴别模型建立方法,其特征在于,建立预处理后的手写签名图像的SURF特征视觉词汇直方图,包括以下步骤:
A、对所述的预处理后的手写签名图像提取SURF特征,获得SURF特征向量;
B、在所述的SURF特征向量中设置N个第一初始聚类中心进行聚类,获得N个第一最终聚类中心,将所述的第一最终聚类中心作为SURF视觉词汇,N>=1;
C、将所述的每一个SURF特征向量归入与其具有最短欧氏距离的SURF视觉词汇标签下,统计每个所述SURF视觉词汇标签下SURF特征向量的个数,获得SURF视觉词汇向量;
D、采用TF-IDF方法为所述SURF视觉词汇向量中每一个元素进行加权并转换成直方图的形式,建立所述SURF特征视觉词汇直方图。
5.根据权利要求4所述的手写签名图像真伪鉴别模型建立方法,其特征在于,建立预处理后的手写签名图像的P-ULBP特征视觉词汇直方图,包括以下步骤:
a、设置M个第二初始聚类中心对所述的P-ULBP特征向量进行聚类,获得M个第二最终聚类中心,将所述的第二最终聚类中心作为P-ULBP视觉词汇,M>=1;
b、将所述的每一个P-ULBP特征向量归入与其具有最短欧氏距离的P-ULBP视觉词汇标签下,统计每个所述P-ULBP视觉词汇标签下P-ULBP特征向量的个数,获得P-ULBP视觉词汇向量;
c、采用TF-IDF方法为所述P-ULBP视觉词汇向量中每一个元素进行加权并转换成直方图的形式,获得所述P-ULBP特征视觉词汇直方图。
6.根据权利要求5所述的手写签名图像真伪鉴别模型建立方法,其特征在于,采用K-means聚类算法对所述的SURF特征向量进行聚类,获得N个所述的SURF视觉词汇;采用K-means聚类算法对所述的P-ULBP特征向量进行聚类,获得M个所述的P-ULBP视觉词汇。
7.根据权利要求1所述的手写签名图像真伪鉴别模型建立方法,其特征在于,所述的分类器为支持向量机。
8.一种手写签名图像真伪鉴别方法,其特征在于,方法包括:利用权利要求1-7的任一权利要求所述的手写签名图像真伪鉴别模型对经过权利要求1所述的步骤2-5处理的待鉴别手写签名图像进行鉴别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810414281.3A CN108921006B (zh) | 2018-05-03 | 2018-05-03 | 手写签名图像真伪鉴别模型建立方法及真伪鉴别方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810414281.3A CN108921006B (zh) | 2018-05-03 | 2018-05-03 | 手写签名图像真伪鉴别模型建立方法及真伪鉴别方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108921006A CN108921006A (zh) | 2018-11-30 |
CN108921006B true CN108921006B (zh) | 2020-08-04 |
Family
ID=64403772
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810414281.3A Active CN108921006B (zh) | 2018-05-03 | 2018-05-03 | 手写签名图像真伪鉴别模型建立方法及真伪鉴别方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108921006B (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110245733B (zh) * | 2019-06-19 | 2022-06-21 | 深圳市春夏秋冬信息科技有限公司 | 物品验证方法 |
CN111507947B (zh) * | 2020-04-06 | 2023-06-27 | 新立讯科技股份有限公司 | 一种基于读取商标或图案去识别包装真伪的鉴别方法 |
CN113361412B (zh) * | 2021-06-08 | 2022-03-01 | 西南科技大学 | 一种基于ulbp和surf的特征递进的手指静脉图像精确匹配方法 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012139271A1 (en) * | 2011-04-11 | 2012-10-18 | Intel Corporation | Smile detection techniques |
CN102945289A (zh) * | 2012-11-30 | 2013-02-27 | 苏州搜客信息技术有限公司 | 基于cgci-sift局部特征的图像检索方法 |
CN103136504A (zh) * | 2011-11-28 | 2013-06-05 | 汉王科技股份有限公司 | 人脸识别方法及装置 |
CN105389593A (zh) * | 2015-11-16 | 2016-03-09 | 上海交通大学 | 基于surf特征的图像物体识别方法 |
CN106778586A (zh) * | 2016-12-08 | 2017-05-31 | 武汉理工大学 | 离线手写签名鉴别方法及系统 |
-
2018
- 2018-05-03 CN CN201810414281.3A patent/CN108921006B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012139271A1 (en) * | 2011-04-11 | 2012-10-18 | Intel Corporation | Smile detection techniques |
CN103136504A (zh) * | 2011-11-28 | 2013-06-05 | 汉王科技股份有限公司 | 人脸识别方法及装置 |
CN102945289A (zh) * | 2012-11-30 | 2013-02-27 | 苏州搜客信息技术有限公司 | 基于cgci-sift局部特征的图像检索方法 |
CN105389593A (zh) * | 2015-11-16 | 2016-03-09 | 上海交通大学 | 基于surf特征的图像物体识别方法 |
CN106778586A (zh) * | 2016-12-08 | 2017-05-31 | 武汉理工大学 | 离线手写签名鉴别方法及系统 |
Non-Patent Citations (2)
Title |
---|
Recognition of Natural Ice Types on In-service Glass Insulators Based on Texture Feature Descriptor;Lin Yang, Xiaolan Jiang;《IEEE Transactions on Dielectrics and Electrical Insulation》;20170131;第24卷(第1期);第535-542页 * |
层次化分类的离线中文签名真伪鉴别方法;魏佳敏,冯筠;《计算机工程与应用》;20170414;第112-118页 * |
Also Published As
Publication number | Publication date |
---|---|
CN108921006A (zh) | 2018-11-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110348319B (zh) | 一种基于人脸深度信息和边缘图像融合的人脸防伪方法 | |
CN110378310B (zh) | 一种基于答案库的手写样本集的自动生成方法 | |
US8442319B2 (en) | System and method for classifying connected groups of foreground pixels in scanned document images according to the type of marking | |
WO2020164278A1 (zh) | 一种图像处理方法、装置、电子设备和可读存储介质 | |
CN110503054B (zh) | 文本图像的处理方法及装置 | |
CN110298376B (zh) | 一种基于改进b-cnn的银行票据图像分类方法 | |
CN110210413A (zh) | 一种基于深度学习的多学科试卷内容检测与识别系统及方法 | |
CN104299009B (zh) | 基于多特征融合的车牌字符识别方法 | |
CN106297755B (zh) | 一种用于乐谱图像识别的电子设备及识别方法 | |
CN108921006B (zh) | 手写签名图像真伪鉴别模型建立方法及真伪鉴别方法 | |
CN105718552A (zh) | 基于服装手绘草图的服装图像检索方法 | |
CN111695453B (zh) | 绘本识别方法、装置及机器人 | |
CN112862024B (zh) | 一种文本识别方法及系统 | |
CN108154132A (zh) | 一种身份证文字提取方法、系统及设备和存储介质 | |
CN110222660B (zh) | 一种基于动态与静态特征融合的签名鉴伪方法及系统 | |
CN114359553A (zh) | 一种基于物联网的签章定位方法、系统及存储介质 | |
CN112507914A (zh) | 一种基于存折、票据字符ocr识别方法和识别系统 | |
CN114445843A (zh) | 固定版式的卡证图像文字识别方法和装置 | |
CN111950556A (zh) | 一种基于深度学习的号牌印刷质量检测方法 | |
Goswami et al. | Classification of printed Gujarati characters using low-level stroke features | |
CN113780116A (zh) | 发票分类方法、装置、计算机设备和存储介质 | |
CN111259894B (zh) | 一种证件信息鉴别方法、装置及计算机设备 | |
CN112200789A (zh) | 一种图像识别的方法及装置、电子设备和存储介质 | |
Okawa | KAZE features via Fisher vector encoding for offline signature verification | |
CN110766001B (zh) | 基于cnn和rnn的银行卡卡号定位与端到端识别方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |