CN111310628A - 一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法 - Google Patents

一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法 Download PDF

Info

Publication number
CN111310628A
CN111310628A CN202010084447.7A CN202010084447A CN111310628A CN 111310628 A CN111310628 A CN 111310628A CN 202010084447 A CN202010084447 A CN 202010084447A CN 111310628 A CN111310628 A CN 111310628A
Authority
CN
China
Prior art keywords
image
texture
under
vector
light source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202010084447.7A
Other languages
English (en)
Other versions
CN111310628B (zh
Inventor
朱子奇
陆琪
邹积鑫
刘夕
邓春华
刘静
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wuhan University of Science and Engineering WUSE
Original Assignee
Wuhan University of Science and Engineering WUSE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Wuhan University of Science and Engineering WUSE filed Critical Wuhan University of Science and Engineering WUSE
Priority to CN202010084447.7A priority Critical patent/CN111310628B/zh
Publication of CN111310628A publication Critical patent/CN111310628A/zh
Application granted granted Critical
Publication of CN111310628B publication Critical patent/CN111310628B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/80Recognising image objects characterised by unique random patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • G06F18/241Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
    • G06F18/2411Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on the proximity to a decision surface, e.g. support vector machines
    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07DHANDLING OF COINS OR VALUABLE PAPERS, e.g. TESTING, SORTING BY DENOMINATIONS, COUNTING, DISPENSING, CHANGING OR DEPOSITING
    • G07D7/00Testing specially adapted to determine the identity or genuineness of valuable papers or for segregating those which are unacceptable, e.g. banknotes that are alien to a currency
    • G07D7/20Testing patterns thereon
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/30Computing systems specially adapted for manufacturing

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Biology (AREA)
  • Evolutionary Computation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Inspection Of Paper Currency And Valuable Securities (AREA)
  • Image Analysis (AREA)

Abstract

本发明公开了一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法。它包括采集纹理图像,图像数据增强,图像特征提取,图像特征融合,得到的图像特征加上标签作数据集进行训练,得到相应采集条件下训练好的SVM模型;将新纸币在多种采集条件下采集的纹理图像进行数据增强、特征提取及特征融合,使用训练好的SVM模型进行图像特征分类得到每一类标签及其概率值,按权重计算得到多种采集条件下的预测标签及其概率值,按权重重新计算,得到新纸币最后的标签。该方法将假币按印刷图案特征进行分类,从假币的印刷形成方式着手,对假币的印刷形成方式进行检验鉴定,能够快速、精准地识别假币,耗时少,成本低,且可帮助公安部门对假币进行反侦察处理。

Description

一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法
技术领域
本发明属于计算机视觉识别技术领域,涉及一种基于纸币印刷图案特征的纸币形成方式检验鉴 定方法。
背景技术
中华人民共和国的法定货币是人民币,中国人民银行是国家管理人民币的主管机关,负责人民 币的设计、印制和发行。其他生产人民币的单位均为非法单位,称为犯罪团伙,其生产的人民币是 非法的,称为假币。这些假币和犯罪团伙必须受到法律的制裁。众所周知,部分银行也出现了不能 通过验钞机区分真假的假币,这给社会带来了维持秩序的难度,也给社会安定带来了混乱,这是对 国家政府的挑衅。因此,必须尽快解决快速精准识别假币的方法,让政府拨乱反正,回归社会安定。
如何快速精准地区分假币,是政府公安部门的首要条件,甚至根据生产的假币之间的差异和共 性,可以寻找出假币横行的主要区域,进而找到生产假币的违法单位,将犯罪团伙一网打尽。传统 的假币分类方法是质谱法或色谱法,通过仪器设备观察假币,对假币进行归类,由此总结出犯罪团 伙的活动范围和犯罪方式,将犯罪团伙一网打尽。可是这种方法对人力的消耗大,成本高。
纹理是一种很重要的视觉信息,通过对物件表面纹理的分析,可以让计算机识别出该物件所属 的材料。因此,图像纹理识别成为数字图像识别的一个重要分支。纹理识别在织物纹理自动检测、 医学图像分析、场景分析和遥感图像处理等领域中的广泛应用,进一步证明纹理识别的重大研究意 义和实用价值。纹理分类算法通过手工特征或者特征学习方法对整个图像进行全局描述,将原始数据 变换成一个合适的特征矢量,使得分类器能够基于该特征矢量进行分类任务。目前还没有人将纹理识 别技术应用于假币的识别和鉴定中。
发明内容
本发明的目的在于,克服现有技术的不足,提供一种将纹理识别技术应用于假币的识别和鉴定 中,能够快速、精准地识别假币的基于纸币印刷图案特征的纸币形成方式检验鉴定方法。
本发明的目的是通过以下技术方案实现的:
本发明一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法,包括步骤:
步骤1、采集纹理图像:预先对喷墨的、四色的、激光的、机制的四种不同印刷方式的纸币, 分别设置四个不同的标签;取喷墨的、四色的、激光的、机制的四种不同印刷方式的纸币各k张, 共4k张;对所有4k张纸币,采集每一张纸币在某一种采集条件下即某一种光学放大倍率、某一种 光源环境下的n张纹理图像,得到4k*n张纹理图像;其中,k≥10,n≥100;
步骤1、采集纹理图像:预先对喷墨的、四色的、激光的、机制的四种不同印刷方式的纸币, 分别设置四个不同的标签;取喷墨的、四色的、激光的、机制的四种不同印刷方式的纸币各k张, 共4k张;对所有4k张纸币,采集每一张纸币在某一种采集条件下即某一种光学放大倍率、某一种 光源环境下的n张纹理图像,得到4k*n张纹理图像;其中,k≥10,n≥100;
步骤2、图像数据增强:对步骤1采集的每一张纹理图像进行数据增强,得到4k*n*m张增强后 的图像;数据增强的方式包括:图像缩放、图像旋转、图像翻转、图像对比度加强、同态滤波处理、 图像去除噪音;(每一张图像经过图像缩放、图像旋转、图像翻转、图像对比度加强、同态滤波处理、 图像去除噪音等方式进行数据增强后,共得到m张增强后的图像)
步骤3、图像特征提取:对步骤2增强后的每一张图像进行图像特征提取,并进行图像特征融 合;图像特征提取包括:图像颜色特征提取、图像surf特征提取、图像纹理特征提取、图像形状特 征提取、图像Haar特征提取、图像梯度特征提取;
步骤4、图像特征分类:将所有4k*n*m张图像中的每张图像按步骤3的方法进行图像特征提取 并按照不同方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和 测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进 行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的SVM 模型;再将按步骤1的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、 某一种光源环境下的多张纹理图像,按步骤2的方法进行图像数据增强,按步骤3的方法进行图像 特征提取及图像特征融合,再使用训练好的SVM模型进行图像特征分类,得到这张待鉴定纸币的每 一类标签及其概率值,并赋予权重;将上述得到的几类标签及其概率值,按照权重计算,得到这张 待鉴定纸币的图像的预测标签及其概率值;
步骤5、将所有4k张纸币,按步骤1的方法采集每一张纸币在多种不同的采集条件下即不同光 学放大倍率,不同光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将 每张增强的图像按步骤3的方法进行图像特征提取并按照不同方法进行图像特征融合得到的图像特 征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进 行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应 的光学放大倍率和相应的光源环境下的训练好的多类SVM模型;
对同一张待鉴定纸币(待鉴定的新纸币),采集其在多种不同采集条件下即不同光学放大倍率、 不同光源环境下的纹理图像;将每种采集条件下采集的每张图像按步骤2的方法进行图像数据增强, 将每张增强的图像按步骤3的方法进行图像特征提取并进行图像特征融合,再使用相应光学放大倍 率和相应光源环境下的训练好的多类SVM模型进行图像特征分类,得到待鉴定纸币的多类标签及其 概率值,按权重计算后,得到待鉴定纸币在每种采集条件下的预测标签及其概率值;将待鉴定纸币 在多种采集条件下得到的预测标签及其概率值,按权重重新计算,得到待鉴定纸币最后的标签。
进一步地,提取图像纹理特征的方法包括:LBP、CLBP、LTP局部二值模式算法,灰度共生矩阵 法,Tamura纹理特征法,自回归纹理模型法,小波变换模型法,马尔可夫随机场(MRF)模型法, Gibbs随机场模型法,分形模型法,自回归模型法,Voronio棋盘格特征法,句法纹理描述算法,数 学形态学方法。提取图像颜色特征的方法包括:HSV、RGB、HIS等算法。提取图像不定点特征的方 法包括:sift、surf等算法。提取图像形状特征的方法有:Hough变换法,傅里叶形状描述符法, 几何参数法,形状不变矩法,有限元法,旋转函数和小波描述符等方法。图像去除噪音的方法包括: 高斯滤波法,均值滤波法,双边滤波法,引导滤波法,NLM算子法,BM3D算子法,频域滤波法,小 波域滤波法,P-M方程去噪法,TV去噪法(TV去噪模型法)。
进一步地,将图像特征进行分类的方法包括:KNN分类算法,SVM支持向量机分类算法,随机森 林法,决策树法,贝叶斯(Bayes)分类算法,人工神经网络法,基于关联规则的分类方法。
本发明的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,具体包括步骤:
步骤1、采集每一张纸币在某一种光学放大倍率、某一种光源环境下的纹理图像:
1.1准备好目前已经出现的四种不同印刷方式(机制的、专色的、四色的、喷墨的)的纸币各k张, 共4k张;k是每种假币的数量,k≥10;预先对喷墨的、四色的、激光的、机制的四种不同印刷方 式的纸币,分别设置1、2、3、4四个标签,即:喷墨:1,四色:2,激光:3,机制:4;
1.2采集第一张纸币在某一种采集条件下即在某一种光学放大倍率、某一种光源环境下的纹理图像; 采集某一张纸币在某一种采集条件下即在某一种光学放大倍率optical、某一种光源环境light 下的纹理图像,用数组表示为
Figure BDA0002381546180000031
n是指每一张纸币在每种采集 条件下所采集的纹理图像的数量,n≥100;具体采集纹理图像的方法为:
1.2.1使用工业相机以及配置镜头等设备,采集某一张纸币在某一种光学放大倍率、某一种光源环境下 的纹理图像Ilight_optical
1.2.2在采集的纹理图像Ilight_optical中,删掉因为对焦错误导致的模糊图像;
1.2.3在采集的纹理图像Ilight_optical中,删掉因为破损、墨迹损坏纹理图案的负样本图像;
1.2.4按步骤1.2.1-1.2.3的方法,补充采集这一张纸币在这一种光学放大倍率、这一种光源环境下的 纹理图像,使得这一张纸币在这种采集条件下所采集的纹理图像数量n≥100,有条件可以多采集;
1.3按步骤1.2.1-1.2.4的方法,采集第二张纸币在同一种采集条件下即在某一种光学放大倍率、某 一种光源环境下的纹理图像;
1.4按步骤1.2.1-1.2.4的方法,采集第三张纸币在同一种采集条件下即在某一种光学放大倍率、某 一种光源环境下的纹理图像;
1.5按步骤1.2.1-1.2.4的方法,采集第四张纸币在同一种采集条件下即在某一种光学放大倍率、某 一种光源环境下的纹理图像;
1.6以此类推,按步骤1.2.1-1.2.4的方法,依次对4k张纸币完成其在同一种采集条件下即在某一种 光学放大倍率、某一种光源环境下的纹理图像的采集,得到4k*n张纹理图像,即完成四种不同印刷方式 的4k张纸币在同一种采集条件下的纹理图像数据的采集工作;
步骤2、对步骤1采集的4k张纸币在同一种采集条件下的4k*n张纹理图像样本数据进行数据增强;
对步骤1中采集的某一张纸币在某一种采集条件下即某一种光学放大倍率、某一种光源环境下的纹 理图像进行数据增强的具体方法如下:
2.1读取步骤1采集的某一张纹理图像,以向量
Figure BDA0002381546180000041
的形式体现,以裁剪的方式将向量
Figure BDA0002381546180000042
缩放若干倍, 输出多个向量,再将缩放后的向量
Figure BDA0002381546180000043
恢复成一张张小分辨率的纹理图像,达到数据增强的效果;
2.2读取步骤1采集的某一张纹理图像,以向量
Figure BDA0002381546180000044
的形式体现,以旋转的方式将向量
Figure BDA0002381546180000045
在0-360度范 围内依次平均每次旋转15度,得到24个不同旋转角度的24个向量
Figure BDA0002381546180000046
并将旋转后的向量
Figure BDA0002381546180000047
恢复成一 张张纹理图像,达到数据增强的效果;
2.3读取步骤1采集的某一张纹理图像,以向量
Figure BDA0002381546180000048
的形式体现,以翻转的方式将向量
Figure BDA0002381546180000049
上下翻转、左 右翻转、左对角线翻转、右对角线翻转,得到4个向量
Figure BDA00023815461800000410
并将翻转后的向量
Figure BDA00023815461800000411
恢复成一张张纹理图像, 以达到数据增强的效果;
2.4读取步骤1采集的某一张纹理图像,以向量
Figure BDA00023815461800000412
的形式体现,以直方图均衡化的方法实现对比度加 强,对向量
Figure BDA00023815461800000413
进行处理,使得映射范围是[0,255],得到向量
Figure BDA00023815461800000414
并将对比度加强后的向量
Figure BDA00023815461800000415
恢复成纹 理图像,以达到数据增强的效果;
2.5读取步骤1采集的某一张纹理图像,以向量
Figure BDA00023815461800000416
的形式体现,以同态滤波的方法对向量
Figure BDA00023815461800000417
进行处理, 指定一个滤波器函数H(u,v),
Figure BDA00023815461800000418
使得rH=5,rL=0.5,得到向 量
Figure BDA0002381546180000051
并将同态滤波后的向量
Figure BDA0002381546180000052
恢复成纹理图像,以达到数据增强的效果;
2.6读取步骤1采集的某一张纹理图像,以向量
Figure BDA0002381546180000053
的形式体现,使用高斯滤波法对向量
Figure BDA0002381546180000054
进行去除噪 音处理,使得高斯分布参数σ2=1,得到向量
Figure BDA0002381546180000055
并将高斯滤波后的向量
Figure BDA0002381546180000056
恢复成纹理图像,以达到数据 增强的效果;
2.7将步骤2.1-2.6得到的全部35张纹理图像进行裁剪,以图像中心为裁剪图像的中心,裁剪大小 为640*480;(该公式中的35是指前面经过步骤2.1-2.6处理得到的总共35张纹理图像)
2.8将步骤1中在某一种光学放大倍率、某一种光源环境下采集的4k*n张纹理图像依次经过步骤 2.1-2.7,实现所有纹理图像样本数据的数据增强,得到4k*n*35张纹理图像;
步骤3、图像特征提取:
3.1图像颜色特征提取
3.1.1读取步骤2数据增强后(已裁剪成一定大小)的图像,以向量
Figure BDA0002381546180000057
的形式显示,使用HSV算子 (即基于HSV颜色空间模型的算法)进行处理;
3.1.2使用HSV算子处理得到每种颜色通道的向量值
Figure BDA0002381546180000058
主要是提取蓝色、灰色、红色、紫色、绿 色这5个颜色通道的向量值
Figure BDA0002381546180000059
3.1.3将这些颜色每个通道的向量值
Figure BDA00023815461800000510
进行膨胀处理,参数为S=[1,0;1,1];接着进行腐蚀处理, 参数为5,并计算连通区域的个数为Ai
3.1.4将5个颜色通道得到的连通区域的个数Ai作为颜色特征,并且,列向拼接组成向量值 [A1,A2,A3,A4,A5];
3.1.5向量值[A1,A2,A3,A4,A5]作为图像的颜色特征。
3.2图像surf特征提取
3.2.1读取第一类印刷方式的1*k*n*35张(35000张)纹理图像(即纸币的纹理图像)
Figure BDA00023815461800000511
以向量
Figure BDA00023815461800000512
的形式显示,使用surf 算子进行处理;
3.2.2使用surf算子匹配
Figure BDA00023815461800000513
中任意两个图像,选取得到拼 配图像中一直可以匹配到的固定点P={Pi|i=1,2,3…,100};
3.2.3把固定点P={Pi|i=1,2,3…,100}的坐标作为纹理图像的surf特征向量 P(x,y)=[Px,y|x,y=1,2,3…,100];
3.2.4P(x,y)=[Px,y|x,y=1,2,3…,100]作为第一类印刷方式的每一张纹理图像
Figure BDA0002381546180000061
的surf特征向量;
3.2.5将四种印刷方式的所有纹理图像
Figure BDA0002381546180000062
(每种35000张, 四种总共140000张)依次按步骤3.2.1-3.2.4处理,得到四种不同印刷方式的所有4k*n*35张纹理图像
Figure BDA0002381546180000063
的surf特征向量;
3.3图像纹理特征提取
3.3.1读取步骤2数据增强后的图像,以向量
Figure BDA0002381546180000064
的形式显示,使用CLBP算子进行处理;
3.3.2使用CLBP算子处理时,修改参数尺度为1,半径为8,得到图像的纹理特征向量 T=[Ti|i=1,2,3…,200];
3.3.3使用CLBP算子处理时,修改参数尺度为2,半径为16,得到图像的纹理特征向量 T=[Ti|i=1,2,3…,648];
3.3.4使用CLBP算子处理时,修改参数尺度为3,半径为24,得到图像的纹理特征向量 T=[Ti|i=1,2,3…,1352];
3.3.5将上述三个参数尺度的纹理特征向量进行列向拼接,形成一个新的向量,作为图像
Figure BDA0002381546180000065
的纹理特征向量T=[Ti|i=1,2,3…,2200];(2200=200+648+1352)
3.4图像形状特征提取
3.4.1读取图像,以向量
Figure BDA0002381546180000066
的形式显示,使用傅里叶形状描述符(Fourier shapedescriptors)算子 进行处理;
3.4.2使用傅里叶形状描述符算子处理,用物体边界的傅里叶变换作为形状描述,利用区域边界的封 闭性和周期性,将二维问题转化为一维问题;
3.4.3将傅里叶形状描述符算子处理得到的形状描述向量作为图像的形状特征向量 D=[Di|i=1,2,3…20];
3.4.4将D=[Di|i=1,2,3…20]作为图像的形状特征向量;
3.5图像Haar特征提取
3.5.1读取步骤2数据增强后的图像,以向量
Figure BDA0002381546180000076
的形式显示,使用haar-like算子进行处理;
3.5.2使用haar-like算子进行处理,得到边缘特征、线性特征、中心特征和对角线特征,组合成 特征模板;
3.5.3将得到的特征模板作为图像的Haar特征;由于矩阵特征大小为w*h,对于图像大小为W*H的 图像,所以Haar特征为Haar=[Haari|i=1,2,3…,2×F1]
Figure RE-GDA0002448742890000071
(s表示前提条件,F1表示 特征维度,X表示W/w取整,Y表示H/h取整,X和Y的表示方式只是为了简化前面的公式)
3.6图像梯度特征提取
3.6.1读取步骤2数据增强后的图像,以向量
Figure BDA0002381546180000073
的形式显示,使用HOG算子(方向梯度直方图特征算 法)进行处理;
3.6.2首先将图像向量
Figure BDA0002381546180000074
分成小的连通区域,即细胞单元Ci,窗口的大小m*n,块大小q*p,表块滑 动增量大小mq*np,表示胞元大小x*y,N表示每个胞单元中梯度直方图的数量;
3.6.3采集细胞单元Ci中各像素点的梯度直方图Hi
3.6.4进行归一化得到向量 X={Xi|i=1,2,3…,9×(q/x)×(p/y)×((m-q)/mq+1)×((n-p)/np+1)},构成特征描述器,作为 图像的Hog特征即梯度特征;
3.7图像特征融合(图像特征聚类):
3.7.1将步骤3.1-3.4得到的特征向量横向拼接,得到图像的第一个新的图像特征F1=[Fi|i=1,2,3…,2427];
3.7.2将步骤3.5得到的Haar特征作为图像的第二个新的图像特征F2=[Fi|i=1,2,3…,2×F1];
Figure BDA0002381546180000075
3.7.3将步骤3.6得到的Hog特征作为图像的第三个新的图像特征 F3=[Fi|i=1,2,3…,9×(q/x)×(p/y)×((m-q)/mq+1)×((n-p)/np+1)]。
步骤4、图像特征分类:
4.1将在纸币上采集并进行数据增强的所有4k*n*35张(140000张)图像
Figure BDA0002381546180000081
将每张图像按步骤3.1-3.6的方法进行图像特 征提取并按步骤3.7.1的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集 以1:1的比例分为训练集和测试集;先使用训练集使用SVM(支持向量机)对整个训练集进行训练 得到第一类的SVM模型,再使用测试集对该SVM模型进行测试;当准确率达到96%以上以后,再将 按步骤1.2.1-1.2.4的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、 某一种光源环境下的n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进 行图像特征提取,并按照3.7.1的方法进行图像特征融合,再使用训练好的第一类的SVM模型进行 图像特征分类,得到这张待鉴定纸币的第一类标签及其概率值,赋予权重为0.5;
4.2将在纸币上采集并进行数据增强的所有4k*n*35张(140000张)图像
Figure BDA0002381546180000082
将每张图像按步骤3.1-3.6的方法进行图像特 征提取并按步骤3.7.2的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集 以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到第二类的 SVM模型,再使用测试集对该SVM模型进行测试;当准确率达到96%以上以后,再将按步骤1.2.1-1.2.4 的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的 n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像特征提取,并 按照3.7.2的方法进行图像特征融合,再使用训练好的第二类的SVM模型进行图像特征分类,得到 这张待鉴定纸币的第二类标签及其概率值,赋予权重为0.2;
4.3将在纸币上采集并进行数据增强的所有4k*n*35张(140000张)图像
Figure BDA0002381546180000083
将每张图像按步骤3.1-3.6的方法进行图像特 征提取并按步骤3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集 以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到第三类的 SVM模型,再使用测试集对该SVM模型进行测试;当准确率达到96%以上以后,再将按步骤1.2.1-1.2.4 的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的 n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像特征提取,并 按照3.7.3的方法进行图像特征融合,再使用训练好的第三类的SVM模型进行图像特征分类,得到 这张待鉴定纸币的第三类标签及其概率值,赋予权重为0.3;
4.4将上述步骤4.1-4.3得到的三类标签及其概率值,按照权重计算,得到这张待鉴定纸币的 图像的预测标签及其概率值。
步骤5、将所有4k张纸币,按步骤1的方法采集每一张纸币在多种不同采集条件下即不同光学 放大倍率,不同光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每 张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法 进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用 训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确 率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对 同一张待鉴定纸币,采集其在多种不同的采集条件下即不同光学放大倍率、不同光源环境下的纹理 图像;将每种采集条件下采集的每张图像按步骤2的方法进行图像数据增强,将每张增强的图像按 步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融 合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在每种采集条件下的预测标签 及其概率值;将待鉴定纸币在多种采集条件下得到的预测标签及其概率值,按权重重新计算,得到 这张待鉴定纸币最后的标签;具体方法如下:
5.1将所有4k张纸币,按步骤1的方法采集每一张纸币在第一种采集条件下即第一种光学放大 倍率,第一种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张 增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进 行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训 练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率 达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对同 一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第一种采集条件下即第一种光学放大倍率、 第一种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的 图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像 特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类, 得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第一种采集条件下的相 应的图像的预测标签及其概率值,赋予权重为0.1;
5.2将所有4k张纸币,按步骤1的方法采集每一张纸币在第二种采集条件下即第一种光学放大 倍率,第二种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张 增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进 行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训 练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率 达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对同 一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第二种采集条件下即第一种光学放大倍率、 第二种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的 图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像 特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类, 得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第二种采集条件下的相 应的图像的预测标签及其概率值,赋予权重为0.1;
5.3将所有4k张纸币,按步骤1的方法采集每一张纸币在第三种采集条件下即第一种光学放大 倍率,第三种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张 增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进 行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训 练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率 达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对同 一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第三种采集条件下即第一种光学放大倍率、 第三种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的 图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像 特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类, 得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第三种采集条件下的相 应的图像的预测标签及其概率值,赋予权重为0.1;
5.4将所有4k张纸币,按步骤1的方法采集每一张纸币在第四种采集条件下即第二种光学放大 倍率,第一种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张 增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进 行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训 练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率 达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对同 一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第四种采集条件下即第二种光学放大倍率, 第一种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的 图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像 特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类, 得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第四种采集条件下的相 应的图像的预测标签及其概率值,赋予权重为0.1;
5.5将所有4k张纸币,按步骤1的方法采集每一张纸币在第五种采集条件下即第二种光学放大 倍率,第二种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张 增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进 行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训 练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率 达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对同 一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第五种采集条件下即第二种光学放大倍率、 第二种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的 图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像 特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类, 得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第五种采集条件下的相 应的图像的预测标签及其概率值,赋予权重为0.1;
5.6将所有4k张纸币,按步骤1的方法采集每一张纸币在第六种采集条件下即第二种光学放大 倍率,第三个种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每 张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法 进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用 训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确 率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对 同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第六种采集条件下即第二种光学放大倍率、 第三种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的 图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像 特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类, 得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第六种采集条件下的相 应的图像的预测标签及其概率值,赋予权重为0.1;
5.7将所有4k张纸币,按步骤1的方法采集每一张纸币在第七种采集条件下即第三种光学放大 倍率,第一种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张 增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进 行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训 练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率 达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对同 一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第七种采集条件下即第三种光学放大倍率, 第一种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的 图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像 特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类, 得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第七种采集条件下的相 应的图像的预测标签及其概率值,赋予权重为0.2;
5.8将所有4k张纸币,按步骤1的方法采集每一张纸币在第八种采集条件下即第三种光学放大 倍率,第二种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张 增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进 行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训 练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率 达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对同 一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第八种采集条件下即第三种光学放大倍率、 第二种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的 图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像 特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类, 得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第八种采集条件下的相 应的图像的预测标签及其概率值,赋予权重为0.1;
5.9将所有4k张纸币,按步骤1的方法采集每一张纸币在第九种采集条件下即第三种光学放大 倍率,第三种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张 增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进 行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训 练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率 达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;对同 一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第九种采集条件下即第三种光学放大倍率、 第三种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的 图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像 特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类, 得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第九种采集条件下的相 应的图像的预测标签及其概率值,赋予权重为0.1;
5.10将上述步骤5.1-5.9得到的待鉴定纸币在九种采集条件下的9个预测标签及其概率值,按 权重重新计算标签的概率值,得到最后的标签及其概率值,即得到这张待鉴定纸币最后的标签。
本发明的有益效果:
本发明的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,将纹理识别技术及纹理分类算 法应用于假币的识别和鉴定中,将假币按印刷图案特征进行分类,从假币的印刷形成方式着手,对 假币的印刷形成方式进行检验鉴定,从而可以帮助公安部门根据鉴定出的假币印刷形成方式,对假 币进行反侦察处理,找寻出犯罪团伙的活动范围;该方法能够快速、精准地识别假币,耗时少,成 本低。按照本发明的纸币形成方式检验鉴定方法鉴定得到了假币的印刷方式以后,可以帮助公安部 门进行对所收缴的假币的分类整理;并且,可以通过鉴定出的纸币的形成方式,确定制作假币的打 印机型号,并根据打印机型号去追踪其打印机的购买记录,从而跟踪到犯罪分子,协助破案;而且, 还可以总结出使用相同假币作假方式的犯罪分子的活动规律,找出犯罪分子背后的犯罪团伙。特别 是,不同作假方式的成本不同,一旦发现是机制形成方式的假币,由于其打印机的成本极其昂贵, 制作的假币更具有欺骗性,因此,必须加强警力,严重打击这类犯罪分子,收缴其作假机器。
传统研究方法对外界污染因素鲁棒性低,分析速度慢,检验分析耗时长,成本高,不可广泛应 用于各类案件的需求,且人为因素对假币分析有影响,不是绝对的稳定可靠。本发明的方法,分析 速度快,成本低,对外界污染因素鲁棒性高,可减少人为因素对物证分析的影响,稳定可靠。
附图说明
图1是本发明中假币的四种印刷方式示意图;
图2是本发明中数据增强的几种方式示意图;
图3是本发明中的几种图像特征提取方法及特征聚类方法示意图;
图4是本发明中采集多倍率多光源环境下的图像的流程示意图。
具体实施方式
以下结合附图和实施例对本发明作进一步的说明。
实施例1
本发明一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法,包括步骤:
步骤1、采集纹理图像:取喷墨的、四色的、激光的、机制的四种不同印刷方式(如图1所示) 的纸币各k张,采集每一张纸币在某种光学放大倍率、某种光源环境下的纹理图像样本数据;
1.1.准备好目前已出现的四种不同印刷方式(机制、专色、四色、喷墨)的纸币各k张,k≥10; 预先对这四种不同印刷方式的纸币,分别设置1、2、3、4四个标签:喷墨:1,四色:2,激光:3,机 制:4;
1.2采集第一张纸币在16倍率的光学放大倍率、使用背光光源环境下的纹理图像;具体采集方法为:
1.2.1使用工业相机以及配置镜头等设备,采集纸币在16倍率的光学放大倍率、使用背光光源环境 下的纹理图像;
1.2.2在采集的纹理图像中,删掉因为对焦错误导致的模糊图像;
1.2.3在采集的纹理图像中,删掉因为破损、墨迹损坏纹理图案的负样本图像;
1.2.4按步骤1.2.1-1.2.3的方法,补充采集第一张纸币在16倍率的光学放大倍率、使用背光光源 环境下的纹理图像,使得第一张纸币的采集的纹理图像数量n=100;
1.3按步骤1.2.1-1.2.4的方法,采集和补充采集第二张纸币在16倍率的光学放大倍率、使用背光 光源环境下的纹理图像,使得每一张纸币的采集的纹理图像数量n=100;此时,Optical=16,light=back, 采集的纸币在16倍率的光学放大倍率、使用背光光源环境下的纹理图像用数组表示为
Figure BDA0002381546180000141
n=100;
1.4依次类推,依次对4k张纸币,按步骤1.2-1.4的方法,采集和补充采集每一张纸币在16倍率 的光学放大倍率、使用背光光源环境下的纹理图像,得到4k*n张纹理图像,即完成四种不同印刷方式 的每一张纸币在16倍率的光学放大倍率、使用背光光源环境下的纹理图像数据的采集工作。
步骤2、对步骤1采集的4k张纸币的共4k*n张纹理图像样本数据进行数据增强:(如图2所示)
对步骤1中第一张纸币在第一种光学放大倍率(optical=16)、第一种光源环境(light=back)下的 纹理图像进行数据增强的具体方法如下:
2.1读取步骤1采集的第一张纹理图像
Figure BDA0002381546180000142
i=1,以向量
Figure BDA0002381546180000143
的形式体现,以裁剪的方式将向量
Figure BDA0002381546180000144
缩放成0.75倍、0.5倍、1倍、2倍,输出多个向量
Figure BDA0002381546180000145
再将缩放后的向量
Figure BDA0002381546180000146
恢复成 一张张小分辨率的纹理图像
Figure BDA0002381546180000147
达到数据增强的效果;(j=1,2,3,4分 别代表缩放成0.75倍、0.5倍、1倍、2倍)
2.2读取步骤1采集的第一张纹理图像
Figure BDA0002381546180000148
i=1,以向量
Figure BDA0002381546180000149
的形式体现,以旋转的方式将向量
Figure BDA00023815461800001410
在0-360度范围内依次平均每次旋转15度,得到24个不同旋转角度的向量
Figure BDA00023815461800001411
并将旋转后的向量
Figure BDA00023815461800001412
恢 复成一张张纹理图像
Figure BDA00023815461800001413
达到数据增强的效果;(j=1,2,3,…,24 分别代表24个旋转角度)
2.3读取步骤1采集的第一张纹理图像
Figure BDA0002381546180000151
i=1,以向量
Figure BDA0002381546180000152
的形式体现,以翻转的方式将向量
Figure BDA0002381546180000153
上下翻转、左右翻转、左对角线翻转、右对角线翻转,得到4个向量
Figure BDA0002381546180000154
并将翻转后的向量
Figure BDA0002381546180000155
恢复成一 张张纹理图像
Figure BDA0002381546180000156
以达到数据增强的效果;
2.4读取步骤1采集的第一张纹理图像
Figure BDA0002381546180000157
i=1,以向量
Figure BDA0002381546180000158
的形式体现,以直方图均衡化的方法 实现对比度加强,对向量
Figure BDA0002381546180000159
进行处理,使得映射范围是[0,255],得到向量
Figure BDA00023815461800001510
并将对比度加强后的向 量
Figure BDA00023815461800001511
恢复成纹理图像
Figure BDA00023815461800001512
以达到数据增强的效果;
2.5读取步骤1采集的第一张纹理图像
Figure BDA00023815461800001513
i=1,以向量
Figure BDA00023815461800001514
的形式体现,以同态滤波的方法对向 量
Figure BDA00023815461800001515
进行处理,指定一个滤波器函数H(u,v),
Figure BDA00023815461800001516
使得rH=5, rL=0.5,得到向量
Figure BDA00023815461800001517
并将同态滤波后的向量
Figure BDA00023815461800001518
恢复成纹理图像
Figure BDA00023815461800001519
让原图 像的照明更加均匀,达到增强阴影区细节特征的目的,以达到数据增强的效果;
2.6读取步骤1采集的第一张纹理图像
Figure BDA00023815461800001520
i=1,以向量
Figure BDA00023815461800001521
的形式体现,使用高斯滤波法对向量
Figure BDA00023815461800001522
进行去除噪音处理(将向量
Figure BDA00023815461800001523
进行高斯滤波法处理,达到去除噪声的目的),使得高斯分布参数σ2=1, 得到向量
Figure BDA00023815461800001524
并将高斯滤波后的向量
Figure BDA00023815461800001525
恢复成纹理图像
Figure BDA00023815461800001526
以达到数据增强 的效果;
2.7将步骤2.1-2.6得到的全部35张纹理图像
Figure BDA00023815461800001527
进行裁剪,以 图像中心为裁剪图像的中心,裁剪大小为640*480;(该公式中的35是指前面经过步骤2.1-2.6处理得 到的总共35张纹理图像)
2.8将步骤1中在第一种光学放大倍率(optical)、第一种光源环境(light)下采集的4k*n张 (k=10,n=100,4000张)纹理图像依次经过步骤2.1-2.7,实现所有纹理图像样本数据的数据增强,得 到4k*n*35张(k=10,n=100,140000张)纹理图像
Figure BDA00023815461800001528
步骤3、图像特征提取:(如图3所示)
3.1图像颜色特征提取
3.1.1读取步骤2数据增强后(已裁剪成一定大小)的图像
Figure BDA00023815461800001529
以向量
Figure BDA00023815461800001530
的形式显示,使用HSV算子进行处理;
3.1.2使用HSV算子处理得到每种颜色通道的向量值
Figure BDA0002381546180000161
主要是提取蓝色、灰色、红色、紫色、绿 色这5个颜色通道的向量值
Figure BDA0002381546180000162
3.1.3将这些颜色每个通道的向量值
Figure BDA0002381546180000163
进行膨胀处理,参数为S=[1,0;1,1];接着进行腐蚀处理,参 数为5,并计算连通区域的个数为Ai;(膨胀就是求局部最大值的操作,相反,腐蚀是求局部最小值 的操作。膨胀可以增大区域,填充内部孔和增强了离散点,但增大了面积。腐蚀可以缩小区域,减 少间隔区域的连接和离散点的数量,但减小了面积。先膨胀后腐蚀是闭运算,有益于连接间隙和孔, 使区域更加连贯。)
3.1.4将5个颜色通道得到的连通区域的个数Ai作为颜色特征,并且,列向拼接组成向量值 [A1,A2,A3,A4,A5];
3.1.5向量值[A1,A2,A3,A4,A5]作为图像
Figure BDA0002381546180000164
的颜色特征。
3.2图像surf特征提取
3.2.1读取第一类印刷方式的35000张(1*k*n*35)纹理图像
Figure BDA0002381546180000165
以向量
Figure BDA0002381546180000166
的形式显示,使用surf算子进行处理;
3.2.2使用surf算子匹配
Figure BDA0002381546180000167
中任意两个图像,选取得到拼 配图像中一直可以匹配到的固定点P={Pi|i=1,2,3…,100};
3.2.3把固定点P={Pi|i=1,2,3…,100}的坐标作为纹理图像的surf特征向量 P(x,y)=[Px,y|x,y=1,2,3…,100];
3.2.4P(x,y)=[Px,y|x,y=1,2,3…,100]作为第一类印刷方式的每一张纹理图像
Figure BDA0002381546180000168
的surf特征向量;
3.2.5将四种印刷方式的所有纹理图像
Figure BDA0002381546180000169
(每种35000张, 总共14000 0张)依次按步骤3.2.1-3.2.4处理,得到四种不同印刷方式的所有纹理图像
Figure BDA00023815461800001610
的surf特征向量;
3.3图像纹理特征提取
3.3.1读取步骤2数据增强后的图像
Figure BDA0002381546180000179
,以向量
Figure BDA00023815461800001710
的形式显示,使用CLBP 算子进行处理;
3.3.2使用CLBP算子处理时,修改参数尺度为1,半径为8,得到图像的纹理特征向量 T=[Ti|i=1,2,3…,200];
3.3.3使用CLBP算子处理时,修改参数尺度为2,半径为16,得到图像的纹理特征向量 T=[Ti|i=1,2,3…,648];
3.3.4使用CLBP算子处理时,修改参数尺度为3,半径为24,得到图像的纹理特征向量 T=[Ti|i=1,2,3…,1352];
3.3.5将上述三个参数尺度的纹理特征向量进行列向拼接,形成一个新的向量,作为图像
Figure BDA0002381546180000172
的纹理特征向量T=[Ti|i=1,2,3…,2200];(2200=200+648+1352)
3.4图像形状特征提取
3.4.1读取图像
Figure BDA0002381546180000173
以向量
Figure BDA0002381546180000174
的形式显示,使用傅里叶形状描述符 (Fourier shape descriptors)算子进行处理;
3.4.2使用傅里叶形状描述符算子处理,用物体边界的傅里叶变换作为形状描述,利用区域边界的 封闭性和周期性,将二维问题转化为一维问题;
3.4.3将傅里叶形状描述符算子处理得到的形状描述向量作为图像的形状特征向量 D=[Di|i=1,2,3…20];
3.4.4将D=[Di|i=1,2,3…20]作为
Figure BDA0002381546180000175
的形状特征向量;
3.5图像Haar特征提取
3.5.1读取步骤2数据增强后的图像
Figure BDA0002381546180000176
以向量
Figure BDA0002381546180000177
的形式显示,使用 haar-like算子进行处理;
3.5.2使用haar-like算子进行处理,得到边缘特征、线性特征、中心特征和对角线特征,组合成 特征模板;
3.5.3将得到的特征模板作为图像的Haar特征;由于矩阵特征大小为w*h,对于图像大小为W*H的 图像,所以Haar特征为Haar=[Haari|i=1,2,3…,2×F1];
Figure BDA0002381546180000178
(s表示前提条件,F1表示特征维度,X表示W/w取整,Y表示H/h取整,X和Y的表示方式只是为了简化前面的公式)
3.6图像梯度特征提取
3.6.1读取步骤2数据增强后的图像
Figure BDA0002381546180000181
以向量
Figure BDA0002381546180000182
的形式显示,使用HOG 算子(方向梯度直方图特征算法)进行处理;
3.6.2首先将图像向量
Figure BDA0002381546180000189
分成小的连通区域,即细胞单元Ci,窗口的大小m*n,块大小q*p,表块滑 动增量大小mq*np,表示胞元大小x*y,N表示每个胞单元中梯度直方图的数量;
3.6.3采集细胞单元Ci中各像素点的梯度直方图Hi
3.6.4进行归一化得到向量 X={Xi|i=1,2,3…,9×(q/x)×(p/y)×((m-q)/mq+1)×((n-p)/np+1)},构成特征描述器, 作为
Figure BDA0002381546180000183
的Hog特征(图像梯度特征);
3.7图像特征融合(图像特征聚类):
3.7.1将步骤3.1-3.4得到的特征向量横向拼接,得到图像
Figure BDA0002381546180000184
的第一个 新的图像特征F1=[Fi|i=1,2,3…,2427];
3.7.2将步骤3.5得到的Haar特征作为图像
Figure BDA0002381546180000185
的第二个新的图像特征 F2=[Fi|i=1,2,3…,2×F1];
Figure BDA0002381546180000186
3.7.3将步骤3.6得到的Hog特征作为图像
Figure BDA0002381546180000187
的第三个新的图像特征 F3=[Fi|i=1,2,3…,9×(q/x)×(p/y)×((m-q)/mq+1)×((n-p)/np+1)]。
步骤4、图像特征分类:(如图3所示)
4.1将在纸币上采集并进行数据增强的所有4k*n*35张(140000张)图像
Figure RE-GDA0002448742890000186
将每张图像按步骤3.1-3.6的方法进行图像特征提取并按步骤3.7.1的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集 以1:1的比例分为训练集和测试集;先使用训练集使用SVM(支持向量机)对整个训练集进行训练 得到第一类的SVM模型,再使用测试集对该SVM模型进行测试;当准确率达到96%以上以后,再将 按步骤1.2.1-1.2.4的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、 某一种光源环境下的n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进 行图像特征提取,并按照3.7.1的方法进行图像特征融合,再使用训练好的第一类的SVM模型进行 图像特征分类,得到这张待鉴定纸币的第一类标签及其概率值,赋予权重为0.5;
4.2将在纸币上采集并进行数据增强的所有4k*n*35张(140000张)图像
Figure RE-GDA0002448742890000191
将每张图像按步骤3.1-3.6的方法进行图像特 征提取并按步骤3.7.2的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集 以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到第二类的 SVM模型,再使用测试集对该SVM模型进行测试;当准确率达到96%以上以后,再将按步骤1.2.1-1.2.4 的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的 n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像特征提取,并 按照3.7.2的方法进行图像特征融合,再使用训练好的第二类的SVM模型进行图像特征分类,得到 这张待鉴定纸币的第二类标签及其概率值,赋予权重为0.2;
4.3将在纸币上采集并进行数据增强的所有4k*n*35张(140000张)图像
Figure RE-GDA0002448742890000192
将每张图像按步骤3.1-3.6的方法进行图像特征提取并按步骤3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集 以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到第三类的 SVM模型,再使用测试集对该SVM模型进行测试;当准确率达到96%以上以后,再将按步骤1.2.1-1.2.4 的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的 n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像特征提取,并 按照3.7.3的方法进行图像特征融合,再使用训练好的第三类的SVM模型进行图像特征分类,得到 这张待鉴定纸币的第三类标签及其概率值,赋予权重为0.3;
4.4将上述步骤4.1-4.3得到的三类标签及其概率值,按照权重计算,得到这张待鉴定纸币的 图像的预测标签及其概率值。
步骤5、将所有4k张纸币,按步骤1的方法采集每一张纸币在多种不同的采集条件下即不同光 学放大倍率,不同光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将 每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方 法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使 用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准 确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型; 对同一张待鉴定纸币,采集其在多种不同的采集条件下即不同光学放大倍率、不同光源环境下的纹 理图像;将每种采集条件下采集的每张图像按步骤2的方法进行图像数据增强,将每张增强的图像 按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征 融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得 到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在每种采集条件下的预测标 签及其概率值;将待鉴定纸币在多种采集条件下得到的预测标签及其概率值,按权重重新计算,得 到这张待鉴定纸币最后的标签;具体方法如下:(如图4所示)
5.1将所有4k张纸币,按步骤1的方法,使用工业相机以及配置镜头等设备,采集每一张纸币 在第一种采集条件下即光学放大倍率为16、光源环境为back下的纹理图像;此时,光学放大倍率 Optical=16,使用光源环境light=back,采集的纸币在16倍率的光学放大倍率下、使用背光光源 环境的纹理图像用数组表示为
Figure BDA0002381546180000201
n=100;将每张图像按步骤2的方 法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步 骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据 集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试 集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境 下的训练好的三类SVM模型;对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法,使用工业相机以 及配置镜头等设备,采集该纸币在第一种采集条件下即光学放大倍率为16、光源环境为back下的n 张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再按步骤4 的方法使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第一种采集条件下的相应的 图像的预测标签及其概率值,赋予权重为0.1;(步骤5.1的工作已在前面的步骤1-步骤4中完成了)
5.2将所有4k张纸币,按步骤1的方法,使用工业相机以及配置镜头等设备,采集每一张纸币 在第二种采集条件下即光学放大倍率为16、光源环境为side下的纹理图像;此时,光学放大倍率 Optical=16,使用光源环境light=side,采集的纸币在16倍率的光学放大倍率下、使用侧光光源 环境的纹理图像用数组表示为
Figure BDA0002381546180000202
n=100;将每张图像按步骤2的方法 进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤 3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集 分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集 对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下 的训练好的三类SVM模型;对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法,使用工业相机以及 配置镜头等设备,采集该纸币在第二种采集条件下即光学放大倍率为16、光源环境为side下的n 张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再按步骤4 的方法使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第二种采集条件下的相应的 图像的预测标签及其概率值,赋予权重为0.1;
5.3将所有4k张纸币,按步骤1的方法,使用工业相机以及配置镜头等设备,采集每一张纸币 在第三种采集条件下即光学放大倍率为16、光源环境为ring下的纹理图像;此时,光学放大倍率 Optical=16,使用光源环境light=ring,采集的纸币在16倍率的光学放大倍率下、使用环形光源 环境的纹理图像用数组表示为
Figure BDA0002381546180000211
n=100;将每张图像按步骤2的方法 进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤 3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集 分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集 对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下 的训练好的三类SVM模型;对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法,使用工业相机以及 配置镜头等设备,采集该纸币在第三种采集条件下即光学放大倍率为16、光源环境为ring下的n 张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再按步骤4 的方法使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第三种采集条件下的相应的 图像的预测标签及其概率值,赋予权重为0.1;
5.4将所有4k张纸币,按步骤1的方法,使用工业相机以及配置镜头等设备,采集每一张纸币 在第四种采集条件下即光学放大倍率为30、光源环境为back下的纹理图像;此时,光学放大倍率 Optical=30,使用光源环境light=back,采集的纸币在30倍率的光学放大倍率下、使用背光光源 环境的纹理图像用数组表示为
Figure BDA0002381546180000212
n=100;将每张图像按步骤2的方 法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步 骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据 集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试 集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境 下的训练好的三类SVM模型;对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法,使用工业相机以 及配置镜头等设备,采集该纸币在第四种采集条件下即光学放大倍率为30、光源环境为back下的n 张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再按步骤4 的方法使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第四种采集条件下的相应的 图像的预测标签及其概率值,赋予权重为0.1;
5.5将所有4k张纸币,按步骤1的方法,使用工业相机以及配置镜头等设备,采集每一张纸币 在第五种采集条件下即光学放大倍率为30、光源环境为back下的纹理图像;此时,光学放大倍率 Optical=30,使用光源环境light=side,采集的纸币在30倍率的光学放大倍率下、使用侧光光源 环境的纹理图像用数组表示为
Figure BDA0002381546180000221
n=100;将每张图像按步骤2的方 法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步 骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据 集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试 集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境 下的训练好的三类SVM模型;对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法,使用工业相机以 及配置镜头等设备,采集该纸币在第五种采集条件下即光学放大倍率为30、光源环境为back下的n 张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再按步骤4 的方法使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第五种采集条件下的相应的 图像的预测标签及其概率值,赋予权重为0.1;
5.6将所有4k张纸币,按步骤1的方法,使用工业相机以及配置镜头等设备,采集每一张纸币 在第六种采集条件下即光学放大倍率为30、光源环境为ring下的纹理图像;此时,光学放大倍率 Optical=30,使用光源环境light=ring,采集的纸币在30倍率的光学放大倍率下、使用环形光源 环境的纹理图像用数组表示为
Figure BDA0002381546180000222
n=100;将每张图像按步骤2的方 法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步 骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据 集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试 集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境 下的训练好的三类SVM模型;对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法,使用工业相机以 及配置镜头等设备,采集该纸币在第六种采集条件下即光学放大倍率为30、光源环境为ring下的n 张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再按步骤4 的方法使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第六种采集条件下的相应的 图像的预测标签及其概率值,赋予权重为0.1;
5.7将所有4k张纸币,按步骤1的方法,使用工业相机以及配置镜头等设备,采集每一张纸币 在第七种采集条件下即光学放大倍率为60、光源环境为back下的纹理图像;此时,光学放大倍率 Optical=60,使用光源环境light=back,采集的纸币在60倍率的光学放大倍率下、使用背光光源 环境的纹理图像用数组表示为
Figure BDA0002381546180000231
n=100;将每张图像按步骤2的方 法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步 骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据 集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试 集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境 下的训练好的三类SVM模型;对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法,使用工业相机以 及配置镜头等设备,采集该纸币在第七种采集条件下即光学放大倍率为60、光源环境为back下的n 张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再按步骤4 的方法使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第七种采集条件下的相应的 图像的预测标签及其概率值,赋予权重为0.2;
5.8将所有4k张纸币,按步骤1的方法,使用工业相机以及配置镜头等设备,采集每一张纸币 在第八种采集条件下即光学放大倍率为60、光源环境为side下的纹理图像;此时,光学放大倍率 Optical=60,使用光源环境light=side,采集的纸币在60倍率的光学放大倍率下、使用侧光光源 环境的纹理图像用数组表示为
Figure BDA0002381546180000232
n=100;将每张图像按步骤2的方 法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步 骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据 集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试 集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境 下的训练好的三类SVM模型;对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法,使用工业相机以 及配置镜头等设备,采集该纸币在第八种采集条件下即光学放大倍率为60、光源环境为side下的n 张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再按步骤4 的方法使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第八种采集条件下的相应的 图像的预测标签及其概率值,赋予权重为0.1;
5.9将所有4k张纸币,按步骤1的方法,使用工业相机以及配置镜头等设备,采集每一张纸币 在第九种采集条件下即光学放大倍率为60、光源环境为ring下的纹理图像;此时,光学放大倍率 Optical=60,使用光源环境light=ring,采集的纸币在60倍率的光学放大倍率下、使用环形光源 环境的纹理图像用数组表示为
Figure BDA0002381546180000241
n=100;将每张图像按步骤2的方 法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步 骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据 集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试 集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境 下的训练好的三类SVM模型;对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法,使用工业相机以 及配置镜头等设备,采集该纸币在第九种采集条件下即光学放大倍率为60、光源环境为ring下的n 张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再按步骤4 的方法使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到 待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第九种采集条件下的相应的 图像的预测标签及其概率值,赋予权重为0.1;
5.10将上述步骤5.1-5.9得到的9个预测标签及其概率值,按权重重新计算标签的概率值,得 到最后的标签及其概率值,即得到这张待鉴定纸币最后的标签。
实施例2
预先对喷墨的、四色的、激光的、机制的四种纸币,分别设置四个标签:喷墨:1,四色:2, 激光:3,机制:4;取这四种纸币,每种纸币数量k超过10张;
(一)按照实施例1步骤1.2-1.4的方法,采集4k张四种不同印刷方式的纸币中的每一张纸币 在某一光学放大倍率、某一使用光源环境下的纹理图像;每张纸币采集的纹理图像数据n≥100,得 到4k*n张纹理图像(640*480)样本数据。
(二)按照实施例1步骤2的方法对采集的4k*n张纹理图像中的每一个图像样本数据进行数据增强;
(三)按照实施例1步骤3的方法,对增强的图像样本数据进行图像特征提取;以一张印刷方 式为喷墨的纸币在光学放大倍率为60、使用环形光源环境下采集的纹理图像增强后的数据为例:
(1)按步骤3.1,进行图像颜色特征提取,得到纹理图像的颜色特征向量为[6,8,5,4,7];
(2)按步骤3.2,进行图像surf特征提取,得到纹理图像的surf特征向量[1,200]为:
[81 411 403 206 284 336 312 248 308 334 356 219 51 50 303 42 45 251445 70......
211 96 139 343 133 130 58 425 263 270 289 48 295 17 59 61 317 281 280375]
(3)按步骤3.3.2,进行图像纹理特征提取,半径r为1,个数P为8,得到纹理图像的纹理特 征向量[1,200]是:
[318 677 977 133 391 517 1060......56 482 134 382 53 295 144 23 43110 0 746 131 2 1416 3246 5557 3638 1133 367 169 1249]
(4)按步骤3.3.3,进行图像纹理特征提取,半径r为2,个数P为16,得到纹理图像的纹理 特征向量[1,648]是:
[2504 2036 2529 3094 3400 3773 4178 4655 4566 4612 4390 3888 36003776 3831 2927 4837 45692 853 599 746 774 614 720 882 651 421 571 672646........574 1 4078 1 3 14 14 21 29 47 34 17 10 4 2 0 1 0 693 0 142 6317155 18355 17998 14555 11019]
(5)按步骤3.3.4,进行图像纹理特征提取,半径r为3,个数P为24,得到纹理图像的纹理 特征向量[1,1352]是:
[1234 1048 1181 1233 1146 1134 1131 1278 1314 1425 1462 1543......0 11 4 95 43 35 89 53 47 13 13 4 7 13 30 33 21 8 2 2 2 0 0 0 0 0 0 129 3]
(6)按步骤3.3.5,进行图像纹理特征提取,得到纹理图像的纹理特征向量[1,2200]是:
[319 677 977 1334 1757 1855 1614 1268 1009 2865 178 391 5171060......0 1 1 4 95 43 7689 9 35 89 53 47 13 13 4 7 13 30 33 21 8 2 2 2 0 00 0 0 0 129 3]
(7)按步骤3.4,进行图像形状特征提取,得到纹理图像的形状特征向量[1,20]是:
[0.8147 0.9058 0.1270 0.9134 0.6324 0.0975 0.2785 0.5469 0.95750.9649 0.1576 0.9706 0.9572 0.4854 0.8003 0.1419 0.4218 0.9157 0.7922 0.9595]
(8)按步骤3.5,进行图像Haar特征提取,矩阵特征大小w*h为(64*48),图像大小W*H为 (640*480),得到纹理图像的Haar特征向量[1,7736100]是:
[41 70 35 74 83 80 52 54 86 62 74 77 56 15 13 95 74 14 56 99.......
14 53 36 20 22 99 32 6 87 85 99 21 21 45 21 73 40 85 12 11]
(9)按步骤3.6,进行图像梯度特征提取,窗口的大小m*n为(640*480),块大小q*p为(8*6), 表块滑动增量大小mq*np为(8*6),表示胞元大小x*y为(4*3),N为9表示每个胞单元中梯度直 方图的数量,得到纹理图像的梯度特征向量[1,230400]是:
[0.5975 0.1249 0.7593 0.1636 0.8092 0.0205 0.7519 0.3174 0.63120.1841 0.2238 0.6273 0.2751 0.9891 0.1379 0.9456 0.4116 0.3545 0.78290.2243......
0.4294 0.7639 0.1750 0.0366 0.2554 0.2576 0.8161 0.8667 0.4211 0.92460.3839 0.5301 0.8021 0.6259 0.9843 0.5278 0.9962 0.7261 0.7295 0.9345]
(10)按步骤3.7.1,进行特征横向拼接,得到图像的第一个新特征向量是:
[6 8 5 4 7 81 411 403 206 284 336 312 248 308 334 356 219 51 50 30342 45 251 445 70....0.8147 0.9058 0.1270 0.9134 0.6324 0.0975 0.2785 0.54690.9575 0.9649 0.1576 0.9706 0.9572 0.4854 0.8003 0.1419 0.4218 0.9157 0.79220.9595]
(11)按步骤3.7.2,采用步骤3.5得到的特征,得到图像的第二个新特征向量是:
[41 70 35 74 83 80 52 54 86 62 74 77 56 15 13 95 74 14 56 99.......
14 53 36 20 22 99 32 6 87 85 99 21 21 45 21 73 40 85 12 11]
(12)按步骤3.7.3,采用步骤3.6得到的特征,得到图像的第三个新特征向量是:
[0.5975 0.1249 0.7593 0.1636 0.8092 0.0205 0.7519 0.3174 0.63120.1841 0.2238 0.6273 0.2751 0.9891 0.1379 0.9456 0.4116 0.3545 0.78290.2243......
0.4294 0.7639 0.1750 0.0366 0.2554 0.2576 0.8161 0.8667 0.4211 0.92460.3839 0.5301 0.8021 0.6259 0.9843 0.5278 0.9962 0.7261 0.7295 0.9345]
(四)按照实施例1步骤4的方法,进行图像特征分类;
(1)将在纸币上采集并进行数据增强的所有4k*n*35张图像,将每张图像按步骤3.1-3.6的方 法进行图像特征提取并按步骤3.7.1的方法进行图像特征融合得到的图像特征加上标签作为数据 集;将该数据集以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练 得到第一类的SVM模型;再使用测试集对该SVM模型进行测试;准确率达到96%以上;再将按步骤 1.2.1-1.2.4的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种 光源环境下的n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像 特征提取,并按照3.7.1的方法进行图像特征融合,再使用训练好的第一类的SVM模型进行图像特 征分类,得到这张待鉴定纸币的第一类标签及其概率值为1:90%,赋予权重为0.5;
(2)将在纸币上采集并进行数据增强的所有4k*n*35张图像,将每张图像按步骤3.1-3.6的方 法进行图像特征提取并按步骤3.7.2的方法进行图像特征融合得到的图像特征加上标签作为数据 集;将该数据集以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练 得到第二类的SVM模型;再使用测试集对该SVM模型进行测试;准确率达到96%以上;再将按步骤 1.2.1-1.2.4的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种 光源环境下的n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像 特征提取,并按照3.7.2的方法进行图像特征融合,再使用训练好的第二类的SVM模型进行图像特 征分类,得到这张待鉴定纸币的第二类标签及其概率值为1:93%,赋予权重为0.2;
(3)将在纸币上采集并进行数据增强的所有4k*n*35张图像,将每张图像按步骤3.1-3.6的方 法进行图像特征提取并按步骤3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据 集;将该数据集以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练 得到第三类的SVM模型,再使用测试集对该SVM模型进行测试;准确率达到96%以上;再将按步骤 1.2.1-1.2.4的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种 光源环境下的n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像 特征提取,并按照3.7.3的方法进行图像特征融合,再使用训练好的第三类的SVM模型进行图像特 征分类,得到这张待鉴定纸币的第三类标签及其概率值为1:96%,赋予权重为0.3;
(4)将上述得到的三类标签及其概率值(第一类标签1:90%,赋予权重为0.5;第二类标签1:93%, 赋予权重为0.2;第三类标签1:96%,赋予权重为0.3),按权重计算后,得到的新图像的预测标签 是1:90%。
(五)按实施例1的步骤5.1-5.9所述方法,对同一张待鉴定纸币,按实施例1的步骤1.2.1-1.2.4的方法分别采集这张纸币在九种不同采集条件下即不同光学放大倍率、不同光源环境 下的纹理图像,并分别依次按实施例1步骤2的方法进行图像数据增强、按步骤3的方法进行图像 特征提取、按步骤4的方法使用训练好的SVM模型进行图像特征分类及权重计算,分别得到该纸币 在九种不同采集条件下即不同光学放大倍率、不同光源环境下的9个预测标签及其概率值为1:90%, 1:97%,1:96%,1:92%,2:80%,1:88%,1:93%,1:93%,1:90%;并对这9个预测标签及其 概率值分别赋予权重0.1,01,0.1,01,0.1,01,0.2,01,0.1;然后,将上述得到的9个预测 标签及其概率值,按权重重新计算,得到最后的标签及其概率值,即得到这张待鉴定纸币最后的标 签为1,亦即,这张待鉴定纸币的印刷方式为喷墨。

Claims (9)

1.一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法,其特征在于,包括下述步骤:
步骤1、采集纹理图像:预先对喷墨的、四色的、激光的、机制的四种不同印刷方式的纸币,分别设置四个不同的标签;取喷墨的、四色的、激光的、机制的四种不同印刷方式的纸币各k张,共4k张;对所有4k张纸币,采集每一张纸币在某一种采集条件下即某一种光学放大倍率、某一种光源环境下的n张纹理图像,得到4k*n张纹理图像;其中,k≥10,n≥100;
步骤2、图像数据增强:对步骤1采集的每一张纹理图像进行数据增强,得到4k*n*m张增强后的图像;数据增强的方式包括:图像缩放、图像旋转、图像翻转、图像对比度加强、同态滤波处理、图像去除噪音;
步骤3、图像特征提取:对步骤2增强后的每一张图像进行图像特征提取,并进行图像特征融合;图像特征提取包括:图像颜色特征提取、图像surf特征提取、图像纹理特征提取、图像形状特征提取、图像Haar特征提取、图像梯度特征提取;
步骤4、图像特征分类:将所有4k*n*m张图像中的每张图像按步骤3的方法进行图像特征提取并按照不同方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的SVM模型;再将按步骤1的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的多张纹理图像,按步骤2的方法进行图像数据增强,按步骤3的方法进行图像特征提取及图像特征融合,再使用训练好的SVM模型进行图像特征分类,得到这张待鉴定纸币的每一类的标签及其概率值,并赋予权重;将上述得到的几类标签及其概率值,按照权重计算,得到这张待鉴定纸币在这一种采集条件下图像的预测标签及其概率值;
步骤5、将所有4k张纸币,按步骤1的方法采集每一张纸币在多种不同的采集条件下即不同光学放大倍率,不同光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3的方法进行图像特征提取并按照不同方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的多类SVM模型;
对同一张待鉴定纸币,采集其在多种不同的采集条件下即不同光学放大倍率、不同光源环境下的纹理图像;将每种采集条件下采集的每张图像按步骤2的方法进行图像数据增强,将每张增强的图像按步骤3的方法进行图像特征提取并进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的多类SVM模型进行图像特征分类,得到待鉴定纸币的多类标签及其概率值,按权重计算后,得到待鉴定纸币在每种采集条件下的预测标签及其概率值;将待鉴定纸币在多种采集条件下得到的预测标签及其概率值,按权重重新计算,得到这张待鉴定纸币最后的标签。
2.如权利要求1所述的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,其特征在于,步骤3中,提取图像纹理特征的方法包括:LBP、CLBP、LTP局部二值模式算法,灰度共生矩阵法,Tamura纹理特征法,自回归纹理模型法,小波变换模型法,马尔可夫随机场模型法,Gibbs随机场模型法,分形模型法,自回归模型法,Voronio棋盘格特征法,句法纹理描述算法,数学形态学方法。
3.如权利要求1所述的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,其特征在于,步骤3中,提取图像颜色特征的方法包括:HSV算法、RGB算法、HIS算法;提取图像不定点特征的方法包括:sift算法、surf算法;提取图像形状特征的方法包括:Hough变换法,傅里叶形状描述符法,几何参数法,形状不变矩法,有限元法,旋转函数和小波描述符方法。
4.如权利要求1所述的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,其特征在于,步骤2中,图像去除噪音的方法包括:高斯滤波法,均值滤波法,双边滤波法,引导滤波法,NLM算子法,BM3D算子法,频域滤波法,小波域滤波法,P-M方程去噪法,TV去噪法。
5.如权利要求1所述的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,其特征在于,步骤4中,对图像特征进行分类的方法包括:KNN分类算法,SVM支持向量机分类算法,随机森林法,决策树法,贝叶斯分类算法,人工神经网络法,基于关联规则的分类方法。
6.如权利要求1所述的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,其特征在于,具体包括下述步骤:
步骤1、采集每一张纸币在某一种光学放大倍率、某一种光源环境下的纹理图像:
1.1.准备好目前已经出现的喷墨的、四色的、激光的、机制的四种不同印刷方式的纸币各k张,共4k张;k≥10;预先对喷墨的、四色的、激光的、机制的四种不同印刷方式的纸币,分别设置1、2、3、4四个标签,即:喷墨:1,四色:2,激光:3,机制:4;
1.2.采集第一张纸币在某一种采集条件下即在某一种光学放大倍率、某一种光源环境下的纹理图像;
采集某一张纸币在某一种采集条件下即在某一种光学放大倍率optical、某一种光源环境light下的纹理图像,用数组表示为
Figure FDA0002381546170000031
n是指每一张纸币在每种采集条件下所采集的纹理图像的数量,n≥100;具体采集纹理图像的方法为:
1.2.1使用工业相机以及配置镜头设备,采集某一张纸币在某一种光学放大倍率、某一种光源环境下的纹理图像Ilight_optical
1.2.2在采集的纹理图像Ilight_optical中,删掉因为对焦错误导致的模糊图像;
1.2.3在采集的纹理图像Ilight_optical中,删掉因为破损、墨迹损坏纹理图案的负样本图像;
1.2.4补充采集这一张纸币在这一种光学放大倍率、这一种光源环境下的纹理图像,使得这一张纸币在这种采集条件下所采集的纹理图像数量n≥100;
1.3.按步骤1.2.1-1.2.4的方法,采集第二张纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的纹理图像;
1.4.按步骤1.2.1-1.2.4的方法,采集第三张纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的纹理图像;
1.5.按步骤1.2.1-1.2.4的方法,采集第四张纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的纹理图像;
1.6.依次类推,按步骤1.2.1-1.2.4的方法,依次对4k张纸币完成其在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的纹理图像的采集,得到4k*n张纹理图像,即完成四种不同印刷方式的4k张纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的纹理图像数据的采集工作;
步骤2、对步骤1采集的4k张纸币在同一种采集条件下的共4k*n张纹理图像样本数据进行数据增强:
对步骤1中采集的某一张纸币在某一种光学放大倍率、某一种光源环境下的纹理图像进行数据增强的具体方法如下:
2.1.读取步骤1采集的某一张纹理图像,以向量
Figure FDA0002381546170000041
的形式体现,以裁剪的方式将向量
Figure FDA0002381546170000042
缩放若干倍,输出多个向量,再将缩放后的向量
Figure FDA0002381546170000043
恢复成一张张小分辨率的纹理图像,达到数据增强的效果;
2.2.读取步骤1采集的某一张纹理图像,以向量
Figure FDA0002381546170000044
的形式体现,以旋转的方式将向量
Figure FDA0002381546170000045
在0-360度范围内依次平均每次旋转15度,得到24个不同旋转角度的向量
Figure FDA0002381546170000046
并将旋转后的向量
Figure FDA0002381546170000047
恢复成一张张纹理图像,达到数据增强的效果;
2.3.读取步骤1采集的某一张纹理图像,以向量
Figure FDA0002381546170000048
的形式体现,以翻转的方式将向量
Figure FDA0002381546170000049
上下翻转、左右翻转、左对角线翻转、右对角线翻转,得到4个向量
Figure FDA00023815461700000410
并将翻转后的向量
Figure FDA00023815461700000411
恢复成一张张纹理图像,以达到数据增强的效果;
2.4.读取步骤1采集的某一张纹理图像,以向量
Figure FDA00023815461700000412
的形式体现,以直方图均衡化的方法实现对比度加强,对向量
Figure FDA00023815461700000413
进行处理,使得映射范围是[0,255],得到向量
Figure FDA00023815461700000414
并将对比度加强后的向量
Figure FDA00023815461700000415
恢复成纹理图像,以达到数据增强的效果;
2.5.读取步骤1采集的某一张纹理图像,以向量
Figure FDA00023815461700000416
的形式体现,以同态滤波的方法对向量
Figure FDA00023815461700000417
进行处理,指定一个滤波器函数H(u,v),
Figure FDA00023815461700000418
使得rH=5,rL=0.5,得到向量
Figure FDA00023815461700000419
并将同态滤波后的向量
Figure FDA00023815461700000420
恢复成纹理图像,以达到数据增强的效果;
2.6.读取步骤1采集的某一张纹理图像,以向量
Figure FDA00023815461700000421
的形式体现,使用高斯滤波法对向量
Figure FDA00023815461700000422
进行去除噪音处理,使得高斯分布参数σ2=1,得到向量
Figure FDA00023815461700000423
并将高斯滤波后的向量
Figure FDA00023815461700000424
恢复成纹理图像,以达到数据增强的效果;
2.7.将步骤2.1-2.6得到的全部35张纹理图像进行裁剪,以图像中心为裁剪图像的中心,裁剪大小为640*480;
2.8.将步骤1中在某一种光学放大倍率、某一种光源环境下采集的4k*n张纹理图像依次经过步骤2.1-2.7,实现所有纹理图像样本数据的数据增强,得到4k*n*35张纹理图像;
步骤3、图像特征提取:
3.1图像颜色特征提取
3.1.1.读取步骤2数据增强后的图像,以向量
Figure FDA0002381546170000051
的形式显示,使用HSV算子进行处理;
3.1.2.使用HSV算子处理得到每种颜色通道的向量值
Figure FDA0002381546170000052
主要是提取蓝色、灰色、红色、紫色、绿色这5个颜色通道的向量值
Figure FDA0002381546170000053
3.1.3.将这些颜色每个通道的向量值
Figure FDA0002381546170000054
进行膨胀处理,参数为S=[1,0;1,1];接着进行腐蚀处理,参数为5,并计算连通区域的个数为Ai
3.1.4.将5个颜色通道得到的连通区域的个数Ai作为颜色特征,并且,列向拼接组成向量值[A1,A2,A3,A4,A5];
3.1.5.向量值[A1,A2,A3,A4,A5]作为图像的颜色特征;
3.2图像surf特征提取
3.2.1读取第一类印刷方式的1*k*n*35张纹理图像,以向量I的形式显示,使用surf算子进行处理;
3.2.2使用surf算子匹配任意两个图像,选取得到拼配图像中一直可以匹配到的固定点P={Pi|i=1,2,3…,100};
3.2.3把固定点P={Pi|i=1,2,3…,100}的坐标作为纹理图像的surf特征向量P(x,y)=[Px,y|x,y=1,2,3…,100];
3.2.4P(x,y)=[Px,y|x,y=1,2,3…,100]作为第一类印刷方式的每一张纹理图像的surf特征向量;
3.2.5将四种印刷方式的所有4k*n*35张纹理图像依次按步骤3.2.1-3.2.4处理,得到四种不同印刷方式的所有4k*n*35张纹理图像的surf特征向量;
3.3图像纹理特征提取
3.3.1读取步骤2数据增强后的图像,以向量
Figure FDA0002381546170000055
的形式显示,使用CLBP算子进行处理;
3.3.2使用CLBP算子处理时,修改参数尺度为1,半径为8,得到图像的纹理特征向量T=[Ti|i=1,2,3…,200];
3.3.3使用CLBP算子处理时,修改参数尺度为2,半径为16,得到图像的纹理特征向量T=[Ti|i=1,2,3…,648];
3.3.4使用CLBP算子处理时,修改参数尺度为3,半径为24,得到图像的纹理特征向量T=[Ti|i=1,2,3…,1352];
3.3.5将上述三个参数尺度的纹理特征向量进行列向拼接,形成一个新的向量,作为图像的纹理特征向量T=[Ti|i=1,2,3…,2200];
3.4图像形状特征提取
3.4.1读取图像,以向量
Figure FDA0002381546170000064
的形式显示,使用傅里叶形状描述符算子进行处理;
3.4.2使用傅里叶形状描述符算子处理,用物体边界的傅里叶变换作为形状描述,利用区域边界的封闭性和周期性,将二维问题转化为一维问题;
3.4.3将傅里叶形状描述符算子处理得到的形状描述向量作为图像的形状特征向量D=[Di|i=1,2,3…20];
3.4.4将D=[Di|i=1,2,3…20]作为图像的形状特征向量;
3.5图像Haar特征提取
3.5.1读取步骤2数据增强后的图像,以向量
Figure FDA0002381546170000061
的形式显示,使用haar-like算子进行处理;
3.5.2使用haar-like算子进行处理,得到边缘特征、线性特征、中心特征和对角线特征,组合成特征模板;
3.5.3将得到的特征模板作为图像的Haar特征;
3.6图像梯度特征提取
3.6.1读取步骤2数据增强后的图像,以向量
Figure FDA0002381546170000062
的形式显示,使用HOG算子进行处理;
3.6.2首先将图像向量
Figure FDA0002381546170000063
分成小的连通区域,即细胞单元Ci,窗口的大小m*n,块大小q*p,表块滑动增量大小mq*np,表示胞元大小x*y,N表示每个胞单元中梯度直方图的数量;
3.6.3采集细胞单元Ci中各像素点的梯度直方图Hi
3.6.4进行归一化得到向量X={Xi|i=1,2,3…,9×(q/x)×(p/y)×((m-q)/mq+1)×((n-p)/np+1)},构成特征描述器,作为图像的梯度特征;
3.7图像特征融合:
3.7.1.将步骤3.1-3.4得到的特征向量横向拼接,得到图像的第一个新的图像特征;
3.7.2.将步骤3.5得到的Haar特征作为图像的第二个新的图像特征;
3.7.3.将步骤3.6得到的Hog特征作为图像的第三个新的图像特征;
步骤4、图像特征分类:
4.1将在纸币上采集并进行数据增强的所有4k*n*35张图像,将每张图像按步骤3.1-3.6的方法进行图像特征提取并按步骤3.7.1的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到第一类的SVM模型,再使用测试集对该SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的SVM模型;再将按步骤1.2.1-1.2.4的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像特征提取,并按照3.7.1的方法进行图像特征融合,再使用训练好的第一类的SVM模型进行图像特征分类,得到这张待鉴定纸币的第一类标签及其概率值,赋予权重为0.5;
4.2将在纸币上采集并进行数据增强的所有4k*n*35张图像,将每张图像按步骤3.1-3.6的方法进行图像特征提取并按步骤3.7.2的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到第二类的SVM模型,再使用测试集对该SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的SVM模型;再将按步骤1.2.1-1.2.4的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像特征提取,并按照3.7.2的方法进行图像特征融合,再使用训练好的第二类的SVM模型进行图像特征分类,得到这张待鉴定纸币的第二类标签及其概率值,赋予权重为0.2;
4.3将在纸币上采集并进行数据增强的所有4k*n*35张图像,将每张图像按步骤3.1-3.6的方法进行图像特征提取并按步骤3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集以1:1的比例分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到第三类的SVM模型,再使用测试集对该SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的SVM模型;再将按步骤1.2.1-1.2.4的方法采集的一张待鉴定纸币在同一种采集条件下即在某一种光学放大倍率、某一种光源环境下的n张纹理图像,按步骤2的方法进行图像数据增强,按步骤3.1-3.6的方法进行图像特征提取,并按照3.7.3的方法进行图像特征融合,再使用训练好的第三类的SVM模型进行图像特征分类,得到这张待鉴定纸币的第三类标签及其概率值,赋予权重为0.3;
4.4将上述步骤4.1-4.3得到的三类标签及其概率值,按照权重重新计算,得到这张待鉴定纸币的图像的预测标签及其概率值;
步骤5、将所有4k张纸币,按步骤1的方法采集每一张纸币在多种不同的采集条件下即不同光学放大倍率,不同光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,采集其在多种采集条件下即不同光学放大倍率、不同光源环境下的纹理图像;将每种采集条件下采集的每张图像按步骤2的方法进行图像数据增强,将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在每种采集条件下的预测标签及其概率值;将待鉴定纸币在多种采集条件下得到的预测标签及其概率值,按权重重新计算,得到这张待鉴定纸币最后的标签。
7.如权利要求6所述的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,其特征在于,
步骤2中,对步骤1中第一张纸币在第一种光学放大倍率optical=16、第一种光源环境light=back下的纹理图像进行数据增强的具体方法如下:
2.1读取步骤1采集的第一张纹理图像Ii back_16,i=1,以向量
Figure FDA0002381546170000081
的形式体现,以裁剪的方式将向量
Figure FDA0002381546170000091
缩放成0.75倍、0.5倍、1倍、2倍,输出多个向量,再将缩放后的向量
Figure FDA0002381546170000092
恢复成一张张小分辨率的纹理图像,达到数据增强的效果;
2.2读取步骤1采集的第一张纹理图像Ii back_16,i=1,以向量
Figure FDA0002381546170000093
的形式体现,以旋转的方式将向量
Figure FDA0002381546170000094
在0-360度范围内依次平均每次旋转15度,得到24个不同旋转角度的向量
Figure FDA0002381546170000095
并将旋转后的向量
Figure FDA0002381546170000096
恢复成一张张纹理图像,达到数据增强的效果;
2.3读取步骤1采集的第一张纹理图像Ii back_16,i=1,以向量
Figure FDA0002381546170000097
的形式体现,以翻转的方式将向量
Figure FDA0002381546170000098
上下翻转、左右翻转、左对角线翻转、右对角线翻转,得到4个向量
Figure FDA0002381546170000099
并将翻转后的向量
Figure FDA00023815461700000910
恢复成一张张纹理图像,以达到数据增强的效果;
2.4读取步骤1采集的第一张纹理图像Ii back_16,i=1,以向量
Figure FDA00023815461700000911
的形式体现,以直方图均衡化的方法实现对比度加强,对向量
Figure FDA00023815461700000912
进行处理,使得映射范围是[0,255],得到向量
Figure FDA00023815461700000913
并将对比度加强后的向量
Figure FDA00023815461700000914
恢复成纹理图像,以达到数据增强的效果;
2.5读取步骤1采集的第一张纹理图像Ii back_16,i=1,以向量
Figure FDA00023815461700000915
的形式体现,以同态滤波的方法对向量
Figure FDA00023815461700000916
进行处理,指定一个滤波器函数H(u,v),
Figure FDA00023815461700000917
使得rH=5,rL=0.5,得到向量
Figure FDA00023815461700000918
并将同态滤波后的向量
Figure FDA00023815461700000919
恢复成纹理图像,以达到数据增强的效果;
2.6读取步骤1采集的第一张纹理图像Ii back_16,i=1,以向量
Figure FDA00023815461700000920
的形式体现,使用高斯滤波法对向量
Figure FDA00023815461700000921
进行去除噪音处理,使得高斯分布参数σ2=1,得到向量
Figure FDA00023815461700000922
并将高斯滤波后的向量
Figure FDA00023815461700000923
恢复成纹理图像,以达到数据增强的效果;
2.7将步骤2.1-2.6得到的全部35张纹理图像进行裁剪,以图像中心为裁剪图像的中心,裁剪大小为640*480。
8.如权利要求6所述的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,其特征在于,步骤3中、图像特征提取具体为:
3.1图像颜色特征提取
3.1.1读取步骤2数据增强后的图像
Figure FDA0002381546170000101
以向量
Figure FDA0002381546170000102
的形式显示,使用HSV算子进行处理;
3.1.2使用HSV算子处理得到每种颜色通道的向量值
Figure FDA0002381546170000103
主要是提取蓝色、灰色、红色、紫色、绿色这5个颜色通道的向量值
Figure FDA0002381546170000104
3.1.3将这些颜色每个通道的向量值
Figure FDA0002381546170000105
进行膨胀处理,参数为S=[1,0;1,1];接着进行腐蚀处理,参数为5,并计算连通区域的个数为Ai
3.1.4将5个颜色通道得到的连通区域的个数Ai作为颜色特征,并且,列向拼接组成向量值[A1,A2,A3,A4,A5];
3.1.5向量值[A1,A2,A3,A4,A5]作为图像
Figure FDA0002381546170000106
的颜色特征;
3.2图像surf特征提取
3.2.1读取第一类印刷方式的35000张纹理图像
Figure FDA0002381546170000107
以向量
Figure FDA0002381546170000108
的形式显示,使用surf算子进行处理;
3.2.2使用surf算子匹配
Figure FDA0002381546170000109
中任意两个图像,选取得到拼配图像中一直可以匹配到的固定点P={Pi|i=1,2,3…,100};
3.2.3把固定点P={Pi|i=1,2,3…,100}的坐标作为纹理图像的surf特征向量P(x,y)=[Px,y|x,y=1,2,3…,100];
3.2.4P(x,y)=[Px,y|x,y=1,2,3…,100]作为第一类印刷方式的每一张纹理图像的surf特征向量;
3.2.5将四种印刷方式的所有4k*n*35张纹理图像
Figure FDA00023815461700001010
依次按步骤3.2.1-3.2.4处理,得到四种不同印刷方式的所有4k*n*35张纹理图像
Figure FDA00023815461700001011
的surf特征向量;
3.3图像纹理特征提取
3.3.1读取步骤2数据增强后的图像
Figure FDA0002381546170000111
以向量
Figure FDA0002381546170000112
的形式显示,使用CLBP算子进行处理;
3.3.2使用CLBP算子处理时,修改参数尺度为1,半径为8,得到图像的纹理特征向量T=[Ti|i=1,2,3…,200];
3.3.3使用CLBP算子处理时,修改参数尺度为2,半径为16,得到图像的纹理特征向量T=[Ti|i=1,2,3…,648];
3.3.4使用CLBP算子处理时,修改参数尺度为3,半径为24,得到图像的纹理特征向量T=[Ti|i=1,2,3…,1352];
3.3.5将上述三个参数尺度的纹理特征向量进行列向拼接,形成一个新的向量,作为图像
Figure FDA0002381546170000113
的纹理特征向量T=[Ti|i=1,2,3…,2200];
3.4图像形状特征提取
3.4.1读取图像
Figure FDA0002381546170000114
以向量
Figure FDA0002381546170000115
的形式显示,使用傅里叶形状描述符算子进行处理;
3.4.2使用傅里叶形状描述符算子处理,用物体边界的傅里叶变换作为形状描述,利用区域边界的封闭性和周期性,将二维问题转化为一维问题;
3.4.3将傅里叶形状描述符算子处理得到的形状描述向量作为图像的形状特征向量D=[Di|i=1,2,3…20];
3.4.4将D=[Di|i=1,2,3…20]作为
Figure FDA0002381546170000116
的形状特征向量;
3.5图像Haar特征提取
3.5.1读取步骤2数据增强后的图像
Figure FDA0002381546170000117
以向量
Figure FDA0002381546170000118
的形式显示,使用haar-like算子进行处理;
3.5.2使用haar-like算子进行处理,得到边缘特征、线性特征、中心特征和对角线特征,组合成特征模板;
3.5.3将得到的特征模板作为图像的Haar特征;由于矩阵特征大小为w*h,对于图像大小为W*H的图像,所以Haar特征为Haar=[Haari|i=1,2,3…,2×F1];
Figure FDA0002381546170000119
s表示前提条件,F1表示特征维度,X表示W/w取整,Y表示H/h取整;
3.6图像梯度特征提取
3.6.1读取步骤2数据增强后的图像
Figure FDA0002381546170000121
以向量
Figure FDA0002381546170000122
的形式显示,使用HOG算子进行处理;
3.6.2首先将图像向量
Figure FDA0002381546170000123
分成小的连通区域,即细胞单元Ci,窗口的大小m*n,块大小q*p,表块滑动增量大小mq*np,表示胞元大小x*y,N表示每个胞单元中梯度直方图的数量;
3.6.3采集细胞单元Ci中各像素点的梯度直方图Hi
3.6.4进行归一化得到向量X={Xi|i=1,2,3…,9×(q/x)×(p/y)×((m-q)/mq+1)×((n-p)/np+1)},构成特征描述器,作为图像
Figure FDA0002381546170000124
的Hog特征即梯度特征;
3.7图像特征融合:
3.7.1将步骤3.1-3.4得到的特征向量横向拼接,得到图像
Figure FDA0002381546170000125
的第一个新的图像特征F1=[Fi|i=1,2,3…,2427];
3.7.2将步骤3.5得到的Haar特征作为图像
Figure FDA0002381546170000126
的第二个新的图像特征F2=[Fi|i=1,2,3…,2×F1];
Figure FDA0002381546170000127
3.7.3将步骤3.6得到的Hog特征作为图像
Figure FDA0002381546170000128
的第三个新的图像特征F3=[Fi|i=1,2,3…,9×(q/x)×(p/y)×((m-q)/mq+1)×((n-p)/np+1)]。
9.如权利要求6所述的基于纸币印刷图案特征的纸币形成方式检验鉴定方法,其特征在于,步骤5的具体方法为:
5.1将所有4k张纸币,按步骤1的方法采集每一张纸币在第一种采集条件下即第一种光学放大倍率,第一种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第一种采集条件下即第一种光学放大倍率、第一种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第一种采集条件下的相应的图像的预测标签及其概率值,赋予权重为0.1;
5.2将所有4k张纸币,按步骤1的方法采集每一张纸币在第二种采集条件下即第一种光学放大倍率,第二种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第二种采集条件下即第一种光学放大倍率、第二种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第二种采集条件下的相应的图像的预测标签及其概率值,赋予权重为0.1;
5.3将所有4k张纸币,按步骤1的方法采集每一张纸币在第三种采集条件下即第一种光学放大倍率,第三种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第三种采集条件下即第一种光学放大倍率、第三种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第三种采集条件下的相应的图像的预测标签及其概率值,赋予权重为0.1;
5.4将所有4k张纸币,按步骤1的方法采集每一张纸币在第四种采集条件下即第二种光学放大倍率,第一种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第四种采集条件下即第二种光学放大倍率,第一种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第四种采集条件下的相应的图像的预测标签及其概率值,赋予权重为0.1;
5.5将所有4k张纸币,按步骤1的方法采集每一张纸币在第五种采集条件下即第二种光学放大倍率,第二种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第五种采集条件下即第二种光学放大倍率、第二种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第五种采集条件下的相应的图像的预测标签及其概率值,赋予权重为0.1;
5.6将所有4k张纸币,按步骤1的方法采集每一张纸币在第六种采集条件下即第二种光学放大倍率,第三个种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第六种采集条件下即第二种光学放大倍率、第三种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第六种采集条件下的相应的图像的预测标签及其概率值,赋予权重为0.1;
5.7将所有4k张纸币,按步骤1的方法采集每一张纸币在第七种采集条件下即第三种光学放大倍率,第一种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第七种采集条件下即第三种光学放大倍率,第一种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第七种采集条件下的相应的图像的预测标签及其概率值,赋予权重为0.2;
5.8将所有4k张纸币,按步骤1的方法采集每一张纸币在第八种采集条件下即第三种光学放大倍率,第二种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第八种采集条件下即第三种光学放大倍率、第二种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第八种采集条件下的相应的图像的预测标签及其概率值,赋予权重为0.1;
5.9将所有4k张纸币,按步骤1的方法采集每一张纸币在第九种采集条件下即第三种光学放大倍率,第三种光源环境下的纹理图像;将每张图像按步骤2的方法进行图像数据增强处理;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合得到的图像特征加上标签作为数据集;将该数据集分为训练集和测试集;先使用训练集使用SVM对整个训练集进行训练得到SVM模型,再使用测试集对SVM模型进行测试;当准确率达到96%以上以后,得到相应的光学放大倍率和相应的光源环境下的训练好的三类SVM模型;
对同一张待鉴定纸币,按步骤1.2.1-1.2.4的方法采集其在第九种采集条件下即第三种光学放大倍率、第三种光源环境下的n张纹理图像;对每张图像按步骤2的方法进行图像数据增强;将每张增强的图像按步骤3.1-3.6的方法进行图像特征提取并分别按步骤3.7.1、3.7.2、3.7.3的方法进行图像特征融合,再使用相应光学放大倍率和相应光源环境下的训练好的三类SVM模型进行图像特征分类,得到待鉴定纸币的三类标签及其概率值,按权重计算后,得到待鉴定纸币在第九种采集条件下的相应的图像的预测标签及其概率值,赋予权重为0.1;
5.10将上述步骤5.1-5.9得到的待鉴定纸币在九种采集条件下的9个预测标签及其概率值,按权重重新计算标签的概率值,得到最后的标签及其概率值,即得到这张待鉴定纸币最后的标签。
CN202010084447.7A 2020-02-10 2020-02-10 一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法 Active CN111310628B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202010084447.7A CN111310628B (zh) 2020-02-10 2020-02-10 一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202010084447.7A CN111310628B (zh) 2020-02-10 2020-02-10 一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法

Publications (2)

Publication Number Publication Date
CN111310628A true CN111310628A (zh) 2020-06-19
CN111310628B CN111310628B (zh) 2023-05-30

Family

ID=71146929

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202010084447.7A Active CN111310628B (zh) 2020-02-10 2020-02-10 一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法

Country Status (1)

Country Link
CN (1) CN111310628B (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753913A (zh) * 2020-06-28 2020-10-09 中国银行股份有限公司 假币分类的方法及装置、电子设备及计算机可读存储介质
CN112200966A (zh) * 2020-09-28 2021-01-08 武汉科技大学 一种人民币纸币形成方式的鉴定方法
CN112257730A (zh) * 2020-11-20 2021-01-22 湖南本业绿色防控科技股份有限公司 植物害虫图像识别方法、装置、设备及存储介质
CN112466033A (zh) * 2020-12-15 2021-03-09 江苏国光信息产业股份有限公司 一种基于紫外图案票据验伪检测方法及其检测系统
CN112686236A (zh) * 2020-12-21 2021-04-20 福建新大陆软件工程有限公司 一种多特征融合的印章检测方法
CN113239767A (zh) * 2021-04-30 2021-08-10 武汉卓目科技有限公司 一种基于机器学习的黑水印鉴别方法及系统
CN113468958A (zh) * 2021-05-26 2021-10-01 河南格通智能科技有限公司 一种接触网支柱号牌识别方法

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799868A (zh) * 2010-02-01 2010-08-11 南京中钞长城金融设备有限公司 纸币机器视觉检测方法
US20150104098A1 (en) * 2013-10-16 2015-04-16 3M Innovative Properties Company Note recognition and management using multi-color channel non-marker detection
CN104616392A (zh) * 2015-01-30 2015-05-13 华中科技大学 一种基于局部二值模式的纸币鉴伪方法
CN104835243A (zh) * 2015-05-12 2015-08-12 南京华科和鼎信息科技有限公司 一种纸币防伪点多特征融合的鉴别纸币真伪的方法
US20160121370A1 (en) * 2013-07-11 2016-05-05 Grg Banking Equipment Co., Ltd. Banknote recognition and classification method and system
CN105894656A (zh) * 2016-03-30 2016-08-24 浙江大学 一种纸币图像识别方法
CN108198324A (zh) * 2018-02-08 2018-06-22 中南大学 一种基于图像指纹的多国纸币币种识别方法
CN108320374A (zh) * 2018-02-08 2018-07-24 中南大学 一种基于图像指纹的多国纸币冠字号字符识别方法
CN108734850A (zh) * 2018-04-27 2018-11-02 深圳怡化电脑股份有限公司 纸币识别方法、纸币识别装置及终端设备
CN109345684A (zh) * 2018-07-11 2019-02-15 中南大学 一种基于gmdh-svm的多国纸币冠字号识别方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101799868A (zh) * 2010-02-01 2010-08-11 南京中钞长城金融设备有限公司 纸币机器视觉检测方法
US20160121370A1 (en) * 2013-07-11 2016-05-05 Grg Banking Equipment Co., Ltd. Banknote recognition and classification method and system
US20150104098A1 (en) * 2013-10-16 2015-04-16 3M Innovative Properties Company Note recognition and management using multi-color channel non-marker detection
CN104616392A (zh) * 2015-01-30 2015-05-13 华中科技大学 一种基于局部二值模式的纸币鉴伪方法
CN104835243A (zh) * 2015-05-12 2015-08-12 南京华科和鼎信息科技有限公司 一种纸币防伪点多特征融合的鉴别纸币真伪的方法
CN105894656A (zh) * 2016-03-30 2016-08-24 浙江大学 一种纸币图像识别方法
CN108198324A (zh) * 2018-02-08 2018-06-22 中南大学 一种基于图像指纹的多国纸币币种识别方法
CN108320374A (zh) * 2018-02-08 2018-07-24 中南大学 一种基于图像指纹的多国纸币冠字号字符识别方法
CN108734850A (zh) * 2018-04-27 2018-11-02 深圳怡化电脑股份有限公司 纸币识别方法、纸币识别装置及终端设备
CN109345684A (zh) * 2018-07-11 2019-02-15 中南大学 一种基于gmdh-svm的多国纸币冠字号识别方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
MIN-JEN TSAI ETAL.: "Decision-theoretic model to identify printed sources" *
TOQQE ALI ET AL.: "DeepMoney:counterfeit money detection using generative adversarial networks", 《PEERJ COMPUTER SCIENCE》 *
张玉欣;孙浩;: "基于D-S证据理论的多特征融合纸币真伪识别方法研究", 电脑知识与技术 *
李爽: "基于多特征融合和深度学习的图像分类算法" *

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111753913A (zh) * 2020-06-28 2020-10-09 中国银行股份有限公司 假币分类的方法及装置、电子设备及计算机可读存储介质
CN111753913B (zh) * 2020-06-28 2023-08-01 中国银行股份有限公司 假币分类的方法及装置、电子设备及计算机可读存储介质
CN112200966A (zh) * 2020-09-28 2021-01-08 武汉科技大学 一种人民币纸币形成方式的鉴定方法
CN112257730A (zh) * 2020-11-20 2021-01-22 湖南本业绿色防控科技股份有限公司 植物害虫图像识别方法、装置、设备及存储介质
CN112466033A (zh) * 2020-12-15 2021-03-09 江苏国光信息产业股份有限公司 一种基于紫外图案票据验伪检测方法及其检测系统
CN112686236A (zh) * 2020-12-21 2021-04-20 福建新大陆软件工程有限公司 一种多特征融合的印章检测方法
CN112686236B (zh) * 2020-12-21 2023-06-02 福建新大陆软件工程有限公司 一种多特征融合的印章检测方法
CN113239767A (zh) * 2021-04-30 2021-08-10 武汉卓目科技有限公司 一种基于机器学习的黑水印鉴别方法及系统
CN113468958A (zh) * 2021-05-26 2021-10-01 河南格通智能科技有限公司 一种接触网支柱号牌识别方法
CN113468958B (zh) * 2021-05-26 2022-11-18 河南格通智能科技有限公司 一种接触网支柱号牌识别方法

Also Published As

Publication number Publication date
CN111310628B (zh) 2023-05-30

Similar Documents

Publication Publication Date Title
CN111310628B (zh) 一种基于纸币印刷图案特征的纸币形成方式检验鉴定方法
Meena et al. Image forgery detection: survey and future directions
CN110598699B (zh) 一种基于多光谱图像的防伪票据鉴伪系统和方法
CN112686812B (zh) 银行卡倾斜矫正检测方法、装置、可读存储介质和终端
Prakash et al. Detection of copy-move forgery using AKAZE and SIFT keypoint extraction
Thajeel et al. A Novel Approach for Detection of Copy Move Forgery using Completed Robust Local Binary Pattern.
Forczmański et al. Stamps detection and classification using simple features ensemble
Yingthawornsuk et al. Automatic Thai Coin Calculation System by Using SIFT
Teymournezhad et al. Detection of counterfeit banknotes by security components based on image processing and googlenet deep learning network
Viraktamath et al. Review on detection of fake currency using image processing techniques
Zarin et al. A hybrid fake banknote detection model using OCR, face recognition and hough features
Lamsal COUNTERFIET PAPER BANKNOTE IDENTIFICATION BASED ON COLOR AND TEXTURE
Zebari et al. Analysis of dense descriptors in 3D face recognition
Tsai et al. Recognition of Vehicle License Plates from a Video Sequence.
Kumar et al. Syn2real: Forgery classification via unsupervised domain adaptation
CN106845500A (zh) 一种基于Sobel算子的人脸光照不变特征提取方法
CN111178398A (zh) 检测身份证图像信息篡改的方法、系统、存储介质及装置
Gebremeskel et al. Developing a Model for Detection of Ethiopian Fake Banknote Using Deep Learning
Rahmad et al. Authenticity of money using the method KNN (K-Nearest Neighbor) and CNN (Convolutional Neural Network)
Khuspe et al. Robust image forgery localization and recognition in copy-move using bag of features and SVM
Qian et al. A digit recognition system for paper currency identification based on virtual instruments
Kumar et al. Detection of Copy-Move Forgery Using Euclidean Distance and Texture Features.
Xu et al. Coin recognition method based on SIFT algorithm
Sabeena et al. Digital Image Forgery Detection Using Local Binary Pattern (LBP) and Harlick Transform with classification
Ahmadyfard et al. Detecting license plate using texture and color information

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant