CN112507863B - 基于量子Grover算法的手写文字图片分类方法 - Google Patents
基于量子Grover算法的手写文字图片分类方法 Download PDFInfo
- Publication number
- CN112507863B CN112507863B CN202011411791.9A CN202011411791A CN112507863B CN 112507863 B CN112507863 B CN 112507863B CN 202011411791 A CN202011411791 A CN 202011411791A CN 112507863 B CN112507863 B CN 112507863B
- Authority
- CN
- China
- Prior art keywords
- picture
- feature vector
- training data
- layer
- pictures
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/30—Writer recognition; Reading and verifying signatures
- G06V40/33—Writer recognition; Reading and verifying signatures based only on signature image, e.g. static signature recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/751—Comparing pixel values or logical combinations thereof, or feature values having positional relevance, e.g. template matching
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Multimedia (AREA)
- Molecular Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Human Computer Interaction (AREA)
- Databases & Information Systems (AREA)
- Medical Informatics (AREA)
- Character Discrimination (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于量子Grover算法的手写文字图片分类方法,其实现的步骤是:(1)构建卷积神经网络;(2)生成训练集;(3)生成训练数据集;(4)训练卷积神经网络;(5)生成模板库;(6)提取待分类图片的特征向量;(7)利用量子Grover算法对手写文字图片进行分类。本发明有效地克服了现有技术中人工设计的特征提取方法鲁棒性差,顺序匹配速度慢的问题,具有分类精度高,分类速度快,能够进行对单张图中仅有一个手写文字的大规模的多类别的手写文字图片分类的优点。
Description
技术领域
本发明属于图像处理技术领域,更进一步涉及图像分类技术领域的一种基于神经网络和量子Grover算法的手写文字图片分类方法。本发明可用于对单张图中仅有一个手写文字的大规模的多类别的手写文字图片进行分类。
背景技术
手写文字图片分类是指将单张图中仅有一个手写文字的大规模的多类别的手写文字图片进行分类,从而将以图片形式存在的文字转换成word和txt等可变编辑的文字信息的过程,是一项非常重要的人机交互的技术。随着智能手机、平板电脑等具有触控功能的移动设备的普及,人们对手写文字分类技术的需求度越来越高。与单张图中仅有一个印刷文字的图片的分类任务相比,由于用户的书写习惯的差异性,手写文字图片分类任务难度更高,但是由于更加符合用户的日常使用习惯,手写体文字图片分类具有更广阔的应用空间,可以用于信函分拣、银行支票识别和统计报表处理以及手写文稿的自动输入任务中。
武汉科技大学在其拥有的专利技术“基于多特征融合的实时手写体数字识别方法”(申请号:201410262086.5,授权公开号:103996057B)中公开了一种基于多特征融合的实时手写文字图片识别方法。该方法的步骤是,首先,对手写文字图像数据库中的图像,进行预处理,包括黑白二值化、截取数字部分、图像调整、归一化、细化,然后,对预处理后的图像进行结构特征和统计特征的提取并融合,得到特征向量集,之后,利用反向传播神经网络进行训练学习,最后,使用训练好的神经网络对待分类手写文字图像的特征向量进行分类,将特征向量的类别作为待分类手写文字图片的类别。该方法的不足之处在于,用于提取手写文字图片特征向量的方法由人工设计,对于包含书写不规范的文字的手写文字图片鲁棒性差,影响分类精度。
王慧在其发表的论文“基于模板匹配的手写体字符识别算法研究”(北京交通大学2012年硕士学位论文)中提出了一种基于模板匹配法的单张图中仅有一个手写文字图片的分类方法。该方法的步骤是,首先,提取字符信息,将待分类的每张图片利用基于质心位置的归一化方法进行归一化处理,然后,提取几何轮廓特征,计算归一化后图片中在8个不同方向上黑色像素点到窗口中心点的最远距离,得到8个距离值,作为几何轮廓特征,之后,建立模板库,以30种不同种类的标准字体类型下的数字字符的特征向量作为分类时的模板,最后,进行模板匹配,计算待分类图片的特征向量和模板库中各模板向量间的缩放因子,利用缩放因子来计算变异系数,取与待分类图片的特征向量变异系数最小的模板向量代表的文字类别作为分类的结果。该方法存在的不足之处在于,用数据库顺序匹配的方法进行手写文字分类,每张待分类手写文字图片的特征向量需要与数据库中每个特征向量依次进行匹配,影响了分类效率。
发明内容
本发明的目的在于针对上述已有技术的不足,提出一种基于量子Grover算法的手写文字图片分类方法,旨在解决人工设计的手写文字图片特征提取方法对于包含书写不规范的文字的手写文字图片鲁棒性差,影响分类精度的问题,以及用数据库顺序匹配方法进行手写文字分类,分类速度慢的问题。
实现本发明目的的技术思路是,使用卷积神经网络提取手写文字图像的特征向量,利用卷积神经网络的泛化能力,解决人工设计的手写文字图片特征提取方法对于包含书写不规范的文字的手写文字图片鲁棒性差的问题,提高对手写文字图片的分类精度。使用Grover搜索算法,利用量子计算的并行性特点,解决数据库顺序匹配速度慢的问题,提高手写文字的分类速度。
本发明的步骤包括如下:
(1)构建卷积神经网络:
(1a)构建一个14层的卷积神经网络,其结构依次为:输入层,第1卷积层,第1卷积层,第1批量归一化层,第2卷积层,第2池化层,第2批量归一化层,第3卷积层,第3池化层,第3批量归一化层,第4卷积层,第4池化层,全连接层,输出层;
(1b)设置卷积神经网络的各层参数如下:
将输入层的通道数设置为1;
将第1至第4卷积层中卷积核的个数分别设置为64,128,256,512,卷积核的大小均设置为3×3,步长均设置为1;
第1至第3池化层均采用最大池化的方式,第4池化层采用平均池化的方式,第1至第4池化层的池化窗口大小均设置为2×2,步长均设置为2;
全连接层和输出层的节点个数均设置为1024个;
输出层的激活函数设置为sigmoid函数;
(2)生成训练集:
(2a)采集包含至少3000类别数的至少120000张灰度手写文字图片,每一类包含至少40张的灰度手写文字图片,每张灰度图片中仅含有一个手写文字;
(2b)对每张灰度图片中的每个像素进行二值化处理;
(2c)将二值化处理后的图片裁剪为文字字体刚好接触到图片四条边的图片;
(2d)将裁剪后的图片大小缩放到64×64个像素点;
(2e)将所有缩放后的图片组成训练集;
(3)生成训练数据集:
(3a)从训练集中随机选择并复制两张图片组成一个训练数据,若所选两张图片的类别相同,则将该训练数据的标签设置为1,若不相同,将该训练数据的标签设置为0;
(3b)重复执行步骤(3a)1200000次,将得到的所有训练数据组成训练数据集;
(4)训练卷积神经网络:
将训练数据集输入到卷积神经网络中,利用梯度下降法迭代更新网络权值直至对比损失函数的值收敛,得到训练好的卷积神经网络;
(5)生成模板库:
(5a)从训练集中取出一张图片,将所选图片输入到卷积神经网络中,输出该图片的特征向量,利用阶跃函数将该特征向量中的每个元素值转换为0或1,得到转换后的特征向量,将所选图片的类别作为转换后特征向量的类别;
(5b)重复执行步骤(5a)直至取完训练集中的所有图片,将所有转换后的特征向量组成模板库;
(6)提取待分类图片的特征向量:
(6a)采用与步骤(2)相同的方法,对每张待分类的灰度图片进行处理,得到该张图片对应的大小为64×64个像素点的处理后图片;每张待分类的灰度图片中仅含有一个手写文字;
(6b)将每张处理后图片输入到卷积神经网络中,输出该图片的特征向量,利用与步骤(5)相同的方法,将每个特征向量中的每个元素值转换为0或1,得到转换后的特征向量;
(6c)将所有转换后的特征向量组成待分类图片特征向量集;
(7)利用量子Grover算法对手写文字图片进行分类:
(7a)制备包含18个量子比特的量子位,利用对应函数将量子位前17个量子比特产生的每个量子状态与模板库中的特征向量或长度等于模板库中单个特征向量长度且每个元素值均为0的一维向量建立映射关系;
(7b)从待分类图片特征向量集中取出一个特征向量,利用匹配函数分别计算所选特征向量与量子位前17个量子比特产生的每个量子状态映射的向量的匹配值,再使用翻转函数将映射的向量与特征向量匹配后的每个量子状态的概率幅进行翻转;
(7c)重复执行步骤(7b)346次,从量子位的前17个量子比特的所有量子状态中找出概率幅最大的量子状态,将该概率幅最大的量子状态映射向量的类别作为所选特征向量的类别。
本发明与现有技术相比具有如下优点:
第一,由于本发明构建并训练了一个卷积神经网络,用于提取手写文字图片特征向量,克服了现有技术采用人工设计提取手写文字图片特征向量的方法,对于包含书写不规范的文字的手写文字图片鲁棒性差,影响分类精度的问题,使得本发明具有更高的手写文字图片分类精度。
第二,由于本发明利用量子Grover算法对手写文字图片进行分类,克服了现有技术用数据库顺序匹配的方法进行手写文字分类,每张待分类手写文字图片的特征向量需要依次与数据库中每个特征向量进行匹配,影响了分类效率的问题,使得本发明提高了手写文字图片分类速度。
附图说明
图1为本发明的流程图;
图2本发明的仿真图。
具体实施方式
下面结合附图,对本发明作进一步的详细描述。
参照附图1,对本发明实现的步骤作进一步的详细描述。
步骤1,构建卷积神经网络。
构建一个14层的卷积神经网络,其结构依次为:输入层,第1卷积层,第1卷积层,第1批量归一化层,第2卷积层,第2池化层,第2批量归一化层,第3卷积层,第3池化层,第3批量归一化层,第4卷积层,第4池化层,全连接层,输出层。
将输入层的通道数设置为1;将第1至第4卷积层中卷积核的个数分别设置为64,128,256,512,卷积核的大小均设置为3×3,步长均设置为1;第1至第3池化层均采用最大池化的方式,第4池化层采用平均池化的方式,第1至第4池化层的池化窗口大小均设置为2×2,步长均设置为2;全连接层和输出层的节点个数均设置为1024个;输出层的激活函数设置为sigmoid函数。
步骤2,生成训练集。
采集包含至少3000类别数的至少120000张灰度手写文字图片,每一类包含至少40张的灰度手写文字图片,每张灰度图片中仅含有一个手写文字。
对每张灰度图片中的每个像素进行二值化处理;将二值化处理后的图片裁剪为文字字体刚好接触到图片四条边的图片;将裁剪后的图片大小缩放到64×64个像素点;将所有缩放后的图片组成训练集。
步骤3,生成训练数据集。
从训练集中随机选择并复制两张图片组成一个训练数据,若所选两张图片的类别相同,则将该训练数据的标签设置为1,若不相同,将该训练数据的标签设置为0。
重复执行本步骤120000次,将得到的所有训练数据组成训练数据集。
步骤4,训练卷积神经网络。
将训练数据集输入到卷积神经网络中,利用梯度下降法迭代更新网络权值直至对比损失函数的值收敛,得到训练好的卷积神经网络。
所述的对比损失函数如下:
其中,Loss表示对比损失函数,n表示训练数据集中训练数据的总数,∑表示求和操作,i表示训练数据在训练数据集中训练数据的序号,yi表示训练数据集中第i个训练数据的标签,其取值为0或者1,Di表示训练数据集中第i个训练数据的两张图片经卷积神经网络后输出的两个特征向量之间的欧氏距离,max表示取最大值操作,m表示对比损失函数对负样本的容忍度,其取值范围为[0,1]。
步骤5,生成模板库。
从训练集中取出一张图片,将所选图片输入到卷积神经网络中,输出该图片的特征向量,利用阶跃函数将该特征向量中的每个元素值转换为0或1,得到转换后的特征向量,将所选图片的类别作为转换后特征向量的类别。
重复执行本步骤直至取完训练集中的所有图片,将所有转换后的特征向量组成模板库。
所述的阶跃公式如下:
其中,f(·)表示阶跃函数,vj表示所选图片的特征向量中第j个元素的值。
步骤6,提取待分类图片的特征向量。
采用与步骤2相同的方法,对每张待分类的灰度图片进行处理,得到该张图片对应的大小为64×64个像素点的处理后图片;每张待分类的灰度图片中仅含有一个手写文字。
将每张处理后图片输入到卷积神经网络中,输出该图片的特征向量,利用与步骤5相同的方法,将每个特征向量中的每个元素值转换为0或1,得到转换后的特征向量;
将所有转换后的特征向量组成待分类图片特征向量集。
步骤7,利用量子Grover算法对手写文字图片进行分类。
第1步,制备包含18个量子比特的量子位,利用对应函数将量子位前17个量子比特产生的每个量子状态与模板库中的特征向量或长度等于模板库中单个特征向量长度且每个元素值均为0的一维向量建立映射关系。
第2步,从待分类图片特征向量集中取出一个特征向量,利用匹配函数分别计算所选特征向量与量子位前17个量子比特产生的每个量子状态映射的向量的匹配值,再使用翻转函数将映射的向量与特征向量匹配后的每个量子状态的概率幅进行翻转。
重复执行本步骤第1步和第2步346次,从量子位的前17个量子比特的所有量子状态中找出概率幅最大的量子状态,将该概率幅最大的量子状态映射向量的类别作为所选特征向量的类别。
所述的对应函数如下:
其中,T(·)表示对应函数,x表示量子位前17个量子比特产生的所有量子状态中量子状态的序号,Pt表示模板库中第t个向量,t表示模板库中向量的序号,t的取值与x的值相等,Z表示长度等于模板库中单个特征向量长度且每个元素值均为0的一维向量。
所述的匹配函数如下:
其中,f(·)表示匹配函数,a表示从待分类图片特征向量集中所选的特征向量,bx表示量子位前17个量子比特产生的量子状态中第x个量子状态映射的向量。
所述的翻转函数如下:
其中,G(·)表示翻转函数,mx表示第x个量子状态映射的向量与从待分类图片特征向量集中所选特征向量的匹配值,ωx表示第x个量子状态的概率幅。
本发明的效果可以通过以下仿真实验做进一步的说明。
1.仿真实验条件:
本发明的仿真的硬件平台为:处理器为Intel i5-6500 CPU,主频为3.20GHz,内存16GB,图形处理器为为Nvidia GeForce GTX2080Ti显卡。
本发明的仿真的软件平台为:Windows10操作系统和python3.6。
本发明仿真实验所使用的数据集为CASIA-HWDB数据集(中科院自动化所采集制作,并于2010年5月公布)中的Gnt1.0手写汉字图片数据集,该手写文字图片数据集包含有3865个一级汉字的手写体数据,即有3865类,每一类有334个经过裁剪的手写体扫描图像,共约129万张图像,图像格式为png。从该手写汉字图片数据集中随机选取6张手写汉字图片,如图2(a)、图2(b)、图2(c)、图2(d)、图2(e)、图2(f)所示,每张手写汉字图片中仅含有一个手写汉字。从该手写汉字图片数据集中的3000个类别的手写汉字图片的每个类别的所有手写汉字图片中随机取出50张图片,再随机选择其中40张作为训练数据,其余10张作为测试数据,生成含有120000张手写汉字图片的训练集和含有30000张手写汉字图片的测试集,用于本发明的仿真实验。
2.仿真实验内容及其仿真实验结果分析:
本发明仿真实验是采用本发明的方法和现有技术(模板匹配分类方法)分别对所选的30000张手写汉字图片测试数据集进行分类,获得分类结果。
本发明仿真实验中采用的现有技术是指:
王慧在其发表的论文“基于模板匹配的手写体字符识别算法研究”(北京交通大学2012年硕士学位论文)中提出的手写文字图片分类方法,简称模板匹配分类方法。
利用两个评价指标(分类正确率、匹配次数)分别对两种方法的分类结果进行评价。分类正确率公式如下,
评价指标中的匹配次数是指,对本发明的仿真实验所用的含有30000张手写汉字图片的测试集中每张图片进行分类过程中,所有待分类图片特征向量与由含有120000张手写汉字图片的训练集生成的模板库中向量匹配的总次数。
将利用两个评价指标分别对两种方法的分类结果进行评价所得分类结果制成表1。
表1仿真实验中本发明和现有技术分类结果对比表
方法 | 分类正确率 | 匹配次数 |
模板匹配分类方法 | 0.7983 | <![CDATA[3.6×10<sup>9</sup>]]> |
本发明方法 | 0.8457 | <![CDATA[1.038×10<sup>7</sup>]]> |
结合表1可以看出,本发明的分类正确率和匹配次数这两项指标均优于现有技术,证明本发明可以得到更高的手写文字图片分类精度和更快的手写文字图片分类速度。
以上仿真实验表明:本发明方法利用搭建的卷积神经网络,能够提取手写文字图片的有效特征,利用量子Grover算法,能够进行快速匹配,解决了现有技术方法中存在的用于提取手写文字图片特征向量的方法由人工设计,对于包含书写不规范的文字的手写文字图片鲁棒性差,用数据库顺序匹配的方法进行手写文字分类,每张待分类手写文字图片的特征向量需要依次与数据库中每个特征向量进行匹配,导致的手写文字图片分类精度和效率不高的问题,是一种高效的手写文字图像分类方法。
Claims (3)
1.一种基于量子Grover算法的手写文字图片分类方法,其特征在于,构建并训练卷积神经网络,用于提取手写文字图片特征向量,利用Grover搜索算法对手写文字图片进行分类,该方法包括如下的步骤:
(1)构建卷积神经网络:
(1a)构建一个14层的卷积神经网络,其结构依次为:输入层,第1卷积层,第1池化层,第1批量归一化层,第2卷积层,第2池化层,第2批量归一化层,第3卷积层,第3池化层,第3批量归一化层,第4卷积层,第4池化层,全连接层,输出层;
(1b)设置卷积神经网络的各层参数如下:
将输入层的通道数设置为1;
将第1至第4卷积层中卷积核的个数分别设置为64,128,256,512,卷积核的大小均设置为3×3,步长均设置为1;
第1至第3池化层均采用最大池化的方式,第4池化层采用平均池化的方式,第1至第4池化层的池化窗口大小均设置为2×2,步长均设置为2;
全连接层和输出层的节点个数均设置为1024个;
输出层的激活函数设置为sigmoid函数;
(2)生成训练集:
(2a)采集包含至少3000类别数的至少120000张灰度手写文字图片,每一类包含至少40张的灰度手写文字图片,每张灰度图片中仅含有一个手写文字;
(2b)对每张灰度图片中的每个像素进行二值化处理;将二值化处理后的图片裁剪为文字字体刚好接触到图片四条边的图片;将裁剪后的图片大小缩放到64×64个像素点;将所有缩放后的图片组成训练集;
(3)生成训练数据集:
(3a)从训练集中随机选择并复制两张图片组成一个训练数据,若所选两张图片的类别相同,则将该训练数据的标签设置为1,若不相同,将该训练数据的标签设置为0;
(3b)重复执行步骤(3a)120000次,将得到的所有训练数据组成训练数据集;
(4)训练卷积神经网络:
将训练数据集输入到卷积神经网络中,利用梯度下降法迭代更新网络权值直至对比损失函数的值收敛,得到训练好的卷积神经网络;
(5)生成模板库:
(5a)从训练集中随机取出一张图片,将所选图片输入到卷积神经网络中,输出该图片的特征向量,利用阶跃函数将该特征向量中的每个元素值转换为0或1,
得到转换后的特征向量,将所选图片的类别作为转换后特征向量的类别;
(5b)重复执行步骤(5a)直至取完训练集中的所有图片,将所有转换后的特征向量组成模板库;
(6)提取待分类图片的特征向量:
(6a)采用与步骤(2)相同的方法,对每张待分类的灰度图片进行处理,得到该张图片对应的大小为64×64个像素点的处理后图片;每张待分类的灰度图片中仅含有一个手写文字;
(6b)将每张处理后图片输入到卷积神经网络中,输出该图片的特征向量,利用与步骤(5)相同的方法,将每个特征向量中的每个元素值转换为0或1,得到转换后的特征向量;
(6c)将所有转换后的特征向量组成待分类图片特征向量集;
(7)利用量子Grover算法对手写文字图片进行分类:
(7a)制备包含18个量子比特的量子位,利用对应函数将量子位前17个量子比特产生的每个量子状态与模板库中的特征向量或长度等于模板库中单个特征向量长度且每个元素值均为0的一维向量建立映射关系;
所述对应函数如下:
其中,T(·)表示对应函数,x表示量子位前17个量子比特产生的所有量子状态中量子状态的序号,Pt表示模板库中第t个特征向量,t表示模板库中特征向量的序号,t的取值与x的值相等,Z表示长度等于模板库中单个特征向量长度且每个元素值均为0的一维向量;
(7b)从待分类图片特征向量集中取出一个特征向量,利用匹配函数,分别计算所选特征向量与量子位前17个量子比特产生的每个量子状态映射的向量的匹配值,再使用翻转函数,将映射的向量与特征向量匹配后的每个量子状态的概率幅进行翻转;
所述的匹配函数如下:
其中,f(·)表示匹配函数,a表示从待分类图片特征向量集中所选的特征向量,bx表示量子位前17个量子比特产生的量子状态中第x个量子状态映射后的向量;
所述翻转函数如下:
其中,G(·)表示翻转函数,mx表示第x个量子状态映射的向量与从待分类图片特征向量集中所选特征向量的匹配值,ωx表示第x个量子状态的概率幅;
(7c)重复执行步骤(7b)346次,从量子位的前17个量子比特的所有量子状态中找出概率幅最大的量子状态,将该概率幅最大的量子状态映射向量的类别作为所选特征向量的类别。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011411791.9A CN112507863B (zh) | 2020-12-04 | 2020-12-04 | 基于量子Grover算法的手写文字图片分类方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202011411791.9A CN112507863B (zh) | 2020-12-04 | 2020-12-04 | 基于量子Grover算法的手写文字图片分类方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN112507863A CN112507863A (zh) | 2021-03-16 |
CN112507863B true CN112507863B (zh) | 2023-04-07 |
Family
ID=74970162
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202011411791.9A Active CN112507863B (zh) | 2020-12-04 | 2020-12-04 | 基于量子Grover算法的手写文字图片分类方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112507863B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113255747B (zh) * | 2021-05-14 | 2023-07-28 | 山东英信计算机技术有限公司 | 量子多通道卷积神经分类方法、系统、终端及存储介质 |
CN115496140B (zh) * | 2022-09-19 | 2023-07-25 | 北京邮电大学 | 一种多模态虚假新闻检测方法及系统 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102955855A (zh) * | 2012-10-30 | 2013-03-06 | 河南理工大学 | 基于量子算法的掌纹数据库搜索方法 |
CN105960651A (zh) * | 2013-12-05 | 2016-09-21 | 微软技术许可有限责任公司 | 量子计算机上用于计算距离测度的方法和系统 |
CN109948742A (zh) * | 2019-03-25 | 2019-06-28 | 西安电子科技大学 | 基于量子神经网络的手写体图片分类方法 |
WO2019232854A1 (zh) * | 2018-06-04 | 2019-12-12 | 平安科技(深圳)有限公司 | 手写模型训练方法、手写字识别方法、装置、设备及介质 |
CN110674826A (zh) * | 2019-10-09 | 2020-01-10 | 嘉兴学院 | 基于量子纠缠的字符识别方法 |
CN110784592A (zh) * | 2019-09-29 | 2020-02-11 | 华为技术有限公司 | 一种生物识别方法及电子设备 |
CN110826617A (zh) * | 2019-10-31 | 2020-02-21 | 中国人民公安大学 | 态势要素分类方法及其模型的训练方法、装置及服务器 |
CN110969086A (zh) * | 2019-10-31 | 2020-04-07 | 福州大学 | 一种基于多尺度cnn特征及量子菌群优化kelm的手写图像识别方法 |
CN111626368A (zh) * | 2020-05-28 | 2020-09-04 | 济南浪潮高新科技投资发展有限公司 | 一种基于量子算法的图像相似度识别方法、装置及设备 |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20180105294A (ko) * | 2017-03-14 | 2018-09-28 | 한국전자통신연구원 | 이미지 압축 장치 |
-
2020
- 2020-12-04 CN CN202011411791.9A patent/CN112507863B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN102955855A (zh) * | 2012-10-30 | 2013-03-06 | 河南理工大学 | 基于量子算法的掌纹数据库搜索方法 |
CN105960651A (zh) * | 2013-12-05 | 2016-09-21 | 微软技术许可有限责任公司 | 量子计算机上用于计算距离测度的方法和系统 |
WO2019232854A1 (zh) * | 2018-06-04 | 2019-12-12 | 平安科技(深圳)有限公司 | 手写模型训练方法、手写字识别方法、装置、设备及介质 |
CN109948742A (zh) * | 2019-03-25 | 2019-06-28 | 西安电子科技大学 | 基于量子神经网络的手写体图片分类方法 |
CN110784592A (zh) * | 2019-09-29 | 2020-02-11 | 华为技术有限公司 | 一种生物识别方法及电子设备 |
CN110674826A (zh) * | 2019-10-09 | 2020-01-10 | 嘉兴学院 | 基于量子纠缠的字符识别方法 |
CN110826617A (zh) * | 2019-10-31 | 2020-02-21 | 中国人民公安大学 | 态势要素分类方法及其模型的训练方法、装置及服务器 |
CN110969086A (zh) * | 2019-10-31 | 2020-04-07 | 福州大学 | 一种基于多尺度cnn特征及量子菌群优化kelm的手写图像识别方法 |
CN111626368A (zh) * | 2020-05-28 | 2020-09-04 | 济南浪潮高新科技投资发展有限公司 | 一种基于量子算法的图像相似度识别方法、装置及设备 |
Non-Patent Citations (6)
Title |
---|
Improved Handwritten Digit Recognition using Quantum K-Nearest Neighbor Algorithm;Yuxiang Wang 等;《International Journal of Theoretical Physics》;20190504;第2331-2340页 * |
Quantum-Inspired Evolutionary Algorithm for Convolutional Neural Networks Architecture Search;Weiliang Ye 等;《2020 IEEE Congress on Evolutionary Computation》;20200903;第1-8页 * |
Variationally Learning Grover’s Quantum Search Algorithm;Mauro E.S. Morales 等;《arXiv:1805.09337v2》;20181231;第1-8页 * |
卷积神经网络在手写数字识别中的应用;何帅;《电脑知识与技术》;20200725;第16卷(第21期);第13-15页 * |
基于Grover搜索算法的杂凑函数攻击模型;王婕;《中国优秀硕士学位论文全文数据库 信息科技辑》;20130315;第2013年卷(第03期);第I136-357页 * |
基于量子神经元的手写体识别方法研究;肖婧;《中国优秀硕士学位论文全文数据库 信息科技辑》;20120215;第2012年卷(第02期);第I138-2267页 * |
Also Published As
Publication number | Publication date |
---|---|
CN112507863A (zh) | 2021-03-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Altwaijry et al. | Arabic handwriting recognition system using convolutional neural network | |
Hamdan et al. | Construction of statistical SVM based recognition model for handwritten character recognition | |
Bhattacharya et al. | Handwritten numeral databases of Indian scripts and multistage recognition of mixed numerals | |
Reddy et al. | Handwritten Hindi digits recognition using convolutional neural network with RMSprop optimization | |
Chacko et al. | Handwritten character recognition using wavelet energy and extreme learning machine | |
Awal et al. | First experiments on a new online handwritten flowchart database | |
US20240037969A1 (en) | Recognition of handwritten text via neural networks | |
Roy et al. | Oriya handwritten numeral recognition system | |
Anand et al. | Real time noisy dataset implementation of optical character identification using CNN | |
CN112507863B (zh) | 基于量子Grover算法的手写文字图片分类方法 | |
Deore et al. | Histogram of Oriented Gradients Based Off-Line Handwritten Devanagari Characters Recognition Using SVM, K-NN and NN Classifiers. | |
Husnain et al. | Urdu handwritten text recognition: a survey | |
Zhang et al. | Keyword spotting from online Chinese handwritten documents using one-vs-all trained character classifier | |
Hallur et al. | Handwritten Kannada numerals recognition using deep learning convolution neural network (DCNN) classifier | |
Mariyathas et al. | Sinhala handwritten character recognition using convolutional neural network | |
Ahmed et al. | Recognition of Urdu Handwritten Alphabet Using Convolutional Neural Network (CNN). | |
Hemanth et al. | CNN-RNN BASED HANDWRITTEN TEXT RECOGNITION. | |
Kaur et al. | Bagging: An Ensemble Approach for Recognition of Handwritten Place Names in Gurumukhi Script | |
Djaghbellou et al. | A survey on Arabic handwritten script recognition systems | |
Abaynarh et al. | ENHANCED FEATURE EXTRACTION OF HANDWRITTEN CHARACTERS AND RECOGNITION USING ARTIFICIAL NEURAL NETWORKS. | |
Ajao et al. | Yoruba handwriting word recognition quality evaluation of preprocessing attributes using information theory approach | |
Suganya et al. | A hybrid group search optimization: firefly algorithm-based big data framework for ancient script recognition | |
Shetty et al. | A Kannada Handwritten Character Recognition System Exploiting Machine Learning Approach | |
Ajao et al. | Offline yoruba word recognition system based on capsule neural network | |
Küçükşahin | Design of an offline ottoman character recognition system for translating printed documents to modern turkish |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |