CN111582210B - 基于量子神经网络的人体行为识别方法 - Google Patents

基于量子神经网络的人体行为识别方法 Download PDF

Info

Publication number
CN111582210B
CN111582210B CN202010409322.7A CN202010409322A CN111582210B CN 111582210 B CN111582210 B CN 111582210B CN 202010409322 A CN202010409322 A CN 202010409322A CN 111582210 B CN111582210 B CN 111582210B
Authority
CN
China
Prior art keywords
quantum
image
neqr
human body
neural network
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202010409322.7A
Other languages
English (en)
Other versions
CN111582210A (zh
Inventor
常丽
朱宇祥
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shenyang University of Technology
Original Assignee
Shenyang University of Technology
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shenyang University of Technology filed Critical Shenyang University of Technology
Publication of CN111582210A publication Critical patent/CN111582210A/zh
Application granted granted Critical
Publication of CN111582210B publication Critical patent/CN111582210B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N10/00Quantum computing, i.e. information processing based on quantum-mechanical phenomena
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Pure & Applied Mathematics (AREA)
  • Mathematical Optimization (AREA)
  • Mathematical Analysis (AREA)
  • Condensed Matter Physics & Semiconductors (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Mathematics (AREA)
  • Logic Circuits (AREA)
  • Image Analysis (AREA)

Abstract

基于量子神经网络的人体行为识别方法,1:采集人体动作图像,并对每一帧图像灰度化;2:采用人体动作图像存储在量子态中形成NEQR量子图像;3:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;4:使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息,形成边缘量子图像;5:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作识别样本集;6:读取训练好的权值,构建量子BP神经网络对识别样本集进行识别。本方案具有以下几点优势:1)使得量子图像处理更加灵活;2)充分利用量子的并行计算能力;3)量子神经网络提高人体行为识别的准确性。

Description

基于量子神经网络的人体行为识别方法
技术领域
本发明方案主要用于人体行为识别领域。
背景技术
人体行为的识别研究的主要任务是对原始图像序列进行处理和分析,学习和理解人类的行为。其综合地利用计算机视觉、图像图形学、模式识别与人工智能等诸多方面的知识和技术,从连续视频序列中提取出人体运动目标,同时对提取出的运动目标进行连续地识别和跟踪,并对人的行为进行理解和描述,其最终目的是识别出人体的行为。量子计算是目前最为成熟,并被普遍认为最有可能替代经典计算的新型计算模型。在近三十年的发展研究中,人们通过对量子叠加态,量子纠缠态以及量子相干性等特性的深入研究,发现量子计算具有高效存储,并行计算和不确定计算等能力。利用量子计算模型设计的高效量子算法对信息处理领域中难解的问题均取得了惊人的性能提升,这也成功地印证了量子计算是可以突破经典计算极限的可行的新型计算模型。计算机视觉与量子计算结合将是未来的一个研究领域。
目前的很多识别方法中存在处理不灵活、不能充分利用量子的并行计算能力且识别的准确性不好的问题。
发明内容
发明目的:
本发明提供一种基于量子神经网络的人体行为识别方法,其目的是解决以往所存在的问题。
技术方案:
基于量子神经网络的人体行为识别方法,其特征在于:
第一步:采集人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息,形成边缘量子图像;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作识别样本集;
第六步:读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
第二步中:NEQR模型中训练过程如下:
第一步:是使用摄像头采集历史人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型,将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:是使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作训练样本集;
第六步:使用提出的改进型量子BP神经网络对样本集进行训练,保存各层之间的权值完成训练。
第二步中:
NEQR分别利用两个量子位二进制串来分别存储图像像素的位置信息和灰度信息,并同时将两者纠缠叠加起来,从而同时将图像所有像素存储下来。
采用NEQR模型存储动作图像中:一幅人体动作图像的灰度范围为[0,2q-1],用二进制串
Figure BDA0002492592860000021
编码(Y,X)位置灰度值f(Y,X);
Figure BDA0002492592860000022
对于一幅2n×2n人体动作图像,NEQR表达式用式(3)表示:
Figure BDA0002492592860000023
其中
Figure BDA0002492592860000024
是量子基态|0>或|1>,q是量子的个数;
Figure BDA0002492592860000025
是用量子态下的灰度值与量子态下的(Y,X)位置信息进行张量积;
Figure BDA0002492592860000026
对所有
Figure BDA0002492592860000027
求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;
Figure BDA0002492592860000028
X)>是二进制串的缩写形式,i表示第i个量子基态,q是量子的个数。
第三步中:
量子图像前景检测,针对NEQR量子图像,采用背景差分法检测静态目标,ViBe标检测运动目标;
a.背景差分法:
(1)、一幅NEQR量子图像的大小均为2n×2n,且灰度值范围为[0,2q-1];|IB>为背景量子图像,|IK>是第k帧的量子图像;两幅图像的表达式用式(4)表示:
Figure BDA0002492592860000029
其中
Figure BDA00024925928600000210
其中|BYX>|YX>和|KYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;
Figure BDA0002492592860000031
对所有张量积求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;
Figure BDA0002492592860000032
是二进制串的缩写形式,表示q个量子基态张量积,i表示第i个量子基态,q是量子的个数;
(2)、前景区域量子图像|ID>用式(5)表示:
Figure BDA0002492592860000033
式(5)由量子减法器操作实现,其中|DYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;DYX是第k帧KYX与背景BYX的差值,
Figure BDA0002492592860000034
对所有张量积求和,22n是摄像头采集的图像的大小;
(3)、接着对量子图像|ID>进行二值化处理,设定阈值T∈[0,2q-1];用阈值T作为灰度值构建一副新的NEQR图像|IT>,q是量子的个数;
(4)、初始化一副空白量子图像为|If>,用式(6)表示:
Figure BDA0002492592860000035
其中
Figure BDA0002492592860000036
表示q个量子基态|0>张量积,i表示第i个量子基态|0>;
(5)、对|ID>和|IT>进行减法操作,根据差值来确定|fYX>;
Figure BDA0002492592860000037
其中TYX表示阈值量子图像|IT>在(Y,X)位置的灰度值为TXY
(6)、最后得到的|If>是二值化的人体动作图像;其中
Figure BDA0002492592860000038
表示为白色,
Figure BDA0002492592860000039
表示为黑色;
Figure BDA00024925928600000310
是q个量子基态|1>张量积,
Figure BDA00024925928600000311
是q个量子基态|0>张量积;
b.ViBe算法:
(1)、初始化N组随机NEQR量子图像
Figure BDA00024925928600000312
其中
Figure BDA00024925928600000313
{|Iξ>0,|Iξ>1,...,|Iξ>N-1}作为背景模型的N个样本集;初始化一副空白量子图像|If>用于保存前景区域,表达式用式(6)表示;
(2)、定义:
Figure BDA00024925928600000314
表示当前帧的图像与背景图像做差时,在(Y,X)位置计算N组中符合
Figure BDA0002492592860000041
条件差值的个数为Nb;假设|IK>是第k帧的量子图像,R是取值半径;若Nb大于一个阈值Nmin,代表着当前(Y,X)位置的像素值与该位置历史样本中的多个值相似,那么认为(Y,X)位置就是背景点;反之为前景点;
Figure BDA0002492592860000042
表示N组背景模型中第i个量子图像在(Y,X)位置的灰度值。
(3)、使用一种灰度变换操作UG,其将对图像的(Y,X)位置像素进行变换操作;
Figure BDA0002492592860000043
其过程使用两种常用的量子门和一个辅助量子位来构建量子与门∩和量子或门∪;|a′>表示这些辅助量子位在完成操作之后的状态;
Figure BDA0002492592860000044
表示第k帧量子图像在(Y,X)位置的灰度值;
Figure BDA0002492592860000045
是N个样本中随机抽取第i幅样本图像(Y,X)位置的灰度值;
Figure BDA0002492592860000046
表示量子图像在(Y,X)位置的灰度值第l量子位于辅助量子位a进行量子与门计算。
(4)、当Nb≥Nmin时,从N个样本中随机抽取第i幅样本图像,对(Y,X)位置的像素值进行更新;
Figure BDA0002492592860000047
其中
Figure BDA0002492592860000048
表示量子图像在(Y,X)位置的灰度值第l量子位;|CVW>|VW>表示在(V,W)位置的灰度值CVW与VW的张量积,但VW≠YX。
(5)、当Nb<Nmin时,量子图像|If>在(Y,X)位置的像素值
Figure BDA0002492592860000049
最后得到的|If>是二值化的人体动作图像;其中
Figure BDA00024925928600000410
表示为白色,
Figure BDA00024925928600000411
表示为黑色;其中
Figure BDA00024925928600000412
是q个量子基态|1>张量积,
Figure BDA00024925928600000413
是q个量子基态|0>张量积,i表示第i个量子基态。
第五步:设计一种基于量子黑盒的卷积法提取图像特征,使用h×w大小的卷积核对整幅量子图像进行卷积操作:
首先对整幅量子图像进行平移操作,针对NEQR量子图像模型进行平移变换,实现某位置像素对邻域像素的访问;
像素f(Y,X)变换成为像素f(Y,X+1)是对图像进行一个向右的单位平移操作;整个量子图像平移操作过程由两个变换U(x±)和U(y±)完成,U(x±)操作是将整幅图像沿X轴方向平移,U(y±)操作是将整幅图像沿Y轴方向平移;
Figure BDA00024925928600000414
Figure BDA00024925928600000415
平移操作具体为:
输入:原图像Ixy,定义为
Figure BDA00024925928600000416
Step 1.Ux-将图像Ixy向左平移一个单位
Figure BDA00024925928600000417
Step 2.Uy-将图像Ix+1y向上平移一个单位
Figure BDA0002492592860000051
Step 3.Ux+将图像Ix+1y+1向右平移一个单位
Figure BDA0002492592860000052
Step 4.Ux+将图像Ixy+1向右平移一个单位
Figure BDA0002492592860000053
Step 5.Uy+将图像Ix-1y+1向下平移一个单位
Figure BDA0002492592860000054
Step 6.Uy+将图像Ix-1y向下平移一个单位
Figure BDA0002492592860000055
Step 7.Ux-将图像Ix-1y-1向左平移一个单位
Figure BDA0002492592860000056
Step 8.Ux-将图像Ixy-1向左平移一个单位
Figure BDA0002492592860000057
Step 9.Uy-Ux+将图像Ix+1y-1平移到原位置
Figure BDA0002492592860000058
使用一个量子黑盒UΩ操作对所有的像素位置上可以访问的邻域信息进行计算;
Figure BDA0002492592860000059
Figure BDA00024925928600000510
Figure BDA00024925928600000511
|Ω(Y,X)>=|Sum/256> (17)
因此窗口内像素求和处理后的值保存在q个量子位的|Ω(Y,X)>中;量子黑盒中q=8,那么共需要2n+17个量子位完成整个操作过程;其中存储整幅图像耗费2n+8个量子位,剩余9个是辅助量子位;其中
Figure BDA00024925928600000512
表示(Y,X+1)、(Y+1,X+1)、(Y+1,X)、(Y+1,X-1)、(Y,X-1)、(Y-1,X-1)、(Y-1,X)、(Y-1,X+1)8个位置像素值的张量积;mod2n是模2运算。
基于量子黑盒的卷积法中:对量子图像进行一次卷积操作过程,使用量子测量提取(Y,X)位置Ω(Y,X),利用式(18)提取出F(J,I);对所有像素计算得到特征值P(J,I),其过程如下:
Figure BDA0002492592860000061
Figure BDA0002492592860000062
其中T是阈值,J是卷积后图像的高度,I是卷积后图像的宽度;w、h分别表示卷积窗口宽、高;n表示图像像素。
第六步中:量子BP神经网络的量子神经元模型输入全部用量子位|0>表示,经过受控非门翻转,量子旋转门移相,聚合后得到输出;输出用量子位|1>的概率幅表示;输入层与隐层之间的权值wij;激活函数是f(·);yj是第j个神经元的输出;输入输出关系用式(20)表示:
Figure BDA0002492592860000063
其中i代表输入序号,j代表神经元序号,θ0是量子位|0>初始相位,θi是第i个输入改变的相位;wij表示第i个输入对应第j个神经元的权值。
三层QBP网络模型输入层有n个量子神经元,隐层和输出层分别有p、m个普通神经元;量子旋转门R(θi)改变第i个输入层量子位|0>的相位,hj代表隐层第j个神经元输出,yk为输出层第k个神经元的输出值,vij为输入层与隐层之间的连接权值;wjk为隐层与输出层之间的连接权值;各层输入输出关系如下:
Figure BDA0002492592860000064
Figure BDA0002492592860000065
其中i=1,2,…,n,j=1,2,…,p,k=1,2,…,m。
第六步中:所述量子BP神经网络中:
(1)、样本的量子旋转门描述:
令n个训练样本集或识别样本集(就是训练的时候用训练样本集,识别的时候用识别样本集)为θ=(θ12,…,θn),训练样本或识别样本的量子旋转门描述用式(23)表示:
R(θ)=[R(θ1),R(θ2),…,R(θn)] (23)
(2)、更新网络参数:
定义误差函数用式(24)表示:
Figure BDA0002492592860000071
其中m表示输出神经元的个数;dk表示第k个神经元期望值;yk表示第k个神经元实际输出值。
误差E用隐层表示用式(25)表示:
Figure BDA0002492592860000072
误差E用输入层表示用式(26)表示:
Figure BDA0002492592860000073
Figure BDA0002492592860000074
对各层之间的权值求导:
Figure BDA0002492592860000075
Figure BDA0002492592860000076
权值更新过程如下:
wjk(t+1)=wjk(t)+ηΔwjk (29)
vij(t+1)=vij(t)+ηΔvij (30)
其中t代表某个时间,t+1代表下一个时间。
基于量子神经网络的人体行为识别系统,所述系统包括图像灰度化模块、NEQR量子图像形成模块、量子图像前景检测模块、人体动作的边缘信息提取模块、动作的特征点提取模块和识别模块;
图像灰度化模块采集人体动作图像,并对每一帧图像灰度化;
NEQR量子图像形成模块采用NEQR模型将图像灰度化模块中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
量子图像前景检测模块针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
人体动作的边缘信息提取模块使用Hadamard门边缘检测算法提取出人体动作的边缘信息;
动作的特征点提取模块基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点,制作识别样本集;
识别模块读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
优点效果:
本发明方案通过量子神经网络完成视频中人体行为进行分类,在量子计算机上完成人体行为识别。整个方案包含三个部分,分别为量子图像存储,量子图像处理和量子图像分类。总体识别流程如图1所示。
本发明解决其技术问题所采用的技术方案:第一部分是使用摄像头采集人体动作图像,并对每一帧图像灰度化处理;第二部分是采用NEQR模型将人体动作图像存储在量子态中,为量子计算机对图像进行处理提供理论基础;第三部分是量子态下的背景差分法和ViBe运动目标检测算法;第四部分是使用Hadamard门边缘检测算法提取出人体动作的边缘信息;第五部分是设计一个基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点;第六部分是量子BP神经网络完成训练和识别过程。
本发明是在量子计算机上实现人体行为识别。
本方案具有以下几点优势:1)用NEQR量子模型存储视频的每一帧图像,使得量子图像处理更加灵活;2)人体行为识别引入量子处理,充分利用量子的并行计算能力;3)量子神经网络提高人体行为识别的准确性。
附图说明
下面结合附图和实施例对本发明方案进一步说明。
图1 NEQR图像构建过程
图2卷积模板提取图像特征
图3 3×3像素邻域窗口
图4黑盒操作UΩ
图5量子神经元模型
图6量子BP神经网络模型
图7训练和识别流程图。
具体实施方式
1.传统图像转变成量子图像
摄像头采集视频在经典领域对每一帧图像进行灰度化处理,操作过程用式(1)的方法。
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
其中Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号。接着采用NEQR模型将人体动作图像存储在量子态中。在传统灰度图像中,每个像素都是由灰度值和位置信息构成,而灰度值则分为256个级别,从0到255。NEQR分别利用两个量子位二进制串来分别存储图像像素的位置信息和灰度信息,并同时将两者纠缠叠加起来,从而可以同时将图像所有像素存储下来。假设一幅人体动作图像的灰度范围为[0,2q-1],用二进制串
Figure BDA0002492592860000081
来编码位置(Y,X)像素色彩值f(Y,X)。
Figure BDA0002492592860000082
对于一幅2n×2n人体动作图像,NEQR表达式用式(3)进行表示:
Figure BDA0002492592860000085
其中
Figure BDA0002492592860000083
是量子基态|0>或|1>,q是量子的个数(对于灰度图像q=8);
Figure BDA0002492592860000084
是用量子态下的灰度值与量子态下的(Y,X)位置信息进行张量积;
Figure BDA0002492592860000091
对所有
Figure BDA0002492592860000092
求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;
Figure BDA0002492592860000093
是二进制串的缩写形式,i表示第i个量子基态,q是量子的个数。
2.静态目标检测
背景差分法提取静态环境中的前景动作图像,针对2n×2n大小的人体动作图像,且灰度值范围为[0,2q-1]。|IB>为背景量子图像,|IK>是第k帧的量子图像,这两幅量子图像的NEQR表达式用式(4)表示:
Figure BDA0002492592860000094
其中
Figure BDA0002492592860000095
Figure BDA0002492592860000096
其中|BYX>|YX>和|KYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;
Figure BDA0002492592860000097
对所有张量积求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;
Figure BDA0002492592860000098
Figure BDA0002492592860000099
是二进制串的缩写形式,表示q个量子基态张量积,i表示第i个量子基态,q是量子的个数(对于灰度图像q=8)。
前景动作量子图像|ID>用式(5)表示:
Figure BDA00024925928600000910
式(5)可由量子减法器操作实现,其中|DYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;DYX是第k帧KYX与背景BYX的差值,
Figure BDA00024925928600000911
对所有张量积求和,22n是摄像头采集的图像的大小。接着对量子图像|ID>进行二值化处理,其步骤如下:
①设定阈值T∈[0,2q-1],用阈值T作为灰度值构建一副新的NEQR图像|IT>,图1给出了NEQR图像构建过程。
②初始化一副空白量子图像为|If>,用式(6)进行表示:
Figure BDA00024925928600000912
其中
Figure BDA00024925928600000913
表示q个量子基态|0>张量积,i表示第i个量子基态|0>。
③对|ID>和|IT>进行减法操作,根据差值来确定|fYX>。
Figure BDA0002492592860000101
④最后得到的|If>是二值化的人体动作图像。其中
Figure BDA0002492592860000102
表示为白色,
Figure BDA0002492592860000103
表示为黑色;
Figure BDA0002492592860000104
是q个量子基态|1>张量积,
Figure BDA0002492592860000105
是q个量子基态|0>张量积。
3.动态目标检测
ViBe算法是一种通用环境下的运动目标检测算法,在不同环境下具有良好的适应性和实时性,检测效果明显。本方案设计量子ViBe算法实现对运动目标提取过程,具体步骤如下:①初始化N组随机NEQR量子图像
Figure BDA0002492592860000106
其中
Figure BDA0002492592860000107
{|Iξ>0,|Iξ>1,...,|Iξ>N-1}作为背景模型的N个样本集。初始化一副空白量子图像|If>用于保存前景区域,表达式用式(6)表示。
②定义
Figure BDA0002492592860000108
表示当前帧的图像与背景图像做差时,在(Y,X)位置计算N组中符合
Figure BDA00024925928600001019
条件差值的个数为Nb。假设|IK>是第k帧的量子图像,R是取值半径。若Nb大于一个阈值Nmin,代表着当前(Y,X)位置的像素值与该位置历史样本中的多个值相似,那么认为(Y,X)位置就是背景点。反之为前景点。
③使用一种灰度变换操作UG,其将对图像的(Y,X)位置像素进行变换操作。
Figure BDA0002492592860000109
其过程使用两种常用的量子门(Toffoli门和Swap门)和一个辅助量子位来构建量子与门∩和量子或门∪。|a′>表示这些辅助量子位在完成操作之后的状态。
Figure BDA00024925928600001010
表示第k帧量子图像在(Y,X)位置的灰度值。
Figure BDA00024925928600001011
是N个样本中随机抽取第i幅样本图像(Y,X)位置的灰度值。
④当Nb≥Nmin时,从N个样本中随机抽取第i幅样本图像,对(Y,X)位置的像素值进行更新。
Figure BDA00024925928600001012
⑤当Nb<Nmin时,量子图像|If>在(Y,X)位置的像素值
Figure BDA00024925928600001013
最后得到的|If>是二值化的人体动作图像。其中
Figure BDA00024925928600001014
表示为白色,
Figure BDA00024925928600001015
表示为黑色。其中
Figure BDA00024925928600001016
是q个量子基态|1>张量积,
Figure BDA00024925928600001017
是q个量子基态|0>张量积,i表示第i个量子基态。
4.人体动作边缘提取
量子图像|If>是二值化的人体动作图像,通过量子测量对人体动作图像重建,可以将量子图像表示为:
Figure BDA00024925928600001018
H的作用为|0>→(|0>+|1>)/2,|1>→(|0>-|1>)/2。人体动作图像存储在量子比特列中,任意一对相邻像素的位置可以用二进制序列表示为k1...kn0和k1...kn1,其中kl=0或1,像素值被存储在相应基态的系数fYX。因此,边缘探测可以通过对叠加态施加Hadamard门来实现。操作过程可写为
Figure BDA0002492592860000111
用式(13)表示:
Figure BDA0002492592860000112
其中
Figure BDA0002492592860000113
是2n-1×2n-1单位矩阵。对于量子图像
Figure BDA0002492592860000114
经过Hadamard操作后输出量子图像
Figure BDA0002492592860000115
Figure BDA0002492592860000116
如果两个像素处在同一区域,它们的灰度值相同,则fN-fN+1为0。如果两个像素处在不同区域,则fN-fN+1不为0,这时存在边界。相邻两个像素之间的差值被存储在操作之后态的第偶数项元素。该过程可以得到像素位置为0/1、2/3、4/5、...之间的边界,但不能得到剩余部分1/2、3/4、5/6、...之间的边界信息。因此,通过在图像编码的过程中加入一个辅助qubit,直接探测出全部的边界信息。例如,一个2-qubit的图像态(f0,f1,f2,f3)可以编码成3-qubit态(f0,f1,f1,f2,f2,f3,f3,f0)。然后施加
Figure BDA0002492592860000117
得到末态(f0+f1,f0-f1,f1+f2,f1-f2,f2+f3,f2-f3,f3+f0,f3-f0)。通过测量最后一个qubit为1的子空间概率分布,得到约化的态(f0-f1,f1-f2,f2-f3,f3-f0)。它包含了全部的纵向边界信息。改变图像扫描的方向,横向的边界信息可以被探测出来。整个边缘提取过程共需要2n+q+1个量子位,其时间开销不超过O(poly(2n))。
5.人体动作特征提取
设计一种基于量子黑盒的卷积法提取图像特征,使用h×w大小的卷积核对整幅量子图像进行卷积操作。首先对整幅量子图像进行平移操作,针对NEQR量子图像模型进行平移变换,实现某位置像素对邻域像素的访问。像素f(Y,X)变换成为像素f(Y,X+1)是对图像进行一个向右的单位平移操作。整个量子图像平移操作过程由两个变换U(x±)和U(y±)完成,U(x±)操作是将整幅图像沿X轴方向平移,U(y±)操作是将整幅图像沿Y轴方向平移。
Figure BDA0002492592860000118
Figure BDA0002492592860000121
平移操作具体为:
输入:原图像Ixy,定义为
Figure BDA0002492592860000122
Step 1.Ux-将图像Ixy向左平移一个单位
Figure BDA0002492592860000123
Step 2.Uy-将图像Ix+1y向上平移一个单位
Figure BDA0002492592860000124
Step 3.Ux+将图像Ix+1y+1向右平移一个单位
Figure BDA0002492592860000125
Step 4.Ux+将图像Ixy+1向右平移一个单位
Figure BDA0002492592860000126
Step 5.Uy+将图像Ix-1y+1向下平移一个单位
Figure BDA0002492592860000127
Step 6.Uy+将图像Ix-1y向下平移一个单位
Figure BDA0002492592860000128
Step 7.Ux-将图像Ix-1y-1向左平移一个单位
Figure BDA0002492592860000129
Step 8.Ux-将图像Ixy-1向左平移一个单位
Figure BDA00024925928600001210
Step 9.Uy-Ux+将图像Ix+1y-1平移到原位置
Figure BDA00024925928600001211
使用一个量子黑盒UΩ操作对所有的像素位置上可以访问的邻域信息进行计算。
Figure BDA00024925928600001212
Figure BDA00024925928600001213
Figure BDA00024925928600001214
|Ω(Y,X)>=|Sum/256> (20)
因此窗口内像素求和处理后的值保存在q个量子位的|Ω(Y,X)>中。本文使用的量子黑盒中q=8,那么共需要2n+17个量子位完成整个操作过程;其中存储整幅图像耗费2n+8个量子位,剩余9个是辅助量子位。
对量子图像进行一次卷积操作过程,使用量子测量提取(Y,X)位置Ω(Y,X),利用式(21)提取出F(J,I)。对所有像素计算可以得到特征值P(J,I),其过程如下:
Figure BDA0002492592860000131
Figure BDA0002492592860000132
其中T是阈值,J是卷积后图像的高度,I是卷积后图像的宽度。
6.量子BP神经网络
量子BP神经网络对人体动作量子图像的特征点进行训练和识别。图5给出了新型量子神经元模型,其中输入全部用量子位|0>表示,经过受控非门翻转,量子旋转门移相,聚合后得到输出;输出用量子位|1>的概率幅表示;输入层与隐层之间的权值wij;激活函数是f(·);yj是第j个神经元的输出。输入输出关系用式(23)表示:
Figure BDA0002492592860000133
其中i代表输入序号,j代表神经元序号,θ0是量子位|0>初始相位,θi是第i个输入改变的相位。
图6给出了三层QBP网络模型,其中输入层有n个量子神经元,隐层和输出层分别有p、m个普通神经元;量子旋转门R(θi)改变第i个输入层量子位|0>的相位,hj代表隐层第j个神经元输出,yk为输出层第k个神经元的输出值,vij为输入层与隐层之间的连接权值;wjk为隐层与输出层之间的连接权值。各层输入输出关系如下:
Figure BDA0002492592860000134
Figure BDA0002492592860000135
令n个训练样本集或识别样本集(就是训练的时候用训练样本集,识别的时候用识别样本集)为为θ=(θ12,…,θn),训练样本的量子旋转门描述用式(25)表示:
R(θ)=[R(θ1),R(θ2),…,R(θn)] (25)
误差函数用式(26)表示:
Figure BDA0002492592860000141
误差E用隐层表示:
Figure BDA0002492592860000142
误差E用输入层表示:
Figure BDA0002492592860000143
Figure BDA0002492592860000144
Figure BDA0002492592860000145
对各层之间的权值求导:
Figure BDA0002492592860000146
Figure BDA0002492592860000147
权值更新过程如下所示:
wjk(t+1)=wjk(t)+ηΔwjk (31)
vij(t+1)=vij(t)+ηΔvij (32)
基于量子神经网络的人体行为识别系统,所述系统包括图像灰度化模块、NEQR量子图像形成模块、量子图像前景检测模块、人体动作的边缘信息提取模块、动作的特征点提取模块和识别模块;
图像灰度化模块采集人体动作图像,并对每一帧图像灰度化;
NEQR量子图像形成模块采用NEQR模型将图像灰度化模块中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
量子图像前景检测模块针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
人体动作的边缘信息提取模块使用Hadamard门边缘检测算法提取出人体动作的边缘信息;
动作的特征点提取模块基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点,制作识别样本集;
识别模块读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
7.人体动作训练和识别
图7给出了人体动作训练和识别流程图。
a.训练过程
读取动作的每一帧图像构建NEQR量子图像,使用前景检测算法提取前景动作,提取边缘、特征点,制作训练样本集;使用量子BP神经网络对样本集进行训练,保存各层之间的权值。
具体过程如下:
第一步:是使用摄像头采集历史人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像,为量子计算机对图像进行处理提供理论基础;
第三步:是量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:是使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作训练样本集;
第六步:使用提出的改进型量子BP神经网络对样本集进行训练,保存各层之间的权值完成训练。
b.识别过程
读取动作的连续帧图像构建NEQR量子图像,使用前景检测算法提取前景动作,提取边缘、特征点,制作识别样本集;最后将需要识别的动作图像经过NEQR模型、前景检测算法提取前景动作、提取边缘和特征点,特征点与读取的权值构建量子BP神经网络对样本集进行识别。
第一步:采集人体动作实时图像,并对每一帧图像灰度化(可以采用输出灰度图像的工业级相机,工业领域很常见,这里是传统的灰度化方法);
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型(采用张毅提出的NEQR模型,请参考论文《面向计算机图像处理的量子算法研究》。)将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:使用Hadamard门边缘检测算法(采用王恒岩提出的Hadamard门边缘检测方法,参考论文《基于核磁共振体系的量子信息测量与图像处理应用》。)从第三步的“运动目标”中提取出人体动作的边缘信息,;
第五步:基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点,制作识别样本集;
第六步:基于量子BP神经网络完成识别过程,读取NEQR模型中训练好的权值,构建量子BP神经网络对样本集进行识别;最后识别出动作的类型。

Claims (10)

1.基于量子神经网络的人体行为识别方法,其特征在于:
第一步:采集人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息,形成边缘量子图像;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作识别样本集;
第六步:读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
2.根据权利要求1所述的基于量子神经网络的人体行为识别方法,其特征在于:第二步中:NEQR模型中训练过程如下:
第一步:是使用摄像头采集历史人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型,将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:是使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作训练样本集;
第六步:使用提出的改进型量子BP神经网络对样本集进行训练,保存各层之间的权值完成训练。
3.根据权利要求1或2所述的基于量子神经网络的人体行为识别方法,其特征在于:第二步中:
NEQR分别利用两个量子位二进制串来分别存储图像像素的位置信息和灰度信息,并同时将两者纠缠叠加起来,从而同时将图像所有像素存储下来。
4.根据权利要求1或2所述的基于量子神经网络的人体行为识别方法,其特征在于:采用NEQR模型存储动作图像中:一幅人体动作图像的灰度范围为[0,2q-1],用二进制串
Figure FDA0002492592850000011
编码(Y,X)位置灰度值f(Y,X);
Figure FDA0002492592850000012
对于一幅2n×2n人体动作图像,NEQR表达式用式(3)表示:
Figure FDA0002492592850000021
其中
Figure FDA0002492592850000022
是量子基态|0>或|1>,q是量子的个数;
Figure FDA0002492592850000023
是用量子态下的灰度值与量子态下的(Y,X)位置信息进行张量积;
Figure FDA0002492592850000024
对所有
Figure FDA0002492592850000025
求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;
Figure FDA0002492592850000026
Figure FDA00024925928500000215
是二进制串的缩写形式,i表示第i个量子基态,q是量子的个数。
5.根据权利要求1或2所述的基于量子神经网络的人体行为识别方法,其特征在于:第三步中:
量子图像前景检测,针对NEQR量子图像,采用背景差分法检测静态目标,ViBe标检测运动目标;
a.背景差分法:
(1)、一幅NEQR量子图像的大小均为2n×2n,且灰度值范围为[0,2q-1];|IB>为背景量子图像,|IK>是第k帧的量子图像;两幅图像的表达式用式(4)表示:
Figure FDA0002492592850000027
其中
Figure FDA0002492592850000028
Figure FDA0002492592850000029
其中|BYX>|YX>和|KYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;
Figure FDA00024925928500000210
对所有张量积求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;
Figure FDA00024925928500000211
Figure FDA00024925928500000212
是二进制串的缩写形式,表示q个量子基态张量积,i表示第i个量子基态,q是量子的个数;
(2)、前景区域量子图像|ID>用式(5)表示:
Figure FDA00024925928500000213
式(5)由量子减法器操作实现,其中|DYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;DYX是第k帧KYX与背景BYX的差值,
Figure FDA00024925928500000214
对所有张量积求和,22n是摄像头采集的图像的大小;
(3)、接着对量子图像|ID>进行二值化处理,设定阈值T∈[0,2q-1];用阈值T作为灰度值构建一副新的NEQR图像|IT>,q是量子的个数;
(4)、初始化一副空白量子图像为|If>,用式(6)表示:
Figure FDA0002492592850000031
其中
Figure FDA0002492592850000032
表示q个量子基态|0>张量积,i表示第i个量子基态|0>;
(5)、对|ID>和|IT>进行减法操作,根据差值来确定|fYX>;
Figure FDA0002492592850000033
其中TYX表示阈值量子图像|IT>在(Y,X)位置的灰度值为TXY
(6)、最后得到的|If>是二值化的人体动作图像;其中
Figure FDA00024925928500000312
表示为白色,
Figure FDA00024925928500000313
表示为黑色;
Figure FDA00024925928500000315
是q个量子基态|1>张量积,
Figure FDA00024925928500000314
是q个量子基态|0>张量积;
b.ViBe算法:
(1)、初始化N组随机NEQR量子图像
Figure FDA0002492592850000034
其中
Figure FDA0002492592850000035
{|Iξ>0,|Iξ>1,...,|Iξ>N-1}作为背景模型的N个样本集;初始化一副空白量子图像|If>用于保存前景区域,表达式用式(6)表示;
(2)、定义:
Figure FDA0002492592850000036
表示当前帧的图像与背景图像做差时,在(Y,X)位置计算N组中符合
Figure FDA00024925928500000316
条件差值的个数为Nb;假设|IK>是第k帧的量子图像,R是取值半径;若Nb大于一个阈值Nmin,代表着当前(Y,X)位置的像素值与该位置历史样本中的多个值相似,那么认为(Y,X)位置就是背景点;反之为前景点;
Figure FDA00024925928500000317
表示N组背景模型中第i个量子图像在(Y,X)位置的灰度值;
(3)、使用一种灰度变换操作UG,其将对图像的(Y,X)位置像素进行变换操作;
Figure FDA0002492592850000037
其过程使用两种常用的量子门和一个辅助量子位来构建量子与门∩和量子或门∪;|a′>表示这些辅助量子位在完成操作之后的状态;
Figure FDA0002492592850000038
表示第k帧量子图像在(Y,X)位置的灰度值;
Figure FDA0002492592850000039
是N个样本中随机抽取第i幅样本图像(Y,X)位置的灰度值;
Figure FDA00024925928500000310
表示量子图像在(Y,X)位置的灰度值第l量子位于辅助量子位a进行量子与门计算;
(4)、当Nb≥Nmin时,从N个样本中随机抽取第i幅样本图像,对(Y,X)位置的像素值进行更新;
Figure FDA00024925928500000311
其中
Figure FDA00024925928500000416
表示量子图像在(Y,X)位置的灰度值第l量子位;|CVW>|VW>表示在(V,W)位置的灰度值CVW与VW的张量积,但VW≠YX;
(5)、当Nb<Nmin时,量子图像|If〉在(Y,X)位置的像素值
Figure FDA00024925928500000411
最后得到的|If〉是二值化的人体动作图像;其中
Figure FDA00024925928500000415
表示为白色,
Figure FDA00024925928500000414
表示为黑色;其中
Figure FDA00024925928500000412
是q个量子基态|1〉张量积,
Figure FDA00024925928500000413
是q个量子基态|0〉张量积,i表示第i个量子基态。
6.根据权利要求1或2所述的基于量子神经网络的人体行为识别方法,其特征在于:第五步:设计一种基于量子黑盒的卷积法提取图像特征,使用h×w大小的卷积核对整幅量子图像进行卷积操作:
首先对整幅量子图像进行平移操作,针对NEQR量子图像模型进行平移变换,实现某位置像素对邻域像素的访问;
像素f(Y,X)变换成为像素f(Y,X+1)是对图像进行一个向右的单位平移操作;整个量子图像平移操作过程由两个变换U(x±)和U(y±)完成,U(x±)操作是将整幅图像沿X轴方向平移,U(y±)操作是将整幅图像沿Y轴方向平移;
Figure FDA0002492592850000041
Figure FDA0002492592850000042
平移操作具体为:
输入:原图像Ixy,定义为
Figure FDA0002492592850000043
Step1.Ux-将图像Ixy向左平移一个单位
Figure FDA0002492592850000044
Step2.Uy-将图像Ix+1y向上平移一个单位
Figure FDA0002492592850000045
Step3.Ux+将图像Ix+1y+1向右平移一个单位
Figure FDA0002492592850000046
Step4.Ux+将图像Ixy+1向右平移一个单位
Figure FDA0002492592850000047
Step5.Uy+将图像Ix-1y+1向下平移一个单位
Figure FDA0002492592850000048
Step6.Uy+将图像Ix-1y向下平移一个单位
Figure FDA0002492592850000049
Step7.Ux-将图像Ix-1y-1向左平移一个单位
Figure FDA00024925928500000410
Step8.Ux-将图像Ixy-1向左平移一个单位
Figure FDA0002492592850000051
Step9.Uy-Ux+将图像Ix+1y-1平移到原位置
Figure FDA0002492592850000052
使用一个量子黑盒UΩ操作对所有的像素位置上可以访问的邻域信息进行计算;
Figure FDA0002492592850000053
Figure FDA0002492592850000054
Figure FDA0002492592850000055
|Ω(Y,X)〉=|Sum/256〉 (17)
因此窗口内像素求和处理后的值保存在q个量子位的|Ω(Y,X)〉中;量子黑盒中q=8,那么共需要2n+17个量子位完成整个操作过程;其中存储整幅图像耗费2n+8个量子位,剩余9个是辅助量子位;其中
Figure FDA0002492592850000056
表示(Y,X+1)、(Y+1,X+1)、(Y+1,X)、(Y+1,X-1)、(Y,X-1)、(Y-1,X-1)、(Y-1,X)、(Y-1,X+1)8个位置像素值的张量积;mod2n是模2运算。
7.根据权利要求6所述的基于量子神经网络的人体行为识别方法,其特征在于:
基于量子黑盒的卷积法中:对量子图像进行一次卷积操作过程,使用量子测量提取(Y,X)位置Ω(Y,X),利用式(18)提取出F(J,I);对所有像素计算得到特征值P(J,I),其过程如下:
Figure FDA0002492592850000057
Figure FDA0002492592850000058
其中T是阈值,J是卷积后图像的高度,I是卷积后图像的宽度;w、h分别表示卷积窗口宽、高;n表示图像像素。
8.根据权利要求2所述的基于量子神经网络的人体行为识别方法,其特征在于:第六步中:量子BP神经网络的量子神经元模型输入全部用量子位|0>表示,经过受控非门翻转,量子旋转门移相,聚合后得到输出;输出用量子位|1>的概率幅表示;输入层与隐层之间的权值wij;激活函数是f(·);yj是第j个神经元的输出;输入输出关系用式(20)表示:
Figure FDA0002492592850000061
其中i代表输入序号,j代表神经元序号,θ0是量子位|0>初始相位,θi是第i个输入改变的相位;wij表示第i个输入对应第j个神经元的权值;
三层QBP网络模型输入层有n个量子神经元,隐层和输出层分别有p、m个普通神经元;量子旋转门R(θi)改变第i个输入层量子位|0>的相位,hj代表隐层第j个神经元输出,yk为输出层第k个神经元的输出值,vij为输入层与隐层之间的连接权值;wjk为隐层与输出层之间的连接权值;各层输入输出关系如下:
Figure FDA0002492592850000062
Figure FDA0002492592850000063
其中i=1,2,…,n,j=1,2,…,p,k=1,2,…,m。
9.根据权利要求8所述的基于量子神经网络的人体行为识别方法,其特征在于:第六步中:所述量子BP神经网络中:
(1)、样本的量子旋转门描述:
令n个训练样本集或识别样本集为θ=(θ12,…,θn),训练样本或识别样本的量子旋转门描述用式(23)表示:
R(θ)=[R(θ1),R(θ2),…,R(θn)] (23)
(2)、更新网络参数:
定义误差函数用式(24)表示:
Figure FDA0002492592850000064
其中m表示输出神经元的个数;dk表示第k个神经元期望值;yk表示第k个神经元实际输出值;
误差E用隐层表示用式(25)表示:
Figure FDA0002492592850000065
误差E用输入层表示用式(26)表示:
Figure FDA0002492592850000066
Figure FDA0002492592850000071
对各层之间的权值求导:
Figure FDA0002492592850000072
Figure FDA0002492592850000073
权值更新过程如下:
wjk(t+1)=wjk(t)+ηΔwjk (29)
vij(t+1)=vij(t)+ηΔvij (30)
其中t代表某个时间,t+1代表下一个时间。
10.基于量子神经网络的人体行为识别系统,其特征在于:所述系统包括图像灰度化模块、NEQR量子图像形成模块、量子图像前景检测模块、人体动作的边缘信息提取模块、动作的特征点提取模块和识别模块;
图像灰度化模块采集人体动作图像,并对每一帧图像灰度化;
NEQR量子图像形成模块采用NEQR模型将图像灰度化模块中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
量子图像前景检测模块针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
人体动作的边缘信息提取模块使用Hadamard门边缘检测算法提取出人体动作的边缘信息;
动作的特征点提取模块基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点,制作识别样本集;
识别模块读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
CN202010409322.7A 2019-07-09 2020-05-14 基于量子神经网络的人体行为识别方法 Active CN111582210B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
CN2019106159052 2019-07-09
CN201910615905 2019-07-09
CN2019106167491 2019-07-09
CN201910616749 2019-07-09

Publications (2)

Publication Number Publication Date
CN111582210A CN111582210A (zh) 2020-08-25
CN111582210B true CN111582210B (zh) 2022-02-15

Family

ID=72112220

Family Applications (2)

Application Number Title Priority Date Filing Date
CN202010409325.0A Active CN111580782B (zh) 2019-07-09 2020-05-14 量子n位全加器
CN202010409322.7A Active CN111582210B (zh) 2019-07-09 2020-05-14 基于量子神经网络的人体行为识别方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN202010409325.0A Active CN111580782B (zh) 2019-07-09 2020-05-14 量子n位全加器

Country Status (1)

Country Link
CN (2) CN111580782B (zh)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112214200B (zh) * 2020-09-30 2023-12-15 本源量子计算科技(合肥)股份有限公司 一种量子减法运算方法、装置、电子装置及存储介质
CN112529196B (zh) * 2020-12-10 2021-11-23 北京百度网讯科技有限公司 量子纠缠探测方法、装置、电子设备及存储介质
CN114819171B (zh) * 2021-02-26 2023-08-08 本源量子计算科技(合肥)股份有限公司 一种量子卷积操作的实现方法及装置
CN113515776B (zh) * 2021-06-23 2021-12-14 支付宝(杭州)信息技术有限公司 一种基于量子计算的多方安全计算的方法和装置
CN113361664B (zh) * 2021-08-10 2021-11-05 北京航空航天大学 一种基于量子卷积神经网络的图像识别系统及方法
CN114201139A (zh) * 2021-12-14 2022-03-18 安徽医科大学 四元量子可逆半加器、全加器、并行全加器和并行加/减器电路
CN114897139B (zh) * 2022-05-09 2024-10-29 广西大学 一种排序稳定简化稀疏量子神经网络的轴承故障诊断方法
CN115761384B (zh) * 2023-01-09 2023-04-28 苏州浪潮智能科技有限公司 一种图像分类方法、装置、电子设备和存储介质
CN118154704B (zh) * 2024-05-10 2024-08-06 吉林大学 一种基于Delta编码的量子图像数据压缩方法

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2508294B2 (ja) * 1989-09-22 1996-06-19 日本電気株式会社 光全加算器
JP4847914B2 (ja) * 2007-04-16 2011-12-28 日本電信電話株式会社 量子加算演算方法及び量子加算演算装置
JP5204698B2 (ja) * 2009-03-19 2013-06-05 日本電信電話株式会社 量子演算方法、量子演算装置、量子回路
CN101776934B (zh) * 2010-01-28 2013-04-24 华东交通大学 进位产生和传递函数发生器及可逆最优加法线路设计方法
CN101923457B (zh) * 2010-08-19 2012-12-12 华东交通大学 基于可逆“zs”系列门的阵列乘法器的设计与实现方法
US8631367B2 (en) * 2010-12-16 2014-01-14 Northrop Grumman Systems Corporation Methods of increasing fidelity of quantum operations
US8957699B2 (en) * 2012-10-26 2015-02-17 Northrop Grumman Systems Corporation Efficient Toffoli state generation from low-fidelity single qubit magic states
CN102937887B (zh) * 2012-12-06 2015-12-09 重庆邮电大学 一种基于可逆逻辑的16比特进位选择加法器
CN104463165A (zh) * 2014-10-24 2015-03-25 南京邮电大学 一种融合Canny算子与Vibe算法的目标检测方法
US10073677B2 (en) * 2015-06-16 2018-09-11 Microsoft Technology Licensing, Llc Mixed-radix carry-lookahead adder architecture
CN105205832B (zh) * 2015-08-31 2017-08-25 清华大学深圳研究生院 一种运动目标检测的方法
CN106528045B (zh) * 2016-11-11 2018-12-04 重庆邮电大学 一种基于可逆逻辑门的4位可逆加/减法器
US10423887B2 (en) * 2016-11-23 2019-09-24 Microsoft Technology Licensing, Llc Compilation, memory management, and fault localization with ancillas in an unknown state
CN106650808A (zh) * 2016-12-20 2017-05-10 北京工业大学 一种基于量子近邻算法的图像分类方法
CN107066234B (zh) * 2017-04-21 2020-05-26 重庆邮电大学 一种量子乘法器的设计方法
CN108921049B (zh) * 2018-06-14 2021-08-03 华东交通大学 基于量子门线路神经网络的肿瘤细胞图像识别装置及设备
CN108846483B (zh) * 2018-06-21 2023-04-14 广西师范大学 一种不破坏源操作数的模n减法器设计方法
CN109002894B (zh) * 2018-07-10 2021-10-08 华东交通大学 一种基于量子叠加态的量子加法器设计方法

Also Published As

Publication number Publication date
CN111580782B (zh) 2022-07-15
CN111582210A (zh) 2020-08-25
CN111580782A (zh) 2020-08-25

Similar Documents

Publication Publication Date Title
CN111582210B (zh) 基于量子神经网络的人体行为识别方法
Kim et al. Surface crack detection using deep learning with shallow CNN architecture for enhanced computation
Adarsh et al. YOLO v3-Tiny: Object Detection and Recognition using one stage improved model
CN110414432B (zh) 对象识别模型的训练方法、对象识别方法及相应的装置
Bilen et al. Integrated perception with recurrent multi-task neural networks
Williams et al. Advanced image classification using wavelets and convolutional neural networks
Aggarwal et al. Image surface texture analysis and classification using deep learning
CN106407903A (zh) 基于多尺度卷积神经网络的实时人体异常行为识别方法
CN111325766B (zh) 三维边缘检测方法、装置、存储介质和计算机设备
CN1758283A (zh) 模拟多尺度交叠感受野的神经网络及其建立方法和应用
CN117576783A (zh) 基于手部关键点与双层双向lstm网络的动态手势识别方法
CN116353623A (zh) 一种基于自监督模仿学习的驾驶控制方法
Teow A minimal convolutional neural network for handwritten digit recognition
CN110569711B (zh) 面向人体动作识别方法
Shi et al. Improved metric learning with the CNN for very-high-resolution remote sensing image classification
Khan et al. Partial Observer Decision Process Model for Crane‐Robot Action
CN116152561A (zh) 基于卷积神经网络和增强图注意力网络的融合网络的图像分类方法
Pham et al. A deep learning approach for real-time 3D human action recognition from skeletal data
CN113780129A (zh) 基于无监督图序列预测编码的动作识别方法及存储介质
Lee et al. Context-aware multi-task learning for traffic scene recognition in autonomous vehicles
Guo et al. Optimal path planning in field based on traversability prediction for mobile robot
Syrris et al. A lattice-based neuro-computing methodology for real-time human action recognition
Kashyap et al. Quantum convolutional neural network architecture for multi-class classification
CN116486488A (zh) 一种基于超图模型的事件相机步态识别方法
CN116453214A (zh) 一种基于有限监督信息的联合学习步态表征方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant