CN111582210B - 基于量子神经网络的人体行为识别方法 - Google Patents
基于量子神经网络的人体行为识别方法 Download PDFInfo
- Publication number
- CN111582210B CN111582210B CN202010409322.7A CN202010409322A CN111582210B CN 111582210 B CN111582210 B CN 111582210B CN 202010409322 A CN202010409322 A CN 202010409322A CN 111582210 B CN111582210 B CN 111582210B
- Authority
- CN
- China
- Prior art keywords
- quantum
- image
- neqr
- human body
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N10/00—Quantum computing, i.e. information processing based on quantum-mechanical phenomena
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- General Engineering & Computer Science (AREA)
- Artificial Intelligence (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Multimedia (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Optimization (AREA)
- Mathematical Analysis (AREA)
- Condensed Matter Physics & Semiconductors (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Human Computer Interaction (AREA)
- Computational Mathematics (AREA)
- Logic Circuits (AREA)
- Image Analysis (AREA)
Abstract
基于量子神经网络的人体行为识别方法,1:采集人体动作图像,并对每一帧图像灰度化;2:采用人体动作图像存储在量子态中形成NEQR量子图像;3:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;4:使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息,形成边缘量子图像;5:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作识别样本集;6:读取训练好的权值,构建量子BP神经网络对识别样本集进行识别。本方案具有以下几点优势:1)使得量子图像处理更加灵活;2)充分利用量子的并行计算能力;3)量子神经网络提高人体行为识别的准确性。
Description
技术领域
本发明方案主要用于人体行为识别领域。
背景技术
人体行为的识别研究的主要任务是对原始图像序列进行处理和分析,学习和理解人类的行为。其综合地利用计算机视觉、图像图形学、模式识别与人工智能等诸多方面的知识和技术,从连续视频序列中提取出人体运动目标,同时对提取出的运动目标进行连续地识别和跟踪,并对人的行为进行理解和描述,其最终目的是识别出人体的行为。量子计算是目前最为成熟,并被普遍认为最有可能替代经典计算的新型计算模型。在近三十年的发展研究中,人们通过对量子叠加态,量子纠缠态以及量子相干性等特性的深入研究,发现量子计算具有高效存储,并行计算和不确定计算等能力。利用量子计算模型设计的高效量子算法对信息处理领域中难解的问题均取得了惊人的性能提升,这也成功地印证了量子计算是可以突破经典计算极限的可行的新型计算模型。计算机视觉与量子计算结合将是未来的一个研究领域。
目前的很多识别方法中存在处理不灵活、不能充分利用量子的并行计算能力且识别的准确性不好的问题。
发明内容
发明目的:
本发明提供一种基于量子神经网络的人体行为识别方法,其目的是解决以往所存在的问题。
技术方案:
基于量子神经网络的人体行为识别方法,其特征在于:
第一步:采集人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息,形成边缘量子图像;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作识别样本集;
第六步:读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
第二步中:NEQR模型中训练过程如下:
第一步:是使用摄像头采集历史人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型,将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:是使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作训练样本集;
第六步:使用提出的改进型量子BP神经网络对样本集进行训练,保存各层之间的权值完成训练。
第二步中:
NEQR分别利用两个量子位二进制串来分别存储图像像素的位置信息和灰度信息,并同时将两者纠缠叠加起来,从而同时将图像所有像素存储下来。
对于一幅2n×2n人体动作图像,NEQR表达式用式(3)表示:
其中是量子基态|0>或|1>,q是量子的个数;是用量子态下的灰度值与量子态下的(Y,X)位置信息进行张量积;对所有求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;X)>是二进制串的缩写形式,i表示第i个量子基态,q是量子的个数。
第三步中:
量子图像前景检测,针对NEQR量子图像,采用背景差分法检测静态目标,ViBe标检测运动目标;
a.背景差分法:
(1)、一幅NEQR量子图像的大小均为2n×2n,且灰度值范围为[0,2q-1];|IB>为背景量子图像,|IK>是第k帧的量子图像;两幅图像的表达式用式(4)表示:
其中其中|BYX>|YX>和|KYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;对所有张量积求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;是二进制串的缩写形式,表示q个量子基态张量积,i表示第i个量子基态,q是量子的个数;
(2)、前景区域量子图像|ID>用式(5)表示:
(3)、接着对量子图像|ID>进行二值化处理,设定阈值T∈[0,2q-1];用阈值T作为灰度值构建一副新的NEQR图像|IT>,q是量子的个数;
(4)、初始化一副空白量子图像为|If>,用式(6)表示:
(5)、对|ID>和|IT>进行减法操作,根据差值来确定|fYX>;
其中TYX表示阈值量子图像|IT>在(Y,X)位置的灰度值为TXY。
b.ViBe算法:
{|Iξ>0,|Iξ>1,...,|Iξ>N-1}作为背景模型的N个样本集;初始化一副空白量子图像|If>用于保存前景区域,表达式用式(6)表示;
(2)、定义:
表示当前帧的图像与背景图像做差时,在(Y,X)位置计算N组中符合条件差值的个数为Nb;假设|IK>是第k帧的量子图像,R是取值半径;若Nb大于一个阈值Nmin,代表着当前(Y,X)位置的像素值与该位置历史样本中的多个值相似,那么认为(Y,X)位置就是背景点;反之为前景点;表示N组背景模型中第i个量子图像在(Y,X)位置的灰度值。
(3)、使用一种灰度变换操作UG,其将对图像的(Y,X)位置像素进行变换操作;
其过程使用两种常用的量子门和一个辅助量子位来构建量子与门∩和量子或门∪;|a′>表示这些辅助量子位在完成操作之后的状态;表示第k帧量子图像在(Y,X)位置的灰度值;是N个样本中随机抽取第i幅样本图像(Y,X)位置的灰度值;表示量子图像在(Y,X)位置的灰度值第l量子位于辅助量子位a进行量子与门计算。
(4)、当Nb≥Nmin时,从N个样本中随机抽取第i幅样本图像,对(Y,X)位置的像素值进行更新;
(5)、当Nb<Nmin时,量子图像|If>在(Y,X)位置的像素值最后得到的|If>是二值化的人体动作图像;其中表示为白色,表示为黑色;其中是q个量子基态|1>张量积,是q个量子基态|0>张量积,i表示第i个量子基态。
第五步:设计一种基于量子黑盒的卷积法提取图像特征,使用h×w大小的卷积核对整幅量子图像进行卷积操作:
首先对整幅量子图像进行平移操作,针对NEQR量子图像模型进行平移变换,实现某位置像素对邻域像素的访问;
像素f(Y,X)变换成为像素f(Y,X+1)是对图像进行一个向右的单位平移操作;整个量子图像平移操作过程由两个变换U(x±)和U(y±)完成,U(x±)操作是将整幅图像沿X轴方向平移,U(y±)操作是将整幅图像沿Y轴方向平移;
平移操作具体为:
使用一个量子黑盒UΩ操作对所有的像素位置上可以访问的邻域信息进行计算;
|Ω(Y,X)>=|Sum/256> (17)
因此窗口内像素求和处理后的值保存在q个量子位的|Ω(Y,X)>中;量子黑盒中q=8,那么共需要2n+17个量子位完成整个操作过程;其中存储整幅图像耗费2n+8个量子位,剩余9个是辅助量子位;其中表示(Y,X+1)、(Y+1,X+1)、(Y+1,X)、(Y+1,X-1)、(Y,X-1)、(Y-1,X-1)、(Y-1,X)、(Y-1,X+1)8个位置像素值的张量积;mod2n是模2运算。
基于量子黑盒的卷积法中:对量子图像进行一次卷积操作过程,使用量子测量提取(Y,X)位置Ω(Y,X),利用式(18)提取出F(J,I);对所有像素计算得到特征值P(J,I),其过程如下:
其中T是阈值,J是卷积后图像的高度,I是卷积后图像的宽度;w、h分别表示卷积窗口宽、高;n表示图像像素。
第六步中:量子BP神经网络的量子神经元模型输入全部用量子位|0>表示,经过受控非门翻转,量子旋转门移相,聚合后得到输出;输出用量子位|1>的概率幅表示;输入层与隐层之间的权值wij;激活函数是f(·);yj是第j个神经元的输出;输入输出关系用式(20)表示:
其中i代表输入序号,j代表神经元序号,θ0是量子位|0>初始相位,θi是第i个输入改变的相位;wij表示第i个输入对应第j个神经元的权值。
三层QBP网络模型输入层有n个量子神经元,隐层和输出层分别有p、m个普通神经元;量子旋转门R(θi)改变第i个输入层量子位|0>的相位,hj代表隐层第j个神经元输出,yk为输出层第k个神经元的输出值,vij为输入层与隐层之间的连接权值;wjk为隐层与输出层之间的连接权值;各层输入输出关系如下:
其中i=1,2,…,n,j=1,2,…,p,k=1,2,…,m。
第六步中:所述量子BP神经网络中:
(1)、样本的量子旋转门描述:
令n个训练样本集或识别样本集(就是训练的时候用训练样本集,识别的时候用识别样本集)为θ=(θ1,θ2,…,θn),训练样本或识别样本的量子旋转门描述用式(23)表示:
R(θ)=[R(θ1),R(θ2),…,R(θn)] (23)
(2)、更新网络参数:
定义误差函数用式(24)表示:
其中m表示输出神经元的个数;dk表示第k个神经元期望值;yk表示第k个神经元实际输出值。
误差E用隐层表示用式(25)表示:
误差E用输入层表示用式(26)表示:
权值更新过程如下:
wjk(t+1)=wjk(t)+ηΔwjk (29)
vij(t+1)=vij(t)+ηΔvij (30)
其中t代表某个时间,t+1代表下一个时间。
基于量子神经网络的人体行为识别系统,所述系统包括图像灰度化模块、NEQR量子图像形成模块、量子图像前景检测模块、人体动作的边缘信息提取模块、动作的特征点提取模块和识别模块;
图像灰度化模块采集人体动作图像,并对每一帧图像灰度化;
NEQR量子图像形成模块采用NEQR模型将图像灰度化模块中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
量子图像前景检测模块针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
人体动作的边缘信息提取模块使用Hadamard门边缘检测算法提取出人体动作的边缘信息;
动作的特征点提取模块基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点,制作识别样本集;
识别模块读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
优点效果:
本发明方案通过量子神经网络完成视频中人体行为进行分类,在量子计算机上完成人体行为识别。整个方案包含三个部分,分别为量子图像存储,量子图像处理和量子图像分类。总体识别流程如图1所示。
本发明解决其技术问题所采用的技术方案:第一部分是使用摄像头采集人体动作图像,并对每一帧图像灰度化处理;第二部分是采用NEQR模型将人体动作图像存储在量子态中,为量子计算机对图像进行处理提供理论基础;第三部分是量子态下的背景差分法和ViBe运动目标检测算法;第四部分是使用Hadamard门边缘检测算法提取出人体动作的边缘信息;第五部分是设计一个基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点;第六部分是量子BP神经网络完成训练和识别过程。
本发明是在量子计算机上实现人体行为识别。
本方案具有以下几点优势:1)用NEQR量子模型存储视频的每一帧图像,使得量子图像处理更加灵活;2)人体行为识别引入量子处理,充分利用量子的并行计算能力;3)量子神经网络提高人体行为识别的准确性。
附图说明
下面结合附图和实施例对本发明方案进一步说明。
图1 NEQR图像构建过程
图2卷积模板提取图像特征
图3 3×3像素邻域窗口
图4黑盒操作UΩ
图5量子神经元模型
图6量子BP神经网络模型
图7训练和识别流程图。
具体实施方式
1.传统图像转变成量子图像
摄像头采集视频在经典领域对每一帧图像进行灰度化处理,操作过程用式(1)的方法。
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
其中Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号。接着采用NEQR模型将人体动作图像存储在量子态中。在传统灰度图像中,每个像素都是由灰度值和位置信息构成,而灰度值则分为256个级别,从0到255。NEQR分别利用两个量子位二进制串来分别存储图像像素的位置信息和灰度信息,并同时将两者纠缠叠加起来,从而可以同时将图像所有像素存储下来。假设一幅人体动作图像的灰度范围为[0,2q-1],用二进制串来编码位置(Y,X)像素色彩值f(Y,X)。
对于一幅2n×2n人体动作图像,NEQR表达式用式(3)进行表示:
其中是量子基态|0>或|1>,q是量子的个数(对于灰度图像q=8);是用量子态下的灰度值与量子态下的(Y,X)位置信息进行张量积;对所有求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;是二进制串的缩写形式,i表示第i个量子基态,q是量子的个数。
2.静态目标检测
背景差分法提取静态环境中的前景动作图像,针对2n×2n大小的人体动作图像,且灰度值范围为[0,2q-1]。|IB>为背景量子图像,|IK>是第k帧的量子图像,这两幅量子图像的NEQR表达式用式(4)表示:
其中和其中|BYX>|YX>和|KYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;对所有张量积求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;和是二进制串的缩写形式,表示q个量子基态张量积,i表示第i个量子基态,q是量子的个数(对于灰度图像q=8)。
前景动作量子图像|ID>用式(5)表示:
式(5)可由量子减法器操作实现,其中|DYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;DYX是第k帧KYX与背景BYX的差值,对所有张量积求和,22n是摄像头采集的图像的大小。接着对量子图像|ID>进行二值化处理,其步骤如下:
①设定阈值T∈[0,2q-1],用阈值T作为灰度值构建一副新的NEQR图像|IT>,图1给出了NEQR图像构建过程。
②初始化一副空白量子图像为|If>,用式(6)进行表示:
③对|ID>和|IT>进行减法操作,根据差值来确定|fYX>。
3.动态目标检测
ViBe算法是一种通用环境下的运动目标检测算法,在不同环境下具有良好的适应性和实时性,检测效果明显。本方案设计量子ViBe算法实现对运动目标提取过程,具体步骤如下:①初始化N组随机NEQR量子图像其中
{|Iξ>0,|Iξ>1,...,|Iξ>N-1}作为背景模型的N个样本集。初始化一副空白量子图像|If>用于保存前景区域,表达式用式(6)表示。
②定义
表示当前帧的图像与背景图像做差时,在(Y,X)位置计算N组中符合条件差值的个数为Nb。假设|IK>是第k帧的量子图像,R是取值半径。若Nb大于一个阈值Nmin,代表着当前(Y,X)位置的像素值与该位置历史样本中的多个值相似,那么认为(Y,X)位置就是背景点。反之为前景点。
③使用一种灰度变换操作UG,其将对图像的(Y,X)位置像素进行变换操作。
其过程使用两种常用的量子门(Toffoli门和Swap门)和一个辅助量子位来构建量子与门∩和量子或门∪。|a′>表示这些辅助量子位在完成操作之后的状态。表示第k帧量子图像在(Y,X)位置的灰度值。是N个样本中随机抽取第i幅样本图像(Y,X)位置的灰度值。
④当Nb≥Nmin时,从N个样本中随机抽取第i幅样本图像,对(Y,X)位置的像素值进行更新。
⑤当Nb<Nmin时,量子图像|If>在(Y,X)位置的像素值最后得到的|If>是二值化的人体动作图像。其中表示为白色,表示为黑色。其中是q个量子基态|1>张量积,是q个量子基态|0>张量积,i表示第i个量子基态。
4.人体动作边缘提取
量子图像|If>是二值化的人体动作图像,通过量子测量对人体动作图像重建,可以将量子图像表示为:
H的作用为|0>→(|0>+|1>)/2,|1>→(|0>-|1>)/2。人体动作图像存储在量子比特列中,任意一对相邻像素的位置可以用二进制序列表示为k1...kn0和k1...kn1,其中kl=0或1,像素值被存储在相应基态的系数fYX。因此,边缘探测可以通过对叠加态施加Hadamard门来实现。操作过程可写为用式(13)表示:
如果两个像素处在同一区域,它们的灰度值相同,则fN-fN+1为0。如果两个像素处在不同区域,则fN-fN+1不为0,这时存在边界。相邻两个像素之间的差值被存储在操作之后态的第偶数项元素。该过程可以得到像素位置为0/1、2/3、4/5、...之间的边界,但不能得到剩余部分1/2、3/4、5/6、...之间的边界信息。因此,通过在图像编码的过程中加入一个辅助qubit,直接探测出全部的边界信息。例如,一个2-qubit的图像态(f0,f1,f2,f3)可以编码成3-qubit态(f0,f1,f1,f2,f2,f3,f3,f0)。然后施加得到末态(f0+f1,f0-f1,f1+f2,f1-f2,f2+f3,f2-f3,f3+f0,f3-f0)。通过测量最后一个qubit为1的子空间概率分布,得到约化的态(f0-f1,f1-f2,f2-f3,f3-f0)。它包含了全部的纵向边界信息。改变图像扫描的方向,横向的边界信息可以被探测出来。整个边缘提取过程共需要2n+q+1个量子位,其时间开销不超过O(poly(2n))。
5.人体动作特征提取
设计一种基于量子黑盒的卷积法提取图像特征,使用h×w大小的卷积核对整幅量子图像进行卷积操作。首先对整幅量子图像进行平移操作,针对NEQR量子图像模型进行平移变换,实现某位置像素对邻域像素的访问。像素f(Y,X)变换成为像素f(Y,X+1)是对图像进行一个向右的单位平移操作。整个量子图像平移操作过程由两个变换U(x±)和U(y±)完成,U(x±)操作是将整幅图像沿X轴方向平移,U(y±)操作是将整幅图像沿Y轴方向平移。
平移操作具体为:
使用一个量子黑盒UΩ操作对所有的像素位置上可以访问的邻域信息进行计算。
|Ω(Y,X)>=|Sum/256> (20)
因此窗口内像素求和处理后的值保存在q个量子位的|Ω(Y,X)>中。本文使用的量子黑盒中q=8,那么共需要2n+17个量子位完成整个操作过程;其中存储整幅图像耗费2n+8个量子位,剩余9个是辅助量子位。
对量子图像进行一次卷积操作过程,使用量子测量提取(Y,X)位置Ω(Y,X),利用式(21)提取出F(J,I)。对所有像素计算可以得到特征值P(J,I),其过程如下:
其中T是阈值,J是卷积后图像的高度,I是卷积后图像的宽度。
6.量子BP神经网络
量子BP神经网络对人体动作量子图像的特征点进行训练和识别。图5给出了新型量子神经元模型,其中输入全部用量子位|0>表示,经过受控非门翻转,量子旋转门移相,聚合后得到输出;输出用量子位|1>的概率幅表示;输入层与隐层之间的权值wij;激活函数是f(·);yj是第j个神经元的输出。输入输出关系用式(23)表示:
其中i代表输入序号,j代表神经元序号,θ0是量子位|0>初始相位,θi是第i个输入改变的相位。
图6给出了三层QBP网络模型,其中输入层有n个量子神经元,隐层和输出层分别有p、m个普通神经元;量子旋转门R(θi)改变第i个输入层量子位|0>的相位,hj代表隐层第j个神经元输出,yk为输出层第k个神经元的输出值,vij为输入层与隐层之间的连接权值;wjk为隐层与输出层之间的连接权值。各层输入输出关系如下:
令n个训练样本集或识别样本集(就是训练的时候用训练样本集,识别的时候用识别样本集)为为θ=(θ1,θ2,…,θn),训练样本的量子旋转门描述用式(25)表示:
R(θ)=[R(θ1),R(θ2),…,R(θn)] (25)
误差函数用式(26)表示:
误差E用隐层表示:
误差E用输入层表示:
权值更新过程如下所示:
wjk(t+1)=wjk(t)+ηΔwjk (31)
vij(t+1)=vij(t)+ηΔvij (32)
基于量子神经网络的人体行为识别系统,所述系统包括图像灰度化模块、NEQR量子图像形成模块、量子图像前景检测模块、人体动作的边缘信息提取模块、动作的特征点提取模块和识别模块;
图像灰度化模块采集人体动作图像,并对每一帧图像灰度化;
NEQR量子图像形成模块采用NEQR模型将图像灰度化模块中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
量子图像前景检测模块针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
人体动作的边缘信息提取模块使用Hadamard门边缘检测算法提取出人体动作的边缘信息;
动作的特征点提取模块基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点,制作识别样本集;
识别模块读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
7.人体动作训练和识别
图7给出了人体动作训练和识别流程图。
a.训练过程
读取动作的每一帧图像构建NEQR量子图像,使用前景检测算法提取前景动作,提取边缘、特征点,制作训练样本集;使用量子BP神经网络对样本集进行训练,保存各层之间的权值。
具体过程如下:
第一步:是使用摄像头采集历史人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像,为量子计算机对图像进行处理提供理论基础;
第三步:是量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:是使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作训练样本集;
第六步:使用提出的改进型量子BP神经网络对样本集进行训练,保存各层之间的权值完成训练。
b.识别过程
读取动作的连续帧图像构建NEQR量子图像,使用前景检测算法提取前景动作,提取边缘、特征点,制作识别样本集;最后将需要识别的动作图像经过NEQR模型、前景检测算法提取前景动作、提取边缘和特征点,特征点与读取的权值构建量子BP神经网络对样本集进行识别。
第一步:采集人体动作实时图像,并对每一帧图像灰度化(可以采用输出灰度图像的工业级相机,工业领域很常见,这里是传统的灰度化方法);
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型(采用张毅提出的NEQR模型,请参考论文《面向计算机图像处理的量子算法研究》。)将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:使用Hadamard门边缘检测算法(采用王恒岩提出的Hadamard门边缘检测方法,参考论文《基于核磁共振体系的量子信息测量与图像处理应用》。)从第三步的“运动目标”中提取出人体动作的边缘信息,;
第五步:基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点,制作识别样本集;
第六步:基于量子BP神经网络完成识别过程,读取NEQR模型中训练好的权值,构建量子BP神经网络对样本集进行识别;最后识别出动作的类型。
Claims (10)
1.基于量子神经网络的人体行为识别方法,其特征在于:
第一步:采集人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息,形成边缘量子图像;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作识别样本集;
第六步:读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
2.根据权利要求1所述的基于量子神经网络的人体行为识别方法,其特征在于:第二步中:NEQR模型中训练过程如下:
第一步:是使用摄像头采集历史人体动作图像,并对每一帧图像灰度化;
Gray(Y,X)=0.299*R(Y,X)+0.587*G(Y,X)+0.114*B(Y,X) (1)
在公式(1)中:Gray(Y,X)是(Y,X)位置的灰度值,R(Y,X)、G(Y,X)、B(Y,X)分别是(Y,X)位置的三种颜色值,*代表着乘号;
第二步:采用NEQR模型,将第一步中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
第三步:量子图像前景检测:针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
第四步:是使用Hadamard门边缘检测算法从第三步的“运动目标”中提取出人体动作的边缘信息;
第五步:基于量子黑盒的卷积法对第四步的“边缘量子图像”进行卷积操作来提取动作的特征点,制作训练样本集;
第六步:使用提出的改进型量子BP神经网络对样本集进行训练,保存各层之间的权值完成训练。
3.根据权利要求1或2所述的基于量子神经网络的人体行为识别方法,其特征在于:第二步中:
NEQR分别利用两个量子位二进制串来分别存储图像像素的位置信息和灰度信息,并同时将两者纠缠叠加起来,从而同时将图像所有像素存储下来。
5.根据权利要求1或2所述的基于量子神经网络的人体行为识别方法,其特征在于:第三步中:
量子图像前景检测,针对NEQR量子图像,采用背景差分法检测静态目标,ViBe标检测运动目标;
a.背景差分法:
(1)、一幅NEQR量子图像的大小均为2n×2n,且灰度值范围为[0,2q-1];|IB>为背景量子图像,|IK>是第k帧的量子图像;两幅图像的表达式用式(4)表示:
其中和其中|BYX>|YX>和|KYX>|YX>是量子态下的灰度值与(Y,X)位置信息进行张量积;对所有张量积求和;位置Y∈[0,2n-1],2n是摄像头采集的图像的高度;位置X∈[0,2n-1],2n是摄像头采集的图像的宽度;和是二进制串的缩写形式,表示q个量子基态张量积,i表示第i个量子基态,q是量子的个数;
(2)、前景区域量子图像|ID>用式(5)表示:
(3)、接着对量子图像|ID>进行二值化处理,设定阈值T∈[0,2q-1];用阈值T作为灰度值构建一副新的NEQR图像|IT>,q是量子的个数;
(4)、初始化一副空白量子图像为|If>,用式(6)表示:
(5)、对|ID>和|IT>进行减法操作,根据差值来确定|fYX>;
其中TYX表示阈值量子图像|IT>在(Y,X)位置的灰度值为TXY;
b.ViBe算法:
{|Iξ>0,|Iξ>1,...,|Iξ>N-1}作为背景模型的N个样本集;初始化一副空白量子图像|If>用于保存前景区域,表达式用式(6)表示;
(2)、定义:
表示当前帧的图像与背景图像做差时,在(Y,X)位置计算N组中符合条件差值的个数为Nb;假设|IK>是第k帧的量子图像,R是取值半径;若Nb大于一个阈值Nmin,代表着当前(Y,X)位置的像素值与该位置历史样本中的多个值相似,那么认为(Y,X)位置就是背景点;反之为前景点;表示N组背景模型中第i个量子图像在(Y,X)位置的灰度值;
(3)、使用一种灰度变换操作UG,其将对图像的(Y,X)位置像素进行变换操作;
其过程使用两种常用的量子门和一个辅助量子位来构建量子与门∩和量子或门∪;|a′>表示这些辅助量子位在完成操作之后的状态;表示第k帧量子图像在(Y,X)位置的灰度值;是N个样本中随机抽取第i幅样本图像(Y,X)位置的灰度值;表示量子图像在(Y,X)位置的灰度值第l量子位于辅助量子位a进行量子与门计算;
(4)、当Nb≥Nmin时,从N个样本中随机抽取第i幅样本图像,对(Y,X)位置的像素值进行更新;
6.根据权利要求1或2所述的基于量子神经网络的人体行为识别方法,其特征在于:第五步:设计一种基于量子黑盒的卷积法提取图像特征,使用h×w大小的卷积核对整幅量子图像进行卷积操作:
首先对整幅量子图像进行平移操作,针对NEQR量子图像模型进行平移变换,实现某位置像素对邻域像素的访问;
像素f(Y,X)变换成为像素f(Y,X+1)是对图像进行一个向右的单位平移操作;整个量子图像平移操作过程由两个变换U(x±)和U(y±)完成,U(x±)操作是将整幅图像沿X轴方向平移,U(y±)操作是将整幅图像沿Y轴方向平移;
平移操作具体为:
使用一个量子黑盒UΩ操作对所有的像素位置上可以访问的邻域信息进行计算;
|Ω(Y,X)〉=|Sum/256〉 (17)
8.根据权利要求2所述的基于量子神经网络的人体行为识别方法,其特征在于:第六步中:量子BP神经网络的量子神经元模型输入全部用量子位|0>表示,经过受控非门翻转,量子旋转门移相,聚合后得到输出;输出用量子位|1>的概率幅表示;输入层与隐层之间的权值wij;激活函数是f(·);yj是第j个神经元的输出;输入输出关系用式(20)表示:
其中i代表输入序号,j代表神经元序号,θ0是量子位|0>初始相位,θi是第i个输入改变的相位;wij表示第i个输入对应第j个神经元的权值;
三层QBP网络模型输入层有n个量子神经元,隐层和输出层分别有p、m个普通神经元;量子旋转门R(θi)改变第i个输入层量子位|0>的相位,hj代表隐层第j个神经元输出,yk为输出层第k个神经元的输出值,vij为输入层与隐层之间的连接权值;wjk为隐层与输出层之间的连接权值;各层输入输出关系如下:
其中i=1,2,…,n,j=1,2,…,p,k=1,2,…,m。
9.根据权利要求8所述的基于量子神经网络的人体行为识别方法,其特征在于:第六步中:所述量子BP神经网络中:
(1)、样本的量子旋转门描述:
令n个训练样本集或识别样本集为θ=(θ1,θ2,…,θn),训练样本或识别样本的量子旋转门描述用式(23)表示:
R(θ)=[R(θ1),R(θ2),…,R(θn)] (23)
(2)、更新网络参数:
定义误差函数用式(24)表示:
其中m表示输出神经元的个数;dk表示第k个神经元期望值;yk表示第k个神经元实际输出值;
误差E用隐层表示用式(25)表示:
误差E用输入层表示用式(26)表示:
权值更新过程如下:
wjk(t+1)=wjk(t)+ηΔwjk (29)
vij(t+1)=vij(t)+ηΔvij (30)
其中t代表某个时间,t+1代表下一个时间。
10.基于量子神经网络的人体行为识别系统,其特征在于:所述系统包括图像灰度化模块、NEQR量子图像形成模块、量子图像前景检测模块、人体动作的边缘信息提取模块、动作的特征点提取模块和识别模块;
图像灰度化模块采集人体动作图像,并对每一帧图像灰度化;
NEQR量子图像形成模块采用NEQR模型将图像灰度化模块中灰度化之后的人体动作图像存储在量子态中形成NEQR量子图像;
量子图像前景检测模块针对NEQR量子图像采用背景差分法和ViBe算法分别检测静态目标和运动目标;
人体动作的边缘信息提取模块使用Hadamard门边缘检测算法提取出人体动作的边缘信息;
动作的特征点提取模块基于量子黑盒的卷积法对整幅量子图像进行卷积操作来提取动作的特征点,制作识别样本集;
识别模块读取NEQR模型中训练好的权值,构建量子BP神经网络对识别样本集进行识别。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN2019106159052 | 2019-07-09 | ||
CN201910615905 | 2019-07-09 | ||
CN2019106167491 | 2019-07-09 | ||
CN201910616749 | 2019-07-09 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111582210A CN111582210A (zh) | 2020-08-25 |
CN111582210B true CN111582210B (zh) | 2022-02-15 |
Family
ID=72112220
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010409325.0A Active CN111580782B (zh) | 2019-07-09 | 2020-05-14 | 量子n位全加器 |
CN202010409322.7A Active CN111582210B (zh) | 2019-07-09 | 2020-05-14 | 基于量子神经网络的人体行为识别方法 |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010409325.0A Active CN111580782B (zh) | 2019-07-09 | 2020-05-14 | 量子n位全加器 |
Country Status (1)
Country | Link |
---|---|
CN (2) | CN111580782B (zh) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN112214200B (zh) * | 2020-09-30 | 2023-12-15 | 本源量子计算科技(合肥)股份有限公司 | 一种量子减法运算方法、装置、电子装置及存储介质 |
CN112529196B (zh) * | 2020-12-10 | 2021-11-23 | 北京百度网讯科技有限公司 | 量子纠缠探测方法、装置、电子设备及存储介质 |
CN114819171B (zh) * | 2021-02-26 | 2023-08-08 | 本源量子计算科技(合肥)股份有限公司 | 一种量子卷积操作的实现方法及装置 |
CN113515776B (zh) * | 2021-06-23 | 2021-12-14 | 支付宝(杭州)信息技术有限公司 | 一种基于量子计算的多方安全计算的方法和装置 |
CN113361664B (zh) * | 2021-08-10 | 2021-11-05 | 北京航空航天大学 | 一种基于量子卷积神经网络的图像识别系统及方法 |
CN114201139A (zh) * | 2021-12-14 | 2022-03-18 | 安徽医科大学 | 四元量子可逆半加器、全加器、并行全加器和并行加/减器电路 |
CN114897139B (zh) * | 2022-05-09 | 2024-10-29 | 广西大学 | 一种排序稳定简化稀疏量子神经网络的轴承故障诊断方法 |
CN115761384B (zh) * | 2023-01-09 | 2023-04-28 | 苏州浪潮智能科技有限公司 | 一种图像分类方法、装置、电子设备和存储介质 |
CN118154704B (zh) * | 2024-05-10 | 2024-08-06 | 吉林大学 | 一种基于Delta编码的量子图像数据压缩方法 |
Family Cites Families (18)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2508294B2 (ja) * | 1989-09-22 | 1996-06-19 | 日本電気株式会社 | 光全加算器 |
JP4847914B2 (ja) * | 2007-04-16 | 2011-12-28 | 日本電信電話株式会社 | 量子加算演算方法及び量子加算演算装置 |
JP5204698B2 (ja) * | 2009-03-19 | 2013-06-05 | 日本電信電話株式会社 | 量子演算方法、量子演算装置、量子回路 |
CN101776934B (zh) * | 2010-01-28 | 2013-04-24 | 华东交通大学 | 进位产生和传递函数发生器及可逆最优加法线路设计方法 |
CN101923457B (zh) * | 2010-08-19 | 2012-12-12 | 华东交通大学 | 基于可逆“zs”系列门的阵列乘法器的设计与实现方法 |
US8631367B2 (en) * | 2010-12-16 | 2014-01-14 | Northrop Grumman Systems Corporation | Methods of increasing fidelity of quantum operations |
US8957699B2 (en) * | 2012-10-26 | 2015-02-17 | Northrop Grumman Systems Corporation | Efficient Toffoli state generation from low-fidelity single qubit magic states |
CN102937887B (zh) * | 2012-12-06 | 2015-12-09 | 重庆邮电大学 | 一种基于可逆逻辑的16比特进位选择加法器 |
CN104463165A (zh) * | 2014-10-24 | 2015-03-25 | 南京邮电大学 | 一种融合Canny算子与Vibe算法的目标检测方法 |
US10073677B2 (en) * | 2015-06-16 | 2018-09-11 | Microsoft Technology Licensing, Llc | Mixed-radix carry-lookahead adder architecture |
CN105205832B (zh) * | 2015-08-31 | 2017-08-25 | 清华大学深圳研究生院 | 一种运动目标检测的方法 |
CN106528045B (zh) * | 2016-11-11 | 2018-12-04 | 重庆邮电大学 | 一种基于可逆逻辑门的4位可逆加/减法器 |
US10423887B2 (en) * | 2016-11-23 | 2019-09-24 | Microsoft Technology Licensing, Llc | Compilation, memory management, and fault localization with ancillas in an unknown state |
CN106650808A (zh) * | 2016-12-20 | 2017-05-10 | 北京工业大学 | 一种基于量子近邻算法的图像分类方法 |
CN107066234B (zh) * | 2017-04-21 | 2020-05-26 | 重庆邮电大学 | 一种量子乘法器的设计方法 |
CN108921049B (zh) * | 2018-06-14 | 2021-08-03 | 华东交通大学 | 基于量子门线路神经网络的肿瘤细胞图像识别装置及设备 |
CN108846483B (zh) * | 2018-06-21 | 2023-04-14 | 广西师范大学 | 一种不破坏源操作数的模n减法器设计方法 |
CN109002894B (zh) * | 2018-07-10 | 2021-10-08 | 华东交通大学 | 一种基于量子叠加态的量子加法器设计方法 |
-
2020
- 2020-05-14 CN CN202010409325.0A patent/CN111580782B/zh active Active
- 2020-05-14 CN CN202010409322.7A patent/CN111582210B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
CN111580782B (zh) | 2022-07-15 |
CN111582210A (zh) | 2020-08-25 |
CN111580782A (zh) | 2020-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111582210B (zh) | 基于量子神经网络的人体行为识别方法 | |
Kim et al. | Surface crack detection using deep learning with shallow CNN architecture for enhanced computation | |
Adarsh et al. | YOLO v3-Tiny: Object Detection and Recognition using one stage improved model | |
CN110414432B (zh) | 对象识别模型的训练方法、对象识别方法及相应的装置 | |
Bilen et al. | Integrated perception with recurrent multi-task neural networks | |
Williams et al. | Advanced image classification using wavelets and convolutional neural networks | |
Aggarwal et al. | Image surface texture analysis and classification using deep learning | |
CN106407903A (zh) | 基于多尺度卷积神经网络的实时人体异常行为识别方法 | |
CN111325766B (zh) | 三维边缘检测方法、装置、存储介质和计算机设备 | |
CN1758283A (zh) | 模拟多尺度交叠感受野的神经网络及其建立方法和应用 | |
CN117576783A (zh) | 基于手部关键点与双层双向lstm网络的动态手势识别方法 | |
CN116353623A (zh) | 一种基于自监督模仿学习的驾驶控制方法 | |
Teow | A minimal convolutional neural network for handwritten digit recognition | |
CN110569711B (zh) | 面向人体动作识别方法 | |
Shi et al. | Improved metric learning with the CNN for very-high-resolution remote sensing image classification | |
Khan et al. | Partial Observer Decision Process Model for Crane‐Robot Action | |
CN116152561A (zh) | 基于卷积神经网络和增强图注意力网络的融合网络的图像分类方法 | |
Pham et al. | A deep learning approach for real-time 3D human action recognition from skeletal data | |
CN113780129A (zh) | 基于无监督图序列预测编码的动作识别方法及存储介质 | |
Lee et al. | Context-aware multi-task learning for traffic scene recognition in autonomous vehicles | |
Guo et al. | Optimal path planning in field based on traversability prediction for mobile robot | |
Syrris et al. | A lattice-based neuro-computing methodology for real-time human action recognition | |
Kashyap et al. | Quantum convolutional neural network architecture for multi-class classification | |
CN116486488A (zh) | 一种基于超图模型的事件相机步态识别方法 | |
CN116453214A (zh) | 一种基于有限监督信息的联合学习步态表征方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |