CN117292466B - 基于多模态计算机视觉与生物识别物联网解锁方法 - Google Patents
基于多模态计算机视觉与生物识别物联网解锁方法 Download PDFInfo
- Publication number
- CN117292466B CN117292466B CN202311343740.0A CN202311343740A CN117292466B CN 117292466 B CN117292466 B CN 117292466B CN 202311343740 A CN202311343740 A CN 202311343740A CN 117292466 B CN117292466 B CN 117292466B
- Authority
- CN
- China
- Prior art keywords
- data
- parameter
- pulse
- frequency
- expressed
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 48
- 238000012549 training Methods 0.000 claims abstract description 39
- 238000007781 pre-processing Methods 0.000 claims abstract description 24
- 238000000605 extraction Methods 0.000 claims abstract description 16
- 238000002372 labelling Methods 0.000 claims abstract description 9
- 210000002569 neuron Anatomy 0.000 claims description 83
- 230000006870 function Effects 0.000 claims description 72
- 238000013528 artificial neural network Methods 0.000 claims description 56
- 239000011159 matrix material Substances 0.000 claims description 34
- 238000005457 optimization Methods 0.000 claims description 23
- 230000001360 synchronised effect Effects 0.000 claims description 19
- 230000000694 effects Effects 0.000 claims description 18
- 230000004044 response Effects 0.000 claims description 17
- 230000003044 adaptive effect Effects 0.000 claims description 13
- 238000010183 spectrum analysis Methods 0.000 claims description 13
- 238000001208 nuclear magnetic resonance pulse sequence Methods 0.000 claims description 11
- 238000009826 distribution Methods 0.000 claims description 10
- 230000004913 activation Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000008859 change Effects 0.000 claims description 8
- 230000001419 dependent effect Effects 0.000 claims description 8
- 238000013508 migration Methods 0.000 claims description 8
- 230000005012 migration Effects 0.000 claims description 8
- 238000012545 processing Methods 0.000 claims description 8
- 239000002096 quantum dot Substances 0.000 claims description 7
- 238000013459 approach Methods 0.000 claims description 6
- 238000006243 chemical reaction Methods 0.000 claims description 5
- 230000004927 fusion Effects 0.000 claims description 5
- 238000009827 uniform distribution Methods 0.000 claims description 4
- 230000002708 enhancing effect Effects 0.000 claims description 3
- 238000011156 evaluation Methods 0.000 claims description 3
- 230000010354 integration Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 210000004205 output neuron Anatomy 0.000 claims description 3
- 238000001228 spectrum Methods 0.000 claims description 3
- 230000001902 propagating effect Effects 0.000 claims description 2
- 230000010363 phase shift Effects 0.000 claims 1
- 238000005516 engineering process Methods 0.000 abstract description 11
- 238000012795 verification Methods 0.000 abstract description 4
- 238000004891 communication Methods 0.000 description 8
- 238000004422 calculation algorithm Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 4
- 239000000243 solution Substances 0.000 description 4
- 238000004458 analytical method Methods 0.000 description 3
- 230000006399 behavior Effects 0.000 description 3
- 238000004880 explosion Methods 0.000 description 3
- 230000003190 augmentative effect Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 239000000090 biomarker Substances 0.000 description 2
- 238000007635 classification algorithm Methods 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000008485 antagonism Effects 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 239000002131 composite material Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000013434 data augmentation Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000002347 injection Methods 0.000 description 1
- 239000007924 injection Substances 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 210000000653 nervous system Anatomy 0.000 description 1
- 238000004801 process automation Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000002922 simulated annealing Methods 0.000 description 1
- 230000003595 spectral effect Effects 0.000 description 1
- 238000003860 storage Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G07—CHECKING-DEVICES
- G07C—TIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
- G07C9/00—Individual registration on entry or exit
- G07C9/00174—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys
- G07C9/00563—Electronically operated locks; Circuits therefor; Nonmechanical keys therefor, e.g. passive or active electrical keys or other data carriers without mechanical keys using personal physical data of the operator, e.g. finger prints, retinal images, voicepatterns
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/0499—Feedforward networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/774—Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/70—Multimodal biometrics, e.g. combining information from different biometric modalities
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y20/00—Information sensed or collected by the things
- G16Y20/40—Information sensed or collected by the things relating to personal data, e.g. biometric data, records or preferences
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16Y—INFORMATION AND COMMUNICATION TECHNOLOGY SPECIALLY ADAPTED FOR THE INTERNET OF THINGS [IoT]
- G16Y40/00—IoT characterised by the purpose of the information processing
- G16Y40/50—Safety; Security of things, users, data or systems
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Artificial Intelligence (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computational Linguistics (AREA)
- Medical Informatics (AREA)
- Databases & Information Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Molecular Biology (AREA)
- General Engineering & Computer Science (AREA)
- Human Computer Interaction (AREA)
- Computer Security & Cryptography (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了基于多模态计算机视觉与生物识别物联网解锁方法,包括:采集人脸、指纹和语音数据,并标注这些数据;对采集的数据进行样本扩充;对采集的数据进行预处理;对预处理后的数据提取数据特征;使用特征提取后的数据训练分类器;使用训练好的模型执行解锁,当识别出权限用户后触发解锁,否则保持锁定;通过整合三种生物识别技术,提供了更多的验证点,增强了解锁的安全性。
Description
技术领域
本发明属于数据处理技术领域,尤其涉及基于多模态计算机视觉与生物识别物联网解锁方法。
背景技术
在过去的数年中,生物识别技术已经在众多应用领域中起到了关键作用,从智能手机的解锁到安全验证和国家边境控制等。但随着技术的广泛应用,其局限性也逐渐暴露出来。依赖单一模态的生物识别技术,例如仅使用人脸或指纹,常常受到环境变化、伪装等因素的影响,导致准确性和鲁棒性受限。此外,为了提供更加精准的识别,需要大量高质量的数据进行模型训练,但传统的数据扩充方法往往无法满足这一需求,难以生成与真实数据相似的生物识别样本。
与此同时,图像预处理在生物识别中起到了至关重要的作用,但许多传统计算方法在效率和准确性上都存在不足,特别是在将彩色图像转换为灰度图像时。对于神经网络的优化,虽然近年来取得了很多进展,但传统的优化方法仍然面临效率低和收敛速度慢的问题。权重调整作为优化过程中的关键环节,传统方法可能还未能达到理想的精度。
另一个核心问题是,现有的神经网络主要集中于单一核心结构,当面临多模态输入数据时,其表现往往不尽如人意。因此,为了应对这些挑战,一个综合多种模态的生物识别系统、更高效的数据扩充技术、更准确的图像预处理方法以及更加精细和科学的神经网络优化手段显得尤为迫切。
中国发明专利CN202310522837.1提出一种基于系统调用行为的工业物联网设备指纹识别方法,包括以下步骤:通过服务器端向未知设备端发送安全请求;未知设备端在接收安全请求后生成系统调用串;根据系统调用串生成未知设备端的设备指纹;由未知设备端将设备指纹发送至服务器端;服务器端收到设备指纹后,与预存设备指纹进行相关性值计算,并根据计算出来的相关性值判断设备行为是否发生变化。该方法能够有效提高指纹识别的准确性,同时保护设备隐私。
中国发明专利CN202310606279.7提出一种物联网设备识别方法、装置、网关及存储介质,该方法包括:根据预设大小的时间窗口,对来自物联网设备的网络通信数据进行划分,得到每个时间窗口对应的数据包;提取物联网设备在每个数据包上留下的通信指纹,基于通信指纹获取物联网设备的通信指纹集,通信指纹基于物联网设备通过数据包查询过的域名集以及进行通信的目标节点集获得;基于通信指纹集中每个通信指纹和预设的设备指纹库,获取物联网设备关联的疑似设备列表;将疑似设备列表中出现次数最多的身份标签设置为物联网设备的身份标签,从而提高了物联网设备的识别效率。
中国发明专利CN201811308550.4提出一种物联网设备的识别方法及装置,其中方法包括:获取网络设备在预设时间段内多个维度的访问数据的数量;根据各维度的访问数据的数量以及各维度的访问数据的权重,获得所述网络设备的评分结果,根据所述评分结果与预设阈值的大小判断所述网络设备是否为物联网设备。本发明实施例能够对所有来源于移动互联网的物联网设备进行挖掘分析,覆盖性高;同时全程自动化实现,不需要对物联网中的海量多类型交互数据进行建模分析,节省人力和设备成本。
上述技术具有一定创新性,但现有技术仍存在以下需要进一步提升的地方:
1、单一模态生物识别的局限性:依赖于单一的生物特征(如只使用人脸或指纹)可能导致识别的准确性和鲁棒性不足。例如,环境变化、伪装或其他因素可能导致单一生物特征的识别效果不佳;
2、数据扩充技术不足:传统的数据扩充方法可能无法生成高质量的、与真实数据非常相似的生物识别数据,导致训练效果不理想;
3、图像预处理效率和效果不足:传统的计算方法在图像预处理方面可能既不高效又不精确,尤其是在需要将彩色图像转为灰度图像时;
4、神经网络优化不足:传统的神经网络优化方法可能效率不高,收敛速度慢,可能导致训练时间长或模型性能不佳;
5、权重调整精度不足:在优化神经网络时,可能缺乏更为精细和科学的权重调整手段,导致模型难以达到最优状态;
6、单一核心神经网络的局限性:传统的神经网络可能主要依赖于单一的核心结构,这可能导致在处理多模态输入数据时效果不佳。
发明内容
本申请针对上述技术问题提出基于多模态计算机视觉与生物识别物联网解锁方法,具体技术方案如下:
基于多模态计算机视觉与生物识别物联网解锁方法,包括:
采集人脸、指纹和语音数据,并标注这些数据;
对采集的数据进行样本扩充;
对采集的数据进行预处理;
对预处理后的数据提取数据特征;
使用特征提取后的数据训练分类器;
使用训练好的模型执行解锁,当识别出权限用户后触发解锁,否则保持锁定。
进一步的,人脸数据为Ma×Na×Ca的图像矩阵,其中M和N代表图像的高和宽,Ca代表图像的通道数;指纹数据为P×Q×Cb的图像矩阵,其中P和Q代表图像的高和宽,Cb为1的灰度图;语音数据为长度为Lc的一维数组。
进一步的,样本扩充的方法为:
(1)初始化,选择合适的稀疏自表达层的参数,以及介质场正则化的强度,同时初始化字典矩阵Dface和生成器、鉴别器的权重,表示为:
其中,和/>分别表示生成器和鉴别器的初始化权重;
(2)稀疏化,使用L1正则化方法,捕获数据中的关键特征并忽略噪音或不相关的特征,可以表示为:
Xface≈Dfaceαface
其中,Dface是字典矩阵,αface是稀疏系数矩阵;
最小化以下损失函数找到最优的αface:
对Lsparse进行微分,得到:
其中,sign(αface)是元素级的符号函数;
期望αface的L1范数尽可能小,即:
且限制于
其中,表示Frobenius范数,∈是一个小的常数表示允许的误差;
(3)自表达性学习,可以表示为:
xface,i=Xfaceβi
其中,βi是系数向量,期望βi的L2范数尽可能小,但第i项设置为0,即βi,i=0;
需最小化以下损失函数学习每一个数据点xface,i的系数βi:
对Lself,i进行微分,得到:
得到总的损失函数为:
(4)生成器训练,结合稀疏自表达层,生成新的数据实例;
(5)鉴别器训练,让鉴别器D尽可能区分真实数据和生成的数据,因此损失函数为:
LD=-E[logD(Xreal;WD)]-E[log(1-D(G(z;WG);WD))]
其中,Xreal是真实数据,G()是生成器生成的数据,z是随机噪声,E[]表示期望函数;
对LD进行微分,得到鉴别器的梯度更新公式;
将生成器G与鉴别器D结合起来,损失函数为:
LGAN=E[logD(Xreal)]+LD]
给定一个随机噪声z,通过以下方式使用生成器G生成新的人脸图像:
基于稀疏自表达的生成对抗网络的目标函数为:
L=LGAN+λa1Lsparse+λa2Lself
其中,λa1和λa2是平衡参数,由人为预设;
(6)迭代优化,重复上述步骤,利用随机梯度下降来迭代更新上述步骤中的所有参数,直到即损失函数的收敛或达到预设的迭代次数。
进一步的,对采集的数据进行预处理的方法为:
对于人脸图像和指纹图像预处理,定义量子位灰度转换函数为:
其中,nk和mk分别为图像的长和宽,Q(x,y)为量子位灰度后的图像像素点值,I(xi,yj)为原图像在点(xi,yj)的像素值,Qw(i,j)为量子权重矩阵,与像素位置有关的权重值,为量子叠加操作;
使用生物谱解析公式对灰度图像进行处理:
B(x,y)=∫Q(x,y)·e-λf(x,y)dx dy
其中,B(x,y)为生物谱解析后的图像,λ为生物谱系数,由人为预设,f(x,y)为生物谱解析函数,具体为关于x和y的二元函数;
对于语音序列数据预处理,通过以下公式将语音序列数据映射到一个新的频率空间:
其中,S(f)为新的频率空间中的语音数据,s(t)为原始时间序列中时间点t的数据,Nk为语音序列的总时间点数量,f为新的频率变量,i为虚数单位;
在所有的预处理步骤完成后,将预处理后的数据转换为向量格式,可以表示为:
其中,为最终的数据向量,B(xi,yi)为生物谱解析后的图像数据,S(fj)为声学频率映射后的语音数据。
进一步的,对预处理后的数据提取数据特征的方法为:
采用三层前馈神经网络结构如下:
输入层:根据输入数据向量的维度决定输入层神经元的数量;
隐藏层:隐藏层包括第一隐藏层和第二隐藏层,第一隐藏层的神经元数量为150,激活函数为ReLU;第二隐藏层的神经元数量为50,激活函数为ReLU;
输出层:具有与标注数据的类别数量相同的神经元,激活函数为Softmax;
神经网络训练时,参数优化的步骤如下:
(1)初始化,随机选择网络的参数,并设置一个随机初始脉冲相位θ,表示为:
wi~U(-∈,∈)
bi~U(-∈,∈)
fi~U(fmin,fmax)
θi~U(0,2π)
其中,U(a,b)表示在[a,b]之间的均匀分布,wi为第i个神经网络权重,bi为第i个神经网络偏置,fi为与第i个参数关联的频率,θi为第i个参数的初始脉冲相位,∈为初始权重和偏置的小随机值范围,fmin和fmax为脉冲频率的最小值和最大值;
(2)计算误差,根据当前的权重w和偏置b,前向传播得到网络输出,然后计算误差E,误差E定义为网络输出O与目标输出T之间的差异,表示为:
其中,E为网络的误差,是目标输出和实际输出之间的差值的平方的一半之和,Ok为神经网络的第k个输出,Tk为第k个目标输出;
(3)同步更新,对每个权重和偏置,计算与误差E相关的相位偏移Δθ,每个参数的相位偏移Δθi定义为:
其中,αk是学习率,Δθi为第i个参数的相位偏移;
如果误差增大,Δθ会使参数的脉冲相位与全局相位偏离,从而减小参数的影响;
如果误差减小,Δθ将尝试同步参数的脉冲相位,从而增强参数的影响;
(4)脉冲生成,根据每个参数的频率f和相位θ,生成一个时间窗内的脉冲序列,对于每个参数,生成一个脉冲序列Pi(t)表示为:
Pi(t)=sin(2πfit+θi+Δθi);
(5)脉冲集成,将所有参数的脉冲序列合并,得到一个综合的脉冲响应,综合的脉冲响应Ptotal(t)是所有参数脉冲的加权平均,表示为:
其中,kN是神经网络的参数的数量,Pi(t)为第i个参数在时间t的脉冲序列;
(6)自适应性调整,根据综合的脉冲响应和预期的输出,调整每个参数的频率f:
Δfi=kβ(Ptotal(t)-Pi(t))
fi=fi+Δfi
其中,Ptotal(t)为在时间t的综合脉冲响应,kβ为频率调整系数,Δfi为第i个参数的频率调整;
如果某个参数的脉冲与整体脉冲相位不同步,该参数的频率会适当增加,使其更快地同步;
如果某个参数的脉冲与整体脉冲相位同步,该参数的频率会适当减少,使其保持同步;
(7)更新参数,根据每个参数的脉冲响应和自适应性调整后的频率,更新权重w和偏置b,参数更新的公式为:
wi(t+1)=wi(t)+kγ·Ptotal(t)
bi(t+1)=bi(t)+kγ·Ptotal(t)
其中,kγ为参数更新的学习率;
所述参数更新的学习率kγ与频率相依系数相关,对于权重矩阵W中的每一个权重wi,记录其在连续kT个时间步的变化,构建时间序列Xi(t),其中t从1到kT,表示为:
Xi(t)=wi(t)-wi(t-1)
对于每一个时间序列Xi(t),进行傅里叶变换,得到频率分布Fi(f),傅里叶变换的基本公式为:
计算每一个权重频率分布的能量,并将其标准化:
Ei(f)=|Fi(f)|2
其中,fmax是考虑的最大频率;
定义频率相依系数FDCi为:
其中,fmid是一个中间频率值;
如果FDCi接近1,则说明权重wi主要存在低频变化,如果FDCi接近0,则说明权重wi主要存在高频变化;
(8)脉冲抵消,对于每一对参数wi和wj,计算它们的脉冲差异Dij:
其中,Dij为第i和j个参数之间的脉冲差异;
基于差异Dij,对参数进行抵消:
wi(t+1)=wi(t)-mλ·Dij·wj(t)
wj(t+1)=wj(t)-mλ·Dij·wi(t)
其中,mλ是抵消系数,为预设值;
(9)适应度函数评估,设mE是网络误差,S是参数稀疏性度量,C是计算复杂度度量,适应度函数表示为:
其中,ω1,ω2,ω3是权重系数,κ是一个正常数,是误差的逆函数,当误差mE较小时,其值趋近于1,e-κS表示鼓励网络参数的稀疏性,当参数越稀疏值越高,log(C+1)是计算复杂度的度量,当网络有更多非零参数时,计算复杂度增加;
网络误差mE是衡量网络输出与目标输出之间差异的标准,如果有mN个输出值,每个目标输出为Tk,网络输出为Ok,则网络误差mE定义为:
参数稀疏性度量S使用L1范数进行度量,L1范数是权重矩阵所有元素的绝对值之和,设权重矩阵为W且有pM个权重,则L1范数定义为:
设权重矩阵为W,则复杂度度量C的计算方式为:
其中,I()是指示函数:如果wi不为零,则I(wi≠0)=1,否则为零;
(10)迭代,重复步骤(2)~(9),直到达到预设的迭代次数或适应度函数值达到预设的数值。
进一步的,训练分类器的方法为:
设特征提取后的单个样本为特征向量v,训练步骤如下:
(1)初始化,随机初始化所有权重wki;
(2)前向传播,计算每个神经元的核心能量Ek,每个神经元的核心能量Ek的计算方法为:
其中,wki为神经元与核心之间的连接权重,vi为特征向量的第i个元素,n为特征向量的长度,Ek为第k个神经元的核心能量,wki为第k个神经元与其核心之间的连接权重,n为特征向量的长度;
使用sigmoid函数计算神经元的输出ok,神经元的输出ok由sigmoid函数计算,表示为:
其中,αk为动态学习率;
(3)损失计算,根据给定的目标输出yk和神经元的实际输出ok计算损失mL,损失函数mL表示为:
其中,yk是目标输出,m是输出神经元的数量,ok为神经元的输出,mL为损失函数;
(4)反向传播,计算学习率nαk,学习率nαk由以下公式计算:
其中,nα0是初始学习率,nβ是预设的常数值;
根据误差和学习率更新权重Δwki,权重的更新Δwki表示为:
Δwki=nαk×(yk-ok)×ok×(1-ok)×vi
通过量子连接对权重进行进一步调整ΔQki,权重的量子调整ΔQki表示为:
ΔQki=nγ×sin(θki)
其中,nγ是一个控制量子连接的影响大小的常数,θki是权重wki的量子相位;
更新权重权重/>的更新方式表示为:
(5)核心迁移,设Ek,0是神经元k的初始核心能量,是在第t次迭代后的神经元k的核心能量,设pλ是迁移率,取值在0到1之间,则迁移规则为:
当pλ=1时,核心不会迁移,而当pλ=0时,核心会完全返回其初始位置;
(6)核心融合与分裂,计算每对神经元之间的相关性Rkl,当两个神经元k和l的相关性Rkl超过阈值pT时,进行融合,相关性Rkl的计算方式表示为:
其中,Rkl为神经元k和l之间的相关性,pn为神经元的数量,T为阈值,用于判断是否应该融合两个神经元;
如果Rkl>pT,那么神经元k和l融合为一个新的神经元;
如果相关性超过阈值pT,则合并相应的神经元;
(7)重复,重复(2)~(6),直到达到预定的迭代次数或损失小于某个阈值。
本发明的有益效果为:
(1)、更高的安全性:通过整合三种生物识别技术,提供了更多的验证点,增强了解锁的安全性。
(2)、高质量的数据扩充:使用稀疏自表达的生成对抗网络,生成的数据更接近真实数据,可以有效地解决训练样本不足的问题。
(3)、优化的特征提取:自适应性脉冲同步优化的神经网络算法不仅解决了梯度消失和爆炸问题,还提供了更好的优化效果。
(4)、自适应学习:多核心自适应神经网络能够根据训练数据自动调整其结构,使其更好地匹配输入数据,提高了模型的精度和泛化能力。
(5)、实时的物联网解锁识别:训练好的模型能够实时识别是否为具有权限的用户,确保了物联网设备的安全和便捷性。
具体实施方式
为使本发明实施例的目的、技术方案和优点更加清楚,下面将结合实施例对本发明技术方案进行清楚、完整地描述。
本申请提供了一种物联网解锁方法,结合了多模态计算机视觉与生物识别技术,主要涉及以下步骤:
(1)数据采集与标注:采集人脸、指纹和语音数据,并标注这些数据;
(2)样本扩充:为了增加训练样本数量,采用基于稀疏自表达的生成对抗网络进行数据增强;
(3)数据预处理:对采集的多模态数据进行预处理,转换为适合后续处理的向量格式,其中,使用基于量子计算的方法处理图像数据;
(4)特征提取:利用基于自适应性脉冲同步优化的神经网络提取数据特征,提高模型训练效率和稳定性;
(5)训练分类器:特征提取后,使用一种多核心自适应神经网络进行分类学习,该神经网络具有自适应调整结构的能力;
(6)物联网解锁识别:最后,使用训练好的模型进行物联网设备的解锁识别,当识别出有权限的用户时,触发解锁装置,否则保持锁定状态。
对于数据采集与标注:
本申请所采集的数据来源于多模态数据,利用三种生物识别技术(人脸识别、指纹识别和语音识别),分别产生三种不同的数据格式:
Fface:人脸图像数据,格式为图像矩阵,大小为Ma×Na×Ca,其中M和N代表图像的高和宽,Ca代表图像的通道数,常见的RGB图像Ca=3。属性包括面部轮廓、眼睛、鼻子和嘴巴的位置和形状,主要特征为特定的面部关键点及其相对位置。
Ffingerprint:指纹图像数据,格式为图像矩阵,大小为P×Q×Cb,其中P和Q代表图像的高和宽,Cb为1,表示灰度图,属性包括脊线、池和bifurcation,特征为指纹的细节模式和局部结构。
Svoice:语音序列数据,格式为一维数组,长度为Lc,其中Lc代表语音信号的长度。属性为声波的频率、振幅和相位,特征为频谱特征和声调模式。
例如某一用户的数据为:
其中,对于其人脸图像,其图像矩阵为:
对于其指纹图像,设其图像矩阵为:
对于其语音数据,设其序列为:
对于样本扩充:
可以理解的是,数据的采集与标注是耗时耗力的,同时若训练样本数量不足,将容易导致模型欠拟合,影响模型精度。本发明提出一种基于稀疏自表达的生成对抗网络,传统的生成对抗网络使用生成器和鉴别器的对抗过程来创建新的数据实例,在本发明中,引入稀疏自表达层利用数据的稀疏表示属性来捕获数据中的主要特征,使生成的数据不仅与真实数据更相似,而且更具代表性。
具体的,本发明所采集的多模态数据包括人脸图像、指纹图像、语音序列数据,分别表示这些数据为Xface,Xfinger和Xvoice,以人脸图像数据Xface为例,数据扩充的主要步骤如下:
(a)初始化:选择合适的稀疏自表达层的参数,以及介质场正则化的强度。同时,初始化字典矩阵Dface和生成器、鉴别器的权重,初始化可以通过标准正态分布实现,可以表示为:
其中,和/>分别表示生成器和鉴别器的初始化权重。
(b)稀疏化:使用L1正则化方法,确保生成数据的表示具有稀疏性质,捕获数据中的关键特征并忽略噪音或不相关的特征。目的是期望数据可以通过它自身的少量线性组合来表示,对于人脸图像,可以表示为:
Xface≈Dfaceαface
其中,Dface是字典矩阵,αface是稀疏系数矩阵。
进一步地,为了找到最优的αface,需要最小化以下损失函数:
对Lsparse进行微分,可以得到:
其中,sign(αface)是元素级的符号函数。
其中,为了确保稀疏性,期望αface的L1范数尽可能小,即:
且限制于
其中,表示Frobenius范数,∈是一个小的常数表示允许的误差。
(c)自表达性学习:目标是使数据能够使用自己的稀疏线性组合来表示,确保生成的数据与真实数据集中的数据具有相似的结构和分布特性。对于人脸数据,期望每一个数据点xface,i可以通过其他数据点线性表示,则:
xface,i=Xfaceβi
其中,βi是系数向量,为了确保自表达性,期望βi的L2范数尽可能小,但第i项设置为0,即βi,i=0.
进一步地,为了学习每一个数据点xface,i的系数βi,需最小化以下损失函数:
对Lself,i进行微分,可以得到:
考虑到所有数据点,得到总的损失函数为:
(d)生成器训练:结合稀疏自表达层,生成新的数据实例。此步骤的目标是最小化鉴别器的预测误差、稀疏自表达误差以及L1正则化项。
(e)鉴别器训练:鉴别器的目标是区分生成的数据和真实数据,更新鉴别器的参数以增强其鉴别能力。目标是让鉴别器D尽可能区分真实数据和生成的数据,因此损失函数为:
LD=-E[logD(Xreal;WD)]-E[log(1-D(G(z;WG);WD))]
其中,Xreal是真实数据,G()是生成器生成的数据,z是随机噪声,E[]表示期望函数。
进一步地,对LD进行微分,得到鉴别器的梯度更新公式。
进一步地,为了生成新的数据实例,将生成器G与鉴别器D结合起来,损失函数为:
LGAN=E[logD(Xreal)]+LD]
则,给定一个随机噪声z,可以通过以下方式使用生成器G生成新的人脸图像:
进一步地,基于稀疏自表达的生成对抗网络的目标函数为:
L=LGAN+λa1Lsparse+λa2Lself
其中,λa1和λa2是平衡参数,由人为预设。
(f)迭代优化:重复上述步骤,利用随机梯度下降来迭代更新上述步骤中的所有参数,直到满足预设的停止准则,即损失函数的收敛或达到预设的迭代次数。
在一个具体的实施例中,设原始数据集中样本的数量为Nc,通过数据扩充增加原始数据集的p%,其中0≤p≤100。则生成样本的数量Ngen可以表示为:
如果有一个包含1000个样本的数据集,并希望通过数据扩充增加该数据集的50%,则Ngen=0.5×1000=500。
进一步地,设Xoriginal为原始数据集的表示,维度为de×Ne,其中de是数据的维度。设Xgen为生成的数据集,维度为de×Ngen。则,扩充后的数据集Xaugmented可以表示为两个数据集的列拼接:
Xaugmented=[Xoriginal,Xgen]
即,Xaugmented的维度为de×(Ne+Ngen)。
如果有一个原始的人脸图像数据集,其中dh=3且Nh=1000,假设希望数据扩充50%,则计算生成的样本数量为:
Ngen=0.5×1000=500
设原始数据集为:
生成的数据为:
则扩充后的数据集为:
对三种模态的数据扩充完成后,组成扩充后的训练数据集。
对于数据预处理:
将步骤二中采集的多模态数据(人脸图像、指纹图像和语音序列数据)和扩充得到的数据进行预处理,转换为适合后续处理和分析的向量格式。
具体的,对于人脸图像预处理,使用一种基于量子计算的灰度转换方法将图像转换为灰度格式。定义量子位灰度转换函数为:
其中,nk和mk分别为图像的长和宽,Q(x,y)为量子位灰度后的图像像素点值,I(xi,yj)为原图像在点(xi,yj)的像素值。Qw(i,j)为量子权重矩阵,与像素位置有关的权重值。为量子叠加操作。
进一步地,使用生物谱解析公式对灰度图像进行处理:
B(x,y)=∫Q(x,y)·e-λf(x,y)dx dy
其中,B(x,y)为生物谱解析后的图像。λ为生物谱系数,由人为预设。f(x,y)为生物谱解析函数,具体为关于x和y的二元函数。
进一步地,对于指纹图像预处理,与人脸图像预处理方式相同,首先进行量子位灰度转换,然后进行生物谱解析。
进一步地,对于语音序列数据预处理,使用基于声学原理的新方法进行处理,通过以下公式将语音序列数据映射到一个新的频率空间:
其中,S(f)为新的频率空间中的语音数据,s(t)为原始时间序列中时间点t的数据,Nk为语音序列的总时间点数量,f为新的频率变量,i为虚数单位。
在所有的预处理步骤完成后,将预处理后的数据转换为向量格式,可以表示为:
其中,为最终的数据向量,B(xi,yi)为生物谱解析后的图像数据,S(fj)为声学频率映射后的语音数据。
对于特征提取:
数据预处理完成后,利用神经网络进行特征提取。传统的神经网络通常采用梯度下降法进行参数优化,但容易产生梯度消失和梯度爆炸现象,同时容易陷入局部最优解。本发明提出一种基于自适应性脉冲同步优化的神经网络算法用于特征提取,受神经科学中的脉冲同步理论启发,在神经系统中,大量神经元的同步放电是对特定输入的响应。这种同步的放电可以增强信号传输,提高信息处理的效率。基于本思路,考虑在神经网络的参数优化中利用脉冲同步的机制达到更好的优化效果。
本发明采用的特征提取神经网络为三层前馈神经网络,结构如下:
1、输入层:
输入层神经元的数量:根据输入数据向量的维度决定。如拉伸为一维向量后的维度为00维的输入数据向量,则输入层有100个神经元。
2、隐藏层:
隐藏层包括第一隐藏层和第二隐藏层。
第一隐藏层:
神经元数量:150。
激活函数:ReLU。
第二隐藏层:
神经元数量:50。
激活函数:ReLU。
3、输出层:(注:此输出层为预设输出层,本步骤特征提取后的输出为第二隐藏层的输出,输出层的作用为对神经网络模型进行有监督训练)
神经元数量:与标注数据的类别数量相同,如,对于一个10分类任务,输出层有10个神经元。
激活函数:Softmax,为了得到每个分类的概率输出。
对于神经网络模型的权重与偏置的初始化,使用小的随机值,如使用正态分布初始化,偏置一般初始化为0。如,第一隐藏层的权重矩阵W1的尺寸是100×150(输入层神经元数量×第一隐藏层神经元数量),偏置向量b1的尺寸是150。
神经网络的初始学习率设置为0.001,并采用动态调节策略进行动态调整(后文介绍具体调整方式)。
神经网络在训练时,输入数据的批量大小为128,即每次训练时会取128个样本进行迭代训练。预设的训练轮数为Nepoc轮,即整个数据集会被网络训练Nepoc次。
神经网络训练时,其参数优化的步骤如下:
1、初始化:随机选择网络的参数(权重w和偏置b)。每个参数与一个频率f关联,并设置一个随机初始脉冲相位θ,可以表示为:
wi~U(-∈,∈)
bi~U(-∈,∈)
fi~U(fmin,fmax)
θi~U(0,2π)
其中,U(a,b)表示在[a,b]之间的均匀分布。wi为第i个神经网络权重,bi为第i个神经网络偏置,fi为与第i个参数关联的频率,θi为第i个参数的初始脉冲相位,U(a,b)为在[a,b]之间的均匀分布,∈为初始权重和偏置的小随机值范围,fmin和fmax为脉冲频率的最小值和最大值。
2、计算误差:根据当前的权重w和偏置b,前向传播得到网络输出,然后计算误差E。误差E可以定义为网络输出O与目标输出T之间的差异,可以表示为:
其中,E为网络的误差,是目标输出和实际输出之间的差值的平方的一半之和。Ok为神经网络的第k个输出,Tk为第k个目标输出。
3、同步更新:对每个权重和偏置,计算与误差E相关的相位偏移Δθ。这是该步骤的关键,它是根据网络输出与实际输出之间的差异来完成的。每个参数的相位偏移Δθi定义为:
其中,αk是学习率,Δθi为第i个参数的相位偏移。
如果误差增大,Δθ会使参数的脉冲相位与全局相位偏离,从而减小参数的影响。
如果误差减小,Δθ将尝试同步参数的脉冲相位,从而增强参数的影响。
4、脉冲生成:根据每个参数的频率f和相位θ,生成一个时间窗内的脉冲序列。这些脉冲可以看作是该参数对网络输出的“投票”。对于每个参数,生成一个脉冲序列Pi(t)可以表示为:
Pi(t)=sin(2πfit+θi+Δθi)
5、脉冲集成:将所有参数的脉冲序列合并,得到一个综合的脉冲响应。综合的脉冲响应Ptotal(t)是所有参数脉冲的加权平均可以表示为:
其中,kN是神经网络的参数的数量,Pi(t)为第i个参数在时间t的脉冲序列。
6、自适应性调整:根据综合的脉冲响应和预期的输出,调整每个参数的频率f。根据综合的脉冲响应,调整每个参数的频率:
Δfi=kβ(Ptotal(t)-Pi(t))
fi=fi+Δfi
其中,Ptotal(t)为在时间t的综合脉冲响应,kβ为频率调整系数,Δfi为第i个参数的频率调整。
如果某个参数的脉冲与整体脉冲相位不同步,该参数的频率会适当增加,使其更快地同步。
如果某个参数的脉冲与整体脉冲相位同步,该参数的频率会适当减少,使其保持同步。
7、更新参数:根据每个参数的脉冲响应和自适应性调整后的频率,更新权重w和偏置b。参数更新的公式为:
wi(t+1)=wi(t)+kγ·Ptotal(t)
bi(t+1)=bi(t)+kγ·Ptotal(t)
其中,kγ为参数更新的学习率。
进一步地,所述参数更新的学习率kγ与频率相依系数相关。频率相依系数基于傅里叶变换的原理,衡量了权重变化的频率分布。高频的权重变化可能指示过拟合或网络的不稳定性,而低频变化可能指示网络的学习进程是缓慢的或已经收敛。
具体的,对于权重矩阵W中的每一个权重wi,记录其在连续kT个时间步的变化,构建时间序列Xi(t),其中t从1到kT,可以表示为:
Xi(t)=wi(t)-wi(t-1)
进一步地,对于每一个时间序列Xi(t),进行傅里叶变换,得到频率分布Fi(f)。傅里叶变换的基本公式为:
进一步地,为了得到权重的频率相依系数,计算每一个权重频率分布的能量,并将其标准化:
Ei(f)=|Fi(f)|2
其中,fmax是考虑的最大频率。
进一步地,定义频率相依系数FDCi为:
其中,fmid是一个中间频率值。基于此,如果FDCi接近1,则说明权重wi主要存在低频变化,可能是稳定的或收敛的。如果FDCi接近0,则说明权重wi主要存在高频变化,可能是不稳定的或过拟合。可以更有针对性地调整神经网络中的权重,如,对于高频率相依系数的权重,则设置更小的学习率进行调整,因为参数可能已经接近最优值。而对于低频率相依系数的权重,则设置更大的学习率,以加速它们的学习进程。
8、脉冲抵消:对于每一对参数(例如权重wi和wj),计算它们的脉冲差异。
如果两个参数的脉冲在一个时间窗内高度同步(即它们的相位非常接近),那么它们将保持其影响并继续同步。
如果两个参数的脉冲在一个时间窗内不同步(即它们的相位有较大差异),一个参数的脉冲将部分或全部抵消另一个参数的脉冲。这意味着这些参数对网络输出的“投票”将减弱,从而导致它们的影响减少。
具体的,对于每一对参数wi和wj,计算它们的脉冲差异Dij:
其中,Dij为第i和j个参数之间的脉冲差异。
进一步地,基于差异Dij,对参数进行抵消:
wi(t+1)=wi(t)-mλ·Dij·wj(t)
wj(t+1)=wj(t)-mλ·Dij·wi(t)
其中,mλ是抵消系数,由人为预设。
9、适应度函数评估
每次参数更新后,都会评估当前网络的适应度。本发明的适应度函数F的设计为考虑多种因素的复合函数。设mE是网络误差,S是参数稀疏性度量,C是计算复杂度度量,如网络的非零参数数量,适应度函数可以表示为:
其中,ω1,ω2,ω3是权重系数,可以根据实际问题来进行调整。κ是一个正常数,控制稀疏性的影响。是误差的逆函数,当误差mE较小时,其值趋近于1,表示网络的预测非常接近目标。e-κS表示鼓励网络参数的稀疏性,当参数越稀疏(即大部分参数趋近于0)时,这个值越高,其对于促使模型压缩和防止过拟合非常有用。log(C+1)是计算复杂度的度量,当网络有更多非零参数时,计算复杂度增加,所以适应度函数会减少这个值,从而鼓励简化模型。
进一步地,网络误差mE是衡量网络输出与目标输出之间差异的标准,如果有mN个输出值,每个目标输出为Tk,网络输出为Ok,则网络误差mE定义为:
进一步地,参数稀疏性度量S使用L1范数进行度量,L1范数是权重矩阵所有元素的绝对值之和。设权重矩阵为W且有pM个权重,则L1范数定义为:
进一步地,计算复杂度度量C与网络的非零参数数量有关。更多的非零参数意味着更多的计算工作,本发明提出的度量方法是计算权重矩阵中非零元素的数量,即,设权重矩阵为W,则复杂度度量C的计算方式为:
/>
其中,I()是指示函数:如果wi不为零,则I(wi≠0)=1,否则为零。
10、迭代:重复步骤2-9,直到达到预设的迭代次数或适应度函数值达到预设的数值。
对于训练分类器:
特征提取完成后,将特征提取后的训练样本输入到分类器中进行分类,所述特征提取后的样本特征为第二隐藏层的输出特征。本发明提出一种多核心自适应神经网络的分类算法,将神经网络的层级结构与物理原理相结合,通过自适应的方式调整神经网络的结构,从而更好地匹配输入数据。
在多核心自适应神经网络中,每个神经元都有一个“核心”结构,该结构模拟了原子核的特性。每个核心都有能量水平,当神经元被激活时,该核心的能量会增加,从而影响它与相邻神经元的连接强度。网络中的每一层都可以根据其在前一轮迭代中的表现自动调整其结构,这种自适应是基于模拟退火算法。当某一层的表现低于预期时,该层的神经元数目会增加,而当它的表现超过预期时,则会减少。此外,为了应对多模态数据的复杂性,多核心自适应神经网络采用一种融合与分裂机制。当两个神经元的活动模式相似时,它们会“融合”为一个更强大的神经元,反之,一个神经元如果接收到多种不同类型的输入,它会“分裂”为两个子神经元。
具体的,设特征提取后的单个样本为特征向量v,多核心自适应神经网络的训练步骤如下:
1、初始化:随机初始化所有权重wki。
2、前向传播:
计算每个神经元的核心能量Ek。每个神经元的核心能量Ek的计算方法为:
其中,wki为神经元与核心之间的连接权重,vi为特征向量的第i个元素,n为特征向量的长度,Ek为第k个神经元的核心能量,wki为第k个神经元与其核心之间的连接权重,n为特征向量的长度。
使用sigmoid函数计算神经元的输出ok。神经元的输出ok由sigmoid函数计算,可以表示为:
其中,αk为动态学习率。
3、损失计算:根据给定的目标输出yk和神经元的实际输出ok计算损失mL。损失函数mL可以表示为:
其中,yk是目标输出,m是输出神经元的数量。ok为神经元的输出,mL为损失函数。
4、反向传播:
计算学习率nαk。学习率nαk由以下公式计算:
其中,nα0是初始学习率。nβ是一个常数,由人为预设,用于控制学习率的衰减速度。
根据误差和学习率更新权重Δwki。权重的更新Δwki可以表示为:
Δwki=nαk×(yk-ok)×ok×(1-ok)×vi
通过量子连接对权重进行进一步调整ΔQki。权重的量子调整ΔQki可以表示为:
ΔQki=nγ×sin(θki)
其中,nγ是一个常数,控制量子连接的影响大小。θki是权重wki的量子相位。
更新权重权重/>的更新方式可以表示为:
5、核心迁移:为了加强模型的泛化能力和提供对噪声数据的鲁棒性,采用自适应核心迁移的策略进行调整。具体的,在神经网络的训练中,随着迭代的进行,权重的更新可能会导致某些神经元的核心Ek被“拉向”某些样本或噪声,这种现象可能导致网络对训练数据过拟合。为了避免这一问题,在每次迭代之后对核心进行微小的迁移,以使其更接近其初始位置。
具体的,设Ek,0是神经元k的初始核心能量,是在第t次迭代后的神经元k的核心能量。设pλ是迁移率,取值在0到1之间。则迁移规则为:
在每次迭代后,都会将神经元的核心能量“迁移”回其初始位置的一小部分。迁移率pλ控制了迁移的速度。当pλ=1时,核心不会迁移,而当pλ=0时,核心会完全返回其初始位置。
6、核心融合与分裂:
计算每对神经元之间的相关性Rkl。当两个神经元k和l的相关性Rkl超过阈值pT时,进行融合。相关性Rkl的计算方式可以表示为:
其中,Rkl为神经元k和l之间的相关性,pn为神经元的数量。T为阈值,用于判断是否应该融合两个神经元。
如果Rkl>pT,那么神经元k和l融合为一个新的神经元。
如果相关性超过阈值pT,则合并相应的神经元。
7、重复:重复2到6步骤,直到满足停止条件(如,达到预定的迭代次数或损失小于某个阈值)。
对于物联网解锁识别:
利用训练样本训练模型,模型训练完成后,利用训练好的模型进行物联网解锁识别,当识别为具有权限的用户时,则触发解锁装置,否则,不触发解锁装置。
本发明提出的基于多模态计算机视觉与生物识别物联网解锁方法,主要创新点包括:
1、多模态生物识别技术:这是整个系统的数据输入部分,包括人脸识别、指纹识别和语音识别。多模态识别的优势在于它可以提高识别的准确性和鲁棒性,因为三种生物标志的结合提供了比单一模式更多的信息。
2、基于稀疏自表达的生成对抗网络(GAN):这个技术用于数据扩充,稀疏自表达层的加入增加了生成数据的质量,使其更接近真实的生物标志数据。
3、基于量子计算的灰度转换方法:为人脸图像预处理提供了一个可能更为高效的方法。量子计算的引入可能为图像处理带来了速度和精度上的提升。
4、自适应性脉冲同步优化的神经网络算法:这是一种受神经科学启发的神经网络优化算法,可能为网络的训练带来了更高的效率和更好的性能。
5、脉冲相位与频率相依系数:这是神经网络权重调整的一个关键因素,它可能为网络的参数优化提供了更为精细的控制手段。
6、多核心自适应神经网络的分类算法:这是模型训练和识别的核心部分,它结合了神经网络的层级结构与物理原理,使模型能够更好地匹配多模态输入数据。
基于以上技术,产生的技术效果包括:
1、更高的安全性:通过整合三种生物识别技术,提供了更多的验证点,增强了解锁的安全性。
2、高质量的数据扩充:使用稀疏自表达的生成对抗网络,生成的数据更接近真实数据,可以有效地解决训练样本不足的问题。
3、优化的特征提取:自适应性脉冲同步优化的神经网络算法不仅解决了梯度消失和爆炸问题,还提供了更好的优化效果。
4、自适应学习:多核心自适应神经网络能够根据训练数据自动调整其结构,使其更好地匹配输入数据,提高了模型的精度和泛化能力。
5、实时的物联网解锁识别:训练好的模型能够实时识别是否为具有权限的用户,确保了物联网设备的安全和便捷性。
以上实施例仅用以说明本发明的技术方案,而非对其限制。
Claims (5)
1.基于多模态计算机视觉与生物识别物联网解锁方法,其特征在于,包括:
采集人脸、指纹和语音数据,并标注这些数据;
对采集的数据进行样本扩充;
对采集的数据进行预处理;
对预处理后的数据提取数据特征;
使用特征提取后的数据训练分类器;
使用训练好的模型执行解锁,当识别出权限用户后触发解锁,否则保持锁定;
样本扩充的方法为:
(1)初始化,选择合适的稀疏自表达层的参数,以及介质场正则化的强度,同时初始化字典矩阵Dface和生成器、鉴别器的权重,表示为:
其中,和/>分别表示生成器和鉴别器的初始化权重;
(2)稀疏化,使用L1正则化方法,捕获数据中的关键特征并忽略噪音或不相关的特征,表示为:
Xface≈Dfaceαface
其中,Dface是字典矩阵,αface是稀疏系数矩阵;
最小化以下损失函数找到最优的αface:
对Lsparse进行微分,得到:
其中,sign(αface)是元素级的符号函数;
期望αface的L1范数尽可能小,即:
且限制于
其中,表示Frobenius范数,∈是一个小的常数表示允许的误差;
(3)自表达性学习,表示为:
xface,i=Xfaceβi
其中,βi是系数向量,期望βi的L2范数尽可能小,但第i项设置为0,即βi,i=0;
需最小化以下损失函数学习每一个数据点xface,i的系数βi:
对Lself,i进行微分,得到:
得到总的损失函数为:
(4)生成器训练,结合稀疏自表达层,生成新的数据实例;
(5)鉴别器训练,让鉴别器D尽可能区分真实数据和生成的数据,因此损失函数为:
LD=-E[logD(Xreal;WD)]-E[log(1-D(G(z;WG);WD))]
其中,Xreal是真实数据,G()是生成器生成的数据,z是随机噪声,E[]表示期望函数;
对LD进行微分,得到鉴别器的梯度更新公式;
将生成器G与鉴别器D结合起来,损失函数为:
LGAN=E[logD(Xreal)]+LD]
给定一个随机噪声z,通过以下方式使用生成器G生成新的人脸图像:
基于稀疏自表达的生成对抗网络的目标函数为:
L=LGAN+λa1Lsparse+λa2Lself
其中,λa1和λa2是平衡参数,由人为预设;
(6)迭代优化,重复上述步骤,利用随机梯度下降来迭代更新上述步骤中的所有参数,直到即损失函数的收敛或达到预设的迭代次数。
2.根据权利要求1所述的基于多模态计算机视觉与生物识别物联网解锁方法,其特征在于,人脸数据为Ma×Na×Ca的图像矩阵,其中M和N代表图像的高和宽,Ca代表图像的通道数;指纹数据为P×Q×Cb的图像矩阵,其中P和Q代表图像的高和宽,Cb为1的灰度图;语音数据为长度为Lc的一维数组。
3.根据权利要求1所述的基于多模态计算机视觉与生物识别物联网解锁方法,其特征在于,对采集的数据进行预处理的方法为:
对于人脸图像和指纹图像预处理,定义量子位灰度转换函数为:
其中,nk和mk分别为图像的长和宽,Q(x,y)为量子位灰度后的图像像素点值,I(xi,yj)为原图像在点(xi,yj)的像素值,Qw(i,j)为量子权重矩阵,与像素位置有关的权重值,为量子叠加操作;
使用生物谱解析公式对灰度图像进行处理:
B(x,y)=∫Q(x,y)·e-λf(x,y)dxdy
其中,B(x,y)为生物谱解析后的图像,λ为生物谱系数,由人为预设,f(x,y)为生物谱解析函数,具体为关于x和y的二元函数;
对于语音序列数据预处理,通过以下公式将语音序列数据映射到一个新的频率空间:
其中,S(f)为新的频率空间中的语音数据,s(t)为原始时间序列中时间点t的数据,Nk为语音序列的总时间点数量,f为新的频率变量,i为虚数单位;
在所有的预处理步骤完成后,将预处理后的数据转换为向量格式,可以表示为:
其中,为最终的数据向量,B(xi,yi)为生物谱解析后的图像数据,S(fj)为声学频率映射后的语音数据。
4.根据权利要求1所述的基于多模态计算机视觉与生物识别物联网解锁方法,其特征在于,对预处理后的数据提取数据特征的方法为:
采用三层前馈神经网络结构如下:
输入层:根据输入数据向量的维度决定输入层神经元的数量;
隐藏层:隐藏层包括第一隐藏层和第二隐藏层,第一隐藏层的神经元数量为150,激活函数为ReLU;第二隐藏层的神经元数量为50,激活函数为ReLU;
输出层:具有与标注数据的类别数量相同的神经元,激活函数为Softmax;
神经网络训练时,参数优化的步骤如下:
(1)初始化,随机选择网络的参数,并设置一个随机初始脉冲相位θ,表示为:
wi~U(-∈,∈)
bi~U(-∈,∈)
fi~U(fmin,fmax)
θi~U(0,2π)
其中,U(a,b)表示在[a,b]之间的均匀分布,wi为第i个神经网络权重,bi为第i个神经网络偏置,fi为与第i个参数关联的频率,θi为第i个参数的初始脉冲相位,∈为初始权重和偏置的小随机值范围,fmin和fmax为脉冲频率的最小值和最大值;
(2)计算误差,根据当前的权重w和偏置b,前向传播得到网络输出,然后计算误差E,误差E定义为网络输出O与目标输出T之间的差异,表示为:
其中,E为网络的误差,是目标输出和实际输出之间的差值的平方的一半之和,Ok为神经网络的第k个输出,Tk为第k个目标输出;
(3)同步更新,对每个权重和偏置,计算与误差E相关的相位偏移Δθ,每个参数的相位偏移Δθi定义为:
其中,αk是同步更新的学习率,Δθi为第i个参数的相位偏移;
如果误差增大,Δθ会使参数的脉冲相位与全局相位偏离,从而减小参数的影响;
如果误差减小,Δθ将尝试同步参数的脉冲相位,从而增强参数的影响;
(4)脉冲生成,根据每个参数的频率f和相位θ,生成一个时间窗内的脉冲序列,对于每个参数,生成一个脉冲序列Pi(t)表示为:
Pi(t)=sin(2πfit+θi+Δθi);
(5)脉冲集成,将所有参数的脉冲序列合并,得到一个综合的脉冲响应,综合的脉冲响应Ptotal(t)是所有参数脉冲的加权平均,表示为:
其中,kN是神经网络的参数的数量,Pi(t)为第i个参数在时间t的脉冲序列;
(6)自适应性调整,根据综合的脉冲响应和预期的输出,调整每个参数的频率f:
Δfi=kβ(Ptotal(t)-Pi(t))
fi=fi+Δfi
其中,Ptotal(t)为在时间t的综合脉冲响应,kβ为频率调整系数,Δfi为第i个参数的频率调整;
如果某个参数的脉冲与整体脉冲相位不同步,该参数的频率会适当增加,使其更快地同步;
如果某个参数的脉冲与整体脉冲相位同步,该参数的频率会适当减少,使其保持同步;
(7)更新参数,根据每个参数的脉冲响应和自适应性调整后的频率,更新权重w和偏置b,参数更新的公式为:
wi(t+1)=wi(t)+kγ·Ptotal(t)
bi(t+1)=bi(t)+kγ·Ptotal(t)
其中,kγ为参数更新的学习率;
所述参数更新的学习率kγ与频率相依系数相关,对于权重矩阵W中的每一个权重wi,记录其在连续kT个时间步的变化,构建时间序列Xi(t),其中t从1到kT,表示为:
Xi(t)=wi(t)-wi(t-1)
对于每一个时间序列Xi(t),进行傅里叶变换,得到频率分布Fi(f),傅里叶变换的基本公式为:
计算每一个权重频率分布的能量,并将其标准化:
Ei(f)=|Fi(f)|2
其中,fmax是考虑的最大频率;
定义频率相依系数FDCi为:
其中,fmid是一个中间频率值;
如果FDCi接近1,则说明权重wi主要存在低频变化,如果FDCi接近0,则说明权重wi主要存在高频变化;
(8)脉冲抵消,对于每一对参数wi和wj,计算它们的脉冲差异Dij:
其中,Dij为第i和j个参数之间的脉冲差异;
基于差异Dij,对参数进行抵消:
wi(t+1)=wi(t)-mλ·Dij·wj(t)
wj(t+1)=wj(t)-mλ·Dij·wi(t)
其中,mλ是抵消系数,为预设值;
(9)适应度函数评估,设mE是网络误差,S是参数稀疏性度量,C是计算复杂度度量,适应度函数表示为:
其中,ω1,ω2,ω3是权重系数,κ是一个正常数,是误差的逆函数,当误差mE较小时,其值趋近于1,e-κS表示鼓励网络参数的稀疏性,当参数越稀疏值越高,log(C+1)是计算复杂度的度量,当网络有更多非零参数时,计算复杂度增加;
网络误差mE是衡量网络输出与目标输出之间差异的标准,如果有mN个输出值,每个目标输出为Tk,网络输出为Ok,则网络误差mE定义为:
参数稀疏性度量S使用L1范数进行度量,L1范数是权重矩阵所有元素的绝对值之和,设权重矩阵为W且有pM个权重,则L1范数定义为:
设权重矩阵为W,则复杂度度量C的计算方式为:
其中,I()是指示函数:如果wi不为零,则I(wi≠0)=1,否则为零;
(10)迭代,重复步骤(2)~(9),直到达到预设的迭代次数或适应度函数值达到预设的数值。
5.根据权利要求1所述的基于多模态计算机视觉与生物识别物联网解锁方法,其特征在于,训练分类器的方法为:
设特征提取后的单个样本为特征向量v,训练步骤如下:
(1)初始化,随机初始化所有权重wki;
(2)前向传播,计算每个神经元的核心能量Ek,每个神经元的核心能量Ek的计算方法为:
其中,wki为神经元与核心之间的连接权重,vi为特征向量的第i个元素,n为特征向量的长度,Ek为第k个神经元的核心能量,wki为第k个神经元与其核心之间的连接权重,n为特征向量的长度;
使用sigmoid函数计算神经元的输出ok,神经元的输出ok由sigmoid函数计算,表示为:
(3)损失计算,根据给定的目标输出yk和神经元的实际输出ok计算损失mL,损失函数mL表示为:
其中,yk是目标输出,m是输出神经元的数量,ok为神经元的输出,mL为损失函数;
(4)反向传播,计算反向传播的学习率nαk,反向传播的学习率nαk由以下公式计算:
其中,nα0是初始学习率,nβ是预设的常数值;
根据误差和学习率更新权重Δwki,权重的更新Δwki表示为:
Δwki=nαk×(yk-ok)×ok×(1-ok)×vi
通过量子连接对权重进行进一步调整ΔQki,权重的量子调整ΔQki表示为:
ΔQki=nγ×sin(θki)
其中,nγ是一个控制量子连接的影响大小的常数,θki是权重wki的量子相位;
更新权重权重/>的更新方式表示为:
(5)核心迁移,设Ek,0是神经元k的初始核心能量,是在第t次迭代后的神经元k的核心能量,设pλ是迁移率,取值在0到1之间,则迁移规则为:
当pλ=1时,核心不会迁移,而当pλ=0时,核心会完全返回其初始位置;
(6)核心融合与分裂,计算每对神经元之间的相关性Rkl,当两个神经元k和l的相关性Rkl超过阈值pT时,进行融合,相关性Rkl的计算方式表示为:
其中,Rkl为神经元k和l之间的相关性,pn为神经元的数量,T为阈值,用于判断是否应该融合两个神经元;
如果Rkl>pT,那么神经元k和l融合为一个新的神经元;
如果相关性超过阈值pT,则合并相应的神经元;
(7)重复,重复(2)~(6),直到达到预定的迭代次数或损失小于某个阈值。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311343740.0A CN117292466B (zh) | 2023-10-17 | 2023-10-17 | 基于多模态计算机视觉与生物识别物联网解锁方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311343740.0A CN117292466B (zh) | 2023-10-17 | 2023-10-17 | 基于多模态计算机视觉与生物识别物联网解锁方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN117292466A CN117292466A (zh) | 2023-12-26 |
CN117292466B true CN117292466B (zh) | 2024-05-17 |
Family
ID=89240767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311343740.0A Active CN117292466B (zh) | 2023-10-17 | 2023-10-17 | 基于多模态计算机视觉与生物识别物联网解锁方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117292466B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006066376A2 (en) * | 2004-12-20 | 2006-06-29 | Genius - Instituto De Tecnologia | Authentication system based on multimodal biometrics |
CN110507335A (zh) * | 2019-08-23 | 2019-11-29 | 山东大学 | 基于多模态信息的服刑人员心理健康状态评估方法及系统 |
CN111599044A (zh) * | 2020-05-14 | 2020-08-28 | 哈尔滨学院 | 一种基于多模态生物特征识别的门禁安全管理系统 |
CN112837274A (zh) * | 2021-01-13 | 2021-05-25 | 南京工业大学 | 一种基于多模态多站点数据融合的分类识别方法 |
WO2021114412A1 (zh) * | 2019-12-12 | 2021-06-17 | 创斯达科技集团(中国)有限责任公司 | 锁控系统模块间的动态加密解密方法、多重认证锁控系统、锁控方法及保险柜 |
CN114627531A (zh) * | 2022-03-02 | 2022-06-14 | 常州大学 | 一种基于人脸重构和Gabor遮挡字典的人脸识别方法 |
CN115359576A (zh) * | 2022-07-29 | 2022-11-18 | 华南师范大学 | 一种多模态情绪识别方法、装置、电子设备及存储介质 |
CN115995121A (zh) * | 2022-11-02 | 2023-04-21 | 吉林大学 | 一种基于attention模块的多模态的生物识别方法 |
CN219626062U (zh) * | 2023-03-29 | 2023-09-01 | 安徽欣瓒光电科技有限公司 | 一种声音面部指纹三重识别联网锁具 |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2017075294A1 (en) * | 2015-10-28 | 2017-05-04 | The Board Institute Inc. | Assays for massively combinatorial perturbation profiling and cellular circuit reconstruction |
US11468262B2 (en) * | 2017-10-30 | 2022-10-11 | Nec Corporation | Deep network embedding with adversarial regularization |
US11087115B2 (en) * | 2019-01-22 | 2021-08-10 | Infineon Technologies Ag | User authentication using mm-Wave sensor for automotive radar systems |
JP7276590B2 (ja) * | 2020-02-18 | 2023-05-18 | 日本電気株式会社 | ゲート装置、ゲート装置の制御方法及びプログラム |
CN215006766U (zh) * | 2021-06-15 | 2021-12-03 | 扬州航盛科技有限公司 | 一种基于多重生物识别技术门禁和点火系统 |
-
2023
- 2023-10-17 CN CN202311343740.0A patent/CN117292466B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2006066376A2 (en) * | 2004-12-20 | 2006-06-29 | Genius - Instituto De Tecnologia | Authentication system based on multimodal biometrics |
CN110507335A (zh) * | 2019-08-23 | 2019-11-29 | 山东大学 | 基于多模态信息的服刑人员心理健康状态评估方法及系统 |
WO2021114412A1 (zh) * | 2019-12-12 | 2021-06-17 | 创斯达科技集团(中国)有限责任公司 | 锁控系统模块间的动态加密解密方法、多重认证锁控系统、锁控方法及保险柜 |
CN111599044A (zh) * | 2020-05-14 | 2020-08-28 | 哈尔滨学院 | 一种基于多模态生物特征识别的门禁安全管理系统 |
CN112837274A (zh) * | 2021-01-13 | 2021-05-25 | 南京工业大学 | 一种基于多模态多站点数据融合的分类识别方法 |
CN114627531A (zh) * | 2022-03-02 | 2022-06-14 | 常州大学 | 一种基于人脸重构和Gabor遮挡字典的人脸识别方法 |
CN115359576A (zh) * | 2022-07-29 | 2022-11-18 | 华南师范大学 | 一种多模态情绪识别方法、装置、电子设备及存储介质 |
CN115995121A (zh) * | 2022-11-02 | 2023-04-21 | 吉林大学 | 一种基于attention模块的多模态的生物识别方法 |
CN219626062U (zh) * | 2023-03-29 | 2023-09-01 | 安徽欣瓒光电科技有限公司 | 一种声音面部指纹三重识别联网锁具 |
Non-Patent Citations (1)
Title |
---|
稀疏子空间聚类算法研究;黄佳雯;王丽娟;王利伟;;现代计算机;20200605(16);全文 * |
Also Published As
Publication number | Publication date |
---|---|
CN117292466A (zh) | 2023-12-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108647583B (zh) | 一种基于多目标学习的人脸识别算法训练方法 | |
CN111753881B (zh) | 一种基于概念敏感性量化识别对抗攻击的防御方法 | |
CN110084610B (zh) | 一种基于孪生神经网络的网络交易欺诈检测系统 | |
CN109190544B (zh) | 一种基于序列深度图像的人体身份识别方法 | |
CN108564040B (zh) | 一种基于深度卷积特征的指纹活性检测方法 | |
Kryszczuk et al. | Reliability-based decision fusion in multimodal biometric verification systems | |
CN111881722B (zh) | 一种跨年龄人脸识别方法、系统、装置及存储介质 | |
CN114842267A (zh) | 基于标签噪声域自适应的图像分类方法及系统 | |
CN113312989B (zh) | 一种基于聚合描述子与注意力的指静脉特征提取网络 | |
KR20230169104A (ko) | 기계 학습 및 등록 데이터를 사용한 개인화된 생체인식 안티-스푸핑 보호 | |
CN115552481A (zh) | 用于微调图像分类神经网络的系统和方法 | |
Lakshmi et al. | Off-line signature verification using Neural Networks | |
CN114511901B (zh) | 一种年龄分类辅助的跨年龄人脸识别算法 | |
CN111222583A (zh) | 一种基于对抗训练与关键路径提取的图像隐写分析方法 | |
Zeb et al. | Low resolution single neural network based face recognition | |
CN117292466B (zh) | 基于多模态计算机视觉与生物识别物联网解锁方法 | |
CN110992522A (zh) | 室内外通用人脸识别新算法安防系统 | |
Mei et al. | Finger vein recognition algorithm based on improved weighted sparse representation | |
CN113851149A (zh) | 一种基于对抗迁移和Frobenius范数的跨库语音情感识别方法 | |
CN114332986A (zh) | 一种基于子空间学习的小样本人脸识别方法 | |
Omotosho et al. | An enhanced multimodal biometric system based on convolutional neural network | |
CN117688365B (zh) | 多模态生物识别门禁系统 | |
Parvathi et al. | An exhaustive multi factor face authentication using neuro-fuzzy approach | |
Chugh et al. | Kohonen Networks for Offline Signature Verification | |
Zhang | Behavioral biometrics dentification based on machine learning methods |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |