CN117593783A - 基于自适应smote的视觉训练方案生成方法及装置 - Google Patents

基于自适应smote的视觉训练方案生成方法及装置 Download PDF

Info

Publication number
CN117593783A
CN117593783A CN202311550810.XA CN202311550810A CN117593783A CN 117593783 A CN117593783 A CN 117593783A CN 202311550810 A CN202311550810 A CN 202311550810A CN 117593783 A CN117593783 A CN 117593783A
Authority
CN
China
Prior art keywords
user
sample
trained
smote
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN202311550810.XA
Other languages
English (en)
Other versions
CN117593783B (zh
Inventor
吴栩平
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Guangzhou Shijing Medical Software Co ltd
Original Assignee
Guangzhou Shijing Medical Software Co ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Guangzhou Shijing Medical Software Co ltd filed Critical Guangzhou Shijing Medical Software Co ltd
Priority to CN202311550810.XA priority Critical patent/CN117593783B/zh
Publication of CN117593783A publication Critical patent/CN117593783A/zh
Application granted granted Critical
Publication of CN117593783B publication Critical patent/CN117593783B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • G06V10/765Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects using rules for classification or partitioning the feature space
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02DCLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
    • Y02D10/00Energy efficient computing, e.g. low power processors, power management or thermal management

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Ophthalmology & Optometry (AREA)
  • Image Analysis (AREA)

Abstract

本发明提供了一种基于自适应SMOTE的视觉训练方案生成方法及装置,方法包括:获取待训练用户的用户数据;将用户数据输入训练好的特征提取网络,获得眼部数据特征;通过分类器确定所述待训练用户对应的类别;通过预设的生成函数,生成待训练用户的视觉训练方案;其中特征提取网络基于用户样本训练得到;用户样本包括原始样本以及基于原始样本通过SMOTE算法生成的扩充样本;SMOTE算法引入自适应噪声参数和样本属性的重要性权重。实施本申请,基于原始样本生成扩充样本,可以解决现有的神经网络模型对数据集需求量大、依赖性高的问题,在确保数据集数量的情况下还可以有效提高数据的质量。

Description

基于自适应SMOTE的视觉训练方案生成方法及装置
技术领域
本发明涉及视觉训练方案生成领域,尤其涉及一种基于自适应SMOTE的视觉训练方案生成方法、装置、终端设备及计算机可读存储介质。
背景技术
传统视觉训练方法主观且无法针对个体优化。机器学习和大数据技术为视觉训练带来新可能。通过分析眼部检测数据,发现潜在规律,为视觉异常者提供个性化、高效的视觉训练方案。这一领域正成为研究热点,有望提高视觉异常者生活质量。
目前,现有技术视觉训练方案的生成方法主要包括:根据用户的眼部信息,判断用户的视功能情况,进而根据用户的视功能情况,利用神经网络模型,生成或者选择用户的视觉训练方案。现有技术依赖神经网络模型的方式,需要使用大量的数据样本或者数据集对该模型进行训练,因此对数据集的数量具有较高的依赖性,在使用数据量较大时,会存在数据质量差的问题。
发明内容
本发明提供了一种基于自适应SMOTE的视觉训练方案生成方法、装置、终端设备及计算机可读存储介质,以解决现有的神经网络模型对数据集需求量大、依赖性高的技术问题。
为了解决上述技术问题,本发明实施例提供了一种基于自适应SMOTE的视觉训练方案生成方法,包括:
获取待训练用户的用户数据;其中,所述用户数据包括若干用户属性;
将所述用户数据输入训练好的特征提取网络,获得眼部数据特征;
将所述眼部数据特征输入训练好的分类器,确定所述待训练用户对应的类别;基于所述待训练用户对应的类别,通过预设的生成函数,生成所述待训练用户的视觉训练方案;
其中,所述特征提取网络基于用户样本训练得到;所述用户样本包括原始样本以及基于所述原始样本通过SMOTE算法生成的扩充样本,每个用户样本包括若干样本属性;所述SMOTE算法引入自适应噪声参数和样本属性的重要性权重。
作为优选方案,所述扩充样本的获得方法包括:
根据下式对所述原始样本进行扩充:
xnew,f=xi,f+λ×wf×α×(xnn,f―xi,f);
其中,xnew为所述扩充样本,α为随机数,λ为自适应噪声参数,xnew,f为扩充样本在属性f上的值,xi,f为原始样本i在属性f上的值,xnn,f为所述原始样本最近邻样本在属性f上的值,wf为属性f的权重;
其中,所述属性f的权重具体为:
其中,If为属性f的重要性,F为属性的总数。
作为优选方案,所述自适应噪声参数的计算公式为:
其中,N是样本总数,是样本的均值,||.||表示欧几里得距离。
作为优选方案,所述属性的重要性的计算公式为:
其中,为属性f的平均值。
作为优选方案,所述特征提取网络的损失函数为:
其中,y为所述特征提取网络的目标输出,为所述特征提取网络的实际输出,t是当前训练迭代轮数,αL为余弦波的振幅系数,βL为正弦波的振幅系数,ω为所述余弦波的频率,φ为所述正弦波的频率,w为所述特征提取网络的权重,b为特征提取网络的偏置;
所述特征提取网络根据下式进行训练:
wk+1=wk+Δw;
bk+1=bk+Δb;
其中,Δt是时间步长,κ为弹性常数,v为波动速度,κ0为初始弹性常数,κ0为初始波动速度,βz和γz是调整因子,k为所述特征提取网络的第k个参数点。
作为优选方案,所述分类器的训练方法包括:
对预设的脉冲神经网络进行训练;
通过量子哈密顿量对所述脉冲神经网络进行优化;
其中,所述脉冲神经网络的膜电位更新方程为:
V(t+1)=λV(t)+∑kWk·Xk(t);
所述量子哈密顿量的计算公式为:
其中,Rk为所述脉冲神经网络第k个神经元的平均发放率,β和γ是超参数,Xkj为所述脉冲神经网络第k个神经元和第j个神经元交互期间脉冲X的平均值,V(t)为时刻t的膜电位,λ为膜电位衰减因子,Wk是第k个输入神经元到输出神经元的权重,Xk(t)为第k个输入神经元在时刻t的脉冲。
作为优选方案,所述视觉训练方案生成方法还包括:
通过预设的第一目标函数,评估所述视觉训练方案的有效性;
基于所述待训练用户对应的类别,通过预设的第二目标函数对所述视觉训练方案进行调整;
通过多模态数据对所述生成函数进行调整。
相应的,本发明实施例还提供了一种基于自适应SMOTE的视觉训练方案生成装置,包括数据获取模块、特征获取模块和生成模块;其中,
所述数据获取模块,用于获取待训练用户的用户数据;其中,所述用户数据包括若干用户属性;
所述特征获取模块,用于将所述用户数据输入训练好的特征提取网络,获得眼部数据特征;
所述生成模块,用于将所述眼部数据特征输入训练好的分类器,确定所述待训练用户对应的类别;基于所述待训练用户对应的类别,通过预设的生成函数,生成所述待训练用户的视觉训练方案;
其中,所述特征提取网络基于用户样本训练得到;所述用户样本包括原始样本以及基于所述原始样本通过SMOTE算法生成的扩充样本,每个用户样本包括若干样本属性;所述SMOTE算法引入自适应噪声参数和样本属性的重要性权重。
相应的,本发明实施例还提供了一种终端设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现所述的基于自适应SMOTE的视觉训练方案生成方法。
相应的,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行所述的基于自适应SMOTE的视觉训练方案生成方法。
相比于现有技术,本发明实施例具有如下有益效果:
本发明实施例提供了一种基于自适应SMOTE的视觉训练方案生成方法、装置、终端设备及计算机可读存储介质,所述视觉训练方案生成方法包括:获取待训练用户的用户数据;其中,所述用户数据包括若干用户属性;将所述用户数据输入训练好的特征提取网络,获得眼部数据特征;将所述眼部数据特征输入训练好的分类器,确定所述待训练用户对应的类别;基于所述待训练用户对应的类别,通过预设的生成函数,生成所述待训练用户的视觉训练方案;其中,所述特征提取网络基于用户样本训练得到;所述用户样本包括原始样本以及基于所述原始样本通过SMOTE算法生成的扩充样本,每个用户样本包括若干样本属性;所述SMOTE算法引入自适应噪声参数和样本属性的重要性权重。实施本申请实施例,对特征网络进行训练时,通过SMOTE算法基于原始样本生成扩充样本,可以解决现有的神经网络模型对数据集需求量大、依赖性高的问题,同时在一定程度上,在确保数据集数量的情况下提高了数据的质量,从而确保了生成的视觉训练方案的质量以及针对性。
附图说明
图1:为本发明基于自适应SMOTE提供的视觉训练方案生成方法的一种实施例的流程示意图。
图2:为本发明提供的特征提取网络的一种实施例的结构示意图。
图3:为本发明基于自适应SMOTE提供的视觉训练方案生成装置的一种实施例的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
实施例一
请参照图1,图1为本发明实施例提供的一种基于自适应SMOTE的视觉训练方案生成方法,包括步骤S1至步骤S3;其中,
步骤S1,获取待训练用户的用户数据;其中,所述用户数据包括若干用户属性。
步骤S2,将所述用户数据输入训练好的特征提取网络,获得眼部数据特征。
步骤S3,将所述眼部数据特征输入训练好的分类器,确定所述待训练用户对应的类别;基于所述待训练用户对应的类别,通过预设的生成函数,生成所述待训练用户的视觉训练方案;其中,所述特征提取网络基于用户样本训练得到;所述用户样本包括原始样本以及基于所述原始样本通过SMOTE算法生成的扩充样本,每个用户样本包括若干样本属性;所述SMOTE算法引入自适应噪声参数和样本属性的重要性权重。
在本实施例中,步骤S1所获取的用户属性包括年龄(a,continuous)、性别(g,categorical)、矫正视力数值(v,continuous)、弱视性质(r,continuous)、注视性质(gaze,continuous)、同时视(sf,continuous)、融合视(cs,continuous)、立体视(ep,continuous)、眼球震颤(ds,continuous)以及视觉训练时间(ef,continuous)。
数据来源于视力检测仪器,这些仪器可以提供关于个体视力状态的多维度数据。数据格式为CSV。
在本实施例中,所述扩充样本通过所述原始样本进行扩充处理获得,具体的扩充方法包括:
根据下式对所述原始样本进行扩充:
xnew,f=xi,f+λ×wf×α×(xnn,f―xi,f);
其中,xnew为所述扩充样本,α为随机数,λ为自适应噪声参数,xnew,f为扩充样本在属性f上的值,xi,f为原始样本i在属性f上的值,xnn,f为所述原始样本最近邻样本在属性f上的值,wf为属性f的权重;
其中,所述属性f的权重具体为:
其中,If为属性f的重要性,F为属性的总数。
对于现有的传统的SMOTE算法来说,其合成新样本xnew的方式如下:
xnew=xi+α×(xnn―xi)
其中,α是一个随机数在[0,1]范围内。
而本实施例区别主要在于先计算自适应噪声参数λ:
其中,N是样本总数,是样本的均值,||.||表示欧几里得距离。
然后为了提高数据扩充的准确性,引入针对属性的重要性的计算公式为:
其中,为属性f的平均值。实施本申请实施例,在视力相关的数据中,不同的用户属性(如年龄、矫正视力等)可能对视觉训练方案的有效性有不同的影响。通过引入属性的重要性权重wf,可以更准确地合成与原始样本具有相似属性的新样本同时保证样本数据的质量。
进一步地,在对原始样本进行扩充后,需要对各用户样本进行特征提取。传统的神经网络在训练过程中通常采用梯度下降优化算法,在特征提取时,梯度下降优化算法容易陷入局部最优,导致特征提取效果差。本实施例基于弹性波动原理进行特征提取网络的参数优化。
具体地,本实施例采用的特征提取网络包括3个隐藏层,其是基于预设的Softmax训练得到的,请参照图2。对于第lth个隐藏层,该层的权重和偏置分别表示为W(l)和b(l)。进一步地,特征提取网络的参数空间为其中第k个参数点Pk可以由一组权重wk和一组偏置bk定义,则可以表示为:
Pk=(wk,bk);
其中,N是参数空间中点(指网络中的参数组合)的数量。
优选地,所述特征提取网络的损失函数为:
其中,y为所述特征提取网络的目标输出,为所述特征提取网络的实际输出,t是当前训练迭代轮数,αL为余弦波的振幅系数(可以预先进行设置),βL为正弦波的振幅系数(可以预先进行设置),ω为所述余弦波的频率(可以预先进行设置),φ为所述正弦波的频率(可以预先进行设置),w为所述特征提取网络的权重,b为特征提取网络的偏置。实施本申请实施例,采用波动损失函数相比于传统的交叉熵损失函数,在弹性波动优化算法中代替常规损失函数时,网络将在训练过程中经历不同的“压力”和“拉力”状态,有助于网络更有效地探索参数空间,避免局部最优解。
优选地,本申请还引入弹性常数κ和波动速度v,与网络的权重w和偏置b相关联。并通过下式,对所述特征提取网络进行训练:
wk+1=wk+Δw;
bk+1=bk+Δb;
其中,Δt是时间步长,κ为弹性常数,v为波动速度,κ0为初始弹性常数,κ0为初始波动速度,βz和γz是调整因子,k为所述特征提取网络的第k个参数点。
对所述特征提取网络的训练过程整体如下:
1、初始化w,b,κ,和v,设定时间步长Δt。
2、计算初始损失函数L(w,b)。
3、对于每一次迭代:
3.1、使用弹性波动更新规则更新w和b,对于第lth层的权重W(l)和偏置b(l),使用以下弹性波动更新规则:
3.2、应用震荡调整机制更新κ和v,对于每一层l应用震荡调整机制的更新可以表示为:
其中,和/>是第lth层的初始弹性常数和波动速度。
3.3、重新计算损失函数L(w,b)。
4、重复迭代3.1到3.3,直至训练达到收敛,算法终止。所述收敛的判断方式为损失值的变化ΔL在预设次数迭代时不再变化,即达到收敛。所述损失值的变化ΔL的计算依据为:在迭代过程中,考虑算法在任意迭代k和k+1之间的状态转换。损失函数L()的变化量ΔL可表示为:
ΔL=L(wk+1,bk+1)―L(wk,bk);
根据弹性波动更新规则和泰勒级数展开有:
将更新规则代入上述方程,得:
因为ΔL是负的或零,算法将保证损失函数L(w,b)下降或保持不变。
算法终止后,即表示该特征提取神经网络模型训练完成。
作为一种优选实施方式,对于原始数据,其数据来源于视力检测仪器,这些仪器可以提供关于个体视力状态的多维度数据。数据格式设定为CSV,每行代表一个样本,各个字段用分号分隔。
与待测用户的用户数据相同,在数据采集过程中,每个样本包含不少于10个样本属性,具体包括:
矫正视力:浮点数,单位未定;左右眼用英文逗号隔开;
弱视性质:分类,1代表屈光不正性弱视,2代表屈光参差性弱视,3代表斜视性弱视,4代表形觉剥夺性弱视;左右眼用英文逗号隔开;
注视性质:分类,1代表中心注视,2代表旁中心注视,3代表黄斑注视,4代表周边注视;左右眼用英文逗号隔开;
年龄:整数,单位years;
性别:分类,Male或Female;
同时视:分类,1差,2中,3好;
融合视:分类,1差,2中,3好;
立体视:分类,1差,2中,3好;
眼球震颤:分类,1是0否;左右眼用英文逗号隔开;
视觉训练时间:整数,单位seconds;
每个样本有一个标签,标签为“需要改善”或“不需要改善”。
在一个具体的实施例中,一个样本如下:
0.15,0.4;1,1;1,1;6;Male;3;1;1;0,0;162000;需要改善;
对于一个具体样本s,其可以表示为一个特征向量和一个标签:
s=(f1,f2,f3,...,f10,y);
其中,f1,f2,...,f10分别对应上述的10个属性,y是样本的标签。
然后,对采集得到的数据集进行预处理。
设X是n×m的数据矩阵,其中n是样本数量,m是属性数量(m=10)。
对数据进行数据预处理,首先进行缺失值处理。对于缺失值,本发明通过使用一个简单的线性回归模型来预测缺失值。设为拥有缺失值的样本索引集合,对于每一个选择最相关的属性Fxj用于预测Fxi
具体的,设y=waFx+ba,其中y是目标属性,wa为线性回归的权重,ba为线性回归的偏置,Fx是选用的最相关属性。求解最优wa和ba通过最小化均方误差E:
求解wa和ba,得到:
利用求得的wa和ba,填充缺失值Fxmiss
进一步地,进行数据标准化。设Fx为一个特性,其标准化x通过以下方式获得:
其中,μ是Fx的平均值,σ是Fx的标准差。
进一步地,进行噪声处理,本发明采用一种基于局部拟合的方法。设f(Fx)是一个通过局部拟合得到的函数,表示属性Fx的局部结构,η是一个噪声项,f(Fx)+η即为去噪后的值:
f(Fx)=wa0+wa1Fx+wa2Fx2+…+wapFxp;其中,p+1为f(Fx)的项数;
通过以下目标函数来估计f(Fx)的参数wa:
经过预处理,得到的数据不仅更加完整,还更适合后续的机器学习任务,从而为生成更精准的视觉训练方案提供数据质量的支撑。
预处理针对整个矩阵,也就是整个数据集,具体为:
X2=Ft(X);
其中,Ft()代表整个预处理过程,X2表示预处理后的数据。
针对预处理后的数据,可以对其进行样本的扩充以及特征提取等步骤。
作为一种优选实施方式,本申请的分类器采用基于量子优化的脉冲神经网络(SNN)算法。
所述分类器的训练方法包括:
对预设的脉冲神经网络进行训练;其中,脉冲神经网络的神经元可以与特征提取网络的神经元一一对应;
通过量子哈密顿量对所述脉冲神经网络进行优化;
其中,所述脉冲神经网络的膜电位更新方程为:
V(t+1)=λV(t)+∑kWk·Xk(t);
所述量子哈密顿量的计算公式为:
其中,Rk为所述脉冲神经网络第k个神经元的平均发放率,β和γ是超参数,Xkj为所述脉冲神经网络第k个神经元和第j个神经元交互期间脉冲X的平均值,V(t)为时刻t的膜电位,λ为膜电位衰减因子,Wk是第k个输入神经元到输出神经元的权重,Xk(t)为第k个输入神经元在时刻t的脉冲。
基于此,本实施例量子优化的步骤包括:
1、初始化量子态|ψ>,通常为全0或全1态。
2、量子演化:通过时间演化算子U(t),演化量子态|ψ>:
U(t)=e―kHt
3、量子测量:测量|ψ>,得到Wnew
4、量子优化的权重更新。
权重更新方程将通过量子优化进行修正:
Wnew=α·Wold+(1―α)·Wnew
其中α是一个介于0和1之间的学习速率。
从而,根据分类结果,生成视觉训练方案,为每个类别Ck定义一个视觉训练方案生成函数Fk(x),其中x是输入特征向量,可以表示为:
Pk=Fk(x);
其中,Pk是针对类别Ck的视觉训练方案。
优选地,所述视觉训练方案生成方法还包括:
通过预设的第一目标函数,评估所述视觉训练方案的有效性;
基于所述待训练用户对应的类别,通过预设的第二目标函数对所述视觉训练方案进行调整;
通过多模态数据对所述生成函数进行调整。
其中,所述第一目标函数为J(Pk1),用于评估生成方案Pk的有效性:
J(Pk1)=αE(Pk)+(1―α)S(Pk);
其中,E(Pk1)是方案Pk1的预期效果,可通过历史数据或模拟来估计。S(Pk1)是方案Pk1的安全性评估。α是权衡两者的超参数。
进一步通过第二目标函数J(Pk2)的值进行自适应调整:
其中,是J(Pk2)关于Pk2的梯度,η是学习率,/>为自适应调整后的值,为自适应调整前的值。
所述多模态数据具体为验光数据,遮盖时间等,可以通过所述多模态数据以增强方案生成函数的准确性:
Pk=k(x,m);
其中,m是多模态数据,Pk为优化后的方案生成函数,Fk()为优化函数。
相应的,参照图3,本发明实施例还提供了一种基于自适应SMOTE的视觉训练方案生成装置,包括数据获取模块101、特征获取模块102和生成模块103;其中,
所述数据获取模块101,用于获取待训练用户的用户数据;其中,所述用户数据包括若干用户属性;
所述特征获取模块102,用于将所述用户数据输入训练好的特征提取网络,获得眼部数据特征;
所述生成模块103,用于将所述眼部数据特征输入训练好的分类器,确定所述待训练用户对应的类别;基于所述待训练用户对应的类别,通过预设的生成函数,生成所述待训练用户的视觉训练方案;
其中,所述特征提取网络基于用户样本训练得到;所述用户样本包括原始样本以及基于所述原始样本通过SMOTE算法生成的扩充样本,每个用户样本包括若干样本属性;所述SMOTE算法引入自适应噪声参数和样本属性的重要性权重。
作为优选方案,所述视觉训练方案生成装置还包括样本扩充模块,所述样本扩充模块用于根据下式对所述原始样本进行扩充:
xnew,f=xi,f+λ×wf×α×(xnn,f―xi,f);
其中,xnew为所述扩充样本,α为随机数,λ为自适应噪声参数,xnew,f为扩充样本在属性f上的值,xi,f为原始样本i在属性f上的值,xnn,f为所述原始样本最近邻样本在属性f上的值,wf为属性f的权重;
其中,所述属性f的权重具体为:
其中,If为属性f的重要性,F为属性的总数。
作为优选方案,所述自适应噪声参数的计算公式为:
其中,N是样本总数,是样本的均值,||.||表示欧几里得距离。
作为优选方案,所述属性的重要性的计算公式为:
其中,为属性f的平均值。
作为优选方案,所述特征提取网络的损失函数为:
其中,y为所述特征提取网络的目标输出,为所述特征提取网络的实际输出,t是当前训练迭代轮数,αL为余弦波的振幅系数,βL为正弦波的振幅系数,ω为所述余弦波的频率,φ为所述正弦波的频率,w为所述特征提取网络的权重,b为特征提取网络的偏置;
所述特征提取网络根据下式进行训练:
wk+1=wk+Δw;
bk+1=bk+Δb;
其中,Δt是时间步长,κ为弹性常数,v为波动速度,κ0为初始弹性常数,κ0为初始波动速度,βz和γz是调整因子,k为所述特征提取网络的第k个参数点。
作为优选方案,所述分类器的训练方法包括:
对预设的脉冲神经网络进行训练;
通过量子哈密顿量对所述脉冲神经网络进行优化;
其中,所述脉冲神经网络的膜电位更新方程为:
V(t+1)=λV(t)+∑kWk·Xk(t);
所述量子哈密顿量的计算公式为:
其中,Rk为所述脉冲神经网络第k个神经元的平均发放率,β和γ是超参数,Xkj为所述脉冲神经网络第k个神经元和第j个神经元交互期间脉冲X的平均值,V(t)为时刻t的膜电位,λ为膜电位衰减因子,Wk是第k个输入神经元到输出神经元的权重,Xk(t)为第k个输入神经元在时刻t的脉冲。
作为优选方案,所述视觉训练方案生成装置还包括调整模块,所述调整模块用于:
通过预设的第一目标函数,评估所述视觉训练方案的有效性;
基于所述待训练用户对应的类别,通过预设的第二目标函数对所述视觉训练方案进行调整;
通过多模态数据对所述生成函数进行调整。
相应的,本发明实施例还提供了一种终端设备,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现所述的基于自适应SMOTE的视觉训练方案生成方法。
所称处理器可以是中央处理单元(Central Processing Unit,CPU),还可以是其他通用处理器、数字信号处理器(Digital Signal Processor,DSP)、专用集成电路(Application Specific Integrated Circuit,ASIC)、现成可编程门阵列(Field-Programmable Gate Array,FPGA)或者其他可编程逻辑器件、分立门或者晶体管逻辑器件、分立硬件组件等。通用处理器可以是微处理器或者该处理器也可以是任何常规的处理器等,所述处理器是所述终端的控制中心,利用各种接口和线路连接整个终端的各个部分。
所述存储器可用于存储所述计算机程序,所述处理器通过运行或执行存储在所述存储器内的计算机程序,以及调用存储在存储器内的数据,实现所述终端的各种功能。所述存储器可主要包括存储程序区和存储数据区,其中,存储程序区可存储操作系统、至少一个功能所需的应用程序(比如声音播放功能、图像播放功能等)等;存储数据区可存储根据手机的使用所创建的数据(比如音频数据、电话本等)等。此外,存储器可以包括高速随机存取存储器,还可以包括非易失性存储器,例如硬盘、内存、插接式硬盘,智能存储卡(SmartMedia Card,SMC),安全数字(Secure Digital,SD)卡,闪存卡(Flash Card)、至少一个磁盘存储器件、闪存器件、或其他易失性固态存储器件。
相应的,本发明实施例还提供了一种计算机可读存储介质,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行所述的基于自适应SMOTE的视觉训练方案生成方法。
其中,所述基于自适应SMOTE的视觉训练方案生成装置集成的模块如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个计算机可读取存储介质中。基于这样的理解,本发明实现上述实施例方法中的全部或部分流程,也可以通过计算机程序来指令相关的硬件来完成,所述的计算机程序可存储于一计算机可读存储介质中,该计算机程序在被处理器执行时,可实现上述各个方法实施例的步骤。其中,所述计算机程序包括计算机程序代码,所述计算机程序代码可以为源代码形式、对象代码形式、可执行文件或某些中间形式等。所述计算机可读介质可以包括:能够携带所述计算机程序代码的任何实体或装置、记录介质、U盘、移动硬盘、磁碟、光盘、计算机存储器、只读存储器(ROM,Read-Only Memory)、随机存取存储器(RAM,Random Access Memory)、电载波信号、电信信号以及软件分发介质等。
相比于现有技术,本发明实施例具有如下有益效果:
本发明实施例提供了一种基于自适应SMOTE的视觉训练方案生成方法、装置、终端设备及计算机可读存储介质,所述视觉训练方案生成方法包括:获取待训练用户的用户数据;其中,所述用户数据包括若干用户属性;将所述用户数据输入训练好的特征提取网络,获得眼部数据特征;将所述眼部数据特征输入训练好的分类器,确定所述待训练用户对应的类别;基于所述待训练用户对应的类别,通过预设的生成函数,生成所述待训练用户的视觉训练方案;其中,所述特征提取网络基于用户样本训练得到;所述用户样本包括原始样本以及基于所述原始样本通过SMOTE算法生成的扩充样本,每个用户样本包括若干样本属性;所述SMOTE算法引入自适应噪声参数和样本属性的重要性权重。实施本申请实施例,对特征网络进行训练时,通过SMOTE算法基于原始样本生成扩充样本,可以解决现有的神经网络模型对数据集需求量大、依赖性高的问题,同时在一定程度上,在确保数据集数量的情况下提高了数据的质量,从而确保了生成的视觉训练方案的质量以及针对性。
以上所述的具体实施例,对本发明的目的、技术方案和有益效果进行了进一步的详细说明,应当理解,以上所述仅为本发明的具体实施例而已,并不用于限定本发明的保护范围。特别指出,对于本领域技术人员来说,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。

Claims (10)

1.一种基于自适应SMOTE的视觉训练方案生成方法,其特征在于,包括:
获取待训练用户的用户数据;其中,所述用户数据包括若干用户属性;
将所述用户数据输入训练好的特征提取网络,获得眼部数据特征;
将所述眼部数据特征输入训练好的分类器,确定所述待训练用户对应的类别;基于所述待训练用户对应的类别,通过预设的生成函数,生成所述待训练用户的视觉训练方案;其中,所述特征提取网络基于用户样本训练得到;所述用户样本包括原始样本以及基于所述原始样本通过SMOTE算法生成的扩充样本,每个用户样本包括若干样本属性;所述SMOTE算法引入自适应噪声参数和样本属性的重要性权重。
2.如权利要求1所述的一种基于自适应SMOTE的视觉训练方案生成方法,其特征在于,所述扩充样本的获得方法包括:
根据下式对所述原始样本进行扩充:
xnew,f=xi,f+λ×wf×α×(xnn,f―xi,f);
其中,xnew为所述扩充样本,α为随机数,λ为自适应噪声参数,xnew,f为扩充样本在属性f上的值,xi,f为原始样本i在属性f上的值,xnn,f为所述原始样本最近邻样本在属性f上的值,wf为属性f的权重;
其中,所述属性f的权重具体为:
其中,If为属性f的重要性,F为属性的总数。
3.如权利要求2所述的一种基于自适应SMOTE的视觉训练方案生成方法,其特征在于,所述自适应噪声参数的计算公式为:
其中,N是样本总数,是样本的均值,||.||表示欧几里得距离。
4.如权利要求3所述的一种基于自适应SMOTE的视觉训练方案生成方法,其特征在于,所述属性的重要性的计算公式为:
其中,为属性f的平均值。
5.如权利要求4所述的一种基于自适应SMOTE的视觉训练方案生成方法,其特征在于,所述特征提取网络的损失函数为:
其中,y为所述特征提取网络的目标输出,为所述特征提取网络的实际输出,t是当前训练迭代轮数,αL为余弦波的振幅系数,βL为正弦波的振幅系数,ω为所述余弦波的频率,φ为所述正弦波的频率,w为所述特征提取网络的权重,b为特征提取网络的偏置;
所述特征提取网络根据下式进行训练:
wk+1=wk+Δw;
bk+1=bk+Δb;
其中,Δt是时间步长,κ为弹性常数,v为波动速度,κ0为初始弹性常数,κ0为初始波动速度,βz和γz是调整因子,k为所述特征提取网络的第k个参数点。
6.如权利要求5所述的一种基于自适应SMOTE的视觉训练方案生成方法,其特征在于,所述分类器的训练方法包括:
对预设的脉冲神经网络进行训练;
通过量子哈密顿量对所述脉冲神经网络进行优化;
其中,所述脉冲神经网络的膜电位更新方程为:
V(t+1)=λV(t)+∑kWk·Xk(t);
所述量子哈密顿量的计算公式为:
其中,Rk为所述脉冲神经网络第k个神经元的平均发放率,β和γ是超参数,Xkj为所述脉冲神经网络第k个神经元和第j个神经元交互期间脉冲X的平均值,V(t)为时刻t的膜电位,λ为膜电位衰减因子,Wk是第k个输入神经元到输出神经元的权重,Xk(t)为第k个输入神经元在时刻t的脉冲。
7.如权利要求6所述的一种基于自适应SMOTE的视觉训练方案生成方法,其特征在于,所述视觉训练方案生成方法还包括:
通过预设的第一目标函数,评估所述视觉训练方案的有效性;
基于所述待训练用户对应的类别,通过预设的第二目标函数对所述视觉训练方案进行调整;
通过多模态数据对所述生成函数进行调整。
8.一种基于自适应SMOTE的视觉训练方案生成装置,其特征在于,包括数据获取模块、特征获取模块和生成模块;其中,
所述数据获取模块,用于获取待训练用户的用户数据;其中,所述用户数据包括若干用户属性;
所述特征获取模块,用于将所述用户数据输入训练好的特征提取网络,获得眼部数据特征;
所述生成模块,用于将所述眼部数据特征输入训练好的分类器,确定所述待训练用户对应的类别;基于所述待训练用户对应的类别,通过预设的生成函数,生成所述待训练用户的视觉训练方案;
其中,所述特征提取网络基于用户样本训练得到;所述用户样本包括原始样本以及基于所述原始样本通过SMOTE算法生成的扩充样本,每个用户样本包括若干样本属性;所述SMOTE算法引入自适应噪声参数和样本属性的重要性权重。
9.一种终端设备,其特征在于,包括处理器、存储器以及存储在所述存储器中且被配置为由所述处理器执行的计算机程序,所述处理器执行所述计算机程序时实现如权利要求1至7中任意一项所述的基于自适应SMOTE的视觉训练方案生成方法。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质包括存储的计算机程序,其中,在所述计算机程序运行时控制所述计算机可读存储介质所在设备执行如权利要求1至7中任意一项所述的基于自适应SMOTE的视觉训练方案生成方法。
CN202311550810.XA 2023-11-20 2023-11-20 基于自适应smote的视觉训练方案生成方法及装置 Active CN117593783B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311550810.XA CN117593783B (zh) 2023-11-20 2023-11-20 基于自适应smote的视觉训练方案生成方法及装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311550810.XA CN117593783B (zh) 2023-11-20 2023-11-20 基于自适应smote的视觉训练方案生成方法及装置

Publications (2)

Publication Number Publication Date
CN117593783A true CN117593783A (zh) 2024-02-23
CN117593783B CN117593783B (zh) 2024-04-05

Family

ID=89921228

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311550810.XA Active CN117593783B (zh) 2023-11-20 2023-11-20 基于自适应smote的视觉训练方案生成方法及装置

Country Status (1)

Country Link
CN (1) CN117593783B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018120128A1 (zh) * 2016-12-30 2018-07-05 中国科学院深圳先进技术研究院 一种膜蛋白残基的作用关系的预测方法和装置
CN112990286A (zh) * 2021-03-08 2021-06-18 中电积至(海南)信息技术有限公司 一种数据不平衡场景下的恶意流量检测方法
CN113457167A (zh) * 2021-06-29 2021-10-01 网易(杭州)网络有限公司 用户分类网络的训练方法、用户分类方法及装置
CN115844696A (zh) * 2023-02-24 2023-03-28 广州视景医疗软件有限公司 一种视觉训练方案的生成方法、装置、终端设备和介质
WO2023044979A1 (zh) * 2021-09-27 2023-03-30 苏州大学 类不平衡数据集下的机械故障智能诊断方法
KR20230102888A (ko) * 2021-12-30 2023-07-07 두나무 주식회사 딥러닝 기반의 부정거래 탐지 방법

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018120128A1 (zh) * 2016-12-30 2018-07-05 中国科学院深圳先进技术研究院 一种膜蛋白残基的作用关系的预测方法和装置
CN112990286A (zh) * 2021-03-08 2021-06-18 中电积至(海南)信息技术有限公司 一种数据不平衡场景下的恶意流量检测方法
CN113457167A (zh) * 2021-06-29 2021-10-01 网易(杭州)网络有限公司 用户分类网络的训练方法、用户分类方法及装置
WO2023044979A1 (zh) * 2021-09-27 2023-03-30 苏州大学 类不平衡数据集下的机械故障智能诊断方法
KR20230102888A (ko) * 2021-12-30 2023-07-07 두나무 주식회사 딥러닝 기반의 부정거래 탐지 방법
CN115844696A (zh) * 2023-02-24 2023-03-28 广州视景医疗软件有限公司 一种视觉训练方案的生成方法、装置、终端设备和介质

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
张阳;张涛;陈锦;王禹;邹琪;: "基于SMOTE和机器学习的网络入侵检测", 北京理工大学学报, no. 12, 15 December 2019 (2019-12-15), pages 51 - 55 *

Also Published As

Publication number Publication date
CN117593783B (zh) 2024-04-05

Similar Documents

Publication Publication Date Title
US11023806B2 (en) Learning apparatus, identifying apparatus, learning and identifying system, and recording medium
Lemhadri et al. Lassonet: Neural networks with feature sparsity
KR100347622B1 (ko) 최적화조정방법및최적화조정장치
CN112766379B (zh) 一种基于深度学习多权重损失函数的数据均衡方法
CN108647583B (zh) 一种基于多目标学习的人脸识别算法训练方法
CN108520213B (zh) 一种基于多尺度深度的人脸美丽预测方法
CN111667490B (zh) 一种眼底图片视杯视盘分割方法
WO2020163277A1 (en) System amd methods for data evaluation through network sensitivity analysis
CN106485227A (zh) 一种基于视频面部表情的客户满意度分析方法
Lin et al. Fairgrape: Fairness-aware gradient pruning method for face attribute classification
CN109165735A (zh) 基于生成对抗网络与自适应比例生成新样本的方法
KR102436359B1 (ko) 의료 정보를 생성하는 방법
Criollo et al. Design and evaluation of a convolutional neural network for banana leaf diseases classification
CN111582450A (zh) 一种基于参数评价的神经网络模型训练方法及相关装置
CN109948589B (zh) 基于量子深度信念网络的人脸表情识别方法
CN116822260B (zh) 一种基于数值转换的眼球仿真方法、电子设备及存储介质
CN117593783B (zh) 基于自适应smote的视觉训练方案生成方法及装置
Huijben et al. Som-cpc: Unsupervised contrastive learning with self-organizing maps for structured representations of high-rate time series
Darapureddy et al. Implementation of optimization algorithms on Wisconsin Breast cancer dataset using deep neural network
Smaida et al. DCGAN for Enhancing Eye Diseases Classification.
CN109934352B (zh) 智能模型的自动进化方法
Qiao et al. SRS-DNN: a deep neural network with strengthening response sparsity
Lu et al. Predicting likability of speakers with Gaussian processes
Joseph et al. Reliable model compression via label-preservation-aware loss functions
Herath et al. Optimize transfer learning for autism spectrum disorder classification with neuroimaging: A comparative study

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant