CN117574059A - 高分辨率脑电信号深度神经网络压缩方法及脑机接口系统 - Google Patents
高分辨率脑电信号深度神经网络压缩方法及脑机接口系统 Download PDFInfo
- Publication number
- CN117574059A CN117574059A CN202311597084.7A CN202311597084A CN117574059A CN 117574059 A CN117574059 A CN 117574059A CN 202311597084 A CN202311597084 A CN 202311597084A CN 117574059 A CN117574059 A CN 117574059A
- Authority
- CN
- China
- Prior art keywords
- model
- electroencephalogram
- brain
- data
- resolution
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 155
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 37
- 238000007906 compression Methods 0.000 title claims abstract description 24
- 230000006835 compression Effects 0.000 title claims abstract description 24
- 210000004556 brain Anatomy 0.000 claims abstract description 69
- 238000012545 processing Methods 0.000 claims abstract description 24
- 238000012549 training Methods 0.000 claims abstract description 24
- 238000003860 storage Methods 0.000 claims abstract description 14
- 238000001914 filtration Methods 0.000 claims abstract description 11
- 238000007781 pre-processing Methods 0.000 claims abstract description 10
- 239000011159 matrix material Substances 0.000 claims description 41
- 230000008569 process Effects 0.000 claims description 23
- 238000004821 distillation Methods 0.000 claims description 17
- 238000013527 convolutional neural network Methods 0.000 claims description 16
- 238000004458 analytical method Methods 0.000 claims description 13
- 230000001537 neural effect Effects 0.000 claims description 13
- 238000013507 mapping Methods 0.000 claims description 12
- 238000005312 nonlinear dynamic Methods 0.000 claims description 12
- 238000012546 transfer Methods 0.000 claims description 12
- 238000005457 optimization Methods 0.000 claims description 11
- 238000005070 sampling Methods 0.000 claims description 11
- 238000012952 Resampling Methods 0.000 claims description 9
- 230000002708 enhancing effect Effects 0.000 claims description 9
- 238000004364 calculation method Methods 0.000 claims description 8
- 238000010276 construction Methods 0.000 claims description 7
- 230000008035 nerve activity Effects 0.000 claims description 7
- 238000012216 screening Methods 0.000 claims description 7
- 230000008859 change Effects 0.000 claims description 6
- 238000005111 flow chemistry technique Methods 0.000 claims description 6
- 238000012880 independent component analysis Methods 0.000 claims description 6
- 238000012544 monitoring process Methods 0.000 claims description 6
- 238000011156 evaluation Methods 0.000 claims description 5
- 230000001965 increasing effect Effects 0.000 claims description 5
- ORILYTVJVMAKLC-UHFFFAOYSA-N Adamantane Natural products C1C(C2)CC3CC1CC2C3 ORILYTVJVMAKLC-UHFFFAOYSA-N 0.000 claims description 4
- 230000005684 electric field Effects 0.000 claims description 4
- 230000002093 peripheral effect Effects 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims description 3
- 230000003183 myoelectrical effect Effects 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 3
- 239000000126 substance Substances 0.000 claims description 3
- 238000009826 distribution Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 15
- 210000003128 head Anatomy 0.000 description 11
- 238000013140 knowledge distillation Methods 0.000 description 11
- 230000000694 effects Effects 0.000 description 9
- 238000011176 pooling Methods 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000009467 reduction Effects 0.000 description 4
- 230000001133 acceleration Effects 0.000 description 3
- 230000003044 adaptive effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 238000000354 decomposition reaction Methods 0.000 description 3
- 238000000605 extraction Methods 0.000 description 3
- 230000003595 spectral effect Effects 0.000 description 3
- 238000012360 testing method Methods 0.000 description 3
- 230000004913 activation Effects 0.000 description 2
- 238000002591 computed tomography Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000002595 magnetic resonance imaging Methods 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 210000003625 skull Anatomy 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- 235000004257 Cordia myxa Nutrition 0.000 description 1
- 244000157795 Cordia myxa Species 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000008033 biological extinction Effects 0.000 description 1
- 230000007177 brain activity Effects 0.000 description 1
- 230000003925 brain function Effects 0.000 description 1
- 210000005013 brain tissue Anatomy 0.000 description 1
- 238000004422 calculation algorithm Methods 0.000 description 1
- 210000001175 cerebrospinal fluid Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 230000001054 cortical effect Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000004880 explosion Methods 0.000 description 1
- 230000004424 eye movement Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 230000005405 multipole Effects 0.000 description 1
- 210000003205 muscle Anatomy 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000013138 pruning Methods 0.000 description 1
- 238000013468 resource allocation Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 210000004761 scalp Anatomy 0.000 description 1
- 238000007619 statistical method Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/10—Pre-processing; Data cleansing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/213—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
- G06F18/2135—Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/096—Transfer learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2203/00—Indexing scheme relating to G06F3/00 - G06F3/048
- G06F2203/01—Indexing scheme relating to G06F3/01
- G06F2203/011—Emotion or mood input determined on the basis of sensed human body parameters such as pulse, heart rate or beat, temperature of skin, facial expressions, iris, voice pitch, brain activity patterns
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computational Linguistics (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Human Computer Interaction (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
Abstract
本发明公开了一种高分辨率脑电信号深度神经网络压缩方法及脑机接口系统,其中方法包括如下步骤:采集预定时空分辨率的脑电信号并预处理,获得脑电信号数据集;所述预处理包括滤波、降采样、去伪迹和数据增强;构建教师模型,并基于脑电信号数据集进行训练,获得优化参数的教师模型;构建学生模型,并采用优化参数后的教师模型训练至少一个学生模型,获得至少一个符合预定标准的学生模型;基于脑电接口系统的存储结构和预期要求,筛选符合要求的学生模型作为高分辨率脑电信号神经网络压缩模型。本发明大大提高了脑电信号处理的效率和准确率,解决了当前脑电信号处理中一直未能解决的问题。
Description
技术领域
本发明涉及人工智能和脑机接口技术,尤其是基于知识蒸馏的高(时空)分辨率脑电信号深度神经网络压缩方法,以及采用这种方法的脑机接口系统。
背景技术
脑电信号(EEG)是一种反映大脑活动的生理信号,具有高时间分辨率和低空间分辨率的特点。脑电信号EEG的分析和处理可以揭示大脑的功能和状态,为神经科学、医学、心理学、教育等领域提供有价值的信息。
近年来,深度神经网络(DNN)作为一种强大的机器学习方法,被广泛应用于脑电信号EEG的分类、回归、生成、编码等任务,取得了显著的效果。然而,深度神经网络DNN的应用也面临着一些挑战,至少包括以下几个方面:首先,深度神经网络DNN的模型规模和计算复杂度往往很大,导致存储和部署的困难,尤其是在资源受限的设备上,如移动端和嵌入式系统。这对于脑电信号EEG的实时处理和应用有着不利的影响,需要对深度神经网络DNN进行有效的压缩和加速。其次,脑电信号EEG的信号质量往往受到噪声、伪迹、个体差异等因素的影响,导致数据的不稳定性和不可靠性。这对于深度神经网络DNN的训练和泛化能力提出了更高的要求,需要对脑电信号EEG进行有效的预处理和增强。再者,脑电信号EEG的信号特征往往具有时空相关性和非线性动力学特性。这对于深度神经网络DNN的结构和参数设计提出了更高的要求,需要对脑电信号EEG进行有效的特征提取和表示。
为了解决上述挑战,一种可能的方法是利用知识蒸馏(KD)的技术,将一个或多个大型的教师模型(TeacherModel)的知识转移给一个更小的学生模型(StudentModel),从而实现模型的压缩和加速,同时保持或提升模型的性能。知识蒸馏的基本思想是让学生模型不仅学习数据的标签,还学习教师模型的输出,从而获得更丰富的信息。
尽管现有技术已经取得了一些进展,但是仍然存在一些问题或缺陷,主要包括以下几个方面:知识蒸馏的理论基础和机制仍然不够清晰,缺乏统一的数学模型和优化方法。目前的知识蒸馏方法大多是基于经验和启发式的设计,缺乏对知识的本质和传递的规律的深入理解,也缺乏对不同知识形式和损失函数的选择和组合的指导原则,没有。知识蒸馏的效果和稳定性仍然不够理想,容易受到教师模型和学生模型的结构和参数的影响。目前的知识蒸馏方法大多是基于固定的教师模型和学生模型的匹配,缺乏对教师模型和学生模型的自适应和优化,也缺乏对不同任务和数据集的泛化能力的评估和提升,在EEG信号处理过程中还存在一些缺陷。
现有技术缺乏对脑电信号EEG信号特点和需求的充分考虑。目前的知识蒸馏方法大多是基于通用的深度神经网络DNN结构和算法的迁移,缺乏对脑电信号EEG信号的时空相关性和非线性动力学特性的利用,也缺乏对脑电信号EEG信号的预处理和增强的融合。
故而需要进一步的探索和创新。
发明内容
发明目的,提供一种高分辨率脑电信号深度神经网络压缩方法,以解决现有技术存在的上述问题。并进一步提供一种采用上述方法的脑机接口系统。
技术方案,根据本申请的一个方面,提供一种高分辨率脑电信号深度神经网络压缩方法,包括如下步骤:
步骤S1、采集预定时空分辨率的脑电信号并预处理,获得脑电信号数据集;所述预处理包括滤波、降采样、去伪迹和数据增强;
步骤S2、构建教师模型,并基于脑电信号数据集进行训练,获得优化参数的教师模型;
步骤S3、构建学生模型,并采用优化参数后的教师模型训练至少一个学生模型,获得至少一个符合预定标准的学生模型;
步骤S4、基于脑电接口系统的存储结构和预期要求,筛选符合要求的学生模型作为高分辨率脑电信号神经网络压缩模型。
根据本申请的一个方面,所述步骤S1进一步为:
步骤S11、获取预定时空分辨率的脑电信号,从预配置的预定滤波器模块中调取滤波器单元,滤波去除脑电信号中的高频噪声和低频漂移,获得预定波段的脑电信号;
步骤S12、采用中值法从预定波段的脑电信号中提取预定数量的数据,减少数据的规模和计算量,同时保留数据的主要信息;
步骤S13、采用独立成分分析法去除脑电信号中的伪迹,包括眼电伪迹、肌电伪迹和心电伪迹,提高数据的信噪比;
步骤S14、通过相空间重构法对脑电信号进行增强处理,增强脑电信号的时空分辨率和非线性动力学特性,提高数据的信息量和复杂度;
步骤S15、构建脑电信号数据的个性化传导矩阵,并将脑电信号数据从电极空间转换到源空间,获得每个脑区的神经活动强度;
步骤S16、根据每个脑区的脑电信号数据的时频特征,获得每个脑区的神经活动在不同频段的变化,形成脑电信号数据集。
根据本申请的一个方面,所述步骤S2进一步为:
步骤S21、构建包括至少一个教师模型在内的教师模型集合,针对教师模型集合中的每一教师模型,设计模型结构和模型参数;
步骤S22、调取脑电信号数据集作为训练数据,采用RMSProp法对每一教师模型进行训练和增强;
步骤S23、记录每一教师模型训练过程中的监控参数,并评估每一教师模型的性能;所述监控参数包括损失函数、准确率、敏感度和特异度;
步骤S24、构建并采用教师模型评估模块对教师模型进行评估,并将符合预期条件的教师模型存入优化后的教师模型集合。
根据本申请的一个方面,所述步骤S3进一步为:
步骤S31、基于教师模型构建学生模型,选择预定的知识形式作为教师模型和学生模型之间的信息传递的载体;
步骤S32、基于交叉熵或KL散度构建用于度量教师模型和学生模型之间信息传递的损失函数;
步骤S33、构建并采用符合预定条件的蒸馏方法,作为教师模型和学生模型之间的信息传递的策略;
步骤S34、对学生模型实施蒸馏过程,初始化学生模型的模型参数,让学生模型学习教师模型的输出,从而获得更多的信息,通过Adam方法优化学生模型参数,获得至少一个符合预定标准的学生模型。
根据本申请的一个方面,所述步骤S4进一步为:
步骤S41、获取脑机接口的存储结构以及预期要求,并将符合预定标准的学生模型,在脑机接口系统中进行预计算;
步骤S42、获取预计算过程中的数据流处理和调度指标;
步骤S43、根据数据流处理和调度指标,评估符合预定标准的学生模型的性能,计算学生模型和脑机结构的存储结构的优化空间,重复学生模型蒸馏和训练过程,最后筛选符合要求的学生模型作为高分辨率脑电信号神经网络压缩模型。
根据本申请的一个方面,所述步骤S11进一步为:
步骤S11a、获取预定时空分辨率的脑电信号,使用FFT模块或WT模块,获得脑电信号的频谱图;
步骤S11b、根据预定提取的波段信息,从预配置的预定滤波器模块中调用对应的滤波器单元,对脑电信号的频谱图进行滤波处理,所述滤波器单元包括巴特沃斯滤波器单元、切比雪夫滤波器单元和椭圆滤波器单元;
步骤S11c、滤波后的频谱图转换回时域,使用逆傅里叶变换或逆小波变换方法,得到预定波段的脑电信号数据。
根据本申请的一个方面,所述步骤S14进一步为:
步骤S14a、根据预配置的规则判断是否需要对脑电信号进行重采样,若需要,重复重采样过程或采用插值法提高脑电信号的采样率,以增加数据的分辨率;
步骤S14b、获取脑电信号数据,使用相空间重构法重构脑电信号的相空间轨迹,增加数据的空间分辨率和非线性动力学特性;所述相空间重构法包括延迟坐标法、相空间嵌入法和相空间投影法;
步骤S14c、使用相空间分析法分析脑电信号的相空间特征,所述相空间分析法包括相空间熵法。
根据本申请的一个方面,所述步骤S15进一步为:
步骤S15a、调用预存储的被试头部模型和源模型;被试头部模型的构建过程包括采用边界元法将每个被试的头部结构图像分为预定的层次,并赋予每一层相应的电学参数;被试源模型的构建过程包括:使用等效电流偶极子法将皮层上的神经活动近似为一组或多组电流偶极子,确定每个偶极子的位置、方向和强度;
步骤S15b、使用导电率矩阵法计算每个偶极子产生的电场在每个电极处的电位,形成从源空间到电极空间的线性映射关系,并基于线性映射关系构建每个被试的脑电信号的传导矩阵;
步骤S15c、使用最小范数估计法根据传导矩阵和电极空间的脑电信号数据,求解源空间的偶极子信号,获得每个偶极子的时间序列;
步骤S15d、将源空间的偶极子信号映射到脑区,使用Desikan-Killianyatlas模板将每个偶极子信号分配到相应的脑区,求取每个脑区的神经活动强度。
根据本申请的一个方面,所述步骤S21进一步为:
步骤S21a、分别采集DNN、CNN、GNN的基础模型和变体,构建DNN模型库、GNN模型库、CNN模型库和组合方式;组合方式至少包括串联组合、并联组合和嵌套组合;
步骤S21b、逐一调取DNN模型库、GNN模型库、CNN模型库中的模型,并通过组合方式进行组合,形成教师模型预选集;
步骤S21c、构建并采用模型优选模块从教师模型预选集中选择预定数量个教师模型,构建教师模型集合,并针对教师模型集合中的每一教师模型,设计模型结构和模型参数。
根据本申请的另一个方面,还提供一种脑机接口系统,至少包括:
中心节点,用于执行异构计算平台的任务调度;
外围节点,用于执行计算上述任一项技术方案所述的高分辨率脑电信号深度神经网络压缩方法。
有益效果,通过深入分析脑电信号的频谱、时域、空域和拓扑特点,构建教师模型优选集,从中优选模型并进行剪枝、压缩和数据蒸馏,解决了现有脑电信号处理效率低,准确率低的问题。相关技术优势将在下文的具体实施方式进行详细描述。
附图说明
图1是本发明的流程图。
图2是本发明步骤S1的流程图。
图3使本发明步骤S2的流程图。
图4是本发明步骤S3的流程图。
图5是本发明步骤S4的流程图。
具体实施方式
如图1所示,为了解决脑电信号的数据存在高维度、非线性、非平稳和噪声干扰等问题,提供了如下的数据处理流程。
根据本申请的一个方面,提供一种高分辨率脑电信号深度神经网络压缩方法,包括如下步骤:
步骤S1、采集预定时空分辨率的脑电信号并预处理,获得脑电信号数据集;所述预处理包括滤波、降采样、去伪迹和数据增强;
步骤S2、构建教师模型,并基于脑电信号数据集进行训练,获得优化参数的教师模型;
步骤S3、构建学生模型,并采用优化参数后的教师模型训练至少一个学生模型,获得至少一个符合预定标准的学生模型;
步骤S4、基于脑电接口系统的存储结构和预期要求,筛选符合要求的学生模型作为高分辨率脑电信号神经网络压缩模型。
为了解决现有技术存在的技术问题,即如何在保证脑电信号的高分辨率的同时,实现脑电信号的深度神经网络压缩,以适应脑机接口系统的存储结构和预期要求。在不损失脑电信号的信息量和复杂度的前提下,实现脑电信号的高性能和高效率的处理,以满足脑机接口系统的实时性和可靠性的需求。提供了上述实施例。
在本实施例中,通过滤波、降采样、去伪迹和数据增强等方法对脑电信号进行预处理,获得清洁、高效、可靠和丰富的脑电信号数据集,为后续的数据处理提供高质量的数据源;通过对脑电信号进行增强处理,增强脑电信号的时空分辨率和非线性动力学特性,为后续的数据处理提供高维度的数据源;通过对脑电信号进行增强处理,增强脑电信号的时空分辨率和非线性动力学特性,为后续的数据处理提供高维度的数据源;通过构建个性化的传导矩阵,将脑电信号数据从电极空间转换到源空间,获得每个脑区的神经活动强度,为后续的数据处理提供高精度的数据源;通过构建教师模型和学生模型,并采用知识蒸馏的方法,将教师模型的知识转移给学生模型,从而提高学生模型的准确率和稳定性,同时减少学生模型的规模和计算量,为后续的数据处理提供高效率的数据源。
如图2所示,根据本申请的一个方面,所述步骤S1进一步为:
步骤S11、获取预定时空分辨率的脑电信号,从预配置的预定滤波器模块中调取滤波器单元,滤波去除脑电信号中的高频噪声和低频漂移,获得预定波段的脑电信号;
在一些实施例中,使用一个具有足够电极数和采样率的脑电设备来采集脑电信号。可以使用一个64通道的脑电设备,采样率为256Hz,这样可以获得较高的时空分辨率的脑电信号;
从预配置的预定滤波器模块中选择一个合适的滤波器单元,对脑电信号进行滤波处理,去除高频噪声和低频漂移。可以选择一个带通滤波器,截止频率为0.5-40Hz,这样可以保留感兴趣的频段的脑电信号,如delta,theta,alpha,beta和gamma等;得到预定波段的脑电信号,这些信号可以用于后续的数据处理。可以将这些信号保存为一个数据矩阵,每一行代表一个电极,每一列代表一个时间点。
在一些实施例中,所述步骤S11进一步为:
步骤S11a、获取预定时空分辨率的脑电信号,使用FFT模块或WT模块,获得脑电信号的频谱图;
步骤S11b、根据预定提取的波段信息,从预配置的预定滤波器模块中调用对应的滤波器单元,对脑电信号的频谱图进行滤波处理,所述滤波器单元包括巴特沃斯滤波器单元、切比雪夫滤波器单元和椭圆滤波器单元;
步骤S11c、滤波后的频谱图转换回时域,使用逆傅里叶变换或逆小波变换方法,得到预定波段的脑电信号数据。
步骤S12、采用中值法从预定波段的脑电信号中提取预定数量的数据,减少数据的规模和计算量,同时保留数据的主要信息;
根据任务需求和计算资源确定要提取的数据的数量,例如可以将数据的数量减少到原来的四分之一,这样可以降低数据的存储空间和计算时间;使用中值法来对脑电信号进行降采样,保留数据的主要信息,同时减少数据的冗余。例如可以对每四个采样点取中值,这样可以将采样率降低到原来的四分之一,同时保留数据的中心趋势;得到降采样后的脑电信号后,将这些信号保存为一个数据矩阵,每一行代表一个电极,每一列代表一个时间点。
需要说明的是,上述步骤S11和S12可以根据实际情况部署或选择,在一些计算资源较为丰富的场景下,可以直接将所有数据进行处理,而无需进行提取进行数据筛选和压缩处理。
步骤S13、采用独立成分分析法去除脑电信号中的伪迹,包括眼电伪迹、肌电伪迹和心电伪迹,提高数据的信噪比;
需要使用独立成分分析(ICA)法来对脑电信号进行分解,将脑电信号分解为一系列独立的成分,每个成分代表一个活动源,得到一个独立成分矩阵,每一行代表一个独立成分,每一列代表一个时间点;识别并去除ICA分解后的伪迹成分,这些成分通常与眼动、肌肉或心跳等无关的活动有关,会干扰脑电信号的分析。可以根据一些标准来判断哪些成分是伪迹,比如成分的空间分布、频谱特征或与外部信号的相关性等。得到去伪迹后的脑电信号后,将这些信号保存为一个数据矩阵,每一行代表一个电极,每一列代表一个时间点。
步骤S14、通过相空间重构法对脑电信号进行增强处理,增强脑电信号的时空分辨率和非线性动力学特性,提高数据的信息量和复杂度;
在一些实施例中,根据任务需求和数据质量确定是否需要对脑电信号进行重采样,脑电信号的采样率过低,或者想要提高数据的分辨率,可以对脑电信号进行重采样,以增加数据的采样点。例如,可以重复重采样过程,或者使用插值法,如线性插值、三次样条插值或Kriging插值等,来提高脑电信号的采样率;使用相空间重构(PSR)法来对脑电信号进行重构,从低维的时间序列重构出高维的相空间轨迹,增加数据的空间分辨率和非线性动力学特性。PSR法需要两个参数:嵌入维数和时间延迟。可以使用假邻近法(FNN)和互信息法(MI)来估计这两个参数。最终得到一个相空间轨迹矩阵,每一行代表一个相空间点,每一列代表一个相空间维度。使用相空间分析法来分析脑电信号的相空间特征,这些特征可以反映脑电信号的复杂度和规律性。在一些实施例中,还可以使用相空间熵法(PSE)、相空间相关维数法(PD2)或相空间Lyapunov指数法(PLE)来实现。
在一些实施例中,所述步骤S14进一步为:
步骤S14a、根据预配置的规则判断是否需要对脑电信号进行重采样,若需要,重复重采样过程或采用插值法提高脑电信号的采样率,以增加数据的分辨率;
步骤S14b、获取脑电信号数据,使用相空间重构法重构脑电信号的相空间轨迹,增加数据的空间分辨率和非线性动力学特性;所述相空间重构法包括延迟坐标法、相空间嵌入法和相空间投影法;
步骤S14c、使用相空间分析法分析脑电信号的相空间特征,所述相空间分析法包括相空间熵法。
步骤S15、构建脑电信号数据的个性化传导矩阵,并将脑电信号数据从电极空间转换到源空间,获得每个脑区的神经活动强度;
在一些实施例中,所述步骤S15进一步为:
步骤S15a、调用预存储的被试头部模型和源模型;被试头部模型的构建过程包括采用边界元法将每个被试的头部结构图像分为预定的层次,并赋予每一层相应的电学参数;被试源模型的构建过程包括:使用等效电流偶极子法将皮层上的神经活动近似为一组或多组电流偶极子,确定每个偶极子的位置、方向和强度;
步骤S15b、使用导电率矩阵法计算每个偶极子产生的电场在每个电极处的电位,形成从源空间到电极空间的线性映射关系,并基于线性映射关系构建每个被试的脑电信号的传导矩阵;
步骤S15c、使用最小范数估计法根据传导矩阵和电极空间的脑电信号数据,求解源空间的偶极子信号,获得每个偶极子的时间序列;
步骤S15d、将源空间的偶极子信号映射到脑区,使用Desikan-Killianyatlas模板将每个偶极子信号分配到相应的脑区,求取每个脑区的神经活动强度。
在一些实施例中,具体为:获取每个被试的头部结构图像,使用MRI或CT等方法,得到被试的头部解剖结构,包括颅骨、脑组织、脑脊液等;构建每个被试的头模型,使用边界元法(BEM)或有限元法(FEM)等方法,将头部结构图像分割为不同的层次,如皮层、颅骨、头皮等,并赋予每一层相应的电学参数,如电导率、电容率等;构建每个被试的源模型,使用等效电流偶极子法(ECD)或多极子法(MD)等方法,将皮层上的神经活动近似为一组或多组电流偶极子,确定每个偶极子的位置、方向和强度;构建每个被试的传导矩阵,使用传导矩阵法(LFM)或导电率矩阵法(LIM)等方法,计算每个偶极子产生的电场在每个电极处的电位,形成一个从源空间到电极空间的线性映射关系,即传导矩阵;将脑电信号数据从电极空间转换到源空间,使用最小范数估计法(MNE)或聚束滤波法(BF)等方法,根据传导矩阵和电极空间的脑电信号数据,求解源空间的偶极子信号,获得每个偶极子的时间序列;将源空间的偶极子信号映射到脑区,使用基于皮层的模板,如Desikan–Killianyatlas,里面包含68个ROI脑区,将每个偶极子信号分配到相应的脑区,求取每个脑区的神经活动强度,如平均电位,峰值电位等。
在实验中发现,在部分情况下,使用边界元法和导电率矩阵法的方法会导致数据的不准确和不稳定,因此在这些情况下,给出如下优化方案:
根据电极空间的脑电信号数据和传导矩阵,计算源空间的偶极子信号的后验概率分布,然后使用最大后验概率(MAP)或者贝叶斯模型平均(BMA)方法从后验分布中选择最优的偶极子信号作为估计值。这种方法可以利用先验知识,比如偶极子信号的空间平滑性、稀疏性等,来增加转换的准确性和稳定性,从而提高每个脑区的神经活动强度的估计质量。
当然,也可以采用深度学习的方法来解决,构建一个深度神经网络,以电极空间的脑电信号数据为输入,以源空间的偶极子信号为输出,通过大量的训练数据来学习电极空间和源空间之间的非线性映射关系。
步骤S16、根据每个脑区的脑电信号数据的时频特征,获得每个脑区的神经活动在不同频段的变化,形成脑电信号数据集。
将信号在时间和频率两个维度上进行分解,反映信号的时变特性和频谱特性。还可以采用短时傅里叶变换(STFT)、小波变换(WT)或希尔伯特-黄变换(HHT)等方法,得到一个时频矩阵,每一行代表一个频率,每一列代表一个时间点;根据每个脑区的脑电信号数据的时频特征,获得每个脑区的神经活动在不同频段的变化。可以使用一些统计方法,如功率谱密度(PSD)、相干(COH)或相位锁定值(PLV)等,来量化每个脑区的神经活动在不同频段的强度、同步或相位等。将每个脑区的神经活动的时频特征组合成一个脑电信号数据集,这个数据集可以用于后续的数据处理。可以将这个数据集保存为一个数据矩阵,每一行代表一个脑区,每一列代表一个时频特征。
在进一步的实施例中,步骤S11至S14还可以替换或者同步采用下述方法进行对比检验,具体为:
步骤S1a、将脑电信号转换为图信号,即将每个电极视为图的一个节点,将电极之间的连接强度视为图的一条边,从而构建至少一个脑电信号图;
步骤S1b、使用图降维方法对图信号进行降采样,将图信号的维度降低,同时保留图的结构和信号的特征;
步骤S1c、使用图去噪方法对图信号进行去伪迹,即将图信号中的噪声和干扰分离出来,提高图信号的信噪比;
步骤S1d、使用图增强方法对图信号进行增强处理,即将图信号的时空分辨率和非线性动力学特性增强,提高图信号的信息量和复杂度。
由于图降维、图去噪和图增强的过程基本相似,都需要构建图的邻接矩阵、度矩阵和拉普拉斯矩阵,都可以利用图的特征空间或变换域来进行处理,都可以结合图的自相似性或稀疏性来进行建模。区别仅在于目标和策略是不同的,图降维需要选择合适的降维维数,图去噪需要估计噪声水平,图增强需要考虑图像的对比度和清晰度等。给出如下过程,对于重复的部分不再详述。
构建图的邻接矩阵,表示图中节点之间的相似度或距离;
计算图的度矩阵,表示图中每个节点的度数,即与该节点相连的边的个数或权重之和。度矩阵是一个对角矩阵,其对角线元素为节点的度数,其余元素为零。
计算图的拉普拉斯矩阵,表示图的拓扑结构和信号的平滑性。拉普拉斯矩阵等于度矩阵的逆矩阵与邻接矩阵的差。
求解拉普拉斯矩阵的特征值和特征向量,得到图的拉普拉斯特征空间。特征值表示图的频率特征,特征向量表示图的模态特征。特征值从小到大排列,对应的特征向量从低频到高频排列。
构建一个正则化的最小二乘问题,表示图信号的分解目标。最小二乘问题的目标函数由两部分组成,一部分是数据项,表示图信号与原始信号的拟合程度;另一部分是正则项,表示图信号的平滑度,即图的总变分。正则项的系数是一个超参数,需要根据数据的噪声水平和平滑程度来确定。一般来说,系数越大,正则项的作用越强,图信号越平滑,但是可能会损失一些细节信息;系数越小,正则项的作用越弱,图信号越保留细节,但是可能会保留一些噪声和干扰。
求解正则化的最小二乘问题,得到图信号的分解结果。分解结果包括信号分量和噪声分量,信号分量是图信号的平滑部分,噪声分量是图信号的噪声部分。信号分量和噪声分量的和等于原始的图信号。
选择拉普拉斯矩阵的前k个最小的特征值和对应的特征向量,作为图信号的低维表示。k是一个超参数,需要根据数据的分布和目标的需求来确定。一般来说,k越小,降维的效果越明显,但是可能会损失一些重要的信息;k越大,降维的效果越不明显,但是可能会保留一些冗余的信息。k为自然数。
在进一步的实施例中,还包括步骤S17、构建并根据脑电信号的特征信息(比如按照不同的频段、不同的年龄、不同的身体状态、不同的脑区、不同的任务),将脑电信号数据集划分为至少两个子数据集。
在后续的步骤S2和S3中,为每个子数据集匹配对应的教师模型和构建学生模型;
针对每一教师模型和学生模型,进行数据蒸馏和训练;
或者采用多任务学习的方法,构建处理多个子数据集的教师模型和学生模型;使用多任务学习的方法,进行数据蒸馏的过程。
最后,在步骤S4中,将符合要求的至少两个学生模型作为高分辨率脑电信号神经网络压缩模型部署到脑机接口的不同核上,进行并行的或者分布式的处理过程,从而提高处理速度。
如图3所示,根据本申请的一个方面,所述步骤S2进一步为:
步骤S21、构建包括至少一个教师模型在内的教师模型集合,针对教师模型集合中的每一教师模型,设计模型结构和模型参数;
在一些实施例中,所述步骤S21进一步为:
步骤S21a、分别采集DNN、CNN、GNN的基础模型和变体,构建DNN模型库、GNN模型库、CNN模型库和组合方式;组合方式至少包括串联组合、并联组合和嵌套组合;
步骤S21b、逐一调取DNN模型库、GNN模型库、CNN模型库中的模型,并通过组合方式进行组合,形成教师模型预选集;
步骤S21c、构建并采用模型优选模块从教师模型预选集中选择预定数量个教师模型,构建教师模型集合,并针对教师模型集合中的每一教师模型,设计模型结构和模型参数。
在一些实施例中,具体为DNN的变体主要是在激活函数、正则化方法和网络结构上进行改进,例如:激活函数:ReLU、LeakyReLU、PReLU、ELU、SELU、Swish等。正则化方法:Dropout、DropConnect、Standout、GaussianDropout、PoolingDropout等。网络结构:高速公路网络、深度残差学习、密集连接网络等。RNN的变体主要是在循环单元的设计上进行改进,以解决梯度消失或爆炸的问题,例如:循环单元:LSTM、GRU、Bi-RNN 、Deep RNN 、PeepholeLSTM、ConvLSTM、ClockworkRNN等。CNN的变体主要是在卷积层和池化层的设计上进行改进,以提高特征提取的能力,例如:卷积层:Inception、LeNet、VGG、AlexNet、ResNet、DenseNet、MobileNet、ShuffleNet等。池化层:Max-pooling、Average-pooling、Stochastic-pooling、SpatialPyramidPooling等。
组合方式主要包括串联组合,例如可以将输入数据先通过CNN的层次,提取其时空特征,然后将CNN的输出作为RNN的输入,提取其序列特征。
并联组合,例如,可以将输入数据同时通过RNN和CNN的层次,分别提取其序列特征和时空特征,然后将RNN和CNN的输出进行融合,形成一个综合的特征表示,从而实现对数据的多角度分析。
嵌套组合,例如,可以将RNN和CNN的层次嵌套在一起,形成一个混合的网络结构,使得RNN和CNN的特征提取能力相互增强,从而实现对数据的深度分析。
在一些实施例中,可以为LSTM-LeNet、LSTM-AlexNet、LSTM-VGG、LSTM-ResNet、GRU-LeNet、GRU-AlexNet、GRU-VGG、GRU-ResNet、BiLSTM-LeNet、BiLSTM-AlexNet、BiLSTM-VGG、BiLSTM-ResNet、BiGRU-LeNet、BiGRU-AlexNet、BiGRU-VGG、BiGRU-ResNet、Transformer-GNN-CapsuleNet、LSTM-AlexNet-attention、GRU-ResNet-attention、VGG-transformer-attention。GCN-BERT、GCN-GPT、GCN-XLNet、GAT-BERT、GAT-GPT、GAT-XLNet、GIN-BERT、GIN-GPT、GIN-XLNet、GNN-Transformer、GNN-GPT-3、GNN-BART。需要说明的是,上述组合模块仅为示例。
在一些场景中,具体为GATNE-EEGnet-LSTM-ANDnet模块。该模块可以实现多模态、多场景和分布式计算的平衡。
在一些实施例中,步骤S21中的教师模型为两个以上,即构建包括多个教师模型在内的教师模型集合,针对教师模型集合中的每一教师模型,设计模型结构和模型参数,并为每一教师模型分配至少一个任务。
步骤S22、调取脑电信号数据集作为训练数据,采用RMSProp法对每一教师模型进行训练和增强;在训练过程中使用任务共享和任务预定(特定)的参数,以实现不同任务之间的知识转移和知识融合。
步骤S23、记录每一教师模型训练过程中的监控参数,并评估每一教师模型的性能;所述监控参数包括损失函数、准确率、敏感度和特异度;根据不同任务的权重和优先级进行加权平均;计算并根据任务的难度、不确定度和梯度,为每个任务分配一个权重数值;根据任务的权重系数,为每个任务分配一个优先级,然后根据优先级来排序或者分层不同任务的损失函数,使得模型可以更好地关注高优先级的任务。
步骤S24、构建并采用教师模型评估模块对教师模型进行评估,并将符合预期条件的教师模型存入优化后的教师模型集合。
针对脑电信号的特点,构建教师模型集合,然后进行优选,然后通过教师学生模型进行知识蒸馏,实现模型的压缩和加速,降低模型的参数数量和计算复杂度,提高模型的性能和准确度,增强模型的泛化能力和鲁棒性,适应不同的应用场景和设备限制。需要注意的是,在这个实施例中,给出了多种模型的组合方式,为后续学生模型的构建提供了具体的指引,为多通道分布式的脑电信号处理提供了明确的技术路线。
在进一步的实施例中,还包括:基于脑电信号的图结构,计算每个节点和边的重要性,从而删除重要性小于阈值的节点和边,得到一个剪枝后的教师模型。
如图4所示,根据本申请的一个方面,所述步骤S3进一步为:
步骤S31、基于教师模型构建学生模型,选择预定的知识形式作为教师模型和学生模型之间的信息传递的载体;
基于教师模型的结构和参数,构建至少一个更简单的学生模型,具体来说,减少了卷积层的数量和深度,以及全连接层的神经元数量,从而降低了学生模型的参数量和计算量。选择教师模型的softmax层的输出作为知识形式,也就是教师模型对每个类别的预测概率,作为信息传递的载体。这种知识形式可以反映教师模型对不同类别的判断力度,也可以避免对类别标签的硬编码,从而提高学生模型的泛化能力。
在进一步的实施例中,还包括为:采用基于规则或基于优化的方法为每个学生模型分配一个或多个不同的角色。
步骤S32、基于交叉熵或KL散度构建用于度量教师模型和学生模型之间信息传递的损失函数;
计算教师模型的输出概率分布和学生模型的输出概率分布之间的KL散度,作为学生模型的蒸馏损失。这种损失函数可以衡量两个模型之间的输出差异,也可以反映两个模型之间的信息量。还需要考虑学生模型对真实类别标签的拟合程度,因此还需要计算学生模型的输出概率分布和真实类别标签之间的交叉熵,作为学生模型的分类损失。这种损失函数可以衡量学生模型的分类性能,也可以反映学生模型的准确率。将蒸馏损失和分类损失加权求和,作为学生模型的总损失。可以通过调整两种损失的权重,来平衡学生模型对教师模型的学习和对真实类别标签的学习。
在进一步的实施例中,还包括:并根据不同角色的目标和约束,为每个学生模型设计不同的损失函数。
步骤S33、构建并采用符合预定条件的蒸馏方法,作为教师模型和学生模型之间的信息传递的策略;
在一些实施例中,在计算教师模型和学生模型的输出概率分布时,都使用一个温度参数来调整softmax层的输出,从而改变输出概率分布的形状。这种蒸馏方法可以增加输出概率分布的熵,也就是增加输出概率分布的不确定性,从而增加输出概率分布中包含的信息量,使得学生模型可以从教师模型中学习到更多的信息。通过调整温度参数的大小,来控制输出概率分布的熵,从而控制信息传递的量。一般来说,温度参数越大,输出概率分布的熵越大,信息传递的量越大;温度参数越小,输出概率分布的熵越小,信息传递的量越小。当温度参数为1时,输出概率分布的熵为最大,相当于没有进行蒸馏;当温度参数为0时,输出概率分布的熵为最小,相当于进行了硬编码。
在进一步的实施例中,根据不同角色的行为和反馈,为每个学生模型设计不同的蒸馏方法。
步骤S34、对学生模型实施蒸馏过程,初始化学生模型的模型参数,让学生模型学习教师模型的输出,从而获得更多的信息,通过Adam方法优化学生模型参数,获得至少一个符合预定标准的学生模型。
首先随机初始化学生模型的模型参数,然后将EEG数据集划分为训练集和测试集,分别用于训练和评估学生模型的性能。使用批量梯度下降的方法,每次从训练集中随机抽取一个批量的数据,输入到教师模型和学生模型中,分别得到两个模型的输出概率分布,然后根据损失函数计算学生模型的总损失,再根据Adam方法优化学生模型的参数,从而让学生模型学习教师模型的输出,从而获得更多的信息。重复这个过程,直到学生模型的总损失收敛或达到预设的迭代次数,然后在测试集上评估学生模型的准确率,获得至少一个符合预定标准的学生模型。
在本申请的另一实施例中,还包括:根据不同角色的互动和评价,获得至少一个符合预定标准的学生模型。
如图5所示,根据本申请的一个方面,所述步骤S4进一步为:
步骤S41、获取脑机接口的存储结构以及预期要求,并将符合预定标准的学生模型,在脑机接口系统中进行预计算;
步骤S42、获取预计算过程中的数据流处理和调度指标;
步骤S43、根据数据流处理和调度指标,评估符合预定标准的学生模型的性能,计算学生模型和脑机结构的存储结构的优化空间,重复学生模型蒸馏和训练过程,最后筛选符合要求的学生模型作为高分辨率脑电信号神经网络压缩模型。
在一些实施例中,FPGA的结构主要由查找表(Look-Up Table,LUT)、触发器(Flip-Flop,FF)、片内存储器(Block RAM,BRAM)、数字信号处理器(Digital Signal Processor,DSP)等基本单元组成,这些单元可以通过可编程的互连网络进行连接和配置,形成不同的逻辑功能。FPGA的结构决定了学生模型的存储空间和计算资源,因此,选择学生模型时,需要考虑学生模型的参数量、计算量、数据类型、数据精度等因素,使得学生模型能够适应FPGA的结构限制,同时尽可能地利用FPGA的结构优势。
FPGA的性能主要由时钟频率、功耗、延迟、吞吐量等指标衡量,这些指标反映了FPGA的运行速度、效率、实时性、规模等特点。FPGA的性能决定了学生模型的运行效果和应用场景,因此,选择学生模型时,需要考虑学生模型的准确率、鲁棒性、泛化能力、可扩展性等因素,使得学生模型能够满足FPGA的性能要求,同时尽可能地提高FPGA的性能水平。
主要的考虑因素包括:参数量、计算量、数据精度和数据类型,评估参数主要包括准确率、鲁棒性和泛化能力。
在本申请的另一实施例中,所述教师模型和学生模型分别设置有自适应滤波模块。
当使用GATNE-EEGnet-LSTM-ANDnet模块时,功能分别具体为:
使用图注意力网络嵌入(GATNE)来对脑电信号数据进行图结构的建模和特征提取,将高维的脑电信号数据转换为低维的图信号。利用脑电信号的多模态性,通过不同的边类型和注意力机制,学习每个节点的多模态嵌入表示。
使用EEGNet来对图信号再次进行时频域的分析和滤波,去除图信号中的噪声和干扰,提取有用的信号特征。利用脑电信号的时频域特性,通过深度可分离卷积和批量归一化,捕捉局部的信号模式和频谱特征。
使用长短期记忆网络(LSTM)来对图信号进行时序建模和预测,学习图信号的动态变化和趋势,输出最终的预测结果。利用脑电信号的时序依赖性,通过循环单元的状态更新,记忆历史的信号信息和上下文关系。
自适应神经网络(ANDnet)来对图信号进行自适应的分类,根据图信号的噪声和干扰的变化,自动调整网络的结构和参数,提高网络的鲁棒性和可靠性。利用脑电信号的不确定性,通过神经结构搜索和自适应学习率,寻找最优的网络结构和参数。
根据本申请的另一个方面,还提供一种脑机接口系统,至少包括:
中心节点,用于执行异构计算平台的任务调度;
外围节点,用于执行计算上述任一项技术方案所述的高分辨率脑电信号深度神经网络压缩方法。
在进一步的实施例中,所述中心节点配置有资源分配模块,所述资源分配模块读取任务类别,以及每个任务类别的任务量和优先级,
根据任务的优先级和任务来了,计算每个任务的权重,采用动态规划法选择并调用对应的学生模型,加载至外围节点。
在本实施例中,首先对脑电信号进行特征分析,获取脑电信号的数据特征,然后构建优选集,通过对优选集中教师模型进行优化,获取哪些组合方式的模型能够较好地达到预期目的,将其作为教师模型,然后基于教师模型对学生模型进行构建,获得至少一个学生模型,建立脑电信号特征与学生模型之间的映射关系,不同的脑电信号特征,通过不同的学生模型进行处理,然后通过Soc(包括FPGA等)等系统进行分布式计算,提高计算效率和准确率。
以上详细描述了本发明的优选实施方式,但是,本发明并不限于上述实施方式中的具体细节,在本发明的技术构思范围内,可以对本发明的技术方案进行多种等同变换,这些等同变换均属于本发明的保护范围。
Claims (10)
1.高分辨率脑电信号深度神经网络压缩方法,其特征在于,包括如下步骤:
步骤S1、采集预定时空分辨率的脑电信号并预处理,获得脑电信号数据集;所述预处理包括滤波、降采样、去伪迹和数据增强;
步骤S2、构建教师模型,并基于脑电信号数据集进行训练,获得优化参数的教师模型;
步骤S3、构建学生模型,并采用优化参数后的教师模型训练至少一个学生模型,获得至少一个符合预定标准的学生模型;
步骤S4、基于脑电接口系统的存储结构和预期要求,筛选符合要求的学生模型作为高分辨率脑电信号神经网络压缩模型。
2.如权利要求1所述的高分辨率脑电信号深度神经网络压缩方法,其特征在于,所述步骤S1进一步为:
步骤S11、获取预定时空分辨率的脑电信号,从预配置的预定滤波器模块中调取滤波器单元,滤波去除脑电信号中的高频噪声和低频漂移,获得预定波段的脑电信号;
步骤S12、采用中值法从预定波段的脑电信号中提取预定数量的数据,减少数据的规模和计算量,同时保留数据的主要信息;
步骤S13、采用独立成分分析法去除脑电信号中的伪迹,包括眼电伪迹、肌电伪迹和心电伪迹,提高数据的信噪比;
步骤S14、通过相空间重构法对脑电信号进行增强处理,增强脑电信号的时空分辨率和非线性动力学特性,提高数据的信息量和复杂度;
步骤S15、构建脑电信号数据的个性化传导矩阵,并将脑电信号数据从电极空间转换到源空间,获得每个脑区的神经活动强度;
步骤S16、根据每个脑区的脑电信号数据的时频特征,获得每个脑区的神经活动在不同频段的变化,形成脑电信号数据集。
3.如权利要求2所述的高分辨率脑电信号深度神经网络压缩方法,其特征在于,所述步骤S2进一步为:
步骤S21、构建包括至少一个教师模型在内的教师模型集合,针对教师模型集合中的每一教师模型,设计模型结构和模型参数;
步骤S22、调取脑电信号数据集作为训练数据,采用RMSProp法对每一教师模型进行训练和增强;
步骤S23、记录每一教师模型训练过程中的监控参数,并评估每一教师模型的性能;所述监控参数包括损失函数、准确率、敏感度和特异度;
步骤S24、构建并采用教师模型评估模块对教师模型进行评估,并将符合预期条件的教师模型存入优化后的教师模型集合。
4.如权利要求3所述的高分辨率脑电信号深度神经网络压缩方法,其特征在于,所述步骤S3进一步为:
步骤S31、基于教师模型构建学生模型,选择预定的知识形式作为教师模型和学生模型之间的信息传递的载体;
步骤S32、基于交叉熵或KL散度构建用于度量教师模型和学生模型之间信息传递的损失函数;
步骤S33、构建并采用符合预定条件的蒸馏方法,作为教师模型和学生模型之间的信息传递的策略;
步骤S34、对学生模型实施蒸馏过程,初始化学生模型的模型参数,让学生模型学习教师模型的输出,从而获得更多的信息,通过Adam方法优化学生模型参数,获得至少一个符合预定标准的学生模型。
5.如权利要求4所述的高分辨率脑电信号深度神经网络压缩方法,其特征在于,所述步骤S4进一步为:
步骤S41、获取脑机接口的存储结构以及预期要求,并将符合预定标准的学生模型,在脑机接口系统中进行预计算;
步骤S42、获取预计算过程中的数据流处理和调度指标;
步骤S43、根据数据流处理和调度指标,评估符合预定标准的学生模型的性能,计算学生模型和脑机结构的存储结构的优化空间,重复学生模型蒸馏和训练过程,最后筛选符合要求的学生模型作为高分辨率脑电信号神经网络压缩模型。
6.如权利要求5所述的高分辨率脑电信号深度神经网络压缩方法,其特征在于,所述步骤S11进一步为:
步骤S11a、获取预定时空分辨率的脑电信号,使用FFT模块或WT模块,获得脑电信号的频谱图;
步骤S11b、根据预定提取的波段信息,从预配置的预定滤波器模块中调用对应的滤波器单元,对脑电信号的频谱图进行滤波处理,所述滤波器单元包括巴特沃斯滤波器单元、切比雪夫滤波器单元和椭圆滤波器单元;
步骤S11c、滤波后的频谱图转换回时域,使用逆傅里叶变换或逆小波变换方法,得到预定波段的脑电信号数据。
7.如权利要求5所述的高分辨率脑电信号深度神经网络压缩方法,其特征在于,所述步骤S14进一步为:
步骤S14a、根据预配置的规则判断是否需要对脑电信号进行重采样,若需要,重复重采样过程或采用插值法提高脑电信号的采样率,以增加数据的分辨率;
步骤S14b、获取脑电信号数据,使用相空间重构法重构脑电信号的相空间轨迹,增加数据的空间分辨率和非线性动力学特性;所述相空间重构法包括延迟坐标法、相空间嵌入法和相空间投影法;
步骤S14c、使用相空间分析法分析脑电信号的相空间特征,所述相空间分析法包括相空间熵法。
8.如权利要求5所述的高分辨率脑电信号深度神经网络压缩方法,其特征在于,所述步骤S15进一步为:
步骤S15a、调用预存储的被试头部模型和源模型;被试头部模型的构建过程包括采用边界元法将每个被试的头部结构图像分为预定的层次,并赋予每一层相应的电学参数;被试源模型的构建过程包括:使用等效电流偶极子法将皮层上的神经活动近似为一组或多组电流偶极子,确定每个偶极子的位置、方向和强度;
步骤S15b、使用导电率矩阵法计算每个偶极子产生的电场在每个电极处的电位,形成从源空间到电极空间的线性映射关系,并基于线性映射关系构建每个被试的脑电信号的传导矩阵;
步骤S15c、使用最小范数估计法根据传导矩阵和电极空间的脑电信号数据,求解源空间的偶极子信号,获得每个偶极子的时间序列;
步骤S15d、将源空间的偶极子信号映射到脑区,使用Desikan-Killianyatlas模板将每个偶极子信号分配到相应的脑区,求取每个脑区的神经活动强度。
9.如权利要求5所述的高分辨率脑电信号深度神经网络压缩方法,其特征在于,所述步骤S21进一步为:
步骤S21a、分别采集DNN、CNN、GNN的基础模型和变体,构建DNN模型库、GNN模型库、CNN模型库和组合方式;组合方式至少包括串联组合、并联组合和嵌套组合;
步骤S21b、逐一调取DNN模型库、GNN模型库、CNN模型库中的模型,并通过组合方式进行组合,形成教师模型预选集;
步骤S21c、构建并采用模型优选模块从教师模型预选集中选择预定数量个教师模型,构建教师模型集合,并针对教师模型集合中的每一教师模型,设计模型结构和模型参数。
10.一种脑机接口系统,其特征在于,至少包括:
中心节点,用于执行异构计算平台的任务调度;
外围节点,用于执行计算权利要求1至9任一项所述的高分辨率脑电信号深度神经网络压缩方法。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311597084.7A CN117574059A (zh) | 2023-11-28 | 2023-11-28 | 高分辨率脑电信号深度神经网络压缩方法及脑机接口系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202311597084.7A CN117574059A (zh) | 2023-11-28 | 2023-11-28 | 高分辨率脑电信号深度神经网络压缩方法及脑机接口系统 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN117574059A true CN117574059A (zh) | 2024-02-20 |
Family
ID=89893456
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202311597084.7A Pending CN117574059A (zh) | 2023-11-28 | 2023-11-28 | 高分辨率脑电信号深度神经网络压缩方法及脑机接口系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN117574059A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117892096A (zh) * | 2024-03-14 | 2024-04-16 | 中国海洋大学 | 一种基于迁移学习的小样本海洋声速剖面预报方法 |
CN118319335A (zh) * | 2024-04-03 | 2024-07-12 | 南通大学 | 一种多点电生理信号处理方法及其系统 |
-
2023
- 2023-11-28 CN CN202311597084.7A patent/CN117574059A/zh active Pending
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN117892096A (zh) * | 2024-03-14 | 2024-04-16 | 中国海洋大学 | 一种基于迁移学习的小样本海洋声速剖面预报方法 |
CN117892096B (zh) * | 2024-03-14 | 2024-05-14 | 中国海洋大学 | 一种基于迁移学习的小样本海洋声速剖面预报方法 |
CN118319335A (zh) * | 2024-04-03 | 2024-07-12 | 南通大学 | 一种多点电生理信号处理方法及其系统 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113693613B (zh) | 脑电信号分类方法、装置、计算机设备及存储介质 | |
CN113616184B (zh) | 基于多模态磁共振图像的脑网络建模与个体预测方法 | |
CN107126193B (zh) | 基于滞后阶数自适应选择的多变量因果关系分析方法 | |
US8861815B2 (en) | Systems and methods for modeling and processing functional magnetic resonance image data using full-brain vector auto-regressive model | |
CN117574059A (zh) | 高分辨率脑电信号深度神经网络压缩方法及脑机接口系统 | |
CN115769228A (zh) | 利用贝叶斯图探索自动构造神经网络架构 | |
Yin et al. | Physiological-signal-based mental workload estimation via transfer dynamical autoencoders in a deep learning framework | |
CN112244873A (zh) | 一种基于混合神经网络的脑电时空特征学习与情感分类方法 | |
CN113688862B (zh) | 一种基于半监督联邦学习的脑影像分类方法及终端设备 | |
CN112990008B (zh) | 基于三维特征图和卷积神经网络的情绪识别方法及系统 | |
WO2022183966A1 (zh) | 脑电信号分类方法、装置、设备、存储介质及程序产品 | |
CN114041795A (zh) | 基于多模态生理信息与深度学习的情绪识别方法及系统 | |
CN116861967A (zh) | 一种基于脉冲神经网络的数据增强方法及装置 | |
CN115969329B (zh) | 一种睡眠分期方法、系统、装置及介质 | |
CN115272295A (zh) | 基于时域-空域联合状态的动态脑功能网络分析方法及系统 | |
CN116439672A (zh) | 一种基于动态自适应核图神经网络的多分辨率睡眠阶段分类方法 | |
Havugimana et al. | Predicting cognitive load using parameter-optimized cnn from spatial-spectral representation of eeg recordings | |
CN117322890B (zh) | 一种基于神经元群模型的生成式多通道脑电建模方法 | |
CN107256408B (zh) | 一种大脑功能网络的关键路径搜索方法 | |
CN115813409B (zh) | 一种超低延迟的运动图像脑电图解码方法 | |
Carpenter et al. | ART neural networks for medical data analysis and fast distributed learning | |
CN114428555B (zh) | 一种基于皮层源信号的脑电运动意图识别方法及系统 | |
CN115721323A (zh) | 一种脑机接口信号识别方法、系统及电子设备 | |
CN114816076A (zh) | 脑机接口的计算处理以及反馈系统及方法 | |
Zubarev et al. | Robust and highly adaptable brain-computer interface with convolutional net architecture based on a generative model of neuromagnetic measurements |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |