CN111723740A - 数据识别方法、装置、设备及计算机可读存储介质 - Google Patents
数据识别方法、装置、设备及计算机可读存储介质 Download PDFInfo
- Publication number
- CN111723740A CN111723740A CN202010567332.3A CN202010567332A CN111723740A CN 111723740 A CN111723740 A CN 111723740A CN 202010567332 A CN202010567332 A CN 202010567332A CN 111723740 A CN111723740 A CN 111723740A
- Authority
- CN
- China
- Prior art keywords
- data
- covariance matrix
- space
- local
- matrix
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
- 238000000034 method Methods 0.000 title claims abstract description 61
- 239000011159 matrix material Substances 0.000 claims abstract description 224
- 230000009467 reduction Effects 0.000 claims abstract description 172
- 238000013528 artificial neural network Methods 0.000 claims abstract description 33
- 238000012549 training Methods 0.000 claims description 95
- 238000012545 processing Methods 0.000 claims description 27
- 238000005070 sampling Methods 0.000 claims description 20
- 238000009826 distribution Methods 0.000 claims description 15
- 238000013507 mapping Methods 0.000 claims description 15
- 210000002569 neuron Anatomy 0.000 claims description 12
- 230000006870 function Effects 0.000 claims description 7
- 238000013135 deep learning Methods 0.000 abstract description 11
- 238000005516 engineering process Methods 0.000 abstract description 7
- 238000004364 calculation method Methods 0.000 description 8
- 238000004891 communication Methods 0.000 description 6
- 230000008569 process Effects 0.000 description 6
- 230000008901 benefit Effects 0.000 description 5
- 238000007781 pre-processing Methods 0.000 description 4
- 238000006243 chemical reaction Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000004927 fusion Effects 0.000 description 2
- 230000017105 transposition Effects 0.000 description 2
- 101100272279 Beauveria bassiana Beas gene Proteins 0.000 description 1
- 230000009471 action Effects 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 238000000537 electroencephalography Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000001172 regenerating effect Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/12—Classification; Matching
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/01—Input arrangements or combined input and output arrangements for interaction between user and computer
- G06F3/011—Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
- G06F3/015—Input arrangements based on nervous system activity detection, e.g. brain waves [EEG] detection, electromyograms [EMG] detection, electrodermal response detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F2218/00—Aspects of pattern recognition specially adapted for signal processing
- G06F2218/02—Preprocessing
- G06F2218/04—Denoising
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Biomedical Technology (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Software Systems (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Signal Processing (AREA)
- Dermatology (AREA)
- Neurology (AREA)
- Neurosurgery (AREA)
- Human Computer Interaction (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种数据识别方法、装置、设备及计算机可读存储介质,所述方法包括:获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵;调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵;调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果;将所述投影结果输入到所述目标识别模型中的神经网络层,得到所述待识别时空数据的识别结果。提供了一种采用深度学习技术来实现数据识别任务的方案,提升了时空数据的识别准确率。
Description
技术领域
本发明涉及人工智能技术领域,尤其涉及一种数据识别方法、装置、设备及计算机可读存储介质。
背景技术
在各种应用领域,数据成为解决问题的关键,随着传感器等数据采集设备的技术发展,数据采集设备所采集的时空数据在具体问题中所具备的价值也越来越高。时空数据即具备时空属性的数据,例如,激光雷达采集的雷达数据,脑机接口领域中采集的脑电图(EEG)数据等。目前,深度学习已广泛应用于各种领域解决各种问题,然而,在应用于时空数据识别任务时,例如应用于对脑电图数据进行识别,以根据识别到的人的动作意图控制外部设备的人物,由于时空数据采集上存在难度,难以达到深度学习需要大规模训练数据集才能完成模型训练的需求,也就导致了目前缺乏采用深度学习技术来实现数据识别任务的方案。
发明内容
本发明的主要目的在于提供一种数据识别方法、装置、设备及计算机可读存储介质,旨在解决目前缺乏采用深度学习技术来实现数据识别任务的方案。
为实现上述目的,本发明提供一种数据识别方法,所述方法包括以下步骤:
获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵;
调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵;
调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果;
将所述投影结果输入到所述目标识别模型中的神经网络层,得到所述待识别时空数据的识别结果。
可选地,所述数据识别方法应用于参与横向联邦学习的数据端,所述获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵的步骤之前,还包括:
采用本地的时空训练数据对待训练识别模型进行本地训练,得到用于更新所述待训练识别模型的本地参数更新信息;
将所述本地参数更新信息发送给协调端,以供所述协调端对各个数据端发送的本地参数更新信息进行融合,得到全局参数更新信息;
接收所述协调端下发的所述全局参数更新信息,并根据所述全局参数更新信息更新所述待训练识别模型,以基于更新后的待训练识别模型得到所述目标识别模型。
可选地,参与横向联邦学习的各个数据端各自本地的时空训练数据,在经过各自本地的待训练识别模型中流形降维层的处理后,所得到的降维矩阵均处于所述预设维度的共用嵌入空间。
可选地,所述采用本地的时空训练数据对待训练识别模型进行本地训练,得到用于更新所述待训练识别模型的本地参数更新信息的步骤包括:
将本地的时空训练数据输入待训练识别模型进行识别,得到本地预测结果;
接收参与横向联邦学习的其他数据端发送的用于计算损失函数的中间结果;
基于所述中间结果计算得到与所述其他数据端之间的最大中值差异,其中,所述最大中值差异表征本地的时空训练数据所对应的降维矩阵在所述共用嵌入空间的概率分布,与所述其他数据端的时空训练数据对应的降维矩阵在所述共用嵌入空间的概率分布之间的差异;
基于所述本地预测结果和本地的所述时空训练数据的标签数据计算分类损失;
根据所述分类损失和所述最大中值差异计算得到所述待训练识别模型的本地参数更新信息。
可选地,所述待识别时空数据为待识别脑电图数据,所述将所述待识别时空数据转换为空间协方差矩阵的步骤包括:
对所述待识别脑电图数据进行转置得到转置矩阵,其中,所述待识别脑电图数据是预设时长内的脑电图数据构成的E*D矩阵,E为采集所述待识别脑电图数据所使用的电极数,D为所述预设时长内的采样频率;
根据所述待识别脑电图数据、所述转置矩阵和所述采样频率,计算得到处于对称正定矩阵流形的空间协方差矩阵。
可选地,所述调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵的步骤包括:
调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,以通过所述流形降维层的神经元参数矩阵将所述空间协方差矩阵降维映射到预设维度的对称正定矩阵流形上,得到降维协方差矩阵。
可选地,所述调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果的步骤包括:
调用所述目标识别模型中切空间投影层对所述降维协方差矩阵进行对数映射,以将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果。
为实现上述目的,本发明提供一种数据识别装置,所述装置包括:
获取模块,用于获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵;
降维模块,用于调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵;
投影模块,用于调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果;
识别模块,用于将所述投影结果输入到所述目标识别模型中的神经网络层,得到所述待识别时空数据的识别结果。
为实现上述目的,本发明还提供一种数据识别设备,所述数据识别设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的数据识别程序,所述数据识别程序被所述处理器执行时实现如上所述的数据识别方法的步骤。
此外,为实现上述目的,本发明还提出一种计算机可读存储介质,所述计算机可读存储介质上存储有数据识别程序,所述数据识别程序被处理器执行时实现如上所述的数据识别方法的步骤。
本发明中,通过将待识别时空数据转换为空间协方差矩阵,利用了协方差方法对脑机接口领域低信噪比数据的高效预处理的优势;调用目标识别模型的流形降维层对空间协方差矩阵进行降维处理,得到降维协方差矩阵,再调用目标识别模型的切空间投影层将降维协方差矩阵投影到其切空间上,得到投影结果,实现了对时空数据的降噪处理,并将非线性的时空数据转换为线性数据,进一步将线性的投影结果输入到目标识别模型的神经网络层进行分类处理,得到待识别时空数据的识别结果,利用了深度神经网络对数据的高度抽象能力,提升识别结果的准确度。也即,本发明中,提供了一种采用深度学习技术来实现数据识别任务的方案,通过将深度学习技术引入时空数据的协方差方法中,实现利用协方差方法对低信噪比数据的高效预处理的优势的同时,也利用了深度学习技术对数据的高度抽象能力,因此,提升了时空数据的识别准确率。
附图说明
图1为本发明实施例方案涉及的硬件运行环境的结构示意图;
图2为本发明数据识别方法第一实施例的流程示意图;
图3为本发明数据识别装置较佳实施例的功能示意图模块图。
本发明目的的实现、功能特点及优点将结合实施例,参照附图做进一步说明。
具体实施方式
应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
如图1所示,图1是本发明实施例方案涉及的硬件运行环境的设备结构示意图。
需要说明的是,本发明实施例数据识别设备可以是智能手机、个人计算机和服务器等设备,在此不做具体限制。
如图1所示,该数据识别设备可以包括:处理器1001,例如CPU,网络接口1004,用户接口1003,存储器1005,通信总线1002。其中,通信总线1002用于实现这些组件之间的连接通信。用户接口1003可以包括显示屏(Display)、输入单元比如键盘(Keyboard),可选用户接口1003还可以包括标准的有线接口、无线接口。网络接口1004可选的可以包括标准的有线接口、无线接口(如WI-FI接口)。存储器1005可以是高速RAM存储器,也可以是稳定的存储器(non-volatile memory),例如磁盘存储器。存储器1005可选的还可以是独立于前述处理器1001的存储装置。
本领域技术人员可以理解,图1中示出的设备结构并不构成对数据识别设备的限定,可以包括比图示更多或更少的部件,或者组合某些部件,或者不同的部件布置。
如图1所示,作为一种计算机存储介质的存储器1005中可以包括操作系统、网络通信模块、用户接口模块以及数据识别程序。其中,操作系统是管理和控制设备硬件和软件资源的程序,支持数据识别程序以及其它软件或程序的运行。在图1所示的设备中,用户接口1003主要用于与客户端进行数据通信;网络接口1004主要用于服务器建立通信连接;处理器1001可以用于调用存储器1005中存储的数据识别程序,并执行以下操作:
获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵;
调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵;
调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果;
将所述投影结果输入到所述目标识别模型中的神经网络层,得到所述待识别时空数据的识别结果。
进一步地,所述数据识别设备为参与横向联邦学习的数据端,所述获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵的步骤之前,还包括:
采用本地的时空训练数据对待训练识别模型进行本地训练,得到用于更新所述待训练识别模型的本地参数更新信息;
将所述本地参数更新信息发送给协调端,以供所述协调端对各个数据端发送的本地参数更新信息进行融合,得到全局参数更新信息;
接收所述协调端下发的所述全局参数更新信息,并根据所述全局参数更新信息更新所述待训练识别模型,以基于更新后的待训练识别模型得到所述目标识别模型。
进一步地,参与横向联邦学习的各个数据端各自本地的时空训练数据,在经过各自本地的待训练识别模型中流形降维层的处理后,所得到的降维矩阵均处于所述预设维度的共用嵌入空间。
进一步地,所述采用本地的时空训练数据对待训练识别模型进行本地训练,得到用于更新所述待训练识别模型的本地参数更新信息的步骤包括:
将本地的时空训练数据输入待训练识别模型进行识别,得到本地预测结果;
接收参与横向联邦学习的其他数据端发送的用于计算损失函数的中间结果;
基于所述中间结果计算得到与所述其他数据端之间的最大中值差异,其中,所述最大中值差异表征本地的时空训练数据所对应的降维矩阵在所述共用嵌入空间的概率分布,与所述其他数据端的时空训练数据对应的降维矩阵在所述共用嵌入空间的概率分布之间的差异;
基于所述本地预测结果和本地的所述时空训练数据的标签数据计算分类损失;
根据所述分类损失和所述最大中值差异计算得到所述待训练识别模型的本地参数更新信息。
进一步地,所述待识别时空数据为待识别脑电图数据,所述将所述待识别时空数据转换为空间协方差矩阵的步骤包括:
对所述待识别脑电图数据进行转置得到转置矩阵,其中,所述待识别脑电图数据是预设时长内的脑电图数据构成的E*D矩阵,E为采集所述待识别脑电图数据所使用的电极数,D为所述预设时长内的采样频率;
根据所述待识别脑电图数据、所述转置矩阵和所述采样频率,计算得到处于对称正定矩阵流形的空间协方差矩阵。
进一步地,所述调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵的步骤包括:
调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,以通过所述流形降维层的神经元参数矩阵将所述空间协方差矩阵降维映射到预设维度的对称正定矩阵流形上,得到降维协方差矩阵。
进一步地,所述调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果的步骤包括:
调用所述目标识别模型中切空间投影层对所述降维协方差矩阵进行对数映射,以将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果。
基于上述的结构,提出数据识别方法的各实施例。
参照图2,图2为本发明数据识别方法第一实施例的流程示意图。需要说明的是,虽然在流程图中示出了逻辑顺序,但是在某些情况下,可以以不同于此处的顺序执行所示出或描述的步骤。本发明数据识别方法各个实施例的执行主体可以是智能手机、个人计算机和服务器等设备,,为便于描述,在第一实施例中省略执行主体进行阐述。在本实施例中,数据识别方法包括:
步骤S10,获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵;
在本实施例中,首先获取待识别的时空数据,可以是实时地以时空数据采集设备采集到的时空数据作为待识别的时空数据,也可以是将离线存储的时空数据作为待识别时空数据。其中,时空数据采集设备可以是能够采集到具备时空属性数据的设备,例如,脑电信号采集设备、激光雷达和超声波雷达等,时空属性即数据具备时间上的序列性,也具备不同空间的信息。时间数据可以是按照一定的频率采集到的。例如,脑电图数据可以是脑电信号采集设备以一定的采样频率采集到的人脑(或动物脑)信号数据,可以将至少一个采样时间窗口的脑电图数据作为一个单元,将一个单元的脑电图数据作为待识别脑电图数据。其中,脑电图数据可以是矩阵形式,例如用X表示,则X∈RE·D,E是脑电信号采集设备的电极数,D是采样频率,即一个时间窗口的采样个数,例如1秒内的采样个数。可以预先设置一个数据识别任务,例如,对脑电图数据进行识别,得到该脑电图数据是否为想象运动的结果,其中,想象运动是指大脑想象的运动,而实际上躯体并未执行该运动。
获取待识别时空数据后,将待识别时空数据转换为空间协方差矩阵。具体地,可以按照采样时间窗口进行转换得到空间协方差矩阵,转换方式可以采用现有的脑机接口领域中的协方差方法。转换得到的空间协方差矩阵是处于对称正定矩阵流形上的。其中,对称正定矩阵是指对称的正定矩阵,流形(manifold)是局部具有欧几里得空间性质的空间。
进一步地,在一实施方式中,当待识别时空数据为待识别脑电图数据时,给出一种将待识别时空数据转换为空间协方差矩阵的具体方式,具体地,步骤S10包括:
步骤S101,对所述待识别脑电图数据进行转置得到转置矩阵,其中,所述待识别脑电图数据是预设时长内的脑电图数据构成的E*D矩阵,E为采集所述待识别脑电图数据所使用的电极数,D为所述预设时长内的采样频率;
步骤S102,根据所述待识别脑电图数据、所述转置矩阵和所述采样频率,计算得到处于对称正定矩阵流形的空间协方差矩阵。
待识别脑电图数据可以是预设时长内的脑电图数据构成的E*D矩阵,E为采集所述待识别脑电图数据所使用的电极数,D为所述预设时长内的采样频率,也即在预设时长内的采样点数。对脑电图数据进行转置得到转置矩阵。转置的方式采用现有的矩阵转置方式,在此不进行详细赘述。再根据待识别脑电图数据、转置矩阵和采样频率,计算得到处于对称正定矩阵流形的空间协方差矩阵。具体地,可以是按照如下公式计算得到空间协方差矩阵。
其中,S是空间协方差矩阵,X是待识别脑电图数据,XT是转置矩阵。
步骤S20,调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵;
可预先设置一个深度神经网络结构的识别模型,识别模型至少包括顺次连接的流形降维层、切空间投影层和神经网络层,预先按照神经网络训练方法对识别模型进行训练,将训练好的识别模型作为目标识别模型。其中,根据具体的识别任务不同,神经网络层的设置不同,例如,当识别任务是对脑电图数据进行识别得到该脑电图数据是否为想象运动的结果时,神经网络层可以是一个输出为二分类的全连接层。
流形降维层用于将空间协方差矩阵降维到预设维度,其中,预设维度可以是预先根据需要设置的一个较低的维度。流形降维层可以采用神经网络结构,流形降维层中的神经元权重将空间协方差矩阵线性映射到较低的预设维度。通过流形降维层的处理,可以对时空数据中的噪声进行过滤,保留时空数据中的主要信息。通过调用流形降维层对空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵。降维协方差矩阵也处于对称正定矩阵流形上。
进一步地,在一实施方式中,给出一种降维处理的具体方式,具体地,所述步骤S20包括:
步骤S201,调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,以通过所述流形降维层的神经元参数矩阵将所述空间协方差矩阵降维映射到预设维度的对称正定矩阵流形上,得到降维协方差矩阵。
流形降维层可以是采用神经网络结构,神经网络结构中包括神经元参数矩阵。例如,用W表示神经元参数矩阵,若预设维度为d,则神经元参数矩阵的维度为D*d,从而将D*D维度的空间协方差矩阵,降维为为d*d的降维协方差矩阵。具体地,调用流形降维层对空间协方差矩阵进行降维处理的过程可表示为如下公式:
R(S)=W·S·WT
其中,R表示流形降维层,WT是W的转置矩阵。也即,在空间协方差矩阵上左乘神经元参数矩阵,再右乘神经元参数矩阵的转置矩阵。通过调用流形降维层对空间协方差矩阵处理,实现通过流形降维层的神经元参数矩阵将空间协方差矩阵降维映射到预设维度的对称正定矩阵流形上,得到降维协方差矩阵。
步骤S30,调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果;
目标识别模型的切空间投影层用于将降维协方差矩阵投影到该降维协方差矩阵的切空间上。具体地,流形上的对数映射可以将协方差矩阵投影到其对应的切空间上,切空间投影层可以是一个对数映射层,也即,通过调用切空间投影层计算降维协方差矩阵的对数,即可得到投影结果。通过切线投影层,将处于非线性空间的降维协方差矩阵转换为处于线性空间的投影结果。通过切空间投影层的处理,降维协方差矩阵得到进一步地去噪,得到的投影结果所包含的噪声更少。
进一步地,在一实施方式中,给出一种投影计算的具体方式,具体地,所述步骤S30包括:
步骤S301,调用所述目标识别模型中切空间投影层对所述降维协方差矩阵进行对数映射,以将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果。
切空间投影层具体可以是一个对数映射层,调用切空间投影层计算降维协方差矩阵的对数,计算结果就处于降维协方差矩阵的切空间上,进而实现将降维协方差矩阵投影到其切空间上,将计算得到的结果作为投影结果。具体地,计算降维协方差矩阵的对数的方式可以是:可以将降维协方差矩阵P表示为P=U·diag(σ1,···,σE)·UT,其中,diag(σ1,···,σE)是对角矩阵,E是对角矩阵的维度,U是一个矩阵,UT是U的转置矩阵,log(P)=U·diag(log(σ1),···,log(σE))·UT,其中diag(σ1,···,σE)、U和UT是可根据P计算得到的,那么,计算U·diag(log(σ1),···,log(σE))·UT即可得到log(P)。
步骤S40,将所述投影结果输入到所述目标识别模型中的神经网络层,得到所述待识别时空数据的识别结果。
目标识别模型的神经网络层连接在切空间投影层后,用于对投影结果进行分类。调用神经网络层对投影结果进行分类处理,得到分类结果,将分类结果作为待识别时空数据的识别结果。例如,数据识别任务是识别脑电图数据是否为想象运动,则通过调用神经网络层对投影结果进行分类处理,得到待识别脑电图数据是否为想象运动信号的分类结果,例如,1表示是想象运动信号,0表示不是想象运动信号,若神经网络层输出为1,则表示待识别脑电图数据是想象运动信号。
在本实施例中,通过将待识别时空数据转换为空间协方差矩阵,利用了协方差方法对脑机接口领域低信噪比数据的高效预处理的优势;调用目标识别模型的流形降维层对空间协方差矩阵进行降维处理,得到降维协方差矩阵,再调用目标识别模型的切空间投影层将降维协方差矩阵投影到其切空间上,得到投影结果,实现了对时空数据的降噪处理,并将非线性的时空数据转换为线性数据,进一步将线性的投影结果输入到目标识别模型的神经网络层进行分类处理,得到待识别时空数据的识别结果,利用了深度神经网络对数据的高度抽象能力,提升识别结果的准确度。也即,本实施例中,提供了一种采用深度学习技术来实现数据识别任务的方案,通过将深度学习技术引入脑机接口领域的协方差方法中,实现利用协方差方法对脑机接口领域低信噪比数据的高效预处理的优势的同时,也利用了深度学习技术对数据的高度抽象能力,因此,提升了时空数据的识别准确率。
进一步地,基于上述第一实施例,提出本发明数据识别方法第二实施例,在本实施例中,所述数据识别方法应用于参与横向联邦学习的数据端,参与横向联邦学习的协调端分别与各个数据端建立连接,在本实施例中,以数据端为执行主体进行描述。所述数据识别方法还包括:
步骤S50,采用本地的时空训练数据对待训练识别模型进行本地训练,得到用于更新所述待训练识别模型的本地参数更新信息;
在本实施例中,可以在使用目标识别模型进行数据识别之前,对识别模型进行训练,并将训练之前的识别模型称为待训练识别模型。各个数据端本地都设置有待训练识别模型,并联合第三方协调端采用各自本地的时空训练数据来对待训练识别模型进行训练,各个数据端的待训练识别模型中各个层的参数可以是初始化设置的。
具体地,各个数据端采用本地的时空训练数据对本地的待训练识别模型进行本地训练,得到用于更新待训练识别模型的本地参数更新信息。具体地,数据端可以将时空训练数据转换为空间协方差矩阵,将空间协方差矩阵输入待训练识别模型,经过待训练识别模型中流形降维层、切空间投影层和神经网络层的处理,得到本地预测结果;时空训练数据对应设置有标注的标签数据,数据端根据标签数据和本地预测结果计算分类损失,分类损失可以采用常用的交叉熵损失函数计算方式;数据端根据分类损失计算待训练识别模型各个层中的模型参数对应的梯度值,根据梯度值更新各个模型参数,即完成了一次本地训练。数据端可以在本地迭代进行多次本地训练,将最后一次训练时的梯度值或者是更新后的模型参数值作为本地参数更新信息。
步骤S60,将所述本地参数更新信息发送给协调端,以供所述协调端对各个数据端发送的本地参数更新信息进行融合,得到全局参数更新信息;
数据端在得到本地参数更新信息后,将本地参数更新信息发送给协调端。协调端接收各个数据端发送的各自的本地参数更新信息,并对各个本地参数更新信息进行融合,得到全局参数更新信息。具体地,协调端可以将各个本地参数信息进行平均,将平均结果作为全局参数更新,一般一个数据端发送的本地参数信息包括多个梯度值或模型参数值,则协调端将各个数据端对应相同项的梯度值或模型参数值进行平均。此外,协调端也可以是对各个本地参数信息进行加权平均,各个数据端的权重值可以根据各个数据端本地的时空训练数据的数据量进行设置,数据量越大权重可设置得越大。协调端将全局参数更新信息再下发给各个数据端。
步骤S70,接收所述协调端下发的所述全局参数更新信息,并根据所述全局参数更新信息更新所述待训练识别模型,以基于更新后的待训练识别模型得到所述目标识别模型。
数据端接收协调端下发的全局参数更新信息,并根据全局参数更新信息更新本地的待训练识别模型。具体地,若全局参数更新信息是模型参数值,则数据端采用接收到的模型参数值作为待训练识别模型的模型参数值,以得到更新后的待训练识别模型;若全局参数更新信息是梯度值,则数据端采用接收到的梯度值更新当前待训练识别模型的模型参数值,以得到更新后的待训练识别模型。数据端可以检测更新后的待训练识别模型是否收敛,若收敛,则可将更新后的待训练识别模型,则可以结束对待训练识别模型的训练,将更新后的待训练识别模型作为目标识别模型;若未收敛,则可以在更新后的待训练识别模型基础上,再次进行本地训练,并将本地训练得到的本地参数更新信息发送给协调端,由协调端融合各个数据端的本地参数更新信息得到全局参数更新信息,数据端更新全局参数更新信息再次更新待训练识别模型,如此循环迭代,直到数据端检测到待训练识别模型收敛为止。其中,数据端检测待训练识别模型收敛的条件可以是检测到分类损失值收敛,或检测到与协调端联合训练的迭代次数达到一定次数,或检测到训练时长达到一定时长。
在本实施例中,各个数据端本地拥有各自的时空训练数据,各个数据端仅在本地使用时空训练数据对本地的待训练识别模型进行训练,并未将时空训练数据发送给其他数据端和协调端,从而保护了各自时空训练数据中的隐私信息,避免了隐私信息泄露;通过将训练得到的本地参数更新信息发送给协调端由协调端进行融合再下发,各个数据端最终得到相同的目标识别模型,实现了在不泄露隐私数据的情况下,联合各个数据端的时空训练数据完成识别模型的训练,识别模型是基于各个数据端的时空训练数据训练得到的,训练数据集的数据量得到大大提升,从而提升了识别模型的预测准确度。
进一步地,由于各个数据端的时空数据采集设备可能是不同型号的设备,例如,脑电信号采集设备在电极数和采样频率上可能都不相同,从而使得各个数据端的时空训练数据在数据结构上并不一致,然而现有的横向联邦学习是建立在各个数据端的数据是相同结构的基础上的,为了联合数据结构不同的各个数据端进行横向联邦学习,以保证各个数据端时空数据中隐私信息不被泄露的同时,联合各个数据端来完成识别模型的训练,以提升识别模型的预测准确度,在一实施方式中,提出一种解决方案。
具体地,由于各个数据端本地的时空数据采集设备型号不同,所以采集到的数据矩阵维度不同。例如,同样以一秒内的脑电图数据作为一条训练数据,数据端A对应的电极数是6个,采样频率是每秒50个采样点,则数据端A的一条训练数据是6*50的矩阵;数据端B对应的电极数是8个,采样频率是每秒200个采样点,则数据端B的一条训练数据是8*200的矩阵;数据端A和数据端B的训练数据的矩阵维度不相同。对此,各个数据端本地的待训练识别模型中流形降维层的参数矩阵维度可设置的不同,具体地,参数矩阵维度可与时空训练数据的维度对应,以使得各个数据端各自本地的时空训练数据,在经过各自本地的待训练识别模型中流形降维层的处理后,所得到的降维矩阵均处于预设维度的共用嵌入空间。也即,各个数据端的不同矩阵维度的时空训练数据,在经过各自的流形降维层降维处理后,所得到的降维协方差矩阵(简称降维矩阵)的维度相同。其中,共用嵌入空间是对称正定矩阵流形。
各个数据端本地的待训练识别模型的切空间投影层和神经网络层是相同的,因此,各个数据端本地的待训练识别模型可以看做是私有模型和公用模型两个部分,私有模型即流形降维层的部分,公用模型即切空间投影层和神经网络层的部分。各个数据端可以联合训练公用模型,对私有模型则可以以各自的训练结果为准。具体地,数据端计算得到的本地参数更新信息中,包括流形降维层、切空间投影层和神经网络层分别对应的本地参数更新信息,数据端直接采用流形降维层的本地参数更新信息来更新本地流形降维层的参数,将切空间投影层和神经网络层对应的本地参数更新信息发送给协调端进行融合,并采用接收到的全局参数更新信息更新本地的切空间投影层和神经网络层的参数。
在本实施例中,通过各个数据端本地维护不同的流形降维层,通过各自的流形降维层将各自的时空训练数据转换到同一维度的共用嵌入控件,从而实现采用不同规格的时空数据采集设备的各个数据端,也能够联合各自的时空数据一起训练识别模型,从而提升识别模型的预测准确度,并且,训练过程中各个数据端并不会暴露各自时空数据中的隐私信息,从而保护了数据隐私安全。
进一步地,所述采用本地的时空训练数据对待训练识别模型进行本地训练,得到用于更新所述待训练识别模型的本地参数更新信息的步骤包括:
步骤S501,将本地的时空训练数据输入待训练识别模型进行识别,得到本地预测结果;
在本实施例中,数据端可将本地的时空训练数据输入待训练识别模型进行识别,得到本地预测结果。具体地,数据端先将时空训练数据转换为空间协方差矩阵。由于各个数据端的时空训练数据的数据矩阵维度不同,转换得到的空间协方差矩阵维度也不相同,处于不同的对称正定矩阵流形上。数据端调用本地待训练识别模型中的流形降维层对空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵。各个数据端降维处理得到的降维协方差矩阵均处于预设维度的共用嵌入空间。数据端再调用切空间投影层,将降维协方差矩阵投影到其切空间上,得到投影结果,再将投影结果输入到神经网络层进行处理,得到本地预测结果。
步骤S502,接收参与横向联邦学习的其他数据端发送的用于计算损失函数的中间结果;
步骤S503,基于所述中间结果计算得到与所述其他数据端之间的最大中值差异,其中,所述最大中值差异表征本地的时空训练数据所对应的降维矩阵在所述共用嵌入空间的概率分布,与所述其他数据端的时空训练数据对应的降维矩阵在所述共用嵌入空间的概率分布之间的差异;
为进一步地提高基于不同数据结构训练得到的目标识别模型的预测准确度,在本实施例中,尽可能地缩小各个数据端降维处理得到的降维协方差矩阵在共用嵌入空间上的差异。具体地,各个数据端本地在计算分类损失同时,还计算与其他数据端之间的边界损失,其中,边界损失可以是计算与其他数据端之间的最大中值差异(maximum meandiscrepancy)。两个数据端之间的最大中值差异表征了两个数据端本地的时空训练数据在经过流形降维层处理,得到的降维矩阵在共用嵌入空间的概率分布之间的差异。
为计算数据端与其他数据端之间的最大中值差异,各个数据端可将本地的中间结果发送给其他数据端。数据端也接收其他数据端发送的中间结果,并采用中间结果来计算与其他数据端之间的最大中值差异。具体地,数据端i和数据端j之间的最大中值差异可以表示为(Qi,Qj),其中,Qi表示数据端i的降维矩阵在共用嵌入空间的概率分布,Qj表示数据端j的降维矩阵在共用嵌入空间的概率分布;假设数据端i的每个降维矩阵Ri({S1,···,Sn})服从概率分布Qi,n是数据端i的降维矩阵的个数,定义每个特征映射N→H,其中,N是共用嵌入空间,H是一个再生核希尔伯特空间(Reproducing Kernel Hilbertspace),则具体可以按照如下公式计算数据端i和数据端j之间的最大中值差异:
其中,随机变量S∈{S1,···,SN},那么数据端之间可以不直接发送概率分布本身,而是可以发送用于计算最大中值差异的中间结果,例如,数据端j将作为中间结果发送给数据端i,供数据端i计算与数据端j之前的最大中值差异。
步骤S504,基于所述本地预测结果和本地的所述时空训练数据的标签数据计算分类损失;
步骤S505,根据所述分类损失和所述最大中值差异计算得到所述待训练识别模型的本地参数更新信息。
数据端基于本地预测结果和本地的时空训练数据的标签数据计算分类损失。具体地,可采用交叉熵损失函数的计算方式来计算分类损失,在此不进行详细赘述。数据端将计算得到的最大中值差异作为边界损失,当其他数据端有多个时,数据端可将计算得到的多个最大中值差异进行平均,将平均结果作为边界损失。根据分类损失和边界损失计算得到待训练识别模型的总损失,具体可以将两个损失相加得到总损失。数据端可根据总损失计算本地的待训练识别模型中各个层对应的本地参数更新信息。
进一步地,数据端可根据流形降维层的本地参数更新信息更新流形降维层的参数,将切空间投影层和神经网络层的本地参数更新信息发送给协调端进行融合,并根据协调端下发的全局参数更新信息来更新本地的切空间投影层和神经网络层的参数。
数据端可在更新本地的待训练识别模型后,检测总损失是否收敛,若收敛,则结束训练,将更新后的本地待训练识别模型作为目标识别模型,若为收敛,则在更新后的本地待训练识别模型基础上,在此联合各个数据端和协调端进行训练,直到总损失收敛为止。通过优化总损失,使得各个数据端的目标识别模型在分类损失减小的同时,也尽可能地缩小了各个数据端降维处理得到的降维协方差矩阵在共用嵌入空间上的差异,从而进一步地提升了基于不同数据结构训练得到的目标识别模型的预测准确度。
在时空数据难以收集,时空数据采集设备规格不统一的情况下,本实施例提供的方案实现联合不同的时空数据采集设备采集的数据进行识别模型的训练,并保证了识别模型的预测准确度。
此外本发明实施例还提出一种数据识别装置,参照图3,所述装置包括:
获取模块10,用于获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵;
降维模块20,用于调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵;
投影模块30,用于调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果;
识别模块40,用于将所述投影结果输入到所述目标识别模型中的神经网络层,得到所述待识别时空数据的识别结果。
进一步地,所述装置还包括:
训练模块,用于采用本地的时空训练数据对待训练识别模型进行本地训练,得到用于更新所述待训练识别模型的本地参数更新信息;
发送模块,用于将所述本地参数更新信息发送给协调端,以供所述协调端对各个数据端发送的本地参数更新信息进行融合,得到全局参数更新信息;
接收模块,用于接收所述协调端下发的所述全局参数更新信息,并根据所述全局参数更新信息更新所述待训练识别模型,以基于更新后的待训练识别模型得到所述目标识别模型。
进一步地,参与横向联邦学习的各个数据端各自本地的时空训练数据,在经过各自本地的待训练识别模型中流形降维层的处理后,所得到的降维矩阵均处于所述预设维度的共用嵌入空间。
进一步地,所述训练模块包括:
识别单元,用于将本地的时空训练数据输入待训练识别模型进行识别,得到本地预测结果;
接收单元,用于接收参与横向联邦学习的其他数据端发送的用于计算损失函数的中间结果;
第一计算单元,用于基于所述中间结果计算得到与所述其他数据端之间的最大中值差异,其中,所述最大中值差异表征本地的时空训练数据所对应的降维矩阵在所述共用嵌入空间的概率分布,与所述其他数据端的时空训练数据对应的降维矩阵在所述共用嵌入空间的概率分布之间的差异;
第二计算单元,用于基于所述本地预测结果和本地的所述时空训练数据的标签数据计算分类损失;
第三计算单元,用于根据所述分类损失和所述最大中值差异计算得到所述待训练识别模型的本地参数更新信息。
进一步地,所述待识别时空数据为待识别脑电图数据,所述获取模块10包括:
转置单元,用于对所述待识别脑电图数据进行转置得到转置矩阵,其中,所述待识别脑电图数据是预设时长内的脑电图数据构成的E*D矩阵,E为采集所述待识别脑电图数据所使用的电极数,D为所述预设时长内的采样频率;
第四计算单元,用于根据所述待识别脑电图数据、所述转置矩阵和所述采样频率,计算得到处于对称正定矩阵流形的空间协方差矩阵。
进一步地,所述降维模块20还用于:
调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,以通过所述流形降维层的神经元参数矩阵将所述空间协方差矩阵降维映射到预设维度的对称正定矩阵流形上,得到降维协方差矩阵。
进一步地,所述投影模块还用于:
调用所述目标识别模型中切空间投影层对所述降维协方差矩阵进行对数映射,以将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果。
本发明数据识别装置的具体实施方式的拓展内容与上述数据识别方法各实施例基本相同,在此不做赘述。
此外,本发明实施例还提出一种计算机可读存储介质,所述存储介质上存储有数据识别程序,所述数据识别程序被处理器执行时实现如下所述的数据识别方法的步骤。
本发明数据识别设备和计算机可读存储介质的各实施例,均可参照本发明数据识别方法各实施例,此处不再赘述。
需要说明的是,在本文中,术语“包括”、“包含”或者其任何其他变体意在涵盖非排他性的包含,从而使得包括一系列要素的过程、方法、物品或者装置不仅包括那些要素,而且还包括没有明确列出的其他要素,或者是还包括为这种过程、方法、物品或者装置所固有的要素。在没有更多限制的情况下,由语句“包括一个……”限定的要素,并不排除在包括该要素的过程、方法、物品或者装置中还存在另外的相同要素。
上述本发明实施例序号仅仅为了描述,不代表实施例的优劣。
通过以上的实施方式的描述,本领域的技术人员可以清楚地了解到上述实施例方法可借助软件加必需的通用硬件平台的方式来实现,当然也可以通过硬件,但很多情况下前者是更佳的实施方式。基于这样的理解,本发明的技术方案本质上或者说对现有技术做出贡献的部分可以以软件产品的形式体现出来,该计算机软件产品存储在一个存储介质(如ROM/RAM、磁碟、光盘)中,包括若干指令用以使得一台终端设备(可以是手机,计算机,服务器,空调器,或者网络设备等)执行本发明各实施例所述的方法。
以上仅为本发明的优选实施例,并非因此限制本发明的专利范围,凡是利用本发明说明书及附图内容所作的等效结构或等效流程变换,或直接或间接运用在其他相关的技术领域,均同理包括在本发明的专利保护范围内。
Claims (10)
1.一种数据识别方法,其特征在于,所述方法包括以下步骤:
获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵;
调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵;
调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果;
将所述投影结果输入到所述目标识别模型中的神经网络层,得到所述待识别时空数据的识别结果。
2.如权利要求1所述的数据识别方法,其特征在于,所述数据识别方法应用于参与横向联邦学习的数据端,所述获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵的步骤之前,还包括:
采用本地的时空训练数据对待训练识别模型进行本地训练,得到用于更新所述待训练识别模型的本地参数更新信息;
将所述本地参数更新信息发送给协调端,以供所述协调端对各个数据端发送的本地参数更新信息进行融合,得到全局参数更新信息;
接收所述协调端下发的所述全局参数更新信息,并根据所述全局参数更新信息更新所述待训练识别模型,以基于更新后的待训练识别模型得到所述目标识别模型。
3.如权利要求2所述的数据识别方法,其特征在于,参与横向联邦学习的各个数据端各自本地的时空训练数据,在经过各自本地的待训练识别模型中流形降维层的处理后,所得到的降维矩阵均处于所述预设维度的共用嵌入空间。
4.如权利要求3所述的数据识别方法,其特征在于,所述采用本地的时空训练数据对待训练识别模型进行本地训练,得到用于更新所述待训练识别模型的本地参数更新信息的步骤包括:
将本地的时空训练数据输入待训练识别模型进行识别,得到本地预测结果;
接收参与横向联邦学习的其他数据端发送的用于计算损失函数的中间结果;
基于所述中间结果计算得到与所述其他数据端之间的最大中值差异,其中,所述最大中值差异表征本地的时空训练数据所对应的降维矩阵在所述共用嵌入空间的概率分布,与所述其他数据端的时空训练数据对应的降维矩阵在所述共用嵌入空间的概率分布之间的差异;
基于所述本地预测结果和本地的所述时空训练数据的标签数据计算分类损失;
根据所述分类损失和所述最大中值差异计算得到所述待训练识别模型的本地参数更新信息。
5.如权利要求1所述的数据识别方法,其特征在于,所述待识别时空数据为待识别脑电图数据,所述将所述待识别时空数据转换为空间协方差矩阵的步骤包括:
对所述待识别脑电图数据进行转置得到转置矩阵,其中,所述待识别脑电图数据是预设时长内的脑电图数据构成的E*D矩阵,E为采集所述待识别脑电图数据所使用的电极数,D为所述预设时长内的采样频率;
根据所述待识别脑电图数据、所述转置矩阵和所述采样频率,计算得到处于对称正定矩阵流形的空间协方差矩阵。
6.如权利要求1所述的数据识别方法,其特征在于,所述调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵的步骤包括:
调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,以通过所述流形降维层的神经元参数矩阵将所述空间协方差矩阵降维映射到预设维度的对称正定矩阵流形上,得到降维协方差矩阵。
7.如权利要求1所述的数据识别方法,其特征在于,所述调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果的步骤包括:
调用所述目标识别模型中切空间投影层对所述降维协方差矩阵进行对数映射,以将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果。
8.一种数据识别装置,其特征在于,所述装置包括:
获取模块,用于获取待识别时空数据,并将所述待识别时空数据转换为空间协方差矩阵;
降维模块,用于调用预设的目标识别模型中的流形降维层对所述空间协方差矩阵进行降维处理,得到预设维度的降维协方差矩阵;
投影模块,用于调用所述目标识别模型中的切空间投影层将所述降维协方差矩阵投影到所述降维协方差矩阵的切空间上,得到投影结果;
识别模块,用于将所述投影结果输入到所述目标识别模型中的神经网络层,得到所述待识别时空数据的识别结果。
9.一种数据识别设备,其特征在于,所述数据识别设备包括:存储器、处理器及存储在所述存储器上并可在所述处理器上运行的数据识别程序,所述数据识别程序被所述处理器执行时实现如权利要求1至7中任一项所述的数据识别方法的步骤。
10.一种计算机可读存储介质,其特征在于,所述计算机可读存储介质上存储有数据识别程序,所述数据识别程序被处理器执行时实现如权利要求1至7中任一项所述的数据识别方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010567332.3A CN111723740A (zh) | 2020-06-19 | 2020-06-19 | 数据识别方法、装置、设备及计算机可读存储介质 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010567332.3A CN111723740A (zh) | 2020-06-19 | 2020-06-19 | 数据识别方法、装置、设备及计算机可读存储介质 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN111723740A true CN111723740A (zh) | 2020-09-29 |
Family
ID=72568157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010567332.3A Withdrawn CN111723740A (zh) | 2020-06-19 | 2020-06-19 | 数据识别方法、装置、设备及计算机可读存储介质 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111723740A (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116188820A (zh) * | 2023-01-12 | 2023-05-30 | 中国兵器装备集团自动化研究所有限公司 | 一种视觉目标处理方法、装置、设备及存储介质 |
CN116796860A (zh) * | 2023-08-24 | 2023-09-22 | 腾讯科技(深圳)有限公司 | 联邦学习方法、装置、电子设备及存储介质 |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930790A (zh) * | 2016-04-19 | 2016-09-07 | 电子科技大学 | 基于核稀疏编码的人体行为识别方法 |
CN105930789A (zh) * | 2016-04-18 | 2016-09-07 | 电子科技大学 | 基于对数欧式空间词袋模型的人体行为识别 |
CN109934167A (zh) * | 2019-03-13 | 2019-06-25 | 西安交通大学 | 一种降低特征维度的修正csp方法 |
CN111190158A (zh) * | 2020-01-13 | 2020-05-22 | 西安电子科技大学 | 复杂雷达辐射源识别方法、装置、电子设备及其存储介质 |
-
2020
- 2020-06-19 CN CN202010567332.3A patent/CN111723740A/zh not_active Withdrawn
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN105930789A (zh) * | 2016-04-18 | 2016-09-07 | 电子科技大学 | 基于对数欧式空间词袋模型的人体行为识别 |
CN105930790A (zh) * | 2016-04-19 | 2016-09-07 | 电子科技大学 | 基于核稀疏编码的人体行为识别方法 |
CN109934167A (zh) * | 2019-03-13 | 2019-06-25 | 西安交通大学 | 一种降低特征维度的修正csp方法 |
CN111190158A (zh) * | 2020-01-13 | 2020-05-22 | 西安电子科技大学 | 复杂雷达辐射源识别方法、装置、电子设备及其存储介质 |
Non-Patent Citations (1)
Title |
---|
CE JU等: "Federated Transfer Learning for EEG Signal Classification", 《ARXIV》, 26 April 2020 (2020-04-26), pages 1 - 6 * |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN116188820A (zh) * | 2023-01-12 | 2023-05-30 | 中国兵器装备集团自动化研究所有限公司 | 一种视觉目标处理方法、装置、设备及存储介质 |
CN116188820B (zh) * | 2023-01-12 | 2023-10-13 | 中国兵器装备集团自动化研究所有限公司 | 一种视觉目标处理方法、装置、设备及存储介质 |
CN116796860A (zh) * | 2023-08-24 | 2023-09-22 | 腾讯科技(深圳)有限公司 | 联邦学习方法、装置、电子设备及存储介质 |
CN116796860B (zh) * | 2023-08-24 | 2023-12-12 | 腾讯科技(深圳)有限公司 | 联邦学习方法、装置、电子设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN107529650B (zh) | 闭环检测方法、装置及计算机设备 | |
CN114611705A (zh) | 数据处理方法、机器学习的训练方法及相关装置、设备 | |
US20220138536A1 (en) | Actional-structural self-attention graph convolutional network for action recognition | |
CN112395979A (zh) | 基于图像的健康状态识别方法、装置、设备及存储介质 | |
CN114494815B (zh) | 神经网络训练方法、目标检测方法、装置、设备和介质 | |
CN112084959B (zh) | 一种人群图像处理方法及装置 | |
CN111723740A (zh) | 数据识别方法、装置、设备及计算机可读存储介质 | |
CN109214543B (zh) | 数据处理方法及装置 | |
CN114424940A (zh) | 基于多模态时空特征融合的情绪识别方法及系统 | |
CN114037003A (zh) | 问答模型的训练方法、装置及电子设备 | |
CN112699947A (zh) | 基于决策树的预测方法、装置、设备、介质及程序产品 | |
CN118051809B (zh) | 基于多特征融合的非接触式状态识别方法 | |
CN116310744A (zh) | 图像处理方法、装置、计算机可读介质及电子设备 | |
EP4365755A1 (en) | Method for identifying clarity of well logging image, apparatus, medium, and electronic device | |
CN112989134B (zh) | 节点关系图的处理方法、装置、设备及存储介质 | |
CN117975259A (zh) | 基于改进的YOLOv5的麦穗检测方法、装置、设备及存储介质 | |
CN112232292A (zh) | 应用于移动端的人脸检测方法及装置 | |
KR20230090979A (ko) | 뉴럴 네트워크를 이용한 상담 가이드 정보 추천 방법 및 장치 | |
CN114581734A (zh) | 分类模型训练方法、装置、设备以及存储介质 | |
CN114792284A (zh) | 形象切换方法和装置、存储介质及电子设备 | |
CN113903071A (zh) | 人脸识别方法、装置、电子设备和存储介质 | |
CN113191364A (zh) | 车辆外观部件识别方法、装置、电子设备和介质 | |
CN113780324A (zh) | 数据处理方法、装置、电子设备及存储介质 | |
CN113989540B (zh) | 基于深度学习判断异常行为的监控方法、装置、计算机设备和存储介质 | |
CN111046933A (zh) | 图像分类方法、装置、存储介质及电子设备 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WW01 | Invention patent application withdrawn after publication |
Application publication date: 20200929 |
|
WW01 | Invention patent application withdrawn after publication |