CN108573512A - 一种基于深度编解码对偶模型的复杂视觉图像重构方法 - Google Patents

一种基于深度编解码对偶模型的复杂视觉图像重构方法 Download PDF

Info

Publication number
CN108573512A
CN108573512A CN201810233579.4A CN201810233579A CN108573512A CN 108573512 A CN108573512 A CN 108573512A CN 201810233579 A CN201810233579 A CN 201810233579A CN 108573512 A CN108573512 A CN 108573512A
Authority
CN
China
Prior art keywords
convolution
operations
data
image
visual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201810233579.4A
Other languages
English (en)
Other versions
CN108573512B (zh
Inventor
陈华富
黄伟
王冲
颜红梅
杨晓青
杨天
刘秩铭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
University of Electronic Science and Technology of China
Original Assignee
University of Electronic Science and Technology of China
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by University of Electronic Science and Technology of China filed Critical University of Electronic Science and Technology of China
Priority to CN201810233579.4A priority Critical patent/CN108573512B/zh
Publication of CN108573512A publication Critical patent/CN108573512A/zh
Application granted granted Critical
Publication of CN108573512B publication Critical patent/CN108573512B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/001Model-based coding, e.g. wire frame

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)

Abstract

本发明公开了一种基于深度编解码对偶模型的复杂视觉图像重构方法,属于生物医学图像脑解码中的视觉场景重构技术领域。本发明首先采集观看大量自然图像下的功能磁共振信号。然后分别建立四个网络模型:1、编码模型,即使用卷积神经网络将自然图像编码成视觉区的体素信号;2、解码模型,即是用卷积神经网络以及反卷积神经网络将视觉区体素信号解码成自然图像;3、判别自然图像模型,即判断真图像与假图像;4、判别视觉区响应模型,即判断真信号与假信号。通过训练设计好的四个模型,可实现从脑信号中还原出视觉场景图像。本发明首次解决了自然场景与脑信号之间直接相互转换的问题,可以实现脑机接口场景的实际应用。

Description

一种基于深度编解码对偶模型的复杂视觉图像重构方法
技术领域
本方法属于生物医学图像脑解码中的视觉场景重构技术领域,具体涉及功能磁共振图像的自然图像重构模型的框架搭建。
背景技术
2008年,Miyawaki等人让被试观看很多闪烁的棋盘格刺激图片,并记录这些刺激在早期视皮层(V1/V2/V3)的BOLD信号响应,使用多体素模式分析(Multi-voxel patternclassification,MVPA)方法,建立了多尺度稀疏多项式逻辑回归(SMLR)局部解码器模型,第一次实现了不受限于候选视觉刺激类别的脑信号视觉图像重建,重构出了简单的几何图像和字母刺激,这项研究提供了一种全新的解读大脑视觉感知状态的思路。但是,Miyawaki等人的方法只能重构出简单图像,且重构出的图像准确率较低,噪声比较大,重构时间比较长。Zhan和Song等人在Miyawaki的研究基础上,提出了基于支持向量机和贝叶斯分类器的重构方法,并采用独立成份分析方法提高特征提取的效率,在一定程度上提高了重构效率。2009年,Naselaris等人利用自然图像的结构信息和语义信息等,用早期视皮层和视前区的fMRI信号响应,构建了一个基于贝叶斯的重构模型,尝试了自然图像的脑信息重构。2011年,Nishimoto等人记录分析了受试者观看自然视频图像时枕颞叶的BOLD信号响应模式,发现早期视皮层动态脑活动响应模式可以用来编码动态视频信息类型,估计了视频图像的时空运动-能量编码模型并在此基础上构建了一种基于贝叶斯的解码模型,重构出了受试者所感知到的视频图像的主要信息。Cowen等人利用主成分分析方法将人类面孔刺激转换到“特征脸”空间,然后建立新的特征与fMRI信号之间的关系,第一次实现了对人类面孔刺激的重构。然而,已有的重构方法和技术普遍存在准确率较低和噪声较大的问题,特别是在统计结构较为复杂的自然图像的重构问题上还存在很大缺陷。发展高效的脑信号解码模式识别方法,充分利用视觉认知过程中脑响应的动态过程,更准确地模拟视觉刺激和脑响应间的映射关系,是提高视觉图像重构质量的关键。
发明内容
本发明针对背景技术的不足之处,解决重构出的图像准确率较低,噪声比较大,重构时间比较长的问题,在前人研究基础上改进设计出一种基于深度编解码对偶模型的复杂视觉图像重构方法。
本发明在前人研究基础上结合深度学习方法,建立了基于深度编解码对偶模型的脑信息解码模型,对复杂自然图像进行了视觉重构,从而实现发明目的。因而本发明技术方案为一种基于深度编解码对偶模型的复杂视觉图像重构方法,该方法为采用训练数据对编码器G1;解码器G2;判别图像器D1;判别视觉区响应器D2进行训练;
1.所述编码器G1的作用为将刺激图像转换为视觉区响应信号,编码器G1的编码方法为:
步骤1.1:对刺激图像进行补零操作;对补领后的数据一次进行三次运算,每次运算包含卷积、批量标准化、修正线性单元非线性函数三种操作;
步骤1.2:将步骤1.1得到的数据进行9次残差操作,每次残差操作不改变数据的大小和厚度;
步骤1.3:将步骤1.2得到的数据依次进行5次运算,每次运算包含卷积、批量标准化、修正线性单元非线性函数三种操作;然后进行reshape操作调整数据的维度,最后使用全链接网络得到与视觉区域信号维度相同的数据;
2.所述解码器G2的作用为将视觉区响应信号转换为刺激图像,解码器G2的解码方法为:
步骤2.1:对视觉区信号数据进行全连接操作,然后进行reshape操作,修改数据维度,再进行五次运算,每次运算包含卷积、批量标准化、修正线性单元非线性函数三种操作;步骤2.2:将步骤2.1得到的数据进行9次残差操作;每次残差操作不改变数据的大小和厚度;
步骤2.3:将步骤2.2得到的数据进行2次运算,每一次运算包含反卷积、批量标准化、修正线性单元非线性函数三种操作;然后进行补零操作;最后依次进行一次卷积、批量标准化、修正线性单元非线性函数三种操作,得到数据认定为刺激图像;
3.所述判别图像器D1的判别方法为:
对样本图像依次进行五次运算,每次运算包含卷积、批量标准化、弱修正线性单元非线性函数三种操作;
4.所述判别视觉区响应器D2的判别方法为:
对视觉区响应信号进行全连接,然后对该数据进行reshape操作改变数据维度,然后依次进行五次运算,每次运算包含卷积、批量标准化、弱修正线性单元非线性函数三种操作;五次运算中卷积操作的卷积核大小都为3*3;卷积步长分别为2、1、1、1、1;卷积核深度分别为64、128、256、512、1;
5.该训练方法为:
步骤5.1:获取训练数据,训练数据包括刺激图像和每张刺激图像诱发下的多个时间节点的视觉区响应信号;
步骤5.2:定义3个损失函数,分别为生成总损失L1、判别图像损失L2、判别视觉区响应损失L3,如下:
L1=y*log[G1(x)]+(1-y)*log[1-G1(x)]+x*log[G2(y)]+(1-x)*log[1-G2(y)]+‖G2(G1(x))-x‖1+‖G1(G2(y))-y‖1+‖D1(G2(y))-1‖2+‖D2(G1(x))-1‖2
L2=‖D1(G2(y))‖2+‖D1(x)-1‖2
L3=‖D2(G1(x))‖2+‖D2(y)-1‖2
其中,x表示刺激图像;y表示视觉区响应信号,G1(x)、G2(y)、D1(G2(y))、D2(G1(x)),分别表示对括号中数据进行相应的处理;
步骤5.3:对L1、L2、L3三个损失函数,依次使用Adam优化算法进行对应的权重更新;先固定判别图像器D1和判别视觉区响应器D2中的权重参数,更新编码器G1和解码器G2中的参数;再固定编码器G1和解码器G2中的参数,更新判别图像器D1和判别视觉区响应器D2中的参数,依次循环进行权重更新;训练得到效果最好的编码器G1;解码器G2;判别图像器D1;判别视觉区响应器D2
6.测试阶段:采用训练好的解码器G2解码测试视觉区响应信号。
进一步的,所述步骤1.1中的三次运算中卷积操作的卷积核大小分别为:7*7、3*3、3*3;卷积步长分别为1、2、2;卷积核深度分别为64、128、256。
进一步的,所述步骤1.3中的五次运算中卷积操作的卷积核大小都为3*3;卷积步长都为1;卷积核深度分别为128、64、32、16、6。
进一步的,所述步骤2.1中的五次运算中卷积操作的卷积核大小都为3*3;卷积步长都为1;卷积核深度分别为16、32、64、128、256。
进一步的,所述步骤2.3的的具体方法为将步骤2.2得到的数据进行2次运算,每一次运算包含反卷积、批量标准化、修正线性单元非线性函数三种操作;两次运算中卷积操作的卷积核大小都为3*3;卷积步长都为2;卷积核深度分别为128、64;然后进行补零操作;最后依次进行一次卷积、批量标准化、修正线性单元非线性函数三种操作,其中卷积核大小都为3*3;卷积步长都为1;卷积核深度分别为3;得到数据认定为刺激图像。
进一步的,所述第3点判别图像器D1的判别方法五次运算中卷积操作的卷积核大小都为3*3;卷积步长分别为2、2、2、1、1;卷积核深度分别为64、128、256、512、1。
进一步的,所述步骤5.3中的Adam具体优化参数如下:步长ε默认为0.001;矩估计的指数衰减速率ρ1和ρ2分别默认为0.9和0.999;数值稳定的小常数δ默认为10-8;以均值为0方差为0.001的正态分布初始化参数θ;一阶和二阶矩变量初始化为s=0,r=0;时间步长初始化t=0;每次取出m个样本{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))}进行以下更新:
计算梯度:其中:f(x(i);θ)表示输入x(i)时所预测的输出,L(f(x(i);θ),y(i))表示第i个样本的损失函数,符号←表示赋值,g表示梯度;
更新时间步:t←t+1;
更新有偏一阶矩估计:s←ρ1s+(1-ρ1)g,其中:ρ1表示一阶矩估计的指数衰减速率(默认为0.9),s表示一阶矩变量;
更新有偏二阶矩估计:r←ρ2r+(1-ρ2)g⊙g,其中:ρ2表示二阶矩估计的指数衰减速率(默认为0.999),r表示二阶矩变量;
修正一阶矩的偏差:其中:表示修正的一阶矩变量,表示ρ1的t次幂;
修正二阶矩的偏差:其中:表示修正的二阶矩变量,表示ρ2的t次幂;
计算更新:其中:Δθ表示参数θ的改变量;
权重参数更新:θ←θ+Δθ
本发明建立了基于深度编解码对偶模型的脑信息解码模型,对复杂自然图像进行了视觉重构,具有重构出的图像准确率相对较高,噪声比较小,重构时间比较短的效果。
附图说明
图1为本发明图像重构流程示意图;
图2为本发明具体测试结果对比示意图。
具体实施方式
A.编码模型:
步骤A1:对大小为256*256*3的原始自然刺激图像进行补零(pad)操作,将得到大小为262*262*3数据。然后对补零后的数据依次进行三次运算,每一次运算包含Convolution(卷积)、Batch Normalization(批量标准化)、Relu(修正线性单元非线性函数)三种操作。三次运算中卷积操作的卷积核大小分别为:7*7、3*3、3*3;卷积步长分别为1、2、2;卷积核深度分别为64、128、256。此步骤最后得到大小为64*64*256的数据。
步骤A2:将步骤A1最后得到的大小为64*64*256数据作为此步骤的输入,对其进行9次Residual(残差)操作。每次残差操作不改变数据的大小(前两维)和厚度(第三维)。所以此步骤最后的得到大小还是为64*64*256的数据。
步骤A3:将步骤A2最后得到的大小为64*64*256数据作为此步骤的输入,依次对输入数据先进行5次运算,每一次运算包含Convolution(卷积)、Batch Normalization(批量标准化)、Relu(修正线性单元非线性函数)三种操作。五次运算中卷积操作的卷积核大小都为3*3;卷积步长都为1;卷积核深度分别为128、64、32、16、6。五次运算之后得到大小为64*64*6的数据,然后进行reshape操作,得到大小为4096*6的数据。最后使用全链接网络将得到大小为2046*6(6个时间点的视觉区响应)的此步骤最后数据,经过步骤A1、A2、A3,相当于实现了自然刺激图像转视觉区信号的功能。
B.解码模型:
步骤B1:对大小为2046*6的视觉区信号进行全连接操作会得到4096*6的数据,然后进行reshape操作得到大小为64*64*6的数据。接下来进行五次运算,每次运算包含Convolution(卷积)、Batch Normalization(批量标准化)、Relu(修正线性单元非线性函数)三种操作。五次运算中卷积操作的卷积核大小都为3*3;卷积步长都为1;卷积核深度分别为16、32、64、128、256。5此运算之后得到大小为64*64*256的此步骤最后数据。
步骤B2:将步骤B1最后得到的大小为64*64*256数据作为此步骤的输入,对其进行9次Residual(残差)操作。每次残差操作不改变数据的大小(前两维)和厚度(第三维)。所以此步骤最后的得到大小还是为64*64*256的数据。
步骤B3:将步骤B2最后得到的大小为64*64*256数据作为此步骤的输入,依次对输入数据先进行2次运算,每一次运算包含Deconvolution(反卷积)、Batch Normalization(批量标准化)、Relu(修正线性单元非线性函数)三种操作。两次运算中卷积操作的卷积核大小都为3*3;卷积步长都为2;卷积核深度分别为128、64。两次运算之后得到大小为256*256*64的数据,然后进行补零(pad)操作得到大小为262*262*64的数据。最后对其进行一次Convolution(卷积)、Batch Normalization(批量标准化)、Relu(修正线性单元非线性函数)三种操作,其中卷积核大小都为3*3;卷积步长都为1;卷积核深度分别为3。最后得到大小为256*256*3的此步骤最后数据。
步骤B1、B2、B3,相当于实现了视觉区信号转自然刺激图像的功能。
C.判别自然图像模型:
步骤C1:对大小为256*256*3的原始自然刺激图像依次进行五次运算,每次运算包含Convolution(卷积)、Batch Normalization(批量标准化)、Lrelu(弱修正线性单元非线性函数)三种操作。五次运算中卷积操作的卷积核大小都为3*3;卷积步长分别为2、2、2、1、1;卷积核深度分别为64、128、256、512、1。四次运算之后得到大小为32*32*1的此步骤最后数据。
D.判别视觉区响应模型:
步骤D1:首先对大小为2046*6的视觉区响应信号进行全连接,得到大小为4096*6的数据。然后对该数据进行reshape操作,得到大小为64*64*6的数据。然后依次进行五次运算,每次运算包含Convolution(卷积)、Batch Normalization(批量标准化)、Lrelu(弱修正线性单元非线性函数)三种操作。五次运算中卷积操作的卷积核大小都为3*3;卷积步长分别为2、1、1、1、1;卷积核深度分别为64、128、256、512、1。四次运算之后得到大小为32*32*1的此步骤最后数据。
E.训练阶段:
步骤E1:收集训练数据,包含:2500张大小为256*256*3的彩色自然刺激图像,以及每张刺激图像诱发下的六个时间点视觉V1区信号(大小为2046*6,其中6表示观看刺激图像时起接下来六个时间点信号,2046表示视觉V1区的体素点总数)。本专利符号定义:x表示自然刺激图像(大小为256*256*);y表示视觉区六个时间点信号(大小为2046*6);G1表示编码器;G2表示解码器;D1表示判别图像器;D2表示判别视觉区响应器。
步骤E2:本专利定义了3个损失函数,分别表示为生成总损失L1、判别图像损失L2、判别视觉区响应损失L3,如下:
L1=y*log[G1(x)]+(1-y)*log[1-G1(x)]+x*log[G2(y)]+(1-x)*log[1-G2(y)]
+‖G2(G1(x))-x‖1+‖G1(G2(y))-y‖1+‖D1(G2(y))-1‖2
+‖D2(G1(x))-1‖2
L2=‖D1(G2(y))‖2+‖D1(x)-1‖2
L3=‖D2(G1(x))‖2+‖D2(y)-1‖2
步骤E3:对L1、L2、L3三个损失函数,依次使用Adam优化算法进行对应的权重更新。Adam具体优化参数如下:步长ε默认为0.001;矩估计的指数衰减速率ρ1和ρ2分别默认为0.9和0.999;数值稳定的小常数δ默认为10-8;以均值为0方差为0.001的正态分布初始化参数θ;一阶和二阶矩变量初始化为s=0,r=0;时间步长初始化t=0。每次取出m个样本{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))}进行以下更新:
计算梯度:
更新时间步:t←t+1
更新有偏一阶矩估计:s←ρ1s+(1-ρ1)g
更新有偏二阶矩估计:r←ρ2r+(1-ρ2)g⊙g
修正一阶矩的偏差:
修正二阶矩的偏差:
计算更新:
权重参数更新:θ←θ+Δθ
F.测试阶段:
步骤F1:收集测试数据,包含:250张大小为256*256*3的彩色自然刺激图像,以及每张刺激图像诱发下的六个时间点视觉V1区信号(大小为2046*6,其中6表示观看刺激图像时起接下来六个时间点信号,2046表示视觉V1区的体素点总数)。测试数据不出现在训练数据中。
步骤F2:根据训练阶段得到了包含编码器G1、解码器G2、判别图像器D1、判别视觉区响应器D2的模型。将测试图像对应的视觉V1区6个时间点的体素信号输入到解码器G2,会生成一幅图像,该过程就实现了脑信号的解码(图2),本发明技术方案为对彩色图像进行重构,灰度图中不能看出色彩的还原效果,但对色彩的还原比较准确。

Claims (7)

1.一种基于深度编解码对偶模型的复杂视觉图像重构方法,该方法为采用训练数据对编码器G1;解码器G2;判别图像器D1;判别视觉区响应器D2进行训练;
P1.所述编码器G1的作用为将刺激图像转换为视觉区响应信号,编码器G1的编码方法为:
步骤1.1:对刺激图像进行补零操作;对补领后的数据一次进行三次运算,每次运算包含卷积、批量标准化、修正线性单元非线性函数三种操作;
步骤1.2:将步骤1.1得到的数据进行9次残差操作,每次残差操作不改变数据的大小和厚度;
步骤1.3:将步骤1.2得到的数据依次进行5次运算,每次运算包含卷积、批量标准化、修正线性单元非线性函数三种操作;然后进行reshape操作调整数据的维度,最后使用全链接网络得到与视觉区域信号维度相同的数据;
P2.所述解码器G2的作用为将视觉区响应信号转换为刺激图像,解码器G2的解码方法为:
步骤2.1:对视觉区信号数据进行全连接操作,然后进行reshape操作,修改数据维度,再进行五次运算,每次运算包含卷积、批量标准化、修正线性单元非线性函数三种操作;步骤2.2:将步骤2.1得到的数据进行9次残差操作;每次残差操作不改变数据的大小和厚度;
步骤2.3:将步骤2.2得到的数据进行2次运算,每一次运算包含反卷积、批量标准化、修正线性单元非线性函数三种操作;然后进行补零操作;最后依次进行一次卷积、批量标准化、修正线性单元非线性函数三种操作,得到数据认定为刺激图像;
P3.所述判别图像器D1的判别方法为:
对样本图像依次进行五次运算,每次运算包含卷积、批量标准化、弱修正线性单元非线性函数三种操作;
P4.所述判别视觉区响应器D2的判别方法为:
对视觉区响应信号进行全连接,然后对该数据进行reshape操作改变数据维度,然后依次进行五次运算,每次运算包含卷积、批量标准化、弱修正线性单元非线性函数三种操作;五次运算中卷积操作的卷积核大小都为3*3;卷积步长分别为2、1、1、1、1;卷积核深度分别为64、128、256、512、1;
P5.该训练方法为:
步骤5.1:获取训练数据,训练数据包括刺激图像和每张刺激图像诱发下的多个时间节点的视觉区响应信号;
步骤5.2:定义3个损失函数,分别为生成总损失L1、判别图像损失L2、判别视觉区响应损失L3,如下:
L1=y*log[G1(x)]+(1-y)*log[1-G1(x)]+x*log[G2(y)]+(1-x)*log[1-G2(y)]+‖G2(G1(x))-x‖1+‖G1(G2(y))-y‖1+‖D1(G2(y))-1‖2+‖D2(G1(x))-1‖2
L2=‖D1(G2(y))‖2+‖D1(x)-1‖2
L3=‖D2(G1(x))‖2+‖D2(y)-1‖2
其中,x表示刺激图像;y表示视觉区响应信号,G1(x)、G2(y)、D1(G2(y))、D2(G1(x)),分别表示对括号中数据进行相应的处理;
步骤5.3:对L1、L2、L3三个损失函数,依次使用Adam优化算法进行对应的权重更新;先固定判别图像器D1和判别视觉区响应器D2中的权重参数,更新编码器G1和解码器G2中的参数;再固定编码器G1和解码器G2中的参数,更新判别图像器D1和判别视觉区响应器D2中的参数,依次循环进行权重更新;训练得到效果最好的编码器G1;解码器G2;判别图像器D1;判别视觉区响应器D2
P6.测试阶段:采用训练好的解码器G2解码测试视觉区响应信号。
2.如权利要求1所述的一种基于深度编解码对偶模型的复杂视觉图像重构方法,其特征在于所述步骤1.1中的三次运算中卷积操作的卷积核大小分别为:7*7、3*3、3*3;卷积步长分别为1、2、2;卷积核深度分别为64、128、256。
3.如权利要求1所述的一种基于深度编解码对偶模型的复杂视觉图像重构方法,其特征在于所述步骤1.3中的五次运算中卷积操作的卷积核大小都为3*3;卷积步长都为1;卷积核深度分别为128、64、32、16、6。
4.如权利要求1所述的一种基于深度编解码对偶模型的复杂视觉图像重构方法,其特征在于所述步骤2.1中的五次运算中卷积操作的卷积核大小都为3*3;卷积步长都为1;卷积核深度分别为16、32、64、128、256。
5.如权利要求1所述的一种基于深度编解码对偶模型的复杂视觉图像重构方法,其特征在于所述步骤2.3的的具体方法为将步骤2.2得到的数据进行2次运算,每一次运算包含反卷积、批量标准化、修正线性单元非线性函数三种操作;两次运算中卷积操作的卷积核大小都为3*3;卷积步长都为2;卷积核深度分别为128、64;然后进行补零操作;最后依次进行一次卷积、批量标准化、修正线性单元非线性函数三种操作,其中卷积核大小都为3*3;卷积步长都为1;卷积核深度分别为3;得到数据认定为刺激图像。
6.如权利要求1所述的一种基于深度编解码对偶模型的复杂视觉图像重构方法,其特征在于所述第3点判别图像器D1的判别方法五次运算中卷积操作的卷积核大小都为3*3;卷积步长分别为2、2、2、1、1;卷积核深度分别为64、128、256、512、1。
7.如权利要求1所述的一种基于深度编解码对偶模型的复杂视觉图像重构方法,其特征在于所述步骤5.3中的Adam具体优化参数如下:步长ε默认为0.001;矩估计的指数衰减速率ρ1和ρ2分别默认为0.9和0.999;数值稳定的小常数δ默认为10-8;以均值为0方差为0.001的正态分布初始化参数θ;一阶和二阶矩变量初始化为s=0,r=0;时间步长初始化t=0;每次取出m个样本{(x(1),y(1)),(x(2),y(2)),…,(x(m),y(m))}进行以下更新:
计算梯度:y(i)),其中:f(x(i);θ)表示输入x(i)时所预测的输出,L(f(x(i);θ),y(i))表示第i个样本的损失函数,符号←表示赋值,g表示梯度;
更新时间步:t←t+1;
更新有偏一阶矩估计:s←ρ1s+(1-ρ1)g,其中:ρ1表示一阶矩估计的指数衰减速率(默认为0.9),s表示一阶矩变量;
更新有偏二阶矩估计:r←ρ2r+(1-ρ2)g⊙g,其中:ρ2表示二阶矩估计的指数衰减速率(默认为0.999),r表示二阶矩变量;
修正一阶矩的偏差:其中:表示修正的一阶矩变量,表示ρ1的t次幂;
修正二阶矩的偏差:其中:表示修正的二阶矩变量,表示ρ2的t次幂;
计算更新:其中:Δθ表示参数θ的改变量;
权重参数更新:θ←θ+Δθ
CN201810233579.4A 2018-03-21 2018-03-21 一种基于深度编解码对偶模型的复杂视觉图像重构方法 Active CN108573512B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201810233579.4A CN108573512B (zh) 2018-03-21 2018-03-21 一种基于深度编解码对偶模型的复杂视觉图像重构方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201810233579.4A CN108573512B (zh) 2018-03-21 2018-03-21 一种基于深度编解码对偶模型的复杂视觉图像重构方法

Publications (2)

Publication Number Publication Date
CN108573512A true CN108573512A (zh) 2018-09-25
CN108573512B CN108573512B (zh) 2021-04-30

Family

ID=63574481

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810233579.4A Active CN108573512B (zh) 2018-03-21 2018-03-21 一种基于深度编解码对偶模型的复杂视觉图像重构方法

Country Status (1)

Country Link
CN (1) CN108573512B (zh)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816630A (zh) * 2018-12-21 2019-05-28 中国人民解放军战略支援部队信息工程大学 基于迁移学习的fMRI视觉编码模型构建方法
CN111539331A (zh) * 2020-04-23 2020-08-14 西安科技大学 一种基于脑机接口的视觉图像重建系统
CN112233199A (zh) * 2020-09-23 2021-01-15 中国人民解放军战略支援部队信息工程大学 基于离散表征和条件自回归的fMRI视觉重构方法

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101706561A (zh) * 2009-11-20 2010-05-12 电子科技大学 功能性磁共振图像的聚类方法
CN103093087A (zh) * 2013-01-05 2013-05-08 电子科技大学 一种基于多任务学习的多模态脑网络特征融合方法
CN106251299A (zh) * 2016-07-25 2016-12-21 电子科技大学 一种高效降噪视觉图像重构方法
CN106919903A (zh) * 2017-01-19 2017-07-04 中国科学院软件研究所 一种鲁棒的基于深度学习的连续情绪跟踪方法
US20180033165A1 (en) * 2016-07-29 2018-02-01 Toshiba Medical Systems Corporation Fast iterative reconstruction with one backprojection and no forward projection

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101706561A (zh) * 2009-11-20 2010-05-12 电子科技大学 功能性磁共振图像的聚类方法
CN103093087A (zh) * 2013-01-05 2013-05-08 电子科技大学 一种基于多任务学习的多模态脑网络特征融合方法
CN106251299A (zh) * 2016-07-25 2016-12-21 电子科技大学 一种高效降噪视觉图像重构方法
US20180033165A1 (en) * 2016-07-29 2018-02-01 Toshiba Medical Systems Corporation Fast iterative reconstruction with one backprojection and no forward projection
CN106919903A (zh) * 2017-01-19 2017-07-04 中国科学院软件研究所 一种鲁棒的基于深度学习的连续情绪跟踪方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
CHANGDE DU等: "Sharing deep generative representation for perceived image reconstruction from human brain activity", 《IEEE XPLORE》 *
MUPPARATHY BABU LIBY等: "Performance Evaluation of Feature Extraction Techniques on Natural Image Prior in Visual Image Reconstruction", 《IEEE XPLORE》 *
YONGQIANG MA等: "Reconstruction of Visual Image From Functional Magnetic Resonance Imaging Using Spiking Neuron Model", 《IEEE XPLORE》 *
黄伟: "视觉重构脑解码理论与方法研究", 《中国优秀硕士学位论文全文数据库.信息科技辑》 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109816630A (zh) * 2018-12-21 2019-05-28 中国人民解放军战略支援部队信息工程大学 基于迁移学习的fMRI视觉编码模型构建方法
CN109816630B (zh) * 2018-12-21 2020-09-04 中国人民解放军战略支援部队信息工程大学 基于迁移学习的fMRI视觉编码模型构建方法
CN111539331A (zh) * 2020-04-23 2020-08-14 西安科技大学 一种基于脑机接口的视觉图像重建系统
CN111539331B (zh) * 2020-04-23 2023-03-28 西安科技大学 一种基于脑机接口的视觉图像重建系统
CN112233199A (zh) * 2020-09-23 2021-01-15 中国人民解放军战略支援部队信息工程大学 基于离散表征和条件自回归的fMRI视觉重构方法
CN112233199B (zh) * 2020-09-23 2024-02-06 中国人民解放军战略支援部队信息工程大学 基于离散表征和条件自回归的fMRI视觉重构方法

Also Published As

Publication number Publication date
CN108573512B (zh) 2021-04-30

Similar Documents

Publication Publication Date Title
Shen et al. Deep image reconstruction from human brain activity
CN107256393B (zh) 基于深度学习的一维生理信号的特征提取与状态识别
US20190377047A1 (en) Artifact Reduction by Image-to-Image Network in Magnetic Resonance Imaging
Kim et al. Representations of modality-general valence for videos and music derived from fMRI data
CN109271964A (zh) 基于深度学习模型与长短记忆网络的情绪识别方法及系统
CN110211045A (zh) 基于srgan网络的超分辨率人脸图像重建方法
CN108460726A (zh) 一种基于增强递归残差网络的磁共振图像超分辨重建方法
CN108573512A (zh) 一种基于深度编解码对偶模型的复杂视觉图像重构方法
CN107977629A (zh) 一种基于特征分离对抗网络的人脸图像衰老合成方法
Perl et al. Generative embeddings of brain collective dynamics using variational autoencoders
CN110443768A (zh) 基于多重微分一致性约束和对称冗余网络的单帧图像超分辨率重建方法
CN109544518A (zh) 一种应用于骨骼成熟度评估的方法及其系统
CN109783910A (zh) 一种利用生成对抗网络加速的结构优化设计方法
CN114112992B (zh) 一种奶油亮蓝色素的检测方法、装置及存储介质
CN112233199B (zh) 基于离散表征和条件自回归的fMRI视觉重构方法
CN113988123A (zh) 一种基于自加权增量rvfl网络的脑电疲劳预测方法
Zhao et al. Two-stage spatial temporal deep learning framework for functional brain network modeling
Huang et al. Deep natural image reconstruction from human brain activity based on conditional progressively growing generative adversarial networks
CN110246093A (zh) 一种解码图像增强方法
Goebel et al. Reading imagined letter shapes from the mind’s eye using real-time 7 tesla fMRI
Wang et al. Human-in-the-loop design with machine learning
CN112215410B (zh) 基于改进深度学习的电力负荷预测方法
Qiao et al. Sparse deep dictionary learning identifies differences of time-varying functional connectivity in brain neuro-developmental study
CN116434950B (zh) 基于数据分簇和集成学习的孤独症谱系障碍的诊断系统
CN116596046A (zh) 一种利用脑电信号和视觉特征进行图像重构的方法

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant