CN113792860A - 基于常微分方程的gru网络模型及特征提取方法、装置 - Google Patents
基于常微分方程的gru网络模型及特征提取方法、装置 Download PDFInfo
- Publication number
- CN113792860A CN113792860A CN202111080690.2A CN202111080690A CN113792860A CN 113792860 A CN113792860 A CN 113792860A CN 202111080690 A CN202111080690 A CN 202111080690A CN 113792860 A CN113792860 A CN 113792860A
- Authority
- CN
- China
- Prior art keywords
- image
- network model
- feature extraction
- gru
- gru network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000605 extraction Methods 0.000 title claims description 32
- 238000000034 method Methods 0.000 claims abstract description 28
- 230000015654 memory Effects 0.000 claims abstract description 22
- 238000001914 filtration Methods 0.000 claims description 8
- 230000002146 bilateral effect Effects 0.000 claims description 6
- 238000004590 computer program Methods 0.000 claims description 6
- 238000007781 pre-processing Methods 0.000 claims description 6
- 238000011176 pooling Methods 0.000 claims description 5
- 238000013527 convolutional neural network Methods 0.000 claims description 3
- 238000012549 training Methods 0.000 abstract description 13
- 230000008569 process Effects 0.000 abstract description 10
- 230000006870 function Effects 0.000 description 12
- 238000013135 deep learning Methods 0.000 description 9
- 208000027418 Wounds and injury Diseases 0.000 description 7
- 238000013528 artificial neural network Methods 0.000 description 6
- 206010052428 Wound Diseases 0.000 description 5
- 238000013461 design Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 125000004122 cyclic group Chemical group 0.000 description 3
- 238000011161 development Methods 0.000 description 3
- 230000000306 recurrent effect Effects 0.000 description 3
- 210000004556 brain Anatomy 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000006378 damage Effects 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008034 disappearance Effects 0.000 description 2
- 238000004880 explosion Methods 0.000 description 2
- 208000014674 injury Diseases 0.000 description 2
- 230000007246 mechanism Effects 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 208000034656 Contusions Diseases 0.000 description 1
- 206010063385 Intellectualisation Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 210000004027 cell Anatomy 0.000 description 1
- 238000013329 compounding Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000007547 defect Effects 0.000 description 1
- 238000009795 derivation Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000012854 evaluation process Methods 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007774 longterm Effects 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003062 neural network model Methods 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000012545 processing Methods 0.000 description 1
- 230000002787 reinforcement Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004576 sand Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F17/00—Digital computing or data processing equipment or methods, specially adapted for specific functions
- G06F17/10—Complex mathematical operations
- G06F17/11—Complex mathematical operations for solving equations, e.g. nonlinear equations, general mathematical optimization problems
- G06F17/13—Differential equations
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Mathematical Physics (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Analysis (AREA)
- Mathematical Optimization (AREA)
- Evolutionary Computation (AREA)
- Computational Mathematics (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Pure & Applied Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Operations Research (AREA)
- Algebra (AREA)
- Databases & Information Systems (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于常微分方程的GRU网络模型及特征提取方法、装置,该GRU网络模型包括至少一个门控循环单元,所述至少一个门控循环单元中的每个门控循环单元均包括候选隐藏层,所述候选隐藏层基于常微分方程对候选隐藏层的输入信息进行计算将其转化为隐藏状态序列输出。该GRU网络模型在训练过程中不需要耗费大量的空间来存储中间结果,减小存储空间,提高内存效率。
Description
技术领域
本发明涉及深度学习技术领域,具体涉及一种基于常微分方程的GRU网络模型及特征提取方法、装置。
背景技术
近几年深度学习发展迅猛,更是由于前段时间的谷歌的AlphaGo而轰动一时,国内也开始迎来这一技术的研究热潮。深度学习目前还处于发展阶段,研究人员已将深度学习应用到相关图像处理及其计算机视觉领域中,深度学习算法在众多有监督学习问题上取得了卓越的成果,其在精度、效率和智能化等方面的性能远超传统机器学习算法,部分甚至超越了人类水平。当前,深度学习研究者的研究兴趣逐渐从监督学习转移到强化学习、半监督学习以及无监督学习领域。自2006年以来,深度学习在学术界持续升温,美国、加拿大、欧洲相继成为此领域的科研重镇。2013年,欧洲委员会发起模仿人脑的超级计算机项目,计划历时10年投入16亿美元,由全球80个机构的超过200名研究人员共同参与,希望在理解人脑工作方式上取得重大进展,并推动更多能力强大的新型计算机的研发。
目前的多层神经网络,譬如,GRU网络模型,其是有多个重复的门控循环单元串联而成。门控循环单元(Gated Recurrent Units,GRU)是循环神经网络RNN中的一种门控机制,与其他门控机制相似,其旨在解决标准RNN中的梯度消失/爆炸问题并同时保留序列的长期信息。GRU网络模型中的每个门控循环单元都有序的保留了一定的信息,并在训练过程中得到优化。
神经网络本质主要是在拟合一个复杂的复合函数,复合的次数就是神经网络的层数,要找到参数的梯度,很容易就想到链式法则,然而,在前向传播时需要保留所有层的激活值,并在反向传播时利用这些激活值,这对内存的占用非常大,对深度模型的训练过程来说是一个很大的瓶颈。
发明内容
本发明为了解决上述技术问题提供一种基于常微分方程的GRU网络模型及特征提取方法、装置,训练过程中不需要耗费大量的空间来存储中间结果,减小存储空间,提高内存效率。
本发明通过下述技术方案实现:
本发明第一方面提供一种基于常微分方程的GRU网络模型,包括至少一个门控循环单元,所述至少一个门控循环单元中的每个门控循环单元均包括候选隐藏层,所述候选隐藏层基于常微分方程对候选隐藏层的输入信息进行计算将其转化为隐藏状态序列输出。
本发明第一方面对候选隐藏层做了改进,即候选隐藏层采用常微分方程,将深度学习的GRU网络模型和常微分方程结合在一起,将隐藏状态的导数作为参数,参数则不是一系列离散值,而是一个连续的空间,因此并不需要依次传递到前向传播中的每一个函数进行评估,从而不用耗费大量空间来存储中间结果,大大减少存储空间,提高了内存效率。参数效率高,通过求解常微分方程,隐藏层动态被参数化为时间的连续函数时,附近“网络层”的参数自动连接在一起,从而减少了监督学习任务所需的参数数量。
在一种可能的设计中,所述候选隐藏层采用欧拉方法Euler或者龙格-库塔方法Runge-Kutta对候选隐藏层的输入信息进行计算将其转化为隐藏状态序列输出。
本发明第二方面提供一种特征提取方法,包括以下步骤:
获取至少一张图像,所述至少一张图像中的每张图像均包括至少一个待识别目标;
对所述至少一张图像中的每张图像进行卷积、池化后输入已训练完成的GRU网络模型中对所述至少一个待识别目标中的每个待识别目标进行特征提取,所述GRU网络模型为第一方面及其任一种可能中所述的一种基于常微分方程的GRU网络模型。
本发明第二方面公开了第一方面中GRU网络模型的应用,通过对具有待识别目标的图像卷积池化后,采用GRU网络模型实现待识别目标的特征提取,减小GRU网络模型在训练过程中对内存占用。
在一种可能的设计中,所述获取至少一张图像之后还包括:对所述至少一张图像中的每张图像进行预处理的步骤。
在一种可能的设计中,所述对所述至少一张图像中的每张图像进行预处理的步骤包括:
利用双边滤波算法对所述至少一张图像中的每张图像的空洞进行填空。
本方案采用双边滤波算法对每张图像的空洞进行填空,这样预处理得到的图像更清晰,特征提取更加准确,提高了识别率,进一步的提高特征提取的准确性。
在一种可能的设计中,所述图像为RGB-D图像。
现有的特征提取一般基于二维的RGB图像,本方案优选的采用RGB-D图像,其为深度图像,其对光照强度变化不受颜色和纹理变化的影响,可靠的应用于特征提取,并提供丰富的3D场景的结构信息。
在一种可能的设计中,采用卷积神经网络对所述至少一张图像中的每张图像进行卷积、池化。
本发明第三方面公开了一种特征提取装置,包括依次通信连接的存储器和控制器,所述存储器上存储有计算机程序,所述控制器用于读取所述计算机程序,执行第二方面及其任一种可能中所述的一种特征提取方法。
本发明第四方面公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,执行第二方面及其任一种可能中所述的一种特征提取方法。
本发明与现有技术相比,具有如下的优点和有益效果:
1、本发明GRU网络模型的候选隐藏层采用常微分方程,将隐藏状态的导数作为参数,参数由现有的离散值变为连续值,在训练时,不需要依次传递到前向传播中的每一个函数进行评估,从而不用耗费大量空间来存储中间结果,大大减少存储空间,提高了内存效率。
2、本发明的特征提取方法基于上述的常微分-GRU网络模型实现待识别目标的特征提取,减小GRU网络模型在训练过程中对内存占用。
附图说明
此处所说明的附图用来提供对本发明实施例的进一步理解,构成本申请的一部分,并不构成对本发明实施例的限定。
图1为门控循环单元的架构图。
图2为本发明特征提取方法的流程图。
具体实施方式
下面结合附图及具体实施例来对本发明作进一步阐述。在此需要说明的是,对于这些实施例方式的说明虽然是用于帮助理解本发明,但并不构成对本发明的限定。本文公开的特定结构和功能细节仅用于描述本发明的示例实施例。然而,可用很多备选的形式来体现本发明,并且不应当理解为本发明限制在本文阐述的实施例中。
应当理解,尽管本文可能使用术语第一、第二等等来描述各种单元,但是这些单元不应当受到这些术语的限制。这些术语仅用于区分一个单元和另一个单元。例如可以将第一单元称作第二单元,并且类似地可以将第二单元称作第一单元,同时不脱离本发明的示例实施例的范围。
应当理解,对于本文中可能出现的术语“和/或”,其仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,单独存在B,同时存在A和B三种情况;对于本文中可能出现的术语“/和”,其是描述另一种关联对象关系,表示可以存在两种关系,例如,A/和B,可以表示:单独存在A,单独存在A和B两种情况;另外,对于本文中可能出现的字符“/”,一般表示前后关联对象是一种“或”关系。
应当理解,在下面的描述中提供了特定的细节,以便于对示例实施例的完全理解。然而,本领域普通技术人员应当理解可以在没有这些特定细节的情况下实现示例实施例。例如可以在框图中示出系统,以避免用不必要的细节来使得示例不清楚。在其他实例中,可以不以非必要的细节来示出众所周知的过程、结构和技术,以避免使得示例实施例不清楚。
本发明第一方面公开一种基于常微分方程的GRU网络模型,包括至少一个门控循环单元,门控循环单元有多个时,多个门控循环单元相串联。
门控循环单元包括重置门rt、更新门zt和候选隐藏层重置门rt、更新门zt和候选隐藏层的连接为现有技术,参照图1即可,在此不再赘述,重置门rt、更新门zt和候选隐藏层都使用前一时刻的状态信息ht-1和原始数据作为输入。在本方案中每个门控循环单元的候选隐藏层基于常微分方程对候选隐藏层的输入信息进行计算将其转化为隐藏状态序列输出。
门控循环单元采用与现有GRU相似的结构,隐藏状态利用观测值之间的隐藏状态函数导数来计算的,该GRU网络模型是连续的,通过求解常微分方程,可以得到所需的隐藏状态序列,在每次评估过程中,从初始状态h0开始求解方程。
本GRU网络模型主要是利用常微分方程来计算门控循环单元的输出ht,具体的,常微分方程可采用欧拉方法Euler或者龙格-库塔方法Runge-Kutta。模型通过函数odeRNNCell来计算时间t时刻隐藏动态的变化或导数,如下面式子所示,odeRNNCell是一个常见的初始值问题,这依赖于初始观察值y0和隐藏状态h0在t0时刻的值。
yt=ODESOLVER(odeRNNCell,tuple(y0,h0),t).
其中,ODESOLVER是常微分求解器,odeRUNCell是常微分递归神经元函数,
重置门rt、更新门zt、候选隐藏层ht和输出门ot的更新函数分别为:
rt=σ(Wrxt+Urht-1+br)
zt=σ(Wzxt+Uzht-1+br)
ot=σ(Woht+b0)
其中,t是时间序列,Wr为重置门中当前输入的连接权重,Ur为重置门中前一层的连接权重,Wz为更新门中当前输入的连接权重,Uz为更新门中前一层的连接权重,Wo为输出的连接权重,br为重置门的偏差参数,bo为输出的偏差参数。
其方法如下:
先将初始值和隐藏层的初始值带入到x、h中,
x←states[0]
h←states[1];
通过上述更新函数求导更新GRU网络模型的参数,
根据GRU网络模型的架构求解对应的ht的梯度,
ot←σ(Woht+bo)
可通过这个梯度值用来验证我们神经网络计算值的代码是否正确,层数比较多的神经网络模型在训练的时候会出现梯度消失和梯度爆炸问题,从而造成整个网络无法进行正常。采用梯度值进行验证,进一步的提高神经网络构建的准确性。
本发明第一方面提供的GRU网络模型,其基于常微分方程,将隐藏状态的导数作为参数,将现有离散型转变为一个连续的空间,在训练过程中不需要依次传递到前向传播中的每一个函数进行评估,从而不用耗费大量空间来存储中间结果了,大大减少存储空间,提高了内存效率。且在评估或训练过程中,通过显式地改变数值积分的精度,可以自由地调节模型的速度和精度,比如可以花更多的时间去训练一个高精度的模型,而在评估预测时降低精度以提高系统的响应速度。
本发明第二方面提供一种特征提取方法,该特征提取方法可以应用于电子设备,也可是单独的应用程序,示例性的,该电子设备可以是手机、平板电脑、可穿戴设备、车载设备、增强现实(augmented reality,AR)/虚拟现实(virtual reality,VR)设备、笔记本电脑、超级移动个人计算机(ultra-mobile personal computer,UMPC)、上网本、个人数字助理(personal digital assistant,PDA)等电子设备上,本申请实施例对电子设备的具体类型不作任何限制。该特征提取方法可应用在多种领域,譬如,人脸识别、伤口类型识别、鸟类识别、植物类型识别等等,具体在此不再举例。具体的,如图2所示,该特征提取包括步骤S01~步骤S04。
步骤S01、获取至少一张图像,所述至少一张图像中的每张图像均包括至少一个待识别目标。
该图像可以是实时获取的图像,也可以是存储在云端的图像或者本地存储的图像,在此不做限制。图像的获取方式可以基于普通相机、摄影机或者RGB-D相机,优选的,采用RGB-D相机获取RGB-D图像,其即包括RGB图像和深度图像,RGB-D相机的Azure Kinect DK来捕获具有待识别目标的深度图像,Azure Kinect DK搭载100万像素高级深度摄像头、360°麦克风阵列,1200万像素全高清摄像头和方向传感器,适用于先进的计算机视觉和语音模型开发。此步骤中,若是实现伤口类型识别,则图像中要具有待识别的伤口;若是实现人脸识别,则图像中要具有待识别的人脸;其他应用则同理需要包含对应的待识别目标。
步骤S02、对所述至少一张图像中的每张图像进行预处理。
具体的,本方案的预处理方式为:利用双边滤波算法对所述至少一张图像中每张图像的空洞进行填空,从而去除噪点,以使深度图像更清晰。双边滤波由两个高斯核函数组成,它将深度图像的空间域信息和灰度域信息进行非线性组合,克服了高斯滤波的弊端,在深度修复过程中考虑到图像边缘信息,使图像边缘较高斯滤波清晰,也更加平滑。
双边滤波定义为:
ω=ωs×ωr,
其中,ωs表示空间域滤波核,(i,j)表示当前点的位置,(m,n)表示滤波核的中间位置,σs表示为空间域的标准差;
ωr表示像素域滤波核,f(i,j)表示当前遍历点的灰度值,f(m,n)表示滤波核中间位置的灰度值,σr表示像素域的标准差;
β表示遍历卷积核后ωs与ωr乘积之和。
w表示滤波核。F(m,n)表示滤波核的中心点的灰度值。Ω表示图像的空间,i、j属于Ω,表明是图像中的点,i表示遍历点的横坐标,j表示遍历点的纵坐标。m表示滤波核的中心点的横坐标,n表示滤波核的中心点的纵坐标。
步骤S03、对所述至少一张图像中的每张图像进行卷积、池化。通过卷积可以将输出图像中更亮的像素表示伤情图像中存在的边缘,从而得伤情图像的边缘信息。通过池化,使网络的鲁棒性增强了,有一定抗扰动的作用。具体的,可采用卷积神经网络对所述至少一张图像中的每张图像进行卷积、池化。
步骤S04、将卷积、池化后的图像输入已训练完成的GRU网络模型中对所述至少一个待识别目标中的每个待识别目标进行特征提取,所述GRU网络模型为第一方面及其任一种可能中所述的一种基于常微分方程的GRU网络模型。
该步骤的GRU网络模型需要是事先训练完成的,根据待识别目标的不同,其训练集不同。
通过提取的特征,可进一步的实现待识别目标的分类和识别,以进一步的驱动后端的智能设备,譬如,在人脸识别时,智能设备可以的门禁设备、付款终端或其他;应用在伤口类型识别时,可识别出刀伤、擦伤等类型。
本发明第二方面的特征提取方法,其基于第一方面中的GRU网络模型,其将隐藏状态参数化为时间的连续函数,附近“网络层”的参数自动连接在一起,减少了监督学习任务所需的参数数量,节省网络的训练时间,保证了模型的稳定性;整个方法基于RGB-D图像,其综合利用彩色和深度信息,采用多数据模式的特征提取策略,进行RGB-D物体识别,
本发明第三方面公开了一种特征提取装置,包括依次通信连接的存储器和控制器,所述存储器上存储有计算机程序,所述控制器用于读取所述计算机程序,执行第二方面及其任一种可能中所述的一种特征提取方法。具体举例的,所述存储器可以但不限于包括随机存取存储器(Random-Access Memory,RAM)、只读存储器(Read-Only Memory,ROM)、闪存(Flash Memory)、先进先出存储器(First Input First Output,FIFO)和或先进后出存储器(First Input Last Output,FILO)等等;所述控制器可以不限于采用型号为STM32F105系列的微处理器。此外,所述计算机设备还可以但不限于包括有电源单元、显示屏和其它必要的部件。
本发明第三方面公开的一种特征提取装置,其运行原理与第二方面相同,在此不再赘述。
本发明第四方面公开了一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,当所述指令在计算机上运行时,执行第二方面及其任一种可能中所述的一种特征提取方法。其中,所述计算机可读存储介质是指存储数据的载体,可以但不限于包括软盘、光盘、硬盘、闪存、优盘和/或记忆棒(Memory Stick)等,所述计算机可以是通用计算机、专用计算机、计算机网络、或者其他可编程装置。
以上所述的具体实施方式,对本发明的目的、技术方案和有益效果进行了进一步详细说明,所应理解的是,以上所述仅为本发明的具体实施方式而已,并不用于限定本发明的保护范围,凡在本发明的精神和原则之内,所做的任何修改、等同替换、改进等,均应包含在本发明的保护范围之内。
Claims (9)
1.一种基于常微分方程的GRU网络模型,其特征在于,包括至少一个GRU层,所述至少一个GRU层中的每个GRU层均包括候选隐藏层,所述候选隐藏层基于常微分方程对候选隐藏层的输入信息进行计算将其转化为隐藏状态序列输出。
2.根据权利要求1所述的一种基于常微分方程的GRU网络模型,其特征在于,所述候选隐藏层采用欧拉方法Euler或者龙格-库塔方法Runge-Kutta对候选隐藏层的输入信息进行计算将其转化为隐藏状态序列输出。
3.一种特征提取方法,其特征在于,包括以下步骤:
获取至少一张图像,所述至少一张图像中的每张图像均包括至少一个待识别目标;对所述至少一张图像中的每张图像进行卷积、池化后输入已训练完成的GRU网络模型中对所述至少一个待识别目标中的每个待识别目标进行特征提取,所述GRU网络模型为权利要求1或2任一所述的一种基于常微分方程的GRU网络模型。
4.根据权利要求3所述的一种特征提取方法,其特征在于,所述获取至少一张图像之后还包括:对所述至少一张图像中的每张图像进行预处理的步骤。
5.根据权利要求4所述的一种特征提取方法,其特征在于,所述对所述至少一张图像中的每张图像进行预处理的步骤包括:利用双边滤波算法对所述至少一张图像中每张图像的空洞进行填空。
6.根据权利要求3所述的一种特征提取方法,其特征在于,所述图像为RGB-D图像。
7.根据权利要求3所述的一种特征提取方法,其特征在于,采用卷积神经网络对所述至少一张图像中的每张图像进行卷积、池化。
8.一种特征提取装置,包括依次通信连接的存储器和控制器,所述存储器上存储有计算机程序,其特征在于:所述控制器用于读取所述计算机程序,执行权利要求3-7任一所述的一种特征提取方法。
9.一种计算机可读存储介质,所述计算机可读存储介质上存储有指令,其特征在于:当所述指令在计算机上运行时,执行权利要求3-7任一所述的一种特征提取方法。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111080690.2A CN113792860A (zh) | 2021-09-15 | 2021-09-15 | 基于常微分方程的gru网络模型及特征提取方法、装置 |
ZA2022/10148A ZA202210148B (en) | 2021-09-15 | 2022-09-13 | Gru network model based on ordinary differential equations, and feature extraction method and device |
JP2022146568A JP2023043188A (ja) | 2021-09-15 | 2022-09-14 | 常微分方程式に基づくgruネットワークモデル及び特徴抽出方法と装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202111080690.2A CN113792860A (zh) | 2021-09-15 | 2021-09-15 | 基于常微分方程的gru网络模型及特征提取方法、装置 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN113792860A true CN113792860A (zh) | 2021-12-14 |
Family
ID=78878437
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202111080690.2A Pending CN113792860A (zh) | 2021-09-15 | 2021-09-15 | 基于常微分方程的gru网络模型及特征提取方法、装置 |
Country Status (3)
Country | Link |
---|---|
JP (1) | JP2023043188A (zh) |
CN (1) | CN113792860A (zh) |
ZA (1) | ZA202210148B (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190036672A (ko) * | 2017-09-28 | 2019-04-05 | 한국과학기술원 | 게이티드 순환 신경망 디트렌딩방법, 디트렌딩 장치 및 기록매체 |
CN109801621A (zh) * | 2019-03-15 | 2019-05-24 | 三峡大学 | 一种基于残差门控循环单元的语音识别方法 |
CN110232118A (zh) * | 2019-08-08 | 2019-09-13 | 中山大学 | 一种新型的基于gru注意力机制的答案选择模型 |
CN111079655A (zh) * | 2019-12-18 | 2020-04-28 | 航天物联网技术有限公司 | 一种基于融合神经网络的视频中人体行为识别方法 |
CN112884019A (zh) * | 2021-01-29 | 2021-06-01 | 辽宁科技大学 | 一种基于融合门循环网络模型的图像转语言方法 |
-
2021
- 2021-09-15 CN CN202111080690.2A patent/CN113792860A/zh active Pending
-
2022
- 2022-09-13 ZA ZA2022/10148A patent/ZA202210148B/en unknown
- 2022-09-14 JP JP2022146568A patent/JP2023043188A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR20190036672A (ko) * | 2017-09-28 | 2019-04-05 | 한국과학기술원 | 게이티드 순환 신경망 디트렌딩방법, 디트렌딩 장치 및 기록매체 |
CN109801621A (zh) * | 2019-03-15 | 2019-05-24 | 三峡大学 | 一种基于残差门控循环单元的语音识别方法 |
CN110232118A (zh) * | 2019-08-08 | 2019-09-13 | 中山大学 | 一种新型的基于gru注意力机制的答案选择模型 |
CN111079655A (zh) * | 2019-12-18 | 2020-04-28 | 航天物联网技术有限公司 | 一种基于融合神经网络的视频中人体行为识别方法 |
CN112884019A (zh) * | 2021-01-29 | 2021-06-01 | 辽宁科技大学 | 一种基于融合门循环网络模型的图像转语言方法 |
Non-Patent Citations (1)
Title |
---|
EDWARD DE BROUWER等: "GRU-ODE-Bayes: Continuous modeling of sporadically-observed time series", PROCEEDINGS OF THE 33RD INTERNATIONAL CONFERENCE ON NEURAL INFORMATION PROCESSING SYSTEMS, no. 663, 8 December 2019 (2019-12-08), pages 7379 - 7390 * |
Also Published As
Publication number | Publication date |
---|---|
ZA202210148B (en) | 2023-03-29 |
JP2023043188A (ja) | 2023-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109949255B (zh) | 图像重建方法及设备 | |
CN107945204B (zh) | 一种基于生成对抗网络的像素级人像抠图方法 | |
CN112861690B (zh) | 多方法融合的遥感影像变化检测方法及系统 | |
CN107169954B (zh) | 一种基于并行卷积神经网络的图像显著性检测方法 | |
CN111507993A (zh) | 一种基于生成对抗网络的图像分割方法、装置及存储介质 | |
CN111860398B (zh) | 遥感图像目标检测方法、系统及终端设备 | |
CN109002755B (zh) | 基于人脸图像的年龄估计模型构建方法及估计方法 | |
CN113822209B (zh) | 高光谱图像识别方法、装置、电子设备及可读存储介质 | |
CN110222718B (zh) | 图像处理的方法及装置 | |
CN110569844B (zh) | 基于深度学习的船舶识别方法及系统 | |
CN111832592B (zh) | Rgbd显著性检测方法以及相关装置 | |
CN111914997B (zh) | 训练神经网络的方法、图像处理方法及装置 | |
CN112288011A (zh) | 一种基于自注意力深度神经网络的图像匹配方法 | |
CN109409210B (zh) | 一种基于ssd框架的人脸检测方法及系统 | |
CN111833360B (zh) | 一种图像处理方法、装置、设备以及计算机可读存储介质 | |
CN114492723A (zh) | 神经网络模型的训练方法、图像处理方法及装置 | |
CN114897136A (zh) | 多尺度注意力机制方法及模块和图像处理方法及装置 | |
CN111104911A (zh) | 一种基于大数据训练的行人重识别方法及装置 | |
CN114821096A (zh) | 一种图像处理方法、神经网络的训练方法以及相关设备 | |
CN114708172A (zh) | 图像融合方法、计算机程序产品、存储介质及电子设备 | |
WO2024060839A9 (zh) | 对象操作方法、装置、计算机设备以及计算机存储介质 | |
CN109359542A (zh) | 基于神经网络的车辆损伤级别的确定方法及终端设备 | |
CN112434576A (zh) | 一种基于深度相机的人脸识别方法及系统 | |
CN113792860A (zh) | 基于常微分方程的gru网络模型及特征提取方法、装置 | |
CN115578624A (zh) | 农业病虫害模型构建方法、检测方法及装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination |