CN108364067B - 基于数据分割的深度学习方法以及机器人系统 - Google Patents
基于数据分割的深度学习方法以及机器人系统 Download PDFInfo
- Publication number
- CN108364067B CN108364067B CN201810010054.4A CN201810010054A CN108364067B CN 108364067 B CN108364067 B CN 108364067B CN 201810010054 A CN201810010054 A CN 201810010054A CN 108364067 B CN108364067 B CN 108364067B
- Authority
- CN
- China
- Prior art keywords
- data
- deep learning
- neural network
- learning neural
- training
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013135 deep learning Methods 0.000 title claims abstract description 395
- 238000000034 method Methods 0.000 title claims abstract description 42
- 230000011218 segmentation Effects 0.000 title claims abstract description 10
- 238000013528 artificial neural network Methods 0.000 claims abstract description 388
- 238000004590 computer program Methods 0.000 claims description 10
- 238000004364 calculation method Methods 0.000 abstract description 4
- 238000010586 diagram Methods 0.000 description 9
- 238000000605 extraction Methods 0.000 description 6
- 239000011159 matrix material Substances 0.000 description 4
- 230000006870 function Effects 0.000 description 2
- 230000010365 information processing Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 230000003278 mimic effect Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000005036 nerve Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000005192 partition Methods 0.000 description 1
- 238000000638 solvent extraction Methods 0.000 description 1
- 210000000225 synapse Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Evolutionary Computation (AREA)
- Artificial Intelligence (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Image Analysis (AREA)
Abstract
本发明涉及一种基于数据分割的深度学习方法以及机器人系统。方法包括:获取待测试数据;将待测试数据按照预设多类输入变量集合分割成多类待测试子数据;将多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中;获取每个训练好的第一深度学习神经网络的最后隐层数据;将每个训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到训练好的第二深度学习神经网络的输出数据。通过将待测试数据分割再汇总能够降低深度学习神经网络的数据维度和计算复杂度,提高深度学习神经网络的运算效率。
Description
技术领域
本发明涉及机器学习领域,特别是涉及一种深度学习方法、装置、机器人系统及存储介质。
背景技术
人工神经网络(Artificial Neural Networks,简写为ANNs)也简称为神经网络(NNs)或称作连接深度学习神经网络(Connection Model),它是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学深度学习神经网络。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互连接的关系,从而达到处理信息的目的。人工神经网络是一种应用类似于大脑神经突触联接的结构进行信息处理的数学深度学习神经网络。在工程与学术界也常直接简称为“神经网络”或类神经网络。
但现有的深度学习神经网络在处理输入数据变量数和输出数据非常多时,会由于计算复杂度的剧增,导致训练困难及训练得到的深度学习神经网络的应用效果差。
发明内容
基于此,有必要针对上述问题,提供一种深度学习方法、装置、机器人系统及存储介质。
一种深度学习方法,所述方法包括:
获取待测试数据;
将所述待测试数据按照预设多类输入变量集合分割成多类待测试子数据;
将所述多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中;
获取每个所述训练好的第一深度学习神经网络的最后隐层数据;
将每个所述训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到所述训练好的第二深度学习神经网络的输出数据。
在其中一个实施例中,所述训练好的第一深度学习神经网络与所述训练好的第二深度学习神经网络包含于训练好的第三深度学习神经网络,
其中,所述训练好的第三深度学习神经网络的输入变量为所述训练好的第一深度学习神经网络的输入变量,所述训练好的第三深度学习神经网络的输出数据为所述训练好的第二深度学习神经网络的输出数据。
在其中一个实施例中,所述待测试数据为待预测数据;所述将所述待测试数据按照预设多类输入变量集合分割成多类待测试子数据,包括:将所述待预测数据按照类别分割成对应不同类别的多个待测试数据。
在其中一个实施例中,在所述获取待预测数据之前,还包括:
获取多个训练数据;
将所述多个训练数据按照预设类别划分标准分割成对应不同类别的多类待训练子集;
为预设的每类输入变量集合初始化一个第一深度学习神经网络;
从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络。
在其中一个实施例中,所述从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络,包括:
从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行无监督训练。
在其中一个实施例中,在所述得到多个训练好的第一深度学习神经网络之后,还包括:
获取对每个训练子集的深度学习神经网络进行无监督训练时,每个训练子集的第一深度学习神经网络的最后隐层数据;
将所述最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,对所述第二深度学习神经网络进行无监督训练;
将所述最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,并将获取与所述训练输入数据对应的训练输出数据作为所述第二深度学习神经网络的预期输出数据,对所述第二深度学习神经网络进行有监督训练,得到训练好的第二深度学习神经网络。
在其中一个实施例中,所述训练好的第三深度学习神经网络由以下方式训练得到:
从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,对所述第三深度学习神经网络进行无监督训练;
从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,并获取与所述训练输入数据对应的训练输出数据作为所述第三深度学习神经网络的预期输出数据,对所述第三深度学习神经网络进行有监督训练,得到所述训练好的第三深度学习神经网络。
一种基于深度学习神经网络的数据处理装置,所述装置包括:
数据获取模块,用于获取待测试数据;
分割模块,用于将所述待测试数据按照预设多类输入变量集合分割成多类待测试子数据;
数据输入模块,用于将所述多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中;获取每个所述训练好的第一深度学习神经网络的最后隐层数据;将每个所述训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到所述训练好的第二深度学习神经网络的输出数据。
一种机器人系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的机器人程序,所述处理器执行所述程序时实现以下步骤:
获取待测试数据;
将所述待测试数据按照预设多类输入变量集合分割成多类待测试子数据;
将所述多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中;
获取每个所述训练好的第一深度学习神经网络的最后隐层数据;
将每个所述训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到所述训练好的第二深度学习神经网络的输出数据。
一种计算机可读存储介质,其上存储有计算机程序,所述程序被处理器执行时实现以下步骤:
获取待测试数据;
将所述待测试数据按照预设多类输入变量集合分割成多类待测试子数据;
将所述多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中;
获取每个所述训练好的第一深度学习神经网络的最后隐层数据;
将每个所述训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到所述训练好的第二深度学习神经网络的输出数据。
上述深度学习方法、装置、机器人系统及存储介质,通过获取待测试数据;将待测试数据按照预设多类输入变量集合分割成多个待测试数据;将每个待测试数据对应输入到多个训练好的第一深度学习神经网络的输入层中;获取每个训练好的第一深度学习神经网络的最后隐层数据;将每个训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到训练好的第二深度学习神经网络的输出数据。通过这种先将待测试数据按照预设多类输入变量集合分成多个子数据,这样能够使得各个子数据能够输入到各自对应的神经网络中进行特征提取,再汇总各个神经网络的最后一个隐层的数据,再将最后隐层数据均输入到第二深度学习神经网络的输入变量中进行预测,通过将待测试数据分割再汇总能够降低深度学习神经网络的数据维度和计算复杂度,提高深度学习神经网络的运算效率。
附图说明
图1为一个实施例中深度学习方法的应用环境图;
图2为一个实施例中机器人系统的内部结构示意图;
图3为一个实施例中深度学习方法的流程示意图;
图4为一个实施例中第一深度学习神经网络的结构框图;
图5为另一个实施例中深度学习方法的流程示意图;
图6为一个实施例中第三深度学习神经网络的结构框图;
图7为一个实施例中基于深度学习神经网络的数据处理装置的结构框图;
图8为一个实施例中训练模块的结构框图。
具体实施方式
为了使本发明的目的、技术方案及优点更加清楚明白,以下结合附图及实施例,对本发明进行进一步详细说明。应当理解,此处所描述的具体实施例仅仅用以解释本发明,并不用于限定本发明。
图1示出了一个实施例中深度学习方法的应用环境图。参照图1,该深度学习方法可应用于基于深度学习神经网络的数据处理系统中,该系统包括多个终端110和服务器120,终端110通过网络与服务器120连接。终端110可以是但不限于各种能运行应用个人计算机、笔记本电脑、个人数字助理、智能手机、平板电脑等。服务器120可以是实现单一功能的服务器,也可以是实现多种功能的服务器,具体可以是独立的物理服务器,也可以是物理服务器集群。终端110上可通过特定的应用显示数据输入界面,服务器120可大量接收由终端110上传的待测试数据。具体的,当服务器120获取到某一个终端110上传的待测试数据后,会先将待测试数据按照预设多类输入变量集合分割成多类待测试子数据,并将多类待测试子数据输入到服务器120上运行的第一深度学习神经网络的输入变量中,再将每个第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到第二深度学习神经网络的输出数据,即为待测试数据的预测数据。
图2为一个实施例中机器人系统的内部结构示意图。该机器人系统具体可以是如图1中的服务器120。如图2所示,机器人系统包括通过系统总线连接的处理器、存储介质、内存储器、网络接口、显示屏和输入装置。其中,该处理器用于提供计算和控制能力,支撑整个终端的运行。机器人系统的存储介质存储有操作系统以及计算机程序,该计算机程序被处理器执行时,使得处理器实现一种深度学习方法。机器人系统中的内存储器也可储存有计算机程序,该计算机程序被处理器执行时,可使得处理器执行一种深度学习方法。机器人系统的网络接口用于与终端110通信。机器人系统的显示屏可以是液晶显示屏或者电子墨水显示屏,机器人系统的输入装置可以是显示屏上覆盖的触摸层,也可以是机器人系统外壳上设置的按键、轨迹球或触控板,还可以是外接的键盘、触控板或鼠标等。输入装置可获取用户使用手指对显示屏显示的操作界面产生的指令,例如获取用户通过点击终端上的特定选项输入待测试数据等。显示屏可用于显示输入界面或输出变量的数据结果。
本领域技术人员可以理解,图2中示出的结构,仅仅是与本发明方案相关的部分结构的框图,并不构成对本发明方案所应用于其上的终端的限定,具体的终端可以包括比图中所示更多或更少的部件,或者组合某些部件,或者具有不同的部件布置。
如图3所示,在一个实施例中,提供了一种深度学习方法,该方法以应用于如图1中所示的服务器中进行举例说明。包括:
步骤302,获取待测试数据。
其中,待测试数据包括但不限于待预测数据、待分类数据。
步骤304,将待测试数据按照预设多类输入变量集合分割成多类待测试子数据。
步骤306,将多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中。
待测试数据可由一个或多个终端上传。当深度学习神经网络获取到待测试数据后,会先将待测试数据按照预设多类输入变量集合分割成多类待测试子数据。比如获取到的待测试数据为多个时间段的数据,预设多类输入变量集合为一个小时内。那么当获取到多个待测试时间段的数据后,会按照每个小时将这些数据分割成每小时的数据。再将分割后得到的待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中。一般情况下,第一深度学习神经网络有多个,每个待测试子数据对应一个第一深度学习神经网络。
步骤308,获取每个训练好的第一深度学习神经网络的最后隐层数据。
步骤310,将每个训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到训练好的第二深度学习神经网络的输出数据。
每个深度学习神经网络中都包含有输入层、隐层和输出层,只是不同的深度学习神经网络中各个层的数量可能存在差异。输入层包含至少一个输入变量,对于深度学习神经网络而言,输入层的输入变量数据输入完毕后,隐层会对输入变量的数据进行特征提取与分析。因此,对于第一深度学习神经网络的最后隐层数据而言,这最后一个隐层的数据已经是特征提取的峰值了。获取到每个训练好的第一深度学习神经网络的最后隐层数据后,将每个最后隐层数据均输入到训练好的第二深度学习神经网络的输入层中,再获取训练好的第二深度学习神经网络的输出数据,输出数据即为待测试数据的预测输出数据。
通过这种先将待测试数据按照预设多类输入变量集合分成多个子数据,这样能够使得各个子数据能够输入到各自对应的神经网络中进行特征提取,再汇总各个神经网络的最后一个隐层的数据,再将最后隐层数据均输入到第二深度学习神经网络的输入变量中进行预测,通过将待测试数据分割再汇总能够降低深度学习神经网络的数据维度和计算复杂度,提高深度学习神经网络的运算效率。
在一个实施例中,训练好的第一深度学习神经网络与训练好的第二深度学习神经网络包含于训练好的第三深度学习神经网络,其中,训练好的第三深度学习神经网络的输入变量为训练好的第一深度学习神经网络的输入变量,训练好的第三深度学习神经网络的输出数据为训练好的第二深度学习神经网络的输出数据。
第一深度学习神经网络和第二深度学习神经网络均包含于第三深度学习神经网络。对于第三深度学习神经网络而言,输入变量即为第一深度学习神经网络的输入变量,输出数据即为第二深度学习神经网络的输出数据。但将数据输入到第三深度学习神经网络的输入变量后,实际上是将数据输入到第一深度学习神经网络的输入变量中,然后将第一深度学习神经网络的最后隐层数据作为第二深度学习神经网络的输入变量,从而得到第二深度学习神经网络的输出数据,即第三深度学习神经网络的输出数据。将两个深度学习神经网络放入同一个深度学习神经网络中,节约了数据转换过程,也能够提升深度学习神经网络对输入的待测试数据的预测效率。
在一个实施例中,待测试数据为待预测数据;将待测试数据按照预设多类输入变量集合分割成多类待测试子数据,包括:将待预测数据按照类别分割成对应不同类别的多个待测试数据。
待测试数据为待预测数据,因此在将待测试数据按照预设多类输入变量集合分割成多类待测试子数据时,其实是将待预测数据按照类别分割成对应不同类别的多个待测试数据。比如获取到的待测试数据为全身照图像数据,预设多类输入变量集合为按照身体部位。那么当获取到待测试全身照图像数据后,会按照身体部位将待测试的全身照图像数据分割成头部数据、上半身数据及下半身数据。
将此深度学习神经网络应用在对图像数据的处理中,并将图像数据按照身体部位来进行划分,再分别输入到各个身体部位对应的第一深度学习神经网络中,可对输入的身体部位数据进行精确的特征提取,此种分割数据的处理方式,能够使得深度学习神经网络对于数据的分析更为精准,提升了预测数据的准确性。
在一个实施例中,在获取待预测数据之前,还包括:获取多个训练数据;将多个图像训练数据按照预设部位类别划分标准分割成对应不同部位的多类待训练子集;为预设的每类输入变量集合初始化一个第一深度学习神经网络;从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络。
在使用深度学习神经网络进行预测之前,需要对深度学习神经网络进行训练。图像训练数据可来源于图像样本库,获取到多个图像训练数据后,会先将获取到的多个图像训练数据按照预设部位类别划分标准分割成对应不同部位的多类待训练子集。比如,获取到多个全身照图像数据,则按照预设部分类别划分标准将每个全身照图像都分割成对应不同部位的训练子数据,比如将每个全身照图像都分割成头部数据、上半身数据及下半身数据,那么将全部的头部数据汇总则组成了头部数据的子集,将全部的上半身数据汇总则组成了上半身数据的子集,将全部的下半身数据汇总则组成了下半身数据的子集。那么此处的训练子集则有三个,即头部数据的子集、上半身数据的子集以及下半身数据的子集。
在将多个图像训练数据按照预设部位类别划分标准分割成对应不同部位的多类待训练子集后,则为每个训练子集都初始化一个第一深度学习神经网络,再确定每个第一深度学习神经网络的输入变量和输出变量。确定了每个第一深度学习神经网络的输入变量和输出变量后,可以将训练子集中的数据分别对应输入到第一深度学习神经网络的输入变量中。比如头部数据的子集对应的第一深度学习神经网络的输入变量应为头部数据,因此头部数据的子集中的数据应该输入到这个与头部数据对应的第一深度学习神经网络的输入变量中。这样分别输入数据对每个第一深度学习神经网络进行训练,则可得到多个训练好的第一深度学习神经网络。训练后的深度学习神经网络才能用于使用时根据输入数据预测输出数据。对深度学习神经网络进行训练能使得获取到的预测结果更为准确。
在一个实施例中,从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络,包括:从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行无监督训练。
第一深度学习神经网络的训练为无监督训练。无监督训练,简单而言则为,只有输入没有输出。因此,在对第一深度学习神经网络进行无监督训练时,会从每个训练子集中分别获取训练输入数据,并将训练输入数据对应输入到各个训练子集对应的第一深度学习神经网络的输入层中,以此方式对第一深度学习神经网络进行无监督训练。进行了无监督训练后的第一深度学习神经网络提高了特征提取能力。
在一个实施例中,在得到多个训练好的第一深度学习神经网络之后,还包括:获取对每个训练子集的深度学习神经网络进行无监督训练时,每个训练子集的第一深度学习神经网络的最后隐层数据;将最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,对第二深度学习神经网络进行无监督训练;
将最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,并将获取与训练输入数据对应的训练输出数据作为第二深度学习神经网络的预期输出数据,对第二深度学习神经网络进行有监督训练,得到训练好的第二深度学习神经网络。
第二深度学习神经网络在运用之前,也需要先针对性的进行训练。第二深度学习神经网络输入变量的数据来源于第一深度学习神经网络,具体是来源于第一深度学习神经网络的最后隐层数据。每个深度学习神经网络都有至少一个隐层,隐层主要用于对输入数据进行特征提取。如图4所示,第一深度学习神经网络的最后隐层数据指的是第一深度学习神经网络的最后一个隐层的数据,将每个训练子集对应的第一深度学习神经网络的最后隐层数据作为第二深度学习神经网络输入变量的输入数据,以此对第二深度学习神经网络进行训练,训练后可得到训练好的第二深度学习神经网络。在使用深度学习神经网络之前先对深度学习神经网络进行训练,使得深度学习神经网络预测结果更加准确。
第二深度学习神经网络的训练也包括无监督训练和有监督训练。无监督训练即在将训练数据输入到输入变量中时,并没有将训练数据对应的输出数据提供作为第二深度学习神经网络的输出数据,因此对第二深度学习神经网络进行无监督训练时,只会将第一深度学习神经网络的最后隐层数据输入到第二深度学习神经网络的输入变量中,而不会提供输入变量数据对应的实际输出数据。
有监督训练则与无监督训练不同,有监督训练则是既有输入数据,也有输出数据。因此在对第二深度学习神经网络进行有监督训练时,是将第一深度学习神经网络的最后隐层数据输入到第二深度学习神经网络的输入变量中后,还会将从每个训练子集中将每个输入数据对应的输出数据,作为第二深度学习神经网络的输出数据,以此方式对第二深度学习神经网络进行有监督训练。
当对第二深度学习神经网络先进行了无监督训练,再进行有监督训练以后,即可得到训练好的第二深度学习神经网络。训练后的第二深度学习神经网络在实际运用时,预测准确率和效率都会显著提高。
在一个实施例中,训练好的第三深度学习神经网络由以下方式训练得到:从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,对第三深度学习神经网络进行无监督训练;从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,并从每个训练子集中获取与对应的训练输出变量数据作为第三深度学习神经网络的输出数据,对第三深度学习神经网络进行有监督训练,得到训练好的第三深度学习神经网络。
如图5所示,在一个实施例中,提供了一种深度学习方法,该方法以应用于如图1中所示的服务器中进行举例说明。包括:
步骤502,获取多个训练数据,将多个图像训练数据按照预设部位类别划分标准分割成对应不同部位的多类待训练子集。
步骤504,为预设的每类输入变量集合初始化一个第一深度学习神经网络。
可从图像样本库中获取多个训练数据,获取到多个图像训练数据后,可先将获取到的多个图像训练数据按照预设部位类别划分标准分割成对应不同部位的多类待训练子集。比如,获取到多个全身照图像数据,则按照预设部分类别划分标准将每个全身照图像都分割成对应不同部位的训练子数据,比如将每个全身照图像都分割成头部数据、上半身数据及下半身数据,或者划分成头部数据,四肢数据、身体躯干数据等。划分标准可由研究人员设定,确定了划分标准后,可根据该标准对获取到的训练数据进行分割。
步骤506,使用训练子集中的数据对每个第一深度学习神经网络进行训练。
步骤508,使用第一深度学习神经网络的最后隐层数据对第二深度学习神经网络进行训练。
对获取到的训练数据进行分割得到多类待训练子集后,为每个训练子集都初始化一个第一深度学习神经网络。再根据训练子集确定每个第一深度学习神经网络的输入变量和输出变量。比如头部数据子集对应的第一深度学习神经网络的输入变量为头部数据矩阵。再将训练子集中的数据分别对应输入到第一深度学习神经网络的输入变量中,对每个第一深度学习神经网络进行无监督训练。在对第一深度学习神经网络进行无监督训练时,获取第一深度学习神经网络的最后隐层数据,将每个第一深度学习神经网络的最后隐层数据作为第二深度学习神经网络的输入数据,对第二深度学习神经网络进行无监督训练。
可以将第一深度学习神经网络和第二深度学习神经网络组成一个第三深度学习神经网络,那么第三深度学习神经网络的输入变量即为第一深度学习神经网络的输入变量,第三深度学习神经网络的输出即为第二深度学习神经网络的输出。如图6所示,以全身照图像数据举例,将全身照图像数据分割成头部数据子集、上半身数据子集以及下半身数据子集后,那么对应的,第一深度学习神经网络的输入变量即为头部数据子集中的头部像素矩阵H,上半身数据子集中的上半身像素矩阵U以及下半身像素矩阵D,也就是第三深度学习神经网络的输入数据。同理,第三深度学习神经网络的输出即为第二深度学习神经网络的输出。
步骤510,获取待测试数据,将待测试数据按照预设多类输入变量集合分割成多类待测试子数据。
步骤512,将多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中,获取每个训练好的第一深度学习神经网络的最后隐层数据。
步骤514,将每个最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到训练好的第二深度学习神经网络的输出数据。
将深度学习神经网络训练好以后可以投入使用,对输入的待测试数据进行预测。获取到待测试数据后,会先将待测试数据按照预设多类输入变量集合分割成多类待测试子数据。然后再将分割得到的多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中。再获取每个训练好的第一深度学习神经网络的最后隐层数据,并输入到训练好的第二深度学习神经网络的输入层中,即可得到训练好的第二深度学习神经网络的输出数据,即为待测试数据的预测数据。
通过这种先将待测试数据按照预设多类输入变量集合分成多个子数据,这样能够使得各个子数据能够输入到各自对应的神经网络中进行特征提取,再汇总各个神经网络的最后一个隐层的数据,再将最后隐层数据均输入到第二深度学习神经网络的输入变量中进行预测,通过将待测试数据分割再汇总能够降低深度学习神经网络的数据维度和计算复杂度,提高深度学习神经网络的运算效率。
如图7所示,在一个实施例中,提供了一种基于深度学习神经网络的数据处理装置,装置包括:
数据获取模块702,用于获取待测试数据。
分割模块704,用于将待测试数据按照预设多类输入变量集合分割成多类待测试子数据。
数据输入模块706,用于将多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中;获取每个训练好的第一深度学习神经网络的最后隐层数据;将每个训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到训练好的第二深度学习神经网络的输出数据。
在一个实施例中,训练好的第一深度学习神经网络与训练好的第二深度学习神经网络包含于训练好的第三深度学习神经网络,其中,训练好的第三深度学习神经网络的输入变量为训练好的第一深度学习神经网络的输入变量,训练好的第三深度学习神经网络的输出数据为训练好的第二深度学习神经网络的输出数据。
在一个实施例中,上述数据获取模块702用于获取为待预测图像数据;分割模块704用于将待预测数据按照类别分割成对应不同类别的多个待测试数据。
如图8所示,在一个实施例中,上述装置还包括训练模块800,训练模块包括:
训练数据获取模块802,用于获取多个训练数据;
训练数据分割模块804,用于将多个图像训练数据按照预设部位类别划分标准分割成对应不同部位的多类待训练子集;
初始化模块806,用于为预设的每类输入变量集合初始化一个第一深度学习神经网络;
第一训练模块808,从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络。
在一个实施例中,上述第一训练模块808还用于,从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行无监督训练。
在一个实施例中,上述训练模块800还包括:最后隐层数据获取模块,用于获取对每个训练子集的深度学习神经网络进行无监督训练时,每个训练子集的第一深度学习神经网络的最后隐层数据;第二训练模块,用于将最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,对第二深度学习神经网络进行无监督训练;将最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,并将获取与训练输入数据对应的训练输出数据作为第二深度学习神经网络的预期输出数据,对第二深度学习神经网络进行有监督训练,得到训练好的第二深度学习神经网络。
在一个实施例中,上述装置还包括第三训练模块,用于,从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,对第三深度学习神经网络进行无监督训练;从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,并获取与训练输入数据对应的训练输出数据作为第三深度学习神经网络的预期输出数据,对第三深度学习神经网络进行有监督训练,得到训练好的第三深度学习神经网络。
在一个实施例中,提供了一种计算机可读存储介质,其上存储有计算机程序,计算机程序被处理器执行时实现以下步骤:获取待测试数据;将待测试数据按照预设多类输入变量集合分割成多类待测试子数据;将多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中;获取每个训练好的第一深度学习神经网络的最后隐层数据;将每个训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到训练好的第二深度学习神经网络的输出数据。
在一个实施例中,上述训练好的第一深度学习神经网络与训练好的第二深度学习神经网络包含于训练好的第三深度学习神经网络,其中,训练好的第三深度学习神经网络的输入变量为训练好的第一深度学习神经网络的输入变量,训练好的第三深度学习神经网络的输出数据为训练好的第二深度学习神经网络的输出数据。
在一个实施例中,计算机程序被处理器执行获取待测试数据的步骤时,包括:获取待预测图像数据;计算机程序被处理器执行将待测试数据按照预设多类输入变量集合分割成多类待测试子数据的步骤时,包括:将待预测数据按照类别分割成对应不同类别的多个待测试数据。
在一个实施例中,计算机程序被处理器执行获取待预测图像数据的步骤之前,还包括:获取多个训练数据;将多个图像训练数据按照预设部位类别划分标准分割成对应不同部位的多类待训练子集;为预设的每类输入变量集合初始化一个第一深度学习神经网络;从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络。
在一个实施例中,计算机程序被处理器执行从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络的步骤时,包括:从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行无监督训练。
在一个实施例中,计算机程序被处理器执行得到多个训练好的第一深度学习神经网络的步骤之后,还包括:获取对每个训练子集的深度学习神经网络进行无监督训练时,每个训练子集的第一深度学习神经网络的最后隐层数据;将最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,对第二深度学习神经网络进行无监督训练;将最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,并将获取与训练输入数据对应的训练输出数据作为第二深度学习神经网络的预期输出数据,对第二深度学习神经网络进行有监督训练,得到训练好的第二深度学习神经网络。
在一个实施例中,计算机程序被处理器执行时还包括以下步骤:从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,对第三深度学习神经网络进行无监督训练;从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,并从每个训练子集中获取与对应的训练输出变量数据作为第三深度学习神经网络的输出数据,对第三深度学习神经网络进行有监督训练,得到训练好的第三深度学习神经网络。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,的程序可存储于一非易失性的计算机可读取存储介质中,如本发明实施例中,该程序可存储于计算机系统的非易失性存储介质中,并被该计算机系统中的至少一个处理器执行,以实现包括如上述各方法的实施例的流程。其中,的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上实施例的各技术特征可以进行任意的组合,为使描述简洁,未对上述实施例中的各个技术特征所有可能的组合都进行描述,然而,只要这些技术特征的组合不存在矛盾,都应当认为是本说明书记载的范围。
以上实施例仅表达了本发明的几种实施方式,其描述较为具体和详细,但并不能因此而理解为对发明专利范围的限制。应当指出的是,对于本领域的普通技术人员来说,在不脱离本发明构思的前提下,还可以做出若干变形和改进,这些都属于本发明的保护范围。因此,本发明专利的保护范围应以所附权利要求为准。
Claims (11)
1.一种深度学习方法,所述方法包括:
获取待测试数据;
将所述待测试数据按照预设多类输入变量集合分割成多类待测试子数据;
获取到的待测试数据为全身照图像数据,预设多类输入变量集合为按照身体部位,获取到待测试全身照图像数据后,按照身体部位将待测试的全身照图像数据分割成头部数据、上半身数据及下半身数据;
将所述多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中;
获取每个所述训练好的第一深度学习神经网络的最后隐层数据;
将每个所述训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到所述训练好的第二深度学习神经网络的输出数据;
所述训练好的第一深度学习神经网络与所述训练好的第二深度学习神经网络包含于训练好的第三深度学习神经网络,
其中,所述训练好的第三深度学习神经网络的输入变量为所述训练好的第一深度学习神经网络的输入变量,所述训练好的第三深度学习神经网络的输出数据为所述训练好的第二深度学习神经网络的输出数据;
第一深度学习神经网络有多个,每个待测试子数据对应一个第一深度学习神经网络;
将待测试数据按照预设多类输入变量集合分割成多类待测试子数据,包括:将待预测数据按照类别分割成对应不同类别的多个待测试数据;
所述待测试数据为待预测数据;
所述将所述待测试数据按照预设多类输入变量集合分割成多类待测试子数据,包括:
将所述待预测数据按照类别分割成对应不同类别的多个待测试数据;
在所述获取待预测数据之前,还包括:
获取多个训练数据;
将所述多个训练数据按照预设类别划分标准分割成对应不同类别的多类待训练子集;
获取到多个全身照图像数据,按照预设部分类别划分标准将每个全身照图像都分割成对应不同部位的训练子数据,将每个全身照图像都分割成头部数据、上半身数据及下半身数据,将全部的头部数据汇总则组成了头部数据的子集,将全部的上半身数据汇总则组成了上半身数据的子集,将全部的下半身数据汇总则组成了下半身数据的子集;
为预设的每类输入变量集合初始化一个第一深度学习神经网络;
从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络。
2.根据权利要求1所述的方法,其特征在于,所述从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络,包括:
从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行无监督训练。
3.根据权利要求2所述的方法,其特征在于,在所述对每个训练子集的第一深度学习神经网络进行无监督训练之后,包括:
获取对每个训练子集的深度学习神经网络进行无监督训练时,每个训练子集的第一深度学习神经网络的最后隐层数据;
将所述最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,对所述第二深度学习神经网络进行无监督训练;
将所述最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,并将获取与所述训练输入数据对应的训练输出数据作为所述第二深度学习神经网络的预期输出数据,对所述第二深度学习神经网络进行有监督训练,得到训练好的第二深度学习神经网络。
4.根据权利要求1所述的方法,其特征在于,所述训练好的第三深度学习神经网络由以下方式训练得到:
从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,对所述第三深度学习神经网络进行无监督训练;
从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,并获取与所述训练输入数据对应的训练输出数据作为所述第三深度学习神经网络的预期输出数据,对所述第三深度学习神经网络进行有监督训练,得到所述训练好的第三深度学习神经网络。
5.一种基于深度学习神经网络的数据处理装置,其特征在于,所述装置包括:
数据获取模块,用于获取待测试数据;
分割模块,用于将所述待测试数据按照预设多类输入变量集合分割成多类待测试子数据;
获取到的待测试数据为全身照图像数据,预设多类输入变量集合为按照身体部位,获取到待测试全身照图像数据后,按照身体部位将待测试的全身照图像数据分割成头部数据、上半身数据及下半身数据;
数据输入模块,用于将所述多类待测试子数据对应输入到多个训练好的第一深度学习神经网络的输入层中;获取每个所述训练好的第一深度学习神经网络的最后隐层数据;将每个所述训练好的第一深度学习神经网络的最后隐层数据输入到训练好的第二深度学习神经网络的输入层中,得到所述训练好的第二深度学习神经网络的输出数据;
所述训练好的第一深度学习神经网络与所述训练好的第二深度学习神经网络包含于训练好的第三深度学习神经网络,
其中,所述训练好的第三深度学习神经网络的输入变量为所述训练好的第一深度学习神经网络的输入变量,所述训练好的第三深度学习神经网络的输出数据为所述训练好的第二深度学习神经网络的输出数据;
第一深度学习神经网络有多个,每个待测试子数据对应一个第一深度学习神经网络;
将待测试数据按照预设多类输入变量集合分割成多类待测试子数据,包括:将待预测数据按照类别分割成对应不同类别的多个待测试数据。
6.根据权利要求5所述的装置,其特征在于:
所述数据获取模块,用于获取为待预测图像数据;
所述分割模块,用于将所述待预测数据按照类别分割成对应不同类别的多个待测试数据;
所述装置还包括训练模块;训练模块包括:
训练数据获取模块,用于获取多个训练数据;
训练数据分割模块,用于将所述多个训练数据按照预设部位类别划分标准分割成对应不同部位的多类待训练子集;
获取到多个全身照图像数据,按照预设部分类别划分标准将每个全身照图像都分割成对应不同部位的训练子数据,将每个全身照图像都分割成头部数据、上半身数据及下半身数据,将全部的头部数据汇总则组成了头部数据的子集,将全部的上半身数据汇总则组成了上半身数据的子集,将全部的下半身数据汇总则组成了下半身数据的子集;
初始化模块,用于为预设的每类输入变量集合初始化一个第一深度学习神经网络;
第一训练模块,从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行训练,得到多个训练好的第一深度学习神经网络。
7.根据权利要求6所述的装置,其特征在于,所述第一训练模块还用于,从每个训练子集中分别获取训练输入数据,并输入到各个训练子集对应的第一深度学习神经网络的输入层中,对每个训练子集的第一深度学习神经网络进行无监督训练。
8.根据权利要求7所述的装置,其特征在于,所述训练模块还包括:
最后隐层数据获取模块,用于获取对每个训练子集的深度学习神经网络进行无监督训练时,每个训练子集的第一深度学习神经网络的最后隐层数据;
第二训练模块,用于将所述最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,对所述第二深度学习神经网络进行无监督训练;将最后隐层数据输入到已经初始化后的第二深度学习神经网络的输入层中,并将获取与所述训练输入数据对应的训练输出数据作为所述第二深度学习神经网络的预期输出数据,对所述第二深度学习神经网络进行有监督训练,得到训练好的第二深度学习神经网络。
9.根据权利要求6所述的装置,其特征在于,所述装置还包括:
第三训练模块用于,从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,对所述第三深度学习神经网络进行无监督训练;从每个训练子集中分别获取训练输入数据,并输入到第三深度学习神经网络的输入层中,并获取与所述训练输入数据对应的训练输出数据作为所述第三深度学习神经网络的预期输出数据,对所述第三深度学习神经网络进行有监督训练,得到所述训练好的第三深度学习神经网络。
10.一种机器人系统,包括存储器、处理器及存储在存储器上并可在处理器上运行的机器人程序,其特征在于,所述处理器执行所述程序时实现权利要求1-4任意一项所述深度学习方法的步骤。
11.一种计算机可读存储介质,其上存储有计算机程序,其特征在于,所述程序被处理器执行时实现权利要求1-4任意一项所述深度学习方法的步骤。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810010054.4A CN108364067B (zh) | 2018-01-05 | 2018-01-05 | 基于数据分割的深度学习方法以及机器人系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810010054.4A CN108364067B (zh) | 2018-01-05 | 2018-01-05 | 基于数据分割的深度学习方法以及机器人系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108364067A CN108364067A (zh) | 2018-08-03 |
CN108364067B true CN108364067B (zh) | 2023-11-03 |
Family
ID=63010945
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810010054.4A Active CN108364067B (zh) | 2018-01-05 | 2018-01-05 | 基于数据分割的深度学习方法以及机器人系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108364067B (zh) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109299153B (zh) * | 2018-10-17 | 2021-12-03 | 大国创新智能科技(东莞)有限公司 | 基于大数据和深度学习的主动认定方法和机器人系统 |
CN111797853A (zh) * | 2019-04-09 | 2020-10-20 | Oppo广东移动通信有限公司 | 特征提取方法、装置、存储介质及电子设备 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853531A (zh) * | 2010-05-25 | 2010-10-06 | 北京航空航天大学 | 基于预分类技术和rbf神经网络的直升机飞行状态识别方法 |
CN106157114A (zh) * | 2016-07-06 | 2016-11-23 | 商宴通(上海)网络科技有限公司 | 基于用户用餐行为建模的首页推荐算法 |
-
2018
- 2018-01-05 CN CN201810010054.4A patent/CN108364067B/zh active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101853531A (zh) * | 2010-05-25 | 2010-10-06 | 北京航空航天大学 | 基于预分类技术和rbf神经网络的直升机飞行状态识别方法 |
CN106157114A (zh) * | 2016-07-06 | 2016-11-23 | 商宴通(上海)网络科技有限公司 | 基于用户用餐行为建模的首页推荐算法 |
Also Published As
Publication number | Publication date |
---|---|
CN108364067A (zh) | 2018-08-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Montavon et al. | Methods for interpreting and understanding deep neural networks | |
CN111340237B (zh) | 数据处理和模型运行方法、装置和计算机设备 | |
CN112116090B (zh) | 神经网络结构搜索方法、装置、计算机设备及存储介质 | |
CN110147878B (zh) | 数据处理方法、装置及设备 | |
CN113593611A (zh) | 语音分类网络训练方法、装置、计算设备及存储介质 | |
US10699002B1 (en) | Identification of database intrusion by changes in data tables | |
KR20210032140A (ko) | 뉴럴 네트워크에 대한 프루닝을 수행하는 방법 및 장치 | |
JP2022554068A (ja) | ビデオコンテンツ認識方法、装置、プログラム及びコンピュータデバイス | |
CN110705489B (zh) | 目标识别网络的训练方法、装置、计算机设备和存储介质 | |
CN112990318B (zh) | 持续学习方法、装置、终端及存储介质 | |
US20140156569A1 (en) | Method and apparatus for improving resilience in customized program learning network computational environments | |
CN112529068B (zh) | 一种多视图图像分类方法、系统、计算机设备和存储介质 | |
CN113657087B (zh) | 信息的匹配方法及装置 | |
US20210357644A1 (en) | Explanatory visualizations for object detection | |
CN108364067B (zh) | 基于数据分割的深度学习方法以及机器人系统 | |
US20210383497A1 (en) | Interpretation Maps with Guaranteed Robustness | |
CN111222557A (zh) | 图像分类方法、装置、存储介质及电子设备 | |
CN113641835B (zh) | 多媒体资源推荐方法、装置、电子设备及介质 | |
CN114528913A (zh) | 基于信任和一致性的模型迁移方法、装置、设备及介质 | |
CN113609337A (zh) | 图神经网络的预训练方法、训练方法、装置、设备及介质 | |
US11887356B2 (en) | System, method and apparatus for training a machine learning model | |
KR102348368B1 (ko) | 머신러닝 모델의 학습 데이터 생성과 머신러닝 모델을 이용한 유사 이미지 생성을 위한 장치, 방법, 시스템 및 컴퓨터 판독가능 저장 매체 | |
CN114638823A (zh) | 基于注意力机制序列模型的全切片图像分类方法及装置 | |
Liu et al. | An improved dual-channel network to eliminate catastrophic forgetting | |
CN114496099A (zh) | 细胞功能注释方法、装置、设备及介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |