CN110097191A - 信息处理方法以及信息处理系统 - Google Patents

信息处理方法以及信息处理系统 Download PDF

Info

Publication number
CN110097191A
CN110097191A CN201910063043.7A CN201910063043A CN110097191A CN 110097191 A CN110097191 A CN 110097191A CN 201910063043 A CN201910063043 A CN 201910063043A CN 110097191 A CN110097191 A CN 110097191A
Authority
CN
China
Prior art keywords
data
learning model
learning
output data
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201910063043.7A
Other languages
English (en)
Other versions
CN110097191B (zh
Inventor
中田洋平
筑泽宗太郎
石井育规
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2018177725A external-priority patent/JP7058202B2/ja
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of CN110097191A publication Critical patent/CN110097191A/zh
Application granted granted Critical
Publication of CN110097191B publication Critical patent/CN110097191B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/04Inference or reasoning models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/06Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
    • G06N3/063Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2218/00Aspects of pattern recognition specially adapted for signal processing
    • G06F2218/12Classification; Matching

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Neurology (AREA)
  • Computer Hardware Design (AREA)
  • Geometry (AREA)
  • User Interface Of Digital Computer (AREA)
  • Feedback Control In General (AREA)
  • Image Analysis (AREA)
  • Machine Translation (AREA)

Abstract

提供一种将嵌入式系统的学习模型的输出的损失反馈到轻量化前的学习模型的信息处理方法以及信息处理系统。在利用计算机来执行的信息处理方法中,将第一学习模型的输出数据用作学习数据、且将通过第一学习模型的转换而得到的第二学习模型的输出数据用作正确解答数据,进行学习而得到第三学习模型,将与给第一学习模型的第一输入数据对应的第一输出数据输入到第三学习模型,从而获得第二输出数据(S42),获得针对第一输入数据的第一正确解答数据(S44),利用与第三学习模型输出数据和第一正确解答数据的差分对应的第一差分数据,进行第一学习模型的再学习(S49)。

Description

信息处理方法以及信息处理系统
技术领域
本发明涉及执行学习模型的信息处理系统以及在该信息处理系统进行的信息处理方法。
背景技术
近些年提出了一种有关将通过机器学习而得到的学习模型轻量化,并适用于嵌入式系统的技术。在提出的这种技术中具有使适用后的嵌入式系统中的学习模型的性能提高的手段(例如参照专利文献1以及非专利文献1)。
(现有技术文献)
(专利文献)
专利文献1国际公开第2017/038104号
(非专利文献)
非专利文献1Benoit Jacob、另外7名、"Quantization and Training of NeuralNetworks for Efficient Integer-Arithmetic-Only Inference"、[online]、互联网<URL:https://arxiv.org/abs/1712.05877>
然而,在对学习模型进行转换的转换工具的转换内容不明确(即,转换工具为黑箱)的情况下,则不能利用上述的以往技术。
发明内容
于是,本发明提供一种即使在对学习模型进行转换的转换工具的转换内容不明确的情况下,也能够提高转换后的学习模型的性能的信息处理方法等。
本发明的一个形态所涉及的信息处理方法利用计算机进行如下工作,向第三学习模型输入第一输出数据,而获得第二输出数据,所述第一输出数据是与给第一学习模型的第一输入数据对应的数据,所述第三学习模型是通过将所述第一学习模型的输出数据用作学习数据、且将通过所述第一学习模型的转换而得到的第二学习模型的输出数据用作正确解答数据来进行学习而得到的,获得针对所述第一输入数据的第一正确解答数据,利用与所述第二输出数据和所述第一正确解答数据的差分对应的第一差分数据,进行所述第一学习模型的再学习。
并且,本发明的一个形态所涉及的信息处理系统具备计算机,并且利用所述计算机,向第三学习模型输入第一输出数据,而获得第二输出数据,所述第一输出数据是与给第一学习模型的第一输入数据对应的数据,所述第三学习模型是通过将第一学习模型的输出数据用作学习数据、且将通过所述第一学习模型的转换而得到的第二学习模型的输出数据用作正确解答数据来进行学习而得到的,获得针对所述第一输入数据的第一正确解答数据,利用与所述第二输出数据和所述第一正确解答数据的差分对应的第一差分数据,进行所述第一学习模型的再学习。
另外,本发明的概括性的或具体的形态可以作为装置、集成电路、计算机程序或计算机可读取的CD-ROM等记录介质来实现,也可以作为装置、系统、方法、集成电路、计算机程序以及记录介质的任意组合来实现。
在本发明的信息处理方法以及信息处理系统中,即使对学习模型进行转换的转换工具的转换内容不明确,也能够提高转换后的学习模型的性能。
附图说明
图1是用于说明学习模型的学习以及向嵌入式系统的适用的概要的图。
图2是用于说明实施方式中的、用于将嵌入式系统中的模型的输出的损失反映到学习模型的结构的概要的图。
图3是示出实现实施方式中的再学习的工序的信息处理系统的功能构成的方框图。
图4是以时间序列示出实施方式中的数据的流动的序列图。
图5是用于说明将实施方式的变形例中的、嵌入式系统的模型的输出的损失反映到学习模型的结构的概要的图。
符号说明
1A、1a、2A、2a、3A、3a 参数(权重)
10 神经网络学习部
15 量化工具
20 嵌入式系统
30 反馈部
31 第一转换部
33 损失计算部
35 正确解答数据
37 第二转换部
100 信息处理系统
B、b、bb 输出数据
C、CC、c 损失
CM1 第一转换模型
CM2 第二转换模型
LM、lm 学习模型
具体实施方式
(成为本发明的基础的见解)
本发明人员针对通过上述的机器学习而得到的模型(以下也称为学习模型)被轻量化后向嵌入式系统的适用,发现了如下的问题。
嵌入式系统通常在运算速度、存储容量大小、能够接受供给的电量方面,比构筑了学习模型的环境差。例如在学习中为了得到更高的精度,而采用FP32(32位浮点)等数值表示,并且采用了即使是这种大小的数值表示,也能够以较短的时间进行处理的计算机。另一方面,嵌入式系统按照嵌入目的地的设备,处理电路的规模受到限制。并且,在像机动车这种能够利用的电力受到限制的环境下所使用的嵌入式系统中,在处理电路的选择中还需要考虑到耗电量。
以上述这种计算机构筑的学习模型即使在受到这些限制的状况下,也要以被要求的速度能够执行的方式,在进行了用于轻量化的转换的基础上被安装到嵌入式系统。图1是用于说明学习模型的构筑以及学习模型向该嵌入式系统的适用的概要的图。在该例子中,通过学习部的学习处理,来构筑神经网络型的学习模型LM。学习部例如是通过在接受商用电源的供给来工作的个人电脑上执行规定的程序而被构筑的功能构成,利用FP32的数值表示来进行学习处理。于是,作为该神经网络的参数的与节点对应的权重1A、2A以及3A,通过量化工具被转换为16位或8位等较少的位数的整数表示,即被量化的是权重1a、2a以及3a。包括这些参数的学习模型lm由于比原来的学习模型LM的执行负荷小,因此有利于具备比个人电脑的处理速度慢的处理器以及小的存储器的嵌入式系统上的处理时间的短缩。
然而,在通过这种量化得到的学习模型lm中,作为针对输入的结果而被输出的推论,会有与原来的学习模型做出的推论不一致的情况。因此,学习模型lm通常在推论的精度上比原来的学习模型LM差。也就是说,与针对输入的正确解答数据的差分即损失,具有在学习模型lm上大的倾向。然而,在嵌入式系统例如承担上述例子中的机动车的驾驶支援、或自动驾驶中的识别功能功能的情况下,若因推论的精度不充分而发生物体的误检测或未检测,则在安全上会出现问题。
学习模型的推论的精度的改善中有既存的方法。例如在图1的学习部,利用被称为误差逆传播算法的方法执行再学习。若对该方法进行大致说明,首先,求出推论的输出数据B、与针对该输出数据B所对应的输入数据的正确解答数据的差分即损失C,利用该损失以从输出层向前一阶段依次反向传播的方式调整神经原的权重(参照图1的点划线的箭头)。
但是,该方法总的来说用于,减少在利用了能够进行高精度的推论的数值表示的学习部执行的推论的损失。即使以该损失减少的方式执行了学习模型LM的再学习,也未必能够减少在嵌入式系统的推论的结果的数据即与输出数据B不同的输出数据b与正确解答数据的差分。若进行其他的表示,即使以该方法解消输出数据B的损失,也未必能够解消输出数据b针对正确解答数据的差分。这样,在嵌入式系统不能解消的差分,例如在上述的机动车的例子中,则会关联到车辆外部的物体的误检测或未检测。
并且,在专利文献1公开了进行如下比较的步骤,即对相当于上述的学习部的个人电脑的CPU的推论的结果、与相当于图1的嵌入式系统的嵌入式芯片的推论的结果进行比较。在下一个步骤虽然执行代码的调谐,但是关于该比较的结果在调谐中被怎样应用的详细状况却没有公开,因此,无法知道在嵌入式系统的推论的精度的改善效果。
在非专利文献1公开的技术中,在相当于上述的学习部的个人电脑的学习模型,将相当于上述的量化工具的转换工具埋入到推论的思路。据此,被安装到嵌入式系统的学习模型虚拟地构筑到个人电脑上。于是,利用该被虚拟构筑的学习模型的推论的结果,进行再学习。这样,能够解决因个人电脑上的学习模型与嵌入式系统上的学习模型的不一致而造成的、不能提高嵌入式系统的推论的精度的问题。在此,非专利文献1中公开的方法以明确转换工具的内部详细为前提。然而,关于量化工具等转换工具,包括该工具的框架的提供方的制造商没有公开内部详细内容,对于利用者而言一般是黑箱。即,转换工具的利用者不能利用这种方法来实现嵌入式系统的学习模型lm的输出数据b的损失的解消。
本发明提供一种即使是不能知道上述这种转换工具的内部详细内容的神经网络的利用者,为了解消嵌入式系统的学习模型的输出的误差也能够利用的信息处理方法。
本发明的一个形态所涉及的信息处理方法利用计算机进行如下工作,向第三学习模型输入第一输出数据,而获得第二输出数据,所述第一输出数据是与给第一学习模型的第一输入数据对应的数据,所述第三学习模型是通过将所述第一学习模型的输出数据用作学习数据、且将通过所述第一学习模型的转换而得到的第二学习模型的输出数据用作正确解答数据来进行学习而得到的,获得针对所述第一输入数据的第一正确解答数据,利用与所述第二输出数据和所述第一正确解答数据的差分对应的第一差分数据,进行所述第一学习模型的再学习。
据此,能够根据作为嵌入式系统的推论的结果的输出数据针对正确解答数据的差分(损失)来进行再学习,因此,即使是对学习模型进行转换的转换工具的转换内容不明确,也能够提高转换后的学习模型的性能。具体而言,能够期待解消嵌入式系统的学习模型的输出误差,从而能够提高嵌入式系统的推论的精度。
并且,例如可以是,向第四学习模型输入所述第一差分数据,而获得第二差分数据,所述第四学习模型是通过,将与所述第二学习模型的输出数据和针对给所述第一学习模型的输入数据的正确解答数据的差分对应的差分数据用作学习数据,并且将与所述第一学习模型的输出数据和所述第一学习模型的输入数据所对应的正确解答数据的差分对应的差分数据用作正确解答数据,进行学习而得到的,利用所述第二差分数据,进行所述第一学习模型的再学习。
例如,若不同环境下的差分直接利用到再学习,则在误差逆传播算法中的加权的调整会过剩或者不足,从而会导致再学习的结果、推论的精度不能提高,甚至会到造成恶化。但是通过该构成,作为用于再学习的上述的差分,不容易发生这种事态,能够得到更恰当的结果,从而能够期待提高再学习的效率。
并且,例如也可以是,所述第三学习模型是通过进一步将与所述第一学习模型的输出数据对应的输入数据用作学习数据,进行学习而得到的,并且可以是,所述第三学习模型是通过进一步将与所述第一学习模型的输出数据对应的学习参数用作学习数据,进行学习而得到的。
据此,能够得到更恰当的推论的嵌入式系统的输出数据,从而能够提高再学习的效率。
并且,例如也可以是,所述第一学习模型以及所述第二学习模型是神经网络型的学习模型,所述学习参数是与神经网络的节点对应的权重。
据此,能够抑制在将学习环境下得到的高精度的神经网络适用到执行环境的限制严格的嵌入式系统时所担心的精度的降低。
并且,例如,所述第一学习模型的转换是神经网络的轻量化。
据此,为了能够在比构筑时的环境资源限制严格的嵌入式系统使用而被轻量化的学习模型的性能可以得到提高。
并且,例如可以是,将所述第一学习模型的输出数据用作学习数据,并且将所述第二学习模型的输出数据用作正确解答数据,进行所述第三学习模型的学习。并且,可以是,将与所述第二学习模型的输出数据和针对给所述第一学习模型的输入数据的正确解答数据的差分对应的差分数据用作学习数据,并且将与所述第一学习模型的输出数据和所述第一学习模型的输入数据所对应的正确解答数据的差分对应的差分数据用作正确解答数据,进行所述第四学习模型的学习。
据此,即使为了得到在嵌入式系统使用的学习模型的量化工具的内部详细内容为黑箱的条件下,也能够利用可使用的数据来获得模拟了第二学习模型的输出数据的损失的数据。通过将该模拟了的数据反馈到第一学习模型,从而能够提高嵌入式系统所使用的学习模型的性能。
并且,本发明的一个形态所涉及的信息处理系统具备计算机,利用所述计算机,向第三学习模型输入第一输出数据,而获得第二输出数据,所述第一输出数据是与给第一学习模型的第一输入数据对应的数据,所述第三学习模型是通过将第一学习模型的输出数据用作学习数据、且将通过所述第一学习模型的转换而得到的第二学习模型的输出数据用作正确解答数据来进行学习而得到的,获得针对所述第一输入数据的第一正确解答数据,利用与所述第二输出数据和所述第一正确解答数据的差分对应的第一差分数据,进行所述第一学习模型的再学习。
据此,能够根据作为嵌入式系统的推论的结果的输出数据针对正确解答数据的差分(损失)来进行再学习,因此,即使对学习模型进行转换的转换工具的转换内容不明确,也能够提高转换后的学习模型的性能。具体而言,能够期待解消嵌入式系统的学习模型的输出的误差,从而能够提高嵌入式系统的推论的精度。
以下参照附图,对实施方式所涉及的信息处理方法以及信息处理系统进行具体说明。
另外,以下的实施方式均为示出本发明的概括性的或具体的例子。因此,以下的实施方式所示的数值、形状、材料、构成要素、构成要素的配置以及连接方式、步骤(工序)以及步骤的顺序等均为一个例子,其主旨并非是对本发明进行限定。并且,对于以下的实施方式的构成要素之中没有记载在独立技术方案的构成要素,作为可任意附加的构成要素。并且,各个图为模式图,并非是严谨的图示。
(实施方式)
图2是用于说明实施方式中的、用于将嵌入式系统中的模型的输出针对正确解答数据的差分反映到学习模型的结构的概要的图。以下一边对欠缺该结构的图1所示的状况进行比较,一边进行说明。
神经网络学习部10例如在个人电脑等中,通过处理器执行规定的程序来实现。神经网络学习部10例如利用FP32这种能够进行高精度的推论的数值表示,通过学习来进行学习模型LM的构筑。并且,神经网络学习部10也进行利用了通过被构筑的学习模型LM对输入数据的推论的执行、以及作为推论的结果的输出数据针对正确解答数据的差分的学习模型LM的再学习。这些与图1所示相同。学习模型LM是本实施方式中的第一学习模型的例子。
量化工具15与图1所示相同,通过对在神经网络学习部10被构筑的学习模型LM的权重进行量化,来获得更轻量的学习模型lm。量化工具例如是TensorRT、XNNC(Xtensa(注册商标)Neural Network Compiler)、CDNN(CEVA Deep Neural Network)等制造商提供的深度神经网络软件框架中包含的,对用户而言则为黑箱。
学习模型lm也与图1所示相同,例如被安装在采用了int16(整数16位)或int8(整数8位)这种比神经网络学习部10的处理负荷小的数值表示的嵌入式系统20。学习模型lm是本实施方式中的第二学习模型的例子。
反馈部30是图1的结构中没有的要素,将学习模型lm的输出数据的损失反馈到学习模型LM。
反馈部30中包含的第一转换模型CM1是将作为学习模型LM的推论的结果的输出数据用作学习数据,并且将学习模型lm的输出数据用作正确解答数据,进行学习而得到的学习模型,例如通过神经网络来实现。关于反馈部30中的第一转换模型CM1的功能,将与给学习模型LM的输入数据对应的输出数据B作为输入来接受,获得模拟了由学习模型lm进行的推论的结果的输出数据bb。以虚线来表示来自学习模型lm的输出,这是因为输出数据bb是模拟的,实际上没有由学习模型lm输出。第一转换模型CM1是本实施方式中的第三学习模型的例子。并且,输出数据B是本实施方式中的第一输出数据的例子,与第一输出数据对应的输入数据是本实施方式中的第一输入数据的例子。并且,输出数据bb是本实施方式中的第二输出数据的例子。即,第二输出数据是模拟了第二学习模型的输出数据的数据。
在反馈部30,进一步,损失计算部(图2中未图示,后述)获得针对第一输入数据的正确解答数据,算出该正确解答数据与输出数据bb的差分即损失c。通过损失计算部而与输出数据bb进行了比较的针对第一输入数据的正确解答数据,是本实施方式中的第一正确解答数据的例子。并且,损失c是本实施方式中的第一差分数据的例子。
第二转换模型CM2是,将与某个输入数据对应的、作为学习模型lm的推论的结果的输出数据、和针对该输入数据的正确解答数据的差分即损失用作学习数据,并且将学习模型LM的输出数据和针对与该输出数据对应的输入数据的正确解答数据的差分用作正确解答数据,进行学习而得到的学习模型,例如通过神经网络来实现。反馈部30中的第二转换模型CM2的功能是,将损失c作为输入来接受,获得模拟了来自学习模型LM的输出数据的损失的损失CC。第二转换模型CM2是本实施方式中的第四学习模型的例子,损失CC是本实施方式中的第二差分数据的例子。即,第二差分数据是模拟了学习模型LM的输出数据的损失的数据。
神经网络学习部10利用第二转换模型CM2输出的损失CC,进行学习模型LM的权重的再调整,即进行再学习。
通过这种结构,首先,根据个人电脑上的学习模型LM的输出数据,生成嵌入式系统20上的学习模型LM的模拟的输出数据。于是,利用该模拟的输出数据、与针对对应的输入数据的正确解答数据的差分,进行学习模型LM的再学习。这样,即使在量化工具15为黑箱,由量化工具15进行的转换的内容不明确的情况下,也能够确切地进行由嵌入式系统进行的推论的结果向学习模型LM的反馈。
另外,损失c可以不被第二转换模型CM2转换为损失CC,而可以用于学习模型LM的再学习。但是,由于学习模型LM与推论的结果被模拟的学习模型lm的规格的不同,例如使用的数值表示的不同,在采用了损失c本身的再学习中,会引起学习模型LM自体的推论的精度降低。在这种情况下,也有转换再学习后的学习模型LM而得到的学习模型lm的精度不能提高的可能性。第二转换模型CM2以回避这种状况为目的,按照需要而被包含在反馈部30。
并且,本实施方式中的再学习的工序并非是对图1所示的再学习的工序的替代。在图2中虽然没有示出,通过图1所示的再学习也可以期待提高学习模型LM的精度。
接着,对实现本实施方式中的再学习的工序的构成进行说明。图3是示出本实施方式中的实现上述的再学习的工序的信息处理系统100的功能构成的方框图。
信息处理系统100是执行学习模型的学习以及再学习的系统,由一台或多台计算机构成。该学习模型的学习以及再学习由图2也示出的神经网络(在图3中采用英文表示的Neural Network的开头字母,记作NN)学习部10执行。信息处理系统100除了神经网络学习部10以外,作为功能上的构成要素还具备:第一转换部31、损失计算部33、正确解答数据35以及第二转换部37。
第一转换部31是通过构成信息处理系统100的计算机所具备的处理器,通过构筑图2的第一转换模型CM1来实现的功能上的构成要素。第一转换部31将作为输入而接受的示出学习模型LM的推论的结果的输出数据B,通过构筑的第一转换模型CM1进行转换,从而获得并输出模拟了示出学习模型lm的推论的结果的输出数据的输出数据bb。
损失计算部33是由规定的程序提供的功能上的构成要素,该规定的程序由构成信息处理系统100的计算机所具备的处理器执行。损失计算部33将输出数据bb以及第一正确解答数据作为输入来接受,算出这些差分,并将该差分作为损失c来输出。
正确解答数据35是被保存在构成信息处理系统100的计算机所具备的存储装置的数据,第一正确解答数据包含在正确解答数据35。并且,图1所示的用于神经网络学习部10求出用于再学习的损失的正确解答数据也包括在该正确解答数据35中。
第二转换部37是通过由构成信息处理系统100的计算机所具备的处理器,构筑图2的第二转换模型CM2而实现的功能上的构成要素。第二转换部37通过构筑的第二转换模型CM2,对作为输入而接受的学习模型lm的输出数据的损失c进行转换,而获得损失CC并输出。损失CC用于神经网络学习部10进行学习模型LM的再学习。
另外,上述的第一转换部31、损失计算部33、正确解答数据35以及第二转换部37也可以在实现神经网络学习部10的计算机上实现,也可以在其他的计算机上实现。并且,神经网络学习部10本身可以在一台计算机来实现,也可以在多台计算机上实现。
接着,对包括利用图3说明的构成要素的上述的结构之中的数据的流动以及处理的顺序进行说明。
图4是在时间序列上示出本实施方式中的数据的流动的序列图。在以下的说明中,将数据的流动分为以下的四个阶段进行说明。
第1阶段:从学习模型的构筑到向嵌入式系统的安装
第2阶段:通过学习进行的第一转换模型的构筑
第3阶段:通过学习进行的第二转换模型的构筑
第4阶段:再学习
另外,在图4中为了便于说明而省略正确解答数据35的图示。
首先,在第1阶段,在神经网络学习部10,通过利用了学习数据以及正确解答数据的学习,来构筑学习模型LM(步骤S10)。虽然没有图示,在该阶段也可以实现通过图1所示的再学习来提高学习模型LM的推论的精度。被构筑的学习模型LM被输入到量化工具15(步骤S11),并被量化(步骤S12)。已量化的学习模型lm被安装到嵌入式系统20(步骤S13)。据此,在嵌入式系统20成为能够由学习模型lm执行推论的状态。
在第2阶段,在神经网络学习部10,由在第1阶段构筑的学习模型LM进行的推论被执行(步骤S20)。并且,在嵌入式系统20,在第1阶段被安装的学习模型lm进行的推论被执行(步骤S22)。这些推论利用相同的输入数据来执行。另外,在嵌入式系统20,输入数据也可以被加工。
获得了由学习模型LM进行的推论的结果以及由学习模型lm进行的推论的结果(步骤S21、S23)的第一转换部31,将由学习模型LM进行的推论的结果用作学习数据,并且将由学习模型lm进行的推论的结果用作正确解答数据,来进行学习(步骤S24),并通过该学习来构筑第一转换模型CM1。另外,也可以从存储器等获得通过事先执行的学习处理而被构筑的第一转换模型CM1。
在第3阶段,损失计算部33获得已经由学习模型lm进行了推论的结果(步骤S30),并且,从正确解答数据35获得针对与该推论的结果(输出数据)对应的输入数据的正确解答数据(步骤S31)。并且,损失计算部33算出由学习模型lm进行的推论的结果与该正确解答数据的损失(差分)(步骤S32)。
另外,神经网络学习部10从正确解答数据35,获得针对已经由学习模型LM进行了推论的结果(输出数据)所对应的输入数据的正确解答数据(步骤S34),算出由学习模型LM进行的推论的结果与该正确解答数据的损失(差分)(步骤S35)。
获得了由损失计算部33算出的学习模型lm的推论结果的损失、以及由神经网络学习部10算出的学习模型LM的推论结果的损失(步骤S33、S36)的第二转换部37,将学习模型lm的推论结果的损失用作学习数据,并且将学习模型LM的推论结果的损失用作正确解答数据来进行学习(步骤S37),从而构筑第二转换模型CM2。另外,也可以从存储器等中获得通过事前进行的学习处理而被构筑的第二转换模型CM2。
通过第1阶段至第3阶段,图2所示的反馈部30被构筑到信息处理系统100。第4阶段由成为这种状态的信息处理系统100执行。
在第4阶段,在神经网络学习部10通过学习模型LM而被执行的推论的结果(输出数据B),在第一转换部31通过第一转换模型CM1而被转换(步骤S40~S42)。被转换的该推论的结果(输出数据bb)是通过从与学习模型LM的推论的结果(输出数据B)对应的输入数据,模拟了由学习模型lm进行的推论的结果得到的。
获得了输出数据bb(步骤S43)的损失计算部33,从正确解答数据35获得第一正确解答数据(步骤S44),该第一正确解答数据是针对学习模型LM进行的推论的结果(输出数据B)所对应的输入数据的正确解答数据。于是,损失计算部33算出模拟了通过学习模型lm而推论的结果与第一正确解答数据的损失(差分)(步骤S45)。
第二转换部37通过第二转换模型CM2来转换该损失(步骤S46、S47)。神经网络学习部10获得该已转换的损失(步骤S48),以用于学习模型LM的再学习(步骤S49)。
当通过学习模型LM的再学习,权重1A~3A被更新时,从而可以返回到第1阶段,通过执行量化(步骤S12)以后的处理,而重复进行再学习。
(变形例)
以上基于实施方式对一个或多个形态所涉及的信息处理方法以及信息处理系统进行了说明,本发明并非受这些实施方式所限。在不脱离本发明的主旨的范围内,将本领域技术人员所能够想到的各种变形执行于本实施方式而得到的形态均可以包括在一个或多个形态的范围内。
图5是用于说明这种变形的一个例子的图。以下针对与图2所示的结构的不同之处进行说明。
在图5所示的用于将针对本变形例中的正确解答数据的差分反映到学习模型的结构中,与图2所示的结构的不同之处是,向第一转换模型的输入除了包括学习模型LM的输出数据B以外,还包括与输出数据B对应的输入数据、以及作为学习模型LM的参数的权重1A~3A。
即在本变形例中,在第2阶段,作为用于第一转换模型CM1的构筑的学习数据,采用了输出数据B、与输出数据B对应的输入数据、以及学习模型LM的参数。这样,作为第一转换模型CM1的学习的学习数据而采用的学习模型LM的参数是本变形例中的学习参数的例子。
这样,通过采用了更多的学习数据进行学习而得到的第一转换模型CM1,能够输出以更高的精度模拟了学习模型lm的输出数据的输出数据bb。
另外,作为输入到第一转换模型CM1的学习数据以及用于推论的输入数据而被添加到输出数据B的数据,也可以仅是与输出数据B对应的输入数据以及学习模型LM的参数中的任一个。
并且,作为其他的变形例,也可以替代输出数据bb,而使用输出数据b来算出损失c。即,可以不采用第一转换模型CM1,而将通过学习模型lm的推论结果的输出数据用于损失c的算出。
并且作为其他的变形例也可以是,按照采用了第一转换模型CM1以及第二转换模型CM2的转换的有无,来提示被预测的学习模型lm的性能的变化。例如,在损失计算部33仅利用第一转换模型CM1的情况下,根据算出的损失c与损失C的差分,来估计学习模型lm的精度的变化。并且,在损失计算部33采用第一转换模型CM1以及第二转换模型CM2的情况下,根据算出的损失CC与损失C的差分来估计学习模型lm的精度的变化。并且,可以通过信息处理系统另外具备的提示装置来显示被估计的学习模型lm的精度的变化。提示装置可以是显示器、投影仪、或扬声器等。
本发明能够用于比构筑学习模型时的环境限制更严格的执行环境所适用的领域,例如能够用于嵌入到机动车(包括自动驾驶车辆)、家用电器设备、可穿戴式信息终端、产业设备、以及其他的IoT的各种产业领域。

Claims (9)

1.一种信息处理方法,利用计算机进行如下工作,
向第三学习模型输入第一输出数据,而获得第二输出数据,所述第一输出数据是与给第一学习模型的第一输入数据对应的数据,所述第三学习模型是通过将所述第一学习模型的输出数据用作学习数据、且将通过所述第一学习模型的转换而得到的第二学习模型的输出数据用作正确解答数据来进行学习而得到的,
获得针对所述第一输入数据的第一正确解答数据,
利用与所述第二输出数据和所述第一正确解答数据的差分对应的第一差分数据,进行所述第一学习模型的再学习。
2.如权利要求1所述的信息处理方法,
向第四学习模型输入所述第一差分数据,而获得第二差分数据,所述第四学习模型是通过,将与所述第二学习模型的输出数据和针对给所述第一学习模型的输入数据的正确解答数据的差分对应的差分数据用作学习数据,并且将与所述第一学习模型的输出数据和所述第一学习模型的输入数据所对应的正确解答数据的差分对应的差分数据用作正确解答数据,进行学习而得到的,
利用所述第二差分数据,进行所述第一学习模型的再学习。
3.如权利要求1或2所述的信息处理方法,
所述第三学习模型是通过进一步将与所述第一学习模型的输出数据对应的输入数据用作学习数据,进行学习而得到的。
4.如权利要求1或2所述的信息处理方法,
所述第三学习模型是通过进一步将与所述第一学习模型的输出数据对应的学习参数用作学习数据,进行学习而得到的。
5.如权利要求4所述的信息处理方法,
所述第一学习模型以及所述第二学习模型是神经网络型的学习模型,
所述学习参数是与神经网络的节点对应的权重。
6.如权利要求5所述的信息处理方法,
所述第一学习模型的转换是神经网络的轻量化。
7.如权利要求1或2所述的信息处理方法,
将所述第一学习模型的输出数据用作学习数据,并且将所述第二学习模型的输出数据用作正确解答数据,进行所述第三学习模型的学习。
8.如权利要求2所述的信息处理方法,
将与所述第二学习模型的输出数据和针对给所述第一学习模型的输入数据的正确解答数据的差分对应的差分数据用作学习数据,并且将与所述第一学习模型的输出数据和所述第一学习模型的输入数据所对应的正确解答数据的差分对应的差分数据用作正确解答数据,进行所述第四学习模型的学习。
9.一种信息处理系统,具备计算机,利用所述计算机,
向第三学习模型输入第一输出数据,而获得第二输出数据,所述第一输出数据是与给第一学习模型的第一输入数据对应的数据,所述第三学习模型是通过将第一学习模型的输出数据用作学习数据、且将通过所述第一学习模型的转换而得到的第二学习模型的输出数据用作正确解答数据来进行学习而得到的,
获得针对所述第一输入数据的第一正确解答数据,
利用与所述第二输出数据和所述第一正确解答数据的差分对应的第一差分数据,进行所述第一学习模型的再学习。
CN201910063043.7A 2018-01-29 2019-01-23 信息处理方法以及信息处理系统 Active CN110097191B (zh)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201862623137P 2018-01-29 2018-01-29
US62/623,137 2018-01-29
JP2018177725A JP7058202B2 (ja) 2018-01-29 2018-09-21 情報処理方法及び情報処理システム
JP2018-177725 2018-09-21

Publications (2)

Publication Number Publication Date
CN110097191A true CN110097191A (zh) 2019-08-06
CN110097191B CN110097191B (zh) 2024-02-27

Family

ID=65200690

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201910063043.7A Active CN110097191B (zh) 2018-01-29 2019-01-23 信息处理方法以及信息处理系统

Country Status (3)

Country Link
US (2) US10885447B2 (zh)
EP (1) EP3518151A1 (zh)
CN (1) CN110097191B (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114220163A (zh) * 2021-11-18 2022-03-22 北京百度网讯科技有限公司 人体姿态估计方法、装置、电子设备及存储介质

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111585478A (zh) * 2020-05-26 2020-08-25 佛山金华信智能科技有限公司 伺服电机驱动电压控制方法、装置、电子设备及存储介质
WO2022029771A1 (en) * 2020-08-03 2022-02-10 Inspekto A.M.V Ltd Adaptive system and method for inspection of imaged items
IL276478B2 (en) * 2020-08-03 2023-07-01 Inspekto A M V Ltd Adaptive system and method for inspecting photographed objects

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104766038A (zh) * 2014-01-02 2015-07-08 株式会社理光 手掌开合动作识别方法和装置
US20150242856A1 (en) * 2014-02-21 2015-08-27 International Business Machines Corporation System and Method for Identifying Procurement Fraud/Risk
CN104951425A (zh) * 2015-07-20 2015-09-30 东北大学 一种基于深度学习的云服务性能自适应动作类型选择方法
EP3115939A1 (en) * 2015-07-07 2017-01-11 California Institute of Technology Alternative training distribution based on density modification
CN106886599A (zh) * 2017-02-28 2017-06-23 北京京东尚科信息技术有限公司 图像检索方法以及装置
WO2017156640A1 (en) * 2016-03-18 2017-09-21 Fluent.Ai Inc. Method and device for automatically learning relevance of words in a speech recognition system
CN107395211A (zh) * 2017-09-12 2017-11-24 郑州云海信息技术有限公司 一种基于卷积神经网络模型的数据处理方法及装置
CN107515909A (zh) * 2017-08-11 2017-12-26 深圳市耐飞科技有限公司 一种视频推荐方法及系统
JP2021102391A (ja) * 2019-12-25 2021-07-15 井関農機株式会社 作業車の給電設備

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007041709A1 (en) * 2005-10-04 2007-04-12 Basepoint Analytics Llc System and method of detecting fraud
WO2016038585A1 (en) * 2014-09-12 2016-03-17 Blacktree Fitness Technologies Inc. Portable devices and methods for measuring nutritional intake
WO2017038104A1 (ja) 2015-09-03 2017-03-09 株式会社Preferred Networks 実装装置および実装方法
KR102492318B1 (ko) * 2015-09-18 2023-01-26 삼성전자주식회사 모델 학습 방법 및 장치, 및 데이터 인식 방법
US9990687B1 (en) * 2017-01-19 2018-06-05 Deep Learning Analytics, LLC Systems and methods for fast and repeatable embedding of high-dimensional data objects using deep learning with power efficient GPU and FPGA-based processing platforms

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104766038A (zh) * 2014-01-02 2015-07-08 株式会社理光 手掌开合动作识别方法和装置
US20150242856A1 (en) * 2014-02-21 2015-08-27 International Business Machines Corporation System and Method for Identifying Procurement Fraud/Risk
EP3115939A1 (en) * 2015-07-07 2017-01-11 California Institute of Technology Alternative training distribution based on density modification
CN104951425A (zh) * 2015-07-20 2015-09-30 东北大学 一种基于深度学习的云服务性能自适应动作类型选择方法
WO2017156640A1 (en) * 2016-03-18 2017-09-21 Fluent.Ai Inc. Method and device for automatically learning relevance of words in a speech recognition system
CN106886599A (zh) * 2017-02-28 2017-06-23 北京京东尚科信息技术有限公司 图像检索方法以及装置
CN107515909A (zh) * 2017-08-11 2017-12-26 深圳市耐飞科技有限公司 一种视频推荐方法及系统
CN107395211A (zh) * 2017-09-12 2017-11-24 郑州云海信息技术有限公司 一种基于卷积神经网络模型的数据处理方法及装置
JP2021102391A (ja) * 2019-12-25 2021-07-15 井関農機株式会社 作業車の給電設備

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
LOUIS M. ROSE等: "Graph and model transformation tools for model migration", 《SOFTWARE & SYSTEMS MODELING》, vol. 13, pages 323 *
MIGUEL Á. CARREIRA-PERPIÑÁN: "Model compression as constrained optimization, with application to neural nets. Part I: general framework", 《ARXIV》, pages 1 - 23 *
喻飞等: "基于差分进化的因子分解机算法", 《计算机科学》, vol. 43, no. 09, pages 269 - 273 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114220163A (zh) * 2021-11-18 2022-03-22 北京百度网讯科技有限公司 人体姿态估计方法、装置、电子设备及存储介质

Also Published As

Publication number Publication date
CN110097191B (zh) 2024-02-27
EP3518151A1 (en) 2019-07-31
US20210089948A1 (en) 2021-03-25
US20190236463A1 (en) 2019-08-01
US10885447B2 (en) 2021-01-05
US11694099B2 (en) 2023-07-04

Similar Documents

Publication Publication Date Title
CN110097191A (zh) 信息处理方法以及信息处理系统
CN107016175B (zh) 适用神经网络处理器的自动化设计方法、装置及优化方法
US10671938B2 (en) Artificial intelligence engine configured to work with a pedagogical programming language to train one or more trained artificial intelligence models
US11836650B2 (en) Artificial intelligence engine for mixing and enhancing features from one or more trained pre-existing machine-learning models
CN104010959B (zh) 用于确定电梯绳索摆动的方法、装置和计算机系统
JP7058202B2 (ja) 情報処理方法及び情報処理システム
WO2019131527A1 (ja) 汎用学習済モデルの生成方法
Fournier et al. Accuracy-based curriculum learning in deep reinforcement learning
CN110520868A (zh) 分布式强化学习
CN105487376B (zh) 一种基于数据驱动单网络结构的最优控制方法
US20210158162A1 (en) Training reinforcement learning agents to learn farsighted behaviors by predicting in latent space
CN108701253A (zh) 使用规范化的目标输出训练神经网络
JP2001236337A (ja) ニューラルネットワークによる予測装置
CN112631128B (zh) 一种多模异构信息融合的机器人装配技能学习方法及系统
CN113435606A (zh) 强化学习模型的优化方法、装置、存储介质及电子设备
CN111433689B (zh) 用于目标系统的控制系统的生成
JP2020148593A (ja) 自動操縦ロボットを制御する操作推論学習モデルの学習システム及び学習方法
CN112930541A (zh) 通过最小化妄想影响来确定控制策略
JP6088613B1 (ja) ロータにおける磁石の配置位置を学習する機械学習装置および方法ならびに該機械学習装置を備えたロータ設計装置
CN107168066B (zh) 一种温室环境自适应控制方法
JPWO2020161935A1 (ja) 学習装置、学習方法、及び、プログラム
JPWO2016203757A1 (ja) 制御装置、それを使用する情報処理装置、制御方法、並びにコンピュータ・プログラム
CN112884160B (zh) 一种元学习方法及相关装置
JP2005056340A (ja) 情報処理装置および方法、プログラム格納媒体、並びにプログラム
Vierlinger Towards ai drawing agents

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant