CN109800886B - 信息处理方法以及信息处理系统 - Google Patents
信息处理方法以及信息处理系统 Download PDFInfo
- Publication number
- CN109800886B CN109800886B CN201811330756.7A CN201811330756A CN109800886B CN 109800886 B CN109800886 B CN 109800886B CN 201811330756 A CN201811330756 A CN 201811330756A CN 109800886 B CN109800886 B CN 109800886B
- Authority
- CN
- China
- Prior art keywords
- determination
- performance requirement
- performance
- determined
- machine learning
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 230000010365 information processing Effects 0.000 title claims abstract description 100
- 238000003672 processing method Methods 0.000 title claims abstract description 28
- 238000010801 machine learning Methods 0.000 claims abstract description 169
- 238000011156 evaluation Methods 0.000 claims abstract description 45
- 230000008859 change Effects 0.000 claims abstract description 11
- 238000012545 processing Methods 0.000 claims description 89
- 238000000034 method Methods 0.000 claims description 53
- 230000008569 process Effects 0.000 claims description 50
- 239000013585 weight reducing agent Substances 0.000 claims description 32
- 238000004891 communication Methods 0.000 description 28
- 238000007689 inspection Methods 0.000 description 22
- 238000011946 reduction process Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 8
- 238000013528 artificial neural network Methods 0.000 description 7
- 238000003066 decision tree Methods 0.000 description 7
- 239000000470 constituent Substances 0.000 description 6
- 238000007637 random forest analysis Methods 0.000 description 5
- 238000004422 calculation algorithm Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 238000013139 quantization Methods 0.000 description 4
- 238000007667 floating Methods 0.000 description 3
- 238000012546 transfer Methods 0.000 description 3
- 230000000694 effects Effects 0.000 description 2
- 238000005265 energy consumption Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000013138 pruning Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000010276 construction Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013135 deep learning Methods 0.000 description 1
- 230000002068 genetic effect Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/06—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons
- G06N3/063—Physical realisation, i.e. hardware implementation of neural networks, neurons or parts of neurons using electronic means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F9/00—Arrangements for program control, e.g. control units
- G06F9/06—Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
- G06F9/44—Arrangements for executing specific programs
- G06F9/445—Program loading or initiating
- G06F9/44505—Configuring for program initiating, e.g. using registry, configuration files
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Abstract
提供能够高效地决定满足所要求的硬件性能要件的机器学习模型的信息处理方法以及信息处理系统等。在信息处理方法中,使用处理器,决定机器学习模型的构成,执行所决定的构成的机器学习模型是否满足对硬件性能的第1性能要件的第1判定,使用判定为满足第1性能要件的构成的机器学习模型执行学习,执行通过学习得到的学习完成模型是否满足对机器学习模型的输出的评价值的第2性能要件的第2判定,在第2判定中判定为学习完成模型满足第2性能要件的情况下,输出表示满足第1性能要件及第2性能要件的信息,在第1判定中判定为不满足第1性能要件的情况下,改变机器学习模型的构成,执行改变后的构成的机器学习模型是否满足第1性能要件的第1判定。
Description
技术领域
本公开涉及决定机器学习中使用的机器学习模型的信息处理方法以及信息处理系统。
背景技术
专利文献1公开了一种学习方法,在使用了神经网络的学习中,通过使用遗传算法,进行使神经网络的单元数变化的处理,并且,进行该学习的中止。
在先技术文献
专利文献1:日本特开2017-97807号公报
发明内容
发明要解决的技术问题
但是,在专利文献1中,未考虑利用机器学习结果的硬件的性能,因此,难以高效地决定满足该硬件的性能要件的机器学习模型。
因此,在本公开中,目的在于提供一种能够高效地决定满足所要求的硬件的性能要件的机器学习模型的信息处理方法以及信息处理系统。
用于解决技术问题的技术方案
本公开的一技术方案涉及的信息处理方法,包括:使用处理器,决定机器学习模型的构成,执行所决定的所述构成的所述机器学习模型是否满足第1性能要件的第1判定,所述第1性能要件是对硬件性能的要件,在所述第1判定中判定为满足所述第1性能要件的情况下,使用判定为满足所述第1性能要件的构成的机器学习模型来执行学习,执行由学习得到的学习完成模型是否满足第2性能要件的第2判定,所述第2性能要件是对机器学习模型的输出的评价值的要件,在所述第2判定中判定为所述学习完成模型满足所述第2性能要件的情况下,输出表示满足所述第1性能要件及所述第2性能要件的信息,在所述第1判定中判定为不满足所述第1性能要件的情况下,改变所述机器学习模型的构成,执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
此外,这是总括的或者具体的技术方案既可以由系统、装置、集成电路、计算机程序或计算机能够读取的CD-ROM等记录介质来实现,也可以由系统、装置、集成电路、计算机程序以及记录介质的任意组合来实现。
发明的效果
本公开涉及的信息处理方法等能够高效地决定满足所要求的硬件的性能要件的机器学习模型。
附图说明
图1是用于说明实施方式涉及的信息处理系统的概略的图。
图2是表示实施方式涉及的信息处理装置的硬件构成的一例的框图。
图3是表示输入输出装置的硬件构成的一例的框图。
图4是表示信息处理系统的功能构成的一例的框图。
图5是表示信息处理系统中的信息处理方法的一例的流程图。
图6是表示实施方式涉及的决定处理的详细的一例的流程图。
图7是表示实施方式涉及的决定处理的详细的一例的流程图。
标号说明
1信息处理系统;100信息处理装置;101CPU;102主存储器(main memory);103储存器(storage);104通信IF;105GPU;111显示部;112输入受理部;120控制部;130决定部;131模型构成要件DB;140判定部;141检查要件DB;150学习部;151中断部;160轻量化部;200输入输出装置;201CPU;202主存储器;203储存器;204显示器;205输入IF;206通信IF;300处理器。
具体实施方式
(成为本公开的基础的见解)
本发明的发明人关于在“背景技术”一栏中记载的学习方法发现了会产生以下的问题。
近年来,为了保证ADAS(Advanced Driver Assistance System:先进驾驶辅助系统)或者自动驾驶系统的安全性,例如需要将使用了如深度学习的机器学习的处理应用于车载系统。另外,对于执行使用了这样的机器学习的处理的处理器,为了作为车载ECU(Electronic Control Unit:电子控制单元)进行利用,被要求满足严格的功耗、处理速度以及识别精度的制约。
但是,车载ECU根据汽车的车种、等级等而可使用许多不同性能的处理器。因此,对于不同的处理器,存在难以有效地决定满足上述的制约的机器学习模型这一问题。
为了解决这样的问题,本公开的一技术方案涉及的信息处理方法,包括:使用处理器,决定机器学习模型的构成,执行所决定的所述构成的所述机器学习模型是否满足第1性能要件的第1判定,所述第1性能要件是对硬件性能的要件,在所述第1判定中判定为满足所述第1性能要件的情况下,使用判定为满足所述第1性能要件的构成的机器学习模型来执行学习,执行由学习得到的学习完成模型是否满足第2性能要件的第2判定,所述第2性能要件是对机器学习模型的输出的评价值的要件,在所述第2判定中判定为所述学习完成模型满足所述第2性能要件的情况下,输出表示满足所述第1性能要件及所述第2性能要件的信息,在所述第1判定中判定为不满足所述第1性能要件的情况下,改变所述机器学习模型的构成,执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
由此,不执行第2判定而改变机器学习模型的构成,直到在第1判定中满足第1性能要件为止,因此,能够减少执行第2判定的次数。因此,能够高效地决定满足所要求的硬件的性能要件的机器学习模型。另外,能够减少处理器涉及的处理量以及能耗。
另外,也可以为,在所述第2判定中判定为不满足所述第2性能要件的情况下,以与前次执行的学习不同的参数执行所述学习,执行通过以所述不同的参数的所述学习得到的学习完成模型是否满足所述第2性能要件的所述第2判定,在判定为不满足所述第2性能要件的次数为第1次数以上的情况下,改变所述机器学习模型的构成,执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
由此,当第1次数以上判定为不满足第2性能要件时,改变机器学习模型的构成,因此,能减少使之学习的次数。因此,能够高效地决定机器学习模型。
另外,也可以为,还包括:对在所述第2判定中判定为满足所述第2性能要件的所述学习完成模型执行轻量化处理,执行通过轻量化处理得到的轻量化模型是否满足第3性能要件的第3判定,所述第3性能要件是对硬件性能的要件,在所述第3判定中判定为满足所述第3性能要件的情况下,输出表示满足所述第3性能要件的信息。
由此,不执行第2判定、轻量化处理以及第3判定而改变机器学习模型的构成,直到在第1判定中满足第1性能要件为止。因此,能够减小执行第2判定、轻量化处理以及第3判定的次数。
另外,由所述第3性能要件规定的硬件性能的条件也可以比由所述第1性能要件规定的硬件性能的条件严格。
因此,能够减少判定为不满足第1性能要件而执行机器学习模型的构成的决定和第1判定的次数。另外,通过在第3判定中进行更严格的判定,例如能够减少执行接着第3判定进行的处理的次数。
另外,也可以为,在所述第3判定中判定为不满足所述第3性能要件的所述轻量化模型的硬件性能满足第1条件的情况下,以与前次执行的轻量化处理不同的参数执行所述轻量化处理,执行通过以所述不同的参数的所述轻量化处理得到的轻量化模型是否满足所述第3性能要件的所述第3判定。
由此,即使是在不满足第3性能要件的情况下,也在接近第3性能要件时改变参数来执行轻量化处理。因此,能够高效地找到满足第3性能要件的轻量化模型。
另外,也可以为,(i)在所述第3判定中判定为不满足所述第3性能要件的所述轻量化模型的硬件性能不满足第1条件的情况下、或者(ii)在判定为不满足所述第3性能要件的次数为第2次数以上的情况下,改变所述机器学习模型的构成,执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
由此,在不满足第3性能要件的情况下,当第2次数以上地判定为不满足第3性能要件时,改变机器学习模型的构成。因此,能够减少执行轻量化处理的次数。由此,能够高效地决定机器学习模型。
另外,也可以为,执行在所述第3判定中判定为满足所述第3性能要件的所述轻量化模型是否满足第4性能要件的第4判定,所述第4性能要件是对实机的硬件性能的要件,在所述第4判定中判定为满足所述第4性能要件的情况下,输出表示满足所述第4性能要件的信息。
由此,针对在第3判定中判定为满足第3判定要件的轻量化模型执行第4判定,因此,能够减少执行第4判定的次数。
另外,也可以为,在所述第4判定中判定为不满足所述第4性能要件的所述轻量化模型的硬件性能满足第2条件的情况下,以与前次执行的轻量化不同的参数执行所述轻量化处理。
由此,即使是在不满足第4性能要件的情况下,也在接近第4性能要件时改变参数来执行轻量化处理,因此,能够高效地找到满足第4性能要件的轻量化模型。
另外,也可以为,(i)在所述第4判定中判定为不满足所述第4性能要件的所述轻量化模型的硬件性能不满足第2条件的情况下、或者(ii)在判定为不满足所述第4性能要件的次数为第3次数以上的情况下,改变所述机器学习模型的构成,执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
由此,在不满足第4性能要件的情况下,当第3次数以上地判定为不满足第4性能要件时,改变机器学习模型的构成。因此,能够减少执行轻量化处理的次数。由此,能够高效地决定机器学习模型。
另外,也可以为,执行在所述第4判定中判定为满足所述第4性能要件的所述轻量化模型是否满足第5性能要件的第5判定,所述第5性能要件是对机器学习模型的输出的评价值的要件,在判定为满足所述第5性能要件的情况下,输出表示满足所述第5性能要件的信息。
由此,针对在第4判定中判定为满足第4判定要件的轻量化模型执行第5判定,因此,能够减少执行第5判定的次数。
另外,也可以为,在所述第5判定中判定为不满足所述第5性能要件的所述轻量化模型的评价值满足第3条件的情况下,执行与前次执行的轻量化不同的参数的所述轻量化处理。
由此,即使是在不满足第5性能要件的情况下,也在接近第5性能要件时,改变参数来执行轻量化处理,因此,能够高效地找到满足第5性能要件的轻量化模型。
另外,也可以为,(i)在所述第5判定中判定为不满足所述第5性能要件的所述轻量化模型的评价值不满足第3条件的情况下、或者(ii)在判定为不满足所述第5性能要件的次数为第4次数以上的情况下,改变所述机器学习模型的构成,执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
由此,当尽管改变参数来重新执行轻量化处理,但第4次数以上地判定为所得到的轻量化模型不满足第5性能要件时,改变机器学习模型的构成。因此,能够减少执行轻量化处理的次数。由此,能够高效地决定机器学习模型。
此外,这种总括的或者具体的技术方案既可以由系统、装置、集成电路、计算机程序或计算机能够读取的CD-ROM等记录介质来实现,也可以由系统、装置、集成电路、计算机程序或记录介质的任意组合来实现。
以下,参照附图对本公开的一技术方案涉及的信息处理方法以及信息处理系统进行具体的说明。
此外,以下说明的实施方式均是表示本公开的一具体例。以下的实施方式所示的数值、形状、构成要素、步骤、步骤的顺序等是一个例子,并不是意在限定本公开。另外,以下的实施方式的构成要素中,对于为记载在表示最上位概念的独立权利要求中的构成要素,作为任意的构成要素来说明。
(实施方式)
以下使用对图1~图7对实施方式进行说明。
[1-1.构成]
图1是用于说明实施方式涉及的信息处理系统的概略的图。
信息处理系统1具备信息处理装置100、输入输出装置200以及处理器300。信息处理系统1是决定适于所指定的处理器的机器学习模型的系统。
在信息处理系统1中,信息处理装置100经由通信网络与输入输出装置200之间以能够通信的方式相连接。信息处理装置100例如是服务器。输入输出装置200例如是桌面PC(Personal Computer:个人计算机)、平板型终端、膝上PC等。另外,通信网络既可以是例如互联网等通用通信网络,也可以是专用通信网络。处理器300是成为检查对象的实机的处理器,包括多种处理器。
信息处理装置100从输入输出装置200取得表示处理器的硬件性能的硬件信息、和表示该处理器以及机器学习模型的性能要件的检查要件信息。关于性能要件的详细将在后面描述。并且,信息处理装置100基于从输入输出装置200取得的硬件信息以及检查要件信息,进行后述的决定处理,由此决定机器学习模型,并将所决定的机器学习模型输出给输入输出装置200。
此外,信息处理装置100既可以是云计算系统的构成要素,也可以经由互联网等与输入输出装置200相连接。
[1-2.硬件构成]
使用图2对信息处理装置100的硬件构成进行说明。
图2是表示实施方式涉及的信息处理装置的硬件构成的一例的框图。
如图2所示,信息处理装置100中,作为硬件构成,具备CPU101(CentralProcessing Unit:中央处理单元)、主存储器102、储存器103、通信IF(Interface:接口)104、GPU(Graphics Processing Unit:图形处理单元)105。
CPU101是执行存储于储存器103等的控制程序的处理器。
主存储器102是被用作CPU101执行控制程序时使用的工作区的易失性的存储区域。
储存器103是保持控制程序、内容等的非易失性的存储区域。
通信IF104是经由通信网络与输入输出装置200之间进行通信的通信接口。通信IF104例如是有线LAN接口。此外,通信IF104也可以是无线LAN接口。另外,通信IF104不限于LAN接口,只要是能够建立与通信网络的通信连接的通信接口,可以是任何通信接口。
GPU105是执行机器学习的处理的处理器。
使用图3对输入输出装置200的硬件构成进行说明。
图3是表示输入输出装置的硬件构成的一例的框图。
如图3所示,作为硬件构成,输入输出装置200具备CPU201(Central ProcessingUnit)、主存储器202、储存器203、显示器204、输入IF(Interface)205、通信IF206。也即是,输入输出装置200可以说是与信息处理装置100不同的信息处理装置。
CPU201是执行存储于储存器203等的控制程序的处理器。
主存储器202是被用作CPU201执行控制程序时使用的工作区的易失性的存储区域。
储存器203是保持控制程序、内容等的非易失性的存储区域。
显示器204是显示包含图像的影像的显示装置。例如,显示器204是液晶显示器、有机EL显示器等。
输入IF205是用于受理来自用户的输入的接口。输入IF205既可以是鼠标、触控板(touch pad)、触摸面板(touch panel)、轨迹球等的指示器件,也可以是键盘。
通信IF206是经由通信网络与信息处理装置100之间进行通信的通信接口。通信IF206例如既可以是有线LAN接口,也可以是无线LAN接口。另外,通信IF206不限于LAN接口,只要是能够建立与通信网络的通信连接,则可以是任何通信接口。
[1-3.功能构成]
接着,使用图4对信息处理系统1的功能构成进行说明。
图4是表示信息处理系统的功能构成的一例的框图。
首先,对输入输出装置200的功能构成进行说明。
作为功能构成,信息处理系统1具备控制部120、决定部130、模型构成要件DB(Database:数据库)131、判定部140、检查要件DB(Database)141、学习部150、轻量化部160。信息处理系统1也可以还具备显示部111、输入受理部112、中断部151。
显示部111显示用于确定成为使用机器学习模型的对象的处理器的硬件信息、和表示各性能要件的检查要件信息的UI(User Interface:用户接口)。另外,显示部111也可以显示用于向用户通知将根据由输入受理部112受理的输入而选择的硬件信息以及检查要件信息发送给了信息处理装置100这一情况的UI。另外,显示部111也可以显示与由信息处理装置100决定的机器学习模型有关的信息。显示部111例如可由输入输出装置200的CPU201、主存储器202、储存器203以及显示器204实现。
输入受理部112受理对显示于显示部111的UI的输入。具体而言,输入受理部112受理对显示于显示部111的用于确定硬件信息以及检查要件信息的UI的、与成为使用机器学习模型的对象的处理器的硬件有关的信息、和表示性能要件的信息。输入受理部112向控制部120输出根据受理到的输入而确定的硬件信息。另外,输入受理部112向检查要件DB141输出根据受理到的输入而生成的检查要件信息,检查要件信息被保存于检查要件DB141。此外,检查要件信息也可以不根据通过输入受理部112进行的输入来生成,也可以预先保存于检查要件DB141。另外,保存于检查要件DB141的检查要件信息也可以根据从外部设备取得的信息来变更。
例如,输入受理部112也可以受理用于确定处理器的型号等识别信息的输入,根据关联了识别信息和处理器的硬件信息的关联信息,确定与受理的识别信息关联的硬件信息。此外,输入输出装置200既可以从外部的信息处理装置经由通信网络取得关联信息,也可以利用预先存储于储存器203的关联信息。另外,例如输入受理部112也可以直接受理处理器的硬件信息。此外,硬件信息是指例如表示处理器的处理速度以及功耗的信息。
另外,例如输入受理部112受理对于处理速度以及功耗的要件、也即是对于硬件性能的要件。例如,对于处理速度的要件是指预定的运算处理以及存储器传送处理的合计花费的时间比基准时间短。另外,例如对于功耗的要件是指执行预定处理所涉及的功耗比预定的基准功耗低。
另外,例如输入受理部112受理机器学习模型的输出的正解率的要件、也即是对于评价值的要件。例如,对于正解率的要件是指进行了预定测试时的正解率比基准正解率大。
检查要件信息包括成为判定部140的第1~第5判定各自的基准的第1~第5性能要件,也可以对各自的要件设定不同的值。第1性能要件、第3性能要件以及第4性能要件是对于硬件性能的要件,例如是性能比关于处理速度、功耗、存储器传送量以及每单位时间的运算量中的至少一个确定的阈值高。第2性能要件以及第5性能要件例如是对于机器学习模型的输出的评价值的要件,例如是性能比关于正解率、适合率、再现率、F值、误差以及不正解率中至少一个确定的阈值高。
输入受理部112例如由输入输出装置200的输入IF205以及通信IF206等实现。
控制部120通过控制决定部130、判定部140、学习部150以及轻量化部160,执行用于决定机器学习模型的决定处理。具体而言,控制部120对于由决定部130临时决定的机器学习模型的构成,执行后述的决定处理。控制部120使用判定部140的第1~第5判定的判定结果,决定在决定处理中接着执行的处理。控制部120进行的接着执行的处理的决定的详细将在后面描述。控制部120例如由信息处理装置100的CPU101、主存储器102、储存器103以及通信IF104等实现。
决定部130决定机器学习模型的构成。具体而言,决定部130将保存于模型构成要件DB131的、相互不同的构成的多个机器学习模型的构成中的一个决定为用于决定处理的机器学习模型的构成。决定部130所决定的机器学习模型例如是神经网络的网络构成。神经网络的构成例如根据阶层数以及各阶层中的单元数而不同。
另外,决定部130也可以根据来自控制部120的指示,将从保存于模型构成要件DB131的多个机器学习模型的构成中排除一度决定过的机器学习模型的构成的多个机器学习模型的构成中的一个机器学习模型的构成决定为用于决定处理的机器学习模型的构成。也即是,决定部130也可以根据来自控制部120的指示,将用于决定处理的机器学习模型的构成,从从已经决定过的一机器学习模型的构成改变为其他的机器学习模型的构成。决定部130例如通过改变阶层数或者单元数,改变机器学习模型的构成。决定部130例如在通过判定部140的检查而机器学习模型的存储器传送量超过了第1性能要件、第3性能要件或者第4性能要件的情况下,使阶层数或者单元数减少。在处理速度、功耗、每单位时间的运算量中的任一个超过了的情况下同样地也使阶层数或者单元数减少。
决定部130在改变机器学习模型的构成的情况下,既可以根据对保存于模型构成要件DB131的多个机器学习模型的构成预先确定的顺序,决定接着的机器学习模型的构成,也可以随机决定接着的机器学习模型的构成。另外,决定部130也可以在改变机器学习模型的构成的情况下,使用控制部120取得的判定部140的第1~第5判定的判定结果,根据预定的算法,决定接着机器学习模型的构成。
决定部130将决定为用于决定处理的机器学习模型的构成输出给控制部120。决定部130例如由信息处理装置100的CPU101、主存储器102以及储存器103等实现。另外,模型构成要件DB131例如由信息处理装置100的储存器103等实现。
判定部140根据来自控制部120的指示,执行由决定部130决定为用于决定处理的机器学习模型是否满足第1性能要件的第1判定。判定部140在执行第1判定时,从检查要件DB141取得第1性能要件。并且,判定部140使用所取得的第1性能要件执行第1判定。检查要件DB141包含第1性能要件。第1性能要件是指性能比阈值T11高。在此,第1性能要件以是对于处理速度的要件为例进行说明。
由此,判定部140在第1判定中判定从在决定部130决定的机器学习模型的构成算出的处理速度是否超过阈值T11,在超过阈值T11的情况下判定为满足第1性能要件。这样,判定部140在第1判定中,在值越大、性能越高的硬件性能的情况下,判定是否超过由第1性能要件确定的阈值,在超过阈值的情况下判定为满足第1性能要件。
此外,判定部140在对于功耗进行第1判定的情况下,关于功耗判定是否小于由第1性能要件确定的阈值。这是由于对于功耗来说,低的时候性能高。也即是,判定部140在第1判定中,在值越小、性能越高的硬件性能的情况下,判定是否小于由第1性能要件确定的阈值,在小于阈值的情况下判定为满足第1性能要件。
判定部140将第1判定中的判定结果输出给控制部120。
另外,判定部140根据来自控制部120的指示,执行由学习部150进行的学习得到的学习完成模型是否满足第2性能要件的第2判定。判定部140在执行第2判定时从检查要件DB141取得第2性能要件,使用所取得的第2性能要件执行第2判定。检查要件DB141包含第2性能要件。第2性能要件是指性能比阈值T21高。在此,第2性能要件以对于正解率的要件为例进行说明。
由此,判定部140在第2判定中,判定作为学习完成模型的输出的评价值算出的正解率是否超过阈值T21。这样,判定部140在第2判定中,在值越大、性能越高的评价值的情况下,判定是否超过由第2性能要件确定的阈值,在超过阈值的情况下判定为满足第2性能要件。此外,判定部140在第2判定中,在值越小、性能越高的评价值的情况下,判定该评价值是否小于阈值,在小于阈值的情况下,判定为满足第2性能要件。
判定部140将第2判定中的判定结果输出给控制部120。
另外,判定部140也可以根据来自控制部120的指示,执行由轻量化部160的轻量化处理得到的轻量化模型是否满足第3性能要件的第3判定。判定部140在执行第3判定时,从检查要件DB141取得第3性能要件。并且,判定部140使用所取得的第3性能要件执行第3判定。检查要件DB141包含第3性能要件。第3性能要件是指性能比阈值T31高。在此,第3性能要件以是对于处理速度的要件为例来说明。另外,由第3性能要件规定的硬件性能的条件也可以比由第1性能要件规定的硬件性能的条件严格。也即是,在值越大、性能越高的硬件性能的情况下,阈值T31大于阈值T11,在值越小、性能越高的硬件性能的情况下,阈值T31比阈值T11小。
在作为第3性能要件的一例设为处理速度的情况下,判定部140在第3判定中,判定从由轻量化处理得到的轻量化模型算出的处理速度是否超过阈值T31,在超过阈值T31的情况下,判定为满足第3性能要件。这样,判定部140在第3判定中,在值越大、性能越高的硬件性能的情况下,判定是否超过由第3性能要件确定的阈值,在超过阈值的情况下判定为满足第3性能要件。此外,与第1判定同样地,判定部140在第3判定中,在值越小、性能越高的硬件性能的情况下,判定是否小于由第3性能要件确定的阈值,在小于阈值的情况下判定为满足第3性能要件。
判定部140将第3判定中的判定结果输出给控制部120。
另外,判定部140也可以根据来自控制部120的指示,执行在第3判定中判定为满足第3性能要件的轻量化模型是否满足第4性能要件的第4判定。判定部140在执行第4判定时,从检查要件DB141取得第4性能要件。并且,判定部140使用所取得的第4性能要件执行第4判定。判定部140对于连接着的处理器300中的、与控制部120取得的硬件信息对应的处理器执行第4判定。第4性能要件是指对于实机的处理器300的硬件性能的要件,是指性能比阈值T41高。另外,由第4性能要件规定的硬件性能的条件也可以比由第3性能要件规定的硬件性能的条件严格。也即是,在值越大、性能越高的硬件性能的情况下,阈值T41比阈值T31大,在值越小、性能越高的硬件性能的情况下,阈值T41比阈值T31小。
在作为第4性能要件的一例设为处理速度的情况下,判定部140在第4判定中,对从在第3判定中判定为满足第3性能要件的轻量化模型算出的处理速度是否超过阈值T41进行判定,在超过阈值T41的情况下判定为满足第4性能要件。这样,判定部140在第4判定中,在值越大、性能越高的硬件性能的情况下,判定是否超过由第4性能要件确定的阈值,在超过阈值的情况下,判定为满足第4性能要件。此外,与第1判定以及第3判定同样地,判定部140在第4判定中,在值越小、性能越高的硬件性能的情况下,判定是否小于由第4性能要件确定的阈值,在小于阈值的情况下判定为满足第4性能要件。
判定部140将第4判定中的判定结果输出给控制部120。
另外,判定部140也可以根据来自控制部120的指示,执行在第4判定中判定为满足第4性能要件的轻量化模型是否满足第5性能要件的第5判定。也即是,判定部140在使用在第4判定中判定为满足第4性能要件的轻量化模型来在实机的处理器300中进行了预定的检查的情况下,执行是否满足第5性能要件的第5判定。判定部140在执行第5判定时,从检查要件DB141取得第5性能要件,使用所取得的第5性能要件执行第5判定。检查要件DB141包含第5性能要件。第5性能要件是指性能比阈值T51高。在此,第5性能要件以是对于正解率的要件为例来说明。
由此,判定部140在第5判定中,判定作为学习完成模型的输出的评价值算出的正解率是否超过阈值T51。这样,判定部140在第5判定中,在值越大、性能越高的评价值的情况下,判定是否超过由第5性能要件确定的阈值,在超过阈值的情况下,判定为满足第5性能要件。此外,判定部140在第5判定中,在值越小、性能越高的评价值的情况下,判定该评价值是否小于阈值,在小于阈值的情况下,判定为满足第5性能要件。
判定部140将第5判定中的判定结果输出给控制部120。
判定部140例如由信息处理装置100的CPU101、主存储器102以及储存器103等实现。另外,检查要件DB141由信息处理装置100的储存器103等实现。
学习部150根据来自控制部120的指示,使用判定为满足第1性能要件的构成的机器学习模型执行学习。学习部150例如执行用于在ADAS、自动驾驶系统等中使用的识别处理的学习。学习部150例如由信息处理装置100的CPU101、主存储器102以及储存器103等实现。
中断部151取得学习部150的学习状况,在学习的早期阶段的精度(误差)不收敛的情况下,使学习部150的学习中断。中断部151例如由信息处理装置100的CPU101、主存储器102以及储存器103等实现。
轻量化部160对在第2判定判定为满足第2性能要件的学习完成模型执行轻量化处理。轻量化部160例如作为轻量化处理,执行权重的量子化处理、权重的剪枝处理等。权重量子化处理是指例如从单精度浮点数(32bit)或者双精度浮点数(64bit)向半精度浮点数(16bit)或者定点数(从16bit、8bit以及64bit到1bit的任意的位数)的量子化处理。剪枝处理是指删除对输出的贡献度低的神经网络的权重系数的处理。轻量化部160例如由信息处理装置100的CPU101、主存储器102以及储存器103等实现。
[1-4.工作]
接着,对实施方式涉及的信息处理系统1的工作进行说明。
图5是表示信息处理系统中的信息处理方法的一例的流程图。
首先,通过用户操作输入输出装置200,在输入输出装置200中执行用于对预定的处理器决定最佳的机器学习模型的应用程序。由此,在输入输出装置200中,用于确定成为处理对象的处理器的硬件信息以及检查要件信息的UI显示于显示器204。也即是,在信息处理系统1中,在显示部111显示用于确定硬件信息的UI。
信息处理系统1的输入受理部112受理对显示于显示部111的UI的输入(S11)。
接着,信息处理系统1根据由对UI的输入确定的硬件信息以及检查要件信息,执行机器学习模型的决定处理(S12)。机器学习模型的决定处理的详细将在后面描述。
并且,信息处理系统1存储在决定处理中决定的机器学习模型(S13)。在决定处理中决定的机器学习模型例如被存储于信息处理系统1的输入输出装置200的储存器103。
使用图6以及图7对实施方式涉及的决定处理的详细进行说明。
图6以及图7是表示实施方式涉及的决定处理的详细的一例的流程图。
当开始决定处理时,控制部120使决定部130如上述那样决定机器学习模型的构成(S101)。决定部130将所决定的机器学习模型的构成输出给控制部120。
控制部120使判定部140执行从决定部130取得的机器学习模型是否满足作为对于硬件性能的要件的第1性能要件的第1判定(S102)。判定部140例如判定从在决定部130决定的机器学习模型的构成算出的处理速度是否超过阈值T11。判定部140将第1判定的判定结果输出给控制部120。
控制部120在判定部140在第1判定中判定为满足第1性能要件的情况下(S102:是),使学习部150执行使用了判定为满足第1性能要件的构成的机器学习模型的学习(S103)。也即是,在判定部140判定为从所决定的机器学习模型的构成算出的处理速度超过阈值T11的情况下,控制部120使学习部150执行上述学习。此外,也可以是,在学习部150进行学习的期间,中断部151取得学习部150的学习状况,在学习的早期阶段的精度(误差)不收敛的情况下,使学习部150的学习中断。学习部150将通过学习得到的学习完成模型输出给控制部120。
另一方面,控制部120在判定部140在第1判定中判定为不满足第1性能要件的情况下(S102:否),使决定部130改变机器学习模型的构成来决定为其他的机器学习模型的构成。也即是,在判定部140判定为从所决定的机器学习模型的构成算出的处理速度为阈值T11以下的情况下,控制部120使决定部130进行步骤S101的处理。
当步骤S103结束时,控制部120使判定部140执行从学习部150取得的学习完成模型是否满足作为对于机器学习模型的输出的评价值的要件的第2性能要件的第2判定(S104)。判定部140例如判定作为学习完成模型的输出的评价值而算出的正解率是否超过阈值T21。判定部140将第2判定的判定结果输出给控制部120。也即是,判定部140在第2判定中判定为学习完成模型满足第2性能要件的情况下,向控制部120输出表示满足第1性能要件以及第2性能要件的信息。此外,控制部120也可以使显示部111显示该信息。
控制部120在判定部140在第2判定中判定为满足第2性能要件的情况下(S104:是),使轻量化部160对于判定为满足第2性能要件的学习完成模型执行轻量化处理(S106)。轻量化部160将通过轻量化处理得到的轻量化模型输出给控制部120。
另一方面,控制部120在判定部140在第2判定中判定为不满足第2性能要件的情况下(S104:否),使判定部140判定是否为学习完成模型的输出的评价值满足条件C2、且判定为不满足第2性能要件的次数小于N2次(S105)。此外,第2性能要件是对于正解率的要件,正解率是值越大、性能越高的评价值。阈值T22是比阈值T21小的值。根据这些,“学习完成模型的输出的评价值满足条件C2”是指例如作为评价值的正解率为阈值T22以上。
另一方面,在第2性能要件是如误差或者不正解率那样的值越小、性能越高的评价值的情况下,阈值T22是比阈值T21大的值。由此,“学习完成模型的输出的评价值满足条件C2”例如是指作为评价值的误差或者不正解率为阈值T22以下。由此,该情况下的判定部140在步骤S105中判定是否为评价值为阈值T22以下、且判定为不满足第2性能要件的次数小于N2次。
控制部120在判定为正解率为阈值T22以上、且不满足第2性能要件的次数小于N2次的情况下(S105:是),使学习部150以与前次执行的学习不同的参数再次执行步骤S103的学习。在该情况下,控制部120例如使学习部150将作为参数的神经网络的学习率改变为不同的值而执行学习。然后,控制部120使判定部140在步骤S104中执行通过以不同的参数的学习得到的学习完成模型是否满足第2性能要件的第2判定。
控制部120在判定为正解率小于阈值T22、或者不满足第2性能要件的次数为N2次以上的情况下(S105:否),使决定部130改变机器学习模型的构成而决定为其他的机器学习模型的构成。也即是,在该情况下,控制部120使决定部130进行步骤S101的处理。然后,控制部120使判定部140在步骤S102中执行改变后的构成的机器学习模型是否满足第1性能要件的第1判定。
当步骤S106结束时,控制部120使判定部140执行从轻量化部160取得的轻量化模型是否满足作为对于硬件性能的要件的第3性能要件的第3判定(S107)。判定部140例如判定从通过轻量化处理得到的轻量化模型算出的处理速度是否超过阈值T31。判定部140将第3判定的判定结果输出给控制部120。也即是,判定部140在第3判定中判定为轻量化模型满足第3性能要件的情况下,将表示满足第3性能要件的信息输出给控制部120。此外,控制部120也可以使显示部111显示该信息。
控制部120在判定部140在第3判定中判定为满足第3性能要件的情况下(S107:是),使判定部140执行在第3判定判定为满足第3性能要件的轻量化模型是否满足作为对于实机的硬件性能的要件的第4性能要件的第4判定(S109)。具体而言,控制部120使判定部140实测使实机的处理器执行了实际使用了轻量化模型的处理时的硬件性能,判定实测到的硬件性能是否满足第4性能要件。判定部140例如测定使实机的处理器执行了实际使用了轻量化模型的处理时的处理速度,判定测定的处理速度是否超过阈值T41。判定部140将第4判定的判定结果输出至控制部120。也即是,判定部140在第4判定中判定为满足第4性能要件的情况下,将表示满足第4性能要件的信息输出至控制部120。
控制部120在判定部140在第3判定中判定为不满足第3性能要件的情况下(S107:否),使判定部140判定是否为轻量化模型的硬件性能满足条件C3、且判定为不满足第3性能要件的次数小于N3次(S108)。此外,第3性能要件是对于处理速度的要件,处理速度是值越大、性能越高的硬件性能。阈值T32是比阈值T31小的值。根据这些,“轻量化模型的硬件性能满足条件C3”例如是指作为硬件性能的处理速度为阈值T32以上。
另一方面,在第3性能要件是如功耗那样的值越小、性能越高的硬件性能的情况下,阈值T32是比阈值T31大的值。由此,“轻量化模型的硬件性能满足条件C3”例如是指作为硬件性能的功耗为阈值T32以下。由此,该情况下的判定部140在步骤S108判定是否为硬件性能为阈值T32以下、且判定为不满足第3性能要件的次数小于N3次。
控制部120在处理速度为阈值T32以上、且判定为不满足第3性能要件的次数小于N3次的情况下(S108:是),使轻量化部160再次以与前次执行的轻量化处理不同的参数执行轻量化处理。在该情况下,控制部120例如使轻量化部160将作为参数的轻量化处理的轻量化的程度改变为不同的程度来执行轻量化处理。然后,控制部120使判定部140在步骤S107中执行通过以不同的参数的轻量化处理得到的轻量化模型是否满足第3性能要件的第3判定。
控制部120在处理速度小于阈值T32、或者判定为不满足第3性能要件的次数为N3次以上的情况下(S108:否),使决定部130改变机器学习模型的构成而决定为其他的机器学习模型的构成。也即是,在该情况下,控制部120使决定部130进行步骤S101的处理。然后,控制部120使判定部140在步骤S102中执行改变后的构成的机器学习模型是否满足第1性能要件的第1判定。
控制部120在判定部140在第4判定中判定为满足第4性能要件的情况下(S109:是),使判定部140执行在第4判定中判定为满足第4性能要件的轻量化模型是否满足作为对于机器学习模型的输出的评价值的要件的第5性能要件的第5判定(S111)。判定部140例如判定作为轻量化模型的输出的评价值算出的正解率是否超过阈值T51。判定部140将第5判定的判定结果输出给控制部120。也即是,判定部140在第5判定中判定为轻量化模型满足第5性能要件的情况下,将表示满足第5性能要件的信息输出给控制部120。此外,控制部120也可以使显示部111显示该信息。
控制部120在判定部140在第4判定中判定为不满足第4性能要件的情况下(S109:否),使判定部140判定是否为满足轻量化模型的硬件性能满足条件C4、且判定为不满足第4性能要件的次数小于N4次(S110)。此外,第4性能要件是对于处理速度的要件,处理速度是值越大、性能越高的硬件性能。阈值T42是比阈值T41小的值。根据这些,“轻量化模型的硬件性能满足条件C4”例如是指作为硬件性能的处理速度为阈值T42以上。
另一方面,在第4性能要件是如功耗那样的值越小、性能越高的硬件性能的情况下,阈值T42是比阈值T41大的值。由此,“轻量化模型的硬件性能满足条件C4”例如是指作为硬件性能的功耗比阈值T42以下。由此,该情况下的判定部140在步骤S110中判定是否为硬件性能为阈值T42以下、且判定为不满足第4性能要件的次数小于N4次。
控制部120在判定为处理速度为阈值T42以上、且不满足第4性能要件的次数小于N4次的情况下(S110:是),使轻量化部160再次以与前次执行的轻量化处理不同的参数执行轻量化处理。在该情况下,控制部120例如使轻量化部160将作为参数的轻量化处理的轻量化的程度改变为不同的程度来执行轻量化处理。然后,控制部120使判定部140在步骤S107中执行通过以不同的参数的轻量化处理得到的轻量化模型是否满足第3性能要件的第3判定。
控制部120在判定为处理速度小于阈值T42、或者不满足第4性能要件的次数为N4次以上的情况下(S110:否),使决定部130改变机器学习模型的构成来决定为其他的机器学习模型的构成。也即是,在该情况下,控制部120使决定部130进行步骤S101的处理。然后,控制部120使判定部140在步骤S102中执行改变后的构成的机器学习模型是否满足第1性能要件的第1判定。
控制部120在判定部140在第5判定中判定为满足第5性能要件的情况下(S111:是),将在第5判定中判定为满足第5性能要件的轻量化模型决定为机器学习模型,结束决定处理。
控制部120在判定部140在第5判定中判定为不满足第5性能要件的情况下(S111:否),使判定部140判定是否为轻量化模型的输出的评价值满足条件C5、且判定为不满足第5性能要件的次数小于N5次(S112)。此外,第5性能要件是值越大、性能越高的评价值,因此,阈值T52是比阈值T51小的值。根据这些,“轻量化模型的输出的评价值满足条件C5”例如是指作为评价值的正解率为阈值T52以上。
另一方面,在第5性能要件的如误差或者不正解率那样的值越小、性能越高的评价值的情况下,阈值T52是比阈值T51大的值。由此,“轻量化模型的输出的评价值满足条件C5”例如是指作为评价值的误差或者不正解率为阈值T52以下。由此,该情况下的判定部140在步骤S112中判定是否为评价值为阈值T52以下、且判定为不满足第5性能要件的次数小于N5次。
控制部120在判定为正解率为阈值T52以上、且不满足第5性能要件的次数小于N5次的情况下(S112:是),使轻量化部160再次以与前次执行的轻量化处理不同的参数执行轻量化处理。在该情况下,控制部120例如使轻量化部160将作为参数的轻量化处理的轻量化的程度改变为不同的程度来执行轻量化处理。然后,控制部120使判定部140在步骤S107中执行通过以不同的参数的轻量化处理得到的轻量化模型是否满足第3性能要件的第3判定。
控制部120在判定为正解率小于阈值T52、或者不满足第5性能要件的次数为N5次以上的情况下(S112:否),使判定部140对判定为不满足第5性能要件的次数是否为N6次以上进行判定(S113)。此外,N6是比N5大的值。
控制部120在判定部140判定为不满足第5性能要件的次数为N6次以上的情况下(S113:否),改变硬件构成(S114)。例如,控制部120也可以使显示部111显示如下指示:由于无法找到对所指定的处理器的构成最佳的机器学习模型,因此,催促用户改变对象的处理器的构成。另外,控制部120也可以进行以预定算法自动地改变对象的处理器的构成处理。另外,控制部120也可以将对于硬件性能的第1性能要件、第3性能要件以及第4性能要件改变为更低的性能要件。
控制部120在判定部140判定为不满足第5性能要件的次数小于N6次的情况下(S113:是),使决定部130改变机器学习模型的构成而决定为其他的机器学习模型的构成。也即是,在该情况下,控制部120使决定部130进行步骤S101的处理。然后,控制部120使判定部140在步骤S102中执行改变后的构成的机器学习模型是否满足第1性能要件的第1判定。
[1-5.效果]
根据本实施方式涉及的信息处理系统1,不执行第2判定而改变机器学习模型的构成,直到在第1判定中满足第1性能要件,因此,能够减小执行第2判定的次数。因此,能够高效地决定机器学习模型。另外,能够减少处理器涉及的处理量以及能耗。
另外,根据本实施方式涉及的信息处理系统1,当N2次以上判定为不满足第2性能要件时,改变机器学习模型的构成,因此,能够减少使之学习的次数。因此,能够高效地决定机器学习模型。
另外,根据本实施方式涉及的信息处理系统1,不执行第2判定、轻量化处理以及第3判定而改变机器学习模型的构成,直到在第1判定中满足第1性能要件。因此,能够减少执行第2判定、轻量化处理以及第3判定的次数。
另外,根据本实施方式涉及的信息处理系统1,以第3性能要件规定的硬件性能的条件比由第1性能要件规定的硬件性能的条件严格。因此,能够减少判定为不满足第1性能要件、执行机器学习模型的构成的决定和第1判定的次数。另外,通过在第3判定中进行更严格的判定,能够使执行第3判定接下来进行的处理的次数减少。
另外,根据本实施方式涉及的信息处理系统1,进行步骤S108的判定,因此,在尽管不满足第3性能要件、但接近第3性能要件的情况下,改变参数来执行轻量化处理。因此,能够高效地找到满足第3性能要件的轻量化模型。
另外,根据本实施方式涉及的信息处理系统1,在不满足第3性能要件的情况下,当N3次以上判定为不满足第3性能要件时,改变机器学习模型的构成。因此,能够减小执行轻量化处理的次数。由此,能够高效地决定机器学习模型。
另外,根据本实施方式涉及的信息处理系统1,对于在第3判定判定为满足第3判定要件的轻量化模型执行第4判定,因此,能够减小执行第4判定的次数。
另外,根据本实施方式涉及的信息处理系统1,进行步骤S110的判定,因此,在尽管不满足第4性能要件、但接近第4性能要件的情况下,改变参数来执行轻量化处理,因此,能够高效地找到满足第4性能要件的轻量化模型。
另外,根据本实施方式涉及的信息处理系统1,在不满足第4性能要件的情况下,当N4次以上判定为不满足第4性能要件时,改变机器学习模型的构成。因此,能够减少执行轻量化处理的次数。由此,能够高效地决定机器学习模型。
另外,根据本实施方式涉及的信息处理系统1,对于在第4判定中判定为满足第4判定要件的轻量化模型执行第5判定,因此,能够减小执行第5判定的次数。
另外,根据本实施方式涉及的信息处理系统1,进行步骤S112的判定,在尽管不满足第5性能要件、但接近第5性能要件的情况下,改变参数来执行轻量化处理,因此,能够高效地找到满足第5性能要件的轻量化模型。
另外,根据本实施方式涉及的信息处理系统1,在不满足第5性能要件的情况下,当N5次以上判定为不满足第5性能要件时,改变机器学习模型的构成。因此,能够减少执行轻量化处理的次数。由此,能够高效地决定机器学习模型。
[1-6.变形例]
上述实施方式涉及的信息处理系统1设为了具备信息处理装置100以及输入输出装置200的构成,但不限于此,也可以为具备1台信息处理装置的构成。该该情况下,1台信息处理装置的硬件构成也可以与输入输出装置200相同。
另外,上述实施方式涉及的信息处理系统1设为了决定部130在改变机器学习模型的构成情况下自动地将机器学习模型改变为其他的机器学习模型,但不限于此。例如,控制部120也可以在改变机器学习模型的构成的情况下,在显示部111进行催促改变机器学习模型的构成的显示,并且,使显示部111显示受理改变机器学习模型的构成的指示的UI。在该情况下,用户通过使用输入IF205进行向UI的输入,输入受理部112也可以受理改变后的构成的机器学习模型。输入受理部112也可以将改变后的构成的机器学习模型输出给控制部120,控制部120也可以对于所取得的机器学习模型使判定部140进行第1判定。
上述实施方式涉及的信息处理系统1设为了将神经网络用作机器学习,但不限于此,也可以使用决策树、随机森林(Random Forest)、k最邻近算法等。在采用随机森林的情况下,作为机器学习模型的构成,决定超参数(hyper-parameter)。超参数由决策树的数量、决策树的深度、叶的数量(各节点的类别数)等决定。若增大超参数的决策树的数量、决策树的深度、叶的数等的各参数,则能够使表现力提高,但运算量会变多。
作为该情况下的轻量化处理,可以应用位(bit,比特)的量子化。在随机森林(Random Forest)中,也可以进行删除贡献度低的决策树、或者删除决策树中的节点或叶的一部分的处理来作为轻量化处理。
另外,上述实施方式涉及的信息处理系统1设为在决定部130中进行决定、改变网络构成的处理,但也可以不进行该处理。例如也可以进行如下那样的信息处理方法。
使用处理器执行以下的处理。使用机器学习模型执行学习。执行通过学习得到的学习完成模型是否满足作为对于机器学习模型的输出的评价值的要件的第2性能要件的第2判定。并且,在所述第2判定中判定为所述学习完成模型满足所述第2性能要件的情况下,对于在所述第2判定中判定为满足所述第2性能要件的所述学习完成模型执行轻量化处理。接着,执行通过轻量化处理得到的轻量化模型是否满足作为对于硬件性能的要件的第3性能要件的第3判定。并且,进行在所述第3判定中判定为满足所述第3性能要件的所述轻量化模型是否满足作为对于实机的硬件性能的要件的第4性能要件的第4判定。在所述第4判定中判定为满足所述第4性能要件的情况下,输出表示满足所述第4性能要件的信息,在所述第3判定中判定为不满足所述第3性能要件的所述轻量化模型的硬件性能满足第1条件、也即是条件C3的情况下,以与前次执行的轻量化处理不同的参数执行所述轻量化处理。
有时在即使是在该情况下在第3判定也判定为不满足第3性能要件时会再次执行轻量化处理,因此,能够减少执行是否满足作为对于实机的硬件性能的要件的第4性能要件的第4判定的次数。
此外,在上述各实施方式中,各构成要素也可以由专用的硬件构成,或者通过执行适于各构成要素的软件程序来实现。各构成要素也可以通过CPU或者处理器等的程序执行部读出并执行记录于硬盘或者半导体存储器等记录介质的软件程序来实现。在此,用于实现上述各实施方式的信息处理方法、信息处理系统等的软件是如下那样的程序。
即,该程序使得使用计算机的处理器执行如下信息处理方法:决定机器学习模型的构成,执行所决定的所述构成的所述机器学习模型是否满足作为对硬件性能的要件的第1性能要件的第1判定,在所述第1判定中判定为满足所述第1性能要件的情况下,使用判定为满足所述第1性能要件的构成的机器学习模型执行学习,执行通过学习得到的学习完成模型是否满足作为对机器学习模型的输出的评价值的要件的第2性能要件的第2判定,在所述第2判定中判定为所述学习完成模型满足所述第2性能要件的情况下,输出表示满足所述第1性能要件及所述第2性能要件的信息,在所述第1判定中判定为不满足所述第1性能要件的情况下,改变所述机器学习模型的构成,执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
以上,关于本公开的一个或者多个技术方案涉及的信息处理方法以及信息处理系统,基于实施方式进行了说明,但本公开并不是限定于该实施方式。只要不脱离本公开的宗旨,对本实施方式实施本领域技术人员能够想到的各种变形而得到的方式、组合不同的实施方式中的构成要素而构建的方式也可以包含在本公开的一个或多个技术方案的范围内。
产业上的可利用性
本公开作为能够高效地决定满足所要求的硬件的性能要件的机器学习模型的信息处理方法等是有用的。
Claims (12)
1.一种信息处理方法,包括:
使用处理器,
决定机器学习模型的构成,
执行所决定的所述构成的所述机器学习模型是否满足第1性能要件的第1判定,所述第1性能要件是对硬件性能的要件,
在所述第1判定中判定为满足所述第1性能要件的情况下,使用判定为满足所述第1性能要件的构成的机器学习模型来执行学习,执行由学习得到的学习完成模型是否满足第2性能要件的第2判定,所述第2性能要件是对机器学习模型的输出的评价值的要件,
在所述第2判定中判定为所述学习完成模型满足所述第2性能要件的情况下,输出表示满足所述第1性能要件及所述第2性能要件的信息,
在所述第1判定中判定为不满足所述第1性能要件的情况下,改变所述机器学习模型的构成,执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定,
在所述第2判定中判定为不满足所述第2性能要件的情况下,以与前次执行的学习不同的参数执行所述学习,
执行通过以所述不同的参数的所述学习得到的学习完成模型是否满足所述第2性能要件的所述第2判定,
在判定为不满足所述第2性能要件的次数为第1次数以上的情况下,改变所述机器学习模型的构成,
执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
2.根据权利要求1所述的信息处理方法,还包括:
对在所述第2判定中判定为满足所述第2性能要件的所述学习完成模型执行轻量化处理,
执行通过轻量化处理得到的轻量化模型是否满足第3性能要件的第3判定,所述第3性能要件是对硬件性能的要件,
在所述第3判定中判定为满足所述第3性能要件的情况下,输出表示满足所述第3性能要件的信息。
3.根据权利要求2所述的信息处理方法,
由所述第3性能要件规定的硬件性能的条件比由所述第1性能要件规定的硬件性能的条件严格。
4.根据权利要求2或者3所述的信息处理方法,
在所述第3判定中判定为不满足所述第3性能要件的所述轻量化模型的硬件性能满足第1条件的情况下,以与前次执行的轻量化处理不同的参数执行所述轻量化处理,
执行通过以所述不同的参数的所述轻量化处理得到的轻量化模型是否满足所述第3性能要件的所述第3判定。
5.根据权利要求2所述的信息处理方法,
(i)在所述第3判定中判定为不满足所述第3性能要件的所述轻量化模型的硬件性能不满足第1条件的情况下、或者(ii)在判定为不满足所述第3性能要件的次数为第2次数以上的情况下,改变所述机器学习模型的构成,
执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
6.根据权利要求2所述的信息处理方法,
执行在所述第3判定中判定为满足所述第3性能要件的所述轻量化模型是否满足第4性能要件的第4判定,所述第4性能要件是对实机的硬件性能的要件,
在所述第4判定中判定为满足所述第4性能要件的情况下,输出表示满足所述第4性能要件的信息。
7.根据权利要求6所述的信息处理方法,
在所述第4判定中判定为不满足所述第4性能要件的所述轻量化模型的硬件性能满足第2条件的情况下,以与前次执行的轻量化不同的参数执行所述轻量化处理。
8.根据权利要求6所述的信息处理方法,
(i)在所述第4判定中判定为不满足所述第4性能要件的所述轻量化模型的硬件性能不满足第2条件的情况下、或者(ii)在判定为不满足所述第4性能要件的次数为第3次数以上的情况下,
改变所述机器学习模型的构成,
执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
9.根据权利要求6所述的信息处理方法,
执行在所述第4判定中判定为满足所述第4性能要件的所述轻量化模型是否满足第5性能要件的第5判定,所述第5性能要件是对机器学习模型的输出的评价值的要件,
在判定为满足所述第5性能要件的情况下,输出表示满足所述第5性能要件的信息。
10.根据权利要求9所述的信息处理方法,
在所述第5判定中判定为不满足所述第5性能要件的所述轻量化模型的评价值满足第3条件的情况下,执行与前次执行的轻量化不同的参数的所述轻量化处理。
11.根据权利要求9所述的信息处理方法,
(i)在所述第5判定中判定为不满足所述第5性能要件的所述轻量化模型的评价值不满足第3条件的情况下、或者(ii)在判定为不满足所述第5性能要件的次数为第4次数以上的情况下,
改变所述机器学习模型的构成,
执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
12.一种信息处理系统,具备处理器,
所述处理器,
决定机器学习模型的构成,
执行所决定的所述构成的所述机器学习模型是否满足第1性能要件的第1判定,所述第1性能要件是对硬件性能的要件,
在所述第1判定中判定为满足所述第1性能要件的情况下,使用判定为满足所述第1性能要件的构成的机器学习模型来执行学习,执行由学习得到的学习完成模型是否满足第2性能要件的第2判定,所述第2性能要件是对机器学习模型的输出的评价值的要件,
在所述第2判定中判定为所述学习完成模型满足所述第2性能要件的情况下,输出表示满足所述第1性能要件及所述第2性能要件的信息,
在所述第1判定中判定为不满足所述第1性能要件的情况下,改变所述机器学习模型的构成,执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定,
在所述第2判定中判定为不满足所述第2性能要件的情况下,以与前次执行的学习不同的参数执行所述学习,
执行通过以所述不同的参数的所述学习得到的学习完成模型是否满足所述第2性能要件的所述第2判定,
在判定为不满足所述第2性能要件的次数为第1次数以上的情况下,改变所述机器学习模型的构成,
执行改变后的所述构成的所述机器学习模型是否满足所述第1性能要件的所述第1判定。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017221690 | 2017-11-17 | ||
JP2017-221690 | 2017-11-17 | ||
JP2018-111074 | 2018-06-11 | ||
JP2018111074A JP7065368B2 (ja) | 2017-11-17 | 2018-06-11 | 情報処理方法および情報処理システム |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109800886A CN109800886A (zh) | 2019-05-24 |
CN109800886B true CN109800886B (zh) | 2024-04-26 |
Family
ID=63965494
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811330756.7A Active CN109800886B (zh) | 2017-11-17 | 2018-11-09 | 信息处理方法以及信息处理系统 |
Country Status (3)
Country | Link |
---|---|
US (1) | US11270228B2 (zh) |
EP (1) | EP3486843A1 (zh) |
CN (1) | CN109800886B (zh) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6866762B2 (ja) * | 2017-05-18 | 2021-04-28 | いすゞ自動車株式会社 | 車両用情報処理システム |
JP6891780B2 (ja) * | 2017-11-29 | 2021-06-18 | トヨタ自動車株式会社 | ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム |
JP6897524B2 (ja) | 2017-11-29 | 2021-06-30 | トヨタ自動車株式会社 | ソフトウェア品質判定装置、ソフトウェア品質判定方法、及びソフトウェア品質判定プログラム |
US10795347B2 (en) * | 2018-09-28 | 2020-10-06 | Rockwell Automation Technologies, Inc. | Systems and methods for controlling industrial devices based on modeled target variables |
GB2596510A (en) * | 2020-05-07 | 2022-01-05 | Nokia Technologies Oy | Model modification and deployment |
US11354228B1 (en) * | 2021-03-09 | 2022-06-07 | Sap Se | Automated exploratory testing using machine learning |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1627251A (zh) * | 2003-12-09 | 2005-06-15 | 微软公司 | 使用图形处理单元加速并优化机器学习技术的处理 |
JP2011223287A (ja) * | 2010-04-09 | 2011-11-04 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
CN105955709A (zh) * | 2016-04-16 | 2016-09-21 | 浙江大学 | 基于机器学习的预取能效优化自适应装置及方法 |
CN106339628A (zh) * | 2016-08-16 | 2017-01-18 | 天津大学 | 基于微体系结构级别的硬件反病毒装置 |
WO2017187798A1 (ja) * | 2016-04-28 | 2017-11-02 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005107743A (ja) * | 2003-09-29 | 2005-04-21 | Nec Corp | 学習システム |
US11004118B1 (en) * | 2013-03-15 | 2021-05-11 | Google Llc | Identifying creative offers within online content |
US9715663B2 (en) * | 2014-05-01 | 2017-07-25 | International Business Machines Corporation | Predicting application performance on hardware accelerators |
US10262259B2 (en) | 2015-05-08 | 2019-04-16 | Qualcomm Incorporated | Bit width selection for fixed point neural networks |
US20160328644A1 (en) * | 2015-05-08 | 2016-11-10 | Qualcomm Incorporated | Adaptive selection of artificial neural networks |
JP6740597B2 (ja) | 2015-11-27 | 2020-08-19 | 富士通株式会社 | 学習方法、学習プログラムおよび情報処理装置 |
-
2018
- 2018-10-23 US US16/168,664 patent/US11270228B2/en active Active
- 2018-10-24 EP EP18202280.6A patent/EP3486843A1/en not_active Ceased
- 2018-11-09 CN CN201811330756.7A patent/CN109800886B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN1627251A (zh) * | 2003-12-09 | 2005-06-15 | 微软公司 | 使用图形处理单元加速并优化机器学习技术的处理 |
JP2011223287A (ja) * | 2010-04-09 | 2011-11-04 | Sony Corp | 情報処理装置、情報処理方法、及び、プログラム |
CN105955709A (zh) * | 2016-04-16 | 2016-09-21 | 浙江大学 | 基于机器学习的预取能效优化自适应装置及方法 |
WO2017187798A1 (ja) * | 2016-04-28 | 2017-11-02 | ソニー株式会社 | 情報処理装置、及び情報処理方法 |
CN106339628A (zh) * | 2016-08-16 | 2017-01-18 | 天津大学 | 基于微体系结构级别的硬件反病毒装置 |
Non-Patent Citations (2)
Title |
---|
Dynamic Network Surgery for Efficient DNNs;Yiwen Guo等;《Advances in Neural Information Processing Systems 29 (NIPS 2016)》;1-9 * |
通用图形处理器功耗估算模型;王吉军等;《计算机工程》;第43卷(第02期);92-97+104 * |
Also Published As
Publication number | Publication date |
---|---|
US11270228B2 (en) | 2022-03-08 |
US20190156249A1 (en) | 2019-05-23 |
EP3486843A1 (en) | 2019-05-22 |
CN109800886A (zh) | 2019-05-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109800886B (zh) | 信息处理方法以及信息处理系统 | |
US11568250B2 (en) | Training neural networks using a prioritized experience memory | |
JP7331303B2 (ja) | フレキシブルな浮動小数点テンソルを用いた人工ニューラルネットワーク訓練 | |
US10789544B2 (en) | Batching inputs to a machine learning model | |
US20170364825A1 (en) | Adaptive augmented decision engine | |
KR20180057300A (ko) | 딥 러닝을 이용하여 환자의 진단 이력으로부터 질병 예후를 예측하는 방법 및 시스템 | |
US20120331474A1 (en) | Real time system task configuration optimization system for multi-core processors, and method and program | |
JP2015087973A (ja) | 生成装置、生成方法、およびプログラム | |
US20120197674A1 (en) | Estimating a future project characteristic based on the similarity of past projects | |
JP7065368B2 (ja) | 情報処理方法および情報処理システム | |
CN114026572A (zh) | 模拟神经网络中的误差补偿 | |
JP2016057969A (ja) | プログラム検査装置、ソフトウェア検査装置、sat制約条件データ、記憶媒体 | |
CN114312843B (zh) | 用于确定信息的方法和装置 | |
WO2022141840A1 (zh) | 网络架构搜索方法、装置、电子设备及介质 | |
CN108376146A (zh) | 基于域的影响评分 | |
JP2020205073A (ja) | データセットの属性を予測するためのデータセットの正規化 | |
JP2008532150A (ja) | システムのリアルタイム分析のための方法 | |
JP2008090699A (ja) | トレースロギング方法、装置及びプログラム | |
US8942962B2 (en) | Method and system for measured value simulation | |
CN115470922B (zh) | 量子比特校准方法及装置、量子控制系统、量子计算机 | |
US11829778B2 (en) | Method for enhancing performance of electronic device | |
EP4184328A1 (en) | Medical imaging device fault handling | |
US8150789B2 (en) | Transparent parallelism among linear solvers | |
CN110716830B (zh) | 一种压测机选择方法、装置、电子设备及存储介质 | |
Wozniak et al. | Integrated Management Asset Approach to Human–Device Set |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |