CN113805480A - 机器学习装置、机器学习系统、机器学习方法及存储介质 - Google Patents

机器学习装置、机器学习系统、机器学习方法及存储介质 Download PDF

Info

Publication number
CN113805480A
CN113805480A CN202110625161.XA CN202110625161A CN113805480A CN 113805480 A CN113805480 A CN 113805480A CN 202110625161 A CN202110625161 A CN 202110625161A CN 113805480 A CN113805480 A CN 113805480A
Authority
CN
China
Prior art keywords
data
collection
machine learning
condition
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202110625161.XA
Other languages
English (en)
Inventor
佐藤古都瑠
横山大树
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN113805480A publication Critical patent/CN113805480A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/04Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators
    • G05B13/042Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric involving the use of models or simulators in which a parameter or coefficient is automatically adjusted to optimise the performance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Automation & Control Theory (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Testing And Monitoring For Control Systems (AREA)

Abstract

提供从多个设备取得参数数据而增加训练数据的数量且学习精度高的机器学习装置、机器学习系统、机器学习方法及存储介质。机器学习装置具备:取得部,取得包含第一数据和与所述第一数据建立了关联的第二数据的第三数据,所述第一数据包含关于多个收集设备收集到的参数数据及根据所述参数数据而制作出的训练数据中的至少一方,所述第二数据表示所述参数数据的收集条件;选定部,从所述第三数据选定特定的数据;及学习部,使用所述特定的数据来进行机器学习,生成对对象设备使用的已学习模型,所述选定部选定与相对于所述对象设备的所述已学习模型的使用条件和所述收集设备中的所述收集条件比规定基准接近的所述收集条件建立了关联的所述特定的数据。

Description

机器学习装置、机器学习系统、机器学习方法及存储介质
技术领域
本发明涉及机器学习装置、机器学习系统、机器学习方法及程序。
背景技术
在预测设备的特性时,存在使用已学习模型的情况。在专利文献1所记载的技术中,设备将收集到的各种各样的参数的数据向服务器发送。服务器使用根据接收到的数据而制作出训练数据来进行机器学习,将由此生成的已学习模型向设备发送。设备使用接收到的已学习模型来进行特性的预测。作为搭载有这样的已学习模型的设备,存在车辆等运输设备、机器人设备等。
现有技术文献
专利文献
专利文献1:日本特开2019-183698号公报
发明内容
发明所要解决的课题
一般来说,在机器学习中,在训练数据的数量多时,学习精度变高。作为增加训练数据的方法,可考虑从多个设备收集训练数据或用于制作训练数据的数据的方法。然而,若将从各种各样的设备收集到的数据的全部使用于机器学习,则反而可能会招致学习精度的下降。学习精度的下降例如可能因“在收集了数据的设备和使用已学习模型的设备间种类不同的情况下,在训练数据中产生不显著的偏差”而发生。另外,即使是相同种类的设备,在收集了数据的条件和使用已学习模型的条件不同的情况等下,也可能会招致学习精度的下降。
本发明鉴于上述而完成,目的在于提供从多个设备取得参数数据而增加训练数据的数量且学习精度高的机器学习装置、机器学习系统、机器学习方法及程序。
用于解决课题的手段
本发明的一方案是一种机器学习装置,具备:取得部,取得包含第一数据和与所述第一数据建立了关联的第二数据的第三数据,所述第一数据包含关于多个收集设备收集到的参数数据及根据所述参数数据而制作出的训练数据中的至少一方,所述第二数据表示所述参数数据的收集条件;选定部,从所述第三数据选定特定的数据;及学习部,使用所述特定的数据来进行机器学习,生成对对象设备使用的已学习模型,所述选定部选定与相对于所述对象设备的所述已学习模型的使用条件和所述收集设备中的所述收集条件比规定基准接近的所述收集条件建立了关联的所述特定的数据。
由此,机器学习装置在生成对对象设备使用的已学习模型时,从关于多个收集设备收集到的参数数据及根据参数数据而制作出的训练数据中的至少一方选定与和已学习模型的使用条件接近的收集条件建立了关联的数据,使用选定出的数据来进行机器学习,因此能够实现从多个设备取得参数数据而增加训练数据的数量且学习精度高的机器学习装置。
在所述机器学习装置中,可以是,所述收集条件包含表示所述收集设备所具有的特性的条件、所述收集设备的使用条件及所述收集设备的环境条件中的至少一个,所述使用条件包含表示所述对象设备所具有的特性的条件及所述对象设备的环境条件中的至少一个。
由此,机器学习装置能够基于各种各样的收集条件或使用条件来选定数据。
所述机器学习装置可以具备将所述已学习模型向所述对象设备发送的通信部。
由此,对象设备能够将从机器学习装置发送出的已学习模型在本车辆中使用。
本发明的一方案是一种机器学习系统,具备:所述机器学习装置;收集装置,收集关于所述收集设备的所述参数数据;及对象装置,在所述对象设备中使用所述已学习模型。
由此,能够实现从多个设备取得参数数据而增加训练数据的数量且学习精度高的机器学习系统。
在所述机器学习系统中,所述收集设备及所述对象设备可以是运输设备。
由此,能够实现包括车辆等运输设备的机器学习系统。
在所述机器学习系统中,所述机器学习装置可以设置于服务器装置。
由此,服务器装置能够统一地进行机器学习用的数据的取得和已学习模型的制作。
在所述机器学习系统中,所述收集装置可以具备根据所述参数数据来制作所述训练数据的训练数据制作部。
由此,收集装置能够承担参数数据收集的功能并且承担训练数据制作的功能。
本发明的一方案是一种机器学习方法,包括以下步骤:取得包含第一数据和与所述第一数据建立了关联的第二数据的第三数据,所述第一数据包含关于多个收集设备收集到的参数数据及根据所述参数数据而制作出的训练数据中的至少一方,所述第二数据表示所述参数数据的收集条件;将所述第三数据向存储部保存;从所述第三数据选定特定的数据;及使用从所述存储部读出的所述特定的数据来进行机器学习,生成对对象设备使用的已学习模型,其中,选定与相对于所述对象设备的所述已学习模型的使用条件和所述收集设备中的所述收集条件比基准接近的所述收集条件建立了关联的所述特定的数据。
由此,能够实现从多个设备取得参数数据而增加训练数据的数量且学习精度高的机器学习方法。
本发明的一方案是一种存储介质,存储程序,该程序使具有硬件的处理器执行以下步骤:取得包含第一数据和与所述第一数据建立了关联的第二数据的第三数据,所述第一数据包含关于多个收集设备收集到的参数数据及根据所述参数数据而制作出的训练数据中的至少一方,所述第二数据表示所述参数数据的收集条件;将所述第三数据向存储部保存;从所述第三数据选定特定的数据;及使用从所述存储部读出的所述特定的数据来进行机器学习,生成对对象设备使用的已学习模型,其中,选定与相对于所述对象设备的所述已学习模型的使用条件和所述收集设备中的所述收集条件比基准接近的所述收集条件建立了关联的所述特定的数据。
由此,能够使处理器执行从多个设备取得参数数据而增加训练数据的数量且学习精度高的机器学习方法。
发明效果
根据本发明,能够增加训练数据的数量并提高学习精度。
附图说明
图1是示出实施方式的机器学习系统的结构的示意图。
图2是示出神经网络的结构的示意图。
图3是说明神经网络所具有的节点的输入输出的概要的图。
图4是示出在收集装置及服务器装置中执行的处理的序列图。
图5是示出在对象装置及服务器装置中执行的处理的序列图。
标号说明
200:服务器装置(机器学习装置)
211:取得部
212:选定部
213:学习部
具体实施方式
以下,参照附图对本发明的实施方式进行具体说明。需要说明的是,在附图中,对同一或对应的构成要素适当标注同一标号,省略重复说明。
<系统的结构>
图1是示出实施方式的机器学习系统的结构的示意图。机器学习系统1000具备多个收集车辆100、服务器装置200及对象车辆300。
<收集车辆>
多个收集车辆100分别具备收集装置110、传感器群120及控制对象群130。收集装置110、传感器群120及控制对象群130通过CAN(Controller Area Network:控制器局域网)等车载网络而以相互能够通信的方式连接。收集装置110具备控制部111、存储部112及通信部113。收集车辆100是收集设备的一例,且是运输设备的一例。
控制部111例如具备CPU(Central Processing Unit:中央处理单元)、DSP(Digital Signal Processor:数字信号处理器)、FPGA(Field-Programmable Gate Array:可编程门阵列)等处理器及RAM(Random Access Memory:随机存取存储器)、ROM(Read OnlyMemory:只读存储器)等主存储部。控制部111将存储于存储部112的程序向主存储部的作业区域读出并执行,通过处理器对程序的执行而控制各构成部等,由此,硬件和软件协同配合,实现与规定的目的相符的功能模块。
控制部111具备取得部111a、条件确定部111b、训练数据制作部111c、发送数据生成部111d及控制部111e作为功能模块。取得部111a从传感器群120收集表示收集车辆100的状态、特性的各种参数数据。条件确定部111b确定参数数据的收集条件。条件确定部111b例如通过生成表示参数数据的收集条件的收集条件数据来确定收集条件。训练数据制作部111c基于收集到的参数数据来制作训练数据。发送数据生成部111d生成包含训练数据和收集条件数据的发送数据。发送数据生成部111d在生成发送数据时,将训练数据和收集条件数据建立关联。控制部111e例如基于参数数据来判定收集车辆100的状态、特性,基于判定结果来控制控制对象群130。
训练数据是第一数据的一例,收集条件数据是第二数据的一例,发送数据是第三数据的一例。
存储部112由RAM、硬盘驱动器(HDD,Hard Disk Drive)或可移动介质等存储介质构成,也被称作辅助存储部。需要说明的是,可移动介质例如是USB(Universal SerialBus:通用串行总线)存储器或CD(Compact Disc:光盘)、DVD(Digital Versatile Disc:数字通用光盘)及BD(Blu-ray(注册商标)Disc:蓝光光盘)这样的盘记录介质。另外,存储部112能够使用能够从外部装配的存储卡等计算机能够读取的记录介质来构成。在存储部112中,用于实现收集装置110的功能的操作系统(Operating System:OS)、各种程序、各种表、各种数据库等预先存储,或者通过经由通信网络下载而存储。
通信部113构成为例如包含DCM(Data Communication Module:数据通信模块),通过经由通信网络N的无线通信而与服务器装置200进行通信。通信部113将发送数据向服务器装置200发送。通信网络N例如是作为公众通信网的互联网线路网等。
传感器群120由测定收集车辆100的状态、特性的多个传感器构成。传感器群120将测定结果作为参数数据而向收集装置110发送。
参数数据是表示收集车辆100的状态、特性的数据,例如是表示与收集车辆100的行驶相关的状态、特性的数据。在参数数据中,例如存在表示收集车辆100所具有的特性的参数数据、表示收集车辆100的使用条件的参数数据或表示收集车辆100的环境条件的参数数据。表示收集车辆100所具有的特性的参数数据例如存在表示车型、分类(SUV(SportUtility Vehicle:运动型多用途车)等)的数据、表示驱动方式(电动车、混合动力车等)、动力传动系统的特性的数据、表示是否是自动驾驶车辆的数据等。而且,在收集车辆100搭载内燃机的情况下,作为表示收集车辆100所具有的特性的参数数据,例如存在内燃机转速、内燃机的负荷率、内燃机的空燃比、内燃机的点火正时、向排气净化催化剂流入的废气中的HC(碳化氢)浓度、CO(一氧化碳)浓度、排气净化催化剂的温度等。作为表示收集车辆100的使用条件的参数数据,存在收集车辆100的乘车人数、驾驶员的属性(例如,年龄、性别、家庭结构)、行驶场所、行驶时间段、行驶时期(季节等)等的数据。作为表示收集车辆100的环境条件的参数数据,存在标高、气温、气压、天气气候等的数据。
在上述中例示出的参数数据的例子均能够成为收集条件数据。条件确定部111b例如通过选择对特定的参数数据造成影响的参数数据作为收集条件数据来确定收集条件。例如,对特定的参数数据的影响的程度高的参数数据优先地被选择为收集条件数据。另外,在不同的收集条件数据组之间,在被选择为收集条件数据的参数数据的共通性高的情况下,可以说由这些收集条件数据组表示的收集条件接近,因此能够在收集条件的接近度的判定中使用。
控制对象群130基于参数数据而由控制部111e控制。控制对象群130包括搭载于收集车辆100的各种装置,例如包括与收集车辆100的行驶相关的各种装置。控制对象群130在收集车辆100搭载内燃机的情况下,例如包括点火装置、燃料喷射阀、节气门驱动用致动器、EGR(Exhaust Gas Recirculation:废气再循环)控制阀、燃料泵等。另外,控制对象群130也可以包括基于参数数据来进行信息的显示的显示装置。
<服务器装置>
服务器装置200是设置有机器学习装置的服务器装置的一例,具备控制部210、存储部220及通信部230作为机器学习装置的构成要素。
控制部210与收集车辆100的控制部111同样,具备处理器及主存储部。控制部210将存储于存储部220的程序向主存储部的作业区域读出并执行,通过程序的执行而控制各构成部等,由此实现与规定的目的相符的功能模块。
控制部210具备取得部211、选定部212及学习部213作为功能模块。取得部211取得从多个收集车辆100经由通信网络N而发送出的发送数据。选定部212从发送数据选定特定的数据。以后,有时将该选定出的数据记载为选定数据。学习部213使用选定数据来进行机器学习,生成对对象车辆300使用的已学习模型。
存储部220由与收集车辆100的存储部112同样的存储介质构成。在存储部220中,能够存储用于实现服务器装置200的功能的OS、各种程序、各种表、各种数据库等。另外,存储部220存储学习部213生成的已学习模型。
通信部230构成为例如包含LAN(Local Area Network:局域网)接口板、无线通信用的无线通信电路,通过经由通信网络N的无线通信而与多个收集车辆100及对象车辆300进行通信。例如,通信部230接收从多个收集车辆100发送出的发送数据。
<对象车辆>
对象车辆300具备对象装置310、传感器群320及控制对象群330。对象装置310、传感器群320及控制对象群330通过车载网络而以相互能够通信的方式连接。对象装置310具备控制部311、存储部312及通信部313。对象车辆300是对象设备的一例,且是运输设备的一例。
控制部311与收集车辆100的控制部111同样,具备处理器及主存储部。控制部311将存储于存储部312的程序向主存储部的作业区域读出并执行,通过程序的执行而控制各构成部等,由此实现与规定的目的相符的功能模块。另外,如后所述,存储部312存储有已学习模型312a。
控制部311具备取得部311a、条件确定部311b及控制部311c作为功能模块。取得部311a从传感器群320收集表示对象车辆300的状态、特性的各种参数数据。条件确定部311b确定相对于对象车辆300的已学习模型312a的使用条件,生成表示该使用条件的使用条件数据。控制部311c例如基于使用已学习模型312a预测出的特性来控制控制对象群330。控制对象群330的控制是对象装置310中的已学习模型312a的使用方式的一例。
存储部312由与收集车辆100的存储部112同样的存储介质构成。在存储部312中,能够存储用于实现对象装置310的功能的OS、各种程序、各种表、各种数据库等。另外,存储部312存储有已学习模型312a。存储部312存储有已学习模型312a意味着存储有已学习模型312a中的网络参数、运算的算法等信息。另外,以下,关于将已学习模型发送、接收或读出等也同样地意味着将网络参数、运算的算法等信息发送、接收或读出等。
通信部313构成为例如包含DCM,通过经由通信网络N的无线通信而与服务器装置200进行通信。通信部313例如将使用条件数据向服务器装置200发送。
传感器群320由测定对象车辆300的状态、特性的多个传感器构成。传感器群320将测定结果作为参数数据而向对象装置310发送。
参数数据是表示对象车辆300的状态、特性的数据,例如是表示与对象车辆300的行驶相关的状态、特性的数据。作为参数数据,存在作为收集车辆100的参数数据而在上述中例示出的参数数据。即,在参数数据中,例如存在表示对象车辆300所具有的特性的参数数据或表示对象车辆300的环境条件的参数数据。另外,例示出的参数数据均能够成为使用条件数据。条件确定部311b例如通过选择对特定的参数数据造成影响的参数数据作为使用条件数据来确定使用条件。例如,对特定的参数数据的影响的程度高的参数数据优先地被选择为使用条件数据。
控制对象群330基于参数数据而由控制部311c控制。控制对象群330包含搭载于对象车辆300的各种装置,例如包含与对象车辆300的行驶相关的各种装置。另外,控制对象群330也可以包含基于根据参数数据、已学习模型312a的预测来进行情报的显示的显示装置。
<机器学习的例子>
接着,作为服务器装置200的学习部213执行的机器学习的方法的一例,对使用了神经网络的深度学习进行说明。图2是示出学习部213学习的神经网络的结构的示意图。神经网络NN是前馈神经网络,具有输入层NN1、中间层NN2及输出层NN3。输入层NN1由多个节点构成,对各节点输入互相不同的输入参数。中间层NN2被输入来自输入层NN1的输出。中间层NN2具有包含由接受来自输入层NN1的输入的多个节点构成的层的多层的构造。输出层NN3被输入来自中间层NN2的输出,将输出参数输出。使用了中间层NN2具有多层构造的神经网络的机器学习被称作深度学习。
图3是说明神经网络NN所具有的节点处的输入输出的概要的图。在图3中,示意性地示出了神经网络NN中的具有I个节点的输入层NN1、具有J个节点的第一中间层NN21及具有K个节点的第二中间层NN22中的数据的输入输出的一部分(I、J、K是正的整数)。对输入层NN1的从上侧起的第i个节点输入输入参数xi(i=1,2,…,I)。以下,将全部的输入参数的集合记载为“输入参数{xi}”。
输入层NN1的各节点对相邻的第一中间层NN21的各节点输出具有对输入参数乘以规定的权重而得到的值的信号。例如,输入层NN1的从上侧起的第i个节点对第一中间层NN21的从上侧起的第j个(j=1,2,…,J)节点输出具有对输入参数xi乘以权重αij而得到的值αijxi的信号。对第一中间层NN21的从上侧起的第j个节点输入通过合计对来自输入层NN1的各节点的输出加上规定的偏置b(1) j而得到的值Σi=1~Iαijxi+b(1) j。在此,第一项目的Σi=1~I意味着取i=1,2,…,I的和。
第一中间层NN21的从上侧起的第j个节点的输出值yj作为从输入层NN1向该节点的输入值Σi=1~Iαijxi+b(1) j的函数而表示为yj=S(Σi=1~Iαijxi+b(1) j)。该函数S被称作活性化函数。作为具体的活性化函数,例如能够举出Sigmoid函数S(u)=1/{1+exp(-u)}、修正线性函数(ReLU)S(u)=max(0,u)等。活性化函数经常使用非线性函数。
第一中间层NN21的各节点对相邻的第二中间层NN22的各节点输出具有对输入参数乘以规定的权重而得到的值的信号。例如,第一中间层NN21的从上侧起的第j个节点对第二中间层NN22的从上侧起的第k个(k=1,2,…,K)节点输出具有对输入值yj乘以权重βjk而得到的值βjkyj的信号。对于第二中间层NN22的从上侧起的第k个节点,输入通过合计对来自第一中间层NN21的各节点的输出加上规定的偏置b(2) k而得到的值Σj=1~Jβjkyj+b(2) k。在此,第一项目的Σj=1~J意味着取j=1,2,…,J的和。
第二中间层NN22的从上侧起的第k个节点的输出值zk使用以从第一中间层NN21向该节点的输入值Σj=1~Jβjkyj+b(2) k为变量的活性化函数而表示为zk=S(Σj=1~Jβjkyj+b(2) k)。
如上所述,通过沿着从输入层NN1侧朝向输出层NN3侧的正向而依次重复进行,最终从输出层NN3输出一个输出参数Y。神经网络NN所包含的权重及偏置也被集中称作网络参数w。该网络参数w是以神经网络NN的全部的权重及偏置为成分的向量。
学习部213进行基于通过将输入参数{xi}向神经网络NN输入而算出的输出参数Y和与输入参数{xi}一起构成输入输出数据组的输出参数(目标输出)Y0来更新网络参数的运算。具体而言,通过进行用于将2个输出参数Y和Y0的误差最小化的运算来更新网络参数w。此时,经常使用随机梯度下降法。以下,将输入参数{xi}及输出参数Y的组({xi},Y)统称为“训练数据”。
在随机梯度下降法中,将网络参数w使用自动或手动地确定的规定的学习率η而依次更新为
Figure BDA0003100708480000121
需要说明的是,学习率η也可以在学习的中途变更。学习部213反复进行上述的更新处理。由此,误差函数E(w)逐渐向极小点接近。需要说明的是,在更一般的随机梯度下降法的情况下,误差函数E(w)通过从包含全部训练数据的样本中随机提取而在每次更新处理时被定义,在本实施方式中也能够应用。
<收集装置及服务器装置中的处理序列>
图4是示出在收集装置110及服务器装置200中执行的处理的序列图。该序列例如以规定的周期反复执行。需要说明的是,在图4中,对1个收集装置110的处理进行说明,但在各收集车辆100的收集装置110中同样地执行处理。
首先,在步骤S101中,收集装置110的控制部111判定取得部111a是否收集了训练数据的制作所需的参数数据。在判定为未收集的情况下(步骤S101:否),控制部111结束处理。在判定为收集了的情况下(步骤S101:是),序列进入步骤S102。
在步骤S102中,训练数据制作部111c基于收集到的参数数据来制作训练数据。例如,在通过机器学习来预测排气净化催化剂的温度时,内燃机转速、内燃机的负荷率、内燃机的空燃比、内燃机的点火正时、向排气净化催化剂流入的废气中的HC浓度、CO浓度及排气净化催化剂的温度的参数数据组能够成为训练数据。训练数据制作部111c在制作训练数据时,适当进行缺损数据的删除、补全、数据的归一化、标准化等前处理。
接着,在步骤S103中,条件确定部111b通过生成表示参数数据的收集条件的收集条件数据来确定收集条件。条件确定部111b例如通过选择对构成训练数据制作部111c制作的训练数据的参数数据(输入参数或输出参数)造成影响的参数数据作为收集条件数据来确定收集条件。例如,对构成训练数据的参数数据的影响的程度高的参数数据优先地被选择为收集条件数据。
接着,在步骤S104中,发送数据生成部111d将训练数据和收集条件数据建立关联,生成包含训练数据和收集条件数据的发送数据。发送数据生成部111d将生成的发送数据向存储部112保存。
接着,在步骤S105中,控制部111判定在存储部112中发送数据是否蓄积了规定量以上。表示规定量的数据保存于存储部112。在判定为未蓄积的情况下(步骤S105:否),控制部111结束处理。在判定为蓄积了的情况下(步骤S105:是),序列进入步骤S106。
在步骤S106中,控制部111从存储部112读出发送数据,使通信部113发送发送数据。因此,步骤S105中的规定量是用于设定发送数据的发送的定时的量。之后,收集装置110的序列结束。
在服务器装置200中,若通信部230接收到从通信部113发送出的发送数据,则在步骤S107中,控制部210将发送数据向存储部220保存。存储部220存储从多个收集装置110发送出的多个发送数据。即,存储部220存储根据在多个收集装置110中收集到的参数数据而制作出的多个训练数据及与各训练数据建立了关联的收集条件数据。
<对象装置及服务器装置中的处理序列>
图5是示出在对象装置310及服务器装置200中执行的处理的序列图。该序列例如以规定的周期反复执行。
首先,在步骤S201中,对象装置310的控制部311判定在对象装置310中是否需要已学习模型的接收。例如,在判定为从现在存储于存储部312的已学习模型312a的制作日期时刻、上次的更新日期时刻起经过了规定期间的情况、判定为需要与现在保存于存储部312的已学习模型312a不同的已学习模型的情况下,控制部311判定为需要已学习模型的接收。在判定为不需要已学习模型的接收的情况下(步骤S201:否),控制部311结束处理。在判定为需要已学习模型的接收的情况下(步骤S201:是),序列进入步骤S202。
在步骤S202中,条件确定部311b通过生成表示相对于对象车辆300的已学习模型312a的使用条件的使用条件数据来确定使用条件。条件确定部311b例如通过选择对已学习模型312a的输入参数或输出参数造成影响的参数数据而生成使用条件数据来确定使用条件。例如,对已学习模型312a的输入参数或输出参数的影响的程度高的参数数据优先地被选择为使用条件数据。条件确定部311b将生成的使用条件数据向存储部312保存。
接着,在步骤S203中,控制部311从存储部312读出使用条件数据,使通信部313发送使用条件数据。
在服务器装置200中,若通信部230接收到从通信部313发送出的使用条件数据,则控制部210将使用条件数据向存储部220保存。
接着,在步骤S204中,控制部210的选定部212选定存储于存储部220的多个发送数据所包含的收集条件数据中的与使用条件数据接近的收集条件数据,进一步选定与该选择出的收集条件数据建立了关联的训练数据。选择出的训练数据是选定部212从发送数据选择的特定的数据的一例。
选定的收集条件数据是相对于使用条件数据比规定基准接近的收集条件数据。关于使用条件数据与收集条件数据的接近度,例如使用数据间的距离、相似度、相关系数等各种各样的指标来判定。另外,关于规定基准,例如,根据要求的学习精度而设定,例如预先存储于存储部220。
接着,在步骤S205中,控制部210的学习部213使用选定出的训练数据,通过上述的方法等来进行机器学习,生成已学习模型。控制部210将生成的已学习模型向存储部220保存。
接着,在步骤S206中,控制部210从存储部220读出已学习模型,并使通信部230发送。之后,服务器装置200结束处理。
接着,在步骤S207中,对象装置310的通信部313接收来自服务器装置200的已学习模型,控制部311将已学习模型向存储部312保存,并使其反映于对象装置310。需要说明的是,在本实施方式中,在存储部312中,之前存储有已学习模型312a。在该情况下,已学习模型向对象装置310的反映例如如以下这样进行。即,例如,控制部311可以进行删除之前的已学习模型并将从服务器装置200接收到的最新的已学习模型置换为已学习模型312a的更新处理。另外,控制部311也可以进行留下之前的已学习模型的一部分或全部并将最新的已学习模型写入的蓄积处理,构筑新的已学习模型312a。之后,对象装置310结束处理。
对象装置310能够利用在服务器装置200中生成的学习模型,例如实施更恰当的控制对象群330的控制。
在以上说明的具有机器学习装置的机器学习系统1000中,在生成对对象车辆300使用的已学习模型时,从根据关于多个收集车辆100由收集装置110收集到的参数数据而制作出的训练数据选定与接近已学习模型的使用条件的收集条件建立了关联的训练数据,使用选定出的数据来进行机器学习。其结果,能够实现从多个收集车辆100取得参数数据而增加训练数据的数量且学习精度高的机器学习装置。
另外,由于收集条件包含表示收集车辆100所具有的特性的条件、收集车辆100的使用条件及收集车辆100的环境条件中的至少一个,使用条件包含表示对象车辆300所具有的特性的条件及对象车辆300的环境条件中的至少一个,所以能够基于各种各样的收集条件或使用条件来选定训练数据。
另外,由于机器学习装置具备将已学习模型向对象车辆300发送的通信部230,所以对象车辆300能够将从机器学习装置发送出的已学习模型在本车辆中使用。
另外,在机器学习系统1000中,服务器装置200能够统一地进行机器学习用的数据的取得和已学习模型的制作。
另外,收集装置110由于具备训练数据制作部111c,所以能够承担参数数据收集的功能并且承担训练数据制作的功能。
需要说明的是,在上述实施方式中,收集装置110具备训练数据制作部111c,但也可以是机器学习装置具备训练数据制作部。在该情况下,收集装置将包含第一数据和与第一数据建立了关联的第二数据的第三数据作为发送数据而向机器学习装置发送,第一数据是收集到的参数数据,第二数据是参数数据的收集条件数据。在机器学习装置中,选定部从第三数据选定特定的数据,训练数据制作部基于该特定的数据来制作训练数据。另外,还可以是收集装置和机器学习装置分散地具有训练数据制作功能。在该情况下,第一数据能够包含参数数据和训练数据双方。
另外,机器学习装置也可以设置于连接于通信网络N的服务器装置以外的其他的装置之一,机器学习装置的构成要素也可以分散地设置于连接于通信网络N的其他的多个装置。其他的装置例如是收集装置、对象装置、其他的计算机装置等。
另外,收集装置也可以不搭载于收集车辆,从收集车辆经由通信网络而收集参数数据。
另外,在上述实施方式中,收集车辆、对象车辆能够置换为其他的运输设备、机器人设备。
另外,本发明不由上述实施方式限定。将上述的各构成要素适当组合而构成的技术也包含于本发明。另外,进一步的效果、变形例能够由本领域技术人员容易地导出。由此,本发明的更广泛的方案不限定于上述的实施方式,能够进行各种各样的变更。

Claims (9)

1.一种机器学习装置,具备:
取得部,取得包含第一数据和与所述第一数据建立了关联的第二数据的第三数据,所述第一数据包含关于多个收集设备收集到的参数数据及根据所述参数数据而制作出的训练数据中的至少一方,所述第二数据表示所述参数数据的收集条件;
选定部,从所述第三数据选定特定的数据;及
学习部,使用所述特定的数据来进行机器学习,生成对对象设备使用的已学习模型,
所述选定部选定与相对于所述对象设备的所述已学习模型的使用条件和所述收集设备中的所述收集条件比规定基准接近的所述收集条件建立了关联的所述特定的数据。
2.根据权利要求1所述的机器学习装置,
所述收集条件包含表示所述收集设备所具有的特性的条件、所述收集设备的使用条件及所述收集设备的环境条件中的至少一个,
所述使用条件包含表示所述对象设备所具有的特性的条件及所述对象设备的环境条件中的至少一个。
3.根据权利要求1或2所述的机器学习装置,
具备将所述已学习模型向所述对象设备发送的通信部。
4.一种机器学习系统,具备:
权利要求1~3中任一项所述的机器学习装置;
收集装置,收集关于所述收集设备的所述参数数据;及
对象装置,在所述对象设备中使用所述已学习模型。
5.根据权利要求4所述的机器学习系统,
所述收集设备或所述对象设备是运输设备。
6.根据权利要求4或5所述的机器学习系统,
所述机器学习装置设置于服务器装置。
7.根据权利要求4~6中任一项所述的机器学习系统,
所述收集装置具备根据所述参数数据来制作所述训练数据的训练数据制作部。
8.一种机器学习方法,包括以下步骤:
取得包含第一数据和与所述第一数据建立了关联的第二数据的第三数据,所述第一数据包含关于多个收集设备收集到的参数数据及根据所述参数数据而制作出的训练数据中的至少一方,所述第二数据表示所述参数数据的收集条件;
将所述第三数据向存储部保存;
从所述第三数据选定特定的数据;及
使用从所述存储部读出的所述特定的数据来进行机器学习,生成对对象设备使用的已学习模型,
其中,选定与相对于所述对象设备的所述已学习模型的使用条件和所述收集设备中的所述收集条件比基准接近的所述收集条件建立了关联的所述特定的数据。
9.一种存储介质,保存有程序,该程序使具有硬件的处理器执行以下步骤:
取得包含第一数据和与所述第一数据建立了关联的第二数据的第三数据,所述第一数据包含关于多个收集设备收集到的参数数据及根据所述参数数据而制作出的训练数据中的至少一方,所述第二数据表示所述参数数据的收集条件;
将所述第三数据向存储部保存;
从所述第三数据选定特定的数据;及
使用从所述存储部读出的所述特定的数据来进行机器学习,生成对对象设备使用的已学习模型,
其中,选定与相对于所述对象设备的所述已学习模型的使用条件和所述收集设备中的所述收集条件比基准接近的所述收集条件建立了关联的所述特定的数据。
CN202110625161.XA 2020-06-11 2021-06-04 机器学习装置、机器学习系统、机器学习方法及存储介质 Pending CN113805480A (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020101906A JP2021196777A (ja) 2020-06-11 2020-06-11 機械学習装置、機械学習システム、機械学習方法、及びプログラム
JP2020-101906 2020-06-11

Publications (1)

Publication Number Publication Date
CN113805480A true CN113805480A (zh) 2021-12-17

Family

ID=78718895

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110625161.XA Pending CN113805480A (zh) 2020-06-11 2021-06-04 机器学习装置、机器学习系统、机器学习方法及存储介质

Country Status (4)

Country Link
US (1) US20210390406A1 (zh)
JP (1) JP2021196777A (zh)
CN (1) CN113805480A (zh)
DE (1) DE102021114119A1 (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650982A (zh) * 2016-08-30 2017-05-10 华北电力大学 一种基于多点nwp的深度学习功率预测方法
CN107832684A (zh) * 2017-10-26 2018-03-23 通华科技(大连)有限公司 一种具有自主学习能力的智能静脉认证方法和系统
US20190272462A1 (en) * 2018-02-28 2019-09-05 Honda Research Institute Europe Gmbh Unsupervised learning of metric representations from slow features
US20200132011A1 (en) * 2018-10-25 2020-04-30 Toyota Jidosha Kabushiki Kaisha Control support device, vehicle, control support method, recording medium, learned model for causing computer to function, and method of generating learned model
JP2020071611A (ja) * 2018-10-30 2020-05-07 トヨタ自動車株式会社 機械学習装置
US20200143607A1 (en) * 2018-11-01 2020-05-07 Toyota Jidosha Kabushiki Kaisha Control system of internal combustion engine, electronic control unit, server, and control method of internal combustion engine

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6936014B2 (ja) * 2017-01-30 2021-09-15 三菱重工業株式会社 教師データ収集装置、教師データ収集方法、及びプログラム
JP6477951B1 (ja) 2018-04-05 2019-03-06 トヨタ自動車株式会社 車載電子制御ユニット

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106650982A (zh) * 2016-08-30 2017-05-10 华北电力大学 一种基于多点nwp的深度学习功率预测方法
CN107832684A (zh) * 2017-10-26 2018-03-23 通华科技(大连)有限公司 一种具有自主学习能力的智能静脉认证方法和系统
US20190272462A1 (en) * 2018-02-28 2019-09-05 Honda Research Institute Europe Gmbh Unsupervised learning of metric representations from slow features
US20200132011A1 (en) * 2018-10-25 2020-04-30 Toyota Jidosha Kabushiki Kaisha Control support device, vehicle, control support method, recording medium, learned model for causing computer to function, and method of generating learned model
JP2020071611A (ja) * 2018-10-30 2020-05-07 トヨタ自動車株式会社 機械学習装置
US20200143607A1 (en) * 2018-11-01 2020-05-07 Toyota Jidosha Kabushiki Kaisha Control system of internal combustion engine, electronic control unit, server, and control method of internal combustion engine

Also Published As

Publication number Publication date
US20210390406A1 (en) 2021-12-16
DE102021114119A1 (de) 2021-12-16
JP2021196777A (ja) 2021-12-27

Similar Documents

Publication Publication Date Title
CN109947086B (zh) 基于对抗学习的机械故障迁移诊断方法及系统
CN111102043B (zh) 控制支援装置及方法、车辆、记录介质、用于使计算机发挥功能的已学习模型及生成方法
CN113609779B (zh) 分布式机器学习的建模方法、装置及设备
KR102118088B1 (ko) 인공지능 기술을 이용한 배기가스 배출량 예측방법
EP3657403A1 (en) Computing device and method
JP2022089806A (ja) 車両の動作プロファイルのモデリング
Guardiola et al. Adaptive calibration for reduced fuel consumption and emissions
Xu et al. A study of vehicle driving condition recognition using supervised learning methods
JP2020093760A (ja) 制御支援装置
CN113830097A (zh) 车辆、模型学习系统以及服务器
CN113011559A (zh) 基于kubernetes的自动机器学习方法及系统
Manuel Lujan et al. Adaptive calibration of Diesel engine injection for minimising fuel consumption with constrained NO x emissions in actual driving missions
Garg et al. Potential of machine learning methods for robust performance and efficient engine control development
JP2020071611A (ja) 機械学習装置
Ineza Havugimana et al. Review of artificial intelligent algorithms for engine performance, control, and diagnosis
CN113805480A (zh) 机器学习装置、机器学习系统、机器学习方法及存储介质
CN117114053B (zh) 基于结构搜索和知识蒸馏的卷积神经网络模型压缩方法和装置
Kazan et al. Assessment of on-road high NOx emitters by using machine learning algorithms for heavy-duty vehicles
CN115080388A (zh) 一种面向自动驾驶系统的仿真测试场景生成方法
CN114627076A (zh) 一种联合主动学习和深度学习技术的工业检测方法
Liu et al. Accuracy improvement of fuel cell prognostics based on voltage prediction
CN113673805B (zh) 车辆调配装置及车辆
CN116804706B (zh) 一种电动汽车锂电池温度预测方法及装置
CN117236082B (zh) 一种基于大数据平台的燃料电池性能衰减预测方法和系统
Munthikodu Driving data pattern recognition for intelligent energy management of plug-in hybrid electric vehicles

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination