CN113830097A - 车辆、模型学习系统以及服务器 - Google Patents
车辆、模型学习系统以及服务器 Download PDFInfo
- Publication number
- CN113830097A CN113830097A CN202110382614.0A CN202110382614A CN113830097A CN 113830097 A CN113830097 A CN 113830097A CN 202110382614 A CN202110382614 A CN 202110382614A CN 113830097 A CN113830097 A CN 113830097A
- Authority
- CN
- China
- Prior art keywords
- vehicle
- model
- learning
- server
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000004891 communication Methods 0.000 claims abstract description 41
- 238000013508 migration Methods 0.000 claims description 20
- 230000005012 migration Effects 0.000 claims description 20
- 238000013528 artificial neural network Methods 0.000 claims description 8
- 238000010801 machine learning Methods 0.000 claims description 5
- 230000007704 transition Effects 0.000 abstract description 30
- 238000012545 processing Methods 0.000 description 23
- 238000000034 method Methods 0.000 description 18
- 238000012549 training Methods 0.000 description 17
- 230000008569 process Effects 0.000 description 16
- 230000005540 biological transmission Effects 0.000 description 14
- 238000002485 combustion reaction Methods 0.000 description 10
- 238000013526 transfer learning Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 9
- 230000006870 function Effects 0.000 description 7
- 238000013473 artificial intelligence Methods 0.000 description 5
- 238000005259 measurement Methods 0.000 description 5
- 230000004913 activation Effects 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000004590 computer program Methods 0.000 description 4
- 239000000446 fuel Substances 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 3
- 238000011156 evaluation Methods 0.000 description 3
- 238000007621 cluster analysis Methods 0.000 description 2
- 238000013527 convolutional neural network Methods 0.000 description 2
- 238000002347 injection Methods 0.000 description 2
- 239000007924 injection Substances 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 210000002569 neuron Anatomy 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000002093 peripheral effect Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 238000013459 approach Methods 0.000 description 1
- 239000003054 catalyst Substances 0.000 description 1
- 239000000498 cooling water Substances 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000000746 purification Methods 0.000 description 1
- 239000000126 substance Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W2050/0001—Details of the control system
- B60W2050/0019—Control system elements or transfer functions
- B60W2050/0028—Mathematical models, e.g. for simulation
- B60W2050/0031—Mathematical model of the vehicle
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W50/00—Details of control systems for road vehicle drive control not related to the control of a particular sub-unit, e.g. process diagnostic or vehicle driver interfaces
- B60W50/04—Monitoring the functioning of the control system
- B60W50/045—Monitoring control system parameters
- B60W2050/046—Monitoring control system parameters involving external transmission of data to or from the vehicle, e.g. via telemetry, satellite, Global Positioning System [GPS]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Automation & Control Theory (AREA)
- Human Computer Interaction (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Traffic Control Systems (AREA)
- Combined Controls Of Internal Combustion Engines (AREA)
Abstract
本发明涉及车辆、模型学习系统以及服务器。车辆具备:第一通信装置,被配置为与服务器进行通信,所述服务器将学习完毕的其他车辆的模型和与所述其他车辆的模型的学习条件相关的信息建立关联地进行存储;以及第一控制装置。所述第一控制装置被配置为对所述服务器发送与所述本车辆的模型的学习条件相关的信息。所述第一控制装置被配置为接收从存储于所述服务器的所述其他车辆的模型中选择出的、学习条件最一致的特定的车辆的模型的一部分来作为迁移学习用数据。所述第一控制装置被配置为沿用接收到的所述特定的车辆的模型一部分来进行所述本车辆的模型的学习。
Description
技术领域
本公开涉及车辆、模型学习系统以及服务器。
背景技术
日本特开2019-183698中公开了如下的技术:向车辆发送在服务器中进行了学习的学习完毕模型,在车辆中使用该学习完毕模型来推定内燃机的排气净化催化剂的温度。
如上述的日本特开2019-183698那样,不限于在服务器中进行学习的情况,即使在车辆中进行学习的情况下,运算资源也有限。因此,要求减少学习所需的运算量并且缩短学习所需的时间。
发明内容
本公开提供一种在创建学习完毕模型时能减少学习所需的运算量并且缩短学习所需的时间的车辆、模型学习系统以及服务器。
本公开的第一方案的车辆具备:第一通信装置,被配置为与服务器进行通信,所述服务器被配置为将在其他车辆中已学习的学习完毕的其他车辆的模型和与所述其他车辆的模型的学习条件相关的信息建立关联地进行存储;以及第一控制装置,被配置为学习在所述车辆中使用的本车辆的模型。所述第一控制装置被配置为:在学习所述本车辆的模型时,经由所述第一通信装置对所述服务器发送与所述本车辆的模型的学习条件相关的信息。所述第一控制装置被配置为:从服务器经由所述第一通信装置接收特定的车辆的模型的至少一部分。所述特定的车辆的模型的学习条件与所述本车辆的模型的学习条件相同或接近。所述特定的车辆的模型是基于与所述其他车辆的模型的学习条件相关的信息和与所述本车辆的模型的学习条件相关的信息而从存储于所述服务器的学习完毕的所述其他车辆的模型中选择的。所述第一控制装置被配置为沿用接收到的所述特定的车辆的模型的至少一部分来进行所述本车辆的模型的学习。
在本公开的第一方案的车辆中,也可以是,所述第一控制装置被配置为对所述本车辆的模型实施机器学习。
在本公开的第一方案的车辆中,也可以是,与所述学习条件相关的信息包括构成所述本车辆的模型和所述其他车辆的模型的神经网络的隐藏层的信息。
在本公开的第一方案的车辆中,也可以是,所述迁移学习用数据是构成所述其他车辆的模型的神经网络的隐藏层的全部或一部分的参数。
在本公开的第一方案的车辆中,也可以是,与所述学习条件相关的信息包括使用所述本车辆的模型或所述其他车辆的模型的车辆固有的信息。
本公开也可以是一种具备本公开的第一方案的车辆和服务器的模型学习系统。所述服务器可以具备:第二通信装置,被配置为与所述本车辆和所述其他车辆进行通信;存储装置,被配置为将学习完毕的所述其他车辆的模型和与所述其他车辆的模型的学习条件相关的信息建立关联地进行存储;以及第二控制装置。所述第二控制装置可以被配置为:基于与所述其他车辆的模型的学习条件相关的信息和经由所述第二通信装置接收到的与所述本车辆的模型的学习条件相关的信息来选择所述特定的车辆的模型。与所述其他车辆的模型的学习条件相关的信息可以存储于所述存储装置。所述特定的车辆的模型的学习条件可以与所述本车辆的模型的学习条件相同或接近。所述特定的车辆的模型可以是存储于所述存储装置的学习完毕的所述其他车辆的模型之一。
在本公开的第二方案的模型学习系统中,也可以是,所述存储装置被配置为:将从所述其他车辆接收到的各车辆的学习完毕模型和与所述各车辆的学习完毕模型的学习条件相关的信息建立关联地进行存储。
本公开的第三方案的服务器具备:通信装置,被配置为与多个车辆的每一个进行通信;存储装置,被配置为将在所述多个车辆的每一个中已学习的学习完毕的模型和与所述多个车辆的学习完毕的模型的学习条件相关的信息建立关联地进行存储;以及控制装置。所述控制装置被配置为从所述多个车辆中的一个车辆经由所述通信装置接收与所述一个车辆的模型的学习条件相关的信息。所述控制装置被配置为基于接收到的与所述一个车辆的模型的学习条件相关的信息和与所述多个车辆的学习完毕的模型的学习条件相关的信息来选择特定的车辆的模型。与所述多个车辆的学习完毕的模型的学习条件相关的信息存储于所述存储装置。所述特定的车辆的模型是存储于所述存储装置的所述多个车辆的学习完毕的模型中的一个,所述特定的车辆的模型的学习条件与所述一个车辆的模型的学习条件相同或接近。所述控制装置被配置为沿用选择出的所述特定的车辆的模型的至少一部分来进行在所述一个车辆中使用的模型的学习。
本公开的第四方案的服务器具备:通信装置,被配置为与多个车辆和不同于所述多个车辆的第一车辆的每一个进行通信;存储装置,被配置为将在所述多个车辆的每一个中已学习的学习完毕的模型和与所述多个车辆的所述学习完毕的模型的学习条件相关的信息建立关联地进行存储;以及控制装置。所述控制装置被配置为经由所述通信装置从所述第一车辆接收与所述第一车辆的模型的学习条件相关的信息。所述控制装置被配置为基于接收到的与所述第一车辆的模型的学习条件相关的信息和与所述多个车辆的学习完毕模型的学习条件相关的信息来选择特定的车辆的模型。与所述多个车辆的学习完毕模型的学习条件相关的信息存储于所述存储装置。所述特定的车辆的模型是存储于所述存储装置的所述多个学习完毕的车辆的模型中的一个,所述特定的车辆的模型的学习条件是与所述第一车辆的模型的学习条件相同或接近的车辆的模型。所述控制装置被配置为沿用选择出的所述特定的车辆的模型的至少一部分来进行在所述第一车辆中使用的模型的学习。
根据本公开的这些方案,能沿用学习完毕的模型的一部分来创建学习完毕模型,因此能减少学习所需的运算量并且缩短学习所需的时间。
附图说明
以下,参照附图,对本发明的示例性实施例的特征、优点以及技术和工业意义进行说明,其中,相同的附图标记表示相同的元件,其中:
图1是本发明的一个实施方式的模型学习系统的概略构成图。
图2是表示车辆的硬件构成的概略图。
图3是表示神经网络模型的一个例子的图。
图4是对为了将学习完毕模型汇集到服务器而在服务器与各车辆之间执行的处理进行说明的流程图。
图5是对为了在车辆中进行迁移学习而在服务器与各车辆之间执行的处理进行说明的流程图。
图6是对迁移学习的一个例子进行说明的图。
图7是对迁移学习的一个例子进行说明的图。
图8是对为了在服务器中进行迁移学习而在服务器与各车辆之间执行的处理进行说明的流程图。
具体实施方式
以下,参照附图对本发明的一个实施方式进行详细说明。需要说明的是,在以下的说明中,对相同的构成要素标注相同的附图标记。
(第一实施方式)
图1是本发明的第一实施方式的模型学习系统100的概略构成图。
如图1所示,模型学习系统100具备服务器1和多个车辆2。
服务器1具备服务器通信部11、服务器存储部12以及服务器处理部13。
服务器通信部11具有用于将服务器1经由例如网关等与网络3连接的通信接口电路,并被配置为能在服务器通信部11与各车辆2之间相互进行通信。
服务器存储部12具有HDD(Hard Disk Drive:硬盘驱动器)、光记录介质、半导体存储器等存储介质,存储用于服务器处理部13中的处理的各种计算机程序、数据等。
服务器处理部13具有一个或多个处理器及其周边电路。服务器处理部13执行储存于服务器存储部12的各种计算机程序来统括地控制服务器1的整体的动作。服务器处理部13例如是CPU(Central Processing Unit:中央处理器)。
图2是表示车辆2的硬件构成的概略图。
车辆2具备电子控制单元20、车外通信装置24、例如内燃机等的各种控制部件以及控制各控制部件所需的各种传感器类。电子控制单元20、车外通信装置24以及各种控制部件、传感器类经由符合CAN(Controller Area Network:控制器局域网络)等标准的车内网络25相互连接。
电子控制单元20具备经由信号线相互连接的车内通信接口21、车辆存储部22以及车辆处理部23。在此,电子控制单元20是“第一控制装置”的一个例子。
车内通信接口21是用于将电子控制单元20连接于符合CAN(Controller AreaNetwork)等标准的车内网络25的通信接口电路。
车辆存储部22具有HDD(Hard Disk Drive)、光记录介质、半导体存储器等存储介质,存储用于车辆处理部23中的处理的各种计算机程序、数据等。
车辆处理部23具有一个或多个处理器及其周边电路。车辆处理部23执行储存于车辆存储部22的各种计算机程序来统括地控制搭载于车辆2的各种控制部件,车辆处理部23例如是CPU。
车外通信装置24是具有无线通信功能的车载的终端。车外通信装置24访问无线基站4,由此经由无线基站4与网络3连接,该无线基站4经由未图示的网关等与网络3连接。由此,在车外通信装置24与服务器1之间相互进行通信。在此,车外通信装置24是“第一通信装置”的一个例子。
在各车辆2中,在控制搭载于各车辆2的各种控制部件时,根据需要来使用实施了机器学习的学习完毕的人工智能模型(学习完毕模型)。在本实施方式中,作为人工智能模型,使用利用了深度神经网络(DNN;Deep Neural Network)、卷积神经网络(CNN;Convolutional Neural Network)等的神经网络模型(以下称为“NN模型”。),对该NN模型实施深度学习。因此,本实施方式的学习完毕模型也可以称为实施了深度学习的学习完毕的NN模型。深度学习是代表人工智能(AI;Artificial Intelligence)的机器学习方法之一。
图3是表示NN模型的一个例子的图。
图3中的圆圈表示人工神经元。人工神经元通常被称为节点或单元(在本说明书中称为“节点”)。在图3中,L=1表示输入层,L=2和L=3表示隐藏层,L=4表示输出层。隐藏层也被称为中间层。需要说明的是,在图3中举例示出了隐藏层为2层的NN模型,但隐藏层的层数并不特别限定。此外,输入层、隐藏层以及输出层的各层的节点的数量也并不特别限定。
在图3中,x1和x2表示输入层(L=1)的各节点及来自该节点的输出值,y表示输出层(L=4)的节点及其输出值。同样,z1 (L=2)、z2 (L=2)以及z3 (L=2)表示隐藏层(L=2)的各节点及来自该节点的输出值,z1 (L=3)和z2 (L=3)表示隐藏层(L=3)的各节点及来自该节点的输出值。
在输入层的各节点中,输入被原样输出。另一方面,输入层的各节点的输出值x1和x2被输入至隐藏层(L=2)的各节点,在隐藏层(L=2)的各节点中,使用分别对应的权重w和偏差(bias)b来计算出总输入值u。例如,在图3中隐藏层(L=2)的由zk (L=2)(k=1,2,3)表示的各节点中计算出的总输入值uk (L=2)如下式(M是输入层的节点的数量)。
接着,该总输入值uk (L=2)通过激活函数f被转换,从隐藏层(L=2)的由zk (L=2)表示的节点作为输出值zk (L=2)(=f(uk (L=2)))而被输出。另一方面,隐藏层(L=2)的各节点的输出值z1 (L=2)、z2 (L=2)以及z3 (L=2)被输入至隐藏层(L=3)的各节点,在隐藏层(L=3)的各节点中,使用分别对应的权重w和偏差b来计算出总输入值u(=Σz·w+b)。该总输入值u同样通过激活函数被转换,从隐藏层(L=3)的各节点作为输出值z1 (L=3)、z2 (L=3)而被输出。激活函数例如是S型(sigmoid)函数σ。
此外,隐藏层(L=3)的各节点的输出值z1 (L=3)和z2 (L=3)被输入至输出层(L=4)的节点,在输出层的节点中,使用分别对应的权重w和偏差b来计算出总输入值u(Σz·w+b),或者仅使用分别对应的权重w来计算出总输入值u(Σz·w)。例如,在输出层的节点中使用恒等函数来作为激活函数。在该情况下,在输出层的节点中计算出的总输入值u原样地作为输出值y而从输出层的节点被输出。
如此,NN模型具备输入层、隐藏层以及输出层,若一个或多个输入参数从输入层被输入,则NN模型从输出层输出与输入参数对应的一个或多个输出参数。
作为输入参数的例子,如果是在例如使用NN模型来控制搭载于车辆2的内燃机的情况下,可以举出内燃机转速、内燃机冷却水温度、燃料喷射量、燃料喷射正时、燃料压力、吸入空气量、进气温度、EGR(Exhaust Gas Re-circulation:废气再循环)率、增压压力等这样的表示内燃机的运转状态的各种参数的当前值。并且,作为与这样的输入参数对应的输出参数的例子,可以举出排气中的NOx浓度、其他物质的浓度、内燃机输出转矩等这样的表示内燃机的性能的各种参数的推定值。由此,通过向NN模型输入表示内燃机的运转状态的各种参数的当前值来作为输入参数,能获取表示内燃机的性能的各种参数的推定值(当前的推定值或将来的推定值)来作为输出参数。由此,例如,能基于输出参数以内燃机的性能接近期望的性能的方式来控制内燃机。此外,在具备用于对输出参数进行实测的传感器等的情况下,也能根据实测值与推定值的差来判断传感器等的故障。
为了提高NN模型的精度,需要使NN模型进行学习。在NN模型的学习中,使用包括输入参数的实测值、与该输入参数的实测值对应的输出参数的实测值(正确答案数据)的许多训练数据。神经网络内的权重w和偏差b的值是使用许多训练数据并通过公知的误差反向传播法而被反复更新的。权重w和偏差b的值被学习,从而生成学习完毕模型。
NN模型的学习能在服务器1、各车辆2中进行,但运算资源有限,因此,无论是在哪一个中进行学习的情况下,都要求减少学习所需的运算量并且缩短学习所需的时间。
例如,在服务器1中,在从头开始进行未学习的NN模型的学习的情况下,或者在进行学习完毕的NN模型的再学习的情况下,可以想到:为了提高NN模型的推定精度,进行反映了每个车辆的固有的特征(例如,车型、车辆规格、用户喜好、行驶履历等)的学习,从而创建按每个车辆优化的学习完毕模型。然而,这样一来,学习的模型数量庞大,因此要求缩短针对各个NN模型的学习时间。
此外,在各车辆2中进行NN模型的学习、再学习的情况下,搭载于车辆2的电子控制单元20的运算资源也特别有限,因此仍然要求尽可能减少运算量并且缩短学习时间。
因此,在本实施方式中,从汇集于服务器1的其他车辆的学习完毕模型中选择学习条件与本车辆最接近的学习完毕模型。然后,能以该选择出的其他车辆的学习完毕模型的一部分为基础来进行本车辆的NN模型的迁移学习。通过进行沿用了其他车辆的学习完毕模型的一部分的迁移学习,例如,能仅使识别车辆固有的特征的层进行学习,因此能以较少的运算量来学习本车辆的NN模型。因此,无论在服务器1中创建了按每个车辆优化的学习完毕模型的情况下,还是在各车辆2中创建了学习完毕模型的情况下,都能缩短学习时间。即,能在短时间内创建按每个车辆优化的精度高的学习完毕模型。因此,例如,如果NN模型是推定内燃机的排气中的NOx浓度这样的模型,则能进行抑制了排气中的NOx浓度的运转,并且能抑制排气排放的恶化。
图4是对为了将学习完毕模型汇集至服务器1而在服务器1与各车辆2之间执行的处理进行说明的流程图。
在步骤S1中,车辆2的电子控制单元20判定从上一次将学习完毕模型发送至服务器1起是否经过了规定时间。如果从上一次将学习完毕模型发送至服务器1起经过了规定时间,则电子控制单元20进入步骤S2的处理。另一方面,如果从上一次将学习完毕模型发送至服务器1起未经过规定时间,则电子控制单元20结束本次的处理。
需要说明的是,在本实施方式中,电子控制单元20在车辆行驶中随时获取训练数据(例如,作为输入参数的内燃机转速等的实测值和作为输出参数的NOx浓度的实测值),并基于获取到的训练数据随时执行学习完毕的NN模型的再学习。如此,在本实施方式中,在通过迁移学习而学习了一次NN模型之后,以较少的训练数据随时进行NN模型的再学习,而不是一次使用大量的训练数据来进行NN模型的再学习。由此,抑制再学习时的运算负荷,并且缩短学习时间。
在步骤S2中,车辆2的电子控制单元20将当前的学习完毕模型与规定的模型信息和车辆信息建立关联,并发送至服务器1。模型信息例如是学习完毕模型的隐藏层的数量、各隐藏层的节点的数量等模型固有的信息。车辆信息例如是车型、车辆规格、当前(再学习时)的行驶距离等车辆固有的信息。
在步骤S3中,服务器1判定是否接收到与模型信息和车辆信息建立了关联的学习完毕模型。服务器1在接收到与模型信息和车辆信息建立了关联的学习完毕模型的情况下,进入步骤S4的处理。另一方面,如果未接收到与模型信息和车辆信息建立了关联的学习完毕模型,则服务器1结束本次的处理。
在步骤S4中,服务器1将接收到的学习完毕模型与模型信息和车辆信息一起储存在形成于服务器存储部12的模型数据库。
图5是对为了在车辆2中进行迁移学习而在服务器1与各车辆2之间执行的处理进行说明的流程图。图6是对在本实施方式中进行的迁移学习的一个例子进行说明的图。图6的上段是从模型数据库内选择出的、与本车辆的模型的学习条件接近的学习完毕模型。图6的下段是通过迁移学习生成的学习完毕模型。
在步骤S11中,车辆2的电子控制单元20判定是否需要迁移学习。在本实施方式中,电子控制单元20例如在本车辆的出厂时等本处理的第一次执行时判定为需要迁移学习。然而,除此之外,也可以是,电子控制单元20例如在存在由驾驶员发出的迁移学习请求时,或者在能使用某种评价指标(例如燃料效率、排气排放等)来评价本车辆的模型精度的情况下该评价指标比其他车辆的评价指标差时等,判定为需要迁移学习。电子控制单元20在判定为需要迁移学习时,进入步骤S12的处理。另一方面,电子控制单元20在判定为不需要迁移学习时,结束本次的处理。
在步骤S12中,车辆2的电子控制单元20向服务器1发送包括本车辆的模型信息(今后要进行学习的NN模型的隐藏层的数量、各隐藏层的节点的数量等模型固有的信息)和车辆信息(车型、车辆规格、当前的行驶距离等车辆固有的信息)的迁移学习请求信号。需要说明的是,以下,为了方便,根据需要将向服务器1发送了迁移学习请求信号的车辆2称为发送源车辆。在此,发送源车辆是“第一车辆”的一个例子。
在步骤S13中,服务器1判定是否接收到迁移学习请求。服务器1在接收到迁移学习请求的情况下,进入步骤S14的处理。另一方面,如果服务器1未接收到迁移学习请求,则结束本次的处理。
在步骤S14中,服务器1将储存于模型数据库的其他车辆的学习完毕模型的模型信息和车辆信息与在步骤S12中接收到的发送源车辆的模型信息和车辆信息进行比较。然后,服务器1从储存于模型数据库的学习完毕模型中选择学习条件与发送源车辆最一致(相同或最接近)的学习完毕模型来作为迁移学习用的学习完毕模型。在此选择出的迁移学习用的学习完毕模型是“特定的车辆的模型”的一个例子。
在本实施方式中,服务器1基于隐藏层的数量、各隐藏层的节点数量、车型、车辆规格、行驶距离等模型信息和车辆信息中包含的、用于判定学习条件的一致度的各项目,将储存于模型数据库的各学习完毕模型的学习条件的一致度数值化。然后,服务器1选择其中一致度最高的学习完毕模型来作为迁移学习用的学习完毕模型。
例如,关于用于判定学习条件的一致度的各项目中的隐藏层的数量、各隐藏层的节点的数量、行驶距离等量的数据,服务器1基于按每个项目预先设定的权重和每个项目的差(例如,如果是隐藏层,则是发送源车辆的NN模型的隐藏层的数量与各学习完毕模型的隐藏层的数量的差)来将一致度数值化。例如,如果仅考虑隐藏层的数量,则具有与发送源车辆的NN模型的隐藏层的数量相同数量的隐藏层的其他车辆的学习完毕模型成为一致度高的学习完毕模型。此外,关于车型、车辆规格等质的数据,服务器1例如通过聚类分析(cluster analysis)等来判定一致度(类似度),并将一致度数值化。
在步骤S15中,服务器1将在步骤S14中选择出的学习完毕模型的一部分作为在迁移学习中使用的迁移学习用数据发送至发送源车辆。在本实施方式中,如图6所示,服务器1将学习完毕模型的隐藏层中的接近输入层的一侧的一部分的隐藏层的数据(与各隐藏层的各节点对应的权重w和偏差b的数据等)作为迁移学习用数据发送至发送源车辆。
在步骤S16中,车辆2(发送源车辆)的电子控制单元20判定是否接收到迁移学习用数据。电子控制单元20在接收到迁移学习用数据的情况下,进入步骤S17的处理。另一方面,如果电子控制单元20未接收到迁移学习用数据,则在间隔规定时间后,再次判定是否接收到迁移学习用数据。
在步骤S17中,车辆2(发送源车辆)的电子控制单元20进行迁移学习。在本实施方式中,如图6所示,电子控制单元20原样沿用作为迁移学习用数据而接收到的其他车辆的学习完毕模型的隐藏层的一部分,并仅使本车辆的NN模型的一部分的隐藏层使用训练数据进行学习。由此,能减少要进行学习的隐藏层的数量,并且也能以比使本车辆的NN模型从头开始学习的情况少的训练数据来进行学习。因此,能减少学习所需的运算量并且缩短学习时间。
需要说明的是,也可以是,如果在判定为需要迁移学习的时间点存在在本车辆中已获取、已创建的训练数据,则将该训练数据作为训练数据来使用。另一方面,也可以是,如果不存在在本车辆中已获取、已创建的训练数据,则事先在服务器1中准备预先被标准化的训练数据,并从服务器1获取该训练数据。
以上进行了说明的本实施方式的车辆2具备车外通信装置24(第一通信装置)和电子控制单元20(第一控制装置)。车外通信装置24能与服务器1进行通信,该服务器1将在其他车辆中已学习的学习完毕的其他车辆的模型(人工智能模型,例如NN模型)和与其他车辆的模型的学习条件相关的信息建立关联地进行存储。电子控制单元20学习在本车辆中使用的本车辆的模型(人工智能模型,例如NN模型)。
电子控制单元20被配置为具备迁移学习用数据请求部和学习部。迁移学习用数据请求部在学习本车辆的模型时,对服务器1发送与本车辆的模型的学习条件相关的信息来请求迁移学习用数据。在学习部接收到基于与其他车辆的模型的学习条件相关的信息和与本车辆的模型的学习条件相关的信息,从存储于服务器1的学习完毕的其他车辆的模型中选择出的、学习条件与本车辆的模型相同或接近的其他车辆的模型的一部分来作为迁移学习用数据时,学习部沿用接收到的其他车辆的模型的一部分来进行本车辆的模型的学习(例如机器学习)。
如此,通过原样沿用学习完毕的其他车辆的模型的一部分来使本车辆的模型进行学习,能减少要进行学习的隐藏层的数量,并且也能以比使本车辆的模型从头开始学习的情况少的训练数据来进行学习。因此,能减少学习所需的运算量,并且能缩短学习时间。其结果是,能在短时间内创建按每个车辆优化的精度高的学习完毕模型。
需要说明的是,在本实施方式中,与学习条件相关的信息中包括构成本车辆的模型和其他车辆的模型的神经网络的隐藏层的信息(例如,隐藏层的数量、各隐藏层的节点的数量等)。此外,在本实施方式中,迁移学习用数据是构成所述其他车辆的模型的神经网络的隐藏层的一部分的参数。
此外,在本实施方式中,与学习条件相关的信息中包括使用本车辆的模型和其他车辆的模型的车辆固有的信息(例如,车型、车辆规格、行驶距离等)。
此外,在这样的具备车辆2和服务器1的模型学习系统100中,服务器1具备:服务器通信部11(第二通信装置),能与多个车辆2进行通信;服务器存储部12(存储装置),将学习完毕的其他车辆的模型和与其他车辆的模型的学习条件相关的信息建立关联地进行存储;以及服务器处理部13(第二控制装置)。
并且,在本实施方式中,服务器处理部13被配置为具备选择部,该选择部基于存储于服务器存储部12的与其他车辆的模型的学习条件相关的信息和接收到的与本车辆的模型的学习条件相关的信息,从存储于服务器存储部12的其他车辆的模型中选择学习条件与本车辆的模型相同或接近的所述其他车辆的模型。此外,服务器处理部13被配置为将从多个车辆2接收到的各车辆2的学习完毕模型和与该学习完毕模型的学习条件相关的信息建立关联地存储于服务器存储部12。
在上述第一实施方式中,在搭载于车辆2的电子控制单元20中进行了学习,但也可以在服务器处理部13中进行迁移学习并将创建的学习完毕模型发送至车辆2。此外,在上述第一实施方式中,发送源车辆2发送迁移学习请求,但也可以在服务器1接收到车辆的模型信息、车辆信息的情况下,在服务器1中判断为迁移学习被请求。此外,服务器1也可以被编程为:在服务器1接收到车辆的模型信息、车辆信息的情况下,将迁移学习用数据或创建的学习完毕模型发送至发送源车辆。
(第二实施方式)
接着,对本发明的第二实施方式进行说明。在本实施方式中,在进行存储于服务器1的车辆2的再学习的情况下,在服务器1中进行迁移学习并将创建的学习完毕模型发送至各车辆2。
图8是对为了在服务器1中进行迁移学习而在服务器1与各车辆2之间执行的处理进行说明的流程图。需要说明的是,在图8中,从步骤S11起到S14为止的处理的内容与第一实施方式中上述的处理的内容相同,因此,在此省略说明。
在步骤S21中,服务器1原样沿用在步骤S14中选择出的学习完毕模型的隐藏层的一部分,使用训练数据来学习发送源车辆的NN模型并创建学习完毕模型。然后,服务器1将创建的学习完毕模型发送至发送源车辆。
在步骤S22中,车辆2(发送源车辆)的电子控制单元20判定是否接收到学习完毕模型。如果接收到学习完毕模型,则电子控制单元20进入步骤S23的处理,如果未接收到学习完毕模型,则在间隔规定时间后,电子控制单元20再次判定是否接收到学习完毕模型。
在步骤S23中,车辆2(发送源车辆)的电子控制单元20将本车辆的模型置换为接收到的学习完毕模型。
以上进行了说明的本实施方式的服务器1具备:服务器通信部11(通信装置),能与多个车辆2的每一个进行通信;服务器存储部12(存储装置),将在多个车辆2的每一个中已学习的学习完毕的模型和与该模型的学习条件相关的信息建立关联地进行存储;以及服务器处理部13(控制装置)。
服务器处理部13被配置为具备选择部和学习部。在选择部从多个车辆2中的一个车辆接收到包括与在一个车辆中使用的模型的学习条件相关的信息的迁移学习用数据的请求信号时,选择部基于与一个车辆的学习条件相关的信息和存储于服务器存储部12的与各车辆的学习条件相关的信息,从各车辆的学习完毕的模型中选择学习条件与所述一个车辆相同或接近的学习完毕的模型。学习部沿用选择出的学习完毕的模型的一部分来进行在所述一个车辆中使用的模型的学习。
在如此在服务器1中进行了迁移学习的情况下,也能获得与第一实施方式同样的效果。即,在创建学习完毕模型时,能减少学习所需的运算量并且缩短学习所需的时间。
在上述第二实施方式中,在服务器1的服务器处理部13中进行了学习,但也可以将选择出的学习完毕模型的一部分作为迁移学习用数据发送至车辆2,并在搭载于车辆2的电子控制单元20中进行学习。此外,在上述第二实施方式中,在步骤S12中,服务器1从车辆2的电子控制单元20接收包括发送源车辆的模型信息和车辆信息的迁移学习请求信号,但发送源车辆的模型也可以包括于迁移学习请求信号。
以上,对本发明的实施方式进行了说明,但上述实施方式只不过示出了本发明的应用例的一部分,并不是在将本发明的技术的范围限定于上述实施方式的具体构成的意思。
例如,在上述的实施方式中,如图6所示,将从模型数据库内选择出的学习完毕模型的隐藏层中的接近输入层的一侧的一部分的隐藏层的数据作为迁移学习用数据发送至发送源车辆来进行迁移学习。然而,例如,如图7所示,也可以将从模型数据库内选择出的学习完毕模型的隐藏层的全部数据作为迁移学习用数据发送至发送源车辆。并且,也可以是,在发送源车辆中,在作为迁移学习用数据而接收到的其他车辆的学习完毕模型的全部隐藏层中另外追加隐藏层,并仅使该追加的隐藏层使用训练数据来进行学习。需要说明的是,图7的上段是从模型数据库内选择出的、学习条件与本车辆的学习条件接近的学习完毕模型,图7的下段是通过迁移学习生成的学习完毕模型。
除此以外,也可以仅沿用与隐藏层中的一部分的节点相关的权重w和偏差b来进行迁移学习。例如,也可以是,在某个隐藏层中存在五个节点的情况下,沿用与三个节点相关的权重w和偏差b,仅对与剩余的两个节点相关的权重w和偏差b进行学习。
Claims (9)
1.一种车辆,其特征在于,包括:
第一通信装置,被配置为与服务器进行通信,所述服务器被配置为将在其他车辆中已学习的学习完毕的其他车辆的模型和与所述其他车辆的模型的学习条件相关的信息建立关联地进行存储;以及
第一控制装置,
所述第一控制装置被配置为:
学习在所述车辆中使用的本车辆的模型,
在学习所述本车辆的模型时,经由所述第一通信装置对所述服务器发送与所述本车辆的模型的学习条件相关的信息,
从所述服务器经由所述第一通信装置接收特定的车辆的模型的至少一部分来作为迁移学习用数据,所述特定的车辆的模型的学习条件与所述本车辆的模型的学习条件相同或接近,所述特定的车辆的模型是基于与所述其他车辆的模型的学习条件相关的信息和与所述本车辆的模型的学习条件相关的信息而从存储于所述服务器的学习完毕的所述其他车辆的模型中选择的,
沿用接收到的所述特定的车辆的模型的至少一部分来进行所述本车辆的模型的学习。
2.根据权利要求1所述的车辆,其特征在于,
所述第一控制装置被配置为对所述本车辆的模型实施机器学习。
3.根据权利要求1或2所述的车辆,其特征在于,
与所述学习条件相关的信息包括构成所述本车辆的模型和所述其他车辆的模型的神经网络的隐藏层的信息。
4.根据权利要求3所述的车辆,其特征在于,
所述迁移学习用数据是构成所述其他车辆的模型的神经网络的隐藏层的全部或一部分的参数。
5.根据权利要求1至4中任一项所述的车辆,其特征在于,
与所述学习条件相关的信息包括使用所述本车辆的模型或所述其他车辆的模型的车辆固有的信息。
6.一种模型学习系统,其特征在于,包括权利要求1至5中任一项所述的车辆和所述服务器,
所述服务器具备:
第二通信装置,被配置为与所述本车辆和所述其他车辆进行通信;
存储装置,被配置为将学习完毕的所述其他车辆的模型和与所述其他车辆的模型的学习条件相关的信息建立关联地进行存储;以及
第二控制装置,被配置为基于与所述其他车辆的模型的学习条件相关的信息和与所述本车辆的模型的学习条件相关的信息来选择所述特定的车辆的模型,与所述其他车辆的模型的学习条件相关的信息存储于所述存储装置,与所述本车辆的模型的学习条件相关的信息经由所述第二通信装置被接收,所述特定的车辆的模型的学习条件与所述本车辆的模型的学习条件相同或接近,所述特定的车辆的模型是存储于所述存储装置的学习完毕的所述其他车辆的模型之一。
7.根据权利要求6所述的模型学习系统,其特征在于,
所述存储装置被配置为将从所述其他车辆接收到的各车辆的学习完毕模型和与所述各车辆的学习完毕模型的学习条件相关的信息建立关联地进行存储。
8.一种服务器,其特征在于,包括:
通信装置,被配置为与多个车辆的每一个进行通信;
存储装置,被配置为将在所述多个车辆的每一个中已学习的学习完毕的模型和与所述多个车辆的学习完毕的模型的学习条件相关的信息建立关联地进行存储;以及
控制装置,
所述控制装置被配置为:
从所述多个车辆中的一个车辆经由所述通信装置接收与所述一个车辆的模型的学习条件相关的信息,
基于接收到的与所述一个车辆的模型的学习条件相关的信息和与所述多个车辆的学习完毕的模型的学习条件相关的信息来选择特定的车辆的模型,与所述多个车辆的学习完毕的模型的学习条件相关的信息存储于所述存储装置,所述特定的车辆的模型是存储于所述存储装置的所述多个车辆的学习完毕的模型中的一个,所述特定的车辆的模型的学习条件与所述一个车辆的模型的学习条件相同或接近,
沿用选择出的所述特定的车辆的模型的至少一部分来进行在所述一个车辆中使用的模型的学习。
9.一种服务器,其特征在于,包括:
通信装置,被配置为与多个车辆和不同于所述多个车辆的第一车辆中的每一个进行通信;
存储装置,被配置为将在所述多个车辆的每一个中已学习的学习完毕的模型和与所述多个车辆的所述学习完毕的模型的学习条件相关的信息建立关联地进行存储;以及
控制装置,
所述控制装置被配置为:
经由所述通信装置从所述第一车辆接收与所述第一车辆的模型的学习条件相关的信息,
基于接收到的与所述第一车辆的模型的学习条件相关的信息和与所述多个车辆的学习完毕模型的学习条件相关的信息来选择特定的车辆的模型,与所述多个车辆的学习完毕模型的学习条件相关的信息存储于所述存储装置,所述特定的车辆的模型是存储于所述存储装置的所述多个车辆的学习完毕的模型中的一个,所述特定的车辆的模型的学习条件与所述第一车辆的模型的学习条件相同或接近,
沿用选择出的所述特定的车辆的模型的至少一部分来进行在所述第一车辆中使用的模型的学习。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2020099370A JP6795116B1 (ja) | 2020-06-08 | 2020-06-08 | 車両、及びサーバ |
JP2020-099370 | 2020-06-08 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113830097A true CN113830097A (zh) | 2021-12-24 |
CN113830097B CN113830097B (zh) | 2024-06-11 |
Family
ID=73544686
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110382614.0A Active CN113830097B (zh) | 2020-06-08 | 2021-04-09 | 车辆、模型学习系统以及服务器 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20210383215A1 (zh) |
JP (1) | JP6795116B1 (zh) |
CN (1) | CN113830097B (zh) |
DE (1) | DE102021114514A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20220374764A1 (en) * | 2021-05-19 | 2022-11-24 | Volvo Car Corporation | Real-time in-vehicle modeling and simulation updates |
JPWO2023038022A1 (zh) * | 2021-09-09 | 2023-03-16 | ||
US20230244994A1 (en) * | 2022-02-03 | 2023-08-03 | Denso Corporation | Machine learning generation for real-time location |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056147A (zh) * | 2016-05-27 | 2016-10-26 | 大连楼兰科技股份有限公司 | 基于人工智能径向基函数神经网络方法建立不同分车型分目标远程定损系统及方法 |
CN110431569A (zh) * | 2017-03-21 | 2019-11-08 | 首选网络株式会社 | 服务器装置、已学习模型提供程序、已学习模型提供方法以及已学习模型提供系统 |
US20200108815A1 (en) * | 2018-10-09 | 2020-04-09 | Toyota Jidosha Kabushiki Kaisha | Control device of vehicle drive device, vehicle-mounted electronic control unit, trained model, machine learning system, method of controlling vehicle drive device, method of producing electronic control unit, and output parameter calculation device |
CN111034230A (zh) * | 2017-08-31 | 2020-04-17 | 美光科技公司 | 合作学习神经网络和系统 |
CN111016920A (zh) * | 2018-10-09 | 2020-04-17 | 丰田自动车株式会社 | 车辆用驱动装置的控制装置及控制方法、车载电子控制单元、已学习模型和机器学习系统 |
JP2020062914A (ja) * | 2018-10-15 | 2020-04-23 | トヨタ自動車株式会社 | 情報提供装置 |
KR20200044225A (ko) * | 2018-10-12 | 2020-04-29 | 가톨릭관동대학교산학협력단 | 딥러닝을 기반으로 한 자율차량을 위한 통합진단 시스템 |
CN111102043A (zh) * | 2018-10-25 | 2020-05-05 | 丰田自动车株式会社 | 控制支援装置及方法、车辆、记录介质、用于使计算机发挥功能的已学习模型及生成方法 |
CN111120122A (zh) * | 2018-10-30 | 2020-05-08 | 丰田自动车株式会社 | 控制装置 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6544594B2 (ja) * | 2017-01-26 | 2019-07-17 | パナソニックIpマネジメント株式会社 | 情報処理システム、情報処理方法、プログラムおよび車両 |
US11176760B2 (en) * | 2018-01-25 | 2021-11-16 | Micron Technology, Inc. | In-vehicle monitoring and reporting apparatus for vehicles |
JP6477951B1 (ja) | 2018-04-05 | 2019-03-06 | トヨタ自動車株式会社 | 車載電子制御ユニット |
US10948915B2 (en) * | 2018-08-30 | 2021-03-16 | Intel Corporation | Computer-assisted or autonomous driving vehicle incident management method and apparatus |
-
2020
- 2020-06-08 JP JP2020099370A patent/JP6795116B1/ja active Active
-
2021
- 2021-04-01 US US17/219,895 patent/US20210383215A1/en active Pending
- 2021-04-09 CN CN202110382614.0A patent/CN113830097B/zh active Active
- 2021-06-07 DE DE102021114514.7A patent/DE102021114514A1/de active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106056147A (zh) * | 2016-05-27 | 2016-10-26 | 大连楼兰科技股份有限公司 | 基于人工智能径向基函数神经网络方法建立不同分车型分目标远程定损系统及方法 |
CN110431569A (zh) * | 2017-03-21 | 2019-11-08 | 首选网络株式会社 | 服务器装置、已学习模型提供程序、已学习模型提供方法以及已学习模型提供系统 |
CN111034230A (zh) * | 2017-08-31 | 2020-04-17 | 美光科技公司 | 合作学习神经网络和系统 |
US20200108815A1 (en) * | 2018-10-09 | 2020-04-09 | Toyota Jidosha Kabushiki Kaisha | Control device of vehicle drive device, vehicle-mounted electronic control unit, trained model, machine learning system, method of controlling vehicle drive device, method of producing electronic control unit, and output parameter calculation device |
CN111022206A (zh) * | 2018-10-09 | 2020-04-17 | 丰田自动车株式会社 | 车辆用驱动装置的控制装置及控制方法、车载电子控制单元、已学习模型、机器学习系统 |
CN111016920A (zh) * | 2018-10-09 | 2020-04-17 | 丰田自动车株式会社 | 车辆用驱动装置的控制装置及控制方法、车载电子控制单元、已学习模型和机器学习系统 |
KR20200044225A (ko) * | 2018-10-12 | 2020-04-29 | 가톨릭관동대학교산학협력단 | 딥러닝을 기반으로 한 자율차량을 위한 통합진단 시스템 |
JP2020062914A (ja) * | 2018-10-15 | 2020-04-23 | トヨタ自動車株式会社 | 情報提供装置 |
CN111102043A (zh) * | 2018-10-25 | 2020-05-05 | 丰田自动车株式会社 | 控制支援装置及方法、车辆、记录介质、用于使计算机发挥功能的已学习模型及生成方法 |
CN111120122A (zh) * | 2018-10-30 | 2020-05-08 | 丰田自动车株式会社 | 控制装置 |
Also Published As
Publication number | Publication date |
---|---|
JP2021193280A (ja) | 2021-12-23 |
CN113830097B (zh) | 2024-06-11 |
JP6795116B1 (ja) | 2020-12-02 |
US20210383215A1 (en) | 2021-12-09 |
DE102021114514A1 (de) | 2021-12-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113830097B (zh) | 车辆、模型学习系统以及服务器 | |
JP2000020103A (ja) | 遺伝的アルゴリズムの評価方法 | |
CN113392573A (zh) | 用于创建经训练的人工神经网络的方法、用于预测车辆排放数据的方法和确定校准值的方法 | |
US11820398B2 (en) | Learning apparatus and model learning system | |
CN114091681A (zh) | 模型学习系统及服务器 | |
JP7010343B1 (ja) | 機械学習装置 | |
JP6935837B1 (ja) | 機械学習装置及び機械学習システム | |
JP6986503B2 (ja) | 電子制御装置、ニューラルネットワーク更新システム | |
JP7040589B1 (ja) | 機械学習方法及び機械学習システム | |
Martinez et al. | Comparative study of optimization algorithms on convolutional network for autonomous driving | |
KR20220075922A (ko) | 차량 고장 여부를 예측하기 위한 인공 신경망 학습 방법, 차량 고장 여부 판단 방법, 및 이를 수행하는 컴퓨팅 시스템 | |
JP2022027057A (ja) | 異常検出装置、異常検出方法および異常検出プログラム | |
US20220292350A1 (en) | Model updating apparatus, model updating method, and model updating program | |
JP7056794B1 (ja) | モデル学習システム及びモデル学習装置 | |
JP7074166B2 (ja) | サーバ、車両の制御装置、および車両の機械学習システム | |
JP2022035222A (ja) | 機械学習装置 | |
JP6962435B1 (ja) | 機械学習装置 | |
JP7276298B2 (ja) | モデル学習システム、車両の制御装置及びモデル学習方法 | |
JP2022173803A (ja) | 学習モデルのパラメータの値の授受装置及び授受システム | |
CN115496177A (zh) | 分布式系统的校准 | |
JP2022076257A (ja) | 機械学習システム、車両及びサーバ | |
JP2022079938A (ja) | 機械学習システム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant |