CN114063597B - 服务器、车辆的控制装置以及车辆的机器学习系统 - Google Patents

服务器、车辆的控制装置以及车辆的机器学习系统 Download PDF

Info

Publication number
CN114063597B
CN114063597B CN202110896853.8A CN202110896853A CN114063597B CN 114063597 B CN114063597 B CN 114063597B CN 202110896853 A CN202110896853 A CN 202110896853A CN 114063597 B CN114063597 B CN 114063597B
Authority
CN
China
Prior art keywords
vehicle
learned model
server
processor
scale
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202110896853.8A
Other languages
English (en)
Other versions
CN114063597A (zh
Inventor
横山大树
中林亮
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toyota Motor Corp
Original Assignee
Toyota Motor Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toyota Motor Corp filed Critical Toyota Motor Corp
Publication of CN114063597A publication Critical patent/CN114063597A/zh
Application granted granted Critical
Publication of CN114063597B publication Critical patent/CN114063597B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G07CHECKING-DEVICES
    • G07CTIME OR ATTENDANCE REGISTERS; REGISTERING OR INDICATING THE WORKING OF MACHINES; GENERATING RANDOM NUMBERS; VOTING OR LOTTERY APPARATUS; ARRANGEMENTS, SYSTEMS OR APPARATUS FOR CHECKING NOT PROVIDED FOR ELSEWHERE
    • G07C5/00Registering or indicating the working of vehicles
    • G07C5/008Registering or indicating the working of vehicles communicating information to a remotely located station
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B23/00Testing or monitoring of control systems or parts thereof
    • G05B23/02Electric testing or monitoring
    • G05B23/0205Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults
    • G05B23/0208Electric testing or monitoring by means of a monitoring system capable of detecting and responding to faults characterized by the configuration of the monitoring system
    • G05B23/0213Modular or universal configuration of the monitoring system, e.g. monitoring system having modules that may be combined to build monitoring program; monitoring system that can be applied to legacy systems; adaptable monitoring system; using different communication protocols
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F1/00Details not covered by groups G06F3/00 - G06F13/00 and G06F21/00
    • G06F1/26Power supply means, e.g. regulation thereof
    • G06F1/32Means for saving power
    • G06F1/3203Power management, i.e. event-based initiation of a power-saving mode
    • G06F1/3206Monitoring of events, devices or parameters that trigger a change in power modality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F9/00Arrangements for program control, e.g. control units
    • G06F9/06Arrangements for program control, e.g. control units using stored programs, i.e. using an internal store of processing equipment to receive or retain programs
    • G06F9/30Arrangements for executing machine instructions, e.g. instruction decode
    • G06F9/34Addressing or accessing the instruction operand or the result ; Formation of operand address; Addressing modes
    • G06F9/355Indexed addressing
    • G06F9/3555Indexed addressing using scaling, e.g. multiplication of index
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/082Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/088Non-supervised learning, e.g. competitive learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Artificial Intelligence (AREA)
  • Mathematical Physics (AREA)
  • Health & Medical Sciences (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Traffic Control Systems (AREA)
  • Combined Controls Of Internal Combustion Engines (AREA)

Abstract

本公开涉及服务器、车辆的控制装置以及车辆的机器学习系统。服务器具备的处理器构成为,从车辆接收数据集;通过使用所述数据集进行机器学习,制作规模不同的多个已学习模型;从车辆接收与应用所述已学习模型控制车辆的电子控制装置的运算能力有关的信息;以及向车辆发送所述已学习模型,其中,所述处理器构成为,相比于具备所述运算能力低的所述电子控制装置的车辆,向具备所述运算能力高的所述电子控制装置的车辆发送规模较大的所述已学习模型。

Description

服务器、车辆的控制装置以及车辆的机器学习系统
技术领域
本发明涉及服务器、车辆的控制装置以及车辆的机器学习系统。
背景技术
以往,作为公知技术,由服务器的通信部接收在车辆中取得的数据,使用接收到的这些数据制作数据集(dataset),按照该数据集进行学习,从服务器向车辆发送已学习模型(已训练模型)(例如,参照日本特开2019-183698)。
发明内容
然而,接受从服务器提供的已学习模型的车辆的种类各种各样,各个车辆所具备的车载计算机的运算能力也各种各样。在不考虑车载计算机的运算能力而从服务器向各车辆一样地提供已学习模型的情况下,在具备运算能力比较低的车载计算机的车辆中,有可能无法利用已学习模型。
鉴于上述问题,本公开的目的在于,提供能够根据车辆所具备的控制装置的运算能力来利用已学习模型的服务器、车辆的控制装置以及车辆的机器学习系统。
本公开的主旨如下。
本发明的一个技术方案涉及的服务器具备处理器,所述处理器构成为,从车辆接收数据集;通过使用所述数据集进行机器学习,制作规模不同的多个已学习模型;从车辆接收与应用所述已学习模型控制车辆的电子控制装置的运算能力有关的信息;以及向车辆发送所述已学习模型,所述处理器构成为,相比于具备所述运算能力低的所述电子控制装置的车辆,向具备所述运算能力高的所述电子控制装置的车辆发送规模较大的所述已学习模型。
在上述技术方案中,所述处理器也可以构成为,进行基于神经网络(neuralnetwork)的所述机器学习。
在上述技术方案中,也可以为,隐藏层的层数或者存在于所述隐藏层的节点数越多,则所述已学习模型的规模越大。
在上述技术方案中,所述处理器也可以构成为,按车辆行驶的每个区域制作所述已学习模型,所述区域越大,则制作规模越大的所述已学习模型;以及基于车辆的位置信息,发送与车辆当前行驶的所述区域对应的所述已学习模型。
在上述技术方案中,所述处理器也可以构成为,相比于具备所述运算能力高的所述电子控制装置的车辆,以较高的发送频率向具备所述运算能力低的所述电子控制装置的车辆发送所述已学习模型。
本发明的另一个技术方案涉及的车辆的控制装置是应用已学习模型控制车辆的控制装置,具备处理器,所述处理器构成为,向服务器发送与所述控制装置的运算能力有关的信息;从所述服务器接收与所述运算能力对应的规模的所述已学习模型;以及应用从所述服务器接收到的与所述运算能力对应的规模的所述已学习模型来控制车辆。
在上述技术方案中,所述处理器也可以构成为,向所述服务器发送数据集;以及接收所述服务器通过使用所述数据集进行机器学习所制作的所述已学习模型。
在上述技术方案中,也可以为,所述服务器进行基于神经网络的所述机器学习;隐藏层的层数或者存在于所述隐藏层的节点数越多,则所述已学习模型的规模越大。
在上述技术方案中,所述处理器也可以构成为,按车辆行驶的每个区域,接收与车辆当前行驶的所述区域对应的所述已学习模型;所述区域越大,则接收规模越大的所述已学习模型。
在上述技术方案中,所述处理器也可以构成为,所述运算能力越低,则以越高的接收频率接收所述已学习模型。
本发明的另一个技术方案涉及的车辆的机器学习系统具备:服务器,其通过使用从车辆接收到的数据集进行学习来制作已学习模型;以及车辆的控制装置,其应用所述已学习模型控制车辆,所述控制装置具备第1处理器,所述第1处理器构成为,向所述服务器发送所述数据集;向所述服务器发送与所述控制装置的运算能力有关的信息;从所述服务器接收与所述运算能力对应的规模的所述已学习模型;以及应用从所述服务器接收到的与所述运算能力对应的规模的所述已学习模型来控制车辆,所述服务器具备第2处理器,所述第2处理器构成为,从车辆接收所述数据集;通过使用所述数据集进行机器学习,制作规模不同的多个已学习模型;从车辆接收与所述控制装置的所述运算能力有关的信息;向车辆发送所述已学习模型;以及相比于具备所述运算能力低的所述控制装置的车辆,向具备所述运算能力高的所述控制装置的车辆发送规模较大的所述已学习模型。
在上述技术方案中,所述第2处理器也可以构成为,进行基于神经网络的所述机器学习。
在上述技术方案中,也可以为,隐藏层的层数或者存在于所述隐藏层的节点数越多,则所述已学习模型的规模越大。
在上述技术方案中,所述第2处理器也可以构成为,按车辆行驶的每个区域制作所述已学习模型;所述区域越大,则制作规模越大的所述已学习模型;以及基于车辆的位置信息,发送与车辆当前行驶的所述区域对应的所述已学习模型,所述第1处理器也可以构成为,按车辆行驶的每个所述区域,接收与车辆当前行驶的所述区域对应的所述已学习模型。
在上述技术方案中,所述第2处理器也可以构成为,相比于具备所述运算能力高的所述控制装置的车辆,以较高的发送频率向具备所述运算能力低的所述控制装置的车辆发送所述已学习模型,所述第1处理器也可以构成为,所述运算能力越低,则以越高的接收频率接收所述已学习模型。
根据本发明,获得能够根据车辆所具备的控制装置的运算能力来向车辆提供已学习模型这一效果。
附图说明
以下,参照附图对本发明的示例性实施方式的特征、优点以及技术和产业意义进行说明,在附图中相同的附图标记表示相同的要素,并且其中:
图1是表示一个实施方式的车辆的机器学习系统的构成的示意图。
图2是表示搭载于车辆的车辆控制系统的构成的示意图。
图3是表示服务器的构成的示意图。
图4是一同表示车辆所具备的ECU的处理器的功能块以及服务器所具备的控制装置的处理器的功能块的示意图。
图5是表示预先规定了ECU的运算能力与已学习模型的规模的关系的映射(map)的示意图。
图6是表示用于模型规模决定部根据ECU的规格(specification)信息求取运算能力的表(table)的示意图。
图7是表示学习部基于数据集进行学习并制作已学习模型的神经网络的一例的示意图。
图8是表示车辆所具备的ECU和服务器所具备的控制装置进行的处理的时序图。
图9是表示根据区域的大小而使不同规模的已学习模型对应的例子的示意图。
图10是表示根据区域的大小而使不同规模的已学习模型对应的例子的示意图。
具体实施方式
以下,参照附图,对本发明涉及的若干个实施方式进行说明。然而,它们的说明仅意在例示本发明的优选的实施方式,而并非意在将本发明限定于这种特定的实施方式。
图1是表示一个实施方式的车辆的机器学习系统1000的构成的示意图。该机器学习系统1000具有多个车辆100和服务器200。多个车辆100是驾驶员以手动方式驾驶的手动驾驶车辆或者可自主行驶的自动驾驶车辆等。各车辆100与服务器200能够经由通过光通信线路等构成的通信网络300以及经由网关(未图示)与通信网络300连接的无线基站400相互通信。即,无线基站400对各车辆100与服务器200之间的通信进行中继。
各车辆100收集车载摄像头(camera)拍摄到的图像、表示运转状态的信息、表示车辆周边环境的信息等各种信息,根据这些信息制作学习用的数据集并向服务器200发送。服务器200设置于管理中心。管理中心使服务器200对数据集进行学习,并使用服务器200将学习的结果获得的已学习模型提供给多个车辆100。服务器200中的学习通过深度学习等机器学习进行。除此之外,管理中心还能够使用服务器200进行用于控制各车辆100的各种处理。
服务器200基于从多个车辆100取得的数据集进行学习,并向各车辆100提供已学习模型。另一方面,服务器200也可以基于从特定的一个车辆100取得的数据集进行学习,将专用于该车辆100的已学习模型提供给该车辆100。再者,服务器200也可以对没有向服务器200发送学习用的数据集的车辆100提供基于从其他车辆100取得的数据集制作的已学习模型。
可是,与服务器200进行通信的多个车辆100的性能各种各样。而且,多个车辆100各自具备的车载计算机根据车辆100的性能而不同。性能越高的车辆100,越倾向于进行更高度精密的车辆控制,因此越倾向于搭载运算能力更高的车载计算机。
另外,关于从服务器200提供给车辆100的已学习模型,规模越大的已学习模型,越成为更复杂的模型,越适合于更高度精密的车辆控制。此外,已学习模型的规模是相当于为了使用已学习模型所需要的运算能力(运算负荷)的值。在已学习模型由神经网络构成的情况下,已学习模型的规模由隐藏层的层数、存在于隐藏层的节点数表示,隐藏层的层数、存在于隐藏层的节点数越多,则已学习模型的规模越大。作为一例,已学习模型的规模通过将隐藏层的每一层存在的平均节点数与隐藏层的层数相乘来算出。已学习模型的隐藏层的层数、隐藏层的节点数越多,则通过学习所确定的加权系数的数量、偏置的数量越多,越成为更准确地表现出现实状态的模型。因此,规模越大的已学习模型,越适合于更高度精密的车辆控制。此外,已学习模型的规模也由通过学习所确定的加权系数的数量、偏置的数量表示,加权系数的数量、偏置的数量越多,则已学习模型的规模越大。
若已学习模型的规模超过车载计算机的运算能力,则可能产生如下事态,即车载计算机无法进行规模大且复杂的已学习模型的运算,使得无法进行应用已学习模型的车辆控制。另外,若相对于车载计算机的运算能力,已学习模型的规模过小,则存在应用已学习模型的车辆控制的精度降低的可能性。因此,优选地,根据各个车辆100的车载计算机的运算能力,将与运算能力相符的已学习模型提供给车辆100。
在本实施方式中,从车辆100向服务器200发送表示车载计算机的运算能力的规格信息。服务器200基于规格信息,将与车载计算机的运算能力相应规模的已学习模型发送给车辆100。更具体而言,服务器200在车载计算机的运算能力高的情况下,相比于运算能力低的情况,发送规模较大的已学习模型。由此,能够避免由于车载计算机的运算能力不足而导致无法进行应用已学习模型的车辆控制的事态,另外将会最大限度地利用车载计算机的运算能力进行应用已学习模型的车辆控制。
图2是表示搭载于车辆100的车辆控制系统的构成的示意图。车辆控制系统具有车载摄像头110、测位(定位)信息接收机120、车辆控制设备130、无线终端140、电子控制装置(ECU:Electronic Control Unit)150、环境信息取得传感器160以及运转状态信息取得传感器170。车载摄像头110、测位信息接收机120、车辆控制设备130、无线终端140、ECU150、环境信息取得传感器160以及运转状态信息取得传感器170各自经由遵照控制器局域网络(CAN:Controller Area Network)、以太网(注册商标)(Ethernet(注册商标))这些标准的车内网络能够通信地连接。此外,在本实施方式中,各车辆100在涉及学习用的数据集的向服务器200的发送以及应用已学习模型的车辆控制方面具有相同的构成,服务器200对各车辆100应用相同的处理,因此,以下,只要没有特别需要,就只对一台车辆100进行说明。
车载摄像头110具有由CCD(Charge-Coupled Device)或者C-MOS(ComplementaryMetal-Oxide-Semiconductor)等对可见光具有灵敏度的光电转换元件的阵列构成的二维检测器、以及将作为摄影对象的区域的像成像在该二维检测器上的成像光学系统。车载摄像头110设置在车辆内部的仪表板或者挡风玻璃附近等,按预定的拍摄周期(例如1/30秒~1/10秒)拍摄车辆100的周围(例如,车辆100的前方),生成表示车辆100周围的图像。由车载摄像头110获得的图像优选为彩色图像。另外,车载摄像头110也可以由立体摄像头构成,也可以构成为从左右图像的视差取得到图像上的各结构物的距离。车载摄像头110每当生成图像时,就将该生成的图像经由车内网络向ECU150输出。
测位信息接收机120取得表示车辆100的当前位置和姿势的测位信息。例如,测位信息接收机120能够设为GPS(Global Positioning System)接收机。测位信息接收机120每当接收到测位信息时,就将取得的测位信息经由车内网络向ECU150输出。
车辆控制设备130是与车辆控制相关的各种设备,包括作为驱动车辆100的驱动源的内燃机或者电动马达等驱动装置、制动车辆100的制动装置、使车辆100转弯的转向装置等。另外,在驱动车辆100的驱动源是电动马达的情况下,车辆控制设备130也可以包括储蓄电力的蓄电池、向电动马达供给电力的燃料电池等。此外,在本实施方式中,所谓车辆控制,是除了由这些设备直接控制车辆100之外还包括与车辆100相关的全面控制的概念,例如包括空调装置的控制、显示装置的控制、音响装置的控制等与车辆100的驾驶间接相关的控制。
无线终端140例如具有天线以及信号处理电路,信号处理电路执行无线信号的调制和解调这样的与无线通信关联的各种处理。而且,无线终端140从无线基站400接收下行链路的无线信号,另外,向无线基站400发送上行链路的无线信号。即,无线终端140根据从无线基站400接收到的下行链路的无线信号,取出从服务器200向车辆100传送的信号(例如,已学习模型等)并交给ECU150。另外,无线终端140生成包含从ECU150收取的要向服务器200发送的信号(例如,学习用的数据集、规格信息等)的上行链路的无线信号,并发送该无线信号。
ECU150是车辆的控制装置的一个实施方案,具有处理器152、存储器154以及通信接口156。处理器152具有一个或多个CPU(Central Processing Unit)及其外围电路。处理器152也可以还具有逻辑运算单元、数值运算单元或者图形处理单元这样的其他的运算电路。存储器154例如具有易失性的半导体存储器以及非易失性的半导体存储器。存储器154中存储有ECU150的规格信息、从服务器200提供的已学习模型等各种信息。通信接口156具有用于将ECU150连接于车内网络的接口电路。
环境信息取得传感器160是主要取得表示车辆100周围的环境的信息(以下,也称为环境信息)的传感器。环境信息取得传感器160包括外气温度传感器、检测车辆100外部的光照度的照度传感器、检测车辆100外部的降雨量的降雨传感器、LiDAR(Light Detectionand Ranging)等。环境信息取得传感器160将取得的环境信息经由车内网络向ECU150输出。
运转状态信息取得传感器170是取得与车辆100的运转状态相关的各种信息(以下,也称为运转状态信息)的传感器,包括检测加速踏板的开度的加速开度传感器、检测制动踏板的踩踏的传感器(制动液压传感器)、检测方向盘转向角的转向角传感器、检测车速的车速传感器、加速度传感器、陀螺仪传感器等。
另外,在车辆100以内燃机作为驱动源的情况下,运转状态信息取得传感器170也可以包括吸入空气量传感器(空气流量计)、用于检测吸入空气的压力和温度的压力传感器和温度传感器、排气(废气)温度传感器、用于检测排气的空燃比的空燃比传感器、用于检测排气中的碳氢化合物(HC)浓度的HC浓度传感器、用于检测排气中的一氧化碳(CO)浓度的CO浓度传感器、用于检测排气净化催化剂的温度的温度传感器、检测曲轴的旋转角的曲柄角传感器、检测内燃机的冷却水温的水温传感器等检测内燃机的运转状态的各种传感器。
另外,在车辆100以电动马达作为驱动源的情况下,运转状态信息取得传感器170也可以包括检测电动马达的电流值、电压值的传感器等检测电动马达的运转状态的各种传感器。再者,在电动马达利用燃料电池发出的电力驱动的情况下,运转状态信息取得传感器170也可以包括检测燃料电池的单元电压的电压传感器、检测阳极气体压力的压力传感器、检测阴极气体流量的传感器等检测燃料电池的运转状态的各种传感器。
图3是表示服务器200的构成的示意图。服务器200具有控制装置210以及储存(storage)装置220。
控制装置210具有处理器212、存储器214以及通信接口216。处理器212具有一个或多个CPU(Central Processing Unit)及其外围电路。处理器212也可以还具有逻辑运算单元、数值运算单元或者图形处理单元这样的其他的运算电路。存储器214例如具有易失性的半导体存储器以及非易失性的半导体存储器。通信接口216具有用于将控制装置210连接于服务器200内的网络或者通信网络300的接口电路。通信接口216构成为能够经由通信网络300以及无线基站400与车辆100进行通信。即,通信接口216将从车辆100经由无线基站400以及通信网络300接收到的学习用的数据集、规格信息等交给处理器212。另外,通信接口216将从处理器212收取的已学习模型经由通信网络300以及无线基站400向车辆100发送。
储存装置220例如具有硬盘装置或者光记录介质及其访问(access)装置。储存装置220存储服务器200通过使用学习用的数据集进行学习而获得的规模不同的多个已学习模型。另外,储存装置220根据需要存储从车辆100发送来的学习用的数据集。再者,如后所述,储存装置220存储地图信息,按地图信息上的每个区域相关联地存储已学习模型。此外,储存装置220也可以存储用于执行在处理器212上执行的处理的计算机程序。
图4是一同表示车辆100所具备的ECU150的处理器152的功能块以及服务器200所具备的控制装置210的处理器212的功能块的示意图。
ECU150的处理器152具有数据取得部152a、数据集制作部152b、规格信息取得部152c、车辆控制部152d、发送部152e以及接收部152f。处理器152具有的这些各部分例如是由在处理器152上工作的计算机程序所实现的功能模块。也即是说,处理器152具有的这些各部分由处理器152和用于使其发挥功能的程序(软件)构成。另外,该程序也可以记录于ECU150具备的存储器154或从外部连接的记录介质。或者,处理器152具有的这些各部分也可以是设置于处理器152的专用的运算电路。
处理器152的数据取得部152a取得车载摄像头110生成的图像、测位信息接收机120取得的测位信息、环境信息取得传感器160取得的环境信息、运转状态信息取得传感器170取得的运转状态信息等。
另外,数据取得部152a基于车载摄像头110生成的图像、环境信息或者运转状态信息,取得各种数据。例如,数据取得部152a通过对车载摄像头110按上述的拍摄周期生成的图像进行识别(包括基于机器学习的识别),取得车辆100行驶的路面的路面状况、车辆100周边的结构物、在车辆100周围行驶的其他车辆、或者气象状况等判定值。另外,数据取得部152a通过对LiDAR通过扫描获得的信息进行处理,取得表示存在于车辆100周围的物体的点云(点群)数据。另外,数据取得部152a例如通过基于曲柄角传感器的输出信号算出内燃机转速等对运转状态信息进行处理,取得各种数据。如此,数据取得部152a通过对图像、环境信息或者运转状态信息施以预定的处理,能够取得基于图像、环境信息或者运转状态信息的各种数据。
另外,数据取得部152a取得ECU150在控制车辆时使用的控制值(指令值)。在车辆100以内燃机作为驱动源的情况下,这些控制值例如也可以包括点火正时、燃料喷射量、燃料喷射正时、可变气门正时(VVT:Variable Valve Timing)、调整排气再循环装置(EGR:Exhaust Gas Recirculation)的气体流量的EGR阀的控制量等。另外,在车辆100以电动马达作为驱动源的情况下,这些控制值例如也可以包括电动马达的电流值、电压值等。另外,在由燃料电池发出的电力驱动电动马达的情况下,这些控制值也可以包括从燃料电池向电动马达供给的电流值、燃料电池单元的电压、阳极气体压力、阴极气体流量、压缩阴极气体的压缩机的转速、对设置于阳极气体或阴极气体的流路的各种阀进行控制的指示值等。另外,这些控制值也可以包括防抱死制动系统(ABS:Anti-lock Braking System)、车辆稳定控制系统(VSC:Vehicle Stability Control)、牵引力控制系统(TRC:Traction ControlSystem)等辅助驾驶员的驾驶的系统中的控制值。再者,这些控制值也可以包括表示车辆100的刮水器的动作状态的控制值、前照灯的指示信号的设定值(表示远光灯、近光灯中的任一方等的设定值)、用于控制车室内的空调装置的设定值(表示风量、设定温度、模式等的设定值)等与车辆控制间接相关的控制值。此外,以下,将这些在ECU150控制车辆100时所使用的控制值称为“ECU150的控制值”。
此外,数据取得部152a无需取得上述的所有信息,也可以根据数据集制作部152b要制作的学习用的数据集,限定地取得为了制作数据集所需的信息。
处理器152的数据集制作部152b通过将数据取得部152a取得的各种数据组合,制作提供给服务器200进行学习的学习用的数据集。
数据集制作部152b制作的数据集根据在服务器200侧学习的内容而不同。例如,在如前述的日本特开2019-183698那样预测排气净化催化剂的温度这种情况下,主要基于运转状态信息制作数据集。另外,例如在将车辆100行驶的道路周边的环境与车辆100的运转状态相关联地进行学习的情况下,也可以基于环境信息、运转状态信息以及ECU150的控制值制作数据集。另外,例如在将车载摄像头110生成的图像与车辆100的运转状态相关联地进行学习的情况下,也可以基于车载摄像头110生成的图像、运转状态信息以及ECU150的控制值制作数据集。此外,稍后对学习用的数据集的例子进行说明。
处理器152的规格信息取得部152c取得车辆100所具备的车载计算机的规格信息、即ECU150的规格信息。此外,ECU150的规格信息预先存储于ECU150的存储器154。规格信息例如是表示包括处理器152的时钟频率、核心(cores)数、存储器154的容量等ECU150的运算能力的信息。
处理器152的车辆控制部152d通过进行应用从服务器200发送来的已学习模型的处理,进行车辆100的控制。例如,车辆控制部152d通过将基于车载摄像头110的图像、环境信息、运转状态信息或者ECU150的控制值的各种数据作为输入值输入到已学习模型,从已学习模型取得输出值,并基于输出值进行车辆控制。
处理器152的发送部152e是运算能力信息发送部的一个实施方案,向服务器200发送规格信息取得部152c取得的规格信息。另外,发送部152e是学习用数据集发送部的一个实施方案,向服务器200发送数据集制作部152b制作的学习用的数据集。处理器152的接收部152f是已学习模型接收部的一个实施方案,从服务器200接收与ECU150的运算能力对应的规模的已学习模型。
服务器200所具备的控制装置210的处理器212具有模型规模决定部212a、学习部212b、发送部212c以及接收部212d。处理器212具有的这些各部分例如是由在处理器212上工作的计算机程序所实现的功能模块。也即是说,处理器212具有的这些各部分由处理器212和用于使其发挥功能的程序(软件)构成。另外,该程序也可以记录于控制装置210具备的存储器214、储存装置220或从外部连接的记录介质。或者,处理器212具有的这些各部分也可以是设置于处理器212的专用的运算电路。
处理器212的模型规模决定部212a基于从车辆100的ECU150发送来的规格信息,决定已学习模型的规模。例如,模型规模决定部212a基于预先规定了由规格信息表示的车辆100的ECU150的运算能力与已学习模型的规模的关系的映射,决定已学习模型的规模。
图5是表示预先规定了ECU150的运算能力与已学习模型的规模的关系的映射的一例的示意图。在图5中,将ECU150的运算能力和已学习模型的规模一起量化而表示,数值的值越大,ECU150的运算能力越高,另外,已学习模型的规模越大。在图5所示的映射中,以ECU150的运算能力越高则已学习模型的规模越大的方式预定规定有ECU150的运算能力与已学习模型的规模的关系。模型规模决定部212a通过将根据规格信息获得的ECU150的运算能力与图5的映射进行匹配,决定已学习模型的规模。
图6是表示用于模型规模决定部212a根据ECU150的规格信息求取运算能力的表的一例的示意图。如图6所示,基于处理器152的时钟频率、核心数和存储器154的容量,将ECU150的运算能力量化,时钟频率、核心数和存储器容量中的每一个越大,则运算能力的数值越大,运算能力越高。在图6所示的例子中,作为一例,运算能力是通过将时钟频率、核心数和存储器容量相乘所获得的值,即(运算能力)=(时钟频率)×(核心数)×(存储器容量)。在图6所示的4种ECU150的例子(ECU_A、ECU_B、ECU_C、ECU_D)中,时钟频率、核心数和存储器容量都最大的ECU_C的运算能力最高。此外,图6所示的时钟频率、核心数和存储器容量的数值为一例。
例如,在从某个车辆100发送来的规格信息与图6所示的ECU_A相当的情况下,模型规模决定部212a根据图6的表,判定为该车辆100的ECU150的运算能力是“72”。而且,模型规模决定部212a基于图5的映射,判定为与ECU150的运算能力相应的已学习模型的规模例如是“260”。因此,当被提供规模为“260”以下的已学习模型时,该车辆100能够进行应用已学习模型的车辆控制。此外,图5所示的ECU150的运算能力的数值、已学习模型的规模的数值以及它们的关系为一例,本实施方式并非限定于此。
此外,也可以代替图6所示那样的表,而基于规定了时钟频率、核心数和存储器容量等参数与运算能力的关系的映射或者函数,算出运算能力。另外,在图6中,表示了基于时钟频率、核心数和存储器容量求取ECU150的运算能力的例子,但例如也可以进一步加上通信接口156的可传输数据量等其他规格来求取ECU150的运算能力。
处理器212的学习部212b使用与模型规模决定部212a所决定的已学习模型的规模相应的神经网络,基于从车辆100发送来的学习用的数据集进行学习。图7是表示学习部212b基于学习用的数据集进行学习并制作已学习模型的神经网络的一例的示意图。此外,图7所示的神经网络与前述的日本特开2019-183698同样地构成,另外由于神经网络本身已经是公知的,因而在此对概要进行说明。图7中的圆形记号表示人工神经元,在神经网络中,该人工神经元通常被称为节点或单元(在此称为节点)。在图7中,L=1表示输入层,L=2和L=3表示隐藏层,L=4表示输出层。如图7所示,输入层(L=1)由5个节点形成,输入值x1、x2、x3、x4、x5被输入到输入层(L=1)的各节点。另一方面,虽然在图7中示意性地记载了具有6个节点的隐藏层(L=2)和隐藏层(L=3)这两层,但这些隐藏层的层数可以设为1层或者任意层数,另外存在于这些隐藏层的节点数也可以设为任意个数。在本实施方式中,根据模型规模决定部212a决定的已学习模型的规模,确定隐藏层的层数和隐藏层的节点数。z21、z22、z23、z24、z25和z26表示来自隐藏层(L=2)的各节点的输出值,z31、z32、z33、z34、z35和z36表示来自隐藏层(L=3)的各节点的输出值。此外,输出层(L=4)的节点数被设为1个,由y表示来自输出层的节点的输出值。
在输入层(L=1)的各节点,输入值x1、x2、x3、x4、x5原样输出。另一方面,输入层的各节点的输出值x1、x2、x3、x4、x5的值被输入到隐藏层(L=2)的各节点,在隐藏层(L=2)的各节点,使用各自对应的权重w和偏置b算出总输入值u2k=Σx*w+b(k=1~6)。
接下来,该总输入值u2k通过激活函数f转换,从隐藏层(L=2)的由z2k所表示的各节点作为输出值z2k(=f(u2k))输出。另一方面,隐藏层(L=2)的各节点的输出值z21、z22、z23、z24、z25和z26被输入到隐藏层(L=3)的各节点,在隐藏层(L=3)的各节点,使用各自对应的权重w和偏置b算出总输入值u3k=Σz*w+b(k=1~6)。该总输入值u3k同样通过激活函数转换,从隐藏层(L=3)的各节点作为输出值z31、z32、z33、z34、z35和z36而输出。作为激活函数,例如使用Sigmoid函数σ(x)=1/(1+exp(-x))、归一化线性函数(ReLU)S(u)=max(0,u)等。
另一方面,隐藏层(L=3)的各节点的输出值z31、z32、z33、z34、z35和z36被输入到输出层(L=4)的节点,在输出层的节点,使用各自对应的权重w和偏置b算出总输入值u4k=Σz*w+b,或者仅使用各自对应的权重w算出总输入值u4k=Σz*w。在本例中,在输出层的节点使用恒等函数,在输出层的节点算出的总输入值u4k原样作为输出值y从输出层的节点输出。此外,输出层的节点数也可以为2以上。
数据集制作部152b制作的一个数据集包含有输入值x1、x2、x3、x4、x5和针对输入值x1、x2、x3、x4、x5的教师数据yt。针对某个输入值求出教师数据yt,在相对于该输入值的来自输出层(L=4)的输出值为y的情况下,在使用均方误差作为误差函数的情况下,均方误差E通过E=(1/2)*(y-yt)2来求取。
学习部212b将从车辆100发送来的数据集中包含的输入值输入到神经网络,根据所得到的输出值y和数据集中包含的教师数据yt计算均方误差E。而且,学习部212b为了使根据多个学习用的数据集获得的均方误差E之和最小化,例如通过进行误差逆向传播法、随机梯度下降法等的运算来算出各节点的权重w和偏置b,从而制作已学习模型。此外,当在车辆100侧无法检测到教师数据的情况下,学习部212b也可以通过无教师学习或者强化学习制作已学习模型。
此时,学习部212b通过准备隐藏层的层数、存在于隐藏层的节点数不同的多个神经网络,并用每一个神经网络进行学习,能够制造规模不同的已学习模型。由此,即使学习用的多个数据集相同,也能得到不同规模的已学习模型。学习部212b制作出的已学习模型被发送给车辆100。另外,学习部212b制作出的已学习模型积存于储存装置220。此外,在图3中,表示了规模不同的多个已学习模型积存于储存装置220的样子。图3所示的已学习模型的规模的值为一例,本实施方式并非限定于此。
处理器212的发送部212c是已学习模型发送部的一个实施方案,将学习部212b制作的已学习模型发送给车辆100。具体而言,发送部212c发送已学习模型的神经网络的各节点的权重w和偏置b的值、神经网络的构成(层数、节点数等)等车辆100的ECU150在应用已学习模型进行车辆控制时所需的信息。此时,车辆100具备的ECU150的运算能力越高,发送部212c发送规模越大的已学习模型。
处理器212的接收部212d是学习用数据集接收部的一个实施方案,接收从车辆100的ECU150发送来的学习用的数据集。另外,接收部212d是运算能力信息接收部的一个实施方案,接收与车辆100的ECU150的运算能力有关的信息。
此外,在图4所示的构成中,ECU150的处理器152的数据取得部152a、数据集制作部152b进行的处理也可以由服务器200的控制装置210的处理器212进行。在该情况下,车载摄像头110生成的图像、测位信息接收机120取得的测位信息、环境信息取得传感器160取得的环境信息、运转状态信息取得传感器170取得的运转状态信息等原始数据发送到服务器200,在服务器200侧的控制装置210的处理器212中,进行数据取得部152a以及数据集制作部152b的处理。
接着,参照图8的时序图,说明车辆100所具备的ECU150和服务器200所具备的控制装置210进行的处理。在图8中,车辆所具备的ECU150按预定的控制周期进行车辆100侧的处理。另外,服务器200所具备的控制装置210按预定的控制周期进行服务器200侧的处理。
首先,在车辆100侧,处理器152的数据集制作部152b根据数据取得部152a取得的数据制作学习用的数据集(步骤S10)。接着,数据集制作部152b判定所制作的数据集是否积攒了预定量以上(步骤S11)。在步骤S11中数据集积攒了预定量以上的情况下,规格信息取得部152c取得规格信息,将规格信息与学习用的数据集进行合并而制作发送用数据(步骤S12)。另一方面,在步骤S11中数据集没有积攒到预定量以上的情况下,本控制周期内的处理结束。此外,发送用数据除了包含规格信息以及学习用的数据集之外,也可以还包含用于确定各个车辆100的车辆识别信息(车辆ID)、测位信息接收机120取得的测位信息等。特别是,在如后所述那样按车辆100行驶的每个区域制作已学习模型的情况下,优选在发送用数据中包含测位信息。接着,处理器152的发送部152e将发送用数据向服务器200发送(步骤S14)。
此外,在服务器200基于多个车辆100制作的学习用的数据集进行学习的情况下,由于也有其他车辆100向服务器200发送学习用的数据集,因此也可以不进行步骤S11的处理而制作发送用数据。另一方面,在服务器200仅基于特定的一个车辆100制作的学习用的数据集进行学习的情况下,由于服务器200为了进行学习,需要预定量以上的数据集,因此优选进行步骤S11的处理。
另外,在服务器200基于多个车辆100制作的学习用的数据集进行学习的情况下,服务器200可以基于从其他车辆100取得的学习用的数据集进行学习。因此,在该情况下,在步骤S12中制作的发送用数据也可以不包含学习用的数据集。
在服务器200侧,判定处理器212的接收部212d是否接收到从车辆100发送来的发送用数据(步骤S20),在接收到发送用数据的情况下,模型规模决定部212a基于从车辆100的ECU150发送来的规格信息,决定已学习模型的规模(步骤S21)。模型规模决定部212a将从车辆100侧接收到的发送用数据所包含的规格信息与图6的表或者规定了时钟频率、核心数、存储器容量等参数与运算能力的关系的映射或函数进行匹配,求取车辆100的ECU150的运算能力。此外,在车辆识别信息与ECU150的类别(例如,图6所示的ECU_A~D等类别)预先相关联且能够根据车辆识别信息判别ECU150的类别的情况下,模型规模决定部212a也可以通过将根据车辆识别信息获得的ECU150的类别与图6的表进行匹配,求取ECU150的运算能力。因此,车辆识别信息是与ECU150的运算能力有关的信息的一个实施方案。模型规模决定部212a将求出的ECU150的运算能力与图5的映射进行匹配,求取已学习模型的规模。另一方面,在步骤S20中没有接收到发送用数据的情况下,本控制周期内的处理结束。
在步骤S21之后,在步骤S22中,取得与在步骤S21中决定的规模相应的已学习模型(步骤S22)。更详细而言,在步骤S22中,处理器212的学习部212b通过使用学习用的数据集进行学习从而制作与ECU150的运算能力相应规模的已学习模型。或者,在步骤S22中,从已经制作好并存储于储存装置220的已学习模型中选择与ECU150的运算能力相应规模的已学习模型。
在学习部212b制作与ECU150的运算能力相应规模的已学习模型的情况下,学习部212b利用与在步骤S21中模型规模决定部212a所决定的已学习模型的规模相应的隐藏层的层数和节点数的神经网络,对数据集进行学习,制作已学习模型。由此,取得与ECU150的运算能力相应规模的已学习模型。
另外,在从存储于储存装置220的已学习模型中选择与ECU150的运算能力相应规模的已学习模型的情况下,从已经制作出的已学习模型中,选择与在步骤S21中模型规模决定部212a所决定的规模相应的已学习模型。此外,在如后所述那样按车辆100行驶的每个区域制作已学习模型的情况下,从已经制作出的已学习模型中选择与车辆100的位置信息对应的区域的已学习模型。
接着,处理器212的发送部212c将在步骤S22中取得的已学习模型向车辆100侧发送(步骤S24)。此外,在如后所述那样按车辆100行驶的每个区域制作已学习模型的情况下,发送部212c基于从车辆100接收到的测位信息,发送与车辆100当前行驶的区域对应的已学习模型。在步骤S24之后,服务器200侧的本控制周期内的处理结束。
在车辆100侧,判定处理器152的接收部152f是否接收到已学习模型(步骤S16),在接收到已学习模型的情况下,处理器152的车辆控制部152d应用已学习模型进行车辆控制(步骤S18)。在步骤S16中,没有接收到已学习模型的情况下,在步骤S16等待。在步骤S18之后,车辆100侧的本控制周期内的处理结束。
此外,当在步骤S16中处理器152的接收部152f接收到已学习模型时,将接收到的已学习模型存储于存储器154。此时,在存储器154已经存储有已学习模型的情况下,用新接收到的已学习模型来更新已经存储于存储器154的已学习模型。
在此,在本实施方式中,所谓已学习模型的更新,不仅包括将已学习模型的权重和偏置的数值更新,还包括将已经存储于存储器154的已学习模型的隐藏层的层数或者隐藏层中的节点数进行变更的概念。即,已学习模型的更新包括变更已学习模型自身结构的概念。换言之,服务器200能够将与已经存储于存储器154的已有的已学习模型的隐藏层的层数或者隐藏层中的节点数不同的已学习模型提供给车辆100。另外,服务器200能够无需将与已经存储于存储器154的已有的已学习模型的规模相同的规模的已学习模型提供给车辆100,而在不超过ECU150的运算能力的范围内,将与已有的已学习模型的规模不同的规模的已学习模型提供给车辆100。
此外,如上所述,在图8的处理中,步骤S10、步骤S11的处理也可以由服务器200的控制装置210进行。
接着,对已学习模型的规模根据车辆100的规格信息而不同的具体例子进行说明。在此,作为一例,对按车辆100行驶的每个区域制作已学习模型且已学习模型的规模根据区域的大小而不同的例子进行说明。图9是表示按车辆100行驶的每个区域制作出已学习模型的例子的示意图。在图9中,地图上的某个范围被划分为8个区域,按8个区域1~8制作出已学习模型1~8。
在图3所示的储存装置220中,可检索地存储有图9所示的地图信息。地图信息按图9所示的每个区域划分,并对每一个区域分别分配有已学习模型。这些区域的地图信息与所分配的已学习模型相互关联地存储于储存装置220。更具体而言,在地图信息中,将地图上的区域基于经度和纬度进行划分而设定每一个区域,按每一个区域制作已学习模型并进行关联。
与区域2对应的已学习模型通过使用基于在区域2行驶的车辆100收集到的数据所制作的数据集进行学习来制作。车辆100在将学习用的数据集发送给服务器200时,将表示制作出数据集的位置、即收集到包含于数据集的各种数据的位置的测位信息发送给服务器200。由此,控制装置210的处理器212的学习部212b基于测位信息所包含的位置信息,能够判别制作出数据集的位置属于区域2,因此通过使用与区域2对应的数据集进行学习,能够制作出与区域2对应的已学习模型。对于其他区域,也同样地,使服务器200通过使用与各区域对应的数据集进行学习,制作与各区域对应的已学习模型。像这样制作出的已学习模型与地图信息上的各区域相关联地存储于储存装置220。
处理器212的发送部212c基于车辆100的位置信息,将与各区域对应的已学习模型发送给在对应的区域内行驶的车辆100。例如,向在区域2内行驶的车辆100发送与区域2对应的已学习模型2,向在区域3内行驶的车辆100发送与区域3对应的已学习模型3。
根据如上所述的方法,通过从行驶于区域1~8的车辆100取得学习用的数据集,服务器200能够制作分别与各区域1~8对应的已学习模型1~8。另外,服务器200能够对在各区域1~8行驶的车辆100的每一个提供与车辆100行驶的区域对应的已学习模型。
在图9中,粗线箭头表示任意的车辆100的行驶路径。车辆100按区域2→区域3→区域7→区域8的顺序行驶。车辆100在从区域2向区域3移动的情况下,在各个区域从服务器200依次接收到已学习模型2和已学习模型3,依次将存储于存储器154的已学习模型更新。
车辆100在区域2内移动期间,适用于车辆控制的已学习模型是已学习模型2。已学习模型2存储于存储器154,使用已学习模型2执行车辆控制。之后,当车辆100从区域2移动到区域3时,服务器200基于车辆100的当前位置在区域3内这一位置信息,从储存装置220中提取与区域3对应的已学习模型3并发送给车辆100。在车辆100中,从服务器200接收已学习模型3,将存储器154内的已学习模型更新。车辆100在区域3内行驶期间,使用已学习模型3执行车辆控制。之后,在车辆100从区域3向区域7进行了移动的情况下和在车辆100从区域7向区域8进行了移动的情况下也是同样的。
如图9所示,道路的密集度、交叉路口的数量、道路宽度等各种要素具有地域依赖性,按区域而不同。另外,道路的曲率、坡度、其他车的交通量等要素也具有地域依赖性,按区域而不同。在各区域行驶的车辆100由于能够取得与行驶的当前位置对应的区域的已学习模型,因此通过应用与当前位置对应的已学习模型进行车辆控制,能够进行与每个区域的要素相适的最优的车辆控制。
如上所述,已学习模型的规模越大,则越成为更高精度地表现出现实状态的模型,因此越适合于更高度精密的车辆控制。在已学习模型按区域而不同的情况下,也由于规模越大的已学习模型则越成为更准确地表现出区域内的现实状态的模型,因此优选应用规模更大的已学习模型进行车辆控制。另一方面,若将规模大的已学习模型提供给所有的车辆100,虽然具备运算能力高的ECU150的车辆100能够应用规模大的已学习模型进行车辆控制,但是具备运算能力比较低的ECU150的车辆100则无法进行应用规模大的已学习模型的车辆控制。
因此,控制装置210的处理器212的学习部212b按车辆100行驶的每个区域制作已学习模型,区域越大,则制作规模越大的已学习模型。处理器212的发送部212c基于车辆100的位置信息,按车辆100当前行驶的区域发送对应的已学习模型。另外,ECU150的接收部152f按车辆100行驶的每个区域,接收与车辆100当前行驶的区域对应的已学习模型,区域越大,则接收规模越大的已学习模型。
若区域的大小变小,则已学习模型输出的信息量根据区域的大小而减少即可,因此,即使减小已学习模型的规模,也能抑制应用已学习模型的车辆控制的精度降低。因此,通过制作与更窄小的区域对应的规模小的已学习模型并提供给车辆100,则即使是具备运算能力比较低的ECU150的车辆100也能够进行应用已学习模型的所期望的车辆控制。此外,区域越小,越能够以更少数量的学习用的数据集制作已学习模型。
图10表示了将与图9相同的地图上的范围划分为32个区域11~42的例子。在图10的例子中,也与图9同样地,制作与各区域11~42对应的已学习模型11~42。如图10所示,当增加区域的划分数量而使与一个已学习模型对应的区域变小时,与图9相比,能够使每个区域与规模更小的已学习模型对应。
在本实施方式中,基于车辆100的规格信息,从服务器200向车辆100发送与ECU150的运算能力相应规模的已学习模型,因此,针对ECU150的运算能力比较低的车辆100,发送如图10所示那样的与比较窄小的区域对应的规模小的已学习模型。被发送了规模小的已学习模型的车辆100每次切换行驶区域时都从服务器200收取与新的区域对应的已学习模型,并进行应用与新的区域对应的已学习模型的车辆控制。区域的大小变得越小,则行驶的区域切换的频率越高,因此,控制装置210的处理器212的发送部212c以比具备运算能力高的ECU150的车辆100高的发送频率向具有运算能力低的ECU150的车辆100发送已学习模型。另外,ECU150的运算能力越低,ECU150的处理器152的接收部152f就以越高的接收频率接收已学习模型。
由此,具备运算能力比较低的ECU150的车辆100即使在使用规模小的已学习模型的情况下,通过提高已学习模型的更新频率,也能抑制已学习模型输出的信息的精度降低,因此能够进行应用已学习模型的所期望的车辆控制。另外,在该情况下,通过向车辆100发送规模小的已学习模型,能抑制发送已学习模型时的通信量。
另外,针对ECU150的运算能力比较高的车辆100,发送如图9所示那样的与比较宽广的区域对应的规模大的已学习模型。被发送了规模大的已学习模型的车辆100每次切换行驶区域时都收取与新的区域对应的已学习模型,并进行应用与新的区域对应的已学习模型的车辆控制。此时,由于已学习模型与比较宽广的区域对应,因此行驶的区域的切换不会频繁发生。因此,ECU150的运算能力比较高的车辆100能够降低已学习模型的更新频率而进行车辆控制。
根据以上,即使是ECU150的运算能力低的车辆100,通过每次在行驶中切换区域时就从服务器200收取规模小的已学习模型,并一边切换已学习模型一边进行处理,从而也能够最大限度地利用ECU150的运算能力,进行应用已学习模型的所期望的车辆控制。
另外,在ECU150的运算能力高的车辆100中,通过应用与宽广的区域对应的规模大的已学习模型,能够进行高精度的车辆控制。另外,在ECU150的运算能力高的车辆100中,已学习模型的更新频率降低,用于更新已学习模型的处理减轻。
接着,对学习用的数据集以及已学习模型的例子进行说明。如上所述,车辆100的处理器152的数据集制作部152b通过将数据取得部152a取得的各种数据组合,制作提供给服务器200进行学习的学习用的数据集。数据集制作部152b制作的学习用的数据集根据在服务器200侧学习的内容而不同。
作为已学习模型的一例,列举一种输入值为点火正时、燃料的喷射量、喷射正时、节气门开度、可变气门正时、调整排气再循环装置的气体流量的EGR阀的控制量、车辆100的位置信息和天气信息、且输出值y为“NOx的排出量”的已学习模型。在该情况下,学习用的数据集由燃料的喷射量、喷射正时、节气门开度、可变气门正时、调整排气再循环装置的气体流量的EGR阀的控制量、车辆100的位置信息和天气信息、与作为教师数据yt的NOx的排出量构成。车辆100的ECU150通过进行应用该已学习模型的处理,能够基于时刻变化的输入值,算出作为输出值的NOx的排出量。特别是,由于输入值包含有车辆100的位置信息、天气信息,因此ECU150能够算出基于车辆100行驶的位置和天气的NOx的排出量。因此,能高精度地实现基于NOx的排出量的车辆控制。
另外,如在图9中所说明的,在按车辆100行驶的每个区域制作出已学习模型的情况下,向车辆100提供与车辆100行驶的位置对应的区域的已学习模型。由此,车辆100的ECU150应用专用于与车辆100行驶的位置对应的区域的已学习模型进行处理,因此,能够更准确地算出NOx的排出量,能更高精度地实现基于NOx的排出量的车辆控制。
另外,作为已学习模型的另一例,列举一种输入值为在车辆100行驶于某一移动路径时车载摄像头110生成的图像或者LiDAR通过扫描而得到的表示存在于车辆100周围的物体的点云数据、且输出值为生成该图像或者点云数据时的车辆100的运转状态或者ECU150的控制值的已学习模型。此外,此处的运转状态例如包括方向盘的转向角、加速开度、制动液压等操作状态。在该情况下,学习用的数据集由图像、点云数据与作为教师数据yt的运转状态或者ECU150的控制值构成。根据该已学习模型,学习在图像或者点云数据所表示的车辆100周围的状况为怎样的状况时要对车辆100进行怎样的操作、进行怎样的控制。因此,基于作为输入值的图像或者点云数据,算出对于车辆100的操作量或者ECU150的控制值作为输出值,因而特别是对于进行自动驾驶的车辆100,能够使其进行基于由车载摄像头110生成的图像、LiDAR通过扫描而得到的点云数据的自动驾驶。
另外,如在图9中所说明的,在按车辆100行驶的每个区域制作出已学习模型的情况下,向车辆100提供与车辆100行驶的位置对应的区域的已学习模型。由此,车辆100的ECU150应用专用于与车辆100行驶的位置对应的区域的已学习模型进行处理,因此,能够基于作为输入值的图像,更准确地算出对于车辆100的操作量或者ECU150的控制值,因而能更高精度地实现基于操作量或者ECU150的控制值的车辆控制。
此外,在本实施方式中,表示了服务器200进行基于神经网络的机器学习的例子,但本实施方式并非限定于此。机器学习中的有教师的学习不仅有神经网络,还有随即森林、支持向量机、k近邻法等各种方法。这些模型不过是在由特征向量生成的特征空间内架设边界线,高效地求取决定边界的算法这一点上是共通的。即只要可以用神经网络推定,则在其他有教师的学习的模型中也能够进行机器学习。
如上所述,根据本实施方式,从服务器200向车辆100提供与车辆100的ECU150的运算能力相应规模的已学习模型。因此,能抑制由于ECU150的运算能力不足而导致在车辆100侧无法利用已学习模型的情况。

Claims (3)

1.一种服务器,其特征在于,
具备处理器,所述处理器构成为,
从车辆接收数据集;
通过使用所述数据集进行机器学习,制作规模不同的多个已学习模型;
从车辆接收与应用所述已学习模型控制车辆的电子控制装置的运算能力有关的信息;以及
向车辆发送所述已学习模型,
所述处理器构成为,相比于具备所述运算能力低的所述电子控制装置的车辆,向具备所述运算能力高的所述电子控制装置的车辆发送规模较大的所述已学习模型,
所述处理器构成为,
按车辆行驶的每个区域制作所述已学习模型,所述区域越大,则制作规模越大的所述已学习模型;以及
基于车辆的位置信息,发送与车辆当前行驶的所述区域对应的所述已学习模型,
所述处理器构成为,相比于具备所述运算能力高的所述电子控制装置的车辆,以较高的发送频率向具备所述运算能力低的所述电子控制装置的车辆发送所述已学习模型。
2.根据权利要求1所述的服务器,其特征在于,
所述处理器构成为,进行基于神经网络的所述机器学习。
3.根据权利要求2所述的服务器,其特征在于,
隐藏层的层数或者存在于所述隐藏层的节点数越多,则所述已学习模型的规模越大。
CN202110896853.8A 2020-08-07 2021-08-05 服务器、车辆的控制装置以及车辆的机器学习系统 Active CN114063597B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020-134806 2020-08-07
JP2020134806A JP7074166B2 (ja) 2020-08-07 2020-08-07 サーバ、車両の制御装置、および車両の機械学習システム

Publications (2)

Publication Number Publication Date
CN114063597A CN114063597A (zh) 2022-02-18
CN114063597B true CN114063597B (zh) 2024-05-24

Family

ID=79686501

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202110896853.8A Active CN114063597B (zh) 2020-08-07 2021-08-05 服务器、车辆的控制装置以及车辆的机器学习系统

Country Status (4)

Country Link
US (1) US20220044497A1 (zh)
JP (1) JP7074166B2 (zh)
CN (1) CN114063597B (zh)
DE (1) DE102021120257A1 (zh)

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248870A (ja) * 2010-04-27 2011-12-08 Denso Corp 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法
RU2013133304A (ru) * 2013-07-18 2015-02-10 Федеральное государственное бюджетное учреждение науки Институт конструкторско-технологической информатики Российской академии наук (ИКТИ РАН) Способ и устройство технической диагностики сложного технологического оборудования на основе нейронных сетей
CN105549597A (zh) * 2016-02-04 2016-05-04 同济大学 一种基于环境不确定性的无人车动态路径规划方法
JP2017192277A (ja) * 2016-04-17 2017-10-19 新電元工業株式会社 電力変換装置の診断方法
WO2018173121A1 (ja) * 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
CN109284661A (zh) * 2017-07-21 2019-01-29 松下电器(美国)知识产权公司 学习数据生成装置、学习数据生成方法和程序
CN110033056A (zh) * 2017-11-14 2019-07-19 丰田自动车株式会社 服务器设备以及车载设备
JP2020067911A (ja) * 2018-10-25 2020-04-30 トヨタ自動車株式会社 制御支援装置、車両、および制御支援システム
CN111120122A (zh) * 2018-10-30 2020-05-08 丰田自动车株式会社 控制装置
CN111476345A (zh) * 2019-01-23 2020-07-31 丰田自动车株式会社 机器学习装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5477231B2 (ja) * 2010-08-30 2014-04-23 株式会社デンソー 車載機および情報センタを含む通信システム、および情報センタ
JP6044556B2 (ja) * 2014-01-16 2016-12-14 株式会社デンソー 学習システム、車載装置、及び、サーバ
JP7346401B2 (ja) * 2017-11-10 2023-09-19 エヌビディア コーポレーション 安全で信頼できる自動運転車両のためのシステム及び方法
JP6477951B1 (ja) 2018-04-05 2019-03-06 トヨタ自動車株式会社 車載電子制御ユニット
KR20200093093A (ko) * 2019-01-08 2020-08-05 삼성전자주식회사 분산 추론 시스템 및 이의 동작 방법

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011248870A (ja) * 2010-04-27 2011-12-08 Denso Corp 死角領域検出装置、死角領域検出プログラム、および死角領域検出方法
RU2013133304A (ru) * 2013-07-18 2015-02-10 Федеральное государственное бюджетное учреждение науки Институт конструкторско-технологической информатики Российской академии наук (ИКТИ РАН) Способ и устройство технической диагностики сложного технологического оборудования на основе нейронных сетей
CN105549597A (zh) * 2016-02-04 2016-05-04 同济大学 一种基于环境不确定性的无人车动态路径规划方法
JP2017192277A (ja) * 2016-04-17 2017-10-19 新電元工業株式会社 電力変換装置の診断方法
WO2018173121A1 (ja) * 2017-03-21 2018-09-27 株式会社Preferred Networks サーバ装置、学習済モデル提供プログラム、学習済モデル提供方法及び学習済モデル提供システム
CN109284661A (zh) * 2017-07-21 2019-01-29 松下电器(美国)知识产权公司 学习数据生成装置、学习数据生成方法和程序
CN110033056A (zh) * 2017-11-14 2019-07-19 丰田自动车株式会社 服务器设备以及车载设备
JP2020067911A (ja) * 2018-10-25 2020-04-30 トヨタ自動車株式会社 制御支援装置、車両、および制御支援システム
CN111102043A (zh) * 2018-10-25 2020-05-05 丰田自动车株式会社 控制支援装置及方法、车辆、记录介质、用于使计算机发挥功能的已学习模型及生成方法
CN111120122A (zh) * 2018-10-30 2020-05-08 丰田自动车株式会社 控制装置
CN111476345A (zh) * 2019-01-23 2020-07-31 丰田自动车株式会社 机器学习装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
基于渐进式神经网络的机器人控制策略迁移;隋洪建;尚伟伟;李想;丛爽;;中国科学技术大学学报;20191015(10);全文 *
未知环境中自主机器人环境探索与地图构建;王东署;王海涛;;郑州大学学报(理学版);20131215(04);全文 *
隋洪建 ; 尚伟伟 ; 李想 ; 丛爽 ; .基于渐进式神经网络的机器人控制策略迁移.中国科学技术大学学报.2019,(10),全文. *

Also Published As

Publication number Publication date
CN114063597A (zh) 2022-02-18
JP7074166B2 (ja) 2022-05-24
JP2022030663A (ja) 2022-02-18
DE102021120257A1 (de) 2022-02-10
US20220044497A1 (en) 2022-02-10

Similar Documents

Publication Publication Date Title
CN110543814B (zh) 一种交通灯的识别方法及装置
CN110850854A (zh) 自动驾驶员代理和为自动驾驶员代理提供策略的策略服务器
CN111497853B (zh) 用于传感器诊断的系统和方法
EP4012679A1 (en) Monitoring system, apparatus of a vehicle, apparatus of a roadside unit, traffic infrastructure system, and methods thereof
CN115187952A (zh) 一种车道线检测方法、装置、电子设备及存储介质
CN115220449B (zh) 路径规划的方法、装置、存储介质、芯片及车辆
CN110544389A (zh) 一种自动驾驶管控方法、装置及系统
US11055624B1 (en) Probabilistic heat maps for behavior prediction
CN116626670B (zh) 自动驾驶模型的生成方法、装置、车辆及存储介质
CN114139715A (zh) 学习装置及模型学习系统
CN114063597B (zh) 服务器、车辆的控制装置以及车辆的机器学习系统
CN111837163B (zh) 用于车辆车轮检测的系统和方法
CN115056784B (zh) 车辆控制方法、装置、车辆、存储介质及芯片
CN114842440B (zh) 自动驾驶环境感知方法、装置、车辆及可读存储介质
CN115221151B (zh) 车辆数据的传输方法、装置、车辆、存储介质及芯片
US20220114458A1 (en) Multimodal automatic mapping of sensing defects to task-specific error measurement
CN115205848A (zh) 目标检测方法、装置、车辆、存储介质及芯片
US20220261617A1 (en) Apparatus, system and method for translating sensor data
JP2023030540A (ja) 機械学習装置
CN116648390A (zh) 具有机器学习控制器的车辆传动系统
US10876843B2 (en) Method, device and system for wrong-way driver detection
CN116331225B (zh) 车辆驾驶状态确定方法、装置、车辆及存储介质
CN117633519B (zh) 变道检测方法、装置、电子设备及存储介质
US20220261658A1 (en) Apparatus, system and method for translating sensor label data between sensor domains
US20230111630A1 (en) Information processing apparatus, method, and storage medium

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant