CN112534446A - 电子控制装置、神经网络更新系统 - Google Patents
电子控制装置、神经网络更新系统 Download PDFInfo
- Publication number
- CN112534446A CN112534446A CN201980050165.0A CN201980050165A CN112534446A CN 112534446 A CN112534446 A CN 112534446A CN 201980050165 A CN201980050165 A CN 201980050165A CN 112534446 A CN112534446 A CN 112534446A
- Authority
- CN
- China
- Prior art keywords
- neural network
- information group
- information
- group
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000013528 artificial neural network Methods 0.000 title claims abstract description 103
- 210000002569 neuron Anatomy 0.000 claims abstract description 30
- 238000011156 evaluation Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 14
- 238000012545 processing Methods 0.000 description 42
- 238000000034 method Methods 0.000 description 37
- 238000012986 modification Methods 0.000 description 28
- 230000004048 modification Effects 0.000 description 28
- 230000008569 process Effects 0.000 description 24
- 230000009467 reduction Effects 0.000 description 21
- 238000010586 diagram Methods 0.000 description 17
- 238000012937 correction Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 238000007726 management method Methods 0.000 description 12
- 230000004913 activation Effects 0.000 description 8
- 238000001514 detection method Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 239000004065 semiconductor Substances 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 238000013135 deep learning Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 238000003062 neural network model Methods 0.000 description 2
- 230000000644 propagated effect Effects 0.000 description 2
- 230000002787 reinforcement Effects 0.000 description 2
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000002457 bidirectional effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000006403 short-term memory Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B13/00—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
- G05B13/02—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
- G05B13/0265—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
- G05B13/027—Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks only
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/0088—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0212—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory
- G05D1/0221—Control of position or course in two dimensions specially adapted to land vehicles with means for defining a desired trajectory involving a learning process
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/082—Learning methods modifying the architecture, e.g. adding, deleting or silencing nodes or connections
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- General Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Software Systems (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Mathematical Physics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Automation & Control Theory (AREA)
- Medical Informatics (AREA)
- Aviation & Aerospace Engineering (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Business, Economics & Management (AREA)
- Game Theory and Decision Science (AREA)
- Traffic Control Systems (AREA)
- Feedback Control In General (AREA)
- Combined Controls Of Internal Combustion Engines (AREA)
Abstract
本发明提供一种电子控制装置、神经网络更新系统。电子控制装置是存储神经网络的电子控制装置,该神经网络包含多个神经元和包含多个将神经元彼此关联的结合信息的结合信息组,其中,神经网络是包含第三结合信息组的神经网络,该第三结合信息组是基于在被赋予了输入值时用于决定输出值的第一结合信息组和针对作为输入值被赋予的预定数据的影响度超过预定值的多个结合信息即第二结合信息组,由间隔剔除部从第一结合信息组中删除至少1个结合信息而生成的。
Description
技术领域
本发明涉及电子控制装置以及神经网络更新系统。
背景技术
近年来,自动驾驶系统的开发正在活跃化。在自动驾驶系统中,为了在复杂的行驶环境中行驶,对基于来自照相机、激光雷达、毫米波雷达等各种传感器的信息的本车辆周边环境进行感测的“识别”、推断由传感器检测出的本车辆周边的物体今后如何行动的“认知”、基于识别和认知的结果来计划今后的本车辆的行动的“判断”等这种功能的高级化成为必要。因此,对于这些功能,通过导入神经网络、深度学习等AI(ArtificialIntelligence)模型而期待进一步的高级化。在车辆用的电子控制装置(ECU:ElectronicControl Unit)中,在以能够在车辆行驶控制中使用的处理周期实时执行神经网络的运算处理的情况下,不仅使用CPU,还大多追加使用FPGA(Field–Programmable Gate Array:现场可编程门阵列)、ASIC(Application Specific Integrated Circuit:专用集成电路)、GPU(Graphics Processing Unit:图形处理单元)等硬件设备,ECU的消耗电力的增大成为课题。因此,需要减少神经网络的运算量,降低神经网络执行时的消耗电力。在专利文献1中公开了一种图像识别装置,其特征在于,具有:识别控制部,其控制第一识别处理和第二识别处理,第一识别处理在第一多层中进行将基于所输入的图像的神经元数据和参数分别计算出的卷积量分别保持于各第一存储区域的处理和将对保持于所述各第一存储区域中的所述卷积量分别进行了间隔剔除处理的间隔剔除后的卷积量分别保持于各第二存储区域的处理,第二识别处理在第二多层中进行将保持于第三存储器区域中的权重分别与保持于所述第二存储区域中的所述间隔剔除后的所有卷积量进行了积算后得到的输出结果分别保持于各第四存储区域的处理;存储量计算部,其针对所述第一多层和所述第二多层所包含的各层,分别计算各神经元数据的大小即神经元数据大小和各参数的大小即参数大小;以及学习控制部,其控制第所述第二多层中的第一学习处理和所述第一多层中的第二学习处理,所述第二多层中的第一学习处理将基于保持于所述第四存储区域的所述输出结果计算出的所述输出结果的误差的梯度保持于第五存储区域,并且基于所述存储量计算部计算出的所述第二多层所包含的各层的神经元数据大小与参数大小的大小关系,将基于保持于所述第五存储区域的所述输出结果的误差的梯度或保持于所述第二多层中的前层的第六存储区域的误差的梯度计算出的所述第二多层中的下一层的误差的梯度保持于各第六存储区域之后,将所述第二多层中的向下一层的参数的误差的梯度分别保持于所述各第三存储区域,所述第一多层中的第二学习处理基于所述存储量计算部计算出的所述第一多层所包含的各层的神经元数据大小与参数大小的大小关系,将基于保持于所述第二多层的最终层的第六存储区域或所述第一多层中的前层的第七存储区域的误差的梯度计算出的向下一层的参数的误差的梯度保持于各第七存储区域之后,将所述第一多层中的向下一层的误差的梯度分别保持于所述各第二存储区域。
现有技术文献
专利文献
专利文献1:日本特开2018-18350号公报
发明内容
发明所要解决的课题
在专利文献1所记载的发明中,有时在删除了权重系数的情况下针对要求高精度的推论的数据的推论精度比删除权重系数前降低。
用于解决课题的手段
本发明的第一方式的电子控制装置是存储神经网络的电子控制装置,该神经网络包含多个神经元和包含多个将所述神经元彼此相关联的结合信息的结合信息组,所述神经网络是包含第三结合信息组的神经网络,该第三结合信息组基于用于在被赋予了输入值时决定输出值的第一所述结合信息组和针对作为所述输入值被赋予的预定数据的影响度超过预定值的多个所述结合信息即第二结合信息组,由间隔剔除部从所述第一结合信息组中删除至少1个结合信息而生成。
本发明的第二方式的神经网络更新系统具备服务器以及电子控制装置,更新神经网络,该神经网络包含多个神经元和包含多个将所述神经元彼此相关联的结合信息的结合信息组,所述服务器具备存储部和运算部,所述存储部存储用于在被赋予了输入值时决定输出值的第一所述结合信息组,所述运算部具备:系数确定部,其在预定的数据被提供为所述输入值时,确定针对所述预定的数据的影响度超过预定值的多个所述结合信息即第二结合信息组;以及间隔剔除部,其基于所述第一结合信息组和所述第二结合信息,从所述第一结合信息组中删除至少1个结合信息来生成第三结合信息组,所述电子控制装置存储包含所述第三结合信息组的神经网络。
发明效果
根据本发明,能够限定性地控制针对要求高精度的推论的数据的推论精度的降低并降低神经网络的运算量。
附图说明
图1是AI模型的结构的一例。
图2是第一实施方式中的神经网络更新系统2的结构图。
图3表示数据集管理表30的一例。
图4是表示服务器21进行的神经网络的简化处理的流程图
图5是表示图4中的S402的详细的流程图。
图6表示变形例1中的数据集管理表31的一例。
图7表示变形例4中的图3所示的步骤S402的详细。
图8表示变形例4中的步骤S602的处理的一例。
图9表示变形例5中的图3所示的步骤S402的详细。
图10表示图9所示的处理的一例。
图11表示变形例6中的图3所示的步骤S402的详细。
图12表示步骤S902的处理的一例。
图13是变形例6中的系统结构图。
图14是第二实施方式中的神经网络更新系统2的结构图。
图15表示简化率修正表204的一例。
具体实施方式
以下,参照附图对本发明的实施方式进行说明。另外,在以下所示的各实施方式中,对于相同的结构要素或相同的处理内容等,记载相同的编号并简化其说明。在各实施方式中,在关于具备使用了人工智能处理的AI模型的电子控制装置、服务器、整体系统的说明中,作为AI模型的一例,使用神经网络进行说明。但是,AI模型也可以是与机器学习、深度学习以及强化学习相关的模型。即,对于通过近似或间隔剔除处理能够最优化的各种AI模型,能够适用以下说明的各实施方式。另外,在以下说明的实施方式中,模型的最优化以间隔剔除权重系数和神经元的方法为例进行说明,将该处理记载为“神经网络的简化”。另外,以下有时也将“神经网络”记载为“NN”。
第一实施方式
以下,参照图1至图5对神经网络更新系统的第一实施方式进行说明。在第一实施方式中,确定与要求高精度的推论的数据(以下,也称为“重要数据”)深度关联的神经网络的结合信息,使用该信息进行结合信息的间隔剔除。另外,间隔剔除处理考虑将结合信息本身删除的方法和将值变更为0的方法。
图1是表示AI模型的结构的一例的图。如图1所示,神经网络模型1包含输入层10、中间层11以及输出层12,各层分别具有I个、J个、K个运算单元100。如图1的符号101、符号102所示,各个运算单元100基于运算单元100间的结合信息而连接。当对输入层10输入信息时,加入结合信息而在中间层11内传播,最终从输出层12输出与预测结果相当的信息。在本实施方式中将与运算单元100间的连接相关的结合信息称为“网络结构信息”。运算单元100相当于所述的“神经元”。
结合信息由结合系数和偏置构成,在进行将该结合系数作为系数的运算的同时,信息从输入层10传播到输出层12。在本实施方式中,将AI模型的运算中使用的结合系数称为“权重系数”。另外,在本实施方式中,为了简化说明而将偏置排除,设结合信息仅由权重系数构成来进行说明。即,在本实施方式中,结合信息和权重系数相同。但是,在结合信息中包含偏置的结构也包含在本发明中。
另外,在本实施方式中,为了识别个别的权重系数,方便地对各权重系数赋予ID。另外,将权重系数的值称为“权重系数值”或“权重系数的值”。即,以下表现为“ID为11的权重系数的权重系数值为xx”。运算的内容根据结合信息所包含的层的种类来确定。结合信息中包含的层例如是卷积层、批量归一化、激活函数、池化层、全结合层、LSTM(Long ShortTerm Memory:长短期记忆)层等。
另外,运算单元100的数量、构成中间层11的层的数量与实施方式无关,因此设为任意的值。另外,AI模型的结构也没有特别的限定,例如也可以对运算单元100间的结合具有递归性、双向性。并且,对于监督、无监督的任一机器学习模型以及强化学习模型等任意的AI模型都能够适用本实施方式。这是因为不会对针对要求高精度的推论的优先级高的数据的推论精度造成影响而能够间隔剔除AI模型的权重系数和运算单元来简化AI模型。但是,将权重系数的权重系数值变更为零的情况也包含在间隔剔除权重系数的情况中。
图2是第一实施方式中的神经网络更新系统2的结构图。神经网络更新系统2由存储部20、服务器21以及电子控制装置22构成。如图2所示,服务器21和电子控制装置22经由网络23连接。此外,在图2中,存储部20与服务器21直接连接,但存储部20也可以经由网络23与服务器21连接。
在本实施方式中,由服务器21进行神经网络的简化,电子控制装置22从服务器下载并更新该被简化后的神经网络。由此,在自动驾驶等应用中,执行使用了神经网络的运算处理。但是,本实施方式并不限定于这样的结构。即,也可以构成为在不经由服务器21而成为关闭具备电子控制装置22的车辆并进行神经网络的追加学习和更新的架构的情况下等,将所述功能的全部或一部分搭载于电子控制装置22。
存储部20是非易失性的存储区域,例如闪存。在存储部20中,在神经网络的学习、生成以及简化处理中,存储服务器21使用的神经网络信息、数据集。具体而言,在存储部20中包含简化前神经网络200、简化后神经网络201、重要数据202以及通常数据203。
简化前神经网络200是指适用简化之前的神经网络的信息,由第一结合信息组2000和网络结构信息2001构成。第一结合信息组2000是简化适用前的神经网络的权重系数的权重系数值。网络结构信息2001是简化适用前的神经网络的网络结构信息。简化前NN200例如是图1所示的神经网络模型1的整体。第一结合信息组2000例如是从图1所示的NN模型1提取出的所有权重系数的权重系数值。另外,网络结构信息2001例如是从NN模型1除去所有的权重系数的权重系数值后的信息。
简化后神经网络201是适用了简化后的神经网络的信息,由第三结合信息组2010和网络结构信息2011构成。第三结合信息组2010是指简化适用后的神经网络的权重系数的权重系数值。网络结构信息2011是指简化适用前的神经网络的网络结构信息。此外,在简化适用前后神经网络的网络结构信息没有差异的情况下,网络结构信息2001和网络结构信息2011相同。
重要数据202以及通常数据203是预先生成的数据组,用于神经网络的构建、推论的测试。重要数据202以及通常数据203所包含的各个数据例如是行驶中的车辆收集到的传感器输出、与在前方行驶的车辆的相对距离、以及行驶在前方的车辆是否在同一车道行驶的信息的组合。
重要数据202是要求高精度的推论的数据,例如是与车辆行驶控制直接关联并想要尽可能降低推论错误的数据组。重要数据202例如是相对距离近、且在同一车道上行驶的情况下的数据。通常数据203是重要数据202以外的与车辆行驶控制没有直接关系的数据组。通常数据203例如是相对距离非常远的数据、在不同的车道上行驶的情况下的数据。某个数据被分类为重要数据202以及通常数据203中的哪一个,可以参照接下来说明的数据集管理表30由服务器21通过运算处理来决定,也可以由服务器21的操作员根据预先决定的规则来决定。
图3是表示数据集管理表30的一例的图。数据集管理表30由多个记录构成,各记录由数据类别名300、优先级判定条件301、优先级302、操作系数303构成。数据类别名300是为了识别数据而方便设置的名称。因此,只要能够识别数据类别名300,则可以是任意的字符串。优先级判定条件301是用于判断优先级的条件,换言之,是表示对该记录的符合性的条件。
优先级302数值越大优先级越高、即表示要求更高精度的推论。各个数据也可以根据该优先级的值而被分类为重要数据202或者通常数据203。操作系数303是在简化时使用的信息,例如用于决定成为间隔剔除的对象的权重系数、即成为间隔剔除的对象的权重系数的ID。
优先级判定条件301由相对距离3010和前行车标志3011构成。相对距离3010是表示本车与物体之间的相对距离的信息,相对距离的值越小,则优先级302的值越大,即存在判定为本数据的优先级高的倾向。前行车标志3011是表示对象物体从本车辆观察是否相当于同一行驶车道上的前行车的标志信息。
在前行车标志3011为“真(TRUE)”的情况下,存在优先级的值变大的倾向。在图3的第一行所示的例子中,在前行车标志3011为开且相对距离3010为30米以内的情况下,判断为物体检测用数据1,优先级302被设定为3,操作系数被设定为2。另外,在图3的最终行所示的例子中,在先行车标志3011为“假(FALSE)”的情况下,相对距离3010在500米以内全部被判断为物体检测用数据4,优先级302被设定为1,操作系数被设定为1。
返回图2的说明。服务器21具备运算部210、程序存储部211以及RAM212。运算部210至少具备中央运算装置即CPU(Central Processing Unit:中央处理单元)2100作为硬件,CPU2100按照存储于程序存储部211的程序来执行神经网络的学习、生成以及简化处理。但是,也可以将与程序存储部211中存储的程序同样的功能作为硬件电路来实现。进而,在将程序存储部211中存储的所有程序的功能作为硬件电路实现的情况下,服务器21也可以不具备程序存储部211。
为了使神经网络的学习/生成/简化高速化,也可以在运算部210中包含加速器2101。加速器2101考虑FPGA、ASIC和GPU等硬件设备。
程序存储部211具备闪存等非易失性半导体存储器。程序存储部211中存储有用于实现运算系数确定部2110、操作系数决定部2111、系数组计算部2112、间隔剔除部2113、NN执行控制部2114、NN学习控制部2115的程序。这些程序由运算部210执行。参照图4至图5在后面说明这些程序的动作。另外,程序的结构是任意的,可以任意地进行程序的结合或分离。例如,1个程序也可以兼具相当于运算系数确定部2110、操作系数决定部2111、系数组计算部2112、间隔剔除部2113、NN执行控制部2114以及NN学习控制部2115的所有功能。
RAM212是易失性半导体存储器。在RAM212中存储有用于由运算部210执行程序的数据,例如第二结合信息组2120。第二结合信息组2120被用作对神经网络进行简化时的判定条件。第二结合信息组2120也被称为“重要关联WHI”。详情后述。
网络23表示具备电子控制装置22的车辆用于访问服务器21的通信网。访问单元例如可以考虑蜂窝、无线LAN等方式。除了这些无线单元以外,也可以经由OBD(On–BoardDiagnostics)、OBD2(On–Board Diagnostics 2)通过有线方式进行连接。
电子控制装置22具备存储部220、运算部221、程序存储部222以及RAM223。存储部220是闪存等非易失性的存储装置。在存储部220中存储有简化后神经网络2200。简化后NN2200由第三结合信息组22000和网络结构信息22001构成。存储于电子控制装置22的简化后NN2200与存储于存储部20的简化后NN201的名称相同,但数据本身不一定相同。但是,在刚出厂后的初始状态下,简化后NN2200与简化后NN201相同。
运算部221具备中央运算处理装置即CPU2210。CPU2210根据存储在程序存储部222中的程序,执行使用了神经网络的推论处理、神经网络的学习处理。运算部221为了使这些推论、学习处理高速化,也可以具备加速器2101。加速器2101考虑FPGA、ASIC或GPU等的硬件设备。程序存储部222具备闪存等非易失性半导体存储器。程序存储部222中存储有用于实现车辆行驶控制部2220和NN执行控制部2221的程序。
车辆行驶控制部2220具有识别、认知以及判断等用于控制车辆的行驶所需的功能。另外,车辆行驶控制部2220可以不单独执行用于控制车辆的行驶的识别、认知以及判断,例如也可以与搭载于车辆的其他设备和经由网络23连接的其他设备分担、协作。
NN执行控制部2221使用存储于存储部220的简化后NN2200执行推论处理。虽然未图示,但电子控制装置22不仅具有推论处理,还可以具有简化后神经网络2200的学习功能。通过电子控制装置22具有学习功能,电子控制装置22能够不与服务器21协作而单独地进行神经网络的追加学习和更新。
(动作)
参照图4~图5,说明由服务器21进行的神经网络的简化。图4是表示服务器21进行的神经网络的简化处理的流程图。首先,在步骤S400中,NN学习控制部2115生成具备已学习的权重系数值WLE的神经网络、即简化前的神经网络。
然后,在步骤S401中,参照数据集管理表30来在存储在存储部20中的数据中选定重要数据202。在该情况下,例如将优先级为3以上的数据分类为重要数据202,将优先级为2以下的数据分类为通常数据203。另外,该分类可以由服务器21的操作员进行数据的选定,也可以由服务器21通过运算进行分选。另外,在数据已经分类完毕的情况下,也可以省略S401的处理。
接着,在步骤S402中,运算系数确定部2110在已学习权重系数值WLE中,确定与重要数据202相关的权重系数,并将该ID的集合记录为重要关联WHI。即,重要关联WHI列举出与重要数据202相关的权重系数的ID编号。S402的详细情况在下面的图5中进行说明。
在接下来的步骤S403中,操作系数决定部2111基于数据集管理表30和重要数据202来计算操作系数WCOEF。操作系数WCOEF与各权重系数对应地存在,所有的操作系数WCOEF的初始值相同,例如为零。在图3所示的例子中,对与使用被分类为最上段的物体检测用数据1的重要数据202而确定的权重系数对应的操作系数WCOEF加上该数据的操作系数303的值即“2”。越是与由多个重要数据202确定的权重系数对应的操作系数WCOEF越具有较大的值。
在步骤S404中,系数组计算部2112使用重要关联WHI和操作系数WCOEF,计算在神经网络中的权重系数的间隔剔除适用场所的判定中使用的评价系数WNEW。评价系数WNEW也对应于各权重系数而存在。评价系数WNEW对于各权重系数,换言之对于各权重系数的ID,例如如下式1那样计算。
WNEW=D(WHI)*Val(ID)*WCOEF…(式1)
其中,D(WHI)是在处理对象的权重系数的ID被包含在重要关联WHI中的情况下返回“1”,在处理对象的权重系数的ID没有被包含在重要关联WHI中的情况下返回零的函数。另外,Val(ID)是返回处理对象的ID即权重系数的权重系数值的函数。详细内容后述,但评价系数WNEW是在间隔剔除的判定处理中参照的值,值越大则越难以进行间隔剔除。
在接下来的步骤S405中,间隔剔除部2113基于评价系数WNEW的值来决定成为间隔剔除的对象的权重系数。然后,在步骤S406中,从已学习权重系数值WLE将间隔剔除对象的权重系数的权重系数值设为零,生成新的神经网络。但是,在权重系数的行分量或列分量全部为零的情况下,可以删除该行或列。
进而,也可以以与各运算单元100(神经元)连接的所有权重系数的集合单位来进行删除。这可以考虑如下方法:分别计算与运算单元100连接的各权重系数的平方和,按照该值从小到大的顺序删除权重系数的集合。生成的神经网络作为简化后NN201存储在存储部20中,发送到电子控制装置22并保存在存储部220中。另外,间隔剔除适用场所为1个以上。
之后,在步骤S407中,通过再学习、即微调来优化在步骤S406中新生成的新的神经网络中的权重系数。通过该微调能够实现推论精度的提高。但是,步骤S407不是必须的,也可以在S406的执行完成后结束图4所示的处理。
图5是表示图4中的S402的详细内容的流程图。图5所示的处理的执行主体是系数确定部2110。系数确定部2110首先在S500中,使NN执行控制部2114将重要数据202输入到在步骤S400中生成的神经网络来执行推论,计算神经网络的各运算单元的输出OHNU。在接下来的步骤S501中,系数确定部2110基于输出OHNU确定激活程度高的运算单元NHI。在本处理中确定的运算单元判断为是与重要数据202密切相关的运算单元。
在此,考虑根据输出OHNU是否为阈值ACTTH以上来判定激活程度是否高的方法。作为其他方法,考虑神经网络的各层的全部输出OHNU中从值大的开始依次从上位将固定的比例判定为激活程度高的方法。
之后,在步骤S502中,系数确定部2110对在步骤S501中确定出的运算单元NHI确定与运算单元NHI连接的权重系数,并将确定出的权重系数设为重要关联WHI,由此结束本处理流程。若表示步骤S502的处理的一例,则在运算单元NHI为图1所示的运算单元100的情况下,如以下那样进行判断。即,与运算单元100连接的权重系数是结合信息101和结合信息102。这样,与各个运算单元连接的权重系数根据神经网络的网络结构信息被唯一地确定。
根据所述第一实施方式,能够得到以下的作用效果。
(1)神经网络更新系统2具备服务器21以及电子控制装置22。神经网络更新系统2更新神经网络,该神经网络包含多个神经元100、以及包含多个将神经元彼此关联起来的图1的符号101或符号102所示的结合信息的结合信息组。服务器21具备存储部20和运算部210。存储部20存储在被赋予了输入值时用于决定输出值的第一结合信息组2000。运算部210具备:系数确定部2110,其在预定的数据作为输入值被赋予的情况下,确定对预定的数据的影响度超过预定值的多个结合信息即第二结合信息组2120;以及间隔剔除部2113,其基于第一结合信息组2000和第二结合信息组2120,从第一结合信息组2000中删除至少1个结合信息而生成第三结合信息组2010。电子控制装置22存储包含第三结合信息组2010的简化后NN2200。
第三结合信息组2010与第一结合信息组2000相比,结合信息被删除,因此能够降低运算量即消耗电力。进而,由于考虑对要求高精度的推论的重要数据的影响度,决定要删除的结合信息,所以能够限定地控制对于重要数据的推论精度的降低。
(2)预定的数据是指与车辆行驶相关的优先级超过预定值的数据。因此,关于车辆的行驶,能够限定地控制针对要求高精度的推论的数据的推论精度的降低。
(3)间隔剔除部2113确定与第二结合信息组2120中包含的各个结合信息对应的操作系数的集合即操作系数组,对第一结合信息组2000中包含的与各操作系数对应的结合信息计算评价系数来作为评价系数组,对于评价系数组中超过预定值的评价系数,从第一结合信息组2000中确定对应的结合信息,将该确定的结合信息以外的结合信息从第一结合信息组2000中删除,生成第三结合信息组2010。这样,不删除针对要求高精度的推论的重要数据的影响度超过预定值的结合信息,因此能够限定地控制对于重要数据的推论精度的降低。
(4)系数确定部2110在被赋予了预定的数据的情况下的输出值超过预定值的情况下,在多个神经元100中确定与该输出值的决定相关的神经元100,将与该确定出的神经元100关联的结合信息确定为构成第二结合信息组2120的结合信息。
(变形例1)
存储于存储部20的数据、即重要数据202以及通常数据203也可以不包含与在前方行驶的车辆的相对距离。在存储部20中存储的数据中只要包含能够判断是否要求高精度的推论的信息即可。例如,在存储于存储部20的数据中包含物体的类别和高度的情况下,将数据集管理表30变更为图6所示的数据集管理表31。
图6所示的数据集管理表31与第一实施方式中的数据集管理表30相比,优先级判定条件301的内容不同,优先级判定条件301由识别类别3012和物体高度3013构成。识别类别3012表示物体的类别,在图3所示的例子中,在物体是车辆、步行者以及自行车的任意一个的情况下,将优先级设定得较高。物体高度3013表示物体的高度,较高的物体优先级被设定得较高。
此外,在存储于存储部20的数据中包含各种信息的情况下,也可以根据使用该数据的应用来变更优先级判定条件301。即,只要能够针对每个数据决定优先级302以及操作系数303即可,优先级判定条件301也可以使用其他信息。例如优先级判定条件301也可以是与自身位置推定、传感器融合、地图融合、空闲空间检测、物体的移动预测以及行驶轨道计划等使用AI的其他自动驾驶逻辑相关的条件。
(变形例2)
也可以在电子控制装置22的存储部220中还保存简化前NN220,在简化后NN2200中发生了某些问题的情况下切换成简化前NN220,执行使用了神经网络的运算处理。某些问题例如是指,通过使用简化后NN2200的输出结果不得不为了避免碰撞而使紧急制动动作的情况。在产生了这样的问题的情况下,通过切换为简化前NN220,能够排除由于实施了简化处理而导致的对车辆行驶的影响。
(变形例3)
评价系数WNEW的决定方法并不限定于在第一实施方式中示出的使用式1的方法。只要使评价系数WNEW的值变大,使得与重要数据202相关的权重系数难以被间隔剔除即可。例如,也可以使用操作系数WCOEF等那样的修正值对处理对象的ID即权重系数的权重系数值进行比特移位运算来计算评价系数WNEW。另外,也可以对处理对象的ID即权重系数的权重系数值加上操作系数WCOEF等的修正值来计算评价系数WNEW。
(变形例4)
图7是表示变形例4中的图3所示的步骤S402的详细情况的图。即,在本变形例中,代替图5所示的处理而执行图6所示的处理。但是,对与第一实施方式相同的处理标注相同的步骤编号并省略说明。在图7中,首先执行步骤S500,与第一实施方式同样地计算输出OHNU。
在接下来的步骤S601中,NN学习控制部2115将通常数据203作为向神经网络的输入来执行推论,计算神经网络的各运算单元的输出OLNU。然后,在步骤S602中,运算系数确定部2110基于OHNU和OLNU,例如基于OHNU与OLNU的差,确定激活程度高的运算单元NHI。在接下来的S502中,与第一实施方式同样地确定重要关联WHI并结束图7所示的处理。
图8是表示步骤S602的处理的一例的图。图8的(a)是表示步骤S600中的每个运算单元的OHNU的图,图8的(b)是表示步骤S601中的每个运算单元的OLNU的图,图8的(c)是按每个运算单元表示OHNU与OLNU的差值的图。但是,在图8的(a)~(c)中,在横轴方向上排列不同的运算单元的输出,如果图8的(a)~(c)的左右方向的位置相同,则表示相同的运算单元。
在图8中,对各个运算单元分配了ID。例如ID为“n11”的运算单元在图8的(a)~图8的(c)的左端示出,图8的(a)与图8的(b)的差在为图8的(c)。并且,在图8的(c)中,设定阈值WTH,将比阈值WTH大的运算单元确定为激活程度高的运算单元NHI。
(变形例5)
图9是表示变形例5中的图3所示的步骤S402的详细情况的图。即,在本变形例中,代替图5所示的处理而执行图9所示的处理。但是,对与第一实施方式相同的处理标注相同的步骤编号并省略说明。在本变形例中,不确定与重要数据202密切关联的运算单元而确定权重系数。
在图9中,首先在步骤S800中,NN学习控制部2115使用重要数据202进行神经网络的追加学习,计算追加学习后的权重系数WHADDLE。在步骤S800中的追加学习中使用的数据与生成简化前NN200时使用的数据不同。
在接下来的步骤S801中,系数确定部2110基于追加学习前的权重系数值WLE和追加学习后的权重系数值WHADDLE,例如运算两者的权重系数值之差,确定与重要数据202相关的权重函数。追加学习前的权重系数值WLE是在图4的S400中计算出的权重系数值WLE。然后,结束图9所示的处理。
图10是表示图9所示的处理的一例的图。图10的(a)是按简化前NN200的权重系数的每个ID表示权重系数值WLE的图,图10的(b)是按步骤S800中的权重系数的每个ID表示权重系数值WHADDLE的图,图10的(c)是按每个权重系数表示权重系数值WHADDLE和权重系数值WLE的差值的图。
例如,能够判断为权重系数值WHADDLE与权重系数值WLE的差大于预定的阈值WTH的权重系数与重要数据202密切关联。此外,此时也可以评价权重系数值WHADDLE与权重系数值WLE的差的绝对值。进而,也可以从两者之差较大的开始依次从上位起将固定的比例判定为激活程度高的权重系数。
(变形例6)
图11是表示变形例6中的图3所示的步骤S402的详细情况的图。即,在本变形例中,代替图5所示的处理而执行图11所示的处理。但是,对与第一实施方式相同的处理标注相同的步骤编号并省略说明。在本变形例中,与变形例5同样,不确定与重要数据202密切关联的运算单元而确定权重系数。
在图11中,首先在步骤S900中,NN学习控制部2115使用重要数据202进行神经网络的学习,计算权重系数值WHLE。在接下来的步骤S901中,NN学习控制部2115使用通常数据203进行神经网络的学习,计算权重系数值WLLE。在接下来的步骤S902中,系数确定部2110基于已学习的权重系数值WHLE和权重系数值WLLE,确定与重要数据202相关的权重系数,命名为重要关联WHI。
另外,步骤S900和步骤S901也可以在步骤S400中的生成神经网络的处理中执行。另外,也可以使用与在步骤S400中使用的数据不同的重要数据202以及通常数据203进行神经网络的追加学习,由此实施步骤S900和步骤S901的处理。
图12表示步骤S902的处理的一例。图12的(a)示出了步骤S900中的权重系数的每个ID的权重系数值WHLE。图12的(b)示出了步骤S901中的权重系数的每个ID的权重系数值WHADDLE。图12的(c)是表示权重系数的每个ID的、图12的(a)所示的权重系数值WHLE与图12的(b)所示的权重系数值WHADDLE之间的差的图。
在图12的(c)中,通过进行每个ID的差值是否为阈值WTH以上的判定,判定各权重系数是否与重要数据202密切关联。在此,也可以对权重系数值WHLE和权重系数值WLLE的差值结果取绝对值。作为其他方法,考虑从差值大的开始依次从上位起将固定的比例判定为激活程度高的方法。
(变形例7)
图13是表示变形例7中的系统结构的图。在本变形例中,利用由车辆取得的行驶数据,与服务器21协作地对电子控制装置22更新进行了简化的神经网络。图13中的神经网络更新系统2与图2所示的系统结构相比,电子控制装置22的结构如以下那样不同。
在本变形例中,在存储部220中还保存重要数据2201。重要数据2201是搭载于车辆的传感器感测车辆的周围而得到的数据中由后述的重要数据选定部2222提取出的数据。程序存储部222中还存储有用于执行重要数据选定部2222、NN更新控制部2223和重要数据上传部2224的程序。
重要数据选定部2222从车辆中通过外界感测等收集到的数据中选定与车辆行驶控制相关联且判定为优先级高的数据。选定方法可以考虑图3中说明的方法。另外,作为其他方法,考虑将与未达到事故发生,但为了避免碰撞而紧急制动动作的状况相关的传感数据选定为重要数据。除此以外,在基于驾驶员的手动驾驶时、执行不使用神经网络的自动驾驶逻辑或驾驶辅助逻辑时,在后台执行基于神经网络的推论处理,在手动驾驶时的输出结果或不使用神经网络的逻辑的输出结果与基于神经网络的推论处理结果存在偏离的情况下,考虑将向神经网络的输入数据选定为重要数据。
NN更新控制部2223取得由服务器21新生成的神经网络,更新存储部220中存储的简化后NN2200。重要数据上传部2224将由重要数据选定部2222选定,并缓冲在存储部220中的重要数据2201经由网络23上传至服务器21。
(变形例8)
在所述第一实施方式中,说明了在简化处理中删除运算系数的结构。但是,也可以删除神经元、即运算单元。能够删除运算单元的情况是在与该运算单元连接的运算系数全部为零的情况,或者与该运算单元连接的运算系数全部被删除的情况。
第二实施方式
参照图14~图15,对神经网络更新系统的第二实施方式进行说明。在以下的说明中,对与第一实施方式相同的构成要素标注相同的附图标记并主要对不同点进行说明。没有特别说明的方面与第一实施方式相同。在本实施方式中,主要在决定间隔剔除权重系数的比例这一点上与第一实施方式不同。在本实施方式中,将间隔剔除权重系数的比例称为“简化率”。
图14是第二实施方式中的神经网络更新系统2的结构图。图14所示的结构与图2所示的结构相比,还在服务器21的程序存储部211中存储用于实现简化率修正部2116的程序,在存储部20中还存储有简化率修正表204。简化率修正部2116使用由系数确定部2110所确定的运算单元、权重系数信息和简化率修正表204,对在间隔剔除部2113中使用的简化率进行修正。简化率修正表204是用于决定简化率的修正值的信息。
图15是表示简化率修正表204的一例的图。简化率修正表204是用于将与重要数据密切相关的运算单元数140和简化率141对应起来进行管理的表。在重要数据关联运算单元数140的栏中记述有与重要数据密切相关的运算单元的数量。在简化率141的栏中记述有在简化时使用的简化率。简化率是以神经网络的层单位表示间隔剔除权重系数的程度的比例信息。例如,在简化率的规定值被设定为20%的情况下,将该层的权重系数间隔剔除20%。
在简化率141的例子中,设想对原本设定的简化率进行乘法或除法运算来进行修正,但也可以通过比特移位运算、加减运算等其他手段来设定。另外,也可以如10%、20%那样用绝对值设定简化率。在使用简化率修正表204的情况下,例如,在神经网络的任意层中,在由系数确定部2110确定的运算单元的数量为25的情况下,该层的简化率为使用本表信息从通常的简化率除以2。另外,在本例中记载了以层为单位的处理,但也可以是层单位以外的神经网络中的任意的处理单位。
所述的各实施方式以及变形例也可以分别组合。以上,对各种实施方式及变形例进行了说明,但本发明并不限定于这些内容。在本发明的技术思想的范围内考虑的其他方式也包含在本发明的范围内。
以下优先权基础申请的公开内容作为引用文件被并入这里。
日本专利申请2018-168864(2018年9月10日申请)
附图标记的说明
100:运算单元、2:神经网络更新系统、20:存储部、21:服务器、22:电子控制装置、23:网络、200:简化前神经网络、201:简化后神经网络、202:重要数据、203:通常数据、204:简化率修正表、210:运算部、220:存储部、221:运算部、2000:第一结合信息组、2010:第三结合信息组、2110:系数确定部、2111:操作系数决定部、2112:系数组计算部、2113:间隔剔除部、2114:NN执行控制部、2115:NN学习控制部、2116:简化率修正部、2120:第二结合信息组、2200:简化后NN、2210:CPU、22001:网络结构信息、30、31:数据集管理表。
Claims (10)
1.一种电子控制装置,存储神经网络,该神经网络包含多个神经元、包含多个将所述神经元彼此相关联的结合信息的结合信息组,其特征在于,
所述神经网络包含:第三结合信息组,其由间隔剔除部基于用于在被赋予了输入值时决定输出值的第一所述结合信息组和针对作为所述输入值而被赋予的预定的数据的影响度超过预定值的多个所述结合信息即第二结合信息组,从所述第一结合信息组中删除至少1个结合信息而生成。
2.根据权利要求1所述的电子控制装置,其特征在于,
所述预定的数据是与车辆行驶相关的优先级超过预定值的数据。
3.根据权利要求2所述的电子控制装置,其特征在于,
所述间隔剔除部决定与所述第二结合信息组所包含的各个所述结合信息对应的操作系数的集合即操作系数组,对所述第一结合信息组所包含的与各个所述操作系数对应的所述结合信息计算评价系数作为评价系数组,关于所述评价系数组中超过预定值的所述评价系数,从所述第一结合信息组中确定对应的所述结合信息,将该确定的结合信息以外的所述结合信息从所述第一结合信息组中删除,生成所述第三结合信息组。
4.根据权利要求3所述的电子控制装置,其特征在于,
在被赋予了所述预定的数据的情况下的所述输出值超过预定值的情况下,系数确定部在所述多个神经元中确定与该输出值的决定相关的神经元,将与该确定的神经元关联的结合信息确定为构成所述第二结合信息组的所述结合信息。
5.根据权利要求1所述的电子控制装置,其特征在于,
所述第三结合信息组是所述间隔剔除部从所述第一结合信息组中删除至少1个结合信息,通过微调进行最优化而得的所述结合信息组。
6.一种神经网络更新系统,具备服务器以及电子控制装置,更新神经网络,该神经网络包含多个神经元、包含多个将所述神经元彼此相关联的结合信息的结合信息组,其特征在于,
所述服务器具备存储部和运算部,
所述存储部存储在被赋予了输入值时用于决定输出值的第一所述结合信息组,
所述运算部具备:
系数确定部,其在赋予预定的数据作为所述输入值的情况下,确定针对所述预定的数据的影响度超过预定值的多个所述结合信息即第二结合信息组;以及
间隔剔除部,其基于所述第一结合信息组和所述第二结合信息组,从所述第一结合信息组中删除至少1个结合信息来生成第三结合信息组,
所述电子控制装置存储包含所述第三结合信息组的神经网络。
7.根据权利要求6所述的神经网络更新系统,其特征在于,
所述预定的数据是与车辆行驶相关的优先级超过预定值的数据。
8.根据权利要求7所述的神经网络更新系统,其特征在于,
所述间隔剔除部决定与所述第二结合信息组所包含的各个所述结合信息对应的操作系数的集合即操作系数组,对所述第一结合信息组所包含的与各个所述操作系数对应的所述结合信息计算评价系数作为评价系数组,关于所述评价系数组中超过预定值的所述评价系数,从所述第一结合信息组中确定对应的所述结合信息,将该确定的结合信息以外的所述结合信息从所述第一结合信息组中删除,生成所述第三结合信息组。
9.根据权利要求8所述的神经网络更新系统,其特征在于,
在被赋予了所述预定的数据的情况下的所述输出值超过预定值的情况下,所述系数确定部在所述多个神经元中确定与该输出值的决定相关的神经元,将与该确定的神经元关联的结合信息确定为构成所述第二结合信息组的所述结合信息。
10.根据权利要求6所述的神经网络更新系统,其特征在于,
所述间隔剔除部从所述第一结合信息组中删除至少1个结合信息,通过微调使所述结合信息组最优化来生成所述第三结合信息组。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018168864A JP6986503B2 (ja) | 2018-09-10 | 2018-09-10 | 電子制御装置、ニューラルネットワーク更新システム |
JP2018-168864 | 2018-09-10 | ||
PCT/JP2019/032837 WO2020054345A1 (ja) | 2018-09-10 | 2019-08-22 | 電子制御装置、ニューラルネットワーク更新システム |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112534446A true CN112534446A (zh) | 2021-03-19 |
Family
ID=69777809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201980050165.0A Pending CN112534446A (zh) | 2018-09-10 | 2019-08-22 | 电子控制装置、神经网络更新系统 |
Country Status (5)
Country | Link |
---|---|
US (1) | US20210333764A1 (zh) |
JP (1) | JP6986503B2 (zh) |
CN (1) | CN112534446A (zh) |
DE (1) | DE112019003929T5 (zh) |
WO (1) | WO2020054345A1 (zh) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021163287A (ja) * | 2020-03-31 | 2021-10-11 | エイベックス・テクノロジーズ株式会社 | 拡張現実システム |
DE112021004853T5 (de) | 2020-11-16 | 2023-07-13 | Hitachi Astemo, Ltd. | Dnn-kontraktionsvorrichtung und bordrechenvorrichtung |
JP7040589B1 (ja) * | 2020-12-01 | 2022-03-23 | トヨタ自動車株式会社 | 機械学習方法及び機械学習システム |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05197821A (ja) * | 1991-11-11 | 1993-08-06 | Omron Corp | 階層型ニューラルネットの最適化方法及び装置 |
JPH07168799A (ja) * | 1993-09-22 | 1995-07-04 | Fuji Electric Co Ltd | ニューラルネットワークの学習装置 |
CN105938558A (zh) * | 2015-03-06 | 2016-09-14 | 松下知识产权经营株式会社 | 学习方法 |
CN107239803A (zh) * | 2017-07-21 | 2017-10-10 | 国家海洋局第海洋研究所 | 利用深度学习神经网络的海底底质自动分类方法 |
WO2017181336A1 (zh) * | 2016-04-19 | 2017-10-26 | 北京中科寒武纪科技有限公司 | maxout层运算装置和方法 |
CN107516132A (zh) * | 2016-06-15 | 2017-12-26 | 耐能有限公司 | 人造神经网络的简化装置和简化方法 |
CN107531244A (zh) * | 2015-04-21 | 2018-01-02 | 松下知识产权经营株式会社 | 信息处理系统、信息处理方法、以及程序 |
KR20180037558A (ko) * | 2016-10-04 | 2018-04-12 | 한국전자통신연구원 | 적응적 프루닝 및 가중치 공유를 사용하는 컨볼루션 신경망 시스템 및 그것의 동작 방법 |
CN107924487A (zh) * | 2015-04-17 | 2018-04-17 | 情感爱思比株式会社 | 处理系统以及程序 |
CN108171323A (zh) * | 2016-12-28 | 2018-06-15 | 上海寒武纪信息科技有限公司 | 一种人工神经网络计算装置和方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3172278B2 (ja) * | 1991-09-18 | 2001-06-04 | 松下電器産業株式会社 | ニューラルネットワーク回路 |
WO2018058509A1 (en) * | 2016-09-30 | 2018-04-05 | Intel Corporation | Dynamic neural network surgery |
US20180096249A1 (en) * | 2016-10-04 | 2018-04-05 | Electronics And Telecommunications Research Institute | Convolutional neural network system using adaptive pruning and weight sharing and operation method thereof |
US20190362235A1 (en) * | 2018-05-23 | 2019-11-28 | Xiaofan Xu | Hybrid neural network pruning |
-
2018
- 2018-09-10 JP JP2018168864A patent/JP6986503B2/ja active Active
-
2019
- 2019-08-22 DE DE112019003929.6T patent/DE112019003929T5/de active Pending
- 2019-08-22 WO PCT/JP2019/032837 patent/WO2020054345A1/ja active Application Filing
- 2019-08-22 US US17/270,512 patent/US20210333764A1/en active Pending
- 2019-08-22 CN CN201980050165.0A patent/CN112534446A/zh active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH05197821A (ja) * | 1991-11-11 | 1993-08-06 | Omron Corp | 階層型ニューラルネットの最適化方法及び装置 |
JPH07168799A (ja) * | 1993-09-22 | 1995-07-04 | Fuji Electric Co Ltd | ニューラルネットワークの学習装置 |
CN105938558A (zh) * | 2015-03-06 | 2016-09-14 | 松下知识产权经营株式会社 | 学习方法 |
CN107924487A (zh) * | 2015-04-17 | 2018-04-17 | 情感爱思比株式会社 | 处理系统以及程序 |
CN107531244A (zh) * | 2015-04-21 | 2018-01-02 | 松下知识产权经营株式会社 | 信息处理系统、信息处理方法、以及程序 |
WO2017181336A1 (zh) * | 2016-04-19 | 2017-10-26 | 北京中科寒武纪科技有限公司 | maxout层运算装置和方法 |
CN107516132A (zh) * | 2016-06-15 | 2017-12-26 | 耐能有限公司 | 人造神经网络的简化装置和简化方法 |
KR20180037558A (ko) * | 2016-10-04 | 2018-04-12 | 한국전자통신연구원 | 적응적 프루닝 및 가중치 공유를 사용하는 컨볼루션 신경망 시스템 및 그것의 동작 방법 |
CN108171323A (zh) * | 2016-12-28 | 2018-06-15 | 上海寒武纪信息科技有限公司 | 一种人工神经网络计算装置和方法 |
CN107239803A (zh) * | 2017-07-21 | 2017-10-10 | 国家海洋局第海洋研究所 | 利用深度学习神经网络的海底底质自动分类方法 |
Also Published As
Publication number | Publication date |
---|---|
JP6986503B2 (ja) | 2021-12-22 |
DE112019003929T5 (de) | 2021-05-06 |
WO2020054345A1 (ja) | 2020-03-19 |
JP2020042496A (ja) | 2020-03-19 |
US20210333764A1 (en) | 2021-10-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110850854A (zh) | 自动驾驶员代理和为自动驾驶员代理提供策略的策略服务器 | |
CN112534446A (zh) | 电子控制装置、神经网络更新系统 | |
EP3870491A1 (en) | Personal driving style learning for autonomous driving | |
CN113850371A (zh) | 估计到达时间的系统和方法 | |
EP2591443A1 (en) | Assisting vehicle guidance over terrain | |
CN114930122B (zh) | 用于更新数字道路地图的方法和处理器电路 | |
JP2019031268A (ja) | 能動的探索なしの強化学習に基づく制御ポリシー学習及び車両制御方法 | |
JP2020123269A (ja) | 演算装置 | |
CN116626670B (zh) | 自动驾驶模型的生成方法、装置、车辆及存储介质 | |
JP2020071611A (ja) | 機械学習装置 | |
JP6800901B2 (ja) | 物体領域識別装置、物体領域識別方法およびプログラム | |
US20240160548A1 (en) | Information processing system, information processing method, and program | |
JP2022519026A (ja) | ノイズの多いマルチモーダルデータから関心地点についての最適な輸送サービスの場所を自動的に決定する方法 | |
JP7039536B2 (ja) | 地図情報処理システム | |
KR102570295B1 (ko) | 차량 및 그 제어 방법 | |
CN113503883A (zh) | 采集用于构建地图的数据的方法、存储介质及电子设备 | |
US20220405573A1 (en) | Calibration for a distributed system | |
US11922702B2 (en) | Enhanced object detection | |
CN113022582B (zh) | 控制装置、控制装置的控制方法、记录介质、信息处理服务器、信息处理方法以及控制系统 | |
JP7074166B2 (ja) | サーバ、車両の制御装置、および車両の機械学習システム | |
US20230071221A1 (en) | Method for improving the estimation of existence probabilities | |
US20230367993A1 (en) | Dnn contraction device and onboard computation device | |
US20210380092A1 (en) | Vehicle allocation device, vehicle allocation method, and computer readable recording medium | |
US20230406304A1 (en) | Method for training a deep-learning-based machine learning algorithm | |
CN116203602A (zh) | 轨迹停留点计算方法、装置、电子设备及车辆 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information |
Address after: Ibaraki Applicant after: Hitachi astemo Co.,Ltd. Address before: Ibaraki Applicant before: HITACHI AUTOMOTIVE SYSTEMS, Ltd. |
|
CB02 | Change of applicant information |