CN111226229A - 用于改进机器学习系统的稳健性的方法和设备 - Google Patents

用于改进机器学习系统的稳健性的方法和设备 Download PDF

Info

Publication number
CN111226229A
CN111226229A CN201880069399.5A CN201880069399A CN111226229A CN 111226229 A CN111226229 A CN 111226229A CN 201880069399 A CN201880069399 A CN 201880069399A CN 111226229 A CN111226229 A CN 111226229A
Authority
CN
China
Prior art keywords
data signal
tampered
machine learning
learning system
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201880069399.5A
Other languages
English (en)
Other versions
CN111226229B (zh
Inventor
J.H.梅岑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Publication of CN111226229A publication Critical patent/CN111226229A/zh
Application granted granted Critical
Publication of CN111226229B publication Critical patent/CN111226229B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • G06F18/2113Selection of the most significant subset of features by ranking or filtering the set of features, e.g. using a measure of variance or of feature cross-correlation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • G06F30/27Design optimisation, verification or simulation using machine learning, e.g. artificial intelligence, neural networks, support vector machines [SVM] or training a model
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Medical Informatics (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Manipulator (AREA)
  • Image Analysis (AREA)
  • Feedback Control In General (AREA)

Abstract

一种用于运行探测器(70)的方法,所述探测器配置为检查输送给机器学习系统(60)的数据信号(x)是否已被篡改,其中所述机器学习系统(60)首先借助经篡改的数据信号(xadv)而被对抗训练,其中已通过篡改训练数据信号(xtrain)来测定经篡改的数据信号(xadv),并且其中所述机器学习系统(60)被训练成:当给所述机器学习系统(60)输送训练数据信号(xtrain)和经篡改的数据信号(xadv)时,分别提供相同的输出信号(y),其中所述探测器(70)借助另一经篡改的数据信号(xadv;2)来训练,所述另一经篡改的数据信号根据经过训练的机器学习系统(60)来产生。

Description

用于改进机器学习系统的稳健性的方法和设备
技术领域
本发明涉及一种用于运行探测器的方法、一种计算机程序、一种机器可读的存储介质和一种计算机;所述计算机程序包括指令,所述指令配置为当所述计算机程序在计算机上实施时实施该方法;在所述机器可读的存储介质上存储有所述计算机程序;所述计算机配置为实施所述方法。
背景技术
从未公开的DE 20 2017 102 381中已知了一种用于生成经篡改的数据信号来欺骗第一机器学习系统的设备,该第一机器学习系统配置为测定所接收到的一维或者多维数据信号的语义分割,其中该设备包括机器可读的存储介质,在所述机器可读的存储介质上存储有指令,所述指令在通过计算机实施时引起该计算机实施具有下列步骤的方法:
a)测定经篡改的数据信号的所期望的语义分割;以及
b)根据所接收到的数据信号,生成经篡改的数据信号(和经篡改的数据信号的所测定的期望的语义分割以及所估计的语义分割)。
发明内容
本发明的优点
与此相对照,具有独立权利要求1的特征的方法有如下优点:该方法能够实现使机器学习系统的输出信号相对于对抗样本(英语:adversarial examples)特别稳健。对抗样本是略微经过篡改的输入数据(所述输入数据在图像数据中类似于未经篡改的输入数据,使得这些输入数据对于人类专家而言事实上不能被区分),所述略微经过篡改的输入数据可导致极大改变。例如可能可设想的是,恶意攻击者采用这种对抗样本,以便将自主机器人引入歧途,其方式是:该攻击者例如抑制将实际上存在的流标记为“Fluss(流)”的语义分割,这可能会导致威胁基于语义分割来执行其路线规划的自主机器人。利用根据本发明的方法,可以减小这种攻击的有效性。
有利的改进方案是独立权利要求的主题。
本发明的公开
在第一方面,本发明涉及一种用于运行探测器的方法,所述探测器配置为检查输送给机器学习系统的数据信号是否是经篡改的数据信号、即是否已被篡改,并且因此可能将导致机器学习系统的有错误的输出信号,其中机器学习系统首先借助经篡改的数据信号已被对抗训练。术语“对抗训练”用英语常常命名为adversarial training。
在这种情况下,通过篡改训练数据信号来测定经篡改的数据信号,并且机器学习系统在对抗训练时被训练成:与给机器学习系统是输送训练数据信号还是输送经篡改的数据信号无关地,分别提供相同的输出信号。
接着,借助另一经篡改的数据信号来训练探测器,所述另一经篡改的数据信号根据经过训练的机器学习系统来产生。
也就是说,探测器被训练成判定,当给该探测器输送另一经篡改的数据信号时,输送给该探测器的数据信号是经篡改的数据信号、即已被篡改;并且探测器被训练成判定,当输送给该探测器的数据信号不是另一经篡改的数据信号时,情况不是如此。
这有如下优点:探测器变得特别稳健,因为可能的其他经篡改的数据信号的空间小于经篡改的数据信号的空间。这样经过训练的探测器以此尤其是特别好地是可采用的,以便探测到输入信号是对抗样本。
只要众多机器学习系统的输入变量的空间是高维度的,所述众多机器学习系统的性质就是出现这样的对抗样本。相对应地,机器学习系统可以是深度神经网络或者(多类)逻辑回归,是K最近邻算法或者支持向量机(Support Vector Machine)。
尤其是可以设置,根据机器学习系统的与输入信号有关的成本函数的梯度来选择经篡改的数据信号,所述梯度指向所期望的输出信号的方向。以这种方式,可以特别简单地生成经篡改的数据信号,所述经篡改的数据信号尽管与未经篡改的数据信号有非常大的相似性仍导致机器学习系统的不同的输出信号、尤其是不同分类结果的不同的输出信号。
优选地,经篡改的数据信号被产生来使得,该经篡改的数据信号与数据信号的差包含指向梯度的相反方向的项。
可替选地或者附加地可以设置,根据经过对抗训练的机器学习系统的与输入信号有关的成本函数的第二梯度来选择另一经篡改的数据信号,所述第二梯度指向所期望的输出信号的方向。以这种方式,可以特别简单地生成其他经篡改的数据信号,所述其他经篡改的数据信号尽管与未经篡改的数据信号有非常大的相似性仍导致机器学习系统的不同的输出信号、尤其是不同分类结果的不同的输出信号。
优选地,另一经篡改的数据信号被产生来使得,该另一经篡改的数据信号与数据信号的差包含指向第二梯度的相反方向的项。
在本发明的另一方面可以设置,探测器检查,输送给机器学习系统的数据信号是否将导致机器学习系统的有错误的输出信号。
这尤其是可以被使用,以便根据所测定的输出信号和根据探测器的检查结果来构建对代理的操控(Ansteuerung),尤其是构建对执行器(如例如至少部分自主的机器人)的操控。以这种方式,相对于利用对抗样本的攻击,操控变得特别稳健。
在其他方面,本发明涉及一种计算机程序,该计算机程序配置来实施根据本发明的方法。也就是说,计算机程序包括指令,当计算机运行所述计算机程序时,所述指令促使所述计算机实施根据本发明的方法。
在还有其他方面,本发明涉及一种机器可读的存储介质,在所述机器可读的存储介质上存储有所述计算机程序,并且本发明涉及一种计算机,该计算机配置为实施该方法。
附图说明
随后,参照随附的附图更详细地阐述了本发明的实施形式。在附图中:
图1示意性地示出了根据本发明的探测器的应用可能性;
图2以流程图示出了探测器的训练方法的可能的流程。
具体实施方式
图1示例性地示出了在其环境20中与执行器控制系统40交互的执行器10。执行器10和环境20共同地随后也被称为执行器系统。利用传感器30检测执行器系统的状态,所述状态也可以通过多个传感器来给出。向执行器控制系统40传送传感器30的输出信号S。执行器控制系统40从中测定操控信号A,执行器10接收所述操控信号A。
执行器10例如可以是(部分)自主的机器人、例如(部分)自主的机动车。传感器30例如可以是一个或者多个视频传感器,和/或一个或者多个雷达传感器,和/或一个或者多个超声传感器,和/或一个或者多个位置传感器(例如GPS)。可替选地或者附加地,传感器30也可以包括测定关于执行器系统的状态的信息的信息系统、如例如天气信息系统,该天气信息系统测定环境20中的天气的当前的或者未来的状态。
在另一实施例中,执行器10可以是制造机器人,并且那么,传感器30例如是光学传感器,该光学传感器检测制造机器人的制造产品的性质。
在其他实施例中,执行器10可以是释放系统(Freigabesystem),该释放系统配置为释放或者不释放设备的活动。传感器30例如可以是光学传感器(例如用于检测图像或者视频数据),所述光学传感器配置为检测面部。执行器10根据操控信号(Ansteuersignal)A来测定释放信号,可以使用该释放信号,以便根据释放信号的值来释放所述设备。所述设备例如可以是物理的或者逻辑的访问控制装置。根据操控信号A的值,访问控制装置那么可以设置,允许访问或者不允许访问。
也可能的是,代替执行器10,例如操控医学诊断系统,所述医学诊断系统根据操控信号A输出医学诊断。如果传感器30是检测医学图像的光学传感器,则操控信号A例如可以是如下图像的必要时配备有注释的语义分割:在所述图像中突出有对于医学诊断显现为特别重要的区域。在该情况下,附图标记40标明代理控制系统(Agentensteuerungssystem)。
执行器控制系统40在可选的接收单元50中接收到传感器的输出信号S,所述接收单元50将输出信号S转换成数据信号x(可替选地也可以直接采纳输出信号S作为数据信号x)。数据信号x例如可以是输出信号S的片段或者进一步处理。输出信号x被输送给机器学习系统60、例如神经网络。机器学习系统60通过存放在参数存储器P中的参数来表征。
在下文所描述的优选实施例中,数据信号x是二维图像信号,所述二维图像信号的像素通过例如一个数值(亮度编码)或者三个数值(RGB编码)来表征。但是,数据信号x也可以是另外的一维或者多维数据信号。
机器学习系统60从图像信号x中测定所属的输出信号y、例如逐像素的语义分割。在这种情况下,给图像信号x的每个区域分配语义值。
执行器控制系统40此外还包括探测器70、例如神经网络。探测器70同样接收到图像信号x,并且从中测定探测器信号g,该探测器信号g例如可以是在值域[0;1]中的数,并且可以表征如下可能性:图像信号x已被篡改来使得语义分割y不正确地表征图像数据x。探测器通过存储在第二参数存储器Q中的参数来表征。
在该实施例中,这通过如下方式实现:探测器70配置为使得探测器信号g表征如下可能性:图像信号x是对抗样本。
语义分割y和探测器信号g被传送给输出单元80,所述输出单元80从中测定操控信号A。例如可能的是,输出单元首先检验,探测器信号g是否小于可预先给定的阈值。如果情况如此,则根据语义分割y来测定操控信号A。这是正常情况。反之,如果测定探测器信号g不小于可预先给定的阈值,则可以设置:操控信号A构造为使得所述操控信号A将执行器A转化到保护模式中。当探测器70在图像信号x中探测到错误时,情况如此。
执行器控制系统40在一实施形式中包括计算机和机器可读的存储介质(未示出),在所述机器可读的存储介质上存储有计算机程序,当所述计算机程序被计算机实施时,所述计算机程序促使所述计算机实施执行器控制系统40的所描述的功能性。机器学习系统60和探测器70此处尤其是可以实施为单独的或者共同的计算机程序。
图2以流程图示出了探测器70的训练方法的可能的流程。首先(1000),机器学习系统60以常见方式被训练来生成与输入信号x匹配的输出信号y。这例如可以通过训练数据组以被监控的方式来进行,该训练数据组包含输入信号x并且为此包含分别分配的所期望的输出信号yt。通过评估在所生成的输出信号y与所期望的输出信号yt之间的成本函数(英语:loss function(损失函数))J,那么通过反向传播(英语:backpropagation)可以适配(anpassen)机器学习系统60的参数。代替步骤(1000),也可以考虑经过预训练的机器学习系统60。
接着(1100),测定第二训练数据组,例如从计算机存储器中读出第二训练数据组。第二训练数据组包含具有分配的所期望的输出信号ytrain的训练信号xtrain。对于训练信号xtrain分别生成所分配的对抗样本xadv。这例如通过迭代应用以下公式来进行:
Figure DEST_PATH_IMAGE001
。 (1)
参数α在这种情况下例如可以选择为等于1。函数Clip x,ε (e)将自变量e在这种情况下限制到围绕e的ε环境,例如限制在最大范数(Maximumsnorm)中。如果迭代在这种情况下在索引m的情况下充分收敛,则对抗样本xadv选择为等于
Figure 169186DEST_PATH_IMAGE002
可替选地,在步骤(1100)也可以简单地读入训练信号xtrain和所分配的对抗信号xadv的组。
接着(1200),机器学习系统60被对抗训练,也就是说给机器学习系统60输送训练信号xtrain和所分配的对抗信号xadv,并且测定(针对训练信号xtrain的)所属的输出信号ytrue和(针对对抗信号xadv的)所属的输出信号yfalse。表征机器学习系统60的参数现在(例如经由合适的成本函数和反向传播)被适配为使得这两个输出信号ytrue和yfalse尽可能相等。
步骤(1100)和(1200)也可以多次迭代地来执行,例如执行来使得在步骤(1100)中分别生成一批对抗信号xadv,借助该批对抗信号xadv接着在步骤(1200)中对机器学习系统60进行对抗训练。接着,可以基于这样经过训练的机器学习系统60来重新执行步骤(1100),诸如此类。
紧接着(1300),测定第三训练数据组,例如从计算机存储器中读出第三训练数据组。第三训练数据组也包含训练信号xtrain。类似于步骤(1100),现在生成其他经篡改的数据信号xadv;2。应注意的是,在这种情况下,在应用公式(1)时,成本函数J与表征机器学习系统60的参数有关。经此,在步骤(1200)中执行的对机器学习系统60的对抗训练对其他经篡改的数据信号xadv;2的生成产生影响。生成分配的所期望的输出信号ytrain,例如,当在接下来的步骤(1400)中要输送给探测器70的信号是未经篡改的训练信号xtrain时,所述分配的所期望的输出信号ytrain取值0;而当要输送给探测器70的信号是另一经篡改的数据信号xadv;2时,所述分配的所期望的输出信号ytrain取值1。
接着(1400),利用其他经篡改的数据信号xadv;2和其他未经篡改的信号xtrain将探测器70训练成:当给探测器70输送其他经篡改的数据信号xadv;2之一时,该探测器70的输出信号g尽可能表明存在经篡改的信号;并且当给探测器70输送未经篡改的信号xtrain时,该探测器70的输出信号g尽可能表明不存在经篡改的信号。以此,结束用于训练探测器70的学习方法。
该方法可以作为计算机程序、即软件来实施,或者以硬件或者以由硬件和软件构成的混合形式来实施。

Claims (10)

1.一种用于运行探测器(70)的方法,所述探测器(70)配置为检查输送给机器学习系统(60)的数据信号(x)是否已被篡改,
其中所述机器学习系统(60)首先借助经篡改的数据信号(xadv)被对抗训练,其中已通过篡改训练数据信号(xtrain)来测定所述经篡改的数据信号(xadv),并且其中所述机器学习系统(60)被训练成:当给所述机器学习系统(60)输送所述训练数据信号(xtrain)和所述经篡改的数据信号(xadv)时,分别提供相同的输出信号(y),
其中借助另一经篡改的数据信号(xadv;2)来训练所述探测器(70),所述另一经篡改的数据信号(xadv;2)根据经过训练的机器学习系统(60)来产生。
2.根据权利要求1所述的方法,其中,根据所述机器学习系统(60)的与输入信号(x)有关的成本函数的梯度来选择所述经篡改的数据信号(xadv),所述梯度指向所期望的输出信号(ytarget)的方向。
3.根据权利要求2所述的方法,其中,产生所述经篡改的数据信号(xadv)来使得:所述经篡改的数据信号(xadv)与所述数据信号(x)的差包含指向所述梯度的相反方向的项。
4.根据上述权利要求中任一项所述的方法,其中,根据经过对抗训练的机器学习系统(60)的与所述输入信号(x)有关的成本函数的第二梯度来选择所述另一经篡改的数据信号(xadv;2),所述第二梯度指向所期望的输出信号(ytarget)的方向。
5.根据权利要求4所述的方法,其中,产生所述另一经篡改的数据信号(xadv;2)来使得:所述另一经篡改的数据信号(xadv;2)与所述数据信号(x)的差包含指向所述第二梯度的相反方向的项。
6.根据上述权利要求中任一项所述的方法,其中,所述探测器(70)检查,输送给机器学习系统(60)的数据信号(x)是否已被篡改。
7.根据权利要求6所述的方法,其中,根据所测定的输出信号(y)和所述探测器(70)的检查结果(g)来进行对代理(10)的操控(A)。
8.一种计算机程序,所述计算机程序配置为实施根据权利要求1至7中任一项所述的方法。
9.一种机器可读的存储介质,在所述机器可读的存储介质上存储有根据权利要求8所述的计算机程序。
10.一种计算机,所述计算机配置为实施根据权利要求1至7中任一项所述的方法。
CN201880069399.5A 2017-10-26 2018-10-15 用于改进机器学习系统的稳健性的方法和设备 Active CN111226229B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE102017219274.7 2017-10-26
DE102017219274.7A DE102017219274A1 (de) 2017-10-26 2017-10-26 Verfahren und Vorrichtung zum Verbessern der Robustheit eines maschinellen Lernsystems
PCT/EP2018/078005 WO2019081243A1 (de) 2017-10-26 2018-10-15 Verfahren und vorrichtung zum verbessern der robustheit eines maschinellen lernsystems

Publications (2)

Publication Number Publication Date
CN111226229A true CN111226229A (zh) 2020-06-02
CN111226229B CN111226229B (zh) 2024-03-29

Family

ID=63862161

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201880069399.5A Active CN111226229B (zh) 2017-10-26 2018-10-15 用于改进机器学习系统的稳健性的方法和设备

Country Status (5)

Country Link
US (1) US11599827B2 (zh)
EP (1) EP3701428B1 (zh)
CN (1) CN111226229B (zh)
DE (1) DE102017219274A1 (zh)
WO (1) WO2019081243A1 (zh)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022065878A (ja) * 2020-10-16 2022-04-28 富士通株式会社 情報処理プログラム、情報処理方法、および情報処理装置

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201615006D0 (en) * 2016-09-05 2016-10-19 Nokia Technologies Oy Salient object detection
CN107025284A (zh) * 2017-04-06 2017-08-08 中南大学 网络评论文本情感倾向的识别方法及卷积神经网络模型
CN107154023A (zh) * 2017-05-17 2017-09-12 电子科技大学 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10776664B2 (en) * 2016-03-15 2020-09-15 Imra Europe S.A.S. Method for classification of unique/rare cases by reinforcement learning in neural networks
DE202017102381U1 (de) 2017-04-21 2017-05-11 Robert Bosch Gmbh Vorrichtung zum Verbessern der Robustheit gegen "Adversarial Examples"

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201615006D0 (en) * 2016-09-05 2016-10-19 Nokia Technologies Oy Salient object detection
CN107025284A (zh) * 2017-04-06 2017-08-08 中南大学 网络评论文本情感倾向的识别方法及卷积神经网络模型
CN107154023A (zh) * 2017-05-17 2017-09-12 电子科技大学 基于生成对抗网络和亚像素卷积的人脸超分辨率重建方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
甘刚;陈运;李飞;: "网络对抗训练模拟系统的设计与实现", 电子科技大学学报 *

Also Published As

Publication number Publication date
US11599827B2 (en) 2023-03-07
EP3701428B1 (de) 2023-12-06
EP3701428A1 (de) 2020-09-02
DE102017219274A1 (de) 2019-05-02
CN111226229B (zh) 2024-03-29
US20200334573A1 (en) 2020-10-22
WO2019081243A1 (de) 2019-05-02

Similar Documents

Publication Publication Date Title
US10824122B2 (en) Method and device for improving the robustness with respect to “adversarial examples”
US11055632B2 (en) Method and device for improving the robustness against “adversarial examples”
Mohseni et al. Practical solutions for machine learning safety in autonomous vehicles
US20220300607A1 (en) Physics-based approach for attack detection and localization in closed-loop controls for autonomous vehicles
CN110494866B (zh) 用于对象识别的多个传感器的数据的融合
CN112334917A (zh) 对采用人工智能的系统进行防护
Tiwari et al. Safety envelope for security
CN111754625A (zh) 用于计算机辅助或自主驾驶车辆的协作式3-d环境地图
CN107038723A (zh) 棒状像素估计方法和系统
Luo et al. Stealthy tracking of autonomous vehicles with cache side channels
CN114266282A (zh) 用于自动标记雷达数据的方法和系统
US20210042627A1 (en) Method for recognizing an adversarial disturbance in input data of a neural network
US11921212B2 (en) Long range lidar-based speed estimation
CN112693407A (zh) 车辆安全性增强
CN111226229B (zh) 用于改进机器学习系统的稳健性的方法和设备
Guo et al. VCIDS: Collaborative intrusion detection of sensor and actuator attacks on connected vehicles
Francia et al. Applied machine learning to vehicle security
US11541885B2 (en) Location prediction for dynamic objects
Patel et al. Deep learning and blockchain-based framework to detect malware in autonomous vehicles
CN109715465A (zh) 用于运行第一车辆的方法和设备
Woo et al. Structure learning-based task decomposition for reinforcement learning in non-stationary environments
US20230185919A1 (en) System and process using homomorphic encryption to secure neural network parameters for a motor vehicle
Balaji et al. CANLite: Anomaly detection in controller area networks with multitask learning
CN115482442A (zh) 多模态融合模型对单源对抗的防御
Huang et al. Formal verification of robustness and resilience of learning-enabled state estimation systems for robotics

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant