CN113610141B - 自动驾驶多传感器融合感知模型的鲁棒性测试方法及系统 - Google Patents
自动驾驶多传感器融合感知模型的鲁棒性测试方法及系统 Download PDFInfo
- Publication number
- CN113610141B CN113610141B CN202110880427.5A CN202110880427A CN113610141B CN 113610141 B CN113610141 B CN 113610141B CN 202110880427 A CN202110880427 A CN 202110880427A CN 113610141 B CN113610141 B CN 113610141B
- Authority
- CN
- China
- Prior art keywords
- data
- sensor
- sensor fusion
- model
- fraud data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/214—Generating training patterns; Bootstrap methods, e.g. bagging or boosting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Evolutionary Computation (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了自动驾驶多传感器融合感知模型的鲁棒性测试方法及系统,所述方法包括:利用预处理后的多个车载传感器的数据,训练得到多传感器融合感知模型;从多个车载传感器中选取一个待攻击传感器;在选择的待攻击传感器采集的数据上生成添加对抗扰动噪声的掩码,由此生成欺诈数据;将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;将最终的欺诈数据与其他传感器正常采集到的数据输入到多传感器融合感知模型中,得到多传感器融合感知模型的输出精度,根据输出精度获取多传感器融合感知模型的鲁棒性测试结果。
Description
技术领域
本发明涉及智能驾驶技术领域,具体涉及自动驾驶多传感器融合感知模型的鲁棒性测试方法及系统。
背景技术
近些年来,多传感器融合感知技术在自动驾驶领域被广泛应用,不同传感器和不同模态的数据被应用于图像语义分割、目标识别、目标跟踪等自动驾驶场景任务,取得了很好的效果。然而,深度网络模型的作用原理、可解释性研究并不明朗,可能存在奇异或人为恶意制造的场景和数据使得模型受到干扰和欺诈,严重威胁自动驾驶的安全。为此有必要利用对抗机器学习技术,对针对多传感器融合模型的欺诈和防御相关的技术进行研究,以提高多传感器融合模型的鲁棒性。
对抗机器学习是近几年深度学习中出现的新方向。对抗机器学习的研究内容是:通过向原始输入数据中加入精心设计的、人类不易察觉的噪声,使测试模型输出错误结果,加入对抗噪声的数据被称为“对抗样本”,也可以被称为“欺诈数据”。与传统的高斯噪声、椒盐噪声等噪声不同,对抗噪声能够较大程度地干扰深度网络模型做出正确预测。对抗样本的存在给现有的应用深度网络模型的系统带来了极大的安全隐患,尤其是像自动驾驶这类对安全性、可靠性要求较高的应用场景。为了提升模型的鲁棒性,最常用的方法是使用多种不同传感器数据作为输入,通过融合感知模型输出最终结果。
现有的对抗攻击方法主要是针对单传感器模型,处理数据的类型单一,处理流程也较为简单,很容易攻击成功。然而,这类攻击方法并不能有效地攻击多传感器模型,主要原因是:1)多传感器模型采用多种不同的数据类型作为输入,不同的数据对于输出结果能够产生互补效果;2)同时攻击多个传感器的实现代价太大,且并不能保证物理世界中对抗扰动的可实现性。
发明内容
本发明的目的在于克服上述技术缺陷,提出了一种自动驾驶多传感器融合感知模型的鲁棒性测试方法,可以应用于测试和提升多传感器融合感知模型的鲁棒性。
为实现上述目的,本发明提出了一种自动驾驶多传感器融合感知模型的鲁棒性测试方法,所述方法包括:
同时采集多个车载传感器的数据,并进性相应的预处理;
利用预处理后的多个车载传感器的数据,训练得到多传感器融合感知模型;
从多个车载传感器中选取一个待攻击传感器;在选择的待攻击传感器采集的数据上生成添加对抗扰动噪声的掩码,由此生成欺诈数据;
将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;
将最终的欺诈数据与其他传感器正常采集到的数据输入到多传感器融合感知模型中,得到多传感器融合感知模型的输出精度,
根据输出精度获取多传感器融合感知模型的鲁棒性测试结果。
进一步的,所述从多个车载传感器中选取一个待攻击传感器,具体为:根据显著性分析结果选取对结果影响最大的传感器作为待攻击传感器。
进一步的,所述将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;具体包括:
步骤S1)设预处理后的n-1个车载传感器正常采集的数据为 X0,X1,...,Xi-1,Xi+1,...,Xn-1,加入的欺诈数据为X′i=MXi,M为对抗扰动噪声的掩码,Xi为预处理后的第i个车载传感器正常采集的数据;模型的正确标签为l;攻击多传感器网络模型Jθ(·)的数学表达式为:
Jθ(X0,X1,...,X′i,...,Xn-1)≠l
将上述数学问题建模为下列优化问题:
minimizeD(Xi,X′i)
s.t.Jθ(X0,X1,...,X′i,...,Xn-1)≠l
X′i∈[0,1]n
D(Xi,X′i)为Xi和X′i的欧式距离;
构造f(X0,X1,...,X′i,...,Xn-1)≤0来等价表示Jθ(X0,X1,...,X′i,...,Xn-1)≠l这一条件,f(·)函数的具体构造为:
f(x)=(max(Z(x)j)-Z(x)t)+,j≠t
其中,Z(x)j为多传感器融合感知模型输出层第j个节点输出的置信度;
(max(Z(x)j)-Z(x)t)+=max(max(Z(x)j)-Z(x)t,0),t为正确的标签;
上述的优化问题可以转化为以下形式:
minimizeD(Xi,X′i)+λ·f(X0,X1,...,X′i,...,Xn-1)
s.t.X′i∈[0,1]n
其中,λ为参数;
步骤S3)利用损失函数梯度对欺诈数据进性更新:
步骤S4)当迭代次数k+1达到阈值max_iter或者多传感器融合网络模型Jθ(·)的像素准确率下降到某个临界值thresh_ap;进入步骤S5);否则,k加1后,转入步骤 S2);
进一步的,所述根据输出精度获取多传感器融合感知模型的鲁棒性测试结果,具体包括:
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在5%以内时,表明多传感器融合网络模型Jθ(·)鲁棒性很强;
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在5%~10%时,表明多传感器融合网络模型Jθ(·)鲁棒性较强;
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在10%以外时,表明多传感器融合网络模型Jθ(·)鲁棒性较弱。
本发明提出了一种自动驾驶多传感器融合感知模型的鲁棒性测试系统,所述系统包括:多个车载传感器、数据采集模块、模型训练模块、欺诈数据数据生成模块和鲁棒性测试模块;
所述数据采集模块,用于同时采集多个车载传感器的数据,并进性相应的预处理;
所述模型训练模块,用于利用预处理后的多个车载传感器的数据,训练得到多传感器融合感知模型;
所述欺诈数据数据生成模块,用于从多个车载传感器中选取一个待攻击传感器;在选择的待攻击传感器采集的数据上生成添加对抗扰动噪声的掩码,由此生成欺诈数据;将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;
所述鲁棒性测试模块,用于将最终的欺诈数据与其他传感器正常采集到的数据输入到多传感器融合感知模型中,得到多传感器融合感知模型的输出精度,根据输出精度获取多传感器融合感知模型的鲁棒性测试结果。
进一步的,所述从多个车载传感器中选取一个待攻击传感器,具体为:根据显著性分析结果选取对结果影响最大的传感器作为待攻击传感器。
进一步的,所述将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;具体包括:
步骤S1)设预处理后的n-1个车载传感器正常采集的数据为 X0,X1,...,Xi-1,Xi+1,...,Xn-1,加入的欺诈数据为X′i=MXi,M为对抗扰动噪声的掩码,Xi为预处理后的第i个车载传感器正常采集的数据;模型的正确标签为l;攻击多传感器网络模型Jθ(·)的数学表达式为:
Jθ(X0,X1,...,X′i,...,Xn-1)≠l
将上述数学问题建模为下列优化问题:
minimizeD(Xi,X′i)
s.t.Jθ(X0,X1,...,X′i,...,Xn-1)≠l
X′i∈[0,1]n
D(Xi,X′i)为Xi和X′i的欧式距离;
构造f(X0,X1,...,X′i,...,Xn-1)≤0来等价表示Jθ(X0,X1,...,X′i,...,Xn-1)≠l这一条件,f(·)函数的具体构造为:
f(x)=(max(Z(x)j)-Z(x)t)+,j≠t
其中,Z(x)j为多传感器融合感知模型输出层第j个节点输出的置信度;
(max(Z(x)j)-Z(x)t)+=max(max(Z(x)j)-Z(x)t,0),t为正确的标签;
上述的优化问题可以转化为以下形式:
minimizeD(Xi,X′i)+λ·f(X0,X1,...,X′i,...,Xn-1)
s.t.X′i∈[0,1]n
其中,λ为参数;
步骤S3)利用损失函数梯度对欺诈数据进性更新:
步骤S4)当迭代次数k+1达到阈值max_iter或者多传感器融合网络模型Jθ(·)的像素准确率下降到某个临界值thresh_ap;进入步骤S5);否则,k加1后,转入步骤 S2);
进一步的,所述根据输出精度获取多传感器融合感知模型的鲁棒性测试结果,具体包括:
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在5%以内时,表明多传感器融合网络模型Jθ(·)鲁棒性很强;
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在5%~10%时,表明多传感器融合网络模型Jθ(·)鲁棒性较强;
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在10%以外时,表明多传感器融合网络模型Jθ(·)鲁棒性较弱。
本发明的优势在于:
本发明方法提出了针对多传感器融合感知模型的鲁棒性测试方法,能够通过有效地实施攻击基于多传感器融合感知模型的任务,如图像分割、目标检测等,从而实现模型的鲁棒性有效测试。
附图说明
图1是本发明的实施例1提供的自动驾驶多传感器融合感知模型的鲁棒性测试方法的流程示意图;
图2是本发明的实施例1的欺诈数据迭代流程的架构图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有作出创造性劳动前提下所获得的所有其他实施例,都属于本发明保护的范围。
在介绍本发明实施例之前首先对本发明实施例中涉及到的相关名词作如下释义:
对抗攻击(Adversarial Attack):又名逃逸攻击(Evasion Attack),是一种在不改变网络模型结构、参数的情况下,通过修改输入样本达到使判别器出错的攻击方式,是AI安全领域中最常见的攻击方法之一。
对抗样本(Adversarial Example):又可以称为“欺诈数据”。指被加入精心设计的、人类不容易察觉的、微小的扰动噪声,从而使判别器输出错误识别的测试样本。
受害模型(Victim Model):又可称之为“目标模型”,即接收对抗样本作为输入的网络模型。在本发明中受害模型是多传感器融合感知模型。
多传感器模型(Multisensor Model):使用多种不同类型传感器收集到的数据作为网络模型输入的深度网络模型。
白盒攻击(White-Box Attack):能够获取受害模型全部的结构和参数的对抗攻击方式,与之相对应的是不能够获取受害模型全部的结构和参数的黑盒攻击,以及部分获取的灰盒攻击。
下面结合附图和实施例对本发明的技术方案进行详细的说明。
实施例1
如图1所示,本发明的实施例1提供了一种自动驾驶多传感器融合感知模型的鲁棒性测试方法,包括:
步骤1)通过n个车载传感器同时采集数据X0,X1,...,Xn-1,并进性相应的预处理;
Xi代表第i个传感器采集到的数据。实际应用中,传感器采集到的常见数据类型包括:RGB图像、点云数据、深度图像等。采集完传感器数据后需要进行输入的预处理。
以RGB图像和激光雷达点云数据融合为例,获取同一场景的RGB图像和激光雷达点云并进行预处理;具体包括如下步骤:
步骤101)通过车载相机获取RGB图像X0;
采用安装在行驶车辆上的前向单目相机或前向单目摄像头采集路面图像信息。前向单目相机采集的是行驶车辆的行车方向正前方和路面上方的路面图像信息。即采集的路面图像信息是对应于采集车辆的行车方向的正前方和路面上方的信息的透视图。
步骤102)通过车载激光雷达获取原始点云X1;
在本实施例中,路面图像信息和路面点云信息是同步采集的。即可以在行驶车辆上安装配置激光雷达和前向单目相机后,标定它们的相对位置姿态,同时开始对同一路面开始路面数据信息采集。
车载摄像头采集RGB图像X0,激光雷达采集点云数据X1。
为了便于计算,本发明下述实施例中所涉及的点云,均为360°点云中正对车辆前方,即图像所在方向的部分。并且,由于相机和激光雷达已经完成标定,可以确定点云投影到像素平面的转换矩阵T,以方便后续点云信息的特征提取。
对相机的标定,采用张氏标定法,先设定相机坐标系与世界坐标系,利用相机在预设位置放置的棋盘格上的成像,计算棋盘格的角点位置在成像中的二维坐标,再与棋盘格角点的真实三维坐标计算出变换矩阵;对激光雷达的标定,先设定激光雷达坐标系与真实世界坐标系,在预设位置放置若干障碍物并对齐进行激光雷达扫描,利用障碍物获得的点云在激光雷达坐标系中的坐标和障碍物在真实世界坐标系中的坐标计算得到两个坐标系的变换矩阵,其余参数,包括激光雷达的扫描分辨率、扫描速度、激光雷达与相机的时间对齐等,由各自的硬件信息与安装时的测量可以获得。标定将获得世界坐标系与相机的成像坐标系、世界坐标系与激光雷达坐标系之间的相互转换矩阵。
步骤103)利用转换矩阵T将点云投影到像素平面,更新原始点云图像X1;
具体地,考虑激光雷达和前向摄像头已经完成标定工作,且根据标定参数得到了激光雷达三维坐标系和世界三维坐标系的转换矩阵K1,相机二维成像坐标系和世界三维坐标系的转换矩阵K2。假设世界坐标系下有一点P,在世界坐标系下对应的三维坐标为X10,在点云所在的雷达坐标系中对应的三维坐标为X11,在相机成像坐标系下的二维坐标为U,则U=K2·X10,X11=K1·X10,因此接着截取二维点云图像和灰度图像对应位置且相同尺寸的部分,每个像素点的取值为对应的反射强度值,再对空缺的部分以0值填补。从而激光雷达点云可以转换为灰度图像对应的二维点云图像,用于取代获取的原始点云,仍记为X1。
步骤104)对原始点云图像X1进行插值操作,如近邻插值法等,得到稠密点云图像,仍记为X1;
步骤2)利用预处理后的n个传感器的数据,训练得到多传感器融合感知模型 Jθ(·),其中θ为模型的参数;
以RGB图像和激光雷达点云数据融合为例,将RGB图像和稠密点云数据输入融合感知网络进行训练,获得训练好的融合感知模型以作为受害模型。
步骤3)从n个车载传感器中选取一个待攻击传感器;在选择的待攻击传感器采集的数据上生成添加对抗扰动噪声的掩码M,生成欺诈数据X′i;
输入掩码主要是对欺诈数据进行空间约束,单一传感器输入掩码制作流程具体包括两个步骤:1)选取待攻击传感器;2)在待攻击传感器图像上生成掩码。
从这n个车载传感器中选取一个传感器来进行攻击。选取攻击传感器可以根据显著性分析(如Person相关分析)结果选取对结果影响最大的传感器,也可以人为地指定任意一个传感器。
对选取的攻击传感器,在此传感器图像Xi上生成掩码。该掩码可以用一个四元组(x,y,width,height)来表示,用符号记为M。生成掩码有两种方式:一种是通过启发式搜索算法(如遗传算法)确定四元组,另一种是人为定义该四元组。前者产生的四元组与模型、数据、启发式算法有关,实验效果相对于后者更好,但是掩码位置、大小相对难以控制。
模型原始的输入为X0,X1,...,Xi,...,Xn-1,经过掩码处理后的多传感器输入数据为:X0,X1,...,M·Xi,...,Xn-1。
在本实施例中,作为一种示例,选择车载摄像头传感器进行攻击,即产生针对 RGB图像X0的欺诈数据X′0。
在图像区域上选择一个掩码M,确定下来的掩码信息可以表示为(x,y,width,height)。掩码生成完毕后,对选择攻击的RGB图像数据X0进行transform变换(包括随机尺寸变换、空白填充),得到欺诈数据X′0。随机尺寸变换是指同时将图像数据X0的长、宽随机缩小到原尺寸的某个比例(如0.9,0.85,0.8等),空白填充是指用0把缩小后的图像填充至原尺寸。将进行transform变换后的图像数据X0用掩码相与运算 (取掩码中值为1的坐标,图像上该坐标处的数据保留原值;再取掩码中值为0的坐标,图像上该坐标处的数据值改成0),从而完成初始化输入数据的操作。
步骤4)将X0,X1,...,X′i,...,Xn-1输入步骤2)训练好的多传感器融合感知模型 Jθ(·),计算欺诈数据生成的Loss函数,并进行反向传播;
欺诈数据Loss函数设计具体的流程如下:
设多传感器融合感知模型原始输入为X0,X1,…,Xn-1,加入欺诈数据的传感器记为X′i,模型的正确标签为l。攻击多传感器网络模型的数学表达式为:
Jθ(X0,X1,...,X′i,...,Xn-1)≠l
设D(·)为距离度量函数,引入该距离度量函数是因为:在进行攻击时,既希望能够攻击成功,同时又希望产生的欺诈数据与原始数据(如在场景中采集的未经修改的数据)尽可能地小。常用的距离度量函数一般是采用欧几里得距离。本发明将上述数学问题建模为下列优化问题:
minimizeD(Xi,X′i)
s.t.Jθ(X0,X1,...,X′i,...,Xn-1)≠l
X′i∈[0,1]n
进一步地,为了方便后续的求解,本发明构造了f(X0,X1,...,X′i,...,Xn-1)≤0来等价表示Jθ(X0,X1,...,X′i,...,Xn-1)≠l这一条件,本发明中f(·)函数的具体构造为 f(x)=(max(Z(x)i)-X(x)t)+,i≠t,其中(e)+为max(e,0)的简略表达,t为正确的标签。上述的优化问题可以转化为以下形式:
minimizeD(Xi,X′i)+λ·f(X0,X1,...,X′i,...,Xn-1)
s.t.X′i∈[0,1]n
将处理后的数据X′0,X1作为输入,输入到多传感器融合网络模型Jθ(·)中,得到Jθ(·)的初始化输出Y,根据Y计算生成欺诈数据的Loss,借助深度学习框架PyTorch 的梯度计算功能完成反向梯度传播。
步骤5)结合反向传播梯度对欺诈数据进行迭代更新;
利用步骤4)中计算得到的梯度,借助PyTorch框架中的Adam优化器完成迭代更新。将更新后的X′i和X0,X1,...,Xi-1,Xi+1,...,Xn-1重新输入网络模型,再次执行步骤4)的操作,得到网络模型Jθ(·)的输出后判断是否达到迭代终止条件,如果达到则跳出迭代循环,否则继续执行步骤4)的操作。
在本发明中,为了提升对抗攻击算法的可迁移性和攻击成功率,在生成欺诈数据之前还会对来自被攻击传感器的数据进行transform变换,记为T(·)。transform变换的操作包括:随机尺寸变换、随机空白填充。结合前面对输入进行掩码的操作,上述的优化问题可以表示为下列形式:
minimizeD(Xi,X′i)+λ·f(X0,X1,...,M·T(Xi),...,Xn-1)
s.t.X′i∈[0,1]n
产生的欺诈数据最终集中体现在来自单一传感器的数据上,通过一次迭代生成的欺诈数据的攻击效果往往并不充分,采用迭代式的生成方法就可以产生攻击效果较为充分的欺诈数据。单一传感器对抗数据的生成迭代的具体流程是:首先从原始的输入X0,X1,...,Xn-1选择一个待攻击传感器Xi,并对其进行transform变换、掩码处理,得到变换后的输入X0,X1,...,X′i,...,xn-1,然后将处理后的数据作为输入作为欺诈对象的多传感器模型Jθ中,第一次输入到模型Jθ主要作用是初始化,得到输出然后据此对输入进行迭代,迭代公式如下:
其中,为第i个传感器第k次迭代数据,α为迭代步长(一般取1e-3),L(·)为loss函数(一般选交叉熵损失函数),ytrue是多传感器模型Jθ的正确输出。在迭代的过程中涉及到梯度的计算,本发明采取了深度学习框架PyTorch 进行反向传播,借助其中的Adam优化器可以更快地迭代对抗数据。
将每次迭代后的结果输入到多传感器模型Jθ中,每次迭代都会更新产生的欺诈数据,当迭代次数达到阈值max_iter(如200次)或者多传感器模型Jθ的像素准确率(AP)下降到某个临界值thresh_ap(如0.5),即可退出迭代循环,此时得到的迭代结果即为最终的欺诈数据。如图2所示。
最终将迭代得到的某一传感器数据与其他传感器正常收集到的数据一并输入到多传感器融合感知模型Jθ中,这种修改后的输入数据能够使得被攻击的多传感器融合感知模型Jθ的精度显著下降,从而实现对目标模型的鲁棒性测试。
步骤6)将步骤5)得到的最终的欺诈数据与其他传感器正常采集到的数据,一并输入到多传感器融合感知模型Jθ(·)中,得到网络模型Jθ(·)的输出精度,观察输出精度的下降幅度,输出精度下降越大,说明网络模型Jθ(·)的鲁棒性越弱,反之则说明网络模型Jθ(·)的鲁棒性越强。
物理干扰载体用于将产生的欺诈数据在现实物理世界中实现,如帆布、画纸、木板等,根据场景生成欺诈数据后添加到物理载体上,实现物理世界的真实干扰。
实施例2
本发明的实施了2提出了一种自动驾驶多传感器融合感知模型的鲁棒性测试系统,包括:多个车载传感器、数据采集模块、模型训练模块、欺诈数据数据生成模块和鲁棒性测试模块;
数据采集模块,用于同时采集多个车载传感器的数据,并进性相应的预处理;
模型训练模块,用于利用预处理后的多个车载传感器的数据,训练得到多传感器融合感知模型;
欺诈数据数据生成模块,用于从多个车载传感器中选取一个待攻击传感器;在选择的待攻击传感器采集的数据上生成添加对抗扰动噪声的掩码,由此生成欺诈数据;将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;
鲁棒性测试模块,用于将最终的欺诈数据与其他传感器正常采集到的数据输入到多传感器融合感知模型中,得到多传感器融合感知模型的输出精度,根据输出精度获取多传感器融合感知模型的鲁棒性测试结果。
实施例3
一种计算机设备,包括存储器、处理器及存储在所述存储器上并可在所述处理器上运行的计算机程序,所述处理器执行所述计算机程序时实现实施例1的方法。
实施例4
一种计算机可读存储介质,所述计算机可读存储介质存储有计算机程序,所述计算机程序当被处理器执行时使所述处理器执行实施例1的方法。
需要说明的是,本申请的实施例以相机和激光雷达获取的数据为例,但不限于上述数据,其他传感器的数据均可通过本方法进行攻击。
本领域普通技术人员可以意识到,结合本文中所公开的实施例描述的各示例的单元及算法步骤,能够以电子硬件、或者计算机软件和电子硬件的结合来实现。这些功能究竟以硬件还是软件方式来执行,取决于技术方案的特定应用和设计约束条件。专业技术人员可以对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本发明的范围。
最后所应说明的是,以上实施例仅用以说明本发明的技术方案而非限制。尽管参照实施例对本发明进行了详细说明,本领域的普通技术人员应当理解,对本发明的技术方案进行修改或者等同替换,都不脱离本发明技术方案的精神和范围,其均应涵盖在本发明的权利要求范围当中。
Claims (6)
1.一种自动驾驶多传感器融合感知模型的鲁棒性测试方法,所述方法包括:
同时采集多个车载传感器的数据,并进行相应的预处理;
利用预处理后的多个车载传感器的数据,训练得到多传感器融合感知模型;
从多个车载传感器中选取一个待攻击传感器;在选择的待攻击传感器采集的数据上生成添加对抗扰动噪声的掩码,由此生成欺诈数据;
将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;
将最终的欺诈数据与其他传感器正常采集到的数据输入到多传感器融合感知模型中,得到多传感器融合感知模型的输出精度,
根据输出精度获取多传感器融合感知模型的鲁棒性测试结果;
所述将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;具体包括:
步骤S1)设预处理后的n-1个车载传感器正常采集的数据为X0,X1,...,Xi-1,Xi+1,...,Xn-1,加入的欺诈数据为X′i=MXi,M为对抗扰动噪声的掩码,Xi为预处理后的第i个车载传感器正常采集的数据;模型的正确标签为l;攻击多传感器网络模型Jθ(·)的数学表达式为:
Jθ(X0,X1,…,X′i,…,Xn-1)≠l
将上述数学问题建模为下列优化问题:
minimize D(Xi,X′i)
s.t.Jθ(X0,X1,...,X′i,...,Xn-1)≠l
X′i∈[0,1]n
D(Xi,X′i)为Xi和X′i的欧式距离;
构造f(X0,X1,...,X′i,...,Xn-1)≤0来等价表示Jθ(X0,X1,...,X′i,...,Xn-1)≠l这一条件,f(·)函数的具体构造为:
f(x)=(max(Z(x)j)-Z(x)t)+,j≠t
其中,Z(x)i为多传感器融合感知模型输出层第j个节点输出的置信度;(max(Z(x)j)-Z(x)t)+=max(max(Z(x)j)-Z(x)t,0),t为正确的标签;
上述的优化问题可以转化为以下形式:
minimize D(Xi,X′i)+λ·f(X0,X1,...,X′i,…,Xn-1)
s.t.X′i∈[0,1]n
其中,λ为参数;
步骤S3)利用损失函数梯度对欺诈数据进性更新:
步骤S4)当迭代次数k+1达到阈值max_iter或者多传感器融合网络模型Jθ(·)的像素准确率下降到某个临界值thresh_ap;进入步骤S5);否则,k加1后,转入步骤S2);
2.根据权利要求1所述的自动驾驶多传感器融合感知模型的鲁棒性测试方法,其特征在于,所述从多个车载传感器中选取一个待攻击传感器,具体为:根据显著性分析结果选取对结果影响最大的传感器作为待攻击传感器。
3.根据权利要求1所述的自动驾驶多传感器融合感知模型的鲁棒性测试方法,其特征在于,所述根据输出精度获取多传感器融合感知模型的鲁棒性测试结果,具体包括:
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在5%以内时,表明多传感器融合网络模型Jθ(·)鲁棒性很强;
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在5%~10%时,表明多传感器融合网络模型Jθ(·)鲁棒性较强;
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在10%以外时,表明多传感器融合网络模型Jθ(·)鲁棒性较弱。
4.一种自动驾驶多传感器融合感知模型的鲁棒性测试系统,其特征在于,所述系统包括:多个车载传感器、数据采集模块、模型训练模块、欺诈数据生成模块和鲁棒性测试模块;
所述数据采集模块,用于同时采集多个车载传感器的数据,并进行相应的预处理;
所述模型训练模块,用于利用预处理后的多个车载传感器的数据,训练得到多传感器融合感知模型;
所述欺诈数据生成模块,用于从多个车载传感器中选取一个待攻击传感器;在选择的待攻击传感器采集的数据上生成添加对抗扰动噪声的掩码,由此生成欺诈数据;将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;
所述将欺诈数据与其他传感器正常采集到的数据输入训练好的多传感器融合感知模型,计算欺诈数据生成的损失函数,并进行反向传播;结合损失函数梯度对欺诈数据进行迭代更新,得到最终的欺诈数据;具体包括:
步骤S1)设预处理后的n-1个车载传感器正常采集的数据为X0,X1,...,Xi-1,Xi+1,...,Xn-1,加入的欺诈数据为X′i=MXi,M为对抗扰动噪声的掩码,Xi为预处理后的第i个车载传感器正常采集的数据;模型的正确标签为l;攻击多传感器网络模型Jθ(·)的数学表达式为:
Jθ(X0,X1,…,X′i,…,Xn-1)≠l
将上述数学问题建模为下列优化问题:
minimize D(Xi,X′i)
s.t.Jθ(X0,X1,…,X′i,…,Xn-1)≠l
X′i∈[0,1]n
D(Xi,X′i)为Xi和X′i的欧式距离;
构造f(X0,X1,...,X′i,...,Xn-1)≤0来等价表示Jθ(X0,X1,...,X′i,...,Xn-1)≠l这一条件,f(·)函数的具体构造为:
f(x)=(max(Z(x)j)-Z(x)t)+,j≠t
其中,Z(x)j为多传感器融合感知模型输出层第j个节点输出的置信度;
(max(Z(x)j)-Z(x)t)+=max(max(Z(x)j)-Z(x)t,0),t为正确的标签;
上述的优化问题可以转化为以下形式:
minimize D(Xi,X′i)+λ·f(X0,X1,…,X′i,…,Xn-1)
s.t.X′i∈[0,1]n
其中,λ为参数;
步骤S3)利用损失函数梯度对欺诈数据进性更新:
步骤S4)当迭代次数k+1达到阈值max_iter或者多传感器融合网络模型Jθ(·)的像素准确率下降到某个临界值thresh_ap;进入步骤S5);否则,k加1后,转入步骤S2);
所述鲁棒性测试模块,用于将最终的欺诈数据与其他传感器正常采集到的数据输入到多传感器融合感知模型中,得到多传感器融合感知模型的输出精度,根据输出精度获取多传感器融合感知模型的鲁棒性测试结果。
5.根据权利要求4所述的自动驾驶多传感器融合感知模型的鲁棒性测试系统,其特征在于,所述从多个车载传感器中选取一个待攻击传感器,具体为:根据显著性分析结果选取对结果影响最大的传感器作为待攻击传感器。
6.根据权利要求4所述的自动驾驶多传感器融合感知模型的鲁棒性测试系统,其特征在于,所述根据输出精度获取多传感器融合感知模型的鲁棒性测试结果,具体包括:
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在5%以内时,表明多传感器融合网络模型Jθ(·)鲁棒性很强;
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在5%~10%时,表明多传感器融合网络模型Jθ(·)鲁棒性较强;
当多传感器融合网络模型Jθ(·)的输出精度下降幅度在10%以外时,表明多传感器融合网络模型Jθ(·)鲁棒性较弱。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110880427.5A CN113610141B (zh) | 2021-08-02 | 2021-08-02 | 自动驾驶多传感器融合感知模型的鲁棒性测试方法及系统 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202110880427.5A CN113610141B (zh) | 2021-08-02 | 2021-08-02 | 自动驾驶多传感器融合感知模型的鲁棒性测试方法及系统 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN113610141A CN113610141A (zh) | 2021-11-05 |
CN113610141B true CN113610141B (zh) | 2022-03-11 |
Family
ID=78306484
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202110880427.5A Active CN113610141B (zh) | 2021-08-02 | 2021-08-02 | 自动驾驶多传感器融合感知模型的鲁棒性测试方法及系统 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN113610141B (zh) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114282437B (zh) * | 2021-12-23 | 2024-05-17 | 浙江大学 | 一种物理可实现的激光雷达3d点云对抗样本生成方法及系统 |
CN116071621B (zh) * | 2023-03-15 | 2023-06-23 | 中汽智联技术有限公司 | 针对感知算法的训练样本生成和验证方法、设备和介质 |
CN116451590B (zh) * | 2023-06-09 | 2023-11-17 | 安徽深信科创信息技术有限公司 | 自动驾驶仿真测试平台的仿真方法及装置 |
CN117197631B (zh) * | 2023-11-06 | 2024-04-19 | 安徽蔚来智驾科技有限公司 | 多模态传感器融合感知方法、计算机设备、介质及车辆 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107872460A (zh) * | 2017-11-10 | 2018-04-03 | 重庆邮电大学 | 一种基于随机森林的无线传感网dos攻击轻量级检测方法 |
CN108520268A (zh) * | 2018-03-09 | 2018-09-11 | 浙江工业大学 | 基于样本选择和模型进化的黑盒对抗性攻击防御方法 |
CN110175646A (zh) * | 2019-05-27 | 2019-08-27 | 浙江工业大学 | 基于图像变换的多通道对抗样本检测方法及装置 |
CN110674937A (zh) * | 2019-07-04 | 2020-01-10 | 北京航空航天大学 | 一种提升深度学习模型鲁棒性的训练方法及系统 |
CN110992934A (zh) * | 2019-10-28 | 2020-04-10 | 浙江工业大学 | 面向语音识别系统黑盒攻击模型的防御方法及防御装置 |
CN112766315A (zh) * | 2020-12-31 | 2021-05-07 | 湖南大学 | 一种用于测试人工智能模型鲁棒性的方法和系统 |
CN112800600A (zh) * | 2021-01-18 | 2021-05-14 | 浙江工业大学 | 一种基于多尺度样本熵和贝叶斯网络的隐蔽性攻击检测方法 |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2021026805A1 (zh) * | 2019-08-14 | 2021-02-18 | 东莞理工学院 | 对抗样本检测方法、装置、计算设备及计算机存储介质 |
US11457033B2 (en) * | 2019-09-11 | 2022-09-27 | Artificial Intelligence Foundation, Inc. | Rapid model retraining for a new attack vector |
EP3798911A1 (en) * | 2019-09-24 | 2021-03-31 | Robert Bosch GmbH | Method and system to classify sensor data with improved training robustness |
CN111310814A (zh) * | 2020-02-07 | 2020-06-19 | 支付宝(杭州)信息技术有限公司 | 利用不平衡正负样本对业务预测模型训练的方法及装置 |
-
2021
- 2021-08-02 CN CN202110880427.5A patent/CN113610141B/zh active Active
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107872460A (zh) * | 2017-11-10 | 2018-04-03 | 重庆邮电大学 | 一种基于随机森林的无线传感网dos攻击轻量级检测方法 |
CN108520268A (zh) * | 2018-03-09 | 2018-09-11 | 浙江工业大学 | 基于样本选择和模型进化的黑盒对抗性攻击防御方法 |
CN110175646A (zh) * | 2019-05-27 | 2019-08-27 | 浙江工业大学 | 基于图像变换的多通道对抗样本检测方法及装置 |
CN110674937A (zh) * | 2019-07-04 | 2020-01-10 | 北京航空航天大学 | 一种提升深度学习模型鲁棒性的训练方法及系统 |
CN110992934A (zh) * | 2019-10-28 | 2020-04-10 | 浙江工业大学 | 面向语音识别系统黑盒攻击模型的防御方法及防御装置 |
CN112766315A (zh) * | 2020-12-31 | 2021-05-07 | 湖南大学 | 一种用于测试人工智能模型鲁棒性的方法和系统 |
CN112800600A (zh) * | 2021-01-18 | 2021-05-14 | 浙江工业大学 | 一种基于多尺度样本熵和贝叶斯网络的隐蔽性攻击检测方法 |
Non-Patent Citations (2)
Title |
---|
"Exploring Adversarial Robustness of Multi-sensor Perception Systems in Self Driving";James Tu 等;《arXiv》;20210626;第1-15页 * |
"具有多传感器的CPS系统的攻击检测";杨康 等;《软件学报》;20191231;第30卷(第7期);第2018-2032页 * |
Also Published As
Publication number | Publication date |
---|---|
CN113610141A (zh) | 2021-11-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN113610141B (zh) | 自动驾驶多传感器融合感知模型的鲁棒性测试方法及系统 | |
US11488308B2 (en) | Three-dimensional object detection method and system based on weighted channel features of a point cloud | |
US11182644B2 (en) | Method and apparatus for pose planar constraining on the basis of planar feature extraction | |
CN112270251B (zh) | 一种基于互信息的自适应多传感器数据融合方法及系统 | |
CN106338733B (zh) | 基于蛙眼视觉特性的前视声呐目标跟踪方法 | |
CN107204012A (zh) | 降低飞行时间深度成像的功耗 | |
CN111123927A (zh) | 轨迹规划方法、装置、自动驾驶设备和存储介质 | |
CN110988818A (zh) | 基于条件生成式对抗网络的欺骗干扰模板生成方法 | |
CN108229274B (zh) | 多层神经网络模型训练、道路特征识别的方法和装置 | |
CN112395987A (zh) | 基于无监督域适应cnn的sar图像目标检测方法 | |
CN111784560A (zh) | 基于级联残差生成对抗网络的sar和光学图像双向翻译方法 | |
US11703596B2 (en) | Method and system for automatically processing point cloud based on reinforcement learning | |
CN113743385A (zh) | 一种无人船水面目标检测方法、装置及无人船 | |
CN114155501A (zh) | 一种无人车在烟雾遮挡环境下的目标检测方法 | |
CN114332633B (zh) | 雷达图像目标检测识别方法、设备和存储介质 | |
CN112556682B (zh) | 一种水下复合传感器目标自动检测算法 | |
CN110706253A (zh) | 基于表观特征和深度特征的目标跟踪方法、系统、装置 | |
CN116665097A (zh) | 一种结合上下文感知的自适应目标跟踪方法 | |
CN110826563A (zh) | 基于神经网络和概率图模型的手指静脉分割方法及装置 | |
CN116758212A (zh) | 基于自适应去噪算法的3d重建方法、装置、设备及介质 | |
CN115984439A (zh) | 一种伪装目标的三维对抗纹理生成方法和装置 | |
CN115829875A (zh) | 一种面向无遮挡物理攻击的对抗补丁生成方法及装置 | |
CN114332446B (zh) | 在物理世界下具有旋转鲁棒性的图像对抗样本生成方法 | |
CN115082519A (zh) | 一种基于背景感知相关滤波的飞机跟踪方法、存储介质和电子设备 | |
CN114863235A (zh) | 一种异质遥感图像的融合方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |